You are on page 1of 172

МІНІСТЕРСТВО ОСВІТИ І НАУКИ УКРАЇНИ

КИЇВСЬКИЙ НАЦІОНАЛЬНИЙ УНІВЕРСИТЕТ ІМЕНІ ТАРАСА ШЕВЧЕНКА

С. М. Єжов, Л. В. Шмельова

ЗАДАЧІ З ТЕОРІЇ ЙМОВІРНОСТЕЙ


ТА МАТЕМАТИЧНОЇ СТАТИСТИКИ
МЕТОДИ РОЗВ'ЯЗАННЯ

Навчально-методичний посібник
УДК 519.21:519.22(076.1)
ББК 22.171+22.172я7
Є41

Рецензенти:
д-р фіз.-мат. наук, проф. Ю . С . М і ш у р а
д-р фіз.-мат. наук, проф. В . Д . К о ш м а н е н к о
( Інститут математики НАН України)

Затверджено до друку вченою радою фізичного факультету


(протокол № 5 від 3 грудня 2012 року)

Ухвалено науково-методичною радою


Київського національного університету імені Тараса Шевченка
2 квітня 2013 року

Єжов С. М.
Є 41 Задачі з теорії ймовірностей та математичної статистики : методи
розв'язання : навч.-метод. посіб. / С. М. Єжов, Л. В. Шмельова. – К. :
Видавничо-поліграфічний центр "Київський університет", 2014. – 172 с.

Посібник містить необхідні теоретичні відомості, формули і задачі


з курсу теорії ймовірностей та математичної статистики. Розглянуто
методи розв’язання типових задач і наведено їх розв'язки.
Для студентів фізичних і технічних спеціальностей університетів.

УДК 519.21:519.22(076.1)
ББК 22.171+22.172я7

© Єжов С. М., Шмельова Л. В, 2014


© Київський національний університет імені Тараса Шевченка,
ВПЦ "Київський університет", 2014
ЗМІСТ

ПЕРЕДМОВА .............................................................................................4
ВСТУП.........................................................................................................5
Розділ І. ВИПАДКОВІ ПОДІЇ..................................................................6
1. Елементи теорії множин. Діаграми Венна.
Алгебра подій .........................................................................................6
Задачі до підрозділу 1................................................................................11
2. Класична теоретико-імовірнісна модель.
Основні формули комбінаторики.
Відносна частота. Стійкість відносної частоти .................................15
Задачі до підрозділу 2................................................................................18
3. Геометричні ймовірності.................................................................21
Задачі до підрозділу 3................................................................................22
4. Формули додавання та добутку ймовірностей,
умовна ймовірність, формула повної ймовірності,
формула Баєса ......................................................................................25
Задачі до підрозділу 4................................................................................27
5. Послідовність незалежних випробувань.
Схема Бернуллі. Локальна та інтегральна
теореми Муавра–Лапласа. Розподіл Пуассона .................................32
Задачі до підрозділу 5................................................................................36
Розділ ІI. ВИПАДКОВІ ВЕЛИЧИНИ.............................................40
6. Дискретні випадкові величини ......................................................42
Задачі до підрозділу 6................................................................................49
7. Неперервні випадкові величини .....................................................54
Задачі до підрозділу 7................................................................................63
8. Багатовимірні (векторні) випадкові величини ..............................66
Задачі до підрозділу 8................................................................................72
9. Характеристична функція.
Центральні граничні теореми .............................................................77
Задачі до підрозділу 9................................................................................79
Розділ ІII. МАТЕМАТИЧНА СТАТИСТИКА....................................82
10. Статистичні оцінки параметрів розподілу ...................................82
Задачі до підрозділу 10..............................................................................98
Відповіді та розв'язання задач ............................................................104
ДОДАТКИ ...............................................................................................162
ПЕРЕЛІК ВИКОРИСТАНИХ ДЖЕРЕЛ ...........................................171

3
ПЕРЕДМОВА

Задачі, що наведені в посібнику, відповідають курсу теорії


ймовірностей і математичної статистики, який є невід'ємною
складовою курсів з вищої математики для студентів фізичних спе-
ціальностей. У посібнику представлено основні теореми і співвід-
ношення, які використані при розв'язування наведених задач. На-
прикінці посібника наведено відповіді та методи розв'язання задач
підвищеної складності.
Задачі, представлені в посібнику, протягом багатьох років
пропонувались до розв'язування студентами при проведенні
практичних занять з теорії ймовірностей та математичної статис-
тики в Київському національному університеті імені Тараса Шев-
ченка. Розглянуті задачі повністю відповідають програмі цього
курсу. Під час підготовки збірника було використано як загаль-
новідомі підручники див. ([1, 3, 5]), так і навчальні посібники,
рекомендовані програмою курсу теорії ймовірностей та матема-
тичної статистики. Перелік використаних джерел наведено в кінці
посібника. При формуванні навчального посібника були викорис-
тані задачі з уже відомих задачників, а також оригінальні задачі,
які виникли в результаті педагогічної діяльності авторів.

4
ВСТУП

Теорія ймовірностей та математична статистика – це розділ


вищої математики. Ця наука має застосування в реальному жит-
ті і являє безсумнівну цінність для загальної освіти. Теорія ймо-
вірностей і математична статистика дозволяють не тільки одер-
жувати знання, які допомагають розуміти закономірності навко-
лишнього світу, але й знаходити практичне застосування в по-
всякденному житті.
При вивченні фізичних явищ виконуються спостереження та
досліди. Результати цих дослідів зазвичай реєструються у ви-
гляді значень деяких спостережуваних величин. При повторенні
дослідів ми виявляємо розкид отриманих результатів. Напри-
клад, повторюючи вимірювання однієї й тієї самої величини і
тим самим приладом та при збереженні певних умов (темпера-
тура, вологість тощо), ми одержуємо результати, які мало, проте
відрізняються один від одного. Навіть багаторазове вимірюван-
ня не дає можливості точно прогнозувати результат наступного
вимірювання. У цьому сенсі кажуть, що результат вимірювання є
випадковою величиною. Наочним прикладом випадкової вели-
чини може бути номер виграшного квитка в лотереї. Подібних
прикладів випадкових величин можна наводити безліч, однак і у
світі випадків можна виявити певні закономірності. Математич-
ний апарат для вивчення таких закономірностей і дає теорія
ймовірностей та математична статистика.
У цій книзі йдеться про математичну науку, яка дозволяє за
ймовірностями одних випадкових подій знаходити ймовірності
інших, пов'язаних між собою певним чином, і з'ясовує законо-
мірності, які виникають при взаємодії великої кількості випад-
кових факторів.
Вивчення теорії ймовірностей та математичної статистики
вимагає зусиль і терпіння. Проте можливість застосування ме-
тодів теорії ймовірностей до вивчення статистичних закономір-
ностей, що стосуються доволі віддалених одна від одної галузей
науки, заснована на тому, що ймовірності подій завжди задово-
льняють деякі прості співвідношення, які і розглянемо далі.
5
Розділ І

ВИПАДКОВІ ПОДІЇ

1. Елементи теорії множин.


Діаграми Венна. Алгебра подій

У математичних науках поняття множини використовують


для опису предметів або об'єктів. При цьому вважається, що
предмети (об'єкти) даної сукупності можна відрізнити один від
одного та від предметів, що не входять до цієї сукупності.
Зазвичай доводиться користуватися числовими множинами.
Нагадаємо загальновживані позначення: – множина натура-
льних (цілих додатних) чисел; – множина цілих чисел;
– множина раціональних чисел; – множина дійсних чисел.
Запис ω∈ Ω означає, що ω є елементом множини Ω ; запис
ω∉ Ω означає, що ω не є елементом множини Ω . Щоб говори-
ти про якусь множину Ω , треба її якось окреслити, чітко сфор-
мулювати, з яких саме елементів вона складається. У разі, коли
множина, що нас цікавить, містить обмежену кількість елемен-
тів, можна просто назвати всі ці елементи {ω1 , ω2 ,… , ωn } . Фігу-
рні дужки вказують на те, що ми маємо справу з певною мно-
жиною, а символи ω1 , ω2 ,…, ωn – на склад цієї множини.
У теорії ймовірностей результат експерименту з випадко-
вим результатом прийнято називати подією. Вважатимемо, що
ω j – елементарна подія. Тоді множина Ω = {ω1 , ω2 ,… , ωn } є
простором елементарних подій.
Якщо літерами A та B позначено певні множини, то рівність
A = B завжди означає, що A та B складаються з одних і тих
самих елементів, а в теорії ймовірності це означає, що події A
та B відбуваються або не відбуваються одночасно.
Підмножина – подія. Якщо всі елементи множини B також
належать і множині A , то множина B називається підмножи-
ною множини A . Це позначається B ⊂ A , або A ⊃ B . Кажуть,
що множина B міститься в множині A , або множина A містить
6
у собі множину B . Наприклад, множина натуральних чисел є
підмножиною множини цілих чисел : ⊂ .
У теорії ймовірностей позначення B ⊂ A або A ⊃ B вказу-
ють на те, що подія A є наслідком події B , тобто подія A від-
бувається кожного разу, коли відбувається подія B . Якщо хоч
один із елементів множини A не належить множині B , то A не
є підмножиною B : A ⊄ B .
Кожну подію A можна ототожнювати з підмножиною
A ⊂ Ω , яка складається з тих точок ω∈ Ω , при яких відбуваєть-
ся A . Надалі ми не будемо розрізнювати подію A та відповідну
підмножину A ⊂ Ω .
За означенням, існує єдина порожня множина, яка не міс-
тить жодного елемента. У теорії ймовірностей подію A , що не
містить жодної елементарної події, називають неможливою і
позначають ∅ .
Із визначення підмножини випливає, що будь-яка множина
є підмножиною самої себе, тобто справедливим буде твер-
дження A ⊂ A , а порожня множина ∅ є підмножиною будь-
якої множини.
Перетин (переріз) множин. Несумісні події. Подію C , що
відбувається тоді і тільки тоді, коли відбуваються події A і B ,
називають добутком, або перетином, подій A та B і познача-
ють AB , або A ∩ B . Перетином двох множин (подій) A та B
називають множину їх спільних елементів. На рис. 1 зображено
перетин двох множин за допомогою рисунків, які називають ді-
аграмами Венна, або кругами Ейлера. Позначають перетин

A ∩ B , або для нескінченної послідовності множин – ∩A
k =1
k .

Рис. 1. Перетин множин A∩ B


7
Події A і B називають несумісними, якщо їх одночасне на-
стання неможливе (множини не перетинаються), тобто
A ∩ B = ∅ (рис. 2, а).
Об'єднання множин. Залежність і незалежність подій. По-
дію C , що відповідає настанню хоча б однієї із подій A або B ,
називають об'єднанням (рис. 2, б), або сумою подій A і B
(рис. 2, а). Об'єднанням двох множин A та B називають мно-
жину всіх тих і тільки тих елементів, які входять до складу при-
наймні однієї із цих двох множин. Позначають об'єднання мно-
жин A і B так: A ∪ B .

а б
Рис. 2: а) сума множин A + B ; б) об'єднання множин A ∪ B

Згідно з означенням про об'єднання множин та діаграмами


Венна, можна встановити рівність для об'єднання двох множин,
або для двох залежних подій: A ∪ B = A + B − A ∩ B . Водночас
будемо оперувати терміном сума подій (множин) у тому разі,
коли події A та B несумісні, а на діаграмах Венна їх можна зо-
бразити як дві множини A та B , що не перетинаються
(рис. 2, а). Очевидно, у цьому разі A ∪ B ≡ A + B . Якщо
A1 , A2 ,…, An ,… – нескінченна послідовність множин, то їх об'є-

днання позначають ∪A
k =1
k , що рівнозначно A1 ∪ A2 ∪… ∪ An ∪… .

Різниця подій (множин). Подію C , що полягає в тому, що


подія A відбувається, а подія B не відбувається, називають різ-
ницею подій A та B і позначають A \ B . Мовою теорії множин
A \ B – це множина всіх тих елементів, які входять до множини
A , але не входять до множини B (рис. 3). Усі дії з подіями мо-
жна проілюструвати діаграмами Венна. Загалом діаграми не
8
завжди можна зобразити у вигляді кіл. Вони можуть мати і
більш складні структури.

Рис. 3. Різниця множин A\ B

Об'єднання та перетин подій (множин) мають такі власти-


вості (ліворуч записано рівності для множин, а праворуч – ана-
логічні властивості для чисел):
1. Переставний, або комутативний, закон –
A∪ B = B ∪ A a+b =b+a,
A∩ B = B ∩ A a ⋅b = b⋅ a .
2. Сполучний, або асоціативний, закон –
( A ∪ B) ∪ C = A ∪ ( B ∪ C ) (a + b) + c = a + (b + c) ,
( A ∩ B) ∩ C = A ∩ ( B ∩ C ) (a ⋅ b) ⋅ c = a ⋅ (b ⋅ c) .
3. Розподільний, або дистрибутивний, закон множення відно-
сно додавання –
( A ∪ B ) ∩ C = ( A ∩ C ) ∪ ( B ∩ C ) ( a + b) ⋅ c = a ⋅ c + b ⋅ c .
4. Властивості, для яких немає числових аналогій –
( A ∪ C ) ∩ ( B ∪ C ) = ( A ∩ B ) ∪ C (a + c) ⋅ (b + c) ≠ a ⋅ b + c
A∪ A = A a+a≠a,
A∩ A = A a⋅a ≠ a .
Існує основна, або універсальна, множина Ω – достовірна по-
дія, яка відбувається кожного разу. Для довільної події (множини)
A , що належить основній множині Ω , справедливі рівності:
A∪Ω = Ω , A∩Ω = A.
Множину елементів основної множини Ω , що не належить
множині A , називають доповненням множини A до множини
Ω і позначають A . Подію ж, яка полягає в тому, що не відбу-
9
вається подія A , називають протилежною до події A і позна-
чають A (рис. 4). Разом події A , A , ∅ та Ω утворюють пов-
ну групу подій і мають такі властивості:
A ∪ A = Ω ; A ∩ A = ∅ ; ∅ = Ω ; ∅ = Ω ; A = A; A = Ω \ A .
Окрім того, для довільних A та B буде справедливим вираз
A\ B = A∩ B = B \ A .

Рис. 4. Достовірна та протилежна події

Події A1 , A2 ,…, An утворюють повну групу подій, якщо


A1 ∪ A2 ∪… ∪ An = Ω , а Ai ∩ Aj = ∅ , де i , j = 1, 2,… , n ( i ≠ j ) .
Важливу роль у теорії ймовірностей відіграє принцип двоїс-
тості, який можна виразити такими співвідношеннями:
A∪ B = A∩ B , A∩ B = A∪ B ;
B⊂ A ⇔ A⊂B .
Принцип двоїстості справедливий для будь-якої кількості
подій. Роль принципу двоїстості в теорії ймовірностей полягає в
тому, що для будь-якого твердження, що стосується деякої сис-
теми подій, може бути сформульоване еквівалентне йому двоїс-
те твердження, у якому події мають бути замінені на протилежні
– операції об'єднання на операції перетину, і навпаки, а також
ураховано останнє співвідношення.
Розглянуті властивості операцій мають алгебраїчний харак-
тер. Таким чином, якщо є деяка система F множин A ⊆ Ω , то за
допомогою операцій ∪, ∩, \ можна з елементів F побудувати
нову систему множин, які також будуть подіями. Додаючи до
цих подій достовірну Ω і неможливу ∅ події, ми отримаємо
10
систему множин, яку називають алгеброю, тобто такою систе-
мою підмножин множини Ω , що:
1) якщо A ∈ F та B ∈ F , то множини A ∪ B , A ∩ B , A \ B
також належать F ;
2) разом із кожною подією A клас F містить протилежну
подію A .
Отже, якщо клас F не порожній, то Ω ∈ F , оскільки
Ω = A + A , та ∅ ∈ F , оскільки ∅ = Ω .
Алгебра подій дає змогу схарактеризувати множину всіх
можливих результатів будь-якого експерименту з випадковими
результатами, якщо множина Ω його елементарних результа-
тів скінченна.

Задачі до підрозділу 1
1.1. Зобразити на діаграмах Венна відповідні множини (по-
дії) та переконатись, що завжди справджуються такі рівності:
а) A \ ( A ∩ B ) = A \ B ; б) ( A ∪ B ) \ B = A \ B ;
в) A = ( A ∪ B ) \ ( B \ A) ; г) A \ ( B \ C ) = A \ ( ( A ∩ B ) \ C ) ;
ґ) A ∪ B ∪ C = ( A \ B ) ∪ ( B \ C ) ∪ ( C \ A) ∪ ( A ∩ B ∩ C ) ;
д) A ∩ ( B \ C ) = ( A ∩ B ) \ ( A ∩ C )
е) A ∩ ( B \ C ) = ( A ∩ B ) \ C ;
є) A \ ( B ∪ C ) = ( A \ B ) \ C ; ж) A \ ( A \ B ) = A ∩ B .
1.2. Зроблено три постріли по мішені. Нехай подія Ak ≡ {мі-
шень уражена при k -му пострілі}, k = 1, 2,3 . Що означають
такі висловлювання:
а) A1 ∪ A2 ∪ A3 ; б) A1 A2 A3 в) A1 A2 A3 ∪ A1 A2 A3 ∪ A1 A2 A3 .
1.3. Нехай події A , B і C означають успішне складання за-
ліку з "Теорії ймовірностей та математичної статистики" пе-
ршим, другим і третім студентом, відповідно. Визначити, у
чому полягають події:
а) D = ABC ∪ ABC ∪ ABC , б) E = ABC ∪ ABC ∪ ABC .
1.4. Нехай A – множина дільників числа 15, B – множина
простих чисел, менших десяти, C – множина парних чисел,
менших 9. Перерахувати елементи цих множин і знайти:
11
а) A ∪ B ; б) A ∪ C ; в) C ∩ B ;
г) ( A ∪ C ) ∩ B ; ґ) A ∩ C ∩ B .
1.5. Із багатьох подружніх пар випадковим чином обираєть-
ся одна пара. Подія A : "чоловік має надмірну вагу", подія
B : "чоловік важчий за дружину", подія C : "дружина має
надмірну вагу".
Завдання: а) з'ясувати, що означатиме ABC ; A \ ( AB ) ; ABC ; ABC ;
б) перевірити, що AC ⊂ B та AC ⊂ B .
1.6. Нехай A , B і C – випадкові події. Пояснити суть рівнянь:
а) A ∩ B ∩ C = A ; б) A ∪ B ∪ C = A .
1.7. Нехай A , B – випадкові події. Спростити такі вирази для
подій:
а) ( A ∪ B ) ∩ ( B ∪ C ) ; б) ( A ∪ B ) ∩ ( A ∪ B ) ;
в) ( A ∪ B ) ∩ ( A ∪ B ) ∩ ( A ∪ B ) .
1.8. Нехай A , B – довільні події. Довести:
а) A ∩ B = A ∪ B ; б) A ∪ B = A ∩ B .
1.9. Нехай A , B і C – випадкові події, причому A ⊂ B .
Спростити вирази:
а) A ∩ B ; б) A ∪ B ; в) A ∩ B ∩ C ; г) A ∪ B ∪ C .
1.10. Довести, що події достовірні:
а) ( A ∪ B ) ∩ ( A ∪ B ) ∪ ( A ∪ B ) ∩ ( A ∪ B ) ;
б) ( A ∪ B ) ∩ ( A ∪ B ) ∪ ( A ∪ B ) ∩ ( A ∪ B ) .
1.11. Довести, що подія ( A ∪ B) ∩ ( A ∪ B ) ∩ ( A ∪ B) ∩ ( A ∪ B )
неможлива.

Розв'язати задачі за допомогою діаграм Венна

1.12. У групі зі 100 туристів 70 осіб знають англійську мову


(подія A ), 45 знають французьку мову (подія B ) і 23 особи
знають обидві мови ( A ∩ B ). Скільки туристів у групі не
знають жодної мови?
1.13. Серед групи студентів із 40 осіб 30 вміють плавати (подія
A ), 27 – грати у шахи (подія B ), п'ятеро не вміють нічого.
Скільки студентів вміють і плавати, і грати у шахи ( A ∩ B )?
12
1.14. На нульовій контрольній із класичної механіки присутні
40 студентів. Їм запропоновано розв'язати одну задачу з ма-
тематичного аналізу, одну з аналітичної геометрії та одне
диференціальне рівняння. Результати виявилися такими: за-
дачу з математичного аналізу розв'язали 20 студентів (подія
A ), задачу з аналітичної геометрії розв'язали 18 студентів
(подія B ), диференціальне рівняння розв'язали 18 студентів
(подія C ). При цьому задачі з математичного аналізу та ана-
літичної геометрії розв'язали 7 студентів ( A ∩ B ), задачу з
математичного аналізу та диференціальне рівняння розв'яза-
ли 8 студентів ( A ∩ C ), задачу з аналітичної геометрії та ди-
ференціальне рівняння розв'язали 9 студентів ( B ∩ C ). Відо-
мо, що жодної задачі не розв'язали троє. Знайти: а) скільки
студентів розв'язали всі три задачі ( A ∩ B ∩ C ) ? б) скільки
студентів розв'язали по дві задачі?
1.15. Під час незалежного зовнішнього тестування 200 балів
отримали: з математики – 48 абітурієнтів (подія A ), з фізики –
37 абітурієнтів (подія B ), з української мови – 42 абітурієнти
(подія C ), з математики або з фізики – 75 ( A ∪ B ), з матема-
тики або з української мови – 76 ( A ∪ C ), з фізики або з укра-
їнської мови – 66 ( B ∪ C ), з усіх предметів – 4 ( A ∩ B ∩ C ).
Знайти: а) скільки абітурієнтів отримали хоча б одну оцінку
200 балів ( A ∪ B ∪ C ) ? б) скільки з них отримали лише одну
оцінку 200 балів?
1.16. Під час підготовки до іспиту 40 студентів використовува-
ли книги A, B і C . При цьому книгою A користувалися 25
студентів, книгою B – 22 студенти, книгою C – також 22,
книгами A або B ( A ∪ B ) – 33 студенти, A ∪ C – 32 студенти,
B ∪ C – 31 студент, A ∩ B ∩ C – 10 студентів. Знайти: а) скільки
студентів готувались до іспиту лише за книгою A , лише за
книгою B , лише за книгою C ? б) скільки студентів при підго-
товці до іспиту не використовували жодної з трьох книг?
1.17. Упродовж одного тижня в кінотеатрі демонструвалися
три фільми: A, B, C . Із 40 студентів, кожен з яких переглянув
або всі 3 фільми, або лише один. Фільм A дивились 13 студе-
нтів, фільм B – 16, фільм C – 19. Знайти, скільки студентів
проглянули всі три фільми.
13
1.18. Кожен із студентів групи під час зимових канікул 2 рази
був у театрі. При цьому спектаклі A, B і C дивились відпо-
відно 20, 10, 18 студентів. Знайти: а) скільки студентів у гру-
пі? б) скільки з них бачили спектаклі A і B , A і C , B і C ?

Задачі з логіки

1.19. Борис, Дмитро і Світлана стали свідками пограбування


банку. Грабіжники втекли на авто, що чекало на них. Під час
слідства Борис показав, що грабіжники були на синій "Хонді",
Дмитро сказав, що це був чорний "Рено", а Світлана, що то був
"Вольво", але ні в якому разі не синій. Відомо, що кожен зі сві-
дків може точно вказати лише одну деталь – або колір машини,
або її марку. Якого кольору та якої марки був автомобіль?
1.20. Комісар Мегре отримав повідомлення від своїх інспекто-
рів: Торранс встановив, що якщо Франсуа був п'яний, то або
Етьєн вбивця, або Франсуа бреше; Жусьє вважає, що або Еть-
єн вбивця, або Франсуа був тверезим, і вбивство відбулось
опівночі. Інспектор Люка повідомив, що якщо вбивство відбу-
лось опівночі, то або Етьєн вбивця, або Франсуа бреше. Який
висновок зробив комісар Мегре, якщо він точно знає, що тве-
резий Франсуа ніколи не бреше?
1.21. Для полярної експедиції з 8 претендентів
A, B, C , D, E , F , G , H треба обрати 6 спеціалістів: біолога, гід-
ролога, синоптика, радиста, механіка та лікаря. Обов'язки бі-
олога можуть виконувати E і G , гідролога – B і F , синоп-
тика – F і G , радиста – C і D , механіка – C і H , лікаря –
A і D . В експедиції кожен може виконувати лише один
обов'язок. Кого треба брати в експедицію, якщо F не може
їхати без B ; D – без H і C , C не може їхати з G , а A не
може їхати разом з B ?

14
2. Класична теоретико-імовірнісна модель.
Основні формули комбінаторики.
Відносна частота. Стійкість відносної частоти

Явища, які ми спостерігаємо, можна розділити на три групи:


ƒ достовірні (події, що обов'язково відбудуться, якщо буде
реалізована певна сукупність умов);
ƒ неможливі (події, що ніколи не відбудуться, якщо буде реа-
лізована певна сукупність умов);
ƒ випадкові (події, які можуть або відбутися, або не відбутися,
якщо буде реалізована певна сукупність умов).
Теорія ймовірностей вивчає ймовірнісні закономірності ма-
сових однорідних випадкових подій.
Види випадкових подій:
ƒ події називаються рівноймовірними, якщо є підстави вважа-
ти, що жодна з подій не є більш можливою, ніж інша;
ƒ події називаються несумісними, якщо поява однієї з подій
виключає появу інших подій в одному експерименті.
Нагадаємо, що декілька попарно несумісних подій утво-
рюють повну групу подій, якщо в результаті випробувань з'яв-
иться хоча б одна з подій. Як наслідок, поява хоча б однієї події
з повної групи подій є достовірною подією, а в результаті ви-
пробування з'явиться лише одна з цих подій.
Імовірністю події A називають відношення кількості спри-
ятливих для цієї події результатів ( m ) до загальної кількості ( n )
усіх однаково можливих несумісних елементарних подій, що
утворюють повну групу:
P ( A) = m n . (1.1)

У класичній теоретико-імовірнісній схемі вважається, що еле-


ментарні події несумісні, рівноймовірні й утворюють повну групу.
Наслідки:
ƒ імовірність достовірної події дорівнює одиниці P(Ω) = n n = 1 ;
ƒ імовірність неможливої події дорівнює нулю P (∅) = 0 n = 0 ;
ƒ імовірність випадкової події є додатним числом, яке розташо-
ване між нулем та одиницею 0 ≤ m n ≤ 1 .
15
Основні формули комбінаторики

Перестановки1 Pn . Перестановками називають комбінації,


що складаються з одних і тих самих n різних елементів і відріз-
няються лише порядком їхнього розташування. Кількість усіх
перестановок без повторень:
Pn = n! , де n! = 1 ⋅ 2 ⋅ 3 ⋅ … ⋅ n , 0! = 1 . (1.2)

Перестановками з повтореннями складу (k1 , k2 ,… , kn ) з еле-


ментів (a1 , a2 ,… , an ) називають упорядкований набір елементів
n = k1 + k2 + … + kn , у який елемент a1 входить k1 разів, a2 – k2
разів тощо. Кількість перестановок з повтореннями складу:
(k + k + … + kn )!
P (k1 , k2 ,… , kn ) = 1 2 . (1.3)
k1 !k2 !… kn !
Наприклад, для того, щоб порахувати кількість тризначних
чисел, які можна утворити із цифр 1, 2, 3, потрібно користуватися
формулою (1.2): Pn = 3! = 6 (123, 132, 213, 231, 312, 321); якщо ж
треба обчислити кількість тризначних чисел із набору 1, 2, 2
(1 одиниця, 2 двійки), то за допомогою (1.3) отримаємо
3!
P (1, 2) = = 3 , а саме: 122, 212, 221.
1!⋅ 2!
Розміщення2 Anm . Розміщеннями називають комбінації, що
складаються із n різних елементів по m елементів, які відріз-
няються або складом елементів, або їхнім порядком. Кількість
усіх можливих розміщень без повторень:
n! Pn
Anm = n( n − 1)(n − 2)… (n − m + 1) = = . (1.4)
(n − m)! (n − m)!

Кількість усіх можливих розміщень із повтореннями Anm :

Anm = n m . (1.5)

1
Фр. рermutation – перестановка.
2
Фр. аrrangement – розміщення.
16
Для того, щоб обчислити кількість розміщень по дві цифри із
трьох: 1, 2, 3, необхідно використовувати формулу (1.4)
3!
Anm = = 6 (12, 13, 21, 23, 31. 32); якщо розміщення по дві
(3 − 2)!
цифри можуть включати в себе повторення, то слід використо-
вувати формулу (1.5) Anm = 32 = 9 , а саме, до шести розміщень
Anm треба додати ще три: 11, 22, 33.
Сполучення1 Cnm . Сполученнями називають комбінації, що
складаються із n різних елементів по m елементів, які відрізня-
ються хоча б одним елементом. Кількість сполучень без повторень:
n! Am
Cnm = = n . (1.6)
m!(n − m)! m!
Кількість сполучень із повтореннями:
(n + m − 1)!
Cnm = Cnm+ m −1 = = Cnn+−m1 −1 . (1.7)
m!(n − 1)!
Сполучень без повторень із цифр 1, 2, 3, 4 по три цифри за
4!
формулою (1.6) C43 = = 4 (123, 124, 134, 234). Сполучень із
3!1!
6!
повтореннями (1.7) C43 = C63 = = 20 (до результатів (1.5) до-
3!⋅ 3!
даються 111, 122, 133, 144, 211, 222, 233, 244, 311, 322, 333, 344,
411, 422, 433, 444). Числа розміщень, перестановок та сполучень
пов'язані таким співвідношенням Cnm Pm = Anm .
Правило сум. Якщо деякий об'єкт A можна обрати із сукуп-
ності об'єктів m способами, а другий об'єкт B можна обрати n
способами, то вибрати або A , або B можна m + n способами.
Правило добутку. Якщо деякий об'єкт A можна обрати із
сукупності об'єктів m способами, після кожного такого вибору
об'єкт B можна обрати n способами, то пара об'єктів ( A, B ) у
зазначеному порядку можна обрати m ⋅ n способами.

1
Фр. сombination – сполучення.
17
Відносна частота. Відносною частотою події називають від-
ношення кількості експериментів, у яких реалізувалась подія (m) ,
до загальної кількості фактично проведених експериментів (n) :
W ( A) = m n .
Зауваження: імовірність події розраховують до проведення ек-
спериментальних досліджень, а відносну частоту – після досліду.
Стійкість відносної частоти. У різноманітних дослідах ві-
дносна частота змінюється мало (тим менше, чим більшою бу-
ла кількість випробувань), коливаючись навколо деякої пос-
тійної величини. Виявляється, що ця величина й є ймовірністю
появи події. Якщо експериментально встановлено відносну ча-
стоту, то отриману величину можна прийняти за наближене
значення ймовірності.

Задачі до підрозділу 2
2.1. У вазі 15 квіток: 3 білих троянди, 9 червоних гвоздик, 3
жовтих айстри. Навмання обирається одна квітка. Яка ймові-
рність того, що вона а) біла? б) червона? в) жовта?
2.2. Куб, грані якого пофарбовані, розрізали на 1000 малень-
ких кубиків однакового розміру, які потім перемішали. Знай-
ти ймовірність того, що навмання витягнутий кубик має по-
фарбованих граней : а) одну; б) дві; в) три.
2.3. Визначити ймовірність того, що навмання вибране ціле
додатне число, яке менше "10": а) не ділиться ні на "2", ні на
"3"; б) ділиться лише на "2" або лише на "3", в) ділиться на
"2", на "3" або і на "2", і на "3".
2.4. На цирковій виставі рухаються по колу циркової арени 8
вершників на білих та чорних конях. Із них 2 вершники на
білих конях. Яка ймовірність того, що вершники на білих ко-
нях рухаються один за одним?
2.5. Компанія з n осіб (усі мають різні спеціальності) сідає
за круглий стіл. Знайти ймовірність того, що фізик і матема-
тик сидітимуть поруч.
2.6. Скільки "слів" можна утворити перестановкою літер у
слові а) "теорія"?; б) "баобаб"?
18
2.7. Кинуто шість гральних кубиків. Знайти ймовірність та-
ких подій: а) на всіх кубиках випала різна кількість очок;
б) сумарна кількість очок дорівнює 7.
2.8. У пін-коді з чотирьох цифр невідомі дві. Скількома спо-
собами можна набрати пін, якщо а) відомо, що цифри різні?
б) цифри можуть бути однаковими?
2.9. Телефонний номер складається із а) п'яти цифр; б) семи
цифр. Знайти ймовірність того, що всі цифри різні.
2.10. Громадянин прийшов у відділення міліції отримувати
номери на нещодавно куплений новий автомобіль. Якою бу-
де ймовірність того, що випадковим чином йому дістанеться
чотизначний номер, що: а) має всі цифри різні; б) має тільки
дві однакові цифри; в) має дві пари однакових цифр; г) має
тільки три однакових цифри; д) має всі цифри однакові. Чи
складають наведені варіанти повну групу подій?
2.11. Із повної колоди карт (52 карти) вилучають навмання
одразу три карти. Знайти ймовірність того, що це будуть:
а) трійка, сімка, туз; б) дві дами та один валет; в) три королі.
2.12. Із колоди карт (36 карт) навмання вилучають три карти.
Визначити ймовірність того, що сума очок цих карт дорівнює
21, якщо валет (В) становить два очки, дама (Д) – три, король
(К) – чотири, туз (Т) – одинадцять, а решта карт відповідно
шість, сім, вісім, дев'ять і десять очок.
2.13. Із колоди карт (36 карт) навмання вилучають дві карти.
Визначити ймовірність того, що сума очок цих карт дорівнює
21, якщо валет (В) становить два очки, дама (Д) – три, король
(К) – чотири, туз (Т) – одинадцять, а решта карт відповідно
шість, сім, вісім, дев'ять і десять очок.
2.14. Повну колоду карт (52 карти) ділять навпіл. Знайти
ймовірність того, що кількість чорних і червоних карт в обох
пачках однакова.
2.15. Із колоди карт (32 карти) навмання обирають 4 карти.
Знайти ймовірність того, що серед них буде хоча б один туз. Як
зміниться ймовірність, якщо з колоди обирати 3 карти або 5 карт?
2.16. Із колоди карт (32 карти) навмання обирають 10 карт.
Знайти ймовірність того, що серед них буде 8 карт однієї масті.
2.17. У кошику лежать 5 яблук, 5 груш та 5 персиків. Поку-
пець навмання вибирає 5 фруктів. Яка ймовірність того, що
серед обраних фруктів будуть всі три найменування.
2.18. Для виконання лабораторних робіт групу з 12 студентів
(8 хлопців та 4 дівчини) розподіляють випадковим чином по
19
три. Знайти ймовірність того, що в кожній трійці будуть 2
хлопці та 1 дівчина.
2.19. Кидають дві гральні кістки. Знайти ймовірність того, що
а) випаде однакова кількість очок на обох кістках; б) випаде
різна кількість очок.
2.20. У старовинній грі в кістки для виграшу необхідно було
викинути на трьох гральних кістках суму більшу 10. Знайти
ймовірність а) викинути 11 та 12 очок; б) виграшу.
2.21. Монету підкидають два рази. Знайти ймовірність того,
що хоча б раз з'явиться герб.
2.22. Викидають дві гральні кістки. Знайти ймовірність того,
що добуток очок, що випали, буде парним числом.
2.23. Знайти ймовірність того, що із шести позначених чисел
у карточці наборів чисел (гра 6 з 49) k чисел буде виграш-
ним ( k = 1, 6 ).
2.24. По мішені зроблено 20 пострілів, причому зафіксовано
18 влучень. Знайти відносну частоту влучень у ціль.
2.25. На оптичному практикумі студенти виконували вимі-
рювання. Студенти провели 45 вимірювань. На думку викла-
дача, 9 із цих вимірювань мають завелику похибку. Визначи-
ти відносну частоту правильних вимірювань.
2.26. Задача про день народження. Нехай в аудиторії є n сту-
дентів. Яка ймовірність того, що хоча б у двох збігаються дні
народження? Якою має бути розмір аудиторії, щоб у ній з імо-
вірністю 1/2 знайшлося принаймні дві особи з однаковими
днями народження?
2.27. Задача про Ваш день народження. Знайти ймовірність
того, що в аудиторії є n слухачів, день народження яких збіга-
ється з вашим особистим днем народження? Якою повинен
бути розмір аудиторії, щоб у ній з імовірністю 1/2 знайшлася
людина, що народилась у той самий день, що і ви?
2.28. Статистика Максвелла–Больцмана. Нехай є r різних
частинок, кожна з яких може перебувати в будь-яких із n комі-
рок (станів) незалежно від того, де при цьому перебувають інші
частинки. Скільки різних розміщень r частинок по n комірках.
2.29. Статистика Бозе–Енштейна. Нехай є r однакових
частинок, кожна з яких може перебувати в будь-яких із n
комірок (станів) незалежно від того, де при цьому розташо-
вані інші частинки. Скільки різних розміщень r частинок по
n комірках.
20
2.30. Статистика Фермі–Дірака. Нехай є r однакових час-
тинок, кожна з яких може перебувати в одній із n комірок
(станів). При цьому в кожному стані може перебувати не бі-
льше однієї частинки. Скільки різних розміщень r частинок
по n комірках.

3. Геометричні ймовірності

Для багатьох експериментів характерним є те, що можлива


нескінченна множина (навіть континуум) елементарних подій. У
таких випадках імовірність зручно задавати за допомогою гус-
тини ймовірностей. При цьому від додавання ймовірностей
елементарних подій переходять до інтегрування густини ймові-
рності по множині, що відповідає деякій події A , а ймовірність
кожної елементарної події дорівнює нулю.
Якщо множина Ω є неперервною і квадрованою (тобто має
довжину, площу, об'єм тощо), то для обчислення ймовірності
P ( A ) ( A ⊂ Ω ) використовують геометричну ймовірність
m( A)
P ( A) = . (1.8)
m (Ω)
Якщо множина Ω вимірюється в лінійних одиницях, то
P ( A ) дорівнюватиме відношенню довжин, якщо Ω вимірюєть-
ся у квадратних одиницях, то P ( A ) дорівнюватиме відношенню
площ тощо. А саме:
ƒ нехай відрізок l є частиною відрізка L . На відрізок L на-
вмання поставлена точка. Якщо вважати, що ймовірність потрап-
ляння точки на відрізок l пропорційна довжині цього відрізка та
не залежить від його розташування відносно відрізка L , то ймові-
рність потрапляння точки на відрізок l визначатиметься рівністю:
довжина l
P= ;
довжина L
ƒ нехай плоска фігура s є частиною плоскої фігури S . На
фігуру S навмання поставлена точка. Якщо вважати, що ймові-
21
рність потрапляння точки на фігуру s пропорційна площі цієї
фігури, і не залежить ні від її розташування відносно площі S ,
ні від форми s , то ймовірність потрапляння точки на фігуру s
визначатиметься рівністю:
площа s
P= ;
площа S
ƒ імовірність потрапляння точки в просторову фігуру υ , яка
є частиною фігури V :
об'єм υ
P= .
об'єм V

Задачі до підрозділу 3
3.1. На відрізку L довжиною 20 см розташований відрізок l
довжиною 5 см. Знайти ймовірність того, що точка, поставлена
на великий відрізок, потрапить також і на малий. Вважається,
що ймовірність потрапляння точки на відрізок l пропорційна
довжині цього відрізка і не залежить від його розташування.
3.2. На відрізок ОА довжиною L числової осі ОХ навмання
поставлена точка В. Знайти ймовірність того, що менший із
відрізків ОВ та ВА має довжину, більшу за L 3 . Вважається,
що ймовірність потрапляння точки на відрізок l пропорційна
довжині цього відрізка і не залежить від його розташування.
3.3. Дріт довжиною 20 см був зігнутий навмання в довіль-
ній точці. Після цього дріт перегнули ще у двох точках. Із
нього зробили прямокутну рамку: а) знайти ймовірність то-
го, що площа отриманої рамки не перевищує 21 см2;
б) якою буде ймовірність того, що площа отриманої рамки
не перевищує 16 см2.
3.4. На відрізку OA довжини L поставлені дві точки B i C,
причому довжина ОВ менша від довжини ОС. Знайти ймові-
рність того, що довжина ВС менша від довжини ОВ. Вважа-
ти, що ймовірність потрапляння точки на відрізок пропор-
ційна довжині цього відрізка і не залежить від його розташу-
вання на числовій осі.
22
3.5. На відрізку ON довжиною L поставлено дві точки B i C.
Знайти ймовірність того, що довжина ВС менша від L / 2 .
Вважати, що ймовірність потрапляння точки на відрізок про-
порційна довжині цього відрізка і не залежить від його розта-
шування на числовій осі.
3.6. Нехай на відрізку [ a, b ] довжиною l = b − a довільно
ставиться точка. Яка ймовірність того, що вона потрапить на
відрізок [ α, β] , який міститься в [ a, b ] .
3.7. Нехай на відрізку [ a, b ] довжини l = b − a навмання пос-
тавлено дві точки. Яка ймовірність того, що відстань між
ними буде не більшою за λ ( 0 ≤ λ ≤ l ) .
3.8. Площина розграфлена паралельними прямими, що роз-
ташовані на відстані 2a одна від одної. На площину випад-
ковим чином кинуто монету радіуса r < a . Знайти ймовір-
ність того, що монета не перетне жодної прямої.
3.9. На площину з нанесеною сіткою квадратів із стороною
a випадковим чином кинуто монету радіуса r < a / 2 . Знай-
ти ймовірність того, що монета не перетне жодної із сторін
квадрата. Вважається, що ймовірність потрапляння точки у
фігуру пропорційна площині цієї фігури і не залежить від її
розташування.
3.10. На площині накреслено 2 концентричні кола, радіуси
яких дорівнюють 5 та 10 см, відповідно. Знайти ймовірність
того, що точка, кинута на вдачу у велике коло, також потра-
пить у кільце, утворене накресленими колами. Вважається,
що ймовірність точки потрапити у плоску фігуру пропорцій-
на площині цієї фігури і не залежить від її розташування.
3.11. У середину кола радіуса R поставлена точка. Знайти ймо-
вірність того, що точка опиниться всередині вписаного в коло:
а) квадрата; б) правильного трикутника.
Вважається, що ймовірність попадання точки в частину
кола пропорційна площині цієї частини і не залежить від її
розташування відносно кола.
3.12. У куб із ребром довжини a вписана куля. Знайти ймовір-
ність того, що на удачу вибрана точка лежатиме всередині кулі.
3.13. У сфері радіуса R випадковим чином розкидано n то-
чок. Знайти ймовірність того, що відстань від центра до най-
ближчої точки буде не меншою l .
23
3.14. Навмання обрано два додатних числа x та y , кожне з
яких не перевищує 1. Знайти ймовірність того, що добуток
xy не перевищує 1/8, а відношення y x не перевищує 1.
3.15. Навмання обрано два додатних числа x та y , кожне з
яких не перевищує 0,8, але і не менше від 0,2. Знайти ймові-
рність того, що добуток xy не менше 0,21, а сума x + y не
перевищує 1.
3.16. Дві точки обрані випадковим чином з відрізка [–1,1]. Не-
хай a та b – координати цих точок. Знайти ймовірність того,
що квадратне рівняння x 2 + ax + b = 0 буде мати дійсні корені.
3.17. Задача Бюффона1. На площині накреслені паралельні
прямі, що розташовані на відстані 2a одна від іншої. На пло-
щину випадковим чином кинуто голку довжиною 2l (l < a) .
Знайти ймовірність того, що голка перетне одну з прямих.
3.18. Імовірність точки розлому опинитись у будь-якій частині
прута пропорційна довжині цієї частини. Прут довжиною l ро-
зломили на три частини випадковим чином. Знайти ймовір-
ність того, що з отриманих частин можна скласти трикутник.
3.19. Задача про зустріч. Два студенти домовились зустріти-
ся в певному місці на проміжку часу [T1 , T2 ] . Той, хто при-
йшов першим, повинен чекати не довше t0 , після чого він
повинен піти з місця зустрічі. Знайти ймовірність того, що
студенти зустрінуться, якщо кожен із них обирає випадковим
чином час приходу (на проміжку часу [T1 , T2 ] ).
3.20. Приймач періодично з постійною швидкістю проходить
діапазон частот [ω1 , ω2 ] , на якому очікується сигнал, що за
ним ведеться спостереження. Смуга пропускання приймача
визначається припустимим розладом відносно сигналу ω .
Вважаючи сигнал точковим як у часі, так і за частотою, поя-
ву сигналу рівноймовірною в довільний момент часу в дові-
льній точці інтервалу [ω1 − ω, ω2 + ω] , знайти ймовірність
виявлення сигналу.

1
Ж. Бюффон – фр. дослідник XVIII ст.
24
4. Формули додавання та добутку ймовірностей,
умовна ймовірність, формула повної ймовірності,
формула Баєса

А тепер розглянемо тільки зліченні об'єднання і перетин.


Формули додавання ймовірностей. Для несумісних подій A
та B імовірність появи однієї з двох несумісних подій, байдуже
якої, дорівнює сумі ймовірностей цих подій:
P ( A ∪ B ) = P ( A) + P( B ) . (1.9)

Аксіома зліченної адитивності ймовірності для попарно несумі-


сних подій:

P ( A ) = ∑ P ( Ai ) . (1.10)
i =1

Для сумісних подій A та B . Імовірність появи однієї з двох


сумісних подій, байдуже якої, дорівнює сумі ймовірностей цих
подій без імовірності їх сумісної появи:
P ( A ∪ B ) = P ( A) + P ( B ) − P ( A ∩ B ) . (1.11)

Наведений вираз можна узагальнити на довільну кількість сумі-


сних подій:
Pn ( A1 ∪ A2 ∪… ∪ An ) = ∑ P( Ai ) − ∑ P ( Ai ∩ Aj ) +
i i< j
(1.12)
+ ∑ P( Ai ∩ Aj ∩ Ak ) − … + (−1) n −1
P ( A1 ∩ A2 ∩… ∩ An )
i< j<k

Умовна ймовірність – це ймовірність однієї події за умови,


що інша подія вже відбулася. Нехай ( Ω, F, P ) – фіксований імо-
вірнісний простір. Нехай A, B ∈ F дві випадкові події, причому
P ( B ) > 0 . Тоді умовною ймовірністю події A за умови, що подія
B уже відбулась, називають
P ( A ∩ B)
P ( A | B) = . (1.13)
P(B)
Формули добутку ймовірностей. Імовірність сумісної появи
двох подій дорівнює добутку ймовірності однієї з них на умовну
ймовірність другої, обраховану в припущенні, що перша подія
вже відбулась:
25
P ( A ∩ B ) = P( A | B ) P ( B ) ≡ P ( B | A) P( A) ,
де P ( A | B) , ( P ( B | A) ) – умовна ймовірність появи події A (по-
дії B ) за умови, що подія B ( A ) уже відбулась.
Імовірність появи декількох подій дорівнює добутку ймовір-
ності однієї з подій на умовні ймовірності всіх інших, причому
ймовірність кожної наступної події визначають у припущенні,
що попередні події вже відбулись:
P( A1 A2 … An ) = P( An | A1 A2 … An −1 )… P( A3 | A1 A2 ) P( A2 | A1 ) P( A1 ) .
Імовірність появи двох незалежних подій дорівнює добутку
ймовірностей цих подій P ( A ∩ B ) = P ( B ) P ( A) . При цьому ймо-
вірність сумісної появи декількох подій, незалежних у сукупно-
сті, дорівнює добутку ймовірностей цих подій:
P ( A1 A2 … An ) = P ( A1 ) P ( A2 )… P ( An ) .
Властивості умовної ймовірності аналогічні властивостям
імовірності:
1) P (Ω | B) = 1 ;
2) P ( A | B ) = 1 − P ( A | B ) ;
3) P ( A1 + A2 | B) = P( A1 | B ) + P ( A2 | B) ;
4) P ( A1 ∪ A2 | B ) = P( A1 | B ) + P ( A2 | B ) − P ( A1 ∩ A2 | B) ;

5) P ( A1 + A2 + … | B ) = ∑ P ( Aj | B ) .
j =1

Імовірність появи хоча б однієї події. Імовірність появи по-


дії A , що визначає появу хоча б однієї події з подій A1 , A2 ,… , An ,
які є незалежними в сукупності та такими, що відбуваються з
імовірностями p1 , p2 ,… , pn , дорівнює різниці між одиницею
(визначає ймовірність повного набору можливих подій) і добут-
ком імовірностей протилежних подій A1 , A2 ,… , An :
P ( A) = 1 − q1q2 … qn ,
де qi = 1 − pi – імовірність того, що i -та подія не відбулась (імо-
вірність події Ai ).
26
Якщо всі n подій мають однакову ймовірність, що дорівнює
p , то ймовірність появи хоча б однієї події визначатиметься як
P ( A) = 1 − q n .
Формула повної ймовірності. Імовірність появи події A ,
яка може настати лише за появи однієї з несумісних подій (гіпо-
тез) B1 , B2 ,… , Bn , що утворюють повну групу, дорівнює сумі до-
бутків імовірностей кожної з гіпотез на відповідну умовну ймо-
вірність події A :
n n
P ( A) = ∑ P ( A ∩ Bi ) = ∑ P ( A | Bi ) P ( Bi ) , (1.14)
i =1 i =1
n
де ∑ P( B ) = 1 .
i =1
i

Наведена формула й є формулою повної ймовірності.


Імовірність гіпотез. Формула Баєса. Якщо подія A може
реалізуватись лише за умови настання однієї із декількох подій
(гіпотез) B1 , B2 ,…, Bn , які утворюють повну групу, і якщо подія
A уже здійснилась, то ймовірності гіпотез можуть бути перео-
цінені відповідно до формул Баєса:
P ( A | Bi ) P ( Bi ) P ( A | Bi ) P ( Bi )
P ( Bi | A) = = , (1.15)
P ( A) n

∑ P( A| B ) P(B )
i =1
i i

де P( A) – повна ймовірність, яка обчислюється за допомогою


апріорних гіпотез (a priori – перед дослідом); P ( Bi | A) – умовна
ймовірність апостеріорної гіпотези (a posteriori – після досліду).
Формули Баєса дозволяють переоцінити ймовірності гіпотез,
після того, як стає відомим результат випробувань, у результаті
яких реалізувалась подія A .

Задачі до підрозділу 4
4.1. Стрілець стріляє в мішень. Імовірність вибити 10 очок
дорівнює 0,3, а ймовірність вибити 9 очок дорівнює 0,6. Чо-
му дорівнює ймовірність вибити не менше 9 очок?
27
4.2. На тактичних заняттях зенітна батарея стріляє по двох
безпілотних літаках. Знайти ймовірність того, що літаки не бу-
дуть збиті, якщо ймовірність збити один літак дорівнює 1/2, а
обидва літаки – 1/8.
4.3. Імовірності своєчасного виконання завдання трьома не-
залежно працюючими підприємствами відповідно дорівню-
ють 0,5; 0,6; 0,7. Знайти ймовірність своєчасного виконання
завдання хоча б одним підприємством.
4.4. Дитина грає з десятьма літерами А, А, А, А, А, Б, Б, Д,
К, Р, Р. Знайти ймовірність того, що вона випадково складе
слово АБРАКАДАБРА.
4.5. Чотиритомне видання розташоване на поличці у випад-
ковому порядку. Знайти ймовірність того, що томи розташо-
вані правильно зліва направо, або справа наліво.
4.6. Знайти ймовірність того, що з колоди в 52 карти вилу-
чено пікову даму. Встановити, чи є незалежними події A –
вилучено даму, B – вилучено карту пікової масті.
4.7. Радист надсилає кодовий сигнал з декількох точок і тире.
Знайти ймовірність того, що радист, який не знає пароля, вгадає
його з першого разу, якщо число кодових елементів а) 5; б) 3.
4.8. Підкидають дві гральні кістки. Нехай A – подія, яка
полягає в тому, що сума очок непарна; B – подія полягає в
тому, що хоча б на одній із кісток випала одиниця. Описати
події A ∩ B , A ∪ B , A ∩ B і знайти ймовірності цих подій.
4.9. Відома фірма придбала новий сейф із кодовим замком.
Для перевірки надійності сейфа до банку викликали трьох спе-
ціалістів, які можуть зламувати кодові замки. Імовірність відк-
рити сейф для першого спеціаліста 0,2, для другого 0,3, для
третього 0,4. Знайти ймовірність того, що сейф буде відкрито.
4.10. На іспит в музичній школі винесено перші сім сонат Бе-
тховена. Сім учнів по черзі витягають білет з номером сона-
ти. Яка ймовірність того, що хоч один учень витягне номер
сонати, який збігається з номером учня в черзі.
4.11. В автосалоні на продаж виставлено 15 авто, причому 5 з
них марки "Опель". Чоловік хоче обрати автомобіль синього
кольору. Йому пропонують 3 автомобілі синього кольору.
Знайти ймовірність того, що хоча б один з них марки "Опель".
4.12. Імовірність того, що при вимірюванні деякої фізичної
величини буде допущена похибка, що перевищує задану то-
28
чність, дорівнює 0,4. Виконані 3 незалежні вимірювання.
Знайти ймовірність того, що тільки в одному з них похибка
буде перевищувати задану точність.
4.13. Задача де Мере (парадокс де Мере1). При чотирьох під-
киданнях кістки ймовірність того, що хоча б один раз випаде
одиниця, більше однієї другої. Скільки разів потрібно кинути
пару кісток, щоб з імовірністю більшою за 0,5, очікувати су-
му очок, що дорівнює 12, хоча б один раз?
4.14. З ящика, у якому 10 білих та 2 чорні кулі, кульки вий-
мають з поверненням. Скільки разів потрібно витягати кулі,
щоб з більшою за 0,5 імовірністю витягнути чорну кулю?
4.15. З ящика, у якому 10 білих та 2 чорні кулі, кульки вийма-
ють без повернення. Скільки разів потрібно витягувати кулі,
щоб з не меншою за 0,5 імовірністю витягнути чорну кулю?
4.16. Серед претендентів на отримання водійських прав 1 %
дальтоніків. Який має бути об'єм випадкової вибірки (з пове-
рненням), щоб імовірність зустріти в ній хоча б одного даль-
тоніка була не менше 0,95?
4.17. З урни, у якій містяться n кульок, n разів навмання ви-
ймається по одній кулі з поверненням. Знайти ймовірність
того, що в руці перебувають усі кулі.
4.18. Імовірність аварії при запуску ракети дорівнює 0,1, у
тому числі, імовірність аварії на старті дорівнює 0,09. Яка
ймовірність аварії у випадку вдалого старту?
4.19. Є 30 екзаменаційних білетів, серед яких є 5 "щасливих".
Два студенти по черзі витягають свій білет. У кого більше
шансів витягнути "щасливий" білет – у першого чи другого?
4.20. З умов задачі 4.19 розрахувати шанси третього студента
витягнути "щасливий" білет.
4.21. За даними перепису населення встановлено: темноокі ба-
тьки та темноокі сини ( AB ) становили 5 % обстежених осіб;
темноокі батьки та світлоокі сини ( AB ) – 7,9 %; світлоокі ба-
тьки та темноокі сини ( AB ) – 8,9 %; світлоокі батьки та світ-

1
Гомбо Антуан кавалер де Мере (фр. Antoine Gombaud; 1607–1684) – фр.
письменник, дворянин, учасник салонів, відомий гравець, математик-
аматор. Популярність отримав завдяки своїй ролі у зародженні теорії
ймовірностей.
29
лоокі сини ( AB ) – 78,2 %. Знайти взаємозв'язок між кольором
очей батька та сина.
4.22. До магазину завезено електричні лампочки одного типу,
що виготовлені на чотирьох заводах: з першого – 250 шт., з
другого – 525 шт., з третього 275 шт., із четвертого – 950 шт.
Імовірність того, що лампочка прогорить більше 1500 год,
для першого заводу дорівнює 0,15, для другого – 0,3, для
третього – 0,2, для четвертого – 0,1. При розкладанні лампо-
чки були перемішані. Яка ймовірність того, що куплена лам-
почка прогорить більше 1500 год?
4.23. На трьох автоматичних лініях виготовляють однакові
деталі, причому 30 % – на першій лінії, 25 % – на другій та
45 % – на третій. Імовірність виготовлення стандартної дета-
лі першою лінією дорівнює 0,99, другою – 0,988, третьою –
0,98. Виготовлені протягом доби деталі надходять до складу.
Визначити ймовірність того, що навмання взята деталь не ві-
дповідає стандарту.
4.24. Різнокольоровий тетраедр. Три грані правильного тет-
раедра пофарбовані у червоний ( r ), синій ( b ) і зелений ( g )
кольори, а четверта грань пофарбована в усі три кольори
( rbg ) . Визначити ймовірність того, що підкинутий тетраедр
упаде на грань, на яку: а) нанесено червоний колір. Чи відрі-
знятиметься ймовірність падіння тетраедра на грань із зеле-
ним кольором від імовірності його падіння на грань із синім
кольором? б) нанесено всі три кольори.
4.25. Два гравці по черзі кидають монету. Виграє той, хто пер-
шим викине герб. Гра не припиняється доти, доки не визна-
читься переможець. У скільки разів імовірність виграшу гравця,
що почав гру першим, вища за ймовірність виграшу другого.
4.26. Задача про розорення гравця. У результаті кожного туру
гри капітал гравця змінюється на одну копійку ±1 . Імовір-
ність виграшу в кожному турі 1/2. Гра закінчується тоді, ко-
ли гравець набере капітал a копійок або розорюється (наби-
рає 0 копійок). Знайти ймовірність розорення гравця залежно
від початкового капіталу x ( 0 ≤ x ≤ a ).
4.27. В урну, де лежать дві кулі, опущено червону кулю. Піс-
ля цього з неї витягли випадковим чином 1 кулю. Знайти
ймовірність того, що витягнута куля червона, якщо рівномо-
жливі всі припущення щодо початкового кольору кульок.
30
4.28. В урну, де лежать n куль, опущено білу кулю. Після
цього з неї витягли випадковим чином 1 кулю. Знайти ймові-
рність того, що ця куля біла, якщо рівноможливі всі припу-
щення щодо початкового кольору кульок.
4.29. З урни, де лежать n куль невідомого кольору, витягну-
ли одну кулю і поклали її назад (ця куля була білою). Потім
знову витягли кулю. Знайти ймовірність того, що ця куля бу-
де: а) білого кольору; б) кольорова. Усі припущення про по-
чатковий колір кульок в урні вважати рівноможливими.
4.30. З умов попередньої задачі визначити ймовірність того,
що друга куля буде білого кольору, за умови, що першого ра-
зу витягли кольорову кулю.
4.31. З ємності, де лежать n куль невідомого кольору, витяг-
нуто одну кулю (без повернення), що виявилась білою. Знай-
ти ймовірність того, що наступна витягнута куля: а) також
буде білою; б) буде кольоровою. Усі припущення про почат-
ковий склад ємності вважати рівноможливими.
4.32. В умовах попередньої задачі визначити ймовірність то-
го, що перша куля була кольоровою, а друга білою.
4.33. Компанія з n осіб випадковим чином сідає поруч у
ряд. Знайти ймовірність того, що дві визначені особи сиді-
тимуть поруч.
4.34. У першій урні лежать 10 куль, з них 8 білих, а в другій
урні 20 куль, з них 4 білих. З кожної урни за схемою випад-
кового вибору без повернення вилучили по одній кулі, а по-
тім із цих двох куль навмання взято 1 кулю. Знайти ймовір-
ність того, що взято білу кулю.
4.35. У першій урні міститься 1 біла та 9 чорних куль, а в
другій – 1 чорна та 5 білих куль. З кожної урни за схемою
випадкового вибору без повернення вилучили по одній кулі,
а залишені кулі зсипали в 3-тю урну. Знайти ймовірність то-
го, що куля, витягнута з 3-ї урни, виявиться білою.
4.36. У кожній з трьох урн по 3 чорних та 2 білих кулі. З
першої урни навмання виймають 1 кулю та перекладають у
другу. Потім з другої урни навмання виймають також 1 кулю
і перекладають у третю. Знайти ймовірність того, що на-
вмання витягнута з третьої урни куля буде білою.
4.37. Два стрільці підкидають монету та обирають, хто з них
стріляє по мішені однією кулею. Перший влучає по мішені з
31
імовірністю 1, другий з імовірністю 0,1. З першого пострілу в
мішень було влучено. Знайти ймовірність того, що а) стріляв
перший стрілець; б) стріляв другий.
4.38. На потоці навчаються 100 студентів. З них 10 – відмін-
ники, 50 – навчаються на чотири і п'ять, 10 навчаються неза-
довільно, інші задовільно. Імовірність розв'язати задачу для
відмінника – 0,98, для четвірочників – 0,77, для трієчників –
0,48, для двієчників – 0,17: а) якою є ймовірність розв'язання
задачі для випадково обраного студента? б) студент задачу
не розв'язав. Яка ймовірність того, що цей студент трієчник?
4.39. У рибалки є три улюблених місця для риболовлі. Імові-
рність клювання на першому місці дорівнює 1 3 , на другому
– 1 2 , на третьому – 1 4 . Рибалка пішов на найближче місце
від власного дому. Риба клюнула. Знайти ймовірність того,
що рибалка закинув вудку у першому улюбленому місці.
4.40. У лікарню поклали 50 % людей хворих на грип, 30 %
хворих на ангіну та 20 % хворих на запалення легенів. Імові-
рність повного одужання протягом тижня від грипу дорівнює
0,9, від ангіни та запалення легенів – 0,7 і 0,6, відповідно.
Виписано хворого, який повністю одужав за 7 днів. Знайти
ймовірність того, що він був хворим на грип.
4.41. Серед студентів четвертого курсу 2 / 5 – старші 22 ро-
ків, серед них 2 3 – одружені. Серед тих, хто молодший 22
років – 1 2 неодружених. Знайти ймовірність того, що випа-
дковим чином обраний одружений студент старший 22 років.

5. Послідовність незалежних випробувань.


Схема Бернуллі. Локальна та інтегральна
теореми Муавра–Лапласа. Розподіл Пуассона

Схема Бернуллі. Здійснюється n незалежних випробувань


деякого експерименту, у результаті кожного з яких може відбу-
ватися подія A . Нехай імовірність події A в кожному експери-
менті дорівнює p , імовірність протилежної події A дорівнює
q = 1 − p , m – кількість можливих проявів події A в цій серії;
Pn ( m) – імовірність того, що подія A відбудеться m разів у да-
ній серії з n незалежних експериментів:
32
n!
Pn ( m) = Cnm p m q n − m = p m q n−m , m = 0, n . (1.16)
m!(n − m)!
Ця послідовність – біноміальний закон розподілу ймовірностей.
Найімовірніше число. Найбільше значення Pn ( m) (мода).
Якщо np − q є цілим числом, то найбільших значень буде два (бі-
модальний розподіл): m0 = np − q та m1 = m0 + 1 = p (n + 1) . Якщо
np − q не є цілим числом, то найбільше значення одне (унімода-
льний розподіл), яке лежить в інтервалі np − q ≤ m < p ( n + 1) . Як-
що np – ціле число, то найбільше значення одне: m = np .
Поліноміальний (мультиноміальний) розподіл. Нехай у
результаті одного досліду всі результати A1 ,…, Ak утворюють
k
повну групу подій; P ( Ai ) = pi , ∑p
i =1
i = 1 . Pn (m1 , m2 ,…, mk ) – імо-

вірність появи mi разів події Ai в серії з n незалежних повторів


даного досліду. Тоді
n!
Pn ( m1 , m2 ,… , mk ) = p1m1 p2m2 pkmk ,
m1 !m2 !… mk !
n = m1 + m2 + … + mk ,
або
Pn (m1 , m2 ,…, mk ) = Cnm1 Cnm−2m1 Cnm−km1 −…− mk −1 p1m1 p2m2 pkmk (1.17)

Це поліноміальний (мультиноміальний) розподіл.


Локальна теорема Муавра–Лапласа. Нехай дано серію із n
незалежних випробувань, у якій m разів відбулася подія A з імові-
рністю p, 0 < p < 1 . Імовірність того, що в n випробуваннях подія
відбудеться m разів задовольняє при n → ∞ співвідношення
Pn ( m )
lim =1, (1.18)
1
n →∞
e − xm 2

2πσ n
m − np
де σn = npq , q = 1 − p , xm = . Причому, чим більше n ,
npq
тим точніше наближення.
33
Прямування до 1 рівномірне щодо всіх m , для яких xm ∈ [ a, b ]
( a < b – будь-які обмежені числа). Тобто для великих n :
1
Pn ( m) ≈ e − xm 2 .
2πnpq
Для частинного випадку ( p = 1 2 ) асимптотичну формулу знай-
шов у 1730 р. А. де Муавр; у 1783 р. П. Лаплас узагальнив форму-
лу Муавра для довільного p , такого, що відрізняється від 0 та 1.
Інтегральна теорема Муавра–Лапласа. Нехай m – кіль-
кість появи події A в серії з n незалежних випробувань, p –
імовірність появи події A в окремому випробуванні постійна та
справедливо 0 < p < 1 . Тоді ймовірність того, що подія A про-
явиться в n випробуваннях від m1 до m2 разів, наближено мо-
жна визначити:
⎧⎪ ⎫⎪
2
b
m − np 1 −
x
P ( m1 , m2 ) = lim P ⎨a ≤ ≤ b⎬ = ∫ e 2
dx = Φ ( b ) − Φ ( a ) , (1.19)
n →∞
⎩⎪ npq ⎪⎭ 2 π a

Зазначимо, що Φ ( x) = Φ 0 ( x) − 1 / 2 – функція Лапласа (див. дод.),


z t2
де Φ 0 ( z ) = 1

2π −∞
∫e 2
dt називають інтегралом похибок. У виразі

m1 − np m2 − np
(1.19) a = , b= . Наближення до граничного зна-
npq npq
чення рівномірне відносно a та b .
Відхилення відносної частоти від постійної ймовірності в
незалежних дослідах. Імовірність того, що в n незалежних до-
слідах, у кожному з яких імовірність прояву події дорівнює p
(0 < p < 1) , абсолютна величина відхилення відносної частоти
m n прояву події від постійної ймовірності появи події не пере-
вищує додатного числа ε :
⎧m ⎫ ⎛ n ⎞
P ⎨ − p ≤ ε ⎬ 2Φ ⎜⎜ ε ⎟⎟ . (1.20)
⎩n ⎭ ⎝ pq ⎠
Рівняння (1.20) визначає ймовірність того, що виконується нерів-
ність m n − p ≤ ε .
34
Розподіл Пуассона. Нехай дано серію з n незалежних ви-
пробувань, у кожному з яких імовірність прояву події дорівнює
p . Для визначення ймовірності k проявів події в цих випробу-
ваннях використовують формулу Бернуллі. Якщо n велике, то
використовують асимптотичну формулу Лапласа. Але формула
Лапласа незастосовна, коли ймовірність події мала ( p ≤ 0,1) . У
випадку, коли n велике, а p мале, використовують асимптотич-
ну формулу Пуассона.
Нехай λ = np . Якщо n → ∞ , p → 0 та a < λ < b , де
0 < a < b < ∞ , то
λm −λ ∞
P ( m) =
m!
e , ∑ P ( m) = 1 .
m =0
(1.21)

Послідовність чисел P (m) утворює закон розподілу ймовірностей


Пуассона. Тут m – кількість появи події в n незалежних випробу-
ваннях, λ = np – середня кількість проявів події в n випробуваннях.
Найпростіший потік подій. Потік подій – послідовність по-
дій, які настають у випадкові моменти часу. Події, що утворюють
потік, загалом можуть бути різними, наприклад: потік викликів на
телефонній станції; потік ввімкнень приладів у побутовій елект-
ромережі; потік рекомендованих листів, що надходять на пошто-
ве відділення; потік збоїв (несправностей) електронної обчислю-
вальної машини; потік пострілів, спрямованих на ціль під час об-
стрілу тощо. Потік однорідних подій, що розрізняються лише
моментами появи, можна зобразити як послідовність точок на
числовій осі, що відповідають моментам появи подій.
Потік подій називають регулярним, якщо події випливають
одна за одною через строго визначені проміжки часу. Такий по-
тік порівняно рідко зустрічається в реальних системах, але ста-
новить інтерес як граничний випадок. Типовим для системи ма-
сового обслуговування є випадковий потік.
Розглянемо потік подій, що має деякі особливо прості влас-
тивості – пуассонівський потік. Для найпростішого (пуассонівсь-
кого) потоку подій характерні такі властивості: стаціонарність,
відсутність наслідків та ординарність.
35
Стаціонарність. Імовірність прояву m подій за довільний
проміжок часу залежить лише від числа m та тривалості t від-
різка часу і не залежить від початку відліку.
Відсутність наслідків. Імовірність прояву m подій за дові-
льний проміжок часу не залежить від того, проявлялися події чи
не проявлялися до початку розглядуваного процесу.
Отже, якщо потік має властивість відсутності наслідків, то
спостерігається взаємна незалежність появи тої чи іншої кіль-
кості подій за проміжки часу, які не перетинаються.
Ординарність. Прояв двох або більшої кількості подій за ма-
лий проміжок часу практично неможливий.
Таким чином, якщо потік має властивість ординарності, то
за нескінченно малий проміжок часу може відбутись не більше
однієї події.
Інтенсивність потоку λ – середня кількість подій, що про-
являються за одиницю часу. Якщо вона відома, то ймовірність
прояву m подій найпростішого потоку за час t визначається
формулою Пуассона:
( λ t ) m − λt
P ( m) = e .
m!
На практиці іноді важко встановити, чи має потік перелічені
властивості. Тому були знайдені й інші умови, за яких потік
можна вважати найпростішим або близьким до найпростішого.
Наприклад, встановлено, якщо потік є сумою дуже великої кіль-
кості стаціонарних потоків, вплив кожного з яких на всю суму
(сумарний потік) мізерно малий, то сумарний потік (за умови
його ординарності) буде близький до найпростішого.

Задачі до підрозділу 5
5.1. Монету підкидають 5 разів. Визначити ймовірність всіх
можливих появ "герба". Побудувати графік цього біноміаль-
ного розподілу.
5.2. Гральну кістку підкидають 5 разів. Знайти ймовірність
того, що два рази випаде число очок кратне трьом.
36
5.3. Під час роздачі колоди в 52 карти чотирьом гравцям
один з них три рази поспіль не отримав тузів. Чи є в нього
підстави жалітися на невдачу?
5.4. Два рівносильних гравці грають у шахи. Що ймовірні-
ше: а) виграти одну партію з двох або дві партії з чотирьох?
б) виграти не менше двох партій із чотирьох або не менше
трьох з п'яти? Нічиї до уваги не приймаються.
5.5. Під час соціологічних досліджень були виділені дві сі-
м'ї, що мають по чотири дитини. Вважаючи ймовірності поя-
ви хлопчика та дівчинки в сім'ї рівними, знайти ймовірність
появи у ній не більше однієї дівчинки.
5.6. У схемі Бернуллі p = 1 2 . Довести нерівність
1 1
< P2 n (n) < , n ≥ 2.
2 n 2n + 1
5.7. На відрізок AB довжиною a навмання кинуто 7 точок.
Імовірність падіння точки на яку-небудь частину відрізка за-
лежить лише від довжини цієї частини і пропорційна їй.
Знайти ймовірність того, що дві точки будуть розташовані
від точки A на відстані, меншій від x , а п'ять – на відстані,
більшій за x .
5.8. За умови попередньої задачі знайти ймовірність того,
що дві точки потраплять у ліву третину відрізка, три – у се-
редню, а дві – у праву третину.
5.9. У цех з ремонту радіоапаратури надходять резистори із
трьох заводів у відношенні 2:3:5. Майстер для ремонту при-
ладу взяв навмання 6 резисторів. Яка ймовірність того, що
взято 1 резистор першого заводу, 2 резистори другого заводу,
3 резистори третього заводу?
5.10. Монету підкидають n разів. Знайти ймовірність парної
появи "герба".
5.11. Двоє підкидають монету n разів кожний. Знайти ймові-
рність того, що в них випаде однакова кількість гербів.
5.12. Монету підкидають 20 разів. Знайти найімовірнішу кі-
лькість появи "гербів".
5.13. Гральна кістка підкидається 16 разів. Знайти найімовір-
нішу кількість появи кількості очок, що кратна трьом.
5.14. Знайти ймовірність того, що подія A відбудеться 70 ра-
зів у 243 дослідах, якщо ймовірність появи події в кожному
досліді дорівнює 0,25.
37
5.15. На факультеті 730 студентів. Імовірність народження
кожного студента в один день дорівнює 1/ 365 . Знайти най-
більш імовірну кількість студентів, які народилися 1 січня, і
ймовірність того, що знайдуться 3 студенти з одним і тим
самим днем народження. Використати локальну теорему Му-
авра–Лапласа.
5.16. У родині 10 дітей. Імовірність народження і хлопчика, і дів-
чинки дорівнює 0,5. Знайти ймовірність того, що: а) в сім'ї 5 хло-
пчиків і 5 дівчаток; б) кількість хлопчиків дорівнює від 3 до 8.
5.17. Імовірність присутності студентів на лекції дорівнює
0,8. Знайти ймовірність того, що зі 100 студентів на лекції
будуть присутні не менше 75 і не більше 90 студентів.
5.18. Гральну кістку підкидають 12000 разів. Яка ймовірність
того, що кількість випадань одиниці лежить між 1900 і 2150?
5.19. Телефонна станція А обслуговує 2000 абонентів і має їх
з'єднувати із іншою станцією В. Яка найменша кількість x
ліній має зв'язувати А і В, щоб у 99 % випадків викликів
знайшлася вільна лінія? Нехай упродовж години-пік кожний
абонент А розмовляє з абонентом В у середньому 2 хв.
5.20. Імовірність появи події в кожному із 625 незалежних
дослідів дорівнює 0,8. Знайти ймовірність того, що відносна
частота появи події відхилиться від її ймовірності за абсолю-
тною величиною не більш ніж на 0,04.
5.21. Французький вчений Бюффон (ХVIII ст.) кинув монету
4040 разів, причому "герб" з'явився 2048 разів. Знайти ймові-
рність того, що при повторенні досліду Бюффона відносна
частота появи "герба" відхилиться від імовірності появи "ге-
рба" за абсолютною величиною не більше, ніж у досліді са-
мого Бюффона.
5.22. У новому мікрорайоні встановлено 10 000 кодових зам-
ків на вхідних дверях будинків. Імовірність виходу з ладу
одного замка протягом місяця дорівнює 0,0002. Знайти ймо-
вірність того, що за місяць відмовлять 3 замки.
5.23. У середньому шульги становлять 1 %. Які шанси того,
що серед 200 людей: а) буде рівно 4 шульги; б) знайдеться не
менше 4 шульг?
5.24. У деякій місцевості в середньому на кожні 100 вироще-
них кавунів знайдеться 1, який має вагу не менше 10 кг.
Знайти ймовірність того, що з партії кавунів цієї місцевості в
38
400 шт. буде: а) рівно 3 кавуни вагою не менше 10 кг; б) не
менше 2 таких кавунів.
5.25. Радіоактивний розпад. Імовірність зареєструвати час-
тинку дорівнює 10−4 . Яка найменша кількість частинок має
вилетіти із джерела для того, щоб з імовірністю не менше
0,99 зареєструвати більше трьох частинок?
λ k −λ
5.26. Риба з імовірністю e відкладає k ікринок, де
k!
k = 0, 1, 2,... , а число λ додатне. Імовірність розвитку на-
щадка з ікринки дорівнює p . Яка ймовірність того, що у ри-
би буде рівно m нащадків?
5.27. За умови попередньої задачі у риби розвилося 10 нащадків.
Яка ймовірність, що при цьому було відкладено 20 яєць?
5.28. Протягом часу-пік (8.00–9.30, 17.00–19.00) у деякому
районі міста відбувається в середньому дві дорожньо-
транспортні події за 1 год: а) чому дорівнює ймовірність то-
го, що в деякий день з 8.00 до 9.30 год відбудуться 6 дорож-
ньо-транспортних подій? б) чому дорівнює ймовірність на-
стання 7 дорожньо-транспортних подій з 17.00 до 19.00 год
доби? в) чому дорівнює ймовірність того, що з 8.00 до 9.30 та
17.00 до 19.00 однієї доби жодної дорожньо-транспортної
події не відбудеться?
5.29. Інтернет-провайдер обслуговує N користувачів, які ви-
ходять в Інтернет однаково часто. Упродовж доби вони по n
разів заходять в Інтернет при середній тривалості кожної
спроби t < 1 доби. Знайти ймовірність того, що m абонентів
одночасно працюють в Інтернеті.
5.30. За умови задачі 5.29 знайти граничний розподіл імовір-
ностей одночасного користування Інтернетом m користува-
чів, коли їхня кількість N → ∞ .

39
Розділ ІI

ВИПАДКОВІ ВЕЛИЧИНИ

Результат будь-якого випадкового експерименту можна ха-


рактеризувати якісно і кількісно. Якісний результат випадкового
експерименту – випадкова подія. Будь-яка кількісна характерис-
тика, що в результаті випадкового експерименту може набути
одного значення з деякої множини – випадкова величина. Випа-
дкова величина є одним із основних понять теорії ймовірностей.
Для випадкової величини характерне те, що неможливо заздале-
гідь вказати значення, яких вона набуває, але множина її мож-
ливих значень вважається відомою.
Нехай (Ω, F, P) – імовірнісний простір. Випадковою величи-
ною ξ називають однозначну дійсну функцію ξ = ξ(ω) , що ви-
значена на Ω , для якої множина елементарних подій виду
{ω : ξ ( ω) < x} є подією (належить F ) для кожного дійсного числа
x∈ . Таким чином, в означенні необхідно, щоб для кожного
x∈ множина {ω : ξ ( ω) < x} ∈ F , і ця умова гарантує, що для
кожного x визначена ймовірність події {ξ < x} : Fξ ( x) = P {ξ < x} .
Тут запис {ξ < x} означає те саме, що й {ω : ξ ( ω) < x} ∈ F .
Якщо існують випадкові величини ξ і η , що визначені від-
повідно на ймовірнісних просторах (Ω1 , F1 , P1 ) та (Ω 2 , F2 , P2 ) , то
для них можна визначити випадкову величину χ на новому
ймовірнісному просторі (Ω3 , F3 , P3 ) , можливі значення якої
складаються із сум (різниць, добутків, відношень) кожного мо-
жливого значення величин ξ та η .
Класифікація випадкових величин. У теорії ймовірностей
розрізняють дискретні випадкові величини та неперервні випад-
кові величини.
Дискретною (перервною) випадковою величиною називають
випадкову величину, яка набуває окремих ізольованих можли-
40
вих значень з певними ймовірностями. Наприклад, випадковою
дискретною величиною є кількість очок, що випали при вики-
данні гральної кістки (ця величина набуває значень із дискрет-
ної числової множини M = {1, 2, 3, 4, 5, 6}). Кількість можливих
значень дискретної випадкової величини може бути скінченною
або нескінченною, але зліченною.
Неперервною випадковою величиною називають випадкову
величину, яка може набувати всіх значень з деякого скінченного
або нескінченного проміжку множини. Кількість можливих зна-
чень неперервної величини нескінченна. Наприклад, зріст випа-
дково обраного студента учбової групи. У цьому разі випадкова
величина набуває значень з неперервної числової множини – із
проміжку на числовій прямій І=[140, 200].
Функції розподілу випадкової величини. Кожна випадкова
величина повністю визначається своєю функцією розподілу.
Функцію Fξ ( x) = P {ξ < x} , −∞ < x < ∞ , називають функцією
розподілу випадкової величини ξ . Тут P {ξ < x} – імовірність
того, що випадкова величина набуває значень, менших від x .
Важливо розуміти, що функція розподілу є "паспортом" випа-
дкової величини: вона містить всю інформацію про випадкову
величину. Тому вивчення випадкової величини полягає в дослі-
дженні її функції розподілу, яку ще називають просто розподілом.
Властивості функції розподілу:
• Fξ ( x) визначена на всій числовій прямій ;
• Fξ ( x) – не спадна, тобто, якщо x1 ≤ x2 , то Fξ ( x1 ) ≤ Fξ ( x2 ) ;
• P { x1 ≤ ξ < x2 } = Fξ ( x2 ) − Fξ ( x1 ) ;
• Fξ ( −∞) = 0 , Fξ (+∞) = 1 , тобто lim Fξ ( x) = 0 , lim Fξ ( x) = 1
x →−∞ x →+∞

(для усіх x ∈ , 0 ≤ Fξ ( x) ≤ 1 ).
• Fξ ( x) неперервна зліва в кожній точці x , тобто
lim Fξ ( x) = Fξ ( x0 ) , або Fξ ( x ) = Fξ ( x − 0 ) .
x → x0 − 0

• Праве граничне значення Fξ ( x) у точці x дорівнює


P {ξ ≤ x} , тобто Fξ ( x + 0 ) = P {ξ ≤ x} .

41
Справедливі такі співвідношення:
1. P { x1 ≤ ξ ≤ x2 } = Fξ ( x2 + 0 ) − Fξ ( x1 ) ;
2. P {ξ = x} = Fξ ( x + 0 ) − Fξ ( x ) ;
3. P { x1 < ξ ≤ x2 } = Fξ ( x2 + 0 ) − Fξ ( x1 + 0 ) ;
4. P { x1 < ξ < x2 } = Fξ ( x2 ) − Fξ ( x1 + 0 ) .

6. Дискретні випадкові величини

Функції розподілу дискретної випадкової величини. Для


повної ймовірнісної характеристики дискретної випадкової ве-
личини, що набуває значень x1 , x2 ,… , досить задати ймовірності
pk = P {ξ = xk } . Якщо значення xk та pk ( k = 1, 2,…) відомі, фу-
нкцію розподілу Fξ ( x ) дискретної випадкової величини ξ мо-
жна записати у вигляді
Fξ ( x ) = ∑
k : xk < x
pk . (2.1)

Функція Fξ ( x) не залежить від способу нумерації значень випа-


дкової величини ξ і зростає стрибкоподібно в точках x = xk
(має вигляд сходів), причому
Fξ ( xk + 0 ) − Fξ ( xk ) = pk . (2.2)

Законом розподілу дискретної випадкової величини є відпо-


відність між можливими значеннями та їх імовірностями; його
можна задавати у вигляді таблиці, аналітично (формулою) і гра-
фічно. Якщо закон розподілу випадкової величини задається у
вигляді таблиці, то її перший рядок задає можливі значення, а
другий – їх імовірності.
ξ x1 x2 … xn
p p1 p2 … pn

Ураховуючи, що в одному досліді випадкова величина може


набувати лише одне значення, можна зробити висновок, що зна-
42
чення ξ = x1 , ξ = x2 ,…, ξ = xn утворюють повну групу, тобто су-
ма ймовірностей (у другому рядку) дорівнює одиниці:
p1 + p2 + … + pn = 1 .
Графічно можна подати закон розподілу в прямокутній сис-
темі координат, побудувавши точки ( xi , pi ) і з'єднавши їх відрі-
зками прямих. Отриману таким чином фігуру називають бага-
токутником розподілу.
Якщо кожному значенню випадкової величини ξ відповідає
одне можливе значення величини η , то η називають функцією
випадкового аргументу ξ : η = f (ξ) .
Вироджений розподіл Випадкова величина постійна ξ = c .
Закон розподілу P {ξ = c} = 1 .
Біноміальний розподіл. Біноміальним розподілом називають
розподіл імовірностей, що визначається за формулою Бернуллі.
Закон названо біноміальним тому, що його можна розглядати як
загальний член розкладу бінома Ньютона. Нехай ξ – випадкова
величина, яка дорівнює кількості успіхів у серії n незалежних
випробувань Бернуллі. Якщо ймовірність успіху при одному
випробуванні дорівнює p (імовірність невдачі q = 1 − p ), то фун-
кція розподілу визначається так:
⎧0, x ≤ 0,


Fξ ( x) = ⎨∑ Cnk p k q n − k , 0 < x ≤ n, (2.3)
⎪k<x
⎪⎩1, x > n.
Закон розподілу P {ξ = k} = C p q , k = 0,1,… n .
k
n
k n−k

У вигляді таблиці закон біноміального розподілу має такий


вигляд:
ξ 0 … k … n −1 n
p q n
… k
C p q
n
k n−k
… n −1
np q pn
Розподіл Пуассона. Якщо випадкова величина ξ , яка набу-
ває значень 0,1, 2,… , ∞ , розподілена за законом Пуассона з па-
раметром λ > 0 , то її функція розподілу:

43
⎧0 x ≤ 0,

Fξ ( x) = ⎨ λ k −λ (2.4)
⎪∑ k !e x > 0.
⎩k<x
λ k −λ
Тут
k
∑p k = 1 , закон розподілу P {ξ = k } =
k!
e , k = 0,1, 2,… , ∞ .

Геометричним розподілом називають розподіл імовірнос-


тей, що має структуру геометричної прогресії з першим додан-
ком p і знаменником q ( 0 < q < 1) . Нехай є серія незалежних
випробувань. Результатом кожного окремого випробування мо-
же бути або успіх з імовірністю p , або невдача з імовірністю q .
Випробування тривають до появи першого успіху. Випадкова
величина ξ визначає кількість невдач, які відбулись у серії ви-
пробувань до появи першого успіху. Тоді функція розподілу:
Fξ ( x) = ∑ pq n . (2.5)
n< x

Закон розподілу P {ξ = n} = pq n , n = 0,1, 2,… .


Гіпергеометричний розподіл. Дана сукупність N об'єктів,
серед яких K об'єктів є відміченими ( K < N ) . Обирається на-
вмання n об'єктів (кожний об'єкт може бути обраним з однако-
вою ймовірністю), при цьому обраний об'єкт перед вилученням
наступного не повертається назад. У такому випадку формула
Бернуллі незастосовна. Нехай ξ – випадкова величина, яка до-
рівнює кількості відмічених об'єктів серед n обраних. Очевид-
но, що можливі значення ξ : k = 0,1,… , min ( K , n ) . У такому ви-
падку функція розподілу
⎧0 x ≤ 0,

Fξ ( x) = ⎨ CKk C Nn −−kK (2.6)
⎪∑ C n x > 0.
⎩k<x N

CKk C Nn −−kK
Закон розподілу P {ξ = k} = , k = 0,1,… n .
C Nn
Якщо n N , то гіпергеометричний розподіл дає ймовірнос-
ті, знайдені за біноміальним розподілом.
44
Від'ємний біноміальний розподіл. Якщо серія незалежних
випробувань триває до появи n успіхів, функція розподілу для
k невдач буде задана виразом
⎧0 x ≤ 0,


Fξ ( x) = ⎨∑ Cnk+ k −1 p n q k 0 < x ≤ n, (2.7)
⎪k<x
⎪⎩1 x > n.
Зазначимо, що
Γ(n + k )
P {ξ = k} = Cnk+ k −1 p n q k = p n q k , n ≥ 1, k = 0,1,… , ∞
k !Γ ( n )
Зауважимо, що Cnk+ k −1 p n q k збігається з k -м доданком розкладу
функції q n (1 − p )
−n
у ряд за степенями p , тобто від'ємного бінома.

Біноміальний коефіцієнт Cnk+ k −1 =


( n + k − 1)! визначений при
k !( n − 1)!
будь-якому дійсному n , а при n > 0 він додатний, і тому ця фо-
рмула визначає розподіл імовірностей при всіх n > 0 та
0 < p < 1 , а не тільки при натуральних n . При натуральних n
розподіл (n, p) називають також розподілом Паскаля.
Розподіл Паскаля. Розподіл Паскаля нерозривно пов'язаний з
біноміальним. Відмінність полягає в тому, що біноміальна випа-
дкова величина визначається ймовірністю k успіхів у n випро-
буваннях, а випадкова величина Паскаля визначається ймовірні-
стю ξ = n випробувань для досягнення k успіхів:

⎧0 x ≤ n,

Fξ ( x) = ⎨ C k −1 p k q n − k
⎪⎩∑ n −1 x > n. (2.8)
n>k

Випадкове число, що відповідає розподілу Паскаля з парамет-


рами p і n , можна одержати, підсумувавши n незалежних випад-
кових чисел, розподілених геометрично з параметром p . Тому
іноді геометричний розподіл також називають розподілом Паскаля.
45
Числові характеристики дискретних випадкових величин.
Закон, за яким розподілена випадкова величина, характеризує цю
величину. Однак він не завжди відомий. У такому випадку дово-
диться використовувати числові характеристики випадкових ве-
личин, які описують випадкову величину сумарно. До таких хара-
ктеристик належать: математичне сподівання, дисперсія, серед-
ньоквадратичне відхилення, моменти випадкових величин.
Математичне сподівання дискретної випадкової величи-
ни. Математичне сподівання – число, навколо якого зосере-
джені значення випадкової величини. Математичним сподіван-
ням дискретної випадкової величини називають суму добутку
всіх її можливих значень на відповідні ймовірності:

Mξ = ∑ xi pi , (2.9)
i =1

де xi – можливі значення випадкової величини ξ , pi – відпові-


дні їм імовірності. Математичне сподівання появи події в одно-
му досліді дорівнює ймовірності цієї події.
Імовірнісний сенс поняття математичного сподівання: ма-
тематичне сподівання приблизно дорівнює середньому ариф-
метичному значенню випадкової величини, що спостерігаєть-
ся. Причому цей збіг тим точніший, чим більшою є кількість
спостережень.
Властивості математичного сподівання:
ƒ математичне сподівання сталої величини дорівнює цій
сталій: Mc = c ;
ƒ постійний множник можна виносити за знак математично-
го сподівання Mcξ = cMξ ;
ƒ математичне сподівання добутку двох незалежних випад-
кових величин дорівнює добутку їх математичних сподівань:
M ( ξ ⋅ η ) = Mξ ⋅ Mη ;
ƒ математичне сподівання суми двох випадкових величин
дорівнює сумі математичних сподівань доданків:
M ( ξ + η ) = M ξ + Mη .
Якщо проводиться n дослідів, у кожному з яких імовірність
появи події A постійна і дорівнює p , то справедливе твердження:

46
Математичне сподівання Mξ появи події A в n незалеж-
них дослідах дорівнює добутку кількості дослідів на ймовірність
появи події в кожному досліді: Mξ = np .
Відхилення і дисперсія дискретної випадкової величини.
Відхиленням випадкової величини називають різницю між випа-
дковою величиною та її математичним сподіванням: ξ − Mξ .
Математичне сподівання відхилення дорівнює нулю:
M ( ξ − Mξ ) = 0 . (2.10)

Така властивість нівелює можливість оцінки відхилення випад-


кової величини від її математичного сподівання.
Дисперсією (розсіянням) дискретної випадкової величини на-
зивають математичне сподівання квадрата відхилення випадкової
величини від її математичного сподівання. Дисперсія дорівнює
різниці між математичним сподіванням квадрата випадкової ве-
личини Mξ 2 і квадратом її математичного сподівання ( Mξ ) :
2

Dξ = M ( ξ − Mξ ) = Mξ 2 − ( Mξ ) .
2 2
(2.11)

Очевидно, що розмірність дисперсії дорівнює квадрату роз-


мірності випадкової величини.
Властивості дисперсії:
ƒ дисперсія сталої величини дорівнює нулю: Dc = 0 ;
ƒ постійний множник можна виносити за знак дисперсії, пі-
дносячи його до квадрата Dcξ = c 2 Dξ ;
ƒ дисперсія суми двох незалежних випадкових величин до-
рівнює сумі дисперсій цих величин: D ( ξ + η) = Dξ + Dη ;
ƒ Дисперсія суми постійної величини та випадкової величи-
ни дорівнює дисперсії випадкової величини. D ( c + ξ ) = Dξ .
ƒ Дисперсія різниці двох незалежних випадкових величин
дорівнює сумі їхніх дисперсій: D ( ξ − η) = Dξ + Dη .
Дисперсія появи події A в n незалежних дослідах, у кожно-
му з яких імовірність появи події постійна, дорівнює добутку
кількості дослідів на ймовірність появи та ймовірність "непоя-
ви" події в одному досліді: Dξ = npq .

47
Середнє квадратичне відхилення використовується для
оцінки відстані можливих значень випадкової величини ξ від її
середнього значення. Середнім квадратичним відхиленням ви-
падкової величини називають квадратний корінь з дисперсії
σ ( ξ ) = Dξ . (2.12)

На відміну від дисперсії, розмірність σ ( ξ ) дорівнює розмір-


ності випадкової величини. Середнє квадратичне відхилення
суми скінченної кількості взаємно незалежних випадкових ве-
личин дорівнює квадратному кореню із суми квадратів середніх
квадратичних відхилень цих величин:
σ ( ξ1 + ξ2 + … + ξ n ) = σ 2 ( ξ1 ) + σ 2 ( ξ 2 ) + … + σ 2 ( ξ n ) .
Зв'язок між числовими характеристиками середнього
арифметичного ξ і відповідними характеристиками кожної
окремої величини. Якщо в серії n незалежних випробувань
випадкова величина ξ набула значень x1 ,… , xn , то її середнє
арифметичне ξ визначається як
1 1 n
( x1 + x2 + … + xn ) = ∑ xk .
ξ=
n n k =1
1. Математичне сподівання середнього арифметичного од-
наково розподілених взаємно незалежних випадкових величин
дорівнює математичному сподіванню a кожної із цих вели-
чин: M ξ = a .
2. Дисперсія середнього арифметичного n однаково розпо-
ділених взаємно незалежних випадкових величин у n разів ме-
нша дисперсії D кожної із цих величин: D ξ = Dξ / n .
3. Середнє квадратичне відхилення середнього арифметич-
ного n однаково розподілених взаємно незалежних випадкових
величин у n разів менше середнього квадратичного відхилен-
ня σ кожної із величин: σ ( ξ ) = σ ( ξ ) / n .
Початкові та центральні теоретичні моменти. Початко-
вим моментом порядку k випадкової величини ξ називають
математичне сподівання величини ξ k : ν k = Mξk .

48
ƒ Початковий момент першого порядку дорівнює математи-
чному сподіванню: ν1 = Mξ .
ƒ Центральним моментом порядку k випадкової величини
ξ називають математичне сподівання величини ( ξ − Mξ ) :
k

μ k = M ⎡ ( ξ − Mξ ) ⎤ .
k
(2.13)
⎣ ⎦
ƒ Центральний момент першого порядку дорівнює нулю
μ1 = M ( ξ − Mξ ) = 0 .
ƒ Центральний момент другого порядку дорівнює дисперсії
μ 2 = M ⎡( ξ − Mξ ) ⎤ = Dξ .
2
⎣ ⎦
Центральні моменти зручно обчислювати, використовуючи
формули, які виражають центральні моменти через початкові.

Задачі до підрозділу 6
6.1. Дискретна випадкова величина ξ задана законом роз-
поділу
ξ 1 2 4 6
p 0,2 0,1 0,4 0,3
Побудувати багатокутник розподілу.
6.2. Дискретна випадкова величина ξ задана розподілом
ξ 1 2
p 0,7 0,3
Знайти закон розподілу η = ξ2 − 1 .
6.3. Дискретна випадкова величина ξ задана розподілом
ξ –1 0 1
p 0,2 0,5 0,3
Знайти закон розподілу η = ξ2 .
6.4. Записати біноміальний закон розподілу дискретної ви-
падкової величини ξ – кількості появи "герба" при двох під-
киданнях монети.
6.5. У кошику 10 овочів, із них 8 морквин та 2 капустини.
Навмання відібрано два овочі без повернення. Записати за-
кон розподілу морквин серед відібраних.

49
6.6. Студент на іспиті відповідає на додаткові питання екза-
менатора. Викладач припиняє ставити питання, як тільки
студент дасть неправильну відповідь. Імовірність правильної
відповіді студента 0,8. Завдання: а) побудувати закон розпо-
ділу випадкової дискретної величини ξ – кількості додатко-
вих запитань, які поставить викладач; б) знайти найімовірні-
шу кількість k0 поставлених студенту запитань.
6.7. Відбувається зчитування інформації з носія, який час від
часу дає збої. Обсяг даних, що зчитуються, є фіксованою ве-
личиною. Завжди зчитується вся інформація, хоча деякі біти
вдається прочитати не з першого разу. Імовірність збою для
будь-якого біта є величина постійна q = 0, 6 . Завдання:
а) побудувати закон розподілу зчитування 2 бітів інформації;
б) знайти найімовірнішу кількість k0 необхідних спроб для
зчитування інформації.
6.8. У театрі розпочинається спектакль. Завіса підіймається
миттєво і не опускається до завершення спектаклю. Зобрази-
ти закон розподілу "поведінки" завіси під час дії спектаклю.
Якому розподілу він відповідає?
6.9. Дитина натискає клавішу фортепіано і миттєво відпус-
кає її. Записати закон розподілу звучання ноти та вказати на-
зву цього закону.
6.10. Підручник видано накладом 20000 примірників. Імовір-
ність того, що в підручнику неправильно скомпоновані сто-
рінки, дорівнює 0,0001. Знайти закон розподілу наявності
бракованих книжок і знайти найімовірнішу кількість брако-
ваних книжок k0 .
6.11. Випадкова величина ξ набуває значень –1, 0, 1 з імові-
рностями 1/4, 1/2, 1/4. Написати вираз та побудувати функ-
цію розподілу випадкової величини ξ .
6.12. Випадкова величина ξ має такий розподіл імовірностей:
ξ –2 –1 0 1 2
p 0,1 0,2 0,2 0,4 0,1
Знайти вираз і побудувати графік функції розподілу ξ . Знай-
ти ймовірність того, що величина ξ набуває значення, яке не
перевищує за абсолютною величиною одиницю.
6.13. Монету підкидають n разів. Знайти функцію розподілу
кількості випадінь решки.
50
6.14. Гральну кістку підкидають n разів. Знайти функцію ро-
зподілу кількості випадінь п'ятірки.
6.15. Чоловік із заплющеними очима намагається м'ячем влу-
чити в баскетбольну сітку. Гра відбувається до першого влу-
чення. Імовірність не влучити при одній спробі дорівнює q .
Знайти функцію розподілу кількості промахів.
6.16. Монету підкидають до першого випадіння решки. Знай-
ти функцію розподілу кількості випадінь герба.
6.17. Випадкова величина має такий розподіл:
ξ –1 –0,5 0 0,1 0,5 1
p 0,05 0,1 0,7 0,1 0,04 0,01
Знайти: а) математичне сподівання і дисперсію ξ ; б) імовір-
ність того, що ξ набуває значень на відрізку [–0,5; 0,5].
6.18. Кількість α -частинок, які досягають лічильника під час
деякого досліду, є випадковою величиною, розподіленою за
таким законом:
α 0 1 2 3 4 5 6
p 0,05 0,11 0,19 0,23 0,2 0,15 0,007
Знайти математичне сподівання і дисперсію кількості части-
нок, що досягають лічильника. Знайти ймовірність того, що
кількість частинок, які досягають лічильника, буде не менше
чотирьох.
6.19. Випадкова величина ξ розподілена за таким законом:
ξ –1 0 1
p 0,1 0,5 0,4
Знайти Mξ 4 , Dξ4 .
6.20. У лотереї розігрується кавоварка, яка коштує 450 грн,
набір чашок для чаю за 110 грн і мобільний телефон за
700 грн. Знайти математичне сподівання вартості виграшу
для студента, який має лише 1 лотерейний білет, а загальна
кількість випущених білетів 1000.
6.21. Знайти математичне сподівання та дисперсію кількості
очок при одному підкиданні гральної кістки та суми очок
при підкиданні двох гральних кісток.
6.22. Студент-стажер під час тривалої практики проводить ек-
сперименти щоденно. Якщо за день деяка подія A спочатку
реалізується в n > 0 експериментах, а потім у (n + 1) -му не ре-

51
алізується, то він отримує x n гривень. Якщо із самого початку
експеримент виявився невдалим, то він сам сплачує 1 грн.
Знайти таку величину x , щоб його робота під час практики не
виявилась збитковою ( xp < 1 , де p – імовірність реалізації по-
дії A в одному експерименті). Кількість експериментів може
бути дуже великою, тобто можливе значення n 1 .
6.23. Група студентів складає іспит. Імовірність отримати "5"
для кожного дорівнює p . Студенти в однакових умовах
складають іспит по черзі до появи k п'ятірок. Завдання:
а) знайти функцію розподілу та математичне сподівання кі-
лькості студентів n , які мають пройти іспит; б) обчислити
математичне сподівання для p = 1/ 10 , k = 5 .
6.24. Монету підкидають до першої появи решки. Знайти се-
редню кількість підкидань n і дисперсію.
6.25. Величина ξ набуває всіх цілих невід'ємних значень
kn
n ≥ 0 з імовірністю pn = A . Знайти A і k , якщо відомо,
n!
що Mξ = a . Знайти найбільш імовірне значення (моду) ξ .
6.26. Випадкова величина ξ набуває всіх цілих додатних
значень з імовірностями, що спадають у геометричній про-
гресії. Знайти знаменник цієї прогресії, якщо Mξ = 5 , а також
імовірності того, що ξ ≤ 5 та ξ ≤ 20 .
6.27. Випадкова величина ξ набуває лише цілих невід'ємних
ak
значень з імовірностями p ( ξ = k ) = (розподіл Пас-
(1 + a ) k +1
каля). Знайти математичне сподівання та дисперсію ξ .
6.28. Випадкова величина ξ набуває значень 0, 1, 2, …, n ,… з
імовірностями, що спадають у геометричній прогресії. За-
вдання: а) знайти залежність між Mξ та Dξ ; б) знайти
P{ξ = n} , якщо Mξ = a .
6.29. В урні N лотерейних білетів. Із них n виграшні. З урни
виймають m білетів. Нехай ξ – кількість виграшних лотерей-
них білетів серед витягнутих m ( m ≤ n ). Знайти математичне
сподівання та дисперсію ξ (гіпергеометричний розподіл).

52
6.30. Випадкова величина ξ набуває всіх цілих додатних
значень. Довести, що:
а) Mξ = ∑ Pm , де Pm = P {ξ ≥ m} ;
m ≥1

б) Dξ = 2∑ mPm − Mξ ( Mξ + 1) .
m ≥1

6.31. Нехай ξ – кількість появи події A в серії з n незалеж-


них випробувань, у кожному з яких ... Знайти початкові мо-
менти першого, другого та третього порядків
( Mξ – математичне сподівання, Mξ 2 , Mξ3 ) і центральний
момент другого порядку Dξ (дисперсія).
6.32. Випадкова величина ξ розподілена за від'ємним біномі-
альним законом. Обчислити математичне сподівання Mξ ,
початковий момент другого порядку Mξ 2 , дисперсію Dξ .
6.33. Випадкова величина ξ розподілена за законом Пуассо-
на. Обчислити математичне сподівання Mξ , початковий мо-
мент другого порядку Mξ 2 , дисперсію Dξ .
6.34. Отримати вираз для центрального моменту третього
порядку, визначивши його через початкові моменти нижчих
порядків.
6.35. Знайти дисперсію і середнє квадратичне відхилення
дискретної випадкової величини ξ , що задана законом роз-
поділу:
ξ –5 2 3 4
p 0,4 0,3 0,1 0,2
6.36. Дискретна випадкова величина ξ має лише два можли-
вих значення a та b , причому вони рівноймовірні. Довести,
що дисперсія величини ξ дорівнює квадрату напіврізниці
можливих значень, тобто D ( ξ ) = ⎡⎣( b − a ) / 2 ⎤⎦ .
2

53
7. Неперервні випадкові величини

Випадкову величину ξ називають неперервною, якщо її фун-


кцію розподілу можна представити у вигляді
x
Fξ ( x ) = ∫ p ( y)dy .
ξ (2.14)
−∞

Функцію pξ ( x) , −∞ < x < ∞ називають густиною розподілу


ймовірностей (або густиною) випадкової величини ξ і вважа-
ють невід'ємною та кусково-неперервною. У літературі іноді
використовують назву щільність імовірностей або диференціа-
льна функція розподілу.
Густина pξ ( x ) повністю визначає функцію розподілу і в точ-
ках неперервності справедливе співвідношення
dFξ ( x )
pξ ( x ) = . (2.15)
dx
Для будь-яких x1 < x2 :
x2

P { x1 ≤ ξ < x2 } = Fξ ( x2 ) − Fξ ( x1 ) = ∫ p ( y ) dy .
ξ (2.16)
x1

Зокрема, P { x ≤ ξ < x + δx} = pξ ( x ) δx + O ( δx ) ( 2


) , у тому числі для
неперервної випадкової величини P {ξ = x} = Fξ ( x + 0 ) − Fξ ( x ) = 0 .
Невласний інтеграл від густини розподілу в межах від −∞ до ∞

дорівнює одиниці ∫ p ( x)dx = F (+∞) = 1 .
−∞
ξ ξ

Мода mO (від лат. modus – міра, спосіб, правило) – одна із число-


вих характеристик розподілу ймовірностей випадкової величини:
ƒ для випадкової величини, що має густину ймовірностей pξ ( x) ,
визначається як будь-яка точка локального максимуму pξ ( x) ;
ƒ визначається й для розподілів, що не мають густини, на-
приклад, мода дискретної випадкової величини – будь-яке її
значення, що має максимальну ймовірність;
54
ƒ іноді під модою випадкової величини розуміють точку, де
досягається абсолютний максимум її густини ймовірностей або
ймовірностей її значень – головне значення моди.
Випадкова величина може не мати моди, а може мати більше,
ніж одну моду. Розподіл з однією, двома або більшою кількістю
мод називають відповідно унімодальним (одновершинним), бімо-
дальним або мультимодальним. Зі структурних середніх величин
тільки мода має таку унікальну властивість. Зазвичай мультимо-
дальність вказує на те, що набір даних розподілений не нормально.
Мода як середня величина вживається частіше для даних, що
мають нечислову природу. При експертній оцінці за її допомо-
гою визначають найбільш популярні типи продукту, що врахо-
вується при прогнозі продажу або плануванні їхнього виробниц-
тва. Мода є менш уживаною характеристикою розподілу, ніж
математичне сподівання і медіана (див. далі).
Квантилі. При розв'язуванні практичних задач іноді потрібно
знайти значення x , при яких функція розподілу Fξ ( x ) випадко-
вої величини ξ набуває заданого значення p , тобто треба розв'я-
зати рівняння Fξ ( x ) = p . Розв'язок цього рівняння (знаходження
значення x ) у теорії ймовірностей називають квантилями.
Квантиллю x p ( p -квантиллю, квантиллю рівня p ) випадко-
вої величини ξ , що має функцію розподілу Fξ ( x ) , називають
розв'язок x p рівняння Fξ ( x ) = p , p ⊂ (0,1) . Для деяких p рів-
няння Fξ ( x ) = p може мати декілька розв'язків, для деяких жод-
ного. Це означає, що для відповідної випадкової величини деякі
квантилі визначені неоднозначно, а деякі не існують.
Найпоширенішими квантилями, які використовують при
розв’язуванні практичних задач, є:
медіана me (квантиль рівня 0,5, другий квартиль) – одна із
числових характеристик розподілу ймовірностей випадкової ве-
личини; для випадкової величини, що має строго монотонну
функцію розподілу Fξ ( x ) , визначається як єдиний корінь рів-
няння Fξ ( x ) = 1 / 2 ; у загальному випадку визначається неодно-
значно, а іноді не існує; у симетричному випадку – збігається з
55
модою і математичним сподіванням, якщо останнє існує; вжива-
ється рідше, ніж математичне сподівання, але частіше, ніж мода;
нижній (перший) квартиль – квантиль рівня 0,25;
верхній (третій) квартиль – квантиль рівня 0,75;
децилі – квантилі рівня 0,1, 0,2, …, 0,9;
перцентилі – квантилі рівня 0,01, 0,02, …, 0,99.
Числові характеристики неперервних випадкових вели-
чин. Математичним сподіванням неперервної випадкової вели-
чини ξ , можливі значення якої належать відрізку [a, b] , назива-
ють визначений інтеграл
b
Mξ = ∫ xpξ ( x ) dx . (2.17)
a

Якщо можливі значення належать всій числовій вісі Ox , то



Mξ = ∫ xp ( x ) dx .
−∞
ξ (2.18)

Вважається, що невласний інтеграл збігається абсолютно,



тобто існує інтеграл ∫ x pξ ( x ) dx . Якби ця умова не виконува-
−∞
лась, то значення інтеграла залежало б від швидкості прямуван-
ня нижньої границі до −∞ , а верхньої до +∞ .
Дисперсією неперервної випадкової величини називають ма-
тематичне сподівання квадрата відхилення випадкової величини
від її математичного сподівання.
Якщо можливі значення ξ належать відрізку [a, b] , то
b
Dξ = ∫ ( x − Mξ ) pξ ( x ) dx .
2
(2.19)
a

Якщо можливі значення належать всій числовій вісі Ox , то:


∫ ( x − Mξ ) pξ ( x ) dx .
2
Dξ = (2.20)
−∞

Середнє квадратичне відхилення випадкової неперервної ви-


значається так само, як і для дискретної випадкової величини:
σ ( ξ ) = Dξ . (2.21)

56
Початковим моментом порядку k неперервної випадкової
величини ξ із густиною розподілу pξ ( x ) називають число

ν k = Mξ k = ∫x
k
pξ ( x ) dx (2.22)
−∞

за умови, що інтеграл збігається абсолютно.


Момент першого порядку ( k = 1 ) називають математичним
сподіванням (середнім значенням) випадкової величини ξ .
Закони розподілу неперервних випадкових величин:
Рівномірний розподіл U [c, d ] .
Розподіл імовірностей назива-
ють рівномірним, якщо на інтер-
валі, якому належать всі можли-
ві значення випадкової величи-
ни, густина розподілу pξ ( x )
зберігає постійні значення. Якщо
можливі значення ξ належать інтервалу ( c, d ) , то густина роз-
поділу такої величини
⎧1 / (d − c), x ∈ [ c, d ]
pξ ( x ) ≡ ⎨ . (2.23)
⎩0, x ∉ [c, d ]
Нормальний розподіл N ( μ, σ2 ) . Нормальним, або гауссів-
ським, розподілом називають розподіл імовірностей випадкової
величини, густина розподілу якої
1 ⎧⎪ ( x − μ )2 ⎫⎪
pξ ( x ) = exp ⎨− ⎬. (2.24)
σ 2π ⎪⎩ 2σ2 ⎭⎪
Нормальна випад-
кова величина
N ( μ, σ ) з густиною
2

(2.24) визначається
параметрами μ та
σ . μ – коефіцієнт
зсуву (дійсне число),
57
σ2 > 0 – коефіцієнт масштабу (дійсне число). При цьому ймові-
рнісний зміст μ ( μ ∈ ) – математичне сподівання, а σ ( σ > 0 )
– середнє квадратичне відхилення випадкової величини. Стан-
дартний нормальний розподіл N ( 0,1) .
Графік густини нормального розподілу називають нормаль-
ною кривою (кривою Гаусса). Вона має такі властивості:
ƒ визначена по всій осі x і розташована над віссю Ox ;
ƒ симетрична відносно x = μ . При x = μ має максимум, що
( )
дорівнює 1 σ 2π , lim pξ ( x) = 0 ;
| x|→∞
ƒ точки перегину x = μ ± σ , відповідне значення густини в
(
цих точках 1 σ 2πe ; )
ƒ зміна величини параметра μ не змінює форми кривої, а
лише приводить до її зсуву вздовж осі Ox , коли μ додатна –
праворуч, коли від'ємна – ліворуч;
ƒ зі зростанням σ максимальне значення кривої зменшуєть-
ся, а сама крива стає більш пологою.
Визначення ймовірності заданого відхилення. Правило
трьох сигм. При розгляді нормального закону розподілу виді-
лимо окремий важливий випадок. Для цього визначимо ймовір-
ність того, що випадкова величина відхилиться від свого мате-
матичного сподівання на величину, не більшу за потроєне сере-
днє квадратичне відхилення:
P {| ξ − Mξ |< 3σ} = 2Φ ( 3) ≈ 0,9973 . (2.25)

Правило (2.25) називають правилом трьох сигм. Із (2.25) випливає,


що ймовірність того, що абсолютна величина відхилення пере-
вищить потроєне середнє квадратичне відхилення становить
0,0027. Отже, таке може відбутися лише в 0,27 % випадках. Такі
події можна вважати практично неможливими. Тому правило
трьох сігм зазвичай визначає границю випадкових похибок
(т. зв. гранична чи максимальна похибка) при проведенні вели-
кої кількості дослідів (вимірювань).
Також існують й інші оцінки. Наприклад, для правила двох
сігм відхилення P {| ξ − Mξ |> 2σ} становитиме 0,0446 (4,46 %), а
відхилення для оцінки P {| ξ − Mξ |> σ} ≈ 0,3174 (31,74 %).

58
Якщо розподіл випадкової величини, що досліджується, не-
відомий, але умова (2.25) виконується, то доцільно вважати, що
досліджувана величина розподілена нормально.
Оцінка відхилення теоретичного розподілу від нормального.
Асиметрія та ексцес. Емпіричним називають розподіл відносних
частот. Емпіричний розподіл вивчає математична статистика.
Теоретичним називають розподіл імовірностей. Теоретичний
розподіл вивчає теорія ймовірностей. При вивченні розподілів,
що відрізняються від нормального, виникає необхідність кількі-
сно оцінити цю різницю. Для цього вводять додаткові характе-
ристики, а саме, асиметрію та ексцес. Для нормального розподі-
лу ці характеристики дорівнюють нулю. Тому, якщо ці характе-
ристики для певного розподілу мають невеликі значення, мож-
ливе припущення, що цей розподіл близький до нормального.
Великі значення асиметрії та ексцесу вказують на значне відхи-
лення від нормального.
Для симетричного розподілу кожний центральний момент
непарного порядку дорівнює нулю. Для несиметричних розподі-
лів центральні моменти непарного порядку не дорівнюють ну-
лю. Таким чином, кожен із непарних моментів дає можливість
оцінити асиметрію.
Асиметрією (коефіцієнтом асиметрії) теоретичного розпо-
ділу називають відношення центрального моменту третього по-
рядку до куба середньоквадратичного відхилення
As = μ3 σ3 . (2.26)
Коефіцієнт асиметрії додатний, якщо правий хвіст розподілу
довший за лівий (права частина кривої більш полога), і від'єм-
ний у протилежному випадку.
Ексцесом (коефіцієнтом ексцесу) теоретичного розподілу
називають характеристику, яка визначена рівністю
Ek = μ 4 σ 4 − 3 . (2.27)
Коефіцієнт ексцесу нормального розподілу дорівнює нулю. Він
додатний, коли пік розподілу в околі математичного сподівання
гострий, і від'ємний, коли пік пологий.
Логнормальний розподіл. Позначення: LogN ( μ, σ 2 ) . Якщо
розподіл випадкової величини ξ заданий густиною ймовірності

59
⎧ 1 ⎛ ( ln x − μ )2 ⎞
⎪⎪ exp ⎜ − ⎟ , x>0
pξ ( x ) = ⎨ xσ 2π ⎜ 2σ 2 ⎟ (2.28)
⎝ ⎠

⎪⎩ 0 , x ≤ 0,
де σ > 0, μ ∈ , то кажуть, що випадкова величина ξ має логнор-
мальний розподіл з параметрами μ, σ . Якщо ξ ∼ LogN ( μ, σ 2 ) , то
η = ln ξ ∼ N ( μ, σ 2 ) .
Показниковий (експоненційний)
розподіл Позначення: Exp ( λ ) . Розпо-
діл неперервної випадкової величини
ξ , який задається густиною
⎧λe −λx , x≥0
pξ ( x ) = ⎨ (2.29)
⎩ 0 , x<0
називають показниковим.
У (2.29) λ – постійна додатна величина.
Розподіл Вейбулла (розподіл Вейбулла–Гнеденка) W ( k , λ ) .
Нехай густина розподілу неперервної випадкової величини ξ
має вигляд
⎧ k ⎛ x ⎞ k −1 −⎛⎜ x ⎞⎟
k

⎪ e ⎝ λ ⎠ , x ≥ 0,
pξ ( x ) = ⎨ λ ⎜⎝ λ ⎟⎠ (2.30)

⎩ 0, x < 0.
Тоді кажуть, що ξ має розподіл Вейбулла. Експоненційний розпо-
діл є частинним випадком формули Вейбулла: Exp ( λ ) ≡ W (1,1 / λ ) .
Бета-розподіл Β ( α, β ) . Випадкова величина розподілена за
бета-законом, якщо
⎧ x α−1 (1 − x )β−1
⎪ , 0 ≤ x ≤ 1,
pξ ( x ) = ⎨ B ( α, β ) (2.31)

⎩ 0, x ∉ [ 0,1] ,
1
де α, β – довільні фіксовані параметри, а B ( α, β ) = ∫ x α−1 (1 − x ) dx
β−1
0
– бета-функція.

60
Гамма-розподіл Γ ( β, θ ) . Якщо розподіл густини випадкової
величини ξ має вигляд
⎧ β−1 e − x / θ
⎪x , x ≥ 0,
pξ ( x ) = ⎨ Γ ( β ) θβ , (2.32)
⎪ 0, x < 0,

то випадкова величина розподілена за гамма-законом. У виразі

(2.32) β, θ – константи, більші від нуля, а Γ ( β ) = ∫ xβ−1e − x dx –
0

гамма-функція.
Якщо параметр β набуває цілого значення, то такий розподіл
називають розподілом Ерланга.
Розподіл χ 2n (розподіл Пірсона). Розподіл випадкової вели-
чини χ 2n = ξ12 + ξ 22 + … + ξ n2 , де всі незалежні ξi ∼ N (0,1) , назива-
ють χ 2n -розподілом з n ступенями вільності. Випадкова величина
ξ розподілена за законом χ 2n із n ступенями вільності, якщо
⎧ (1 2 )n 2 n 2 −1 − x 2
⎪ x e , x ≥ 0,
pξ ( x ) = ⎨ Γ ( n 2 ) (2.33)

⎩ 0 , x < 0.
Розподіл χ 2n є частинним випадком гамма-розподілу
χ ∼ Γ ( 2, n 2 ) . Якщо ξi є незалежними нормальними випадко-
2
n

вими величинами, тобто ξi ~ N ( μ, σ 2 ) , i = 1,… , n , то випадкова


2
n
⎛ξ −μ⎞
величина η = ∑ ⎜ i ⎟ має розподіл χ 2n . Якщо n = 2 , то роз-
i =1 ⎝ σ ⎠
поділ χ 2n збігається з експоненційним розподілом χ 22 ~ Exp (1 2 ) .
Розподіл Колмогорова K . Випадкова величина розподілена
за законом Колмогорова, якщо
⎧ ∞
⎪ ∑ ( −1) e
k −2 k 2 x 2
, x>0
pξ ( x ) = ⎨ k =−∞ . (2.34)
⎪ 0 , x≤0

61
Розподіл Коші C ( x0 , γ ) (у теорії ймовірності), або розподіл
Лоренца (у фізиці). Випадкова величина розподілена за законом
Коші, якщо
1 1⎡ γ ⎤
pξ ( x ) = = ⎢ ⎥. (2.35)
⎡ ⎛ x − x ⎞ 2 ⎤ π ⎢⎣ ( x − x0 ) + γ 2 ⎥⎦
2

πγ ⎢1 + ⎜ 0
⎟ ⎥
⎢⎣ ⎝ γ ⎠ ⎥⎦
Тут x0 ∈ – параметр зсуву, γ > 0 – параметр масштабу. Якщо
x0 = 0 і γ = 1 , то розподіл називають стандартним розподілом
Коші. Випадкова величина, що розподілена за законом Коші
(Лоренца), не має ні математичного сподівання, ні дисперсії.
Якщо ξ1 та ξ2 – незалежні нормально розподілені величини і
такі, що ξ1 , ξ 2 ~ N (0,1) , то ξ1 / ξ 2 ~ C (0,1) . Стандартний розподіл
Коші є частинним випадком розподілу Стьюдента C (0,1) ≡ t (1) .
Розподіл Стьюдента (псевдонім Вільяма Госсета1) t (n) ≡ tn .
Випадкова величина ξ розподілена за законом Стьюдента із n
ступенями вільності, якщо
⎛ n +1⎞
Γ⎜ ⎟ −
n +1

⎝ 2 ⎠ ⎛ x2 ⎞ 2
pξ ( x ) = ⎜1 + ⎟ ,−∞< x<∞, (2.36)
πn Γ ( n 2 ) ⎝ n ⎠

де Γ ( ⋅) – гамма-функція. Розподіл Стьюдента при n → ∞ збіга-


ється до стандартного нормального розподілу t (n) → N (0,1) .
Квадрат випадкової величини, що має розподіл Стьюдента, роз-
поділений за законом Фішера tn 2 ~ F (0, n) .
Розподіл Фішера F (d1 , d 2 ) . Нехай η1 , η2 – дві незалежні ви-
падкові величини, що мають розподіл χ 2n : ηi ∼ χ 2 (di ) , де di ∈ N ,

1
Госсет Уільям Сілі (1876–1937) – вчений-статистик. Він розробив
критерій для оцінки якості пива в компанії "Гіннес". У зв'язку із нероз-
голошення комерційної таємниці, якою "Гіннес" вважала використан-
ня статистичного апарата у своїй роботі, свою статтю (журн. "Біомет-
рика", 1908 р.) Госсет підписав псевдонімом "Student" (Студент), звід-
си походить і назва – критерій Стьюдента.
62
η1 d1
i = 1, 2 . Тоді розподіл випадкової величини F = , з густи-
η2 d 2
ною розподілу
⎧ x ( d1 − 2) 2
⎪C0 , x>0
pF ( x ) = ⎨ ( d 2 + d1 x )( d1 + d2 ) 2 (2.37)

⎩ 0 , x ≤ 0,
⎛ d + d 2 ⎞ d1 2 d2 2
Γ⎜ 1 ⎟ d1 d 2
де C0 = ⎝ 2 ⎠ називають розподілом Фішера зі сту-
Γ ( d1 2 ) Γ ( d 2 2 )
пенями вільності d1 та d 2 .

Задачі до підрозділу 7
7.1. Випадкова величина ξ задана функцією розподілу:
⎧0, при x ≤ −2
⎪ 1 arcsin( x / 2)

Fξ ( x) = ⎨ + , при − 2 < x ≤ 2
⎪2 π
⎪⎩0, при x > 2.
Знайти ймовірність того, що в результаті випробувань ξ на-
буде значень, що лежать в інтервалі (–1; 1).
7.2. Дано функцію розподілу неперервної випадкової величини ξ :
⎧0, при x ≤ − a

⎪1 / 2 + x / a + x / (2a ), при − a ≤ x ≤ 0
2 2

Fξ ( x) = ⎨
⎪1 / 2 + x / a − x / (2a ), при 0 ≤ x ≤ a
2 2

⎪1, при x ≥ a.

Знайти густину розподілу pξ ( x) .

7.3. Дано функцію розподілу неперервної випадкової величини ξ :


⎧0, при x≤0

Fξ ( x) = ⎨ 2
⎪⎩ π arctg(2 x), при 0 < x < ∞.
Знайти густину розподілу pξ ( x) .

63
7.4. Задана густина розподілу неперервної випадкової величини
⎧0, при x<0
⎪⎪
ξ : pξ ( x) = ⎨ A x − x 2 , при 0 ≤ x ≤ 1
⎪0, при x > 1.
⎪⎩
Знайти постійний параметр A .
7.5. Задана густина розподілу неперервної випадкової величини ξ :
⎧0, при x<0

pξ ( x) = ⎨ 1 A
⎪⎩ π 1 + x 3 , при x ≥ 0.

Знайти постійний параметр A .


7.6. Довести, що дисперсію випадкової неперервної величини
можна обчислити за формулою Dξ = Mξ2 − ( Mξ ) .
2

7.7. Довести, що для довільної неперервної випадкової вели-


чини центральний момент першого порядку дорівнює нулю.
7.8. Довести, що звичайний момент другого порядку

μ′2 = ∫ ( x − c) pξ ( x)dx має найменше значення, якщо c = Mξ .
2

−∞

Порівняти величину центрального μ 2 і звичайного моментів μ′2 .


7.9. Густина випадкової величини ξ pξ ( x) = Ae − x при x ≥ 0 та
pξ ( x) = 0 при x < 0 . Знайти коефіцієнт A . Визначити функцію
розподілу. Обчислити моду, медіану, математичне сподівання,
дисперсію та середнє квадратичне відхилення величини ξ .
7.10. Випадкова величина ξ розподілена за показниковим за-
коном pξ ( x ) = λe−λx ( x ≥ 0 ) . Знайти математичне сподівання
та дисперсію випадкової величини ξ .
7.11. Випадкова величина ξ розподілена за законом Вейбул-
ла (2.30). Знайти функцію розподілу, моду, медіану, матема-
тичне сподівання та дисперсію величини ξ .
7.12. Випадкова величина ξ при x ≥ 0 розподілена за гамма-
розподілом (2.32). Знайти математичне сподівання, диспер-
сію, коефіцієнт асиметрії та коефіцієнт ексцесу величини ξ .
7.13. Знайти дисперсію та середньоквадратичне відхилення ви-
падкової величини ξ , розподіленої рівномірно в інтервалі (2,8).

64
7.14. Діаметр кола r виміряний наближено, причому
a ≤ r ≤ b . Розглянувши діаметр як випадкову величину, роз-
поділену рівномірно в інтервалі ( a, b ) , знайти математичне
сподівання та дисперсію площі кола.
7.15. Ребро куба x може мати довжину a ≤ x ≤ b . Розглянувши
ребро куба як випадкову величину, розподілену рівномірно на
( a, b ) , знайти математичне сподівання та дисперсію об'єму куба.
7.16. Математичне сподівання нормально розподіленої випа-
дкової величини ξ дорівнює a = 3 , а середнє квадратичне
відхилення σ = 2 . Знайти густину ймовірностей ξ .
7.17. Знайти густину ймовірностей нормально розподіленої
випадкової величини ξ , якщо відомо Mξ = 4 , Dξ = 3 .
7.18. Нормально розподілена випадкова величина ξ має гус-
1⎧⎪ ( x − 1)2 ⎫⎪
тину розподілу pξ ( x ) = exp ⎨− ⎬ . Знайти матема-
5 2π ⎪⎩ 50 ⎭⎪
тичне сподівання та дисперсію.
x
1
7.19. Дано функцію розподілу Fξ ( x ) = ∫
2
e − t / 2 dt . Знайти
2π −∞
густину розподілу pξ ( x ) .
7.20. Модуль вектора швидкості молекули газу є випадковою
величиною ξ , розподіленою за законом Максвелла, тобто
4h 3 2 2
має густину pξ (υ) = υ2 e− h υ при υ > 0 та pξ (υ) = 0 при
π
υ < 0 . Знайти середню швидкість та дисперсію величини
швидкості молекули.
7.21. Випадкова величина ξ розподілена за законом Релея,
⎧⎪0, x ≤ 0,
тобто має густину pξ ( x) = ⎨ −h x 2 2 Знайти коефіцієнт
⎪⎩ Axe , x > 0.
A , медіану, моду, математичне сподівання та дисперсію
величини ξ .
7.22. Випадкова величина ξ розподілена логнормально за за-
коном LogN ( a, b 2 ) , де a – довільне дійсне число, b – додат-
не (розподіл частинок при дробленні). Знайти Mξ та Dξ .

65
7.23. Мішень складається із 3 концентричних кілець, що ма-
ють радіуси 1 3 , 1 та 3 . Влучення у центральне коло ко-
штує 5 очок, у середнє коло 3 очка, в останнє 1 очко та за
межами кола 0 очок. Імовірність влучити на відстань r від
2
центра мішені дорівнює . Знайти математичне спо-
π (1 + r 2 )
дівання кількості очок, вибитих при 4 пострілах.
7.24. Випадкова величина розподілена нормально за законом
з параметрами (0, σ) . При якій дисперсії σ 2 імовірність пот-
рапити в інтервал 0 < a < ξ < b буде максимальною?
7.25. Випадкова величина розподілена нормально за законом
з параметрами (μ, σ 2 ) . Вивести "правило трьох сигм":
P {| x − Mξ |< 3σ} ≈ 0,9973 . Знайти довжину інтервалу, симет-
ричного відносно математичного сподівання нормально роз-
поділеної величини ξ ( σ = 5 мм), у який з імовірністю 0,9973
потрапить ξ у результаті дослідів.
7.26. Випадкова величина розподілена нормально за законом з
параметрами (μ, σ 2 ) . Використовуючи відоме правило трьох
сигм, визначити величину P {| x − Mξ |< σ} та P {| x − Mξ |< 2σ} .

8. Багатовимірні (векторні) випадкові величини

Нехай ( Ω, F, P ) – імовірнісний простір, а ξ1 ( ω) ,… , ξ n ( ω) –


випадкові величини, що визначені на Ω і є компонентами век-
тора ξ ( ω) . Вектор ξ ( ω) = ( ξ1 ( ω) ,… , ξn ( ω) ) називають випадко-
вим вектором, або n -вимірною випадковою величиною, а ξi ( ω) ,
i = 1,… , n називаються координатами, або компонентами, ви-
падкового вектора ξ .
Функцію Fξ ( x ) = P {ξ1 < x1 ,… , ξ n < xn } називають
n -вимірною функцією розподілу випадкової величини
ξ = ( ξ1 ,…, ξn ) .

66
Властивості двовимірної функції розподілу
Fξη ( x, y ) = P {ξ < x, η < y} .
1. Fξη ( x, y ) є неспадною функцією за x та y .
2. Fξη ( x, y ) неперервна зліва за x та y .
3. Fξη ( ∞, ∞ ) = 1 , Fξη ( −∞, y ) = 0 , Fξη ( x, −∞ ) = 0 .
4. P { x1 < ξ < x2 , y1 < η < y2 } =
= Fξη ( x2 , y2 ) − Fξη ( x1 , y2 ) − Fξη ( x2 , y1 ) + Fξη ( x1 , y1 ) .
5. Fξ ( x ) = Fξη ( x, ∞ ) , Fη ( y ) = Fξη ( ∞, y ) (маргінальні розподіли).
Випадковий вектор називають дискретним, якщо кожна його
координата є дискретною випадковою величиною, і непере-
рвним, якщо існує така кусково-неперервна невід'ємна функція
pξη ( x, y ) , x, y ∈ , що для будь-яких x та y буде справедли-
вою рівність
x y

Fξη ( x, y ) = ∫ ∫ p ( u, v ) dudv .
ξη (2.38)
−∞ −∞

Функцію pξη ( x, y ) називають густиною ймовірностей випа-


дкового вектора ( ξ, η) .
Властивості густини ймовірності випадкового вектора:
1. У точках неперервності для pξη ( x, y ) справедлива рівність

∂ 2 Fξη ( x, y )
pξη ( x, y ) = . (2.39)
∂x∂y
Оскільки Fξη ( x, y ) не спадна за кожною змінноюй, то
pξη ( x, y ) ≥ 0 .
2. Для будь-якої вимірної області D ⊂ 2 маємо
P {( ξ, η ) ∈ D} = ∫∫ pξη ( x, y ) dxdy .
D
Зокрема,
P { x ≤ ξ < x + dx, y ≤ η < y + dy} = pξη ( x, y ) dxdy + o ( dxdy )

67
∞ ∞
3. Унаслідок Fξη ( ∞, ∞ ) = 1 : ∫ ∫ p ( x, y ) dxdy = 1 .
ξη
−∞ −∞

4. Якщо двовимірна випадкова величина ( ξ, η) має густину, то


кожна її компонента також має густину(маргінальні розподіли):
∞ ∞
pξ ( x ) = ∫ p ( x, y ) dy ,
ξη pη ( y ) = ∫ p ( x, y ) dx .
ξη
−∞ −∞

Умовний розподіл. Умовною густиною, або густиною ймо-


вірностей умовного розподілу ξ , при деякому значенні η = y
називають функцію pξ ( x | y ) , яка визначається відношенням гус-
тини спільного розподілу pξη ( x, y ) випадкового вектора ( ξ, η)
до густини розподілу pη ( y ) складової величини η :

dFξ ( x η = y ) pξη ( x, y )
pξ ( x | y ) = = , pη ( y ) ≠ 0 ,
dx pη ( y )
або pξη ( x, y ) = pξ ( x | y ) pη ( y ) . За аналогією

dFξ ( y ξ = x ) pξη ( x, y )
pη ( y | x ) = = , pξ ( x ) ≠ 0 ,
dy pξ ( x )

або pξη ( x, y ) = pη ( y x ) pξ ( x ) .
Властивості умовної густини:

pξ ( x | y ) ≥ 0 ,
−∞
∫ p ( x | y )dx = 1
ξ


pη ( y | x ) ≥ 0 , ∫ p ( y | x )dy = 1 .
η
−∞
Справедливі співвідношення:
x
Fξ ( x η = y ) = P {ξ < x | η = y} = ∫ p ( t y ) dt ,
ξ
−∞

pξ ( x ) = ∫ p ( y ) p ( x y ) dy – аналог формули повної ймовірності.
−∞
η ξ

68
Незалежність. Випадкові величини ξ1 ,…, ξn називають неза-
лежними (у сукупності), якщо для довільних x1 ,… , xn події
{ξ1 < x1} ,…,{ξn < xn } незалежні в сукупності, тобто
P ({ξ1 < x1} ∩… ∩ {ξ n < xn } ) = P {ξ1 < x1} P {ξn < xn } ,
або Fξ ( x ) = Fξ ( x1 ) Fξ ( xn ) , pξ ( x ) = pξ ( x1 ) pξ ( xn ) .
1 n 1 n

Якщо величини ξ та η незалежні й мають відповідні густи-


ни ймовірностей pξ ( x ) та pη ( x ) , то вектор ( ξ, η) визначається
такими виразами для функції розподілу та густини:
Fξη ( x, y ) = Fξ ( x ) Fη ( y ) , p ( x, y ) = pξ ( x ) pη ( y ) .
Для незалежних випадкових величин ξ та η для довільних
x1 < x2 , y1 < y2 :
P { x1 ≤ ξ < x2 , y1 ≤ η < y2 } = P { x1 ≤ ξ < x2 } P { y1 ≤ η < y2 } .
Якщо ξ та η є незалежними випадковими величинами, то випа-
дкові величини ζ = f ( ξ ) та χ = ϕ ( η ) будуть також незалежними.
Функції від випадкових величин. Нехай на ймовірнісному
просторі ( Ω, F, P ) визначені дві випадкові величини ξ з густиною
розподілу pξ ( x ) та η з густиною розподілу pη ( y ) . Нехай вели-
чини ξ та η пов'язані функціональною залежністю η = ϕ ( ξ ) .
Для дискретної випадкової величини:
а) якщо різним можливим значенням аргументу ξ відпові-
дають різні можливі значення функції η , то ймовірності відпо-
відних значень ξ та η рівні між собою;
б) якщо різним можливим значенням аргументу ξ відпові-
дають значення η , серед яких є рівні між собою, то ймовірності
значень η , що повторюються, додаються.
Якщо відомо, що для неперервної випадкової величини ξ
функція η = ϕ(ξ) строго зростаюча (або строго спадна) й оберне-
на функція якої є ξ = ψ (η) , то густину розподілу випадкової ве-
личини η можна знайти за формулою

69
pη ( y ) = pξ [ψ ( y )] ⋅ ψ′( y ) . (2.40)

Якщо кожній парі випадкових величин ξ та η відповідає


одне можливе значення випадкової величини χ , то χ є функ-
цією двох випадкових аргументів ξ та η : χ = ϕ ( ξ, η) .
Для дискретних випадкових величин, щоб скласти закон роз-
поділу χ = ϕ ( ξ, η) , потрібно знайти всі можливі значення χ та
їх імовірності.
Для функції та густини розподілу суми двох неперервних ве-
личин χ = ξ + η справедливо:
∞ z−x
Fχ ( z ) = ∫ dx ∫ dy p ( x, y ) ,
ξη
−∞ −∞
∞ ∞
pχ ( z ) = Fχ′ ( z ) = ∫ dx pξη ( x, z − x ) = ∫ dx p ( z − x, x ) .
ξη
−∞ −∞

Якщо величини ξ та η незалежні, то pξη ( x, y ) = pξ ( x ) pη ( y )


∞ ∞
і pχ ( z ) = ∫ pξ ( x ) pη ( z − x ) dx = ∫ p ( z − x ) p ( x ) dx .
ξ η
−∞ −∞
Для функції та густини розподілу добутку χ = ξη справедливо:
0 ∞ ∞ z x

Fχ ( z ) = ∫ dx ∫ dy p ( x, y ) + ∫ dx ∫ dy p ( x, y ) ,
ξη ξη
−∞ z x 0 −∞
0 ∞
⎛ z ⎞ dx ⎛ z ⎞ dx
pχ ( z ) = Fχ′ ( z ) = − ∫ pξη ⎜ x, ⎟ + ∫ pξη ⎜ x, ⎟ .
−∞ ⎝ x⎠ x 0 ⎝ x⎠ x
Для функції та густини розподілу відношення χ = ξ η спра-
ведливо:
0 ∞ ∞ zy
⎧ξ ⎫
Fχ ( z ) = P ⎨ < z ⎬ = ∫ dy ∫ dx p ( x, y ) + ∫ dy ∫ dx p ( x, y ) ,
⎩η ⎭ −∞ zy 0 −∞

0 ∞
pχ ( z ) = Fχ′ ( z ) = − ∫ dy y p ( zy , y ) + ∫ dy y p ( zy , y ) .
−∞ 0

70
Числові характеристики векторних випадкових величин:
Математичним сподіванням вектора ξ = ( ξ1 ,… , ξ n ) називають
вектор Mξ = ( Mξ1 ,…, Mξn ) . Дисперсією вектора ξ = ( ξ1 ,… , ξn )
називають вектор Dξ = ( Dξ1 ,… , Dξ n ) .
Властивості математичного сподівання:
1) за умови, що M ξ та M η скінченні: M ( ξ + η) = Mξ + Mη ;
2) M ( cξ + d η) = cMξ + dMη ;
3) якщо випадкові ξ та η незалежні, M ( ξ ⋅ η) = Mξ ⋅ Mη ;
4) якщо ξ ≥ η , то Mξ > Mη ;
5) за умови, що M ξ та M η скінченні, справедлива нерів-
ність Коші–Буняковського: M ξ ⋅ η ≤ Mξ2 ⋅ Mη2 ;
2
6) за умови, що M ξ є скінченною для будь-якого ε > 0 ,
2

справедлива оцінка P { ξ > ε} ≤ (нерівність Чебишова);
ε2

7) для будь-якого ε > 0 справедлива оцінка P { ξ > ε} ≤ .
ε
Властивості дисперсії:
1) Dc = 0 ;
2) обернене твердження: якщо Dξ = 0 , то з імовірністю 1 ве-
личина ξ є сталою: ξ = Mξ ;
3) якщо η = cξ , то Dη = c 2 Dξ ;
4) дисперсія суми попарно незалежних випадкових величин
⎛n ⎞ n
дорівнює сумі дисперсій D ⎜ ∑ ξi ⎟ = ∑ Dξi .
⎝ i =1 ⎠ i=1
Умовним математичним сподіванням дискретної випадко-
вої величини η при ξ = x , де x – деяке визначене значення ξ ,
називають суму добутків можливих значень η = yk на відповідні
умовні ймовірності
n
M {η | ξ = x} = ∑ yk p ( yk | x ) . (2.41)
k =1

71
Для неперервної випадкової величини

M {η | ξ = x} = ∫ dy y p ( y | x ) ,
η (2.42)
−∞

де pη ( y | x ) – умовна густина ймовірностей випадкової величи-


ни η при ξ = x . Умовне математичне сподівання є функцією від
x : M {η | x} = f ( x ) , яку називають функцією регресії η на ξ .
Аналогічно визначається умовне математичне сподівання ви-
падкової величини ξ і функції регресії ξ на η .
Дві випадкові величини незалежні, коли закон розподілу одні-
єї з них не залежить від того, яких можливих значень набула інша
величина. З цього визначення зрозуміло, що умовні розподіли
незалежних величин дорівнюють їхнім безумовним розподілам.
Кореляційний момент. Коваріаційною (дисперсійною) мат-
рицею випадкового вектора ξ = ( ξ1 ,… , ξn ) називають матрицю з
елементами
a ij =cov ( ξi , ξ j ) = M ⎡⎣( ξi − Mξi ) ( ξ j − Mξ j ) ⎤⎦ . (2.43)

Коефіцієнтом кореляції r ( ξ, η) випадкових величин ξ та η


називають відношення
cov ( ξ, η)
r ( ξ, η) = , (2.44)
Dξ⋅ Dη
де r ( ξ, η ) ≤ 1 . Дві корельовані величини ( r ≠ 0 ) є залежними.
Проте, якщо дві величини залежні, вони можуть бути як коре-
льованими, так і некорельованими. Якщо r = 0 , випадкові вели-
чини ξ та η називають некорельованими.

Задачі до підрозділу 8
8.1. Дискретна випадкова величина задана законом розподілу:
ξ π4 π2 π
p 0,2 0,7 0,1
Знайти закон розподілу η = cos ξ .

72
8.2. Дискретна випадкова величина задана законом розподілу:
ξ -1 0 1
p 0,3 0,4 0,3
Знайти закон розподілу η = ξ2 .
8.3. Випадкова величина ξ розподілена за законом Коші
1
pξ ( x ) = . Знайти густину розподілу pη ( y ) випадкової
π (1 + x 2 )
величини η = ξ3 .
8.4. Випадкова величина ξ розподілена нормально N ( 0, σ2 ) .
Знайти густину розподілу pη ( y ) випадкової величини η = ξ2 4 .
8.5. У прямокутній системі координат із точки A , що ле-
жить на осі Ox з координатою x = 4 , навмання під кутом α
проведено промінь, що перетинає вісь Oy . Знайти диферен-
ціальну функцію pη ( y ) розподілу ймовірностей координати
y точки, що є перетином променя та осі Oy .
8.6. Випадкова величина ξ розподілена рівномірно на
(− π 2, π 2 ) . Знайти математичне сподівання та дисперсію
випадкової величини η = sin ξ .
8.7. Дискретні випадкові величини ξ та η задані розподілами:
ξ 4 10 η 1 7
p 0,7 0,3 p 0,8 0,2
Знайти розподіл випадкової величини χ = ξ + η .
8.8. Незалежні випадкові величини ξ та η нормально роз-
поділені N ( 0,1) . Довести, що випадкова величина χ = ξ + η
також розподілена нормально.
8.9. Випадкові величини ξ та η незалежні та розподілені рів-
номірно на відрізку [ 0, a ] . Знайти функцію розподілу та густи-
ну розподілу ймовірностей випадкової величини χ = ξ + η .
8.10. Випадкова величина ξ рівномірно розподілена в інтер-
валі ( 0, 2 ) , випадкова величина η розподілена рівномірно на
( −1,1) . Знайти густину розподілу ймовірностей випадкової
величини χ = ξ + η , якщо ξ та η незалежні.

73
8.11. Знайти розподіл густини ймовірностей випадкової ве-
личини χ = ξ − η , якщо задано густину розподілу ймовірності
pξη ( x, y ) випадкового вектора ( ξ, η) .
8.12. Знайти розподіл густини ймовірностей випадкової ве-
личини χ = ξ − η , якщо випадкові величини ξ та η незалеж-
ні та розподілені за показниковим законом з густиною роз-
поділу ймовірностей e − x , x ≥ 0 .
8.13. Випадкові величини ξ та η незалежні й розподілені рі-
вномірно на відрізку [ 0, a ] . Знайти розподіл густини ймовір-
ностей випадкової величини χ = ξ − η .
8.14. Сторони прямокутника взято навмання. Довжина кож-
ної з них не перевищує числа e та рівномірно розподілена в
інтервалі [ 0, e] . Знайти розподіл густини ймовірностей площі
прямокутника, тобто знайти χ = ξη .
8.15. Записати розподіл густини ймовірностей випадкової ве-
личини χ = ξ , якщо ξ та η незалежні та розподілені норма-
η
льно ξ, η ∈ N ( 0,1) .
8.16. Довести, що якщо ξ та η незалежні, а їхні густини роз-
⎧0, x≤0
поділів збігаються й дорівнюють pξ ( x) = pη ( x) = ⎨ −x
,
⎩e , x>0
то величини ς1 = ξ + η та ς 2 = ξ η також незалежні.
8.17. Випадкові величини ξ та η розподілені за законом
Коші і мають розподіл густини ймовірностей
1 1
pξ ( x ) = pη ( x ) = , −∞ < x < ∞ . Показати (довести стій-
π (1 + x 2 )
кість закону), що сума цих випадкових величин також розпо-
ділена за законом Коші.
8.18. Випадкові величини ξ та η незалежні з густинами
⎧0, x≤0 ⎧0, x≤0
pξ ( x) = ⎨ α −βx та pη ( x) = ⎨ γ −βx
⎩ Ax e , x > 0 ⎩ Bx e , x > 0.
Знайти константи A , B і густину розподілу суми χ = ξ + η .
8.19. Яку умову мають задовольняти незалежні випадкові ве-
личини ξ та η , щоб D ( ξη) = DξDη ?

74
8.20. Знайти математичне сподівання та дисперсію добутку
двох незалежних випадкових величин ξ та η , рівномірно
розподілених відповідно на інтервалах ( a, b ) та ( c, d ) .
8.21. Задано дискретну двовимірну випадкову величину ( ξ, η) :
η\ξ x1 = 1 x2 = 2 x3 = 3
y1 = 0, 4 0,15 0,3 0,35
y2 = 0,8 0,05 0,12 0,03
Знайти: а) безумовні закони розподілу складових;
б) складової ξ за умови, що η = y1 = 0, 4 , та умовний закон
розподілу η за умови, що ξ = x2 = 2 .
8.22. У колі x 2 + y 2 ≤ a 2 двовимірна густина ймовірності
( )
pξη ( x, y ) = A a − x 2 + y 2 ; поза колом pξη ( x, y ) = 0 . Знайти:
а) постійну A ; б) імовірність того, що випадкова точка ( ξ, η)
опиниться в колі радіуса R = 1 із центром на початку коор-
динат, якщо a = 2 .
8.23. Задано густину сумісного розподілу неперервної двови-
мірної випадкової величини ( ξ, η) :
⎧⎪0, ( x < 0, y < 0 )
pξη ( x) = ⎨
⎪⎩4 xye
− x2 − y2
, ( x > 0, y > 0 ) .
Знайти математичні сподівання та дисперсії складових ξ та η .
8.24. Густина сумісного розподілу неперервної двовимірної
величини pξη ( x, y ) = Ce − x − 2 xy − 4 y . Знайти: а) постійний мно-
2 2

жник C ; б) густини розподілу складових; в) умовні густини


розподілу.
8.25. Випадкові величини ξ та η незалежні та нормально ро-
зподілені з N ( a, σ 2 ) уздовж осі Ox та N ( b, σ 2 ) уздовж осі
Oy , відповідно. Знайти функцію розподілу та густину роз-
поділу відстані точки ( ξ, η ) від центра розподілу ( a, b ) .
8.26. Випадкові величини ξ та η незалежні та нормально роз-
поділені з Mξ = a , Mη = b , Dξ = Dη = σ2 . Знайти радіус кола
із центром у точці ( a, b ) за умови, що ймовірність того, що
випадкова точка ( ξ, η ) потрапить у це коло, дорівнює 0,997.

75
8.27. Випадковий вектор рівномірно розподілений у колі об-
ласті D = {( x, y ) : x 2 + y 2 ≤ a 2 } . Знайти математичне сподіван-
ня та дисперсію відстані точки ( ξ, η) від початку координат.
8.28. Двовимірна випадкова величина ( ξ, η) підкорюється та-
кому розподілу ймовірностей:
η ξ
0 1
–1 0,1 0,2
0 0,2 0,3
1 0 0,2
Знайти математичне сподівання та дисперсію випадкової ве-
личини χ = 2ξ + η3 .
8.29. Знайти математичне сподівання, дисперсію та коефіці-
єнт кореляції величини ( ξ, η) випадкової величини, що на
площині розподілена за таким законом:
η ξ
0 1
–1 0,1 0,15
0 0,15 0,25
1 0,2 0,15
8.30. Події A та B мають однакову ймовірність p . Якою
має бути умовна ймовірність P ( A B ) , щоб коефіцієнт коре-
ляції між подіями A та B дорівнював r ?
8.31. Випадкова величина ξ рівномірно розподілена в інтер-
валі ( −1,1) , η = ξm ( m > 0 – ціле). Знайти коефіцієнт кореля-
ції ξ та η . Розглянути випадки парного та непарного m , а
також оцінити асимптотичне значення за m → ∞ .
8.32. Двовимірна випадкова величина задана таблицею:
η\ξ 1 3 4 8
y1 = 3 0,15 0,06 0,25 0,04
y2 = 6 0,3 0,1 0,03 0,07
Знайти умовне математичне сподівання η за ξ = x1 = 1 .

76
9. Характеристична функція.
Центральні граничні теореми

Характеристичною функцією (ХФ) f ξ ( t ) випадкової вели-


чини ξ називають функцію дійсної змінної t ∈ 1
:

f ξ ( t ) = Meitξ = M cos ( t ξ ) + iM sin ( t ξ ) = ∫e
itx
dFξ ( x ) . (2.45)
−∞

Для неперервної величини f ξ ( t ) = ∫e
itx
pξ ( x )dx , тобто f ξ ( t ) –
−∞

це перетворення Фур'є густини pξ ( x ) . Для дискретної випадко-



вої величини ξ : f ξ ( t ) = ∑ eitxk pk .
k =1
ХФ існує для довільної випадкової величини, оскільки вна-
слідок рівності eitx = 1 ряд (інтеграл) збігається абсолютно.
Основні властивості характеристичної функції випадко-
вої величини:
1. f ξ ( 0 ) = 1 та f ξ ( t ) ≤ 1 ( t ∈ 1 ).
2. Нехай ξ1 ,… , ξn – незалежні в сукупності випадкові вели-
чини. Тоді f ξ1+ +ξn (t ) = f ξ1 ( t ) ... f ξn ( t ) .
3. Якщо σ та μ – деякі сталі, то f σξ+μ ( t ) = eitμ f ξ ( σt ) .
4. Якщо існує момент Mξk , то k -та похідна f ξ( ) ( t ) від ХФ
k

та f ξ( ) ( 0 ) = i k Mξk .
1 k
існує, рівномірно неперервна на
5. Якщо ХФ f ξ ( t ) абсолютно інтегрована на 1
, то випадко-
ва величина ξ неперервна, а її густина pξ ( x ) є рівномірно непе-
1 ∞ −itx
рервною на 1
і дорівнює pξ ( x ) = ∫ e f ξ ( t ) dt .
2π −∞
Характеристичною функцією f ξ ( t1 ,… , tn ) ∈ n
n -вимірного
випадкового вектора ξ = ( ξ1 ,… , ξ n ) називають функцію

77
∞ ⎛ n ⎞
f ξ ( t1 ,…, tn ) = Meit1ξ1+ = ∫ …∫ exp ⎜ i ∑ tk xk ⎟ dFξ ( x1 ,…, xn ) .
+itnξn
−∞ ⎝ k =1 ⎠
Основні властивості характеристичної функції випадко-
вого вектора:
(
1. f ξ ( 0,… ,0 ) = 1 та f ξ ( t1 ,… , tn ) ≤ 1 ( t1 ,…, tn ) ∈ n . )
2. Якщо ξ1 ,… , ξn незалежні, то f ξ ( t ) = f ξ1 ( t1 ) ... f ξn ( tn ) .
3. ХФ випадкового вектора η = ( σ1ξ1 + μ1 ,… , σ n ξn + μ n ) дорівнює
⎛ n ⎞
f η ( t1 ,… , tn ) = exp ⎜ i ∑ μ k tk ⎟ f ξ ( σ1t1 ,… , σntn ) .
⎝ k =1 ⎠
4. ХФ суми координат випадкової величини ξ дорівнює
f ξ1+ +ξn ( t ) = Meit( ξ1+ +ξn )
.
Центральні граничні теореми. Послідовність випадкових
величин {ξk } , k = 1, 2,… прямує до випадкової величини ξ0 за
розподілом або слабо збігається, якщо lim Fk ( x ) = F0 ( x ) у кожній
k →∞

точці неперервності F0 ( x ) , де Fk ( x ) – функція розподілу ξk .


Центральна гранична теорема для однаково розподілених неза-
лежних випадкових величин. Нехай {ξk } – послідовність незалеж-
них однаково розподілених випадкових величин із Mξk = μ ,
Dξk = σ2 , σ > 0 , k = 1, 2,… . Тоді послідовність випадкових величин
1 n
ηn = ∑ ( ξk − μ )
σ n k =1
збігається за розподілом до N ( 0,1) , тобто
x
1
lim P {ηn < x} = ∫ exp ( − z 2 ) dz = Φ ( x ) ,
2
0
n →∞ 2π −∞
де Φ 0 ( x ) є функцією розподілу нормально розподіленої вели-
чини N ( 0,1) . При цьому прямування до границі буде рівномір-
ним за x ∈ 1 .
Центральна гранична теорема Ляпунова. Нехай {ξk } – послідо-
вність незалежних випадкових величин із Mξk = μ k , Dξk = σ2k та

78
3
M ξk − μ k < ∞ , k = 1, 2,… . Тоді, якщо виконується умова Ляпуно-
1 n n n

∑ ∑ ∑
3
ва M ξ k − μ k → 0 при n → ∞ , де Bn = Dξ k = σ2k ,
Bn3 k =1 k =1 k =1

1 n
то послідовність випадкових величин ηn = ∑ ( ξk − μk ) збігаєть-
Bn k =1
ся за розподілом до N ( 0,1) рівномірно на 1 .

Задачі до підрозділу 9
9.1. Знайти ХФ f ξ ( t ) випадкової величини ξ , яка розподі-
лена за біноміальним законом.
9.2. Випадкова величина ξ розподілена за геометричним
законом. Знайти ХФ f ξ ( t ) величини ξ .
9.3. Випадкова величина ξ розподілена за від'ємним біномі-
альним законом. Знайти ХФ f ξ ( t ) .
9.4. Знайти ХФ закону Пуассона:
λ m −λ
P ( m ) = P {ξ = m} =
e , m = 0,1, 2,… , λ > 0 .
m!
9.5. Знайти ХФ випадкової величини ξ , що розподілена за по-
⎧0, x≤0
казниковим законом із густиною pξ ( x ) = ⎨ − ax , де a > 0 .
⎩ae , x > 0
9.6. Знайти ХФ гамма-розподілу, що має густину
⎧0, x≤0

pξ ( x ) = ⎨ λβ xβ−1 −λx , де λ, β > 0 .
⎪ Γ (β ) e , x>0

9.7. Знайти ХФ випадкової величини ξ , що розподілена за
законом N ( μ, σ 2 ) .
9.8. Знайти ХФ випадкової величини ξ , що розподілена за
законом N ( 0,1) .
9.9. Випадкова величина ξ розподілена за законом N ( 0,1) .
Знайти ХФ випадкової величини η , якщо η = ξ2 .

79
9.10. Знайти ХФ рівномірного розподілу на відрізках [ a, b ] та
[ − a, a ] .
1
9.11. Знайти ХФ закону Коші pξ ( x ) = .
π (1 + x 2 )
9.12. Випадкові величини ξ та η незалежні та розподілені за
законом Пуассона з параметрами λ1 та λ 2 . Знайти розподіл
випадкової величини χ = ξ + η .
9.13. Випадкові величини ξ та η незалежні й розподілені за
законом Γ ( β1 , λ ) та Γ ( β2 , λ ) , відповідно. Знайти розподіл ви-
падкової величини χ = ξ + η .
9.14. Нехай χ = ξ + η , де ξ ∈ N ( μ1 , σ12 ) , η ∈ N ( μ 2 , σ22 ) і неза-
лежні. Знайти розподіл χ .
9.15. Випадкова величина ξ має розподіл густини ймовірно-
сті (розподіл Пірсона)
⎧ (1 2 )n 2 n 2 −1 − x 2
⎪ x e , x≥0
pξ ( x ) = ⎨ Γ ( n 2 )

⎩ 0, x < 0.
Знайти математичне сподівання Mξ , дисперсію Dξ і ХФ
f ξ ( t ) випадкової величини ξ .
9.16. Знайти густину ймовірностей для χ 2n розподілу:
χ = ξ + … + ξ , ξi ∈ N ( 0,1) .
2
n
2
1
2
n
n
nk 1
9.17. Довести, що lim e − n ∑ → . Застосувати граничну те-
k =0 k ! 2
n →∞

орему до суми випадкових величин, розподілених за законом


Пуассона із параметром λ = 1 .
9.18. Дано послідовність незалежних випадкових величин
ξ1 ,… , ξ n ,… . Величина ξ n може набувати значень ± n λ з імо-
1 1
вірностями або 0 з імовірністю 1 − λ ( 0 < λ < 1) . Довес-
2nλ n
n
ти, що до суми ηn = ∑ ξ k застосовна теорема Ляпунова.
k =1

80
9.19. Імовірність того, що за деякий час буде зареєстрована
певна кількість ξ радіоактивних розпадів, підкоряється за-
кону Пуассона із параметром λ . Довести, що при λ → ∞ ро-
зподіл випадкової величини η = ( ξ − λ ) λ прямує до нор-
мального N ( 0,1) .
9.20. Нехай випадкова величина ξ визначає кількість моні-
торів, які можна купити на конкретну суму. При цьому ціна
монітора залежить від розміру його діагоналі: монітор з діа-
гоналлю на 2 дюйми більший коштує вдвічі дорожче. Така
випадкова величина підкоряється гамма-розподілу. Довести,
що розподіл випадкової величини η = ( λξ − β ) β прямує до
нормального N ( 0,1) , якщо β → ∞ .

81
Розділ ІII

МАТЕМАТИЧНА СТАТИСТИКА

10. Статистичні оцінки параметрів розподілу

Задача математичної статистики – отримати певні висновки з


експериментальних даних. При цьому вважається, що до експе-
риментів, про які йдеться, можна застосувати теоретико-
імовірнісні концепції. Перша задача математичної статистики –
запропонувати способи збору та групування статистичних даних,
що отримані в результаті спостережень або в результаті спеціаль-
но поставлених експериментів. Друга задача – розробити методи
аналізу статистичних даних залежно від мети досліджень.
Сучасна математична статистика – це наука про прийняття
рішень в умовах невизначеності.
Основні поняття математичної статистики:
Вибіркова сукупність (вибірка) – сукупність випадково відіб-
раних об'єктів.
Генеральна сукупність – сукупність об'єктів, з яких прово-
диться вибірка.
Об'єм сукупності (вибіркової або генеральної)– кількість
об'єктів цієї сукупності.
Повторна вибірка – вибірка, за якої відібраний об'єкт повер-
тається до генеральної сукупності, перед тим як відбирають
другий. Використовується у випадку, коли об'єм вибірки стано-
вить мізерну частину від об'єму генеральної сукупності.
Безповторна вибірка – вибірка, за якої відібраний об'єкт до
генеральної сукупності не повертається. На практиці застосову-
ється частіше, оскільки за такої вибірки правильно зберігаються
пропорції генеральної сукупності, тобто вибірка є репрезента-
тивною (представницькою).
Простий випадковий відбір – об'єкти відбирають та дослі-
джують по одному з усієї генеральної сукупності.
Типовий відбір – об'єкти відбирають не з усієї генеральної су-
купності, а з її "типової" частини. Наприклад, студенти розподі-
82
лені на академічні групи, і із кожної них обирають по одному
студенту, знання якого тестують.
Механічний відбір – генеральну сукупність механічно ділять на
стільки частин, скільки об'єктів має ввійти до вибірки, а потім з
кожної відбирають один об'єкт для досліджень. Наприклад, групи
студентів розподілені механічно по 10 студентів у кожній, і із ко-
жної десятки обирають по одному студенту для тестування.
Серійний відбір – об'єкти обирають із генеральної сукупності
не по одному, а серіями.
Статистичний розподіл вибірки – це перелік варіантів xi
варіаційного ряду та відповідних їм частот (сума всіх частот до-
рівнює об'єму вибірки n ) або відносних частот (сума всіх відно-
сних частот дорівнює одиниці). Статистичний розподіл вибірки
можна задавати у вигляді послідовних інтервалів та відповідних
їм частот. Зазначимо, що в теорії імовірностей під розподілом
розуміють відповідність між можливими значеннями випадкової
величини та їхніми імовірностями, а у математичній статистиці
– відповідність між варіантами (характеристиками), що спосте-
рігаються, та їхніми частотами або відносними частотами.
Нехай ξ – випадкова величина із функцією розподілу Fξ ( x)
(теоретична функція розподілу). Повторюючи n разів деякий
експеримент, з яким пов'язана величина ξ , отримаємо послідов-
ність n значень x1 , x2 ,…, xn . Множина значень x1 ,…, xn має назву
– вибірка об'єму n із розподілу Fξ ( x) , або вибіркова сукупність із
функцією розподілу Fξ ( x) . Розташувавши числа x1 , x2 ,…, xn за
зростанням, отримаємо варіаційний ряд xi1 , xi2 ,… , xin . Нехай
1
імовірність кожного члена варіаційного ряду дорівнює . Це дає
n
нам можливість означити дискретний розподіл імовірностей, що
називається розподілом вибірки. Функція розподілу вибірки (ем-
k
пірична функція розподілу) Fξ* ( x) = , де k – кількість членів
n
вибірки, менших від x . Тобто Fξ ( x) – це частота події ξ < x у
*

серії з n незалежних випробувань експерименту.


83
Різниця між теоретичною функцією розподілу Fξ ( x) та емпі-
ричною функцію розподілу Fξ* ( x) полягає в тому, що Fξ ( x) ви-
значає імовірність події ξ < x , а Fξ* ( x) визначає відносну частоту
тієї самої події. За теоремою Бернуллі, при нескінченному зрос-
танні n вони мало відрізняються одна від одної, або за більш си-
льною теоремою Гливенка, коли n → ∞ , справедлива рівність

P ⎡⎢ sup Fξ ( x) − Fξ* ( x) → 0 ⎤⎥ = 1 .
⎣ −∞< x <∞ ⎦
Тобто функція розподілу вибірки Fξ* ( x) є асимптотичною апрок-
симацією генеральної сукупності. Для оцінки теоретичної (інте-
гральної) функції розподілу можна використовувати емпіричну,
особливо тому, що Fξ* ( x) має всі властивості Fξ ( x) . За своїми
властивостями Fξ* ( x) – неспадна, 0 ≤ Fξ* ( x) ≤ 1 , причому, якщо
x1 – найменша варіанта, то Fξ* ( x) = 0 , при x < x1 , якщо xk –
найбільша варіанта, то Fξ* ( x) = 1 , при x > xk .
Полігон та гістограма. Полігоном частот (відносних час-
тот) називають ламану, відрізки якої поєднують точки
( x1 , k1 ) ,…, ( xn , kn ) . Нехай величина ξ має густину pξ ( x) . Увесь
інтервал, у якому містяться всі експериментальні xi , розіб'ємо
на частинні інтервали довжини l і на кожному з них побудуємо
k
прямокутник висотою , де n – об'єм вибірки, а ki – кількість
nl
вибіркових значень xi , що потрапили в даний інтервал. Тоді
східчаста ламана, що обмежує зверху побудовану фігуру, нази-
вається гістограмою вибірки й є статистичною апроксимацією
густини pξ ( x) генеральної сукупності.
Статистичні оцінки параметрів розподілу. Статистичною
оцінкою невідомого параметра теоретичного розподілу назива-
ють функцію від спостережуваних випадкових величин. Нехай
Mξ = m , Dξ = M ( ξ − m ) = σ 2 , Mξ k = vk
2
(3.1)

84
– моменти генеральної сукупності. Відповідні моменти розподі-
лу вибірки – вибіркове середнє (середнє арифметичне елементів
даної вибірки) x , вибіркова дисперсія δ 2 (числові характерис-
тики розсіювання значень випадкової вибірки, що являє собою
сукупність результатів незалежних спостережень), вибіркові по-
чаткові моменти vk (оцінка теоретичних моментів розподілу на
основі вибірки), визначаються як:
1 n 1 n 1 n
x = ∑ xi , δ2 = ∑ ( xi − x ) vk* = ∑ xik .
2
(3.2)
n i =1 n i =1 n i =1
Вибіркове середньоквадратичне відхилення (стандартне)
n
1
∑( x − x) .
2
δ= i
n i =1

Вибірковий коефіцієнт асиметрії визначається рівністю


μ* 1 n
As = 33 , де μ*3 = ∑ ( xi − x ) – вибірковий центральний мо-
3

δ n i =1
мент третього порядку.
μ* 1 n
Вибірковий коефіцієнт ексцесу Es = 44 , де μ*4 = ∑ ( xi − x ) .
4

δ n i =1
Точкові оцінки. Для того, щоб статистичні оцінки давали
прийнятні наближення оцінюваних параметрів, вони мають за-
довольняти певні вимоги. Провівши n незалежних повторів ек-
сперименту, ми отримаємо вектор ( x1 , x2 ,… , xn ) , компоненти
якого є значеннями випадкової величини ξ у даній серії неза-
лежних експериментів. Таким чином, їх можна розглядати як n
незалежних випадкових величин, що мають функцію розподілу
Fξ ( x ) . Тоді всі характеристики розподілу вибірки будуть функ-
цією від n випадкових величин x1 , x2 ,…, xn , тобто функція сама
є випадковою величиною. Її розподіл, який теоретично можна
знайти, якщо відомий розподіл генеральної сукупності, назива-
ють вибірковим розподілом цієї характеристики.
Точковою називають статистичну оцінку, яка визначається
одним числом (при вибірці малого об'єму точкова оцінка може
мати грубі помилки).
85
Числову характеристику вибірки називають слушною оцін-
кою, якщо при n → ∞ вона збігається за імовірністю до відпові-
дної характеристики генеральної сукупності.
Незміщеною називають точкову оцінку, математичне споді-
вання якої дорівнює значенню самої характеристики величини
ξ при довільному об'ємі вибірки.
Зміщеною називають точкову оцінку, математичне сподіван-
ня якої не дорівнює оцінюваному параметру, що є систематич-
ною помилкою, яка погіршує якість цієї оцінки.
Нехай із генеральної сукупності в результаті n незалежних
випробувань випадкової величини ξ вилучена повторна вибір-
ка. Існує необхідність за даними вибірки визначити невідому
генеральну дисперсію. Вибіркова дисперсія при цьому є зміще-
n −1
ною оцінкою, тобто M ( δ2 ) = Dξ . У такому разі вводять ви-
n
правлену дисперсію:
k

∑( x − x)
2
i
n 2 i =1
s2 = δ = .
n −1 n −1
Виправлена дисперсія є незміщеною оцінкою генеральної
дисперсії: M ( s 2 ) = σ 2 . Для оцінки середнього квадратичного
відхилення генеральної сукупності використовують виправлене
середнє квадратичне відхилення s . Слід зазначити, що s не є
незміщеною оцінкою, тобто Ms ≠ σ .
Ефективною називають статистичну оцінку, яка (при заданому
об'ємі вибірки n ) має найменшу можливу дисперсію серед усіх
слушних та незміщених оцінок характеристики. Оцінка буде асим-
птотично ефективною, якщо її дисперсія найменша при n → ∞ .
Таким чином, маємо важливі властивості оцінок:
1) незміщеність;
2) мінімальність відхилення. Зокрема, для незміщених оцінок
це мінімальність дисперсії;
3) слушність.
Інтервальні оцінки. Інтервальною називають оцінку, яка
визначається двома числами – кінцями інтервалу. Інтервальні
86
оцінки дозволяють визначити точність та надійність оцінок. Не-
хай за даними вибірки статистична оцінка характеристики Z * є
оцінкою невідомого параметра Z . Вважатимемо Z постійним
числом (воно може бути і випадковою величиною). Зрозуміло,
що чим точнішою є статистична оцінка, тим ближче її значення
до невідомого параметра. Інакше кажучи, для деякого ε > 0 має
виконуватись Z − Z * < ε , причому, чим меншою є величина ε ,
тим точнішою є статистична оцінка. Тобто додатне число ε ха-
рактеризує точність оцінки.
Надійністю, або довірчою імовірністю оцінки називають
імовірність γ = 1 − α , з якою справджується нерівність
{ }
Z − Z * < ε : P Z − Z * < ε = 1 − α . Зазвичай надійність задають
такою, що дорівнює 0,95; 0,99 та 0,999.
Рівнем довіри будемо називати величину (1 − α ) ⋅ 100 % . Рів-
ність { }
P Z − Z* < ε =1− α можна переформулювати:

P {−ε < Z − Z * < ε} = 1 − α . Це співвідношення треба розуміти


так: імовірність того, що інтервал ( Z * − ε, Z * + ε ) містить (пок-
риває) невідомий параметр Z , дорівнює (1 − α ) . Цей інтервал
називають довірчим інтервалом, або інтервальною оцінкою шу-
каного параметра. Довірчий інтервал має випадкові кінці (довір-
чі границі). У різних вибірках кінці довірчого інтервалу будуть
змінюватись, тобто вони самі є випадковими функціями від
x1 , x2 ,… , xn .
Істинне значення вимірюваної величини можна оцінювати за
середнім арифметичним результатів окремих вимірювань за до-
помогою довірчих інтервалів. Метод довірчих інтервалів розро-
бив американський статистик Ю. Нейман, керуючись ідеями
статистика Р. Фішера.
Оцінка математичного сподівання нормального розподілу
за відомої дисперсії. Нехай ξi ∼ N ( μ, σ 2 ) , i = 1, n , причому диспе-
рсія σ 2 відома, а математичне сподівання μ невідоме. Нехай {ξi }

87
незалежні в сукупності. Послідовність ξ1 , ξ2 ,… , ξn називають ви-
падковою вибіркою із нормального розподілу N ( μ, σ 2 ) об'ємом n .
1 n ⎛ σ2 ⎞
Оскільки випадкова величина ∑ i ⎜ μ, n ⎟ , то випад-
n i =1
ξ ∼ N
⎝ ⎠
⎛1 n ⎞ n
кова величина η = ⎜ ∑ ( ξi − μ ) ⎟ є нормально розподіленою
⎝ n i =1 ⎠ σ
за законом N ( 0,1) і як наслідок можна обчислити імовірність
2
x ε
1
P { η < ε} =

∫ 2 dx = Φ 0 ( ε ) − Φ 0 ( −ε ) = 2Φ ( ε ) = 1 − α . (3.3)
2π −ε
e

Задамо значення α ( 0 < α < 1) і за таблицями нормального роз-


поділу визначимо таке ε > 0 , яке задовольнить (3.3).
Таким чином, істинне значення математичного сподівання
μ з імовірністю 1− α лежить у випадковому інтервалі
⎛1 n εσ 1 n εσ ⎞
⎜n∑ i ξ − ,
n
∑ ξi + ⎟. (3.4)
⎝ i =1 n i =1 n⎠
Цей інтервал називають інтервальною оцінкою параметра μ ,
або довірчим інтервалом для параметра μ (з рівнем довіри
(1 − α ) ⋅100% ). При цьому випадкова величина може опинитися
зовні інтервалу ( −ε, ε ) лише з імовірністю α .
Оцінка дисперсії нормального розподілу за відомого ма-
тематичного сподівання. Нехай ξi ∼ N ( μ, σ2 ) , i = 1, n , причо-
му математичне сподівання μ відоме, а дисперсія σ2 невідома.
Тоді випадкові величини ( ξi − μ ) ∼ N ( 0, σ2 ) , i = 1, n , а також є
незалежними в сукупності. Як наслідок величина
n 2
∑(ξ − μ) ≡ ξ − m
2
i має розподіл σ 2 χ 2n з n ступенями свобо-
i =1

ди. Якщо задані величини ε1 > 0 та ε 2 > 0 , то за таблицями χ 2 -


розподілу можна обчислити ймовірність P {ε1 < χ 2n < ε 2 } = 1 − α .

88
Але при цьому
α
P {χ 2n ≤ ε1} = P {χ 2n ≥ ε 2 } =
.
2
Істинне значення дисперсії σ2 з імовірністю 1− α лежить у
випадковому інтервалі
⎛1 2 1 2⎞
⎜ ξ−m , ξ−m ⎟. (3.5)
⎝ ε2 ε1 ⎠
Інтервал (3.5) називають інтервальною оцінкою параметра σ2 ,
або довірчим інтервалом для параметра σ2 (з рівнем довіри
(1 − α ) ⋅ 100% ).
Оцінка математичного сподівання за невідомої дисперсії.
Величина τn −1 має розподіл Стьюдента (див підрозд. 7) з n − 1
ступенями свободи:
1 n
∑ ( ξi − μ )
n i =1
τn −1 = .
2 12
⎡ 1 n ⎛ 1 n
⎞ ⎤

n − 1
∑ ⎜ ξi − n ∑ ξi ⎟ ⎥
j =1 ⎝ ⎠ ⎥⎦
⎢⎣ i =1

За таблицями значень розподілу Стьюдента для заданого


α ∈ ( 0,1) можна визначити таке ε , щоб P { τn −1 < ε} = 1 − α .
Істинне значення математичного сподівання μ з імовірніс-
тю 1 − α лежить у випадковому інтервалі
⎛1 n ε ( I − Π1 ) ξ 1 n ε ( I − Π1 ) ξ ⎞
⎜ ∑ ξi − , ∑ ξi + ⎟. (3.6)
⎜ n i =1
⎝ n ( n − 1) n i =1 n ( n − 1) ⎟

2
⎛ 1 n n

Зазначимо, що ( I − Π1 ) ξ = ∑ ⎜ ξi − ∑ ξ k ⎟ .
i =1 ⎝ n k =1 ⎠
Оцінка дисперсії за невідомого математичного сподіван-
ня. Випадковий інтервал
⎛1 2 1 2⎞
⎜ ( I − Π1 ) ξ , ( I − Π1 ) ξ ⎟ = 1 − α (3.7)
⎝ ε2 ε1 ⎠
89
є інтервальною оцінкою дисперсії σ2 при невідомому матема-
тичному сподіванні μ (з рівнем довіри (1 − α ) ⋅ 100 % ). Величи-
ни ε1 > 0 та ε 2 > 0 визначаються за таблицями χ 2 -розподілу.
Оцінка імовірності (біноміального розподілу) за віднос-
ною частотою. Нехай відбуваються незалежні випробування з
невідомою імовірністю p появи події A в кожному випробу-
ванні. Потрібно оцінити імовірність p за відносною частотою,
тобто знати точкову та інтервальну оцінки.
Точкова оцінка. За точкову оцінку невідомої імовірності
m
приймаємо відносну частоту W = , де m – кількість появи
n
події A , n – кількість дослідів. Ця оцінка незміщена, тобто її
математичне сподівання дорівнює оцінюваній імовірності
MW = M [ m n ] = Mm n = np n = p . Дисперсія оцінки
DW = Dm / n = npq n 2 = pq n , звідки середнє квадратичне від-
хилення σ = pq n .
Інтервальна оцінка. Довірчий інтервал для оцінки імовірнос-
ті за відносною частотою для нормально розподіленої випадкової
величини ξ : P { W − p < ε} = 2Φ ( ε σ ) = 1 − α . Або з урахуванням
значення σ (точкова оцінка) 2Φ ε n ( )
pq = 2Φ ( t ) . Звідки

ε n t pq
t= , або ε = . Нехай при фактичній реалізації цієї серії
pq n
випробувань отримано частоту m n події A , яку приймемо за
статистичну оцінку невідомої імовірності p . Тоді для довірчого
рівня α можна знайти інтервал ( p1 , p2 ) , у якому з надійністю
(1 − α ) ⋅100% можна встановити шукане значення p . Тут
⎡ m⎛ m⎞ ⎤
⎢ 2 ⎜ 1− ⎟ 2 ⎥
n ⎢m t n⎝ n⎠ ⎛ t ⎞ ⎥
p1 = 2 + −t +⎜ ⎟ ,
t + n ⎢ n 2n n ⎝ 2n ⎠ ⎥
⎢ ⎥
⎣ ⎦

90
⎡ m⎛ m⎞ ⎤
⎢ 2 ⎜ 1− ⎟ 2 ⎥
n ⎢m t n⎝ n⎠ ⎛ t ⎞ ⎥
p2 = 2 + +t +⎜ ⎟ . (3.8)
t + n ⎢ n 2n n ⎝ 2n ⎠ ⎥
⎢ ⎥
⎣ ⎦
Параметр t визначається за таблицями Φ ( x ) , оскільки випад-
кова величина ξ розподілена нормально ( 2Φ ( x ) = 1 − α ) .
Ефективні оцінки. Методом моментів називають спосіб
отримання оцінок параметрів генеральної сукупності для випад-
ку, коли відоме функціональне визначення густини, до складу
якої входять декілька невідомих параметрів. Метод моментів
точкової оцінки невідомих параметрів заданого розподілу поля-
гає в прирівнюванні теоретичних моментів відповідним емпіри-
чним моментам того самого порядку.
За оцінки θ1* , θ2* ,… , θk * параметрів θ1 , θ2 ,… , θk густини
p ( x, θ1 , θ2 ,… , θk ) беруться розв'язки системи рівнянь, яка виникає
при прирівнюванні попарно вибіркових значень і виразів, отрима-
( )
них за допомогою густини p x, θ яких-небудь k моментів (на-
пр., середнього або математичного сподівання, дисперсії тощо).
Метод максимальної правдоподібності точкової оцінки не-
відомих параметрів заданого розподілу зводиться до пошуку
максимуму функції одного або декількох параметрів. Нехай
ξ = ( ξ1 , ξ2 ,…, ξn ) випадкова вибірка об'ємом n із розподілу з
( )
густиною p x, θ для кожного елементу вибірки, x ∈ 1
. Тут
вектор θ ⊂ k
є сукупністю параметрів розподілу p x, θ . ( )
Оскільки ξ1 , ξ 2 ,…, ξ n незалежні в сукупності, то густина спіль-
ного розподілу дорівнює ( x = ( x1 ,… , xn ) ) :

( ) ( ) ( )
L x , θ = p x1 , θ … p xn , θ . (3.9)

У загальному випадку в статистичних задачах L x , θ розг- ( )


лядається як функція двох аргументів x ∈ n
, θ⊂ k
, яку нази-
91
вають функцією правдоподібності. Якщо вибірку утворюють
дискретні випадкові величини, то функція правдоподібності для
дискретних величин визначається як добуток імовірностей
( ) ( )
L x , θ = P x1 , θ … P xn , θ .( )
Терема Рао–Крамера. Нехай θ = θ∈ 1 ; нехай статистика
() ()
t ξ є незміщеною оцінкою τ ( θ ) : Mt ξ = τ ( θ ) ; нехай функції
L ( x , θ ) та τ ( θ ) диференційовані за θ ; нехай множина всіх тих
x∈ n
, для яких L ( x , θ ) > 0 , не залежить від θ∈ 1
і нехай
d ∂L ( x , θ )
∫ L ( x , θ ) dx = ∫ dx ,
dθ ∂θ
та
d ∂L ( x , θ )
∫ t ( x ) L ( x , θ ) dx = ∫ t ( x ) dx .
dθ ∂θ
Тоді
⎡ d τ (θ) ⎤
2

⎢ ⎥
⎣ dθ ⎦
()
Dθ t ξ ≥ ,
( ) ⎤⎥
2
⎡ ∂ ln L ξ, θ
Mθ ⎢
⎢ ∂θ ⎥
⎣ ⎦
причому знак рівності стоїть тоді і тільки тоді, коли для логари-
фмічної функції правдоподібності рівність
( ) = a ( θ ) ⎡t
∂ ln L ξ, θ
∂θ ⎣
ξ − τ ( θ )⎤
⎦ () (3.10)

виконується з імовірністю одиниця для деякої функції a ( θ ) , θ∈ Θ .


()
Незміщена оцінка τ ( θ ) : Mt ξ = τ ( θ ) називається ефектив-
ною оцінкою, якщо
⎡ d τ ( θ) ⎤
2

⎢ ⎥
⎣ dθ ⎦ ,
()
Dθ t ξ =
( ) ⎤⎥
2
⎡ ∂ ln L ξ, θ
Mθ ⎢
⎢ ∂θ ⎥
⎣ ⎦

92
1 d τ ( θ)
або з урахуванням (3.10): Dθt ξ = () a ( θ) d θ
.

Для оцінки нижньої границі дисперсії незміщених оцінок па-


раметра θ використовують формулу
1 1
σ02 = або σ02 = , (3.11)
⎛ ∂ ln p(ξ) ⎞
2
⎛ ∂ ln p(ξ) ⎞ 2
nM ⎜ ⎟ nM ⎜ ⎟
⎝ ∂θ
2
⎝ ∂θ ⎠ ⎠
де p (ξ) – густина розподілу випадкової величини ξ .
( )
Нехай L x , θ , θ∈ Θ , x ∈ n
– функція правдоподібності.
Оцінкою максимальної правдоподібності називають статистику
ˆ ˆ
() ˆ
( ) ( )
θ = θ ξ , яка задовольняє умову L x , θ ≥ L x , θ для всіх θ∈ Θ

( )
ˆ
( )
або, що те саме, L ξ, θ = max L ξ, θ . Нехай Θ –підмножина k -
θ∈Θ

вимірного евклідового простору k , функція правдоподібності


( )
L x , θ диференційована за θ∈ Θ і досягає максимуму за θ у
внутрішній точці Θ для кожного x ∈ n . У цьому випадку оцін-
ка максимальної правдоподібності задовольняє рівняння

( )
∂ ln L ξ, θ
=0, i = 1, k . (3.12)
∂θi ˆ
θ=θ( x )

Рівняння є необхідними умовами максимуму, які називають рів-


няннями максимальної правдоподібності для θ .
Якщо x = ( x1 ,…, xn ) – спостережене значення вибірки
ξ = ( ξ1 , ξ 2 ,…, ξ n ) із дискретного розподілу з параметрами θ , то
( ) {
L x , θ = P ξ1 = x1 ,…, ξn = xn | θ } імовірність того, що x = ξ . За
ˆ
оцінку максимальної правдоподібності θ ( x ) приймається те
значення параметра θ , при якому імовірність отримати спосте-
режене значення x вибірки θ набуває максимального значення.

93
Це пояснює зміст принципу максимальної правдоподібності: за
значення невідомого параметра пропонують взяти те, при якому
ймовірність спостереженої реалізації вибірки набуває максима-
льного значення.
Властивості методу максимальної правдоподібності:
1) якщо для параметра θ із (3.12) існує ефективна оцінка θ* ,
то рівняння правдоподібності має єдиний розв'язок;
2) якщо для параметра θ із (3.12) існує достатня оцінка (див.
нижче) θ* , то кожний розв'язок рівняння правдоподібності є
функцією від θ* ;
3) асимптотичні властивості оцінок максимальної правдо-
подібності. За певних загальних умов рівняння правдоподібнос-
ті (3.12) має розв'язок, що збігається за імовірністю при n → ∞ з
істинним значенням параметра θ .
Достатні статистики. При побудові точкових оцінок зазви-
чай не використовують інформацію, що міститься у вибірці. На-
приклад, для оцінки математичного сподівання за вибіркою дос-
татньо знати лише значення суми ξ1 + ξ 2 + … + ξn , а не кожної
випадкової величини ξi окремо. Аналогічно, при відомому μ
n

∑(ξ − μ ) . Виявля-
2
для оцінки дисперсії достатньо знати суму i
i =1

ється, що в багатьох випадках для оцінювання параметра θ фу-


нкції розподілу F ( x, θ) за вибіркою ξ1 , ξ2 ,…, ξn можна вказати
() ( () ( ))
статистику T ξ = T1 ξ ,…, Tn ξ , m < n , яка в певному розу-
мінні містить усю інформацію про параметр θ .
()
Статистика T ξ називається достатньою для родини гус-

( )
тин (імовірностей) L x , θ , θ∈ Θ , x ∈ n
, якщо умовний роз-
поділ випадкового вектора ξ = ( ξ1 , ξ 2 ,…, ξ n ) за умови T ξ = t ()
не залежить від θ .
Перевірка статистичних гіпотез. Нехай відносно розподілу
генеральної сукупності існує яка-небудь гіпотеза. Перевірку то-
го, чи узгоджується ця гіпотеза з даними дослідження, що вхо-

94
дять до вибірки, здійснюють за допомогою критеріїв значущос-
ті та критеріїв узгодження.
Якщо необхідно перевірити, чи узгоджується множина вибір-
кових значень із висунутою гіпотезою H , потрібно розглянути
вибірку та обрахувати деяку відповідну міру D ≥ 0 відхилення
цього розподілу від гіпотетичного розподілу. За вибірковим ро-
зподілом величини D визначається критичне значення D0 , таке,
що якщо гіпотеза є правильною, то P { D > D0 } = ε , де ε – завча-
сно заданий рівень значущості. Якщо для конкретного випадку
бачимо, що відхилення D > D0 , то гіпотеза H відхиляється.
Якщо ж D ≤ D0 , вважають, що даний розподіл є сумісним з гі-
потезою і гіпотеза приймається. Беручи це за правило з імовір-
ністю ε , ми можемо в дійсності відхилити справедливу гіпотезу
H , оскільки ε можна обрати як завгодно малою.
Для визнання критерію гіпотези H задовільним необхідні
такі вимоги:
ƒ при застосованому критерії ймовірність відхилити гіпоте-
зу H , якщо вона справді правильна, була малою, а ймовірність
відхилити H , коли вона помилкова, була великою;
ƒ із двох критеріїв, які відповідають одній і тій самій імовір-
ності ε відхилити в дійсності правильну гіпотезу H , слід від-
дати перевагу тій, яка дає більшу ймовірність відхилити H , ко-
ли ця гіпотеза помилкова.
Нехай необхідно перевірити статистичну гіпотезу H про те,
що деяка вибірка x1 , x2 ,…, xn витягнута з генеральної сукупності
ξ із функцією розподілу F ( x ) , яка точно відома. Із цією метою
застосовується критерій χ 2 . При цьому всю множину значень ξ
розбивають на m частин, що не перетинаються, S1 , S2 ,…, Sm .
⎛ m

Нехай p1 , p2 ,…, pm ⎜ pi > 0, ∑ pi = 1⎟ – імовірності того, що ξ
⎝ i =1 ⎠
визначаються у відповідній частині (ці ймовірності обчислю-
ються через F ( x ) ). Нехай k1 , k2 ,…, km – кількість вибіркових
⎛ m

значень, що потрапили в S1 , S2 ,…, S m відповідно ⎜

∑k
i =1
i = n ⎟ . На

95
практиці, при розбитті значень ξ на частини бажано дотримува-
тись умови npi ≥ 10 , i = 1, m . За міру відхилення емпіричного
розподілу Fn* ( x ) від гіпотетичного F ( x ) приймають величину
( k − npi ) .
2
m
χ 2
=∑ i (3.13)
i =1 npi
Якщо ki розглядати як випадкову величину, то χ 2 буде ви-
падковою величиною, яка при n → ∞ асимптотично розподіле-
на за законом χ 2 з m − 1 ступенями свободи. Задамо рівень зна-
чущості ε настільки малим, щоб подію з такою ймовірністю
можна було вважати практично неможливою. Знайдемо за таб-
лицями розподілу χ 2 із m − 1 ступенем свободи таке значення
χ ε2 , що P {χ 2 > χε2 } = ε . Кількість ступенів свободи дорівнює кі-
лькості m мінус кількість лінійних зв'язків, накладених на вибі-
рку. Один зв'язок існує в силу того, що будь-яка частота може
бути обчислена за сукупністю частот у m − 1 розрядах, що за-
лишилися. Окрім того, якщо параметри розподілу заздалегідь
невідомі, то існує ще одне обмеження, зумовлене підгонкою ро-
зподілу до вибірки. Якщо за вибіркою визначають r параметрів
розподілу, то кількість ступенів свободи дорівнюватиме
m − r − 1 . Далі за вибіркою, що маємо, обчислимо (3.13). Якщо
виявиться, що χ 2 > χ ε2 , то таке відхилення є значущим і ми з
ε ⋅ 100% рівнем значущості відхиляємо гіпотезу H як таку, що
не узгоджується з експериментальними даними. При χ 2 ≤ χ ε2 –
гіпотеза вважається правильною. Для перевірки такої ж гіпоте-
зи, але коли розподіл ξ або зовсім, або частково невідомий, за-
стосовують критерій Колмогорова (2.34). Тут за таблицями фун-
кції K ( x ) знаходимо значення xε так, щоб
P { nDn ≥ xε ≤ ε , } (3.14)

причому Dn = sup Fn* ( x ) − F ( x ) . Обчислюючи за вилученою


−∞< x <∞

вибіркою доданок nDn , порівнюємо його з xε . Якщо nDn ≥ xε


– гіпотезу відхиляємо, інакше – приймаємо.

96
Елементи теорії кореляції. Статистичною називають за-
лежність, при якій зміна однієї з випадкових величин веде до
зміни розподілу іншої. У частинному випадку статистична за-
лежність однієї з величин змінює середнє значення іншої. У та-
кому випадку статистичну залежність називають кореляційною.
Нехай під час експерименту спостерігають дві випадкові ве-
личини ξ та η . Тоді n незалежних проведень цього експериме-
нту дадуть n пар спостережуваних значень ( x1 , y1 ) ,…, ( xn , yn ) ,
де yi – вибіркове значення випадкової величини η , а xi може
бути як випадковою, так і невипадковою змінною.
Вибірковий кореляційний момент:
1 n
cov ( x, y ) = ∑ ( xi − x )( yi − y ) . (3.15)
n i =1
Вибірковий коефіцієнт кореляції:
cov ( x, y )
r ( x, y ) = , (3.16)
δxδ y
де δ x та δ y – статистичні оцінки стандартних відхилень вели-
чин ξ та η .
Якщо для величин ξ та η справедливо r ( x, y ) = 0 , або
r ( x, y ) → 0 , то ці величини не корелюють. Якщо величини ξ та
η нормально розподілені та r ( x, y ) = 0 , або r ( x, y ) → 0 , то ξ та
η незалежні. Якщо r ( x, y ) = ±1 , то x і y пов'язані лінійною
функціональною залежністю. Тобто коефіцієнт кореляції вимі-
рює потужність лінійного зв'язку між x та y .
Вибірковий коефіцієнт регресії ξ за η :
δy cov ( x, y )
L = r ( x, y ) = . (3.17)
δx δ 2x
Коефіцієнт регресії показує, на скільки одиниць змінюється зна-
чення, прийняте однією (залежною) випадковою величиною η ,
якщо значення другої (незалежної) величини ξ зміниться на одини-
цю. Геометрично це є кутовим коефіцієнтом нахилу прямої лінії η .

97
Вибіркове рівняння лінійної регресії:
( y − y) = L ⋅(x − x ). (3.18)

Відхилення вибіркового коефіцієнта кореляції від істинного


можна у випадку вибірки з нормальної генеральної сукупності
( ξ, η) , оцінити за підрахунком середнього квадратичного відхи-
1 − r ( x, y )
лення r ( x, y ) за формулою sr ≅ .
n
Нехай χ = η − Λ − ξ , де Λ – істинний коефіцієнт регресії η
за ξ . Статистичною оцінкою χ буде z = y − Lx . Про ступінь
відхилення залежності, що пов'язує η і ξ , від лінійної судять за
середньо-квадратичним відхиленням χ , тобто за δχ . Статисти-
чною оцінкою σχ2 вважають δ2z = (1 − r 2 ( x, y ) ) δ 2y .

Задачі до підрозділу 10
10.1. При виконанні лабораторної роботи 10 студентів неза-
лежно один від одного проводили вимірювання. Кожен зро-
бив по 100 вимірювань. Викладачу відомо, що на кожну сот-
ню вимірювань у середньому можливі 2 помилкових вимі-
рювання. Відхилення кількості хибних вимірювань від сере-
днього наведено в таблиці:
№ студента 1 2 3 4 5 6 7 8 9 10
Відхилення
–1 0 1 1 –1 1 0 –2 2 1
від середнього
Побудувати варіаційний ряд, функцію розподілу та гістогра-
му вибірки. Знайти вибіркове середнє відхилення хибних ви-
мірювань у кожного студента від встановлених раніше ви-
кладачем та його вибіркову дисперсію.
10.2. За вибіркою об'єму n = 41 знайдено зміщену оцінку
D = 3 генеральної дисперсії. Знайти незміщену оцінку дис-
персії генеральної сукупності.
10.3. У результаті п'яти вимірювань довжини стрижня од-
ним приладом (без систематичних похибок) отримано такі
результати: 92 мм, 94 мм, 103 мм, 105 мм, 106 мм. Знайти

98
а) вибіркову середню довжину стрижня; б) вибіркову та ви-
правлену дисперсії похибок приладу.
10.4. З великої партії електроламп було відібрано у випад-
ковому порядку 400 шт. для визначення середнього терміну
горіння. Вибірковий середній термін горіння дорівнює
1220 год. Знайти з імовірністю 0,9973 середній термін горін-
ня лампи в усій партії, якщо середнє квадратичне відхилення
терміну горіння дорівнює 35 год.
10.5. Методом моментів та методом найбільшої правдоподі-
бності по вибірці з об'єму n : x1 , x2 ,… , xn знайти точкову оці-
нку невідомого параметра λ показникового розподілу, гус-
тина якого pξ ( x ) = λe −λx ( x ≥ 0 ) .
10.6. Знайти методом моментів по вибірці x1 , x2 ,… , xn точ-
кові оцінки невідомих параметрів α та β гамма-розподілу,
e− x /β
густина якого pξ ( x ) = x α ( x ≥ 0, α > −1, β > 0 ) .
Γ ( α + 1) βα +1
10.7. Випадкова величина ξ (похибка вимірювання) рівно-
мірно розподілена pξ ( x ) = 1 ( b − a ) , ( b > a ) . Знайти методом
моментів по вибірці x1 , x2 ,… , xn об'ємом n точкові оцінки
невідомих параметрів a та b розподілу, якщо емпіричний
розподіл середньої похибки n = 200 задано таблицею:
ξ 3 5 7 9 11 13 15 17 19 21
wi 21 16 15 26 22 14 21 22 18 25
10.8. Проведено дві серії з n1 та n2 незалежних випробувань,
причому в першій серії подія A відбулась m1 разів, у другій
m2 разів. Знайти оцінку максимальної правдоподібності для
невідомої ймовірності p події A в кожному випробуванні
(вважати ймовірність постійною й однаковою в обох серіях).
10.9. Методом моментів і методом максимальної правдопо-
дібності знайти оцінку параметра λ розподілу Пуассона по
вибірці з об'єму n : x1 , x2 ,… , xn та довести незміщеність та
ефективність цієї оцінки.
1
10.10. Із розподілу Коші з густиною pξ ( x) =
π ⎡⎣1 + ( x − μ) 2 ⎤⎦
отримано вибірку. Завдання: а) чи буде вибіркове середнє x

99
слушною оцінкою медіани-моди m цього розподілу; б) нехай
є будь-яка слушна та незміщена оцінка медіани m (напр.,
вибіркова медіана). Указати нижню границю об'єму вибірки
n для того, щоб дисперсія цієї оцінки не перевищувала 0,01.
10.11. Із генеральної сукупності, що розподілена за біноміа-
льним законом ξ = 0,1,… , m P {ξ = k } = Cmk p k q m − k , вилучена
вибірка x1 , x2 ,… , xn об'єму n . Знайти методом моментів та
методом максимальної правдоподібності статистичну оцінку
невідомого параметра p і показати, що це буде незміщена та
ефективна оцінка.
10.12. Існує вибірка x1 , x2 ,… , xn об'ємом n з генеральної су-
купності, розподіленої за законом Пірсона з невідомим пара-
α r x r −1e −αx
метром α , тобто з густиною pξ ( x) = , ( x > 0 ) . За-
Γ(r )
вдання: а) знайти оцінку параметра α за допомогою методу
максимальної правдоподібності; б) показати, що ця оцінка
має додатне зміщення; в) усунути зміщення та показати, що
отримана таким чином оцінка не буде ефективною, а буде
асимптотично ефективною.
10.13. При нейтронному бомбардуванні ядер урану почина-
ється розщеплення ядер, при якому ядро урану розпадається
на дві різні частини; у камері Вільсона це явище проявляєть-
ся у вигляді двох траєкторій з початком в одній точці. Ці тра-
єкторії незабаром розділяються на декілька гілок, що утво-
рюються за рахунок зіткнення частинок з молекулами газу в
камері. Позначимо через ξ кількість гілок в одній траєкторії.
Ця випадкова величина регулюється "подвійним" розподілом
Пуассона, тобто
1 λk 1 λk
P {ξ = k} = ⋅ 1 e −λ + ⋅ 2 e −λ ,
1 2

2 k! 2 k!
k = 1, 2,… ; λ 2 > λ1 > 0 – постійні.
Спостереження 327 частинок ( nk – кількість траєкторій, що
складаються з k гілок) наведено в таблиці:
k 0 1 2 3 4 5 6 7 8 9 10
nk 28 47 81 67 53 24 13 8 3 2 1

100
За даними таблиці за допомогою методу моментів знайти
статистичні оцінки λ1 та λ 2 .
10.14. Існує вибірка x1 , x2 ,… , xn об'ємом n з генеральної су-
купності, розподіленої нормально. Знайти довірчий інтервал
для оцінки з надійністю 0,95 невідомого математичного спо-
дівання μ , якщо генеральне середньоквадратичне відхилення
σ = 5 , вибіркова середня x = 14 та об'єм вибірки n = 25 .
10.15. Одним і тим самим приладом із середньоквадратичним
відхиленням випадкових помилок вимірювань σ = 40 м про-
ведено п'ять замірів відстані, яку необхідно подолати студен-
ту від свого будинку до найближчої станції метро. Знайти
довірчий інтервал для оцінки істинної відстані a з надійніс-
тю 1 − α = 0,95 , знаючи, що середнє арифметичне результатів
вимірювань x = 2 км. Вважати, що результати вимірювань
розподілені нормально.
10.16. Знайти мінімальний об'єм вибірки, при якому з надій-
ністю 0,975 точність оцінки математичного сподівання μ ге-
неральної сукупності за вибірковою середньою 0,3 , якщо ві-
доме середньоквадратичне відхилення σ = 1, 2 нормально ро-
зподіленої генеральної сукупності.
10.17. За даними дев'яти незалежних вимірювань фізичної
величини з однаковою точністю знайдено середнє арифмети-
чне результатів вимірювань x = 30,1 і виправлене середньок-
вадратичне відхилення s = 6 . Оцінити істинне значення ви-
мірюваної величини з надійністю 0,99. Вважати, що резуль-
тати вимірювань розподілені нормально.
10.18. За даними вибірки n = 16 з генеральної сукупності знай-
дено виправлене середньоквадратичне відхилення s = 1 норма-
льно розподіленої кількісної ознаки. Знайти довірчий інтервал,
що покриває генеральне середньоквадратичне відхилення.
10.19. Одним приладом (без систематичної похибки) прове-
дено 10 вимірювань деякої фізичної величини, що розподіле-
на нормально. При цьому середнє виправлене квадратичне
відхилення s випадкових похибок вимірювань виявилось рі-
вним 0,8. Знайти точність експериментальної установки з на-
дійністю 1 − α = 0,95 .
10.20. Проводять незалежні вимірювання з однаковою, але не-
відомою імовірністю появи події A в кожному досліді. Знайти
101
довірчий інтервал для оцінки імовірності p з надійністю 0,99,
якщо в 100 дослідженнях подія A відбулась 60 разів.
10.21. Гральний банкомат запрограмований на виграш гравця
в одному випадку із 100. В один із днів виявилось, що в 400
випробуваннях виграш з'явився 5 разів. Знайти довірчий ін-
тервал, що покриває невідому ймовірність появи виграшу з
надійністю 0,999.
10.22. При 4040 підкиданнях монети Бюффон отримав
m = 2048 випадінь герба та n − m = 1992 випадінь решітки. Чи
можна стверджувати, що монета правильна та чи існує ймовір-
ність p = 1 2 випадінь герба? (Використати критерій Пірсона).
10.23. Резерфорд та Гейгер упродовж 2608 періодів по 7,5 с
підраховували кількість α -частинок, що випромінюється де-
яким об'єктом. Кількість νi періодів, упродовж кожного з
яких спостерігалося ni α -частинок, наведено в таблиці:
ni 0 1 2 3 4 5 6 7 8 9 10 11 12
ν i 57 203 383 525 532 408 273 139 45 27 10 4 2
Завдання: а) знайти вибіркове середнє x ; б) перевірити за до-
помогою критерію χ 2 гіпотезу про те, що кількість α -
частинок, що випромінюються, підкоряється закону Пуассона з
параметром λ , за статистичну оцінку якого прийнято x . Дані
останніх трьох стовпчиків згрупувати в один (з 16 спостережу-
ваними α -частинками) та задатися 5 % рівнем значущості.
10.24. Н. Хольмберг спостерігав розподіл червоних кров'яних
тілець за 169 відділеннями гемацитовимірювача; кількість νi
відділень, що налічують по ni червоних кров'яних тілець,
наведено в таблиці:
ni 4 5 6 7 8 9 10 11 12
νi 1 3 5 8 13 14 15 15 21

ni 13 14 15 16 17 18 19 20 21
νi 18 17 16 9 6 3 2 2 1
Знайти середнє значення червоних кров'яних тілець в одному
відділенні та, прийнявши його за параметр λ розподілу Пуа-
ссона, перевірити за допомогою критерію χ 2 з 5 % рівнем

102
значущості гіпотезу про те, що вибірка узгоджується з роз-
поділом Пуассона. (Об'єднати перші 4 відділення в одну гру-
пу та останні 5 також в одну групу).
10.25. Середню температуру березня по Києву ( x ) та Одесі
( y ) вимірювали протягом 10 років (від 2002 до 2011 р.). Дані
задано таблицею з інтервалом у два роки:
рік 2003 2005 2007 2009 2011
x –3 2 –2 –6 9
y 0 4 2 –6 8
Знайти вибірковий коефіцієнт кореляції середніх березневих
температур у Києві та Одесі. Написати вибіркове рівняння
лінійної регресії y за x та оцінити характер зв'язку y та x .

103
Відповіді
та розв'язання задач

Відповіді до підрозділу 1
1.2. а) хоча б один раз було влучення; б) усі три постріли
влучили в ціль; в) мішень уражено лише одним із пострілів.
1.3. а) успішно склав іспит лише один з трьох студентів;
б) не склав іспит лише один із студентів.
1.4. A = {1,3,5,15} , B = {1, 2,3,5, 7} , C = {2, 4, 6,8} .
а) {1, 2,3,5, 7,15} ; б) {1, 2,3, 4,5, 6,8,15} ; в) {2} ;
г) {1, 2,3,5} ; д) {∅} .
1.5. а) ABC – "обидва мають надмірну вагу" і чоловік важ-
чий за дружину; A \ ( AB ) – "чоловік має надмірну вагу", але
він не важчий за дружину; ABC – "обидва мають надмірну ва-
гу" але чоловік не важчий за дружину; ABC – "жоден не має
надмірну вагу", але чоловік важчий за дружину; б) чоловік має
надмірну вагу, а дружина не важка AC ⊂ B чоловік важчий за
дружину; чоловік не має надмірну вагу, а дружина має надмі-
рну вагу AC ⊂ B , чоловік не важчий за дружину.
1.6. а) A ⊂ BC , BC відбувається щоразу, коли відбувається
A ; б) B ⊂ A та C ⊂ A , тобто щоразу, коли відбуваються B
або C , відбувається подія A .
1.7. а) ( A ∪ B )( B ∪ C ) = AB ∪ AC ∪ BB ∪ BC =
= ( ( A ∪ B ∪ C ) B ) ∪ ( AC ) = B ∪ ( AC ) ,
де A ∪ B ∪ C = Ω – достовірна подія;
б) ( A ∪ B ) ( A ∪ B ) = AA ∪ AB ∪ BA ∪ BB = A ∪ A ( B ∪ B ) ∪ ∅ =
= A ∪ A = A , де B ∪ B = Ω ;
в) ( A ∪ B ) ( A ∪ B ) ( A ∪ B ) = ( A ∪ AB ∪ BA ∪ ∅ ) ( A ∪ B ) = .
= A ( A ∪ B ) = AB
1.8. а) AB – подія полягає в тому, що не відбудеться ні A , ні
B . Її заперечення AB є подією, що полягає в тому, що від-

104
будеться хоча б одна з подій A , B , AB = A ∪ B ; б) A ∪ B –
подія полягає в тому, що не відбудеться або A , або B (= ві-
дбудеться або B , або A ). Її заперечення A ∪ B – відбува-
ються обидві разом A ∪ B = AB .
1.9. а) A ∩ B = A ; б) A ∪ B = B ; в) A ∩ B ∩ C = A ∩ C ;
г) A ∪ B ∪ C = B ∪ C .
( A ∪ B ) ( A ∪ B ) ∪ ( A ∪ B )( A ∪ B ) =
1.10. а)
= A ∪ AB ∪ BA ∪ ∅ ∪ A ∪ AB ∪ BA ∪ ∅ =
= A ∪ A( B ∪ B) ∪ A ∪ A ( B ∪ B) = A ∪ A = Ω ;

( A ∪ B)( A ∪ B ) ∪ ( A ∪ B )( A ∪ B) =
б)
= ∅ ∪ AB ∪ BA ∪ ∅ ∪ ∅ ∪ AB ∪ AB ∪ ∅ =
AB ∪ BA ∪ AB ∪ AB = A ( B ∪ B ) ∪ A ( B ∪ B ) = A ∪ A = Ω .

( A ∪ B ) ( A ∪ B ) ( A ∪ B )( A ∪ B ) =
1.11.
= ( A ∪ AB ∪ AB ∪ ∅ ) ( A ∪ AB ∪ BA ∪ ∅ ) =
= ( A ∪ AB ∪ AB ∪ ∅ ) ( A ∪ AB ∪ BA ∪ ∅ ) = A ∩ A = ∅ .
1.12. Перший спосіб. Знають хоча б одну мову
A ∪ B = A + B − A ∩ B = 92 .
Тоді не знають жодної 100 − 92 = 8 . Другий спосіб. Не знають
мови A∪ B = A∩ B = A + B − A∪ B = A + B − A∩ B = 8 .
1.13. A ∩ B = A + B − A ∪ B = 30 + 27 − (40 − 5) = 22 .
1.14. а) A ∪ B ∪ C = A + B + C − AB − AC − BC + ABC ⇒ ABC = 5 ;
б) AB + AC + BC − 3 ABC = 9 .
1.15. AB = A + B − A ∪ B = 10 , AC = 14 , BC = 13 :
а) A ∪ B ∪ C = 94 ; б) A ∪ B ∪ C − AB − AC − BC + 2 ABC = 65 .
1.16. AB = A + B − A ∪ B = 14 , AC = 15 , BC = 13 , A ∪ B ∪ C = 37 ;
а) A = A ∪ B ∪ C \ ( B ∪ C ) = 37 − 31 = 6 , B − 5 , C − 4 ; б) 3.
1.17. A ∪ B ∪ C = A + B + C − 2 ABC , ABC = 4 .
1.18. A ∪ B = A ∪ C = B ∪ C ≡ A ∪ B ∪ C ;
а) 2 A ∪ B ∪ C = A + B + C , A ∪ B ∪ C = 24 ;
б) AB = A + B − A ∪ B = 6 , AC = 14 , BC = 4 .

105
1.19. A {авто синього кольору}; B {авто марки Хонда};
C {авто чорного кольору}; D {авто марки Рено}; E {авто
марки Вольво}. Оскільки марка авто або колір кожним зі сві-
дків були названі правильно, то справедливі твердження Бо-
риса A ∪ B , Дмитра C ∪ D та Світлани A ∪ E . Відповідно,
має бути правильним і добуток цих подій
F = ( A ∪ B )( C ∪ D ) ( A ∪ E ) =
= ACA ∪ ADA ∪ BCA ∪ BDA ∪ ACE ∪ ADE ∪ BCE ∪ BDE .
Правильне твердження одне: BCA – машина марки Хонда
чорного кольору.
1.20. A {Франсуа п'яний}; B {Етьєн вбивця}; C {Франсуа
бреше}; D {вбивство відбулось опівночі}. Торранс:
A ⇒ B ∪ C ; Жуссьє B ∪ AD ; Люка D ⇒ B ∪ C . Окрім того
Мегре знає, що AC – правильно, відповідно, AC – не прави-
льно. Якщо X ⊃ B ∪ C , тобто подія B ∪ C є наслідком того,
що відбувається подія X , відповідно, B ∪ C ⊄ X , тобто
X ( B ∪ C ) ≡ ∅ . Для висловлювань X ⇒ B ∪ C ≡ X ∪ B ∪ C .
Добуток цих висловлень буде відповіддю на запитання:
P = ( A ∪ B ∪ C )( B ∪ AD ) ( D ∪ B ∪ C ) ,

( A ∪ B ∪ C ) ( D ∪ B ∪ C ) = AD ∪ B ∪ C = AD ∪ B ∪ C ,
( AD ∪ B ∪ C )( B ∪ AD ) ≡ ABD ∪ BB = B ( AD ∪ B ) = B
– Етьєн вбивця.
1.21. Як біолога можна взяти E ∪ G , гідролога B ∪ F , синоп-
тика F ∪ G , радиста C ∪ D , механіка C ∪ H , лікаря A ∪ D .
Окрім того, обов'язкові висловлювання FB, DHC і справед-
ливі рівності CG = AB = ∅ . Результатом їх перетину буде
BCDEFH ∪ ADEFGH . Лише перша комбінація задовольняє
обов'язкові умови. В експедицію треба брати E – біологом;
B – гідрологом; F – синоптиком; C – радистом; H – меха-
ніком; D – лікарем.

106
Відповіді до підрозділу 2
2.1. а) 0,2; б) 0,6; в) 0,2.
2.2. Кубиків, що мають три пофарбовані грані – 8, дві грані
– 96, одну – 384: а) 0,384; б) 0, 096; в) 0,008.
2.3. а) 1/3; б) 5/9; в) 2/3.
2.4. На білих коней двоє. Нехай один займає якесь місце.
Тоді другий може займати одне з 7 місць. Сприятливих варі-
антів 2 (позаду чи попереду першого); P = 2 7 .
2.5. P = 2 (n − 1) .
2.6. а) виходить P6 = 6! = 720 "слів" (перестановки без по-
вторень); б) a1 – "б" = 3, a2 – "а" = 2, a3 – "о" = 1, тобто
6!
P (3, 2,1) = = 60 (перестановки з повторенням).
3!2!1!
2.7. Кількість можливих розміщень з повтореннями n = A66 ,
кількість можливих розміщень без повторень m = A66 ;
а) p = A66 A66 = 1 66 ≈ 2 ⋅10−5 ; б) число 7 можна отримати, коли
на п'яти кубиках випаде "1", а на одному "2". Набір лише один,
але "2" може випасти на будь-якому із шести кубиків. Викори-
ставши (1.3), отримаємо m = 6 . Тоді p = 1 65 ≈ 1, 28 ⋅10−4 .
2.8. а) A102 = 10! 8! = 90 ; б) A102 = 102 = 100 .
2.9. а) усіх номерів n = A105 = 105 (розміщення з повторення-
ми). Тут допущена можливість номерів 00-000 та 99-999. Кі-
лькість номерів з різними цифрами m = A105 , тобто
10! 10!
p = A105 A105 = = 0,3024 ; б) p = A107 A107 = = 0, 06048 .
5!⋅10 5
3!⋅107
10!
2.10. n = A104 = 104 ; а) m = A104 , p = A104 A104 = = 0,504 ;
6!⋅104
б) число з двох однакових цифр із 10 можливих та двох різних
можна представити добутком A92 ⋅10 . Враховуючи перестанов-
4!
ки з повтореннями (1.3) матимемо m = A92 ⋅10 ⋅ . Звідси
2!1!1!
p = 432 A104 ≈ 0, 432 ; в) дві пари однакових, які ми розглядати-
мемо будуть змінюватись в межах від 00 до 99. Їх кількість 100.

107
Виключаємо парні 90. Якщо розглядати симетричні – їх також
90, розташованих парами по дві однакові цифри – 90. Звідси
4!
p = 3 ⋅ 90 A104 ≈ 0, 027 ; г) m = A91 ⋅10 ⋅ ; p ≈ 0, 036 ;
3!1!
10
д) p = 10 A104 = 4 = 0, 001 . Усі наведені варіанти складають по-
10
вну групу подій, сума всіх імовірностей дорівнює одиниці.
2.11. Кількість усіх можливих наборів по три карти в колоді
n = C523 . Кількість усіх "номерів" карт – по чотири.
а) m = C41C41C41 = 64 , p = 64 C523 = 0, 0029 ;
б) p = C42 C41 C523 = 0, 001 в) p = C43 C523 = 0, 0007 .
2.12. Для того, щоб отримати 21 очко треба, щоб з колоди
була витягнута одна із таких комбінацій: Т,В,8; Т,Д,7; Т,К,6;
10,В,9; 10,Д,8; 10,К,7; 9,4,8; 8,6,7; 9,Д,9; 9,6,6; 7,7,7. При
цьому перші вісім комбінацій можна описати таким додан-
(C ) 1 3
m1 = ( C41 ) ,
3
ком 4 , тобто Комбінації 9,Д,9; 9,6,6,
m2 = C C . Останню комбінацію можна представити, як
2
4
1
4

m3 = C . Загальна кількість можливих сполучень по три кар-


3
4

ти n = C363 . Таким чином,

8m + 2m2 + m3 8 ( C4 ) + 2C4 C4 + C4
1 3
2 1 3

P= 1 = ≈ 0, 079 .
n C363
C41C41
2.13. Сприятлива комбінація Т,10; m = C41C41 ; P = ≈ 0, 0254 .
C362
2.14. Кількість усіх можливих комбінацій по півколоди
n = C5226 . Із 26 червоних карт існує C26
13
різних комбінацій по
13 карт. Така сама кількість комбінацій можлива і для чор-
них карт. Тому m = ( C26 ) ; p = ( C2613 ) C5226 ≅ 0, 22 .
13 2 2

2.15. Кількість усіх можливих комбінацій по 4 карти n = C324 .


Кількість усіх можливих комбінацій по 4 карти, але не тузи
4095
m = C284 ; p4 = 1 − C284 C324 = 1 − ≅ 0, 43 ; p3 ≅ 0, 26 , p5 ≅ 0, 6 .
7192
2.16. Кількість усіх можливих комбінацій по 10 карти
n = C32
10
. Разом із 8 картами однієї масті можна обрати C242 рі-

108
зних наборів карт інших мастей: m = ∑ C88C242 = 4C242 , де i –
i

перелічує всі 4 масті; p = 4C242 C32


10
= 1 58435 .
2.17. Вибрати 5 фруктів можна лише наборами 1,1,3 та 1,2,2.
Ці комбінації можна описати доданками C51C51C53 та C51C52 C52 .
C51C51C53 C51C52 C52
Звідси p = + .
C155 C155
2.18. Розподіляючи групу з 12 чоловік першу трійку можна
обрати C123 способами, другу C93 і т. д. Таким чином,
12!
n = C123 C93C63C33 = . Згрупувати по два хлопці з 8 можна
(3!) 4
8!
C82 C62 C42 C22 =
. У кожну групу хлопців потрібно обрати з 4
24
8!4!(3!) 4
дівчат. Отже, p = ≈ 0,164 .
2412!
2.19. Загальна кількість можливих переміщень з повторен-
нями n = A62 = 62 = 36 : а) сприятливі події m = 6 ; p = 1 6 ;
б) p = 1 − 1 6 = 5 6 .
2.20. n = A63 = 63 ; а) число 11 можна набрати такими комбіна-
ціями з трьох цифр: 6,1,4; 6,2,3; 5,2,4; 5,5,1; 5,3,3; 4,4,3. Оскі-
льки перші три комбінації складаються із трьох різних цифр,
то кількість перестановок дорівнюватиме (1.2) 3!, для остан-
ніх трьох наборів (1.3): 3. Таким чином, кількість можливих
сприятливих наборів: m = 3 ⋅ 3!+ 3 ⋅ 3 = 27 . Звідси матимемо
27 1 25
p11 = 3 = . Аналогічно можна обрахувати і p12 : p12 = ;
6 8 216
1 + 3 + 6 + 10 + 15 + 21 + 25 + 27 1
б) p>10 = = .
63 2
2.21. Можливі набори ГГ, ГЦ, ЦГ, ЦЦ, де Г – позначає герб,
Ц – цифру. Загальна кількість комбінацій n = 4 , у трьох із
цих комбінацій з'являється герб: m = 3 ; p = 0, 75 .
2.22. Із двох наборів чисел можна утворити такі комбінації
ПП, ПН, НП, НН – n = 4 ; Набори, що дають парні комбінації
ПП, ПН, НП – m = 3 ; p = 0, 75 .

109
2.23. Довільно обираються 6 чисел із 49. Рівноймовірними
елементарними подіями будуть набори з 6 чисел. Для визна-
чення цієї події – серед відмічених чисел – k чисел виграш-
них (порядок чисел не суттєвий). Достатньо розглянути нев-
порядковані набори 6 чисел з 49. Число дорівнює можливим
елементарним подіям n = C496 . Подія A складається із набо-
рів 6 чисел, k з яких виграшні C6k , а 6 − k – ні C436 − k .
C6k C436 − k
( )
−1
P( A) = 6
. Якщо k = 6 , то P( A) = 14 ⋅106 .
C49
2.24. W ( A) = 18 20 = 0,9 .
2.25. W ( A) = (45 − 9) 45 = 0,8 .
2.26. Очевидно, що якщо n ≥ 366 , ця ймовірність дорівнюва-
тиме одиниці. Розглянемо випадки n ≤ 365 . Для групи з n
студентів можливо ( 365 ) комбінацій днів народження. Усі ці
n

комбінації утворюють повну групу попарно несумісних рів-


ноймовірних подій, причому ймовірність кожної комбінації
дорівнює 1 ( 365 ) . Кількість різних комбінацій, коли жодна
n

пара днів народження не збігається, дорів-


нює 365 ⋅ 364 ⋅ ( 365 − n + 1) . Тоді ймовірність того, що на кожен
день припадає не більше одного дня народження, дорівнює
365 ⋅ 364 ⋅… ⋅ ( 365 − n + 1) 365!
Pn = = . Шукана ймовір-
( 365)
n
( 365 − n )!⋅ 365n
ність дорівнює 1 − Pn .
Відповідна таблиця значень має вигляд:
n 4 10 16 20 23 30 50 100
1 − Pn 0,016 0,117 0,284 0,411 0,507 0,706 0,97 0,9999996
Щоб в аудиторії знайшлося дві особи, у яких з імовірністю
1/2 збігаються дні народження аудиторії має бути не менше
23 людей.
n

2.27. Qn = 1 − ⎛⎜
364 ⎞
⎟ . Якщо Qn ≥ 1 2 , то n ≥ 252, 65 . Таким чи-
⎝ 365 ⎠
ном, в аудиторії має бути не менше 253 чоловік.
2.28. Якщо всі розміщення (стани системи) рівноймовірні,
то всього існує n r різних розміщень з імовірністю кожного
стану n − r .

110
2.29. Усі стани рівноймовірні. Існує N (n, r ) = Cnn+−r1−1 = Cnr+ r −1
усього різних розміщень (станів). Дійсно, для однієї і двох
частинок ця формула очевидна
n ( n − 1)
N (n,1) = n = Cn1 , N (n, 2) = n + = Cn1 + Cn2 = Cn2+1 .
2
Використаємо метод математичної індукції. Припустимо,
що ця формула справедлива для r частинок, тоді для r + 1
частинки
N (n, r + 1) = N (n, r ) + N (n − 1, r ) + … + N (1, r ) =
= Cnr+ r −1 + Cnr−1+ r −1 + … + Crr = ( Cnr++1r − Cnr++1r −1 ) + ( Cnr−+11+ r − Cnr−+11+ r −1 ) + …
… + ( Crr++11 − Crr ) + Crr = Cnr++1r .
2.30. Усі розміщення (стани системи) рівноймовірні. Усього
існує Cnr різних розміщень (станів).

Відповіді до підрозділу 3
3.1. P = 5 / 20 = 0, 25 .
3.2. Розіб'ємо відрізок ОА на три однакові частини точками
С і D. Умови задачі будуть
виконані, якщо точка В(х)
потрапить на відрізок СD
довжиною L / 3 ; P = ( L / 3) / L = 1 / 3 .
3.3. Нехай x – відстань від кінця дроту до першої точки пере-
гину. Тоді площа прямокутника S = x(10 − x) : а) з умови задачі
x(10 − x) ≤ 21 . Розв'язавши нерівність, отримаємо, що x ∈ ( 0,3) ,
або x ∈ ( 7,10 ) . Тобто необхідна рамка вийде, якщо точка пот-
рапить на одну з ділянок ( 0, 3) , ( 7,10 ) , (10,13) , (17, 20 ) . Дов-
жина ділянки, що сприятиме успіху l = 12 , загальна довжина
дроту L = 20 . Таким чином, імовірність того, що площа отри-
маної рамки не перевищує 21 см2, P = 0, 6 ; б) P = 0, 4 .
3.4. Для зручності координату точки В позначимо змінною
x , а координату точки С позначимо змінною y . Тоді
0 ≤ x ≤ L , 0 ≤ y ≤ L , y ≥ x . Розглянемо можливі варіанти роз-

111
ташування точок В і С у пря-
мокутній системі координат
xOy . За умовою задачі
y − x < x , звідси одна з умов
y < 2 x . Ще одна умова y ≥ x .
Площу s (трикутник ОМN)
розглядаємо як таку, що описує
сприятливі варіанти розташування точок (довжина ВС менша
довжини ОВ). Площу S (трикутник ОFN) розглядаємо як таку,
що описує всі можливі розташування точок В та С на відрізку
s 1
(довжина ВС менша довжини ОВ). Таким чином, P = = .
S 2
3.5. Аналогічно попередній задачі 0 ≤ x ≤ L , 0 ≤ y ≤ L . При
цьому, якщо точка В розташована ближче до точки О, то ви-
конуються умови y − x < L / 2 та y > x , якщо точка С розта-
шована ближче до точки О, x − y < L / 2 та x > y . Для прави-
льного обчислення ймовірності зручно представити записані
вище нерівності в прямокутній системі координат xOy . Звід-
ки очевидно: P = 3 4 .
3.6. Оскільки ймовірність потрапити на [ α, β] не залежить
від того, де саме на [ a, b ] розташований відрізок [ α, β] , то
β−α
шукана ймовірність P( A) дорівнює , тобто відношенню
b−a
довжин відрізків [ α, β] і [ a, b ] . Відповідь буде такою ж, якщо
замість відрізка [ α, β] обрати будь-яку підмножину відрізка
[ a, b] і для неї можна визначити довжину, що дорівнює
(β − α ) . Для цієї задачі густина ймовірності визначається рі-
вністю p( x) = 1 l ; x ∈ [ a, b ] , причому ∫ p ( x)dx = 1 ;
b

β β dx β − α
p( A) = ∫ p( x)dx = ∫ = .
α α l l
3.7. Зрозуміло, що задача еквівалентна такій: у квадрат
Q = {( x, y ) : 0 ≤ x ≤ l , 0 ≤ y ≤ l } навмання кидається точка ( x, y ) ;
яка ймовірність того, що точка потрапить у зафарбовану

112
область. Тоді шукана ймовірність
дорівнює відношенню площини
зафарбованої області до площини
квадрата Q :
dxdy l − ( l − λ )
2 2
2l λ − λ 2
p ( A) = ∫∫ 2 = 2
=
Q l l l2

2a − 2r a − r
3.8. P = = .
2a a
( a − 2r )
2 2
⎛ 2r ⎞
3.9. P = 2
= ⎜1 − ⎟ .
a ⎝ a ⎠
3.10. Площа кільця фігури g : s = π(102 − 52 ) = 75π ; площа ве-
ликого кола (фігури G ): s = 102 π = 100π . Шукана ймовірність
P = 0, 75 .
3.11. а) P = 2 / π ; б) P = 3 3 / ( 4π ) .
3
4 ⎛a⎞
3.12. Об'єм куба V = a 3 (великий об'єм), кулі V = π ⎜ ⎟
3 ⎝2⎠
(малий об'єм); P = π 6 .
3.13. а) розглянемо довільний об'єм усередині сфери. Імові-
рність одній точці потрапити у сферу радіуса l дорівнює
( l R ) . Імовірність не потрапити точці в цей об'єм 1 − ( l R ) .
3 3

Імовірність жодній точці не потрапити у сферу радіуса l :

(
Pn = 1 − ( l R ) ).
3 n

3.14. Представимо на рисунку задані параметри змінних x


та y . Сприятливі умови для нашого експерименту описує
зафарбована фігура площею s ,
усі можливі варіанти описуватиме
площа всього квадрата S . Знахо-
димо точку перетину кривих:
1
x= .
2 2
Тоді

113
1 1
x 1
2 2 8x
1 + 3ln 2
s= ∫0
dx ∫ dy +
0
∫1
dx ∫ dy =
0 16
, S = 1 . P ≈ 0,192 .
2 2

0, 2 ≤ x ≤ 0,8 ; 0, 2 ≤ y ≤ 0,8 . Точки перетину x = 0,3; 0, 7 .


0,7 1− x
s= ∫ dx ∫ dy ≈ 0, 031 ; S = 0,36 ; шукана ймовірність
0,3 1
P ≈ 0, 085 .
5x

3.15. Якщо відобразити загальну площу S і корисну площу s


у координатах a, b та використати умову невід'ємності дис-
a2
1 4
кримінанта квадратного рівняння, отримаємо: s = ∫ da ∫ db ,
−1 −1

S = 4 . Остаточно p = 13 24 .
3.16. Нехай x – відстань від середини голки до найближчої па-
ралелі; ϕ – кут між голкою та цією паралеллю (рис. ліворуч).

Усі можливі положення голки можна описати, задаючи x та


ϕ . При цьому x та ϕ набувають значень 0 ≤ x ≤ a , 0 ≤ ϕ ≤ π .
Тобто середина голки може потрапити в довільну точку пря-
мокутника зі сторонами a та π . Цей прямокутник можна роз-
глядати як фігуру G , точки якої представляють усі можливі
положення середини голки. Площа цієї фігури SG = aπ . Пло-
ща фігури g (кожна точка цієї фігури сприяє результату, що
нас цікавить, тобто кожна точка цієї фігури може бути середи-
ною голки, яка перетинає найближчу до неї паралель). Із ри-
сунка праворуч видно, що голка перетне найближчу до неї па-
π
ралель за умови x ≤ l sin ϕ . S g = ∫ l sin ϕd ϕ = 2l . Імовірність то-
0

го, що голка перетне пряму P = S g SG = 2l πa .

114
3.17. Позначимо частини відрізка через x , y , та l − x − y .
Для того, щоб із цих частин можна було утворити трикут-
ник, необхідне виконання таких нерівностей: x < l 2 ,
y < l 2 , x + y > l 2 . Усі можливі комбінації довжин частин
Відрізка (у т. ч. і ті, з яких не мож-
на утворити трикутник) будуть
0 ≤ x + y ≤ l . Розглядаючи x та y
як декартові прямокутні координа-
ти точки на площині, отримаємо
фігуру G , що зображена на рисун-
ку. Точки заштрихованого трику-
тника g – сприятливі комбінації
значень x та y , точки трикутника
G – усі можливі пари x та y , тому P = 1 4 .
3.18. Вводимо прямокутну систему координат. Приймемо за
початок координат час T1 . Тоді T1 ≤ x ≤ T2 , T1 ≤ y ≤ T2 . Спри-
ятливі зустрічі значення координат
значення y − x ≤ t0 . Усі можливі
пари x та y можна описати площею
S = (T2 − T1 ) 2 . Сприятливі комбінації
значень x та y можна визначити
площею s = (T2 − T1 ) 2 − (T2 − t0 ) 2 .
2
⎛ T −t ⎞
Таким чином, P = 1 − ⎜ 1 + 1 0 ⎟ .
⎝ T2 − T1 ⎠
3.19. Побудуємо рисунок в
координатах t , ω . Нехай Т – час
проходження приймачем діапа-
зону [ω1 , ω2 ] :
s 2 ωT
p= = ;
S T (ω2 + ω − (ω1 − ω))
2 ω
p=
ω2 − ω1 + 2 ω

115
Відповіді до підрозділу 4
4.1. Подія A – "вибито не менше 9 очок" є об'єднанням по-
дій B – "вибито 10 очок" і C – "вибито 9 очок". Події B та
C несумісні, тому що не можна одним пострілом вибити ві-
дразу й 9, і 10 очок. Тому P ( A) = P ( B ) + P(C ) = 0,9
4.2. Нехай події A – "збито перший літак", B – "збито дру-
гий літак". Тоді "збито обидва літаки" – AB , A ∪ B – "збито
хоча б один літак", "літаки не збито" – A ∪ B :
р( P ( A ∪ B ) = 1 − P( A ∪ B ) = 1 − ( P( A) + P( B) − P( A ∩ B)) = 1 / 8 .
4.3. Нехай події A1 , A2 , A3 полягають у тому, що відповідно
перше, друге та третє підприємства своєчасно виконали
план. Подія B "своєчасне виконання плану хоча б одним пі-
дприємством", B = A1 ∩ A2 ∩ A3 – "невиконання вчасно плану
жодним із трьох підприємств" є протилежними. Події
A1 , A2 , A3 незалежні, оскільки за умовою підприємства пра-
цюють незалежно, тобто вони виконують або не виконують
план незалежно одне від іншого. Отже,
P ( B ) = 1 − P ( A1 ∩ A2 ∩ A3 ) = 0,94
5!2!2!
4.4. P = .
11!
4.5. P = 1 12 .
1
4.6. Імовірність витягнути даму пікової масті P( A ∩ B) = .
52
4 1 13 1
З іншого боку, P( A) = = , P( B) = = . Тоді
52 13 52 4
1
P ( A) P ( B ) =. Що є доказом незалежності подій A та B .
52
4.7. а) P = 1 32 , б) P = 1 8 .
4.8. AB – на одній із кісток випала одиниця, на другій – па-
1
рна кількість очок. P( AB) = ; A ∪ B – або сума очок, що ви-
6
пали, непарна, або на одній із кісток випаде одиниця
23
P( A ∪ B) = ; A ∩ B – на жодній грані не випаде одиниці та
36
сума очок непарна (не менше 5) P( A ∩ B ) = 1 3 .

116
4.9. An – відкриття сейфа n зломщиком. Використовуємо
(1.12) для n = 3 :
p = P ( A1 ∪ A2 ∪ A3 ) = P ( A1 ) + P ( A2 ) + P ( A3 ) − P ( A1 ∩ A2 ) −
− P ( A1 ∩ A3 ) − P ( A2 ∩ A3 ) + P ( A1 ∩ A2 ∩ A3 ) = 0, 664 .
4.10. Нехай P (i ) – імовірність учню з номером i витягнути
сонату з номером i . Імовірність P (ij ) , що те саме справедли-
во для сонат i та j тощо. Тоді
7
p = ∑ P(i ) − ∑ P (ij ) + ∑ P (ijk ) − … + P (ijklmnf ) .
i =1 1≤ i < j ≤ 7 1≤ i < j < k ≤ 7

1 1 1 1
Зрозуміло, що P(i) = , P(ij ) = ⋅ , …, P(ijklmnf ) = . Звідси
7 7 6 7!
маємо
1 1 1 1 1
p = C71 − C72 + C73 − C74 + C75 −
7 7⋅6 7⋅6⋅5 7 ⋅6⋅5⋅4 7 ⋅6⋅5⋅ 4⋅3
1 1 1 1 1 1 1 1
−C76 + C77 = 1 − + − + − + ≈ 0, 632.
7 ⋅ 6 ⋅5⋅ 4 ⋅3⋅ 2 7! 2 3! 4! 5! 6! 7!
4.11. Перший спосіб. Подія B – серед запропонованих авто
лише одна машина марки "Опель", C – дві; D – три. Імовір-
ність того, що хоча б один із запропонованих авто належить
фірмі "Опель" (подія A ):
C1C 2 C 2 C1 C 3 67
P( A) = P( B) + P(C ) + P( D) = 5 3 10 + 5 3 10 + 53 = .
C15 C15 C15 91
Другий спосіб. A – жодне з трьох авто не належить "Опелю".
C103 67
Тоді P( A) = 1 − P( A) = 1 − = .
C153 91
4.12. Нехай B – перше вимірювання, C – друге, D – третє.
Подія A – тільки в одному з вимірювань похибка буде пере-
вищувати задану точність: A = BCD ∪ BCD ∪ BCD . Звідси
P ( A) = 0, 432 .
4.13. 1 − ( 35 36 ) ≥ 0,5 , n ≥ 25 .
n

4.14. 1 − ( 5 6 ) ≥ 0,5 , n ≥ 4 .
n

10 9 8 1 1 1 10 9 8 1
4.15. 1 − ⋅ ⋅ ⋅… ⋅ ≥ ≥ ⋅ ⋅ ⋅… ⋅ . Витягну-
12 11 10 3 2 2 12 11 10 3
вши 3 рази, отримаємо 0,5 ≥ 0,5 . n ≥ 3 .

117
4.16. 1 − 0,99n ≥ 0,95 , n ≥ 299 .
4.17. P = n ! n n .
4.18. Нехай подія A – "аварія при запуску", P ( A) = 0,1 , подія
B – "аварія на старті", P ( B) = 0, 09 . Треба встановити
P ( AB )
P ( A | B) . P ( A | B ) = 1− P ( A | B ) = 1− = {B ⊂ A ⇒
P(B)
P ( A) 1 − P ( A) 1
⇒ B ⊃ A} = 1 − = 1− = ≈ 0, 01092 .
P( B ) 1 − P ( B ) 91
4.19. Нехай подія A – "перший витягає щасливий білет", по-
дія B – "другий витягає щасливий білет, подія A – "перший
не витягає щасливий білет", подія B – "другий не витягає
щасливий білет". Зазначимо, що A + A = Ω , тоді
B = B ∩ Ω = B ∩ A + B ∩ A . Отже,
P ( B ) = P ( B ∩ A ) + P ( B ∩ A ) = P ( B | A ) P( A) + P ( B | A ) P( A) ,
4 5 5 25 1
або P ( B ) = ⋅ + ⋅ = = P ( A) .
29 30 29 30 6
3 4
4.20. P ( C | A ∩ B ) = , P ( C | A ∩ B ) = ;
28 28
4 5
P (C | A ∩ B ) = ; P (C | A ∩ B ) = .
28 28

( )
1
Тоді P(C ) = P C ∩ ( B ∩ B ) ∩ ( A ∩ A ) = = P( B) = P( A) .
6
4.21. За умовою P ( AB) = 0, 05 , P( AB ) = 0, 079 , P( AB) = 0, 089 ,
P ( AB ) = 0, 782 . Знайдемо умовну ймовірність того, що син
темноокий, якщо темноокий батько
P ( AB) P ( AB )
P ( B | A) = = = 0,39 .
P ( A) P ( AB ) + P ( AB )
Умовна ймовірність того, що син світлоокий, коли батько
темноокий P ( B | A) = 1 − P( B | A) = 0, 61 . Умовна ймовірність
того, що син темноокий, якщо батько світлоокий
P( AB) P( AB)
P ( B | A) = = = 0,102 .
P ( A) P( AB) + P( AB )

118
Умовна ймовірність того,що син світлоокий, коли батько сві-
тлоокий P( B | A) = 1 − P( B | A) = 0,898 .
4.22. Подія A – лампочка прогорить більше ніж 1500 год,
H1 , H 2 , H 3 , H 4 – гіпотези, що вона виготовлена 1, 2, 3, або 4-м
заводом. Загальна кількість ламп, що надійшли до магазину
250
2000 шт., тому ймовірності гіпотез P ( H1 ) = = 0,125 ,
2000
P ( H 2 ) = 0, 2625 , P ( H 3 ) = 0,1375 , P ( H 4 ) = 0, 475 . За умовою
задачі P ( A | H1 ) = 0,15 , P ( A | H 2 ) = 0,3 , P ( A | H 3 ) = 0, 2 ,
P ( A | H 4 ) = 0,1 . Імовірність того, що лампочка буде якісною,
можна обчислити за формулою повної ймовірності
P ( A) = 0,1725 .
4.23. Подія A – деталь стандартна, H1 , H 2 , H 3 – гіпотези, що
вона виготовлена на 1, 2, або 3-й лінії. Імовірності гіпотез
P ( H1 ) = 0,3 , P ( H 2 ) = 0, 25 , P ( H 3 ) = 0, 45 . Умовна ймовірність
для нестандартної деталі P( A | H1 ) = 0, 01 , P( A | H 2 ) = 0, 012 ,
P ( A | H 3 ) = 0, 02 . Імовірність того, що деталь буде не станда-
ртною P( A) = 0, 015 .
4.24. а) P ( r ) = 1 2 , P ( b ) = P ( g ) = 1 2 ; б) умовна ймовірність
того, що на грані є червоний колір за умови, що на ній уже є
P (r ∩ g ) 1
зелений, дорівнює P ( r | g ) = = .
P(g) 2
4.25. Для першого гравця при необмеженій кількості експе-
1 1 1 2⎛ 1 ⎞
риментів p1 = + 3 + … + 2 k +1 + … = ⎜1 − 2 k ⎟ . Для другого
2 2 2 3⎝ 2 ⎠
1 1 1 1⎛ 1 ⎞ p
p2 = 2 + 4 + … + 2 k + 2 + … = ⎜ 1 − 2 k ⎟ . Тобто 1 = 2 .
2 2 2 3⎝ 2 ⎠ p2
4.26. Нехай x – початковий капітал гравця; P( x) – імовір-
ність розорення. Подія A – розорення гравця, подія A1 – ви-
граш у кожному окремому турі, A2 – програш у даному турі.
Тоді A = A ∩ A1 + A ∩ A2 і відповідно до означення повної
ймовірності для A отримаємо:
1 1
P ( x ) = P ( A | A1 ) P ( A1 ) + P ( A | A2 ) P( A2 ) = P( x + 1) + P( x − 1) .
2 2

119
Розв'язок цього різницевого рівняння шукаємо у вигляді ря-
∞ ∞
1 ∞
ду: P( x) = ∑ ak x k . Тоді ∑ ak x k = ∑ ak ⎡⎣( x + 1) k + ( x − 1) k ⎤⎦ .
k =0 k =0 2 k =0
Прирівнюючи коефіцієнти біля однакових степенів x , отри-
маємо k = 0 a0 + a2 + a4 +… ; k = 1 a1 + 3a3 + 5a5 +… . Звідки
a2 = a3 = … = 0 . Тобто P ( x) = a0 + a1 x . Додаткові умови
x
P (0) = 1 , P(a ) = 0 дають однозначний розв'язок P ( x) = 1 − .
a
4.27. Подія A – витягнуто червону кулю. Можливі такі поча-
ткові гіпотези B0 – до початку експерименту в урні не було
жодної червоної кулі, B1 – 1 червона куля, B2 – дві червоні
кулі. Апріорних гіпотез – 3. Усі гіпотези рівноймовірні, тому
P ( B0 ) = P ( B1 ) = P ( B2 ) = 1 3 . Умовна ймовірність того, що буде
витягнуто червону кулю P( A | B0 ) = 1 3 , P( A | B1 ) = 2 3 ,
P ( A | B2 ) = 1 . За формулою повної ймовірності ймовірність
витягнути червоний шар P( A) = 2 3 .
4.28. Подія A – витягнуто білу кулю. Можливі такі початкові
гіпотези B0 – до початку експерименту в урні не було жодної
(
білої кулі, Bi i = 1, n ) – i білих куль. Апріорних гіпотез –
1
n + 1 . Гіпотези рівноймовірні, тому P( Bi ) = . Умовна
n +1
ймовірність того, що буде витягнуто білу кулю
i +1
P ( A | Bi ) = . За формулою повної ймовірності ймовірність
n +1
витягнути білий шар
1 n i +1 1 n +1
n+2
P( A) = ∑ =
n + 1 i = 0 n + 1 ( n + 1)2
∑ j = 2(n + 1) .
j =1

n
Тут використано співвідношення ∑ k =1 + 2 + … + n = n(n + 1)
k =1
2.

4.29. Нехай подія A – перша витягнута куля була білою. По-


чаткові гіпотези B0 – до початку експерименту в урні не бу-
( )
ло жодної білої кулі, Bi i = 1, n – i білих куль. Кількість гі-
1
потез n + 1 . Імовірність кожної P( Bi ) = . Імовірність витя-
n +1

120
гнути першу кулю білою обчислюється за формулою повної
1 n i 1
ймовірності P ( A) = ∑ = . Подія В – друга витягнута
n + 1 i =1 n 2
куля – біла, A ∩ B – подія, яка полягає в тому, що і перший, і
другий раз було витягнуто білу кулю (обчислюється за фор-
мулою повної ймовірності):
1 ⎛1 1 2 2 n n⎞ 1 n
2n + 1
P( A ∩ B) = ⎜ +
n +1⎝ n n n n
+ … + ⎟ = ∑
n n ⎠ n ( n + 1) i =1
2
i2 =
6n
.
n
n(n + 1)(2n + 1)
Тут використано співвідношення ∑k
k =1
2
=
6
. Та-
ким чином, шукана умовна ймовірність
P ( A ∩ B ) 2n + 1
а) P( B | A) = = ;
P ( A) 3n
n −1
б) P( B | A) = 1 − P( B | A) = .
3n
4.30. Нехай подія A – перша витягнута куля була кольоровою.
Початкові гіпотези B0 – до початку експерименту в урні не бу-
( )
ло жодної кольорової кулі, Bi i = 1, n – i кольорових куль.
1
Кількість гіпотез n + 1 . Імовірність кожної P( Bi ) = . Імові-
n +1
рність витягнути першу кулю кольоровою обчислюється за
1
формулою повної ймовірності P( A) = . Подія В – друга витя-
2
гнута куля – біла, A ∩ B – подія, яка полягає в тому, що і пер-
ший раз витягнуто кольорову кулю, а другий раз було витягну-
то білу кулю (обчислюється за формулою повної ймовірності):
1 ⎛ 1 n −1 2 n − 2 n −1 1 ⎞
P( A ∩ B) = ⎜ ⋅ + ⋅ +… + ⋅ ⎟=
n +1⎝ n n n n n n⎠
1 n −1
1 ⎛ n −1 n −1 2 ⎞
= 2 ∑
n ( n + 1) i =1
i(n − i) = 2 ⎜ n∑ i − ∑ i ⎟ =
n ( n + 1) ⎝ i =1 i =1 ⎠
1 ⎛ (n − 1)n (n − 1)n(2n − 1) ⎞ n − 1
= ⎜n − ⎟= .
n ( n + 1) ⎝
2
2 6 ⎠ 6n
P( A ∩ B) n − 1
Тобто, шукана умовна ймовірність P( B | A) = = .
P ( A) 3n

121
4.31. Див. попередню задачу:
n n n

1 n C 2 ∑ k (k − 1) ∑k −∑k 2

1
P( A ∩ B) = ∑ = (nk =+21)n(n − 1) = (kn=+2 1)n(nk =−2 1) = 3 .
k

n + 1 k =2 C
2
n

P( A ∩ B) 2 1
а) P( B | A) = = ; б) P( B | A) = .
P( A) 3 3
4.32. Див. задачу 4.31.
n −1 n −1 n −1
2∑ k ( n − k ) n∑ k − ∑ k 2
1 n −1 Ck1 Cn1− k 1
P( A ∩ B) = ∑
n + 1 k =1 Cn2
= k =1
(n + 1)n(n − 1)
= 2 k =1 k =1
= .
(n + 1)n(n − 1) 3
P( A ∩ B) 2
P ( B | A) = = .
P ( A) 3
4.33. Подія A – дві визначені особи сидітимуть поруч. Мо-
жливі дві гіпотези: B1 – людина сидить на краю (таких двоє),
2
B2 – людина не сидить на краю ( n − 2 особи). P( B1 ) = .
n
n−2
P ( B2 ) = . За умови, що справедлива перша гіпотеза, імо-
n
вірність того, що дві визначені особи сидітимуть поруч
1
P ( A | B1 ) = . За умови, що справедлива друга гіпотеза
n −1
p = 2 (n − 1) . За формулою повної ймовірності
2 1 n−2 2 2
P ( A) = ⋅ + ⋅ = .
n n −1 n n −1 n
4 1 ⎛4 4 1 1⎞1 1 4
4.34. p = ⋅ ⋅ 0 + ⎜ ⋅ + ⋅ ⎟ + ⋅ ⋅1 = 0,5 .
5 5 ⎝ 5 5 5 5⎠ 2 5 5
4.35. Разом у першій урні 10 кульок, у другій – 6 кульок. Піс-
ля того, як з кожної урни було витягнуто по одній кулі в обох
урнах разом залишилось 14 кульок, які і потрапили в 3-тю
урну. Нехай подія A – з третьої коробки витягнуто білу ку-
лю. Для цієї події можливі такі гіпотези B1 – у третій коробці
6
містяться 6 білих кульок P( A | B1 ) = , тобто з обох урн ви-
14
9 1 3
тягли чорні кульки P( B1 ) = ⋅ = , B2 – у третій коробці
10 6 20

122
містяться 5 білих кульок (з однієї урни витягнуто білу кулю з
5 1 1 9 5 23
іншої чорну) P( A | B2 ) = , P( B2 ) = ⋅ + ⋅ = , B3 – у
14 10 6 10 6 30
1 5 1
третій коробці містяться, P( B3 ) = ⋅ = . Використовую-
10 6 12
38
чи формулу повної ймовірності, отримаємо p = = 0,36 .
105
4.36. Гіпотези C1 – імовірність витягнути чорну кулю з 1 ур-
ни. C2 – імовірність витягнути білу кулю з 1 урни;
P (C1 ) = 3 / 5 , P (C2 ) = 2 / 5 ; B1 – імовірність витягнути чорну
кулю з 2 урни; B2 – імовірність витягнути білу кулю з 2 ур-
ни; P( B1 ) = P( B1 | C1 ) P(C1 ) + P( B1 | C2 ) P(C2 ) = 2 / 5 , P( B2 ) = 3 / 5 ;
A – імовірність витягнути білу кулю з третьої урни;
P ( A) = P ( A | B1 ) P ( B1 ) + P( A | B2 ) P( B2 ) = 2 / 5 .
4.37. Апріорні гіпотези дві: H1 – стріляє перший стрілок,
H 2 – другий стрілок; P ( H1 ) = P ( H 2 ) = 1 2 . За формулою повної
ймовірності маємо: ймовірність того, що куля влучила в мішень
P ( A) = 0,55 . За формулами Байєса перерахуємо ймовірність гі-
P( A | H1 ) P( H1 ) 10 1
потез: а) P( H1 | A) = = , б) P ( H 2 | A) = .
P( A) 11 11
4.38. P( A) = 0,1 – імовірність розв'язання задачі відмінником,
P ( B ) = 0,5 – для тих, хто навчаються на "4" і "5", P (C ) = 0,3
– для трієчників, P( D) = 0,1 – для двієчників. Імовірність ро-
зв'язання задачі для довільно обраного студента за формулою
повної ймовірності P( F ) = 0, 644 . Імовірність того, що даний
студент не розв'язав задачу P( F ) = 0,356 . Тоді за формулою
Байєса ймовірність того, що цей студент навчається задові-
льно P ( C | F ) ≈ 0, 4 .
4.39. Три гіпотези. Імовірність гіпотези 1 3 . Імовірність того,
що риба клюнула, обчислюється за формулою повної ймовір-
ності. Апостеріорні гіпотези обчислюються за формулою
Байєса P = 4 13 .
4.40. Імовірність видужання довільного хворого P = 0, 78 .
Імовірність того, що ця людина хвора на грип P 0,577 .

123
4.41. Імовірність того, що обраний студент одружений, мож-
на обчислити за формулою повної ймовірності
2 2 3 1 17
P ( A) = ⋅ + ⋅ = . Імовірність того, що цей студент ста-
5 3 5 2 30
рше 22 років, треба перерахувати за формулою Байєса
8
P( B | A) = ≈ 0, 47 .
17

Відповіді до підрозділу 5
1 1 1 5
5.1. p = , q = ⇒ P5 (0) = C50 p 0 q 5 = , P5 (1) = ,
2 2 32 32
5 5 5 1
P5 (2) = , P5 (3) = , P5 (4) = , P5 (5) = .
16 16 32 32
1 2 80
5.2. p = , q = ⇒ P5 (2) = .
3 3 243
C13
5.3. Імовірність не отримати туз q = P(0 тузів) = 48 13
≅ 0,3038 ,
C52
P3 (0) = C30 (0, 6962)0 (0,3038)3 ≅ 0, 028 . Подія малоймовірна, то-
му можна казати про невезіння.
5.4. а) імовірніше виграти одну партію з двох
1 3
P2 (1) = > P4 (2) = ;
2 8
б) імовірніше виграти не менше двох партій із чотирьох:
11 8
P4 (2) + P4 (3) + P4 (4) = 1 − P4 (0) − P4 (1) = > P5 (3) + P5 (4) + P5 (5) = .
16 16
5.5. Подія A – "поява в сім'ї не більше однієї дівчинки є сумою
несумісних подій, подія A1 – "поява однієї дівчинки" та A2 –
"народження лише хлопчиків". Оскільки за умовою народження
і дівчинки і хлопчика рівноймовірні, то p = 1 / 2 – імовірність
народження дівчинки, q = 1 / 2 – імовірність народження не дів-
чинки в одному випробуванні. За формулою Бернуллі
1 3 0 4
⎛1⎞ ⎛1⎞ ⎛1⎞ ⎛1⎞
P ( A1 ) = C41 ⎜ ⎟ ⎜ ⎟ = 1 / 4 , P ( A2 ) = C40 ⎜ ⎟ ⎜ ⎟ = 1 / 16 .
⎝2⎠ ⎝2⎠ ⎝2⎠ ⎝2⎠

124
Тоді за теоремою додавання ймовірностей
P ( A) = P ( A1 ) + P( A2 ) = 5 / 16 .
n n
1 ⋅ 2 ⋅ … ⋅ 2n 1 ⋅ 3 ⋅ … ⋅ 2n − 1
5.6. P2 n (n) = C2nn ⎛⎜ 1 ⎞⎟ ⎛⎜ 1 ⎞⎟ = 2(2 n)!
= = .
⎝2⎠ ⎝2⎠
n
2 (n !) 2
(2 ⋅ 4 ⋅… ⋅ 2n) 2
2 ⋅ 4 ⋅ … ⋅ 2n
1 1 3 2n − 1 1
Треба довести < ⋅ ⋅… ⋅ < . Довести можна
2 n 2 4 2n 2n + 1
методом математичної індукції. Для n = 2:
0,354 < 0,375 < 0, 45 . Вважатимемо, що це співвідношення
1 1 3 2k − 1 1
справджується для n = k : < ⋅ ⋅… ⋅ < , тоді
2 k 2 4 2 k 2k + 1
воно може бути справедливим для n = k + 1 , тобто
1 1 3 2k − 1 2k + 1 1
< ⋅ ⋅… ⋅ ⋅ < . Доведемо окремо
2 k +1 2 4 2k 2k + 2 2k + 3
праве та ліве співвідношення:
1 2k + 1 k + 1 1 3 2k − 1 2k + 1
1) ⋅ ⋅ < ⋅ ⋅… ⋅ ⋅ ,
2 k 2k + 2 k + 1 2 4 2k 2k + 2
1 1 1 3 2k − 1 2k + 1
⋅ 1+ < ⋅ ⋅… ⋅ ⋅ .
2 k +1 4k + 4k 2 4 2
2k 2k + 2
Таким чином, доведено першу нерівність.
1 3 2k − 1 2k + 1 1 2k + 1 2k + 3
2) ⋅ ⋅… ⋅ ⋅ < ⋅ ⋅ =
2 4 2k 2k + 2 2k + 1 2k + 2 2k + 3
1 2 k + 1 2k + 3 1 3
= ⋅ = ⋅ 1− .
2k + 3 2k + 2 2k + 3 4k 2 + 4k + 4
2 5
⎛ x⎞ ⎛a−x⎞
5.7. P5 (2) = C72 ⎜ ⎟ ⎜ ⎟ – біноміальний розподіл.
⎝a⎠ ⎝ a ⎠
2 3 2
⎛1⎞ ⎛1⎞ ⎛1⎞
5.8. P7 (2,3, 2) = C72 C53C22 ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ – мультиноміальний
⎝ 3⎠ ⎝ 3⎠ ⎝ 3⎠
розподіл.
5.9. Імовірності взяти резистори першого, другого, третього
заводів дорівнюють відповідно 0,2, 0,3, 0,5. Використаємо
формулу для поліноміального розподілу
6!
Pn (1, 2,3) = 0, 21 ⋅ 0,32 ⋅ 0,53 ≈ 0,135 .
1!2!3!

125
m n−m
n
⎛1⎞ ⎛1⎞ 1 n
5.10. P = ∑
m = 0,
Cnm ⎜ ⎟ ⎜ ⎟
⎝2⎠ ⎝2⎠
=
2n
∑C
m = 0,
m
n . Використовуємо ві-
m=2 m=2
n
доме співвідношення комбінаторики ∑C
m =0
m
n = 2n . Тоді
n
2n
∑C
m = 0,
m
n =
2
. У результаті отримуємо P = 1 2 .
m=2
2

5.11. P = ∑ (Cnm ) 2 ⎛⎜
n
1 ⎞
n ⎟
. Використовуємо відоме співвідношен-
m=0 ⎝2 ⎠
n
ня комбінаторики (дод. 1): ∑ (C
m =0
n) = C2nn . Звідси, використо-
m 2

C2nn 1
вуючи формулу Стірлінга (дод. 1), отримаємо P = ≅ .
22 n nπ
5.12. Імовірність випадіння герба p = 1 2 , q = 1 2 . Кількість
експериментів n = 20 . Оскільки np – ціле, то найімовірніша
кількість появи гербів m = 10 .
5.13. p = 1 3 , q = 2 3, np − q = 14 / 3 – не ціле.
2 2
np − q < m < p(n + 1) ⇒ 4 < m < 5 , тобто m = 5 .
3 3
5.14. Використовуємо локальну теорему Лапласа, оскільки
n = 243 достатньо велике число, m = 70 , p = 0, 25 , q = 0, 75 .
70 − 243 ⋅ 0, 25 9, 25
x= = ≈ 1,37 . Звідси P243 (70) ≈ 0, 023 .
243 ⋅ 0, 25 ⋅ 0, 75 6, 75
1 364
5.15. n = 730 , p = , q= , np = 2 – ціле, тобто найімові-
365 365
3 727
3 ⎛ 1 ⎞ ⎛ 364 ⎞
рніше число; P730 (3) = C730 ⎜ ⎟ ⎜ ⎟ . На основі локальної
⎝ 365 ⎠ ⎝ 365 ⎠
2
1 ⎛ m − np ⎞
− ⋅⎜ ⎟
1 2 ⎜⎝ npq ⎟⎠
теореми Муавра–Лапласа Pn (m) ≈ e ≅ 0, 22 .
2πnpq
5.16. а) p = 1 / 2 ; б) використовуємо інтегральну теорему
Муавра–Лапласа:
⎪⎧ m − np ⎪⎫
p = P10 (3 ≤ m ≤ 8) = P10 (−2 ≤ m − np ≤ 3) = P10 ⎨−1, 26 ≤ ≤ 1,9 ⎬ ;
⎩⎪ npq ⎭⎪

126
1,9 x2
1 −
p= ∫ e 2
dx = ( Φ (1,9) + Φ (1, 26) ) ≈ 0,8675 .
2π −1,26
⎪⎧ m − np ⎪⎫
5.17. p = P100 (75 ≤ m ≤ 90) = P10 ⎨−1, 25 ≤ ≤ 2,5⎬ ≈ 0,8882 .
⎪⎩ npq ⎪⎭
5.18. Тут n = 12000 , p = 1 6 , q=5 6, npq = 100 6,
m1 = 1900 , m2 = 2150 . Тоді
3
6
⎛ m − np m − np m2 − np ⎞ 1 2

x2
p = P( m1 ≤ m ≤ m2 ) = P ⎜ 1
⎜ npq

npq

npq
⎟⎟ ≈

∫ e 2
dx =
⎝ ⎠ − 6
3
6
x2 6 x2

( )
2
1 − ⎛3 ⎞ 1 −
=
2π0
∫ e
0
dx = Φ ⎜
2


dx +
2 ⎠ 2π
∫e
6 ⎟ + Φ 6 ≈ 0,99 . 2

5.19. Це схема Бернуллі із n = 2000 , p = 1 30 (імовірність


виклику). Число x – визначається з умови: імовірність того,
що викликів ≥ x , має бути меншою від 0,01. Тобто
⎪⎧ m − np x − np ⎪⎫
P {m ≥ x} ≤ 0, 01 ⇒ P {m ≥ x} = P ⎨ ≥ ⎬=
⎪⎩ npq npq ⎪⎭
⎛ x − np ⎞
2
∞ x
1 − 1
= ∫
2π x − np
e 2 dx = − Φ ⎜
2 ⎜ npq ⎟⎟
≤ 0, 01 .
⎝ ⎠
npq

x − np
За таблицями знайдемо ≥ 2,327 ⇒ x ≥ 85, 4 . Звідки x = 86.
npq
5.20. n = 625 , p = 0,8 , q = 0, 2 , ε = 0, 04 ;
⎧ m ⎫ ⎛ 625 ⎞
P⎨ − 0,8 ≤ 0, 04 ⎬ = 2Φ ⎜⎜ 0, 04 ⎟ = 2Φ ( 2,5 ) = 0,9826 .
⎩ 625 ⎭ ⎝ 0,8 ⋅ 0, 2 ⎟⎠
5.21. n = 4040 , m = 2048 , p = 0,5 , q = 0,5 , ε ≈ 0, 007 ;
2048 ⎧ m ⎫
W= 0,507 . Тобто P ⎨ − 0,5 ≤ 0, 007 ⎬ = 0, 6266 .
4040 ⎩ 4040 ⎭
5.22. Використаємо розподіл Пуассона:
(104 ⋅ 2 ⋅10−4 )3 −104 ⋅2⋅10−4 8 −2
P10000 (3) ≈ e = e ≈ 0,18 .
3! 6

127
24 −2
5.23. np = 200 ⋅ 0, 01 = 2 . Тоді а) P200 (4) ≅ e ≅ 0, 09 ;
4!
б) P200 (m ≥ 4) ≅ 1 − P200 (0) − P200 (1) − P200 (2) − P200 (3) ≅ 0,15 .
5.24. а) 0,195; б) 0, 945.
5.25. Нехай n – шукана кількість частинок. Подія A – лічиль-
ник зареєстрував більше трьох частинок. Тоді P ( A ) = 1 − P ( A )
та
P ( A ) = Pn ( 0 ) + Pn (1) + Pn ( 2 ) + Pn ( 3) ≈ P ( 0 ) + P (1) + P ( 2 ) + P ( 3) =
⎛ λ λ2 λ3 ⎞
= e −λ ⎜1 + + + ⎟ ≤ 0, 01 .
⎝ 1! 2! 3! ⎠
Звідси λ ≈ 10, 7 та m = λ p ≈ 10, 7 ⋅104 частинок.
5.26. Нехай подія A полягає в народженні m мальків з k ікри-
нок, подія B – відповідає відкладання рибиною p k −1q ікринок.
∞ ∞ ∞
Тоді подія C = A ∩ ∑ B =∑ ( A ∩ B ) = ∑ P( A | B) P( B) . За умо-
k =0 k =0 k =0

λ −λ
∞ k
вою P ( B) = ∑ e , а обчислити умовну ймовірність можна
k =0 k !

використавши біноміальний розподіл P ( A | B) = Ckm p m (1 − p ) k − m .


e −λ p m λ m ∞
λ k − m (1 − p ) k − m
Звідки маємо P (C ) =
m!

k =m (k − m)!
. Зробимо заміну

під знаком суми k ′ = k − m :


( λ(1 − p) ) e −λ p m λ m λ (1− p ) ( pλ ) − pλ
k′ m
e −λ p m λ m ∞
P( A ∩ B) =
m!

k ′= 0 k ′!
=
m!
e =
m!
e

.
5.27. Усі можливі варіанти розвитку 10 нащадків з довільної
( pλ ) − pλ
10

кількості ікринок n = P(C ) = e . Сприятливі в умовах


10!
задачі (10 нащадків рівно з двадцяти ікринок)
10 λ p (1 − p ) λ 20 p10 (1 − p)10 −λ
20 10 10
m = C20 e −λ = e . Шукана ймовір-
20! (10!) 2
m ( λ(1 − p ) ) −λ (1− p )
10

ність P = = e .
n 10!

128
5.28. Пуассонівський потік подій визначаємо за формулою
(λt ) k e −λt
Pt ( k ) = , де λ = 2 . Тоді
k!
(3)6 e −3
а) t = 1,5; ⇒ P1,5 ( 6 ) = ≈ 0, 05 ;
6!
б) t = 2; ⇒ P2 ( 7 ) ≈ 0, 06
(7)0 e −7
в) t = 3,5; ⇒ P3,5 ( 0 ) = ≈ 9,1 ⋅10−4 .
0!
5.29. Імовірність того, що впродовж доби один конкретний
nt
користувач використовуватиме Інтернет, дорівнює . Шу-
N
кана ймовірність описуватиметься біноміальним розподілом
m N −m
⎛ nt ⎞ ⎛ nt ⎞
PN (m) = CNm ⎜ ⎟ ⎜1 − ⎟ .
⎝N⎠ ⎝ N⎠
m N −m
⎛ nt ⎞ ⎛ nt ⎞
5.30. PN (m) = CNm ⎜ ⎟ ⎜1 − ⎟ =
⎝N⎠ ⎝ N⎠
N ( N − 1)… ( N − m + 1) ( nt ) ⎛ nt ⎞ ⎛ nt ⎞
m N −m

= ⎜1 − ⎟ ⎜1 − ⎟ .
m! Nm ⎝ N ⎠ ⎝ N ⎠
−m
0 1 m − 1 ⎛ nt ⎞
Оскільки lim (1 − )(1 − )… (1 − ) ⎜1 − ⎟ →1 та
N →∞ N N N ⎝ N⎠
( nt ) − nt
N m
⎛ nt ⎞
lim ⎜ 1 − ⎟ = e − nt , то матимемо PN (m) = e .
N →∞
⎝ N⎠ m!

Відповіді до підрозділу 6
6.2.
ξ 0 3
p 0,7 0,3
6.3.
ξ 0 1
p 0,5 0,5

129
6.4. Використавши біноміальний розподіл
P {ξ = k } = Cnk p k q n − k , де n = 2 , і враховуючи, що ймовірність
випадіння "герба" при одному підкиданні p = 1 / 2 , отримаємо:
ξ 0 1 2
p 1/4 1/2 1/4

C80 C22 1
6.5. n = 8 , K = 2 . Тоді P {ξ = 0} = 2
= ,
C10 45
C81C21 16 C 2 C 0 28
P {ξ = 1} = 2
= , P {ξ = 2} = 8 2 2 = , тобто маємо:
C10 45 C10 45
ξ 0 1 2
p 1/45 16/45 28/45

Зазначимо, що сума всіх імовірностей дорівнює одиниці.


6.6. Дискретна випадкова величина ξ – кількість додатко-
вих запитань, що поставить викладач, має такі можливі зна-
чення: ξ = 1, 2,… , k ,… . Знайдемо ймовірності можливих зна-
чень ξ . Описаний випадок описується геометричним розпо-
ділом P {ξ = k } = p k −1q . Студент не відповідає на перше запи-
тання P {ξ = 1} = p 0 q , на перше відповідає, на друге "ні"
P {ξ = 2} = pq , на два перших відповідає, на третє "ні"
P {ξ = 2} = p 2 q і т. д. P {ξ = k } = p k −1q . У задачі p = 0,8 ,
q = 1 − p = 0.2 . Закон розподілу:
ξ 1 2 3 … k …
p 0,2 0,16 0,128 … p k −1
q …

б) оскільки найбільше значення ймовірності P {ξ = 1} = 0, 2 , то


найімовірніша кількість поставлених студенту запитань k0 = 1 .
6.7. Імовірність того, що буде потрібно ξ = 1, 2,… , k ,… , n
спроб для зчитування 2 бітів інформації буде підпорядкована
розподілу Паскаля P {ξ = n} = Cnk−−11 p k q n − k . При
P {ξ = n} = Cn1−1 p 2 q n − 2 = (n − 1) p 2 q n − 2 , тоді P {ξ = 1} = 0 ,
P {ξ = 2} = p 2 , P {ξ = 3} = 2 p 2 q1 , P {ξ = m} = ( m − 1) p 2 q m − 2 .

130
Закон розподілу:
ξ 1 2 3 4 5 6 7 …
p 0 0,16 0,192 0,173 0,138 0,10 0,07 …
б) найімовірніша кількість необхідних спроб для зчитування
інформації k0 = 3 .
6.8. Закон розподілу має вигляд функції Хевісайда (сходин-
ка). P {ξ = k} = 1 . Вироджений розподіл.
6.9. Закон розподілу має вигляд δ - функції Дірака,
P {ξ = 1} = 1 . Вироджений розподіл.
6.10. За умовою n = 20000 , p = 0, 0001 . Правомірним є вико-
λ k −λ
ристання закону Пуассона P {ξ = k} = e . λ = np = 2 .
k!
Закон розподілу:
ξ 0 1 2 3 4 5 6 …
p 0,135 0,27 0,27 0,18 0,09 0,04 0,01 …
Маємо бімодальний розподіл; k0 має два значення: k0 = 1 та
k1 = 2 .
⎧0, x ≤ −1,
⎪1 / 4 − 1 < x ≤ 0,

6.11. F ( x) = ⎨
⎪ 3 / 4 − 0 < x ≤ 1,
⎪⎩1 x > 1.

⎧0, x ≤ −2,
⎪0,1 − 2 < x ≤ −1,

⎪⎪0,3 − 1 < x ≤ 0,
6.12. F ( x) = ⎨
⎪0,5 0 < x ≤ 1,
⎪0,9 1 < x ≤ 2,

⎪⎩1 x > 2.
P {−1 < ξ ≤ 1} = P {ξ = −1} + P {ξ = 0} + P {ξ = 1} = F (1 + 0) − F (−1) = 0,8.

6.13. p = 1/ 2 . q = 1/ 2 . Кількість успіхів у n незалежних ви-


пробуваннях визначається біноміальним розподілом з указа-
ними ймовірностями:

131


⎪0 x ≤ 0,
⎪⎪ 1 x −1 k
F ( x ) = ⎨ n ∑ Cn 0 ≤ x ≤ n, якщо x − ціле,
⎪ 2 k =0
⎪ 1 [ x]
⎪ n ∑ Cnk 0 ≤ x ≤ n, якщо x − не ціле.
⎪⎩ 2 k = 0
Такий вигляд розподілу пов'язаний з тим, що за означенням
функція розподілу визначається з умови F ( x) = P {ξ < x} , то-
му, якщо x ціле, то для величини ξ максимальним значен-
ням буде x − 1 , у разі ж, коли x не ціле – максимальне зна-
чення ξ буде визначатись цілою частиною x , тобто [ x ] .


⎪0 x ≤ 0,
⎪⎪ 1 x −1 k n − k
6.14. F ( x) = ⎨ n ∑ Cn 5 0 ≤ x ≤ n, якщо x − ціле, .
⎪ 6 k =0
⎪ 1 [ x]
⎪ n ∑ Cnk 5n − k 0 ≤ x ≤ n, якщо x − не ціле.
⎪⎩ 6 k = 0
6.15. Кількість випадінь герба визначається геометричним роз-
поділом P {ξ = k } = qp k −1 . Таким чином, якщо x – ціле:
1− px
F ( x) = P {ξ < x} = q + qp + qp 2 … + qp x −1 = q = 1 − p x , якщо
1− p
x – не ціле:
1 − p[ ]
x +1
F ( x) = q + qp + qp 2 … + qp[ ] = q = 1 − p[
x x ] +1
.
1− p

⎪0 x ≤ 0,

⎪ 1
6.16. F ( x) = ⎨1 − x x > 0, якщо x − ціле, .
⎪ 2
⎪ 1
⎪1 − [ x]+1 x > 0, якщо x − не ціле.
⎩ 2
6.17. Mξ = (−1) ⋅ 0, 05 + (−0.5) ⋅ 0,1 + 0 ⋅ 0, 7 + 0,1⋅ 0,1 + 0,5 ⋅ 0, 04 + 1 ⋅ 0, 01
Mξ = −0, 06 . Для визначення дисперсії знайдемо Mξ 2 :

132
Mξ 2 = (−1) 2 ⋅ 0, 05 + (−0.5) 2 ⋅ 0,1 + 0,12 ⋅ 0,1 + 0,52 ⋅ 0, 04 + 12 ⋅ 0, 01 = 0,96
Mξ 2 = 0,96 , тоді Dξ = Mξ2 − ( Mξ ) = 0, 096 − (−0, 06) 2 = 0, 0924 ;
2

б) P {−0, 5 ≤ ξ ≤ 0,5} =
= P {ξ = −0,5} + P {ξ = 0} + P {ξ = 0,1} + P {ξ = 0,5} = 0,94 ,
або інакше P {−0,5 ≤ ξ ≤ 0,5} = F (0,5 + 0) − F (−0,5 − 0) = 0,94 .
6.18. Mξ = 2, 772 , Mξ 2 = 39, 742 , Dξ ≈ 32, 058 ,
P {ξ ≥ 4} = 0,357 .
6.19. Mξ 4 = 0,5 ; Mξ8 = 0,5 ; Dξ = 0, 25 .
6.20. Імовірність виграшу одного білета p = 1/1000 :
450 110 700
Mξ = + + = 1, 26 грн
1000 1000 1000
6.21. Нехай ξ – число очок при підкиданні однієї кістки;
Mξ = 3, 5 , Dξ = 35 / 12 . Для двох кісток η = ξ1 + ξ2 . Тоді
Mη = Mξ1 + Mξ 2 = 7 та Dη = Dξ1 + Dξ 2 = 35 / 6 .
6.22. Нехай ξ – успіх студента;
Mξ = −1(1 − p) + xp (1 − p) + … + x n p n (1 − p ) .
2 xp − 1
Для нескінченної геометричної прогресії Mξ = (1 − p) .
1 − xp
Звідки з умови Mξ = 0 , отримаємо x = 1 . Робота студента
2p
не буде збитковою, якщо виконуватиметься умова x ≥ 1 .
2p
6.23. Розраховується за законом Паскаля.
⎧0 n ≤ k,

а) F ( x) = P { x < n} = ⎨ n −1
⎪ ∑ Cm −1 p q
k −1 k m − k
n > k;
⎩m= k
∞ ∞
m!
MX = ∑ mCmk −−11 p k q m − k = k ∑ pk q m−k =
m=k m = k ( m − k )!k !

⎛ ( k + 1)( k + 2) 2 (k + 1)(k + 2)(k + 3) 3 ⎞


= kp k ⎜ 1 + (k + 1)q + q + q + …⎟
⎝ 2! 3! ⎠
kp k k
= = , б) MX = 50 .
(1 − q )
k +1
p

133
∞ ∞
m
6.24. MX = ∑ mCm0 −1 p1q m −1 = ∑ m
= 2 , оскільки p = q = 1/ 2 ;
m =1 m =1 2
∞ ∞
MX 2 = ∑ m 2 Cm0 −1 p1q m −1 = p ∑ m 2 q m −1 .
m =1 m =1

Позначимо S (q ) = ∑ m q 2 m −1
.
m =1


∫ S (q)dq dq = ∞
q
Тоді ∫ S (q)dq = ∑ mq ,
m

m =1
∫ q
∑q
m =1
m
=
1− q
. Проведемо

1+ q
обернену процедуру S (q ) = = 12 .
(1 − q )
3


Звідки MX 2 = p ∑ m 2 q m −1 = 6 та DX = 2 .
m =1

kn ∞ ∞
6.25. За означенням
n =1 n =1
∑p
n =1 n !
= Ae k = 1 .
n = 1 . Тобто ∑p n = A∑

Звідки маємо A = e − k . Друга умова задана Mξ = a . З іншого



kn ∞
k n −1
боку, Mξ = A∑ n = e− k k ∑ = e − k ke k = k . Звідки k = a .
n =1 n! n =1 ( n − 1)!

an
Таким чином, pn = e − a . Для того, щоб визначити моду, ро-
n!
p a
зглянемо відношення двох сусідніх імовірностей n +1 = .
pn n +1
Якщо a – ціле, розподіл бімодальний, при a = n + 1 ,
pn +1 = pn . Якщо a – не ціле, розподіл унімодальний, макси-
мальне значення ймовірності при n = [ a ] .
∞ ∞
p p
6.26. ∑ pq k −1
=1 = . Mξ = ∑ kpq k −1 = 5 = . З цих
1− q (1 − q )
2
k =1 k =1

двох умов q = 4/5, p = 1/ 5 ;


5
1− q 5
P {ξ ≤ 5} = ∑ pq k −1 = p = 1 − q 5 ≈ 0, 672 , p {ξ ≤ 20} ≈ 0,988 .
k =1 1− q

ak a ∞
a
6.27. Mξ = ∑ k k +1
= ∑ kx k −1
, де x ≡ ,
k =1 (1 + a ) (1 + a ) 2 k =1 1+ a

134

⎛ ∞ ⎞′ ⎛ x ⎞′ 1
∑ kx
k =1
k −1
= ⎜ ∑ xk ⎟ = ⎜ ⎟ =
⎝ k =1 ⎠ ⎝ 1 − x ⎠ (1 − x )
2
. Звідки Mξ = a ;


ak a ∞
Mξ 2 = ∑ k 2 k +1
= ∑k 2
x k −1 = a(1 + 2a ) . Тут враховано
k =1 (1 + a ) (1 + a ) 2 k =1

⎛ ⎛ ∞ 2 k −1 ⎞ ⎞′ ⎛ ∞ k ⎞′ ⎛ ∞ k −1 ⎞′ ⎛ x ⎞′ 1+ x
⎜ ∫ ⎜ ∑ k x ⎟ dx ⎟ = ⎜ ∑ kx ⎟ = ⎜ x ∑ kx ⎟ = ⎜⎜ ⎟ =
⎟ (1 − x )3
.
⎠ ⎝ (1 − x )
2
⎝ ⎝ k =1 ⎠ ⎠ ⎝ k =1 ⎠ ⎝ k =1 ⎠
У результаті маємо Dξ = a(1 + 2a) − a 2 = a(a + 1) .
∞ ∞
pq q
6.28. Mξ = ∑ kq k p = pq ∑ kq k −1 = = ;
(1 − q )
2
k =0 k =1 p
∞ ∞ ∞
q
Mξ2 = ∑ k 2 q k p = p ∑ ( k ( k − 1) + k ) q k . Сума ∑ kq k
p= .
k =0 k =0 k =0 p
Легко показати, що
∞ ∞
pq 2 q2
∑ k ( k − 1) q k p = pq 2 ∑ k ( k − 1) q k − 2 = 2 =2 , тобто
(1 − q )
3
k =0 k =2 p2
q q2 q q2 q
+ 2 2 : а) Dξ = + 2 = Mξ + ( Mξ ) = 2 .
2
Mξ2 =
p p p p p
q ∞
p
б) P{ξ = n} = pq n . Оскільки Mξ = a =
p
∑ pq
n =0
n
=
1− q
=1.

a 1
Із цих двох співвідношень маємо q = , p= .
a +1 a +1
an
Звідки маємо P{ξ = n} = – розподіл Паскаля.
( a + 1)
n +1

6.29. Нехай k – кількість витягнутих виграшних білетів, тоді


C k C m−k
P (ξ = k ) = n mN − n ,
CN
k −1 m −1− ( k −1)
n
Cnk C Nm−−nk mn n Cnk−−11C Nm−−nk mn n Cn −1 C N −1− ( n −1)
Mξ = ∑ k = ∑ = ∑
k =0 C Nm N k =1 C Nm−−11 N k =1 C Nm−−11
(легко отримати, розписавши в явному вигляді біноміальні
коефіцієнти). Позначимо m − 1 = M , n − 1 = l , N − 1 = L і вве-
mn l Cli CLM−−l i mn
демо заміну k − 1 = i , тоді Mξ = ∑
N i = 0 CLM
=
N
,

135
n
Cnk CNm−−nk n
Cnk CNm−−nk
Mξ 2 = ∑ k 2
CNm
= ∑ ( k ( k − 1) + k ) CNm
.
k =0 k =1

Розглянемо першу суму


n
Cnk CNm−−nk mn n Cnk−−11CNm−−nk

k =1
k ( k − 1 )
CNm
= ∑
N k =1
( k − 1)
CNm−−11
=
.
mn (n − 1)(m − 1) n Cnk−−22 CNm−−n2 − ( k − 2)
N N −1
∑k =2 CNm−−22
Ввівши заміну k − 1 = i і позначивши m − 2 = M , n − 2 = l ,
mn mn (n − 1)(m − 1)
N − 2 = L , отримаємо Mξ 2 = + . Для диспе-
N N N −1
mn( N − n) ( N − m )
рсії отримуємо Dξ = Mξ 2 − ( Mξ ) =
2
.
N 2 ( N − 1)
6.30. а) Mξ = p1 + 2 p2 + 3 p3 + … = ∑ pi + ∑ pi + ∑ pi + … =
i ≥1 i≥2 i ≥3

= P ( ξ ≥ 1) + P ( ξ ≥ 2 ) + P ( ξ ≥ 3) + … = P1 + P2 + P3 … = ∑ Pm ,
m ≥1

б) Mξ 2 = p1 + 4 p2 + 9 p3 + … = ∑ pi + 3∑ pi + 5∑ pi + … =
i ≥1 i≥2 i ≥3

= P ( ξ ≥ 1) + 3P ( ξ ≥ 2 ) + 5 P ( ξ ≥ 3) + … = P1 + 3P2 + 5 P3 … =
= ∑ (2m − 1) Pm = 2∑ mPm − ∑ Pm . Урахувавши результат,
m ≥1 m ≥1 m ≥1

отриманий у а), отримаємо Mξ 2 = 2∑ mPm − Mξ . Звідки


m ≥1

Dξ = Mξ − ( Mξ ) = 2∑ mPm − Mξ (1 + Mξ ) .
2 2

m ≥1
6.31. Кількість проявів події A в серії з n незалежних випро-
n
бувань визначається біноміальним розподілом ∑C
k =0
k
n pk qn−k .
n
Справедливе твердження ( q + px ) = ∑ Cnk p k q n − k x k . Дифере-
n

k =0
нціюючи цей вираз і помноживши на x з двох боків, отрима-
n
ємо npx ( q + px ) = ∑ kCnk p k q n − k x k . Покладемо x = 1 . Тоді
n −1

k =0
n

∑ kC = np ( q + p )
k k n−k n −1
n p q , що рівнозначно рівності
k =0

136
Mξ = np . Щоб отримати Mξ 2 , останній вираз диференціює-
мо знову, і знову помножимо на x :
n
np ( q + px ) + n ( n − 1) p 2 x ( q + px ) = ∑ k 2 Cnk p k q n − k x k ,
n −1 n −1

k =0
n
звідки при x = 1 : np + n ( n − 1) p 2 = ∑ k 2 Cnk p k q n − k = Mξ 2 . Ана-
k =0

логічно знаходимо Mξ3 :


Mξ3 = np + 3n(n − 1) p 2 + n(n − 1)(n − 2) p 3 . Дисперсію шукаємо
за означенням
Dξ = Mξ 2 − ( Mξ ) = np + n ( n − 1) p 2 − ( np ) 2 = np (1 − p ) = npq .
2

6.32. За визначенням для від'ємного біноміального закону


∞ ∞
( n + k − 1)! k n
справедливо ∑C
k =0
k
q pn = ∑
n + k −1
k

k = 0 k !( n − 1) !
q p = 1 . Визначимо

математичне сподівання випадкової величини ξ :



( n + k − 1)! k n ∞ ( n + k − 1)! k n
Mξ = ∑ k q p =∑ q p .
k =0 k !( n − 1) ! k =1 ( k − 1) !( n − 1) !

Вводимо заміну k − 1 = l , тоді



( n + l )! l +1 n ∞
( n + l )! l n
Mξ = ∑ q p = nq ∑ q p .
l = 0 l !( n − 1) ! l =0 l !n !
Позначимо n + 1 ≡ m , тоді

( m + l − 1)! l m −1 nq ∞ l nq
Mξ = nq ∑ q p = ∑ Cm + l −1q l p m = .
l =0 l !( m − 1) ! p l =0 p
Початковий момент другого порядку Mξ 2 обчислюємо ана-
логічно до обчислення Mξ , лише використовуючи представ-
лення k 2 ≡ k ( k − 1) + k :

( n + k − 1)! k n ∞ ( n + k − 1)! k n
Mξ 2 = ∑ k 2 q p = ∑ k ( k − 1) q p + Mξ =
k =0 k !( n − 1) ! k =1 k !( n − 1) !

( n + k − 1)! k n ∞
( n + l + 1)! l n
=∑ q p + Mξ = n ( n + 1) q 2 ∑ q p + Mξ.
k = 2 ( k − 2 ) !( n − 1) ! k = 2 l !( n + 1) !

Тут використана заміна k − 2 = l . Щоб надати виразу вигляд


вихідного означення від'ємного біноміального розподілу, по-
значимо n + 2 ≡ m . У результаті отримаємо

137

( m + l − 1)! l m − 2 n ( n + 1) q 2
Mξ2 = n ( n + 1) q 2 ∑ q p + Mξ = + Mξ =
k = 2 l !( m − 1) ! p2
nq n ( n + 1) q 2 nq n ( n + 1) q
2
nq + n 2 q 2
= + , або Mξ = 2
+ = .
p p2 p p2 p2
2
nq + n 2 q 2 ⎛ nq ⎞ nq
Тоді Dξ = 2
−⎜ ⎟ = 2 .
p ⎝ p ⎠ p

λ k ∞
λ k −1 ∞
λl
6.33. Mξ = ∑ k e −λ = λe −λ ∑ = λe−λ ∑ = λe −λ eλ = λ .
k =0 k! k =1 ( k − 1) ! l =0 l !

Використовуємо представлення k 2 ≡ k ( k − 1) + k :

λ k − 2 −λ ∞
λl
Mξ 2 = λ 2 ∑ e + λ = λ 2 e−λ ∑ + λ = λ 2 + λ , Dξ = λ .
k = 2 ( k − 2)! l =0 l !

6.34. За означенням центрального моменту μ3 = M ( ξ − Mξ ) .


3

Використовуючи властивості математичного сподівання і


враховуючи, що Mξ є постійною величиною, отримаємо
(
μ3 = M ξ3 − 3ξ 2 Mξ + 3ξ ( Mξ ) − ( Mξ )
2 3
) = Mξ 3
− 3Mξ 2 Mξ +

+3Mξ ( Mξ ) − M ⎡( Mξ ) ⎤ = Mξ3 − 3Mξ 2 Mξ + 2 ( Mξ ) ;


2 3 3
⎣ ⎦
μ3 = ν 3 − 3ν 2 ν1 + 2ν13 .
6.35. Mξ = −0,3 , Mξ2 = 15,3 ; Dξ = 15, 21 . Середнє квадратич-
не відхилення σ(ξ) = Dξ = 3,9 .
a+b 1 1 a 2 + b2
6.36. Середня величина Mξ = , Mξ 2 = a 2 + b 2 = .
2 2 2 2
2 2
a 2 + b2 ⎛ a + b ⎞ ⎛ b − a ⎞
Звідки Dξ = −⎜ ⎟ ⎜= ⎟ .
2 ⎝ 2 ⎠ ⎝ 2 ⎠

Відповіді до підрозділу 7
7.1. Використовуємо (2.16):
⎛ 1 arcsin( x / 2) ⎞ ⎛ 1 arcsin( x / 2) ⎞ 1
F {−1 < ξ < 1} = ⎜ + ⎟ −⎜ + ⎟ = .
⎝2 π ⎠ x =1 ⎝ 2 π ⎠ x =−1 3

138
7.2. За означенням (2.15):

⎪0, при x ≤ −a та x > a

⎪1
pξ ( x) = Fξ' ( x ) = ⎨ 2 (a + x), при − a ≤ x ≤ 0
⎪a
⎪1
⎪⎩ a 2 (a − x), при 0 ≤ x ≤ a.
1 4
7.3. p ( x) = 0 для −∞ < x ≤ 0 та p( x) = для 0 < x < ∞ .
π 4x2 + 1
7.4. За означенням, густина розподілу має задовольняти
∞ 1
умову ∫ p( x)dx = 1 . Тобто A∫ x − x 2 dx = A ⋅ B ( 3 / 2,3 / 2 ) = 1 .
−∞ 0

Звідки маємо A = 8 / π .

A dx A
7.5. ∫
π 0 1+ x 3
=

B (1 / 3, 2 / 3) = 1 . Тобто A = 3 3 / 2 .

∫ ( x − Mξ ) p ( x ) dx =
2
7.6. Означенням (2.20): Dξ =
−∞
∞ ∞ ∞

∫ x 2 p ( x ) dx − 2Mξ ∫ xp ( x ) dx + ( Mξ ) ∫ p ( x ) dx .
2
=
−∞ −∞ −∞
Оскільки перший інтеграл є моментом 2-го порядку непере-
рвної випадкової величини ξ із густиною розподілу p ( x )
(2.22), другий є означенням математичного сподівання (2.18), а
третій визначається властивістю густини ймовірності, то
Dξ = Mξ 2 − 2 ( Mξ ) + ( Mξ ) = Mξ 2 − ( Mξ ) .
2 2 2

7.7. Див. попередню задачу:


∞ ∞ ∞
μ1 = ∫ ( x − Mξ ) p ( x ) dx = ∫ xp ( x ) dx − Mξ ∫ p ( x ) dx = Mξ − Mξ = 0.
−∞
ξ
−∞ −∞

∞ ∞
7.8. μ′2 = ∫ ( x − c) p( x)dx = ∫ ([ x − Mξ] + [Mξ − c]) p( x)dx =
2 2

−∞ −∞
∞ ∞ ∞

∫ ( x − Mξ ) p( x)dx − 2 ( Mξ − c ) ∫ ( x − Mξ) p( x)dx + ( Mξ − c ) ∫ p( x)dx.


2
= 2

−∞ −∞ −∞

Використавши результати задачі 7.7, отримаємо:


μ 2 = μ 2 + ( Mξ − c ) . Звідки очевидно, що μ 2 буде мати мініма-
2
′ ′

139
льне значення, якщо c = Mξ . Із рівності μ 2 = μ′2 − ( Mξ − c )
2

випливає, що μ 2 = μ′2 при c = Mξ та μ 2 < μ′2 при c ≠ Mξ .


7.9. A = 1 , F ( x) = 1 − e− x при x≥0, Mξ = 1 , Dξ = 1 ,
σ ( ξ ) = ±1 . Мода x = 0 . Медіана: з умови F ( x ) = 1 − e −x
= 1/ 2 ,
me = ln 2 .
∞ ∞
1 2
7.10. Mξ = λ ∫ xe−λx dx = ; Dξ = λ ∫ x 2 e−λx dx = 2 .
0
λ 0 λ
k k
k −1 ⎛x⎞ ⎛x⎞
k x⎛ x ⎞ −⎜ ⎟ −⎜ ⎟ k −1
7.11. F ( x) = ∫ ⎜ ⎟ e ⎝λ⎠
dx = 1 −e ⎝λ⎠
. Мода x = λ ⋅ k .
λ 0 ⎝λ⎠ k
Медіана: з умови F ( x) = 1 / 2 , маємо me = λ k ln 2 . Математичне
k
k ⎛x⎞
∞ ⎛ x ⎞ −⎜⎝ λ ⎟⎠ ⎛ x ⎞ ∞
сподівання: Mξ = k λ ∫ ⎜ ⎟ e d ⎜ ⎟ =λ ∫ t1 k e− t dt = λΓ (1 + 1/ k ) ,
0
⎝λ⎠ ⎝λ⎠ 0

2
⎛λ⎞ ⎡ ⎛2⎞ ⎛ 1 ⎞⎤
Mξ 2 = λ 2 Γ (1 + 2 / k ) , Dξ = ⎜ ⎟ ⎢ 2k Γ ⎜ ⎟ − Γ 2 ⎜ ⎟ ⎥ .
⎝k⎠ ⎣ ⎝k⎠ ⎝ k ⎠⎦
1 θβ+1Γ ( β + 1)
7.12. Mξ =
Γ ( β ) θβ ∫ 0
xβ−1e − x / θ dx =
Γ ( β ) θβ
= βθ ,

Mξ 2 = β ( β + 1) θ2 , Dξ = βθ2 .
Коефіцієнт асиметрії визначаємо за (2.26) As = μ3 σ3 , при цьому
μ3 = Mξ3 − 3Mξ 2 Mξ + 2 ( Mξ ) . Mξ3 = β ( β + 1)( β + 2 ) θ3 ,
3

σ3 = β3 2 θ3 , тобто As = 2 β . Ексцес (2.27) Ek = μ 4 σ4 − 3 :


μ 4 = M ξ 4 − 4M ξ 3 M ξ + 6M ξ 2 ( M ξ ) − 3 ( M ξ ) , σ 4 = β 2 θ 4 ,
2 4

звідки Ek = 6 β .
7.13. Розподіл рівномірний, тобто густина розподілу
p( x) = 1 / 6 ,
8
1
6 ∫2
Mξ = xdx = 5 , Mξ2 = 28 , Dξ = 3 , σξ = 3 .

1
7.14. Густина розподілу діаметра p(ρ) = . Площа кола
b−a
через діаметр f (ρ) = πρ2 / 4 .

140
b
b 2 + ab + a 2
Тоді Mξ = ∫ f (ρ) p (ρ)d ρ = π ;
a 12
b
π2
Dξ = ∫ f 2 (ρ) p(ρ)d ρ − ( Mξ ) = ( b − a ) ( 4b 2 + 7ab + 4a 2 ) .
2 2

a 720
2
b2 + a 2 b7 − a 7 ⎡ b2 + a2 ⎤
7.15. Mξ3 = ( b + a ) , Dξ = − ⎢( b + a ) ⎥ .
4 7 (b − a ) ⎣ 4 ⎦

1 ⎧⎪ ( x − 3)2 ⎫⎪
7.16. p ( x ) = exp ⎨− ⎬.
2 2π ⎩⎪ 8 ⎭⎪

⎧⎪ ( x − 4 )2 ⎫⎪
1
7.17. p ( x ) = exp ⎨− ⎬.
6π ⎪⎩ 6 ⎭⎪
7.18. Mξ = 1 , σ = 5 .
∂F ( x ) 1
7.19. p ( x ) =
2
= e− x /2
.
∂x 2π

4h 3 2
∫υ e
3 − h 2 υ2
7.20. Mυ = dυ = ,
π 0 h π

4h 3 3 3π − 8
∫υ e
4 − h 2 υ2
Mυ 2 = dυ = , Dυ = .
π 0 2h 2 2h 2 π

π
7.21. З умови ∫ p( x)dx = 1
−∞
маємо A = 2h 2 , Mξ =
2h
,

4−π 1 ln 2
Dξ = . Мода x = , медіана a = .
4h 2 h 2 h
∞ 1
1 − (ln x − a )2

∫e
2 2
7.22. Mξ = 2 ba
dx =e a + b 2
, Mξ 2 = e 2 a + 2 b ,
b 2π 0

Dξ = e 2 a + b eb − 1 .
2

( 2

)
1 3 1 3
10 dr 6 dr 2 dr 7
7.23.
π ∫
0 1 + r 2 π 1 ∫3 1 + r 2 π
+ + ∫ 1+ r
1
2
=
3
. Кількість очок,

що вибивається при чотирьох пострілах дорівнює сумі чоти-


28
рьох випадкових величин: M ( ξ1 + ξ2 + ξ3 + ξ 4 ) = .
3

141
7.24. P {a < ξ < b} = Φ ( b σ ) − Φ ( a σ ) ;
b ⎧ b2 ⎫ a ⎧ a2 ⎫
Pσ′ ( x ) = − exp ⎨− 2 ⎬ + 2 exp ⎨− 2 ⎬ = 0 .
σ2 2π ⎩ 2σ ⎭ σ 2π ⎩ 2σ ⎭
b2 − a 2
Тобто максимальне значення σ2 = .
2 ln ( b a )
7.25. P { ξ − μ < ε} = 2Φ ( ε σ ) . Позначимо δ σ = ε .
Звідки P { ξ − μ < εσ} = 2Φ ( ε ) . Поклавши ε = 3 , отримаємо
P { ξ − μ < 15} = 0,9973 , 6σ = 30 мм.
7.26. P {| x − Mξ |< σ} ≈ 0, 68 , P {| x − Mξ |< 2σ} ≈ 0,95 .

Відповіді до підрозділу 8
8.1.
η 1 2 0 –1
p 0,2 0,7 0,1
8.2.
η 0 1
p 0,6 0,4
8.3. Оскільки функція y = x зростаюча та диференційова-
3

на, то застосовна формула pη ( y ) = pξ [ψ( y )] ⋅ ψ ′( y ) , де ψ ( y ) –


обернена функція y = x3 , тобто ψ ( y ) = x = 3 y . Тоді
1 1 1
pξ [ψ ( y )] = = , ψ ′( y ) = 2 3 .
π (1 + ψ( y ) ) π (1 + y )
2 23
3y
1
Знайдемо шукану густину розподілу pη ( y ) = .
3πy 2 3 (1 + y 2 3 )
8.4. Обернена функція для y = x 2 4 на інтервалі ( −∞, ∞ ) не
монотонна. Тому розіб'ємо інтервал на два: ( −∞, 0 ) , де обер-
нена функція x = ψ1 ( y ) = −2 y , і ( 0, ∞ ) , де обернена функція
x = ψ 2 ( y ) = 2 y . Шукану густину розподілу можна знайти із

142
рівності pη ( y ) = pξ [ψ1 ( y )] ⋅ ψ1′ ( y ) + pξ [ψ 2 ( y )] ⋅ ψ ′2 ( y ) . У ре-
2
зультаті отримаємо pη ( y ) = e− 2 y σ2
в інтервалі ( 0, ∞ ) і
σ πy
pη ( y ) = 0 в інтервалі ( −∞, 0 ) .
8.5. Кут α можна розглядати як випадкову величину, роз-
поділену рівномірно на інтервалі ( − π 2, π 2 ) . Тобто густина
розподілу на цьому інтервалі
pξ ( α ) = 1 π . За межами інтервалу
p ( α ) = 0 . Пов'язати між собою ве-
личини y та α можна залежністю
y = 4tg α ( −∞ < y < ∞ ) . Густиною
4
розподілу буде pη ( y ) =
π (16 + y 2 )
на інтервалі ( −∞, ∞ ) .
1
8.6. Густина розподілу pη ( y ) = .
π 1− y2
Оскільки −π 2 < ξ < π 2 , то −1 < η < 1 . Звідки
1 1 2
1 ydy 1 y dy 1
− ( Mη ) = .
π −∫1 1 − y 2
= 0 ; Dη = ∫
2
Mη =
π −1 1 − y 2 2
8.7. χ1 = 4 + 1 = 5 , χ 2 = 4 + 7 = 11 , χ3 = 10 + 1 = 11 ,
χ 4 = 10 + 7 = 17 .
P {χ1 = 5} = 0, 7 ⋅ 0,8 = 0,56 , P {χ 2 = 11} = 0, 7 ⋅ 0, 2 = 0,14 ,
P {χ3 = 11} = 0,3 ⋅ 0,8 = 0, 24 , P {χ 4 = 17} = 0,3 ⋅ 0, 2 = 0, 06 .
У результаті маємо:
χ 5 11 17
p 0,56 0,38 0,06

1 1 −z 4
8.8. pχ ( z ) = − x 2 −( z − x ) 2
2

∫e e
2 2
dx = e .
2π −∞ 2 π
8.9. Оскільки випадкові величини ξ і η незалежні, то сумі-
сний розподіл густини ймовірностей pξη ( x, y ) = pξ ( x ) pη ( y ) ,

143

тобто pχ ( z ) = ∫ p ( x ) p ( z − x ) dx . За умовою задачі
ξ η 0≤ξ≤a
−∞

та 0 ≤ η ≤ a , тоді 0 ≤ χ ≤ 2a , причому густини pξ ( x ) та


pη ( z − x ) відмінні від нуля (дорівнюють 1 a ) на інтервалах
0 ≤ x ≤ a та 0 ≤ z − x ≤ a , відповідно. Це приводить до рівнос-
min{ a , z }

ті pχ ( z ) = ∫ pξ ( x ) pη ( z − x ) dx . У результаті
max{0, z − a}

⎧0, z < 0, z > 2a,



pχ ( z ) = ⎨ z a ,
2
0 < z < a,

⎩( 2a − z ) a , a < z < 2a.
2

8.10. (Див. попередню задачу). За умовою задачі 0 ≤ ξ ≤ 2 та


( −1 ≤ η ≤ 1) , тоді −1 ≤ χ ≤ 3 , причому густини pξ ( x ) та
pη ( z − x ) відмінні від нуля (дорівнюють 1 2 ) на інтервалах
0 ≤ x ≤ 2 та −1 ≤ z − x ≤ 1 , відповідно.
min{2, z +1}

Тоді pχ ( z ) = ∫ pξ ( x ) pη ( z − x ) dx . У результаті
max{0, z −1}

⎧0, z < −1, z > 3,



pχ ( z ) = ⎨(1 + z ) 4, − 1 ≤ z ≤ 1,
⎪ 3 − z 4,
⎩( ) 1 ≤ z ≤ 3.
8.11. Fχ ( z ) = P {χ < z} = P {ξ − η < z} = ∫∫ dxdy pξη ( x, y ) .
x− y<z

Останній інтеграл можна записати як


∞ ∞ ∞ y+z

∫ dx ∫ dy pξη ( x, y ) = ∫ dy ∫ dx pξη ( x, y ) =Fχ ( z ) .


−∞ x− z −∞ −∞
∞ ∞
Звідси pχ ( z ) = Fχ′ ( z ) = ∫ dx pξη ( x, x − z ) = ∫ dx pξη ( x + z , x ) .
−∞ −∞
∞ ∞
e− x
8.12. pχ ( x ) = ∫ dy pξ ( y + x ) pη ( y ) = ∫ e− x − y e − y dy = , коли
0 0
2

ex
0 ≤ x < ∞ , і pχ ( x ) = ∫ dy pξ ( y + x ) pη ( y ) = для від'ємних x .
−x
2

144
−x
e
Загалом pχ ( x ) = для всіх x .
2
∞ ∞
8.13. pχ ( z ) = ∫ dx pξ ( z + x ) pη ( x ) = ∫ dx p ( x ) p ( x − z ) ;
ξ η
−∞ −∞

pξ ( x ) = pη ( x ) = 1 a , якщо 0 < x < a та pξ ( x ) = pη ( x) = 0 , якщо


z+a
1 z+a
x ∉ [ 0, a ] . Тоді pχ ( z ) = ∫ dx = , якщо −a ≤ z < 0 , та
a2 0 a2
a− z
1 a−z
pχ ( z ) = 2 ∫ dx = 2 , якщо 0 ≤ z ≤ a .
a 0 a
8.14. Для незалежних випадкових величин ξ та η
0 ∞
dx ⎛ y⎞ dx ⎛ y⎞
pχ ( y ) = − ∫ pξ ( x ) pη ⎜ ⎟ + ∫ pξ ( x ) pη ⎜ ⎟ .
−∞
x ⎝x⎠ 0 x ⎝x⎠
Для нашого випадку pξ ( x ) = pη ( x) = 1 e , якщо x ∈ [ 0, e] , та
pξ ( x ) = pη ( x) = 0 , якщо x ∉ [ 0, e ] . Тоді
1 ⎛ a2 ⎞
a
1 1
pχ ( y ) = ∫ ⎟ , якщо 0 < y ≤ e .
2
dx = 2 ln ⎜
a2 y a
x a ⎝ y ⎠
2 2

− (1+ z 2 ) − (1+ z 2 )
y 0 y
1 1 1 1
8.15. pχ ( z ) = − ∫ e 2
ydy + ∫ e 2
ydy = –
2π −∞ 2π 0 π 1+ z2
розподіл Коші (у фізиці розподіл Лоренца).
8.16. Густина розподілу суми двох випадкових незалежних

величин pς ( x) = 1 ∫ p ( x − y) p
−∞
ξ η ( x)dy . У нашому випадку
x x
pς1 ( x) = ∫ e− ( x − y ) e − y dy = e− x ∫ dy = xe − x .
0 0

ξ
Густина розподілу ς 2 = визначається таким чином:
η
∞ ∞
1
pς2 ( y ) = ∫ dx x p ( xy, x)dx = ∫ dx x e − x ( y +1) = .
(1 + y )
2
0 0

Величини ξ та η незалежні, тому pξη ( x, y ) = e− x − y . Функція


розподілу Fζ ζ ( x, y ) = P {ξ + η < x, ξ η < y} =
1 2 ∫∫ e − u − v dudv .
u + v< x,
u / v< y

145
Розглянемо область інтегру-
вання u = x − v, u = yv . На рисун-
ку зафарбований трикутник ви-
значає області інтегрування.
Знайдемо точку перетину прямих
x yx
x − v = yv ⇒ v = ⇒u= .
1+ y 1+ y

yx
Таким чином, 0 ≤ u ≤ , u / y ≤ v ≤ x − u і далі
1+ y
yx
1+ y x −u
y (1 − e − x ( x + 1))
Fζ1ζ2 ( x, y ) = ∫
0
e − u du ∫
u/ y
e − v dv =
1+ y
.

Густина розподілу випадкового вектора:


∂2 F ∂ 2 ⎛ y (1 − e − x ( x + 1)) ⎞
pς ς ( x, y ) = = ⎜ ⎟=
1 2
∂x∂y ∂x∂y ⎝ 1+ y ⎠
∂ ⎛ y ⎞ xe − x
= xe − x ⎜ ⎟ = .
∂y ⎝ 1 + y ⎠ (1 + y )2
Порівнюючи отримане з pς ( x) та pς ( x) , бачимо: 1 2

1
pς1ς2 ( x, y ) = xe − x = pς1 ( x) ⋅ pς2 ( y )
(1 + y )
2

(властиво для незалежних величин).


8.17. Для випадкової величини χ = ξ+η справедливо

1 1 1
pχ ( x ) = ∫ 1+ y dy . Використовуючи теорію ли-
π2 1+ ( x − y)
2 2
−∞

шків, або метод невідомих коефіцієнтів для інтегрування раціо-


2 1
нальних виразів, отримаємо pχ ( x ) = – розподіл Коші.
π x2 + 4
8.18. Сталі A , B знаходимо з умови нормування
∞ ∞
1 = A∫ dx x α e −βx = B ∫ dx x γ e −βx , звідки випливає
0 0

βα+1 β γ +1
A= , B= .
Γ ( α + 1) Γ ( γ + 1)

146

βα+λ+ 2
χ = ξ + η : pχ ( x ) = × ∫ ( x − z ) e −β( x − z ) z γ e −βz dz =
α

Γ ( α + 1) Γ ( γ + 1) −∞
x α+ γ +1βα+ γ + 2 e−βx
= Β ( α + 1, γ + 1) .
Γ ( α + 1) Γ ( γ + 1)
8.19. D ( ξ η) = M ( ξ η) − ( Mξ η) . За умовою задачі ξ та η
2 2

незалежні. Випадкові величини, які є функціями від незале-


жних випадкових величин, також незалежні. Тому справед-
лива рівність D ( ξ η) = Mξ 2 Mη2 − ( Mξ ) ( Mη) . Відомо, що
2 2

Mξ2 = Dξ + ( Mξ ) . Підставивши це в попередній вираз, отри-


2

маємо D ( ξ η) = DξDη + Dξ ( Mη) + Dη ( Mξ ) . Очевидно, що


2 2

умова D ( ξη) = DξDη може бути реалізована у випадку, коли


M ξ = Mη = 0 .
1 1 b+a c+d
8.20. Pξ = Pη = , Mξ = , Mη = ,
b−a d −c 2 2
b 2 + ab + b 2 c 2 + cd + d 2
Mξ 2 = , Mη2 = .
3 3
Оскільки D ( ξ η) = Mξ 2 Mη2 − ( Mξ ) ( Mη) , то
2 2

D ( ξ η) =
(a 2
+ ab + b 2 )( c 2 + cd + d 2 )

(a + b) (c + d )
2 2

.
9 16
8.21. а) закони розподілу ξ та η :
ξ 1 2 3 η 0,4 0,8
p 0,2 0,42 0,38 p 0,8 0,2
б) знайдемо умовні ймовірності можливих значень ξ за умо-
ви, що складова η : y1 = 0, 4 :
p ( x1 | y1 ) = p ( x1 , y1 ) p ( y1 ) = 0,15 0,8 = 3 16 ,
p ( x2 | y1 ) = 0,3 0,8 = 3 8 , p ( x3 | y1 ) = 0,35 0,8 = 7 16 .
Запишемо умовний закон розподілу ξ та η :
ξ 1 2 3 η 0,4 0,8
p ( ξ | y1 ) 3/16 3/8 7/16 p ( y | x2 ) 5/7 2/7

147
( )
2π a
8.22. а) 1 = ∫∫ A a − x 2 + y 2 dxdy =A ∫ d ϕ∫ r ( a − r ) dr . Звідки
D 0 0

маємо A =
3
πa 3
; б) якщо a = 2 , то pξη ( x, y ) =

3
2 − x2 + y2 . ( )
Імовірність того, що випадкова величина ( ξ, η) опиниться в
колі радіуса R = 1 із центром у початку координат (область
2π 1
3 1
D1 ), P {( ξ, η) ⊂ D1 } = ∫∫ pξη ( x, y )dxdy = ∫ d ϕ∫ ( 2 − r ) rdr = .
D1
8π 0 0
2
8.23. Знайдемо густину розподілу складових

pξ ( x ) = 4 xe − x ∫ ye ( x > 0) , pη ( x ) = 2 ye− y ( y > 0 ) .
2
− y2 2
dy = 2 xe − x
0
Математичне сподівання складової ξ :

( )
Mξ = ∫ x 2 xe− x dx = π / 2 , Mη = π / 2 . Знайдемо дисперсію
0
2

∞ ∞
Dξ = ∫ x 2 pξ ( x ) dx − ( Mξ ) = ∫ x 2 2 xe− x dx − π 4 .
0
2

0
( 2

)
У результаті отримаємо
Dξ = Dη = 1 − π 4 .
8.24. а) C = 3 π .

3 3 −3 y 2
б) pξ ( x ) = ∫ p ( x, y )dy = 2 e −0,75 x , pη ( x ) =
2

ξη e ,
−∞ π π
pξη ( x, y ) 1
в) pξ ( x | y ) = −( x + y )
2
= e ,
pη ( y ) π
pξη ( x, y ) 2
pη ( y | x ) = e −0,25( x + 4 y ) .
2
=
pξ ( x ) π
( x − a )2 + ( y − b ) 2
1 −
8.25. Густина розподілу ( ξ, η) : pξη ( x, y ) = e 2 σ2
,
2πσ2
тобто шукана випадкова величина χ = ( ξ − a ) + ( η − b ) .
2 2

Функція розподілу
( u − a )2 + ( υ− b )2
1 −
Fχ ( x ) = P {χ < x} = ∫∫ e 2 σ2
dud υ .
2πσ 2 ( u − a ) + ( υ− b )
2 2
<x 2

148
Переходимо до полярних координат u − a = r cos ϕ ,
2π x r2 x2
1 − −
υ − b = r sin ϕ . Тоді Fχ ( x ) = ∫ d ϕ∫ dr r e 2 σ2
= 1− e 2 σ2
. Гу-
2πσ 2 0 0
x2
x − 2 σ2
стина розподілу pχ ( x ) =e (розподіл Релея).
σ2
8.26. Використаємо результати попередньої задачі
R2 R2
− −
1− e 2 σ2
= 0,997 , тобто e 2 σ2
= 0, 003 , тобто R ≅ 3, 4σ .
2π a
1 2
8.27. Mρ = ∫∫ x 2 + y 2 pξη ( x, y ) dxdy = ∫ d ϕ∫ r dr = 3a ,
2

G πa 2 0 0

Mρ2 = a 2 2 , Dρ2 = a 2 18 .
8.28. Розподіл випадкової величини χ можна представити так:
χ –1 0 1 2 3
p 0,1 0,2 0,2 0,3 0,2
Перевіряємо p =0,1+0,2+0,2+0,3+0,2=1 . Для математичного
сподівання маємо Mχ = − 1 ⋅ 0,1+0 ⋅ 0,2+1 ⋅ 0,2+2 ⋅ 0,3+3 ⋅ 0,2=1,3 ;
Mχ 2 =1 ⋅ 0,1+0 ⋅ 0,2+1 ⋅ 0,2+4 ⋅ 0,3+9 ⋅ 0,2=3,3 ; Dχ = 1, 61 .
8.29.
ξ 1 0 η–1 0 1
p 0,55 0,45 p
0,25 0,4 0,35
Mξ = 0,55 , Mξ 2 = 0,55 Dξ = 0, 2475 .
Mη = 0,1 Mη2 = 0, 6 Dη = 0,59 .
Dη = 0,59 . M ⎡⎣( ξ − Mξ )( η − Mη) ⎤⎦ = −0, 055 , rξη ≈ −0,144 .
8.30. Нехай випадкова величина ξ набуває значення 1 , якщо
подія A відбулась, та 0 , якщо не відбулась ( A ). Аналогічно,
випадкова величина η дорівнює 1 , якщо відбулась подія B
та 0 у протилежному випадку ( B ). Побудуємо кореляційну
матрицю: Mξ = 1 ⋅ P( A) + 0 ⋅ P( A) = 1⋅ p + 0 ⋅ q = p , Mη = p ;
M ( ξ η) = 1 ⋅1 ⋅ P ( A ∩ B ) + 1 ⋅ 0 ⋅ P ( A ∩ B ) + 0 ⋅1 ⋅ P ( A ∩ B ) +
+0 ⋅ 0 ⋅ P ( A ∩ B ) = P ( A ∩ B ) .
Таким чином, cov ( ξ, η) = M ( ξ η) − MξMη = P ( A ∩ B ) − p 2 . З
іншого боку, P ( A ∩ B ) = P ( B ) P ( A | B ) . Dξ = Dη = p − p 2 = pq .

149
Знайдемо коефіцієнт кореляції
P ( B ) P ( A | B ) − p 2 pP ( A | B ) − p 2 P ( A | B ) − p
r ( ξ, η) = = = .
pq pq pq
Звідки отримаємо P ( A | B ) = rq + p .
1
8.31. Mξ = 0 , Dξ = ,
3
⎧ 1
1
1
⎪ , m = 2k
Mη = ∫ x m dx = ⎨ m + 1 ,
2 −1 ⎪⎩0, m = 2k + 1
⎧ 1 1
⎪ 2m + 1 − , m = 2k
( m + 1)
2
1 ⎪
Mη =2
, Dη = ⎨ ,
2m + 1 ⎪ 1
⎪⎩ 2m + 1 , m = 2k + 1

⎧0, m = 2k

M ( ξη) = ⎨ 1 ,
⎪⎩ m + 2 , m = 2k + 1

⎧0, m = 2k

r ( ξ, η) = ⎨ 3 ( 2m + 1) .
⎪ , m = 2k + 1
⎩ ( m + 2)
6
Асимптотичне значення rξη → для непарних m ; rξη → 0 ,
m
коли m → ∞ .
8.32. p ( x1 ) = 0,15 + 0, 3 = 0, 45 . Знайдемо умовний розподіл
імовірностей величини η при ξ = x1 = 1 :
p ( y1 | x1 ) = p ( x1 , y1 ) p ( x1 ) = 0,15 / 0, 45 = 1 3 ,
p ( y2 | x1 ) = p ( x1 , y1 ) p ( x1 ) = 0,3 / 0, 45 = 2 3 .
Знайдемо умовне математичне сподівання за формулою
2
M ( η | ξ = x1 ) = ∑ yk p ( yk | x1 ) = 3 ⋅ (1 3) + 6 ⋅ ( 2 3) = 5 .
k =1

150
Відповіді до підрозділу 9
n n
f ξ ( t ) = ∑ eikt Cnk p k q n − k = ∑ Cnk ( peit ) q n − k = ( peit + q ) .
k n
9.1.
k =0 k =0
∞ ∞
p
f ξ ( t ) = ∑ e q p = ∑ ( qeit ) p =
ikt k k
9.2. .
k =0 k =0 1 − qeit
∞ ∞
( n + k − 1)! it k
9.3. f ξ ( t ) = ∑ eikt Cnk+ k −1 q k p n = ∑ ( qe ) pn =
k =0 k = 0 k !( n − 1) !

⎛ n ( n + 1) n ( n + 1)( n + 2 ) ⎞
= p n ⎜1 + n ( qeit ) + ( qe it 2
) + ( qe )it 3
+ ⎟.
⎝ 2! 3! ⎠
n
⎛ p ⎞
Тобто f ξ ( t ) = ⎜ it ⎟
.
⎝ 1 − qe ⎠
λ k −λ ∞ ( λe ) −λ
it k

9.4. fξ ( t ) = ∑ e e =∑ e = exp ( λeit − λ ) .
ikt

k =0 k ! k =0 k !

a 1
9.5. f ξ ( t ) = ∫ eitx ae − ax dx = = .
0 a − it 1 − it a
λβ

λβ Γ (β ) 1
9.6. fξ ( t ) = ∫ eitx xβ−1e−λx dx = = .
Γ (β ) 0 Γ ( β ) ( λ − it )β (1 − it λ )β
∞ ( x −μ )2 σ2 t 2
1 − − + iμt
9.7. fξ ( t ) = ∫e
itx
e 2 σ2
dx = e 2
.
σ 2π −∞
∞ x2 t2
1 − −
9.8. fξ (t ) = ∫e e
itx 2
dx = e 2
.
2π −∞
9.9. Для характеристичної функції випадкової величини η маємо
x
∞ ∞ −
1 e 2
fη ( t ) = ∫e
itx
pη ( x ) dx = ∫e
itx
dx (див. задачу 8.4).
−∞ 2π 0 x
x
∞ − ∞
1 e 2
1 1 e− y 1
∫e dx = ∫ dy =
itx
.
2π 0 x 2π 1 2 − it 0 y 1 − 2it
⎧ 1
⎪ , a< x<b
9.10. Густина рівномірного розподілу pξ ( x ) = ⎨ b − a ,
⎪0,
⎩ x ∉ [ a , b ]

151
⎛ b−a⎞
b sin ⎜ t ⎟ a +b
1 ⎝ 2 ⎠ eit 2 .
fξ (t ) = ∫ eitx dx =
b−a a b−a
t
2
Для випадку рівномірного розподілу в інтервалі ( − a, a )
sin ( at )
fξ (t ) = .
at
∞ itx ∞
1 e 2 cos tx
9.11. f ξ ( t ) = ∫ dx = ∫ dx . Диференціюємо цю
π −∞ 1 + x 2 π 0 1 + x2

4 cos tx
tf ξ′ ( t ) − f ξ ( t ) = −
π ∫0 (1 + x 2 )2
рівність за параметром t: dx

( t ≠ 0 ) . Після другого диференціювання матимемо


tf ξ′′( t ) = tf ξ ( t ) . Тобто маємо диференціальне рівняння
y ′′ − y = 0 . Його розв'язок y = C1et + C2 e − t . Зазначимо:
1) f ξ ( 0 ) = 1 ; 2) f ξ ( t ) – парна функція; 3) при t → ∞ f ξ ( t ) → 0 .
Звідки знаходимо, що при t > 0 c1 = 0 , c2 = 1 . Таким чином,
fξ (t ) = e
−t
. Ще один метод:
∞ ∞
1 eitx 1 eitx
fξ (t ) = ∫ 1 + x2 dx = ∫ ( x + i)( x − i) dx .
π −∞ π −∞
Якщо t > 0 , то використовуємо полюс x = i , якщо t < 0 , то
використовуємо x = −i . В обох випадках метод лишків дає
1 eit ⋅( ± i )
f ξ ( t ) = ± 2πi
−t
=e .
π ( ±i ) ± i

9.12. f χ ( t ) = f ξ+η ( t ) = f ξ ( t ) f η ( t ) =
= exp ⎡⎣ λ1 ( eit − 1) ⎤⎦ ⋅ exp ⎡⎣λ 2 ( eit − 1) ⎤⎦ = exp ⎡⎣( λ1 + λ 2 ) ( eit − 1) ⎤⎦ . Це
вказує на те, що χ розподілена за законом Пуассона з пара-
( λ1 + λ 2 )
k

метром λ = λ1 + λ 2 : pχ ( k ) = e
− ( λ1 +λ 2 )
.
k!
9.13. Γ ( β1 + β2 , λ ) .

152
9.14. f χ ( t ) = f ξ+η ( t ) = f ξ ( t ) f η ( t ) = exp ⎪⎨− (
⎧ σ1 + σ 2 ) t 2 ⎫⎪
2

+ i ( μ1 + μ 2 ) t ⎬
⎪⎩ 2 ⎭⎪
Звідки випливає χ ∈ N ( μ1 + μ 2 , σ12 + σ22 ) , тобто
⎧⎪ ( x − μ − μ )2 ⎫⎪
1
pχ ( x ) = exp ⎨− 1 2

⎩⎪ 2 ( σ1 + σ 2 ) ⎭⎪
2 2
2π σ1 + σ 2
2 2

9.15. Розподіл випадкової величини ξ збігається з гамма-


⎛n 1⎞ β
розподілом Γ ⎜ , ⎟ . Для гамма-розподілу Γ ( β, λ ) . Mξ = ,
⎝2 2⎠ λ
β 1
Dξ = 2 , f t ( t ) = . У випадку розподілу Пірсона
(1 − it λ )
β
λ
1
Mξ = n , Dξ = 2n , f ξ ( t ) = .
( )
n
1 − 2it
z
9.16. Fξ ( z ) = P {ξ 2 < z} =
2
∫ pξ ( x ) dx = ∫ pξ ( x ) dx , z > 0 ,
x2 < z − z

pξ2 ( z ) = Fξ′2 =
1 ⎡
2 z⎣
pξ ( z ) + p ( − z )⎤⎦ =
ξ
1
2π z
⎛ z⎞
exp ⎜ − ⎟ .
⎝ 2⎠
n
⎡∞ e− x 2 ⎤
Звідки маємо f χ2 ( t ) = f ξ2 ( t ) ⋅… ⋅ f ξ2 ( t ) = ⎢ ∫ eitx dx ⎥ ,
n 1 n
⎣0 x 2π ⎦
n
⎡ 1 2π ⎤
f χ2 ( t ) = ⎢ ⎥ = (1 − 2it )
−n 2
й отримаємо
⎣ 2π 1 − 2it ⎦
n


1 x n 2 −1e − x 2
pχ2 ( x ) = e − itx (1 − 2it ) dt = n 2
−n 2
n ∫
2π −∞ 2 Γ ( n 2)
.

9.17. Розглянемо послідовність незалежних випадкових вели-


чин {ξn } , розподілених за законом Пуассона з параметром 1:
n
P {ξ n = l} = e −1 l ! . Н ηn = ∑ ξl , Mξ n = 1 , Dξ n = 1 :
l =1

x
⎧ 1 ⎫ ⎧ 1 n ⎫ 1
( ηn − M η n ) < ∑ ( ξl − 1) < ∫
2
P⎨ x⎬ = P ⎨ x⎬ ≅ e− z 2 dz ,
⎩ n ⎭ ⎩ n l =1 ⎭ 2π −∞

153
n
ηn = ∑ ξl – розподілена за законом Пуассона з параметром
l =1

n : P {ξ n = l} = el l ! . Тоді
⎧⎪ η − M ηn ⎫⎪
nl
( )
n n
e− n ∑ = ∑ P {ηn = l} = P ⎨− n ≤ n ≤ 0⎬ → Φ ( 0 ) − Φ − n П
l =0 l ! l =0 ⎪⎩ Dηn ⎪⎭
ри n → ∞ прямує до 1 2 .
9.18. Mξk = 0 , Dξ k = k λ . Нехай δ > 0 , α k ,2 +δ = Mξ k 2 +δ = k λ (1+δ) .
Побудуємо дріб Ляпунова
λ +δλ +1
n n
⎛ 1⎞
∑ α k ,2+δ ∑ k λ(1+δ) ( n + 1)
λ +δλ +1 ⎜1 + ⎟
= C ⎝ δ 2(⎠1−λ )
n
Ln = k =1
= k =1
<C .
n(
1+δ 2 1+δ 2 λ+1)(1+δ 2 )
⎛ n
⎞ ⎛ n
λ ⎞
n
⎜ ∑ Dξ k ⎟ ⎜∑k ⎟
⎝ k =1 ⎠ ⎝ k =1 ⎠
Звідки зрозуміло, що при n → ∞ ( C = const ) Ln → 0 . Це
означає, що теорема Ляпунова застосовна.
9.19. Характеристична функція випадкової величини ξ дорі-
внює f ξ ( t ) = exp ( λeit − λ ) та f η ( t ) = e − i
λ
λ t λeit −λ
e .
Розкладаючи в ряд після логарифмування (див. наступну за-
дачу), бачимо, що функція розподілу η зводиться по всій осі
до нормального закону: f η ( t ) → e −t 2 .
2

9.20. ХФ випадкової величини ξ має вигляд f ξ ( t ) = (1 − it β ) .


−β

e−i βt ⎛ it ⎞
Тоді f η ( t ) = ; ln ⎡⎣ f η ( t )⎤⎦ = −i β t − β ln ⎜ 1 − ⎟ . Тут
⎜ β ⎟⎠
(1 − it )
β
β ⎝
розглядаємо ту гілку ln , яка при t = 0 обертається на нуль.
Нехай t лежить у скінченному інтервалі ( − N , N ) , де N –
довільне. Вважаючи β > N 2 ( β → ∞ ) , розкладаємо логарифм
у степеневий ряд:
⎛ it t2 it 2 ⎞ t2 ⎛ 1 ⎞
ln ⎡⎣ f n ( t ) ⎤⎦ = −i β t − β ⎜ − + + − …⎟ = − + O ⎜ ⎟⎟ ,
⎜ β 2β 3β β ⎟ ⎜
⎝ ⎠ 2 ⎝ β⎠
тобто при n → ∞ ln ⎡⎣ f n ( t ) ⎤⎦ → − t 2 2 .
Звідки зрозуміло f η ( t ) → e−t 2 .
2

154
Відповіді до підрозділу 10
10.1. Варіаційний ряд –2, –1, –1, 0, 0, 1, 1, 1, 1, 2 включає
п'ять різних значень: –2, –1, 0, 1, 2. Відповідно, їхні частоти
дорівнюють 0,1; 0,2; 0,2; 0,4; 0,1. Будуючи гістограму
(рис. ліворуч) і функцію розподілу вибірки (рис. праворуч),
за інтервал l візьмемо одиницю. Отримаємо такі ламані:

x = 0, 2 , тому вибіркова середня кількість хибних вимірю-


вань у цій партії n = (2 + 0, 2) ⋅10 = 22 , s 2 = 1,52 .
10.2. Шукана незміщена оцінка дорівнює виправленій ди-
сперсії
n 41
s2 = D= ⋅ 3 = 3, 075 .
n −1 40
10.3. а) знайдемо вибіркову середню: x = 100 ; б) знайдемо
∑(x − x)
2
i
вибіркову дисперсію D= = 34 . Знайдемо виправ-
n
n
лену дисперсію s 2 = D = 42,5 .
n −1
10.4. 1213,6–1226,4 год.
10.5. Метод моментів. Прирівняємо початковий теоретич-
ний момент (математичне сподівання) і початковий емпірич-
ний момент першого порядку (вибіркове середнє): Mξ = x .
Для показникового розподілу правильно Mξ = 1 λ = x . Тобто
точкова оцінка параметра λ : λ* = 1 x
Метод найбільшої правдоподібності. Складаємо функцію
правдоподібності
n
−λ ∑ xi
L = ( λe −λx1
)( λe ) ⋅… ⋅ ( λe ) = λ e
−λx2 −λxn n i =1
.

155
n
Тоді ln L = n ln λ − λ ∑ xi . Знайдемо першу похідну
i =1

∂ ln L n n
= − ∑ xi . Прирівнюємо отриманий вираз до нуля
∂λ λ i =1
n n 1 1
− ∑ xi = 0 . Звідки λ = = . Знайдемо другу похід-
λ i =1 ( ∑ xi ) n x
∂ 2 ln L n
ну = − 2 . Бачимо, що при λ* = 1 x друга похідна від'є-
∂λ 2
λ
мна, тобто ця точка є точкою максимуму, тобто за оцінку най-
більшої правдоподібності треба обирати величину λ* = 1 x .
10.6. Для пошуку двох невідомих параметрів необхідно
сформувати два рівняння: перше рівняння Mξ = x , друге рі-
вняння Dξ = D (рівність центрального теоретичного та емпі-
ричного моментів другого порядку). Визначивши математи-
чне сподівання та дисперсію гамма-розподілу, отримаємо си-
стему рівнянь:
⎧⎪(1 + α ) β = x
⎨ .
⎪⎩(1 + α ) β = D
2

Розв'язуючи систему, отримаємо α* = x 2 D − 1 , β* = D x .


10.7. Система a + b = 2 x , ( b − a ) = 12 D . Звідки маємо
2

a* = x − 3D та b* = x + 3D , тобто a* = 2, 24 , b* = 22,38 .
n + n2 − ( m1 + m2 )
10.8. L ( m1 , m2 | p ) = Cnm11 Cnm22 p m1 + m2 (1 − p ) 1 ;
ln L = ln Cnm11 + ln Cnm22 + ( m1 + m2 ) ln p + ( n1 + n2 − m1 − m2 ) ln (1 − p ) ;
∂ ln L m1 + m2 n1 + n2 − m1 − m2 m + m2
= − = 0 , тобто p = 1 .
∂p p 1− p n1 + n2
10.9. За методом моментів, порівнюючи вибіркове середнє та
1 n
математичне сподівання, знайдемо λ = ∑ xi , тобто оцінка λ
n i =1
є x . Те саме отримаємо за методом максимальної правдоподі-
⎛ λ x e −λ ⎞
i

бності: L ( x1 , x2 ,… , xn | λ ) = ∏ ⎜ ⎟ , ( xi – цілі числа):


i ⎝ xi ! ⎠

156
∂ ln L ∂ n n⎛1 n ⎞
∂λ
= ∑
∂λ i =1
( xi ln λ − λ − ln xi !) = ⎜ ∑ xi − λ ⎟ , тобто λ = x .
λ ⎝ n i =1 ⎠
n
1
10.10. а) x = ∑ xi ; оскільки xi – незалежні та розподілені за
n i =1
законом Коші (який є стійким), то x розподілене за тим са-
мим законом. Тому x має нескінченну дисперсію і не збіга-
ється за ймовірністю до m , оскільки розподіл різниці x − μ
не залежить від n ;
⎛ ∂ ln pξ ( m ) ⎞ ( x − m ) dx 1
2 2

4
б) маємо M ⎜⎜ ⎟⎟ = ∫ = ,
⎝ ∂m ⎠ π −∞ ⎡1 + ( x − m )2 ⎤ 3 2
⎣ ⎦
тобто нижня границя дисперсій незміщених оцінок для m
1 2 2
дорівнюватиме = , тоді із < 0, 01
⎛ ∂ ln p ( ξ ) ⎞
2
n n
nM ⎜ ⎟
⎝ ∂m ⎠
знаходимо n > 200 .
10.11. Відповідно до формули (3.9):
n n

( ) i =1
( )
L x, θ = ∏ P xi , θ =∏ Cmxi p xi (1 − p )
i =1
m − xi
.

Тоді
( )=
∂ ln L ξ, p ∂ n
∂p
∑ ⎡ln Cmxi + xi ln p + (m − xi ) ln(1 − p) ⎤⎦ =
∂p i =1 ⎣
n
⎡ x m − xi ⎤ 1 ⎛ n ⎞ mn ⎛ 1 n ⎞
= ∑⎢ i − ⎥= ⎜ ∑ xi − nmp ⎟ = ⎜ ∑ xi − p ⎟ .
i =1 ⎣ p 1 − p ⎦ p (1 − p ) ⎝ i =1 ⎠ p (1 − p ) ⎝ mn i =1 ⎠

1 n
Оцінкою p є величина x = ∑ xi , M x = p , тобто оцінка не
mn i =1
p(1 − p )
зміщена. Нижньою границею дисперсій буде σ12 = ,
mn
що безпосередньо перевіряється:
1 n nmp (1 − p ) p(1 − p)
D x = 2 2 ∑ Dxi = = ,
m n i =1 m2 n2 mn
тобто x є ефективною оцінкою.

157
α nr
10.12. L ( x1 ,… , xn | α ) = ( x1 x2 … xn ) e−α( x1 + x2 +…+ xn ) ,
r −1

Γ(r )
∂ ln L nr
= − ( x1 + … + xn ) = 0 ,
∂α α
nr
тобто оцінка α = ;
x1 + … + xn
б) закон Пірсона є стійким, тобто для випадкової величини
α nr x nr −1α −αx
y = x1 + x2 + … + xn буде p y ( x ) = x > 0.
Γ ( nr )
nr
Тоді α = ;
y
∞ ∞
1 nr α nr αnr α
Mα = nr ∫ p y ( x ) dx = ∫ x nr − 2 e −αx dx = =α+ ,
0 x Γ ( nr ) 0 nr − 1 nr − 1
α
тобто α має зміщення ;
nr − 1
α nr − 1 nr − 1 nr − 1
в) α1 = α − = α= = ; Mα1 = α ,
nr nr x1 + … + xn y
1 ( nr − 1) α α 2 ( nr − 1)
nr 2 ∞
Mα12 = ( nr − 1) M ∫ x e dx =
2 nr − 3 −αx
= ,
y2 Γ ( nr ) 0 nr − 2
α 2 ( nr − 1) α2
тоді Dα1 = − α2 = .
nr − 2 nr − 2
Нижня границя дисперсій незміщених оцінок параметра α
дорівнює
−1 −1 1 α2
σ12 = = = = ,
⎛ ∂ ln p ( ξ ) ⎞
2
⎛ ∂ ⎛ nr ⎞ ⎞ nM ⎛ nr ⎞ nr
nM ⎜⎜ ⎟⎟ nM ⎜ ∂α ⎜ α − x ⎟ ⎟ ⎜ 2⎟
⎝ ∂α
2
⎠ ⎝ ⎝ ⎠⎠ ⎝α ⎠
тобто Dα1 > σ1 . Це означає, що оцінки α1 та α не ефективні,
а асимптотично ефективні, оскільки на нескінченності вони
α2 α2
асимптотично збігаються ∼ при n → ∞ .
nr − 2 nr
10.13. Обчислимо перші два початкові моменти розподілу ξ :
λ1 + λ 2
ν1 = Mξ = ;
2

158
λ1 + λ 2 λ12 λ 2 2 λ 2 + λ 22
ν 2 = Mξ 2 = + + = ν1 + 1 .
2 2 2 2
Звідки отримаємо λ1 = ν1 − ν 2 − ν1 − ν12 ,
λ 2 = ν1 + ν 2 − ν1 − ν12 . Знайдемо вибіркові значення цих двох
1 10 1 10 2
моментів: a1 = ∑
327 k = 0
knk = 2,8379 , a2 = ∑ k nk = 11, 425 .
327 k = 0
Покладемо ν1 = a1 , ν 2 = a2 , знаходимо λ1 ≅ 2,11 , λ 2 ≅ 3,57 .
εσ εσ
10.14. Використаємо рівняння (3.4): x − <μ< x+, усі
n n
величини, окрім ε , відомі. Використаємо (3.3), звідки отри-
маємо Φ ( ε ) = 0,95 / 2 = 0, 475 . За таблицями для функції Φ ( ε )
знайдемо ε = 1,96 . Звідки отримаємо довірчий інтервал
(12, 04; 15,96 ) .
10.15. Довірчий інтервал 1964,94 < a < 2035, 06 .
εσ εσ
10.16. Використаємо нерівність x − <a<x+ . З умови
n n
2Φ ( ε ) = 1 − α = 0,975 отримаємо Φ ( ε ) = 0, 4875 , тобто (із таб-
εσ ε 2 σ2
лиць) ε = 2, 24 , тоді a − x < . Звідки маємо n = 2
.
n x −a
Оцінка a − x = 0,3 відома. У результаті отримаємо n = 81 .
10.17. Істинне значення математичного сподівання μ можна
⎛ εs εs ⎞
задати інтервалом ⎜ x − , x+ ⎟ , де ε знаходять за таб-
⎝ n n⎠
лицями розподілу Стьюдента для 1 − α = 0,99 та n = 9 . Звідки
ε = 3,355 , тобто 23,81 < μ < 36,39
10.18. Використовуючи інтервальну оцінку дисперсії σ 2 :
⎛ 1 n 1 n 2 ⎞
∑ ( xi − x ) < σ 2 < ∑ ( xi − x ) ⎟⎟ = 1 − α
2
P⎜
⎜ ε 2 i =1 ε1 i =1
⎝ ⎠
і визначивши за таблицями χ 2 -розподілу ε1 та ε 2 для
1 − α = 0,95 та n = 16 , запишемо інтервал 0,56 < σ < 1, 44 .
10.19. 0, 28 < σ < 1,32 .

159
10.20. Знайдемо частоту появи події w = 0, 6 . Знайдемо
Φ ( ε ) = 0,99 / 2 = 0, 495 . За таблицями знайдемо ε = 2,57 . Вико-
ристаємо розв'язки для p1 та p2 . Підставляючи в ці вирази всі
наші дані, отримаємо, що довірчий інтервал 0, 47 < p < 0, 71 .
10.21. Відносна частота w = m n = 0, 0125 . Φ ( ε ) = 0, 4995 , зві-
дки ε = 3,3 . Урахувавши те, що n = 400 велике, використає-
мо для пошуку границь довірчого інтервалу наближення фо-
рмул (3.8): p1 = w − ε та p2 = w + ε . Таким чином, шуканий
довірчий інтервал 0 < p < 0, 0308 .
10.22. Позначимо кількість випадінь герба через m1 , а кіль-
кість випадінь решітки – m2 . Обчислимо величину
( m1 − np ) ( m2 − nq )
2 2

χ2 = + = 0, 776 .
np nq
Кількість ступенів свободи розподілу χ 2 у цьому випадку
r − 1 = 1 . За таблицею знаходимо для α = 0, 05 (5 %-й рівень
значущості) χα2 = 3,841 . Оскільки число, яке отримано під час
спостережень χ 2 = 0, 776 , є значно меншим, то висунуту гіпо-
тезу можна приймати з імовірністю 0,95. За таблицями розпо-
ділу Пірсона знаходимо P {χ 2 ≥ 0, 776} ≈ 0,38 . Це означає, що
при багаторазовому повторенні таких експериментів приблиз-
но в 38 % випадках очікується не менше одного відхилення.
10.23. x = 3,87 ; χ 2 = 12,885 . 5 %-не відхилення розподілу χ 2
з 10-ма ступенями свободи χ 2 0,05
= 18,307 . Гіпотеза узгоджу-
ється з експериментальними даними. Оскільки
P {χ 2 ≥ 12,885} ≅ 0, 25 , то приблизно у чверті випадків можна
сподіватись на таке відхилення.
10.24. x = 11,911 ; χ 2 = 4, 006 ; 5 %-не відхилення розподілу
χ 2 з 10-ма ступенями свободи χ 2 = 18,307 . Оскільки χ 2 ,
0,05

знайдене за вибіркою, менше 5 %-го довірчого інтервалу, то


з надійністю 0,95 гіпотеза приймається. Узгодження насті-
льки вдале, що у 90 % усіх випадків необхідно очікувати
більших відхилень.

160
10.25. Складемо таблицю:
xi yi xi − x yi − y ( xi − x )( yi − y )
–3 0 –3 –1,6 4,8
2 4 2 2,6 5,2
–2 2 –2 0,4 –0,8
–6 –6 –6 –7,6 45,6
9 8 9 6,4 57,6
∑ ix = 0 ∑ i
y = 8 ∑ = 112, 4
x =0 y = 1, 6
n

∑(x − x ) = 9 + 4 + 4 + 36 + 81 = 134 ;
2
i
i =1
n

∑( y − y ) = 2,56 + 6, 76 + 0,16 + 57, 76 + 40,96 = 108, 2 .


2
i
i =1
Таким чином, коефіцієнт кореляції
n

∑ ( x − x )( y
i i − y)
112, 4
r ( ξ, η) = i =1
= ≈ 0,933 .
n n
134 ⋅108, 2
∑( x − x ) ∑( y − y)
2 2
i i
i =1 i =1

Знайдемо коефіцієнт регресії


s y cov ( ξ, η ) 112, 4
L = r ( ξ, η) = = ≈ 0,839 .
sx sx2 134
Вибіркове рівняння лінійної регресії x = 0,839 ⋅ ( y − 1, 6 )
y = 1,192 x + 1, 6 . Позначивши z = y − 1,192 x − 1, 6 , обчислимо
n

∑(z −z) .
2
sz = i
i =1

Оскільки коефіці-
єнт кореляції бли-
зький до одиниці
r ( ξ, η ) ≈ 0, 933 , а
середнє квадратич-
не відхилення не-
лінійної складової,
що пов'язує x і y ,
невелике sz = 1, 415 , то залежність можна вважати лінійною.

161
ДОДАТКИ
Додаток 1

Допоміжні формули

Комбінаторні властивості:
1. Cnk = Cnn − k ,
2. Cnk −1 + Cnk = Cnk+1 ,
n n
3. ∑C
k =0
k
n = 2n , ◄ (1 + 1) n = ∑ Cnk = 2n ►
k =0
n n
4. ∑ (−1) C
k =0
k k
n =0, ◄ (1 − 1) n = ∑ (−1) n Cnk = 0 ►
k =0
n
5. ∑ (C
k =0
) = C2nn .
k 2
n ◄ (1 − x) 2 n = (1 − x) n (1 − x) n
n n n n n
⇒ ∑ C2kn x k = ∑ Cni xi ∑ Cnj x j = ∑∑ Cni Cnj xi + j . Якщо ввести
k =0 i =0 j =0 i =0 j =0
n n n +i
заміну i + j = k , то отримаємо ∑ C2kn x k = ∑∑ Cni Cnk −i x k . Збира-
k =0 i =0 k =i

ючи коефіцієнти при однакових степенях x , як для даного при-


n
кладу при x n , отримаємо C2nn = ∑ Cni Cnn −i . Якщо застосувати
i =0
n
властивість 1) з правого боку рівності, то C2nn = ∑ (Cni ) 2 ►
i =0
n
Біном Ньютона: ( p + q ) = ∑ Cnk p k q n − k .
n

k =0

Корисні математичні комбінації:


n ( n + 1) n ( n + 1)( 2n + 1)
1+ 2 +… + n = ; 12 + 22 + … + n 2 = .
2 6
Формула Стірлінга: n ! = 2πn ⋅ n n e − n +θn /12 n , де 0 < θn < 1 .

162
Гаусcів інтеграл (інтеграл Пуассона, або Ейлера–Пуассона).
Уперше його обчислив Ейлер у 1729 р. Пізніше Пуассон
знайшов легкий спосіб обчислення цього інтеграла:
∞ ∞

∫ e dx = π ∫ αe
2
−x − x 2 β2
dx = αβ π
−∞ −∞
∞ ∞
− ( ax − b 2 a ) + b 2 4 a 2 + c 1
∫e ∫e
2 2 2
−a x + bx + c 4 a2 + c
dx = dx = πeb
−∞ −∞
a
Геометрична прогресія. Числову послідовність, перший
член якої відмінний від нуля, а кожний член, починаючи із дру-
гого, дорівнює попередньому, помноженому на одне й те саме
відмінне від нуля число q , називають геометричною прогресі-
єю. Число q називають знаменником геометричної прогресії:
bn = bn −1q , або bn = b1q n −1 .
b1 (1 − q n )
Сума геометричної прогресії Sn = , де q ≠ 1 знамен-
1− q
ник геометричної прогресії, S n – сума її перших n доданків.
Сума нескінченно спадаючої геометричної прогресії ( q < 1 )
b1
визначається рівністю S = lim Sn , S = .
n →∞ 1− q
Гамма-функція. Позначення Γ( z ) . Математична функція,
що розширює поняття факторіала на поле комплексних чисел.
ЇЇ ввів Л. Ейлер, а своїм позначенням гамма-функція зобов'я-
зана Лежандру:

Γ( z ) = ∫ t z −1e − t dt (Re z > 0) (інтеграл Ейлера другого роду).
0
Для дійсних значень:
Γ(1 / 2) = π , Γ(1) = 1 , Γ(n + 1) = n ! , де n = 1, 2,… , n .
Функціональні рівняння:
π
Γ( z + 1) = zΓ( z ) ; Γ( z )Γ(1 − z ) = ;
sin(πz )

163
⎛1 ⎞ ⎛1 ⎞ π
Γ⎜ + z ⎟Γ⎜ − z ⎟ = ;
⎝2 ⎠ ⎝2 ⎠ cos(πz )
n 2 nz −1
Γ(nz ) = Γ( z )Γ( z + 1 / n) ⋅ … ⋅ Γ( z + (n − 1) / n) , n = 2,3,…
(2π) n −1
(теорема множення Гаусса).
Бета-функція. Спеціальна функція. Позначення Β( p, q) . Бе-
та-функцію дослідили Ейлер і Лежандр, а назву їй дав Жак Біне:
1
Β( p, q) = ∫ t p −1 (1 − t ) q −1 dt (Re p > 0, Re q > 0) ;
0
(інтеграл Ейлера першого роду).
∞ π/ 2
t p −1
Β( p , q ) = ∫ p+q
dt = 2 ∫ sin 2 p −1 ϕ cos 2 p −1 ϕdt ,
0
(1 + t ) 0
π2
1 ⎛ p +1 q +1⎞
∫ sin
x cos q xdx = Β ⎜
p
або , ⎟.
0
2 ⎝ 2 2 ⎠
Бета-функцію можна визначена через гамма-функцію:
Γ ( p )Γ ( q )
Β( p , q ) = = Β( q , p ) .
Γ( p + q)

164
Додаток 2

Інтеграл імовірностей (функція Лапласа)


x
1
y = Φ ( x) = ∫e
−t 2 2
dt [Φ(− x) = −Φ ( x)]
2π 0

x Φ ( x) x Φ ( x) x Φ ( x) x Φ ( x) x Φ ( x)
0 0 0,25 0,0987 0,5 0,1915 0,75 0,2734 1 0,3413
0,01 0,004 0,26 0,1026 0,51 0,195 0,76 0,2764 1,01 0,3438
0,02 0,008 0,27 0,1064 0,52 0,1985 0,77 0,2794 1,02 0,3461
0,03 0,012 0,28 0,1103 0,53 0,2019 0,78 0,2823 1,03 0,3485
0,04 0,016 0,29 0,1141 0,54 0,2054 0,79 0,2852 1,04 0,3508
0,05 0,0199 0,3 0,1179 0,55 0,2088 0,8 0,2881 1,05 0,3531
0,06 0,0239 0,31 0,1217 0,56 0,2123 0,81 0,2910 1,06 0,3554
0,07 0,0279 0,32 0,1255 0,57 0,2157 0,82 0,2939 1,07 0,3577
0,08 0,0319 0,33 0,1293 0,58 0,219 0,83 0,2967 1,08 0,3599
0,09 0,0359 0,34 0,1331 0,59 0,2224 0,84 0,2995 1,09 0,3621
0,1 0,0398 0,35 0,1368 0,6 0,2257 0,85 0,3023 1,1 0,3643
0,11 0,0438 0,36 0,1406 0,61 0,2291 0,86 0,3051 1,11 0,3665
0,12 0,0478 0,37 0,1443 0,62 0,2324 0,87 0,3078 1,12 0,3686
0,13 0,0517 0,38 0,148 0,63 0,2357 0,88 0,3106 1,13 0,3708
0,14 0,0557 0,39 0,1517 0,64 0,2389 0,89 0,3133 1,14 0,3729
0,15 0,0596 0,4 0,1554 0,65 0,2422 0,9 0,3159 1,15 0,3749
0,16 0,0636 0,41 0,1591 0,66 0,2454 0,91 0,3186 1,16 0,377
0,17 0,0675 0,42 0,1628 0,67 0,2486 0,92 0,3212 1,17 0,379
0,18 0,0714 0,43 0,1664 0,68 0,2517 0,93 0,3238 1,18 0,381
0,19 0,0753 0,44 0,17 0,69 0,2549 0,94 0,3264 1,19 0,383
0,2 0,0793 0,45 0,1736 0,7 0,258 0,95 0,3289 1,2 0,3849
0,21 0,0832 0,46 0,1772 0,71 0,2611 0,96 0,3315 1,21 0,3869
0,22 0,0871 0,47 0,1808 0,72 0,2642 0,97 0,3340 1,22 0,3888
0,23 0,091 0,48 0,1844 0,73 0,2673 0,98 0,3365 1,23 0,3907
0,24 0,0948 0,49 0,1879 0,74 0.2703 0,99 0,3389 1,24 0,3925

165
x Φ ( x) x Φ ( x) x Φ ( x) x Φ ( x) x Φ ( x)
1,25 0,3914 1,52 0,4357 1,79 0,4633 2,12 0,4830 2,66 0,4961
1,26 0,3962 1,53 0,4370 1,8 0,4641 2,14 0,4838 2,68 0,4963
1,27 0,398 1,54 0,4382 1,81 0,4649 2,16 0,4846 2,7 0,4965
1,28 0,3997 1,55 0,4394 1,82 0,4656 2,18 0,4854 2,72 0,4967
1,29 0,4015 1,56 0,4406 1,83 0,4664 2,2 0,4861 2,74 0,4969
1,3 0,4032 1,57 0,4418 1,84 0,4671 2,22 0,4868 2,76 0,4971
1,31 0,4049 1,58 0,4429 1,85 0,4678 2,24 0,4875 2,78 0,4973
1,32 0,4066 1,59 0,4441 1,86 0,4686 2,26 0,4881 2,8 0,4974
1,33 0,4082 1,6 0,4452 1,87 0,4693 2,28 0,4887 2,82 0,4976
1,34 0,4099 1,61 0,4463 1,88 0,4699 2,3 0,4893 2,84 0,4977
1,35 0,4115 1,62 0,4474 1,89 0,4706 2,32 0,4898 2,86 0,4979
1,36 0,4131 1,63 0,4484 1,9 0,4713 2,34 0,4904 2,88 0,4980
1,37 0,4147 1,64 0,4495 1,91 0,4719 2,36 0,4908 2,9 0,4981
1,38 0,4162 1,65 0,4505 1,92 0,4726 2,38 0,4913 2,92 0,4982
1,39 0,4177 1,66 0,4515 1,93 0,4732 2,4 0,4918 2,94 0,4984
1,4 0,4192 1,67 0,4525 1,94 0,4738 2,42 0,4922 2,96 0,4985
1,41 0,4207 1,68 0,4535 1,95 0,4744 2,44 0,4927 2,98 0,4986
1,42 0,4222 1,69 0,4545 1,96 0,4750 2,46 0,4931 3 0,49865
1,43 0,4236 1,7 0,4554 1,97 0,4756 2,48 0,4934 3,2 0,49931
1,44 0,4251 1,71 0,4564 1,98 0,4761 2,5 0,4938 3,4 0,49966
1,45 0,4265 1,72 0,4573 1,99 0,4767 2,52 0,4941 3,6 0,499841
1,46 0,4279 1,73 0,4582 2 0,4772 2,54 0,4945 3,8 0,499928
1,47 0,4292 1,74 0,4591 2,02 0,4783 2,56 0,4948 4 0,499968
1,48 0,4306 1,75 0,4599 2,04 0,4793 2,58 0,4951 4,5 0,499997
1,49 0,4319 1,76 0,4608 2,06 0,4803 2,6 0,4953 5 0,4999997
1,5 0,4332 1,77 0,4616 2,08 0,4812 2,62 0,4956
1,51 0,4345 1,78 0,4625 2,1 0,4821 2,64 0,4959

166
Додаток 3

Таблиця значень функції росподілу Стьюдента


(для інтервальних оцінок)
Значення довірчої ймовірності
0,9 0,91 0,92 0,93 0,94 0,95 0,96 0,97 0,98 0,99
1 6,314 7,026 7,916 9,058 10,579 12,706 15,894 21,205 31,821 63,656
2 2,920 3,104 3,320 3,578 3,896 4,303 4,849 5,643 6,965 9,925
3 2,353 2,471 2,605 2,763 2,951 3,182 3,482 3,896 4,541 5,841
4 2,132 2,226 2,333 2,456 2,601 2,776 2,999 3,298 3,747 4,604
5 2,015 2,098 2,191 2,297 2,422 2,571 2,757 3,003 3,365 4,032
6 1,943 2,019 2,104 2,201 2,313 2,447 2,612 2,829 3,143 3,707
с в о б о д и

7 1,895 1,966 2,046 2,136 2,241 2,365 2,517 2,715 2,998 3,499
8 1,860 1,928 2,004 2,090 2,189 2,306 2,449 2,634 2,896 3,355
9 1,833 1,899 1,973 2,055 2,150 2,262 2,398 2,574 2,821 3,250
10 1,812 1,877 1,948 2,028 2,120 2,228 2,359 2,527 2,764 3,169
11 1,796 1,859 1,928 2,007 2,096 2,201 2,328 2,491 2,718 3,106
12 1,782 1,844 1,912 1,989 2,076 2,179 2,303 2,461 2,681 3,055
С т у п е н і

13 1,771 1,832 1,899 1,974 2,060 2,160 2,282 2,436 2,650 3,012
14 1,761 1,821 1,887 1,962 2,046 2,145 2,264 2,415 2,624 2,977
15 1,753 1,812 1,878 1,951 2,034 2,131 2,249 2,397 2,602 2,947
16 1,746 1,805 1,869 1,942 2,024 2,120 2,235 2,382 2,583 2,921
17 1,740 1,798 1,862 1,934 2,015 2,110 2,224 2,368 2,567 2,898
18 1,734 1,792 1,855 1,926 2,007 2,101 2,214 2,356 2,552 2,878
19 1,729 1,786 1,850 1,920 2,000 2,093 2,205 2,346 2,539 2,861
20 1,725 1,782 1,844 1,914 1,994 2,086 2,197 2,336 2,528 2,845
21 1,721 1,777 1,840 1,909 1,988 2,080 2,189 2,328 2,518 2,831

167
Додаток 4

Таблиця розподілу χ2 із m ступенями свободи


m\α .995 .990 .975 .950 .900 .750 .500 .250 .100 .050 .025 .010 .005

1 0,00004 0,00016 0,00098 0,00393 0,01579 0,10153 0,45494 1,32330 2,70554 3,84146 5,02389 6,63490 7,87944
2 0,01003 0,02010 0,05064 0,10259 0,21072 0,57536 1,38629 2,72259 4,60517 5,99146 7,37776 9,21034 10,59663
3 0,07172 0,11483 0,21580 0,35185 0,58437 1,21253 2,36597 4,10834 6,25139 7,81473 9,34840 11,34487 12,83816
4 0,20699 0,29711 0,48442 0,71072 1,06352 1,92256 3,35669 5,38527 7,77944 9,48773 11,14329 13,27670 14,86026
5 0,41174 0,55430 0,83121 1,14548 1,61031 2,67460 4,35146 6,62568 9,23636 11,07050 12,83250 15,08627 16,74960
168

6 0,67573 0,87209 1,23734 1,63538 2,20413 3,45460 5,34812 7,84080 10,64464 12,59159 14,44938 16,81189 18,54758
7 0,98926 1,23904 1,68987 2,16735 2,83311 4,25485 6,34581 9,03715 12,01704 14,06714 16,01276 18,47531 20,27774
8 1,34441 1,64650 2,17973 2,73264 3,48954 5,07064 7,34412 10,21885 13,36157 15,50731 17,53455 20,09024 21,95495
9 1,73493 2,09790 2,70039 3,32511 4,16816 5,89883 8,34283 11,38875 14,68365 16,91898 19,02277 21,66599 23,58935
10 2,15586 2,55821 3,24697 3,94030 4,86518 6,73720 9,34182 12,54886 15,98718 18,30704 20,48318 23,20925 25,18818
11 2,60322 3,05348 3,81575 4,57481 5,57778 7,58414 10,34100 13,70069 17,27501 19,67514 21,92005 24,72497 26,75685
12 3,07382 3,57057 4,40379 5,22603 6,30380 8,43842 11,34032 14,84540 18,54935 21,02607 23,33666 26,21697 28,29952
13 3,56503 4,10692 5,00875 5,89186 7,04150 9,29907 12,33976 15,98391 19,81193 22,36203 24,73560 27,68825 29,61947
14 4,07467 4,66043 5,62873 6,57063 7,78953 10,16531 13,33927 17,11693 21,06414 23,68479 26,11895 29,14124 31,31935
15 4,60092 5,22935 6,26214 7,26094 8,54676 11,03654 14,33886 18,24509 22,30713 24,99579 27,48839 30,57791 32,80132
16 5,14221 5,81221 6,90766 7,96165 9,31224 11,91222 15,33850 19,36886 23,54183 26,29623 28,84535 31,99993 34,26719

168
Продовження табл.
m\α .995 .990 .975 .950 .900 .750 .500 .250 .100 .050 .025 .010 .005
17 5,69722 6,40776 7,56419 8,67176 10,08519 12,79193 16,33818 20,48868 24,76904 27,58711 30,19101 33,40866 35,71847
18 0,26480 7,0491 8,23075 9,39046 10,8494 13,67529 17,33790 21,60489 25,98942 28,86930 31,53638 34,80531 37,15645
19 6,84397 7,63273 8,90652 10,11701 11,65091 14,56200 18,33765 22,71781 27,20357 30,14353 32,85233 36,19087 38,58226
20 7,43384 8,26040 9,59078 10,85081 12,44261 15,45177 19,33743 23,82769 28,41198 31,41043 34,16961 37,56623 39,99685
21 8,03365 8,89729 10,28290 11,59131 13,23960 16,34438 20,33723 24,93478 29,61509 32,67057 35,47888 38,93217 41,40106
22 8,4272 9,54249 10,98232 12,33801 14,04149 17,23962 21,33704 26,03927 30,81328 33,92444 36,78071 40,28936 42,79565
23 9,26042 10,19572 11,68855 13,09051 14,84796 18,13730 22,33688 27,14134 32,00690 35,17246 38,07563 41,63840 44,18128
24 9,88623 10,85636 12,40115 13,84843 15,65868 19,03725 23,33673 28,24115 33,19624 36,41503 39,36408 42,97982 45,55851
25 10,51965 11,52398 13,11972 14,61141 16,47341 19,93934 24,33659 29,33885 34,38159 37,65248 40,64647 44,31410 46,92789
169

26 11,16024 12,19815 13,84390 15,37916 17,29188 20,84343 25,33645 30,43457 35,56317 38,88514 41,92317 45,64168 48,28988
27 11,80759 12,87850 14,57338 16,15140 18,11390 21,74940 26,33634 31,52841 36,74122 40,11327 43,19451 46,96294 49,64492
28 12,46134 13,56471 15,30786 16,92788 18,93924 22,65716 27,33623 32,62049 37,91592 41,33714 44,46079 48,27824 50,99338
29 13,12115 14,25645 16,04707 17,70837 19,76774 23,56659 28,33613 33,71091 39,08747 42,55697 45,72229 49,58788 52,33562
30 13,78672 14,95346 16,79077 18,49266 20,59923 24,47761 29,33603 34,79974 40,25602 43,77297 46,97024 50,89218 53,67196

169
Додаток 5

Функція розподілу K(S)-статистики Колмогорова для перевірки простої гіпотези


S 0 1 2 3 4 5 6 7 8 9
0,2 0,000000 000000 000000 000000 000000 000000 000000 000000 000001 000004
0,3 0,000009 000021 000046 000091 000171 000303 000511 000826 001285 001929
0,4 0,002808 003972 005476 007377 009730 012589 016005 020022 024682 030017
0,5 0,036055 042814 050306 058534 067497 077183 087577 098656 110394 122760
0,6 0,135718 149229 163255 177752 192677 207987 223637 239582 255780 272188
0,7 0,288765 305471 322265 339114 355981 372833 389640 406372 423002 439505
0,8 0,455858 472039 488028 503809 519365 534682 549745 564545 579071 539315
0,9 0,607269 620928 634285 647337 660081 672515 684836 696445 707941 719126
170

1,0 0,730000 740566 750825 760781 770436 779794 788860 797637 806130 814343
1,1 0,822282 829951 837356 844502 851395 858940 864443 870610 876546 822258
1,2 0,887750 893030 898102 903973 907648 912134 916435 920557 924506 928288
1,3 0,931908 935371 938682 941847 944871 947758 950514 953144 955651 958041
1,4 0,960318 962487 964551 966515 968383 970159 971846 973448 974969 976413
1,5 0,977782 979080 980310 981475 982579 983623 984610 985544 986427 987261
1,6 0,988048 988792 989492 990154 990777 991364 991917 992438 992928 993389
1,7 0,993823 994230 994612 994972 995309 995625 995922 996200 996460 996704
1,8 0,996932 997146 997346 997533 997707 997870 998023 998165 998297 998421
1,9 0,998536 998644 998744 998837 998924 999004 999079 999149 999213 999273
2,0 0,999329 999381 999429 999473 999514 999553 999588 999620 999651 999679
2,1 0,999705 999728 999750 999771 999790 999807 999823 999837 999939 999863
2,2 0,999874 999886 999895 999904 999912 999920 999927 999933 999976 999944
2,3 999949 999954 999958 999961 999965 999968 999971 999974 999991 999978
2,4 0,999980 999982 999984 999985 999987 999988 999989 999990 999991 999992

170
Перелік
використаних джерел

1. Пытьев Ю. П. Курс теории вероятностей и математичес-


кой статистики для физиков / Ю. П. Пытьев, И. А. Шишмарев. –
М. : МГУ, 1983.
2. Ширяев А. Н. Вероятность / А. Н. Ширяев. – М. : Наука, 1980.
3. Крамер Г. Математические методы статистики / Г. Крамер. –
М. : Мир, 1975.
4. Єжов С. М. Теорія ймовірностей, математична статистика
і випадкові процеси: навч. посіб. / С. М. Єжов. – К. : ВПЦ "Київ-
ський університет", 2001.
5. Гмурман В. Е. Теория вероятностей и математическая ста-
тистика / В. Е. Гмурман. – М. : Высш. шк., 2000.
6. Гмурман В. Е. Руководство к решению задач по теории ве-
роятностей и математической статистики / В. Е. Гмурман. – М. :
Высш. шк., 2000.
7. Феллер В. Введение в теорию вероятностей и её приложе-
ние (Диск-ретные распределения); [пер. с англ., 2-е изд., т. 1–2] /
В. К. Феллер, 2003.
8. Бернштейн С. Н. Теория вероятностей, [4 изд.] / С. Н. Бернш-
тейн. – М. : ОГИЗ; Л. : Гостехиздат, 1946.
9. Емельянов Г. В. Задачник по теории вероятностей и мате-
матической статистике / Г. В. Емельянов, В. П. Скитович. – Л. :
Изд-во ленингр. ун-та, 1967.
10. Гихман И. И. Теория вероятностей и математическая ста-
тистика / И. И. Гихман, А. В. Скороход, М. И. Ядренко. – К. :
Вища шк., 1979.
11. Чистяков В. П. Курс теории вероятностей / В. П. Чистяков. –
М. : Агар, 2000.
12. Українська радянська енциклопедія : у 12-ти т. : за ред.
М. Бажана. – [2-ге вид.]. – К., 1974.
13. Прохоров А. В. Задачи по теории вероятностей: Основные
понятия. Предельные теоремы. Случайные процессы /
А. В. Прохоров, В. Г. Ушаков, Н. Г. Ушаков. – М. : Наука, 1986.

171
Навчальне видання

ЄЖОВ Станіслав Миколайович


ШМЕЛЬОВА Людмила Володимирівна

ЗАДАЧІ З ТЕОРІЇ ЙМОВІРНОСТЕЙ


ТА МАТЕМАТИЧНОЇ СТАТИСТИКИ
МЕТОДИ РОЗВ'ЯЗАННЯ

Навчально-методичний посібник

Редактор: Л. Львова

Оригінал-макет виготовлено Видавничо-поліграфічним центром "Київський університет"


Виконавець: В. Гаркуша

Формат 60х841/16. Ум. друк. арк. 10,0. Наклад 150. Зам. № 213-6869.
Вид. № Фз8*. Гарнітура Times New Roman. Папір офсетний. Друк офсетний.
Підписано до друку 11.06.14

Видавець і виготовлювач
Видавничо-поліграфічний центр “Київський університет”
01601, Київ, б-р Т. Шевченка, 14, кімн. 43
(044) 239 32 22; (044) 239 31 72; тел./факс (044) 239 31 28
e-mail: vpc_div.chief@univ.kiev.ua
http: vpc.univ.kiev.ua
Свідоцтво суб'єкта видавничої справи ДК № 1103 від 31.10.02

You might also like