You are on page 1of 40

1.

Перестановки, розміщення та комбінації з повторенням та без


повторення: означення, формули, властивості.
Перестановка - це встановлений порядок множини, що має скінченну кількість елементів.
Pn=n! =1*2*...*n.
Pn- кількість усіх можливих перестановок множини з n елементів.
n ,n ...n n!
При повторенні Pn 1 2 m
= n ! ∗ n ! ∗... ∗n ! .
1 2 m

Приклад: Скільки різних слів можна утворити переставляючи літери слова 1)ШКОЛА:
7!
P5=5 !=120; 2)САДОЧОК: P27= =2560 .
2!
Розміщення - кількість усіх упорядкованих m елементних підмножин, множини з n елементів.
m n!
An = =n ∗ ( n −1 ) ∗... ∗ ( n −m+1 ).
( n− m ) !
При повторенні Amn =nm.
Комбінація - спосіб вибору декількох речей з більшої групи, де порядок не має значення.
m n!
Cn = .
m! ( n − m ) !
Властивості: 1) Симетричність - C mn =C nn −m
2) C 0n=C nn=1
3)C 1n=C nn −1=n
4) Трикутник Паскаля - C mn +Cmn +1=C m+1
n+1

При повторенні C mn =C mn+m − 1.


2. Сформулювати та довести основні принципи теорії множин: принцип
суми та принцип добутку.
Принцип добутку: якщо ви маєте виконати m дій по черзі і кожну дію можна виконати певну
кількість способів, то загальна кількість способів буде дорівнювати добутку.
Принцип суми: якщо ви маєте виконати одну з m дій, а кожну дію можна виконати певну
кількість способів, то загальна кількість способів буде дорівнювати сумі.

Принцип суми – якщо об’єкт x можна вибрати n1 способами, а інший об’єкт y n2 способами,
то можна вибрати або x або y n1+n2 способами.
n1+n2+…+nm
Принцип добутку – якщо об’єкт x можна вибрати n1 способами та після кожного такого
вибору об’єкт y n2 способами, то пару об’єктів (x,y) можна вибрати n1*n2 способами.
n1*n2*…*nm

3. Випадкові події: означення, класифікація, приклади.


Випадкові події А = {при підкиданні кубика випаде цифра 4} = {4}.
Сумісні (несумісні) події - якщо події можуть (не можуть) з’явитися одночасно в результаті
одного експерименту.
Залежні (незалежні) події - якщо подія А впливає (не впливає) на появу події В.
Повна група подій (Ω ) - множина всіх подій, що можуть відбутися в результаті експерименту.
А1=¿{черона масть} А2=¿{чорна масть}
В1=¿{♠️} В2=¿{♣️} В3=¿ {♥️} В4 =¿{♦️}
C 1=¿{6} C 2=¿{7} ...C 9=¿{T}
D1=¿ {6♥️} ... D36=¿ {T♦️}
Ω = { Di ,i=1, 36 } - повна група елементарних подій.
Події називаються протилежними, якщо вони утворюють повну групу А ∪ А=Ω.
Події називаються рівноможливими, якщо жодна з них немає преференцій появи.
4. Відносної частота, статистична ймовірність події. Ймовірність
випадкової події та її властивості.
P(A) = Probability of event A.
m
Ймовірність події - це міра можливості настання цієї події. P(A)= ; m - цільцість
n
елементарних подій, що сприяють появі події А; n - кількість подій в полній групі
елементарних подій.
Статистична ймовірність події - число від 0 до 1 навколо якого групуються відносні частоти
m
появи події. P❑ ( A )= A .
n
Відносна частота появи події - це статистична ймовірність події для кожного конкретного
m
експерименту. W ( A ) = A .
n
5. Геометричне та статистичне означення ймовірності.
m ( g)
Геометричне означення ймовірності - це відношення P ( A )= , m - міра (часу, довжини,
m (G )
площі, об’єму, …); g - множина, що сприяє подія; G - множина, що відповідає повній групі
подій.
Статистична ймовірність події - число від 0 до 1 навколо якого групуються відносні частоти
m
появи події. P❑ ( A )= A .
n
Відносна частота появи події - це статистична ймовірність події для кожного конкретного
m
експерименту. W ( A ) = A .
n
Задача про зустріч.
Визначити кількість таких перестановок чисел 1,2...n, що точно k елементів із n знаходяться
на своїх місцях(тобто a i=i), а інші n-k, перебувають у безладі.
Інакше: нас цікавлять перестановки, в яких рівно k елементів нерухомі.
Розв’язання.
Із загального числа елементів вибирається k, які залишаються на своїх місцях. Оскільки
вибір елементу визначає й його місце розташування, то кількість варіантів дорівнює: C kn. Для
інших n-k елементів розв’язується задача про безлад: Dn − k. Тоді,за правилом добутку
кількість способів, якими можна переставити n елементів при таких умовах, дорівнює:
k ❑
Dn , k =C n ∗ Dn −k .
Задача Бюффона.
Плоскость разграфлена параллельными прямыми, отстоящими друг от друга на расстоянии
2а. На плоскость наудачу бросают иглу длины 2l (2l≤2а), φ – угол. Найти вероятность того,
что игла пересечет какую-нибудь прямую.
Решение
Найдем вероятность через вычисления интеграла:
Экспериментально по методу Монте-Карло вероятность определяется по формуле:
P≈[кол-во бросаний]/[кол-во пересечений]
Число π приближенно можно определить по методу Монте-Карло по формуле:
π≈2L*[кол-во бросаний]/a*[кол-во пересечений]
a — расстояние между линиями.
Если мы сделаем предположение, что длина иглы равна расстоянию между линиями, то
выражение определяется по формуле:
π≈2*[кол-во бросаний]/[кол-во пересечений]
В практических вычислений вероятности также используют условие, что параллельные
линии находятся друг от друга на расстояние двух длин иглы
6. Сформулювати та довести формулу (теорему) додавання ймовірностей
випадкових подій та наслідки з неї.
Теорема.
Для будь-яких подій А та В виконується співвідношення
Р(А+В) = Р(А) + Р(В) - Р(АВ).
Ймовірність настання принаймні однієї з двох будь-яких подій дорівнює сумі ймовірностей
цих подій без ймовірності їхньої спільної появи.
Якщо події несумісні, то Р(АВ) = 0 і ми отримуємо попередню теорему.
Доведення.
Представимо події А та В у вигляді сум несумісних подій:
А= ; В= . Тоді .
Оскільки доданки несумісні, то (1).
З іншого боку, ; , тому, додавши почленно
останні дві рівності, маємо звідки
(2).
Так як праві частини рівностей (1) і (2) рівні, то рівними будуть і ліві, маємо:

Наслідки.
1)
2)
Доведення.

7. Умовна ймовірність. Теорема множення ймовірностей та наслідки з


неї.
Умовною ймовірністю РА(В) події В називається ймовірність події В, знайдена в
припущенні, що подія А вже настала.
Теорема.
Ймовірність добутку двох подій дорівнює добутку ймовірності однієї з них на умовну
ймовірність другої, при умові, що перша подія відбулася, тобто
Р(АВ) = Р(А) Р(В/А) = Р(В) Р(А/В)

Ця формула має зміст якщо А і В - сумісні.

Наслідок1.
Якщо А і В незалежні, то Р(А/В) = Р(А) а Р(В/А) = Р(В) і тому
Р(АВ) = Р(А) Р(В).

Наслідок 2.
Для трьох подій: Р( А1 А2 А3) = Р(А1) Р(А2/А1) Р(А3/А1А2)
Доведіть самостійно.

Наслідок 3.
Для n подій: Р(А1 А2 ...Аn ) = P(A1) P(A2/A1) P(A3/A1A2)...P(An/A1A2...An).
Для доведення можна скористатись методом математичної індукції.

Другий варіант

Теорема: множення ймовірностей : ймовірність сумісної появи 2ох подій = добутку


ймовірностей однієї з них на другу за умови, що 1 ша вже відбулась
Наслідки:
 ймовірность появи однієї з подій А1+…+Аn
 Р(А1+…+Аn)=Р(А1)…Р(Аn)
 Р(А*В*С)=Р(А)+РА(В)+РА*В(С)
20. Початковим моментом k-го порядку випадкової величини X називають математичне
сподівання величини Xk
Для дискретної випадкової величини початкові моменти визначають залежністю

для неперервної інтегруванням


Якщо неперервна величина задана інтервалом , то моменти обчислюють за

формулою
Центральним моментом k-го порядку називається математичне сподівання

від

Коли
для маємо
при
при
і так далі.
Для дискретної випадкової величини центральні моменти мають вигляд

для неперервної наступний


Якщо випадкова величина надежить інтервалу , то центральні моменти
визначають інтегруванням

Встановлення асиметрії та ексцесу дозволяє встановити симетричність розподілу


випадкової величини X відносно M(X)=1. Для цього знаходять третій центральний
момент, що характеризує асиметрію закону розподілу випадкової величини. Якщо він
рівний нулю , то випадкова величина X симетрично розподілена відносно
математичного сподівання M(X). Оскільки момент має розмірність випадкової
величини в кубі, то вводять безрозмірну величину — коефіцієнт асиметрії:

Центральний момент четвертого порядку використовується для визначення ексцесу,


що характеризує плосковершинність, або гостровершинність щільності
ймовірності Ексцес обчислюється за формулою

Число 3 віднімається для порівняння відхилення від центрального закону розподілу


(нормального закону), для якого справджується рівність:
Отже, ексцес рівний нулю Es=0 для нормального закону розподілу. Якщо ексцес
додатній Es>0 то на графіку функція розподілу має гостру вершину і для від'ємних
значень Es<0 більш пологу.

8. Сформулювати формули Байєса, формулу повної ймовірності.

( HA )
n

Формула повної ймовірності: P(A)=∑ P ( H i ) ∗ P


i=1 i
P(Hi) – відношення кількості подій до повної групи подій
P(A/Hi) – ймовірність події

( )
P ( Hi) ∗ P
A
Hi
Формула Байєса:
P
( )
A
Hi
=
P( A)

P(A) – повна ймовірність


9. Сформулювати та довести формулу Бернуллі та наслідки з неї.
Схема незалежних випробувань ( Бернулі / Бернуллі) — це послідовність, що складається з n
незалежних однакових в межах схеми випробувань , в кожному з яких поділ A відбувається з
сталою в межах схеми ймовірності p=p(A)i не відбувається з ймовірністю

Формула Бернулі / Бернуллі


Розглянемо схему незалежних випробувань в кожному з яких подія А з’являється з
ймовірністю p і не з’’являються з ймовірністю q, тоді ймовірність, що відбувається
рівно m раз обчислимо:

Доведення:
обчислимо ймовірність

Маємо можливість скористатися теорію множин

Домножимо на

що визначають кількістю різних елементарних подій


буде

Наслідки
10. Функція Гауса та її властивості.
1 2
−x /2
φ ( x )= ∗e
√2 π
Властивості:
1) (-x) = (x) – функція парна
2) (x)  0, x  
+∞

∫ e − x dx= √ π
2

3) Визначений інтеграл з нескінченними границями має властивість:


−∞

11. Функція Лапласа та її властивості.


x
1
∗∫ e
2
−t /2
Ф ( x )= dt
√2 π 0
Властивості:
1) Ф(-x) = –Ф(x) – функція непарна, неспадна
2) Ф (∞) = 0,5
3) Ф (0) = 0
12. Сформулювати локальну теорему Маувра-Лапласа.

Якщо ймовірність p появи випадкової події A в кожному випробуванні постійна, то


ймовірність того, що у випробуваннях подія A настане рівно раз, приблизно дорівнює:

, коли .
Рекомендована мінімальна кількість випробувань - приблизно 50-100, інакше результат
може виявитися далеким від істини. Крім того, локальна теорема Лапласа працює тим
краще, чим ймовірність ближче до 0,5, і навпаки - дає істотну погрішність при значеннях
, близьких до нуля або одиниці.

13. Сформулювати інтегральну теорему Муавра-Лапласа.

Якщо ймовірність появи випадкової події у кожному випробуванні постійна, то


ймовірність того, що у випробуваннях подія настане не менше і
не більше раз (від до раз включно), приблизно дорівнює:

, коли

14. Теорема Пуассона для малоймовірних випадкових подій.

Якщо ймовірність p настання події A в кожному випробуванні постійна, але достатньо мала
p<<0,1, число незалежних випробувань достатньо велике, при цьому виконується
то ймовірність того, що в n випробуваннях подія A наступить рівно k разів
приблизно рівна

- формула Пуассона, де .

15. Дискретною називається випадкова величина Х, яка приймає окремі


ізольовані можливі значення з визначеними імовірностями, т.т. величина, для якої

існує скінченна або зліченна множина значень таких, що

Наприклад, кількість хлопчиків серед ста новонароджених є дискретна


випадкова величина, яка приймає такі можливі значення: 0, 1, 2, …, 100.
Законом розподілу дискретної випадкової величини називають відповідність

між можливими значеннями і їх імовірностями . Його можна задавати у вигляді


таблиці, формули або графіка.

При табличному завданні закону розподілу дискретної випадкової величини


перший рядок таблиці утримує можливі значення, а другий – їх імовірності

Математичним сподіванням дискретної випадкової величини називають


суму добутків всіх її можливих значень на їх ймовірності:
16. Інтегральною функцією розподілу називають функцію F(x), яка визначає для кожного
значення х ймовірність того, що випадкова величина Х прийме значення менше від х, тобто

Властивості інтегральної функції розподілу


1. Значення інтегральної функції розподілу належать відрізку
[0; 1]:

2. ? неспадна функція, тобто

3. Ймовірність того, що випадкова величина прийме значення, яке належить інтервалу


, дорівнює приросту інтегральної функції на цьому інтервалі:

4. Ймовірність того, що випадкова величина Х прийме одне конкретне значення, дорівнює


нулю.
5. Якщо можливі значення випадкової величини належать інтервалу (a,b), то

17. Диференціальна функція розподілу, властивості


Щільність розподілу — функція , яка є першою похідною від функції розподілу

18. Математичне сподівання ДВВ, НВВ


Математичне сподівання ДВВ — сума добутків усіх можливих значень xk відповідних
ймовірностей
Математичне сподівання НВВ -
19. Дисперсія ДВВ, НВВ. Середнє квадратичне відхилення
Дисперсія — математичне сподівання квадрата різниці ВВ і її математичне сподівання

20. Початковим моментом k-го порядку випадкової величини X називають математичне


сподівання величини Xk
Для дискретної випадкової величини початкові моменти визначають залежністю

для неперервної інтегруванням


Якщо неперервна величина задана інтервалом , то моменти обчислюють за

формулою
Центральним моментом k-го порядку називається математичне сподівання

від

Коли
для маємо
при
при
і так далі.
Для дискретної випадкової величини центральні моменти мають вигляд

для неперервної наступний


Якщо випадкова величина надежить інтервалу , то центральні моменти
визначають інтегруванням

Встановлення асиметрії та ексцесу дозволяє встановити симетричність розподілу


випадкової величини X відносно M(X)=1. Для цього знаходять третій центральний
момент, що характеризує асиметрію закону розподілу випадкової величини. Якщо він
рівний нулю , то випадкова величина X симетрично розподілена відносно
математичного сподівання M(X). Оскільки момент має розмірність випадкової
величини в кубі, то вводять безрозмірну величину — коефіцієнт асиметрії:

Центральний момент четвертого порядку використовується для визначення ексцесу,


що характеризує плосковершинність, або гостровершинність щільності
ймовірності Ексцес обчислюється за формулою

Число 3 віднімається для порівняння відхилення від центрального закону розподілу


(нормального закону), для якого справджується рівність:

Отже, ексцес рівний нулю Es=0 для нормального закону розподілу. Якщо ексцес
додатній Es>0 то на графіку функція розподілу має гостру вершину і для від'ємних
значень Es<0 більш пологу.
21. Біноміальний закон розподілу: означення, приклад, доведення
формул для обчислення числових характеристик.
Означення:
Випадкова величина X розподілена за біноміальним законом, з параметром n і p якщо Х це к-
ть появ події в схемі Бернуллі з к-ть випробування n та ймовірність появи події в схемі p

Формула:
Якщо х розподілено за біноміальним законом, то аналітично закон задається формулою:
(формула бернуллі)

КОРОТКІ ФОРМУЛИ:
Математичне сподівання(мат сподівання)

Дисперсія

Доведення:
розглянемо випадкові величини
Знайдемо мат сподівання цієї випадкової величини:

кожне Хі розплдвлено за законом


Бернуллі, в ньому мат сподівання = Р, кожне M(Xi)=P, тому і загальне мат сподівання = n*p
Аналогічно доводиться дисперсія:

Дисперсія суми=сумі дисперсій

Отже,

Приклад
Підкидують гральний кубик:
Запис закон розподілу випадк велич Х (к-ть трійок,що випала)
Обчислити мат сподівання і дисперсію та середнє квадратичне відхилення.
22. Геометричний закон розподілу випадкової величини: означення,
приклад, числові характеристики.

Означення:
Випадкова величина Х,розподілена за геометричним законом, якщо Х це к-ть випробувань в
схемі бернуллі,до першої появи події в схемі,або між двома сусідніми.

Формула:
Якщо Х розподілено за геометричним законом, то закон задається формулою:

Короткі формули:
Мвт сподівання

Дисперсія

(Мода завжди = 1)
Доведення:

Приклад:
Ймовірність того,що одруження голохуастова буде вдалим р = 0.2, записати закон розподілу
ВВ Х-кть одружень до першого вдалого, зобразити графічно,обчислити основні числові
характеристики
Графічно-за допомогою трикутника розподулу:

Основні числові характеристики:

24. Закон розподілу Пуасона. Числові характеристики


Означення:
Випадкова величина Х розподілена за законом пуасона з параметром лямбда,якщо Х це к-ть
появи події в схемі бернуллі за умови,що к-ть випробувань n→∞, p→0.

Формула:
Якщо ВВ Х розподілена за законом пуасона з параметром лямбда, то закон задається
формулою:
Схоже на граничну теорему в схемі бернуллі
короткі формули:
Мат сподівання

Дисперсія

Приклад:
Ймовірність зустріти однокласника в Парижі р=3*10^(-4). Нехай особа там пробула n=2000
днів. Записати закон розподілу ВВ Х- к-ть зустрічей з одноклассником, мат сподівання і
дисперсію
23. Гіпергеометричний закон розподілу. Числові харакретистики.
Означення:
Нехай є множина, що містить N елементів. З них М володіють певною ознакою, з множини
обирають n елементів. К-ть елементів з однакоґ серед вибраних мають гіпергеометричний
закон розподілу з параметрами N,M,n

(група 20 чол,8-кияни. Вибираємо 5 осіб, к-ть киян серед вибраних має гіпергеомеричний
закон розподілу)
Формула:
Якщо Х розподілено за гіпергеометричним законом з параметром N,M,n,то закон
задається формулою:

Короткі формули:
Мат сподівання
Дисперсія

Приклад:
У бібліотеці є 8 різних книжок,5 з них мають гриф МОН, студент бере 4, книжки. Знайти
закон розподілу ВВ Х- к-ть книжок з грифом серед взятих. Зобразити закон графічно, та
обчислити основні характеристики

Зобразити геометрично:
Числові характеристики:
25. Рівномірний розподіл: означення, числові харакретистики (з доведенням формули для
обчислення математичного сподівання).

Випадкова величина x розподілена рівномірно на проміжку [a;b], якщо щільність розподілу


ймовірностей приймає стале значення X R ( [ a , b ] )
a+ b ( b − a )2
Основні числові характеристики: M ( X )= , D ( X )=
2 12
1 2
+∞ b ∗x b 2 2
Доведення M(X): M ( X )= xf ( x ) dx= x ∗1 dx= b − a b −a ( b −a )( b +a ) a+b
∫ ∫ b−a 2
∫ = =
2
−∞ a a 2 ( b − a) 2( b − a)

26. Експоненційний (показниковий) розподіл. Доведення коротких формул для обчислення


числових характеристик

Випадкова величина x розподілена показниково з параметром  якщо щільність розподілу

{
− λx
задається формулою f ( x )= λ e , x > 0
0, x≤0
1 1
M ( X )= , D ( X )= 2
λ λ

( |)
+∞ +∞ b − λx
b e b 1
M ( X )= ∫ xf ( x ) dx=∫ x ∗ λ e dx=λ ∗ lim ∫ x e dx= lim λb +
− λx − λx
=¿ ¿
−∞ 0 b →+∞ 0 b →+ ∞ e −λ 0 λ

27. Нормальний закон розподілу. Числові характеристики. Формули ймовірностей попадання


в інтервал.

Випадкова величина x розподілена за нормальним законом з параметром a, 2 , якщо


2
− ( x− a )
щільність розподілу задається формулою f ( x )= 1 2σ
2
.
e
√ 2 πσ
M ( X )=Mo=Me=a , D ( X )=σ 2
Формули ймовірностей попадання в інтервал:

( )
P ( X <α )=0 ,5+Ф 0
α−a
σ

( )
P ( X > β )=0 ,5 −Ф 0
β−a
σ

( ) (
P ( α < X < β )=Ф 0
β −α
σ
−Ф 0
α −a
σ )
()
P (|X − a|< δ )=2Ф 0
δ
σ
28. Коваріація випадкових величин: означення, властивості.
Коваріація (кореляційний момент) випадкових величин називають математичне сподівання
добутку відхилення: K xy =M ( X −m x ) ( Y − my ).
n m
Для дискретних випадкових величин: K xy =∑ ∑ ( x i −m x ) ( y j − m y ) Pij
i=1 j=1
+∞ +∞

Для неперервних випадкових величин: K xy = ∫ ∫ ( x − mx ) ( y − m y ) f ( x ; y ) dxdy


− ∞ −∞

Властивості:
 K xy= K yx
 | K xy| ≤ σ x σ y
 K x , y+ c =K x+ c , y =¿K x+c
2 1 1 , y +c2

 K ax , y =a K x , y ; K x ,by =b K x, y
 K xy =M ( XY ) − M ( x ) M ( Y )
n m
Для дискретних випадкових величин: K xy =∑ ∑ x i y j P y −
i=1 j=1
+∞ +∞

Для неперервних випадкових величин: K xy = ∫ ∫ xyf ( x ; y ) dxdy −


− ∞ −∞

Випадкові величини називаються некорельованими, якщо коефіцієнт кореляції дорівнює


нулю: K xy =0 x,y - некорельовані.
Незалежні величини завжди некорельовані, зворотне твердження не завжди вірне.
M(XY)=M(X)M(Y)

29. Коефіцієнт кореляції: означення, властивості.


Коефіцієнт кореляції - показник кореляції між двома змінними X та Y, який набуває значень
від −1 до +1 включно.
K xy
Кореляція випадкових величин визначається за формулою: r xy =
σxσ y
Властивості:
1 r xy =r yx
2 |r xy|≤ 1
r xy ≼ 0 ⇒зв’язок між величинами обернений ↑ ↓
r xy ≻ 0⇒ зв’язок між величинами прямий ↑ ↑
30. Функція розподілу двовимірної випадкової величини : означення та
властивості.
Функція розподілу ймовірностей для двовимірної випадкової величини є універсальним
методом задання закону розподілу: F(x;y) = P(X<x;Y<y), вона визначається, як ймовірність
сумісної появи двох подій.
Геометрично це означає, що випадкова величина (x;y) потрапить в лівий нижній квадрат
відносно точки (x;y).
Властивості:
1 F(x;y)ϵ [0;1] - область значення.
2 Фунція не спадна по двум аргументам
F ( x 1 ; y ) ≤ F ( x 2 ; y ), x 1< x2
F ( x ❑ ; y 1 ) ≤ F ( x ❑ ; y 2 ), y 1 < y 2
3 F ( − ∞ ; y ) =F ( x ; − ∞ )=F ( − ∞ ; − ∞ )=0
4 lim F ( x ; y )=F y ( y ) - одновимірна функція розподілу
x→+∞

lim F ( x ; y )=F x ( x )
y →+∞

lim lim F ( x ; y )=1


x→+∞ y →+∞

31. Означення диференціальної функції двовимірної випадкової величини


та її властивості.
Щільність розподілу двовимірної випадкової величини f(x;y) визначається для суто-
неперервної двовимірної випадкової величини, для якої функція розподілу ймовірностей
F(x;y) є неперервною і диференційованою.
Щільність визначається, як мішана похідна другого порядку, від функції розподілу
2
σ F(x; y )
( )
f x;y =
σx σy
Властивості:
1 Функція приймає невід'ємні значення f(x;y)≥0
2 lim f ( x ; y )= lim f ( x ; y )= lim f ( x ; y )=0
x→ ∞ y→∞ x,y→∞
+∞ + ∞

3 ∫ ∫ f ( x ; y ) dxdy =1
− ∞ −∞
x y

4 F(x;y)= ∫ ∫ f ( x ; y ) dxdy
− ∞ −∞
+∞

5 ∫ f ( x ; y ) dx =f y ( y )
−∞
+∞

∫ f ( x ; y ) dy =f x ( x )
−∞
❑ ❑
P ( ( x ; y ) ϵ D )=∫ ∫ f ( x ; y ) dxdy 32. Сформулювати та довести Лему Чебишова.
❑ D
Задано додатню величину Х , яка має скінченне математичне сподівання, тоді має
місце нерівність:

Для неперервної випадкової величини + доведення

33. Сформулювати та довести нерівність Маркова


Нері́вність Ма́ркова у теорії ймовірності дає оцінку ймовірності того, що випадкова
величина перевищить за модулем фіксовану додатну константу, в термінах її
математичного сподівання. Отримувана оцінка зазвичай досить груба. Проте, вона
дозволяє отримати певне уявлення про розподіл, коли він не є явно відомим.
Якщо Х випадк вел що прийм додвтнє значення і має скінченне матт
сподівання , тоді для довільного додтнього альфа виконується нерівність

Доведення:
34. Сформулювати та довести нерівність Чебишова.
Нерівність Чебишова — результат теорії ймовірностей, який стверджує, що для будь-якої
випадкової величини із скінченною дисперсією майже всі значення концентруються біля
значення математичного сподівання. Нерівність Чебишева дає кількісні характеристики
цієї властивості.
Розглянемо випадкову величину х що має скінченне математичне
сподівання і дисперсію тоді для , як завгодно малого Е(епсілон), має місце

нерівність
Доведення: розглянемо дві події – А і протилежна до А.

35. Сформулювати та довести теорему Чебишова


Розглянемо випадкові величини х1 х2 …хn
Розглянемо випадкову величину, знайдемо мат сподівання

36. Сформулювати та довести теорему Бернуллі.


Задано схему Бернуллі з ймовірністю появи події в схемі р, кількість випробувань прямує до
нескінченності. Для як завгодно малого епсілон має місце границя.

Доведення, нехай випадкова величина х це відношення м на н, обчислити матиматичне


сподівання цієї величини

Дисперсія

Використовуємо нерівність чебишева

Підставляємо сподівання і дисперсію.

Переходимо до лімітів

Доведення закінчено.
37. Предметом математичної статистики є розроблення методів збору та оброблення
статистичних даних для одержання наукових та практичних висновків.
Основне завдання математичної статистики – розроблення методів аналізу статистичних
даних залежно від мети дослідження.
38. Множину однорідних об’єктів називають статистичною сукупністю. Вибірковою
сукупністю (вибіркою) називають сукупність випадково взятих об’єктів із статистичної
сукупності.
Генеральною називають сукупність об’єктів, з яких зроблено вибірку. Обсягом сукупності
(вибіркової або генеральної) називають кількість об’єктів цієї сукупності.
Статистичним розподілом вибірки називають перелік варіант та відповідних частот або
відносних частот. Статистичний закон розподілу зручно задавати таблицею, що встановлює
зв’язок між значеннями випадкової величини та їх частотами
Графічне зображення вибірки?
39. Емпірична функція розподілу має такий вигляд:

Функцію називають емпіричною функцією розподілу, оскільки її знаходять емпіричним


(дослідним) способом.
Мало информации
40. Статистичною оцінкою невідомого параметра випадкової величини X генеральної
сукупності називають функцію від випадкових величин (результатів вибірки), що
спостерігаються.
Медіаною Me називають варіанту, яка ділить варіаційний ряд на дві частини, рівні за
кількістю варіант.

Модою називають варіанту, яка найчастіше трапляється у вибірці.

41. Метод моментів точкової оцінки невідомих параметрів розподілу полягає у


прирівнюванні теоретичних моментів розподілу та відповідних емпіричних моментів того
самого порядку
Оцінка одного параметра
Оцінка двох параметрів
42. 43. Метод найменших квадратів

44. Метод максимальної правдоподібності. Ідея методу максимуму правдоподібності полягає


в тому, що за оцінку беруть таке значення параметра θ, для якого ймовірність отримання
вже наявної вибірки максимальна.
45. Статистичною гіпотезою називають будь-яке твердження про вигляд або властивості
розподілу випадкових величин, що спостерігаються в експерименті.
Нульовою (основною) називають висунуту гіпотезу. Конкуруючою (альтернативною)
називають гіпотезу , яка суперечить нульовій.
Простою називають гіпотезу, що містить лише одне твердження. Складною називають
гіпотезу, яка складається зі скінченної або нескінченної кількості простих.
Висунута статистична гіпотеза підлягає перевірці, яка здійснюється за даними вибірки.
Помилка першого роду полягає в прийнятті альтернативи (відхилення нульової гіпотези) в
умовах, коли справджується нульова гіпотеза.
Помилка другого роду полягає в прийнятті нульової гіпотези (відхилення альтернативи) в
умовах, коли справджується альтернативна гіпотеза.
Для перевірки нульової гіпотези вибирається деяка випадкова величина K, розподіл якої
відомий, і вона називається статистичним критерієм перевірки нульової гіпотези.

46. Ітервальні статистичні оцінки, точність оцінки, довірча ймовірність,


Означення. Довірчим (надійним) інтервалом невідомого параметру θ
~ ~
називають інтервал ( θ 1 ; θ2 ), що містить невідомий параметр з наперед заданою
ймовірністю (надійністю) γ . Відповідна ймовірність γ називається довірчою
ймовірністю, надійністю або рівнем довіри.
Зауваження. Як правило, надійний інтервал є симетричним відносно
~
незсунутої точкової оцінки θ , тобто вибирається інтервал виду ( ~θ − δ , ~θ+δ ) такий,
що
~ ~ ~
P {θ ∈ ( θ− δ , θ+ δ ) }=P {|θ − θ|<δ }=γ
Означення. Точністю інтервальної оцінки називають додатну величину δ .
Зауваження. Рівень довіри вибирається завчасно, прийняті значення надійності
0,9; 0,95; 0,99; 0,995 або 0,999.
У наступних твердженнях вказано межі довірчих інтервалів для параметрів
нормального розподілу.

Твердження. Довірчий інтервал, що з надійністю γ покриває оцінюваний


параметр p – ймовірність появи події в схемі Бернуллі за умови досить великої
кількості випробувань ( n>100 ), має межі

( √ √ )
❑ ❑ ❑ ❑
p (1 − p ) ❑ p ( 1− p )

p −t ∙ ; p +t ∙ , (11.6)
n n
nA
де p❑= – відносна частота події А; t визначається з рівності 2 Φ0 ( t )=γ .
n
З метою оцінювання невідомого парметру p❑ з наперед заданою точністю ε

використовують рівність P {| p − p|< ε }=2Φ 0


❑ ε ∙ √n
. ( √ pq )
Приклад 11.3. Зроблено вибірку об’єму n=25 та розраховано виправлене
середнє квадратичне відхилення S=1,8. Побудувати довірчий інтервал, що
покриває невідомий параметр σ з наперед заданою ймовірністю γ =0 ,99 .
Розв’язання. У формулі (11.5) n=25; S=1,8;γ =0 ,95 . За таблицями χ 2-розподілу
2 2 2
знайдемо необхідні значення χ 1= χ 1+02, 95 , 25− 1= χ ( 0,975 ; 24 ) =12, 4,
2 2 2
χ 1= χ 1− 0 ,95 = χ ( 0,025; 24 )=39 , 4.
, 25− 1
2

Довірчий інтервал має межі: ( √ 25−


√ 39 , 4
;
√ 12 , 4 )
1∙ 1 , 8 √ 25 − 1∙ 1 ,8
.

Остаточно довірчий інтервал що за умов задачі покриває невідомий параметр


нормального розподілу σ має межі (1,405; 2,504).
47. Довірчі інтервали для параметрів нормального розподілу.
Твердження. Довірчий інтервал для математичного сподівання a
нормального розподілу за відомої дисперсії.
Нехай випадкова величина X N ( a , σ ) , значення σ відоме, рівень надійності

оцінки γ задано, тоді довірчий інтервал для M ( X )=a має межі

( X − t ∙ √σn , X + t ∙ √σn ), (11.2)

γ 1+γ
де n –об’єм вибірки; t визначається з рівності Φ 0 ( t )= 2 (або Φ ( t )= 2 )

Доведення. Приймемо без доведення той факт, що вибіркове середнє


n 2
1 σ
X B= X= ∑ X iмає нормальний розподіл з параметрами M ( X )=a , D ( X )= .
n i=1 n

Використовуємо формулу обчислення ймовірності попадання нормально


розподіленої випадкової величини у симетричний відносно математичного
сподівання інтервал (лекція 8, твердження_________)

P {|X − a|< δ } =2Φ 0 ( δσ )=2Φ ( σδ )− 1.


Остання формула, з урахуванням ймовірнісного змісту надійності статистичної
оцінки та нормального розподілу випадкової величини X , може бути
переписана у формі:

γ =P {| X − a|< ε } =2Φ 0 ( ε √σ n )=2 Φ ( t ),


0 (11.3)

ε√n
де t= σ . З останньої рівності отримуємо точність оцінки, що відповідає рівню

надійності γ :

ε= . (11.4)
√n

Враховуючи у формулі (11.3) точність (11.4) маємо

{
γ =P |X − a|<

√n }
=2 Φ 0 ( t ),
{ σ
} σ
або P X − t ∙ √ n , X + t ∙ √ n =2Φ 0 ( t )=γ , що і треба було довести.

Зауваження. Із збільшенням об’єму вибірки значення ε зменшується і точність


відповідної оцінки зростає; збільшення рівня надійності зменшує точність
оцінки.
Приклад 11.1. Було виконано 10 незалежних випробувань, в результаті яких
випадкова величина X N ( a , 3 ) набула таких значень 14; 16; 15; 13; 14; 14; 12; 13;
14; 15. Знайти точкову оцінку для математичного сподівання та побудовати
довірчий інтервал для рівня надійності γ =0 ,9 .
Розв’язання. Відповідно до теореми 11.3 точковою оцінкою математичного
сподівання є вибіркове середнє, тобто
1
X= ( 14+16+ 15+13+14+ 14+12+13+14 +15 )=14 .
10
Згідно умови рівень довіри γ =0 ,9 , відповідне значення параметру t знаходимо з
γ
рівності Φ 0 ( t )= 2 =0 , 45 , використовуючи додаток_________. Маємо t=t γ =1 ,65 .
1 , 65 ∙3
За формулою (11.4) ε = √ 10 ≈ 1 ,57 .

Довірчий інтервал для a=M ( X ) має межі (14–1,57; 14+1,57), тобто


(12,43; 15,57).
Твердження. Довірчий інтервал для математичного сподівання a
нормального розподілу за невідомої дисперсії.
Нехай випадкова величина X N ( a , σ ) , значення σ невідоме, рівень надійності

оцінки γ задано, тоді довірчий інтервал для M ( X )=a має межі

( X − t ∙ √Sn , X +t ∙ √Sn ),
γ γ (11.3)

де n – об’єм вибірки; t γ визначається з таблиці квантилів розподілу Стьюдента


(додаток___________), в залежності від рівня довіри γ та числа ступенів
свободи ν=n −1.
Приклад 11.2. За умовою прикладу 11.1, вважаючи, що X N ( a , σ ) , побудувати для
невідомого математичного сподівання довірчий інтервал. Вважати рівень
надійності γ =0 ,95 .
Розв’язання. Значення вибіркового середнього отримано вище X =14.
Розраховуємо виправлену дисперсію:
1
S=
2
( ( 14 −14 )2 + ( 16 −14 )2+ ( 15− 14 )2 + ( 13 −14 )2+ ( 14 −14 )2+ ( 14 −14 )2+ ( 12−14 )2 + ( 13 −14 )2+ (14 −14 )2+ (15 − 1
9
;


Значення S= 4 ≈ 1,155. Використовуючи таблицю розподілу Стьюдента (додаток
3
_________ ) знаходимо значення t γ =t ( 0 , 95 ; 9 )=2 ,26 .Таким чином, значення
1,155
ε =2 , 26∙ ≈ 0 , 83. Довірчий інтервал, відповідно до формули (11.3) має межі
√10
(13,17; 14,83).

Твердження. Довірчий інтервал для середнього квадратичного


відхилення нормального розподілу за відомого математичного сподівання a
Нехай випадкова величина X N ( a , σ ) , значення a відоме, рівень надійності

оцінки γ задано, тоді довірчий інтервал для σ ( X )=σ має межі

( √ n ∙ S0 √ n ∙ S 0
χ2
,
χ1 ), (11.4)
n
1
де n – об’єм вибірки; S20 = ∑ ( X i − a ) – дисперсія розраховано за відомого
2

n i=1

2 2 2 2
математичного сподівання; χ 1= χ 1+γ
2
,n ,
χ 2= χ 1+γ – квантилі χ 2-розподілу з n
2
,n

ступенями свободи, що визначаються з таблиць (дивись додаток__________)


відповідно до рівня надійності γ .
Твердження. Довірчий інтервал для середнього квадратичного
відхилення нормального розподілу за невідомого математичного сподівання a .
Нехай випадкова величина X N ( a , σ ) , значення a відоме, рівень надійності

оцінки γ задано, тоді довірчий інтервал для σ ( X )=σ має межі

(√ n −1∙ S √ n −1 ∙ S
χ2
,
χ1
, ) (11.5)

n
1
де n – об’єм вибірки; S= ∑ ( X − X ) 2 – виправлене середнє квадратичне
n −1 i=1 i
2 2 2 2
відхилення; χ 1= χ 1+γ
2
,n − 1,
χ 2= χ 1+γ
2
,n − 1 – квантилі χ -розподілу з n – 1 ступенями
2

свободи, що визначаються з таблиць (дивись додаток__________) відповідно до


рівня надійності γ .

Довірчий інтервал для За умови Межі інтервалу Додаткові формули


Математичного сподівання σ невідоме
нормального розподілу
( X − t ∙ √σn , X + t ∙ √σn ) Φ 0 ( t )=
γ
2

Математичного сподівання σ відоме


нормального розподілу
( X − t ∙ √Sn , X +t ∙ √Sn )
γ γ
t γ =t ( 1 − γ ; n −1 )

( )
Середнього квадратичного M ( X )=a √ n ∙ S0 √ n ∙ S 0 2 2
χ 1= χ 1+γ , χ 2= χ 1+γ
2 2

, ,n
2
,n
2
відхилення σ нормально відоме χ2 χ1
розподіленої величини
M ( X )=a
( )
Середнього квадратичного √ n −1∙ S , √ n −1 ∙ S 2
χ 1= χ 1+γ
2 2 2
χ 2= χ 1+γ
,n − 1, ,n − 1
відхилення σ нормально невідоме χ2 χ1 2 2

розподіленої величини

( √ √ )
Параметру p – ймовірності ( n>100 ) n ❑
p ❑( 1− Ap ) Φ 0 ( t )= γ
❑ ❑ ❑
p (1 − p ) ❑
; p +t ∙ p = n ,

p −t ∙ 2
появи події в схемі n n
Бернуллі ,

You might also like