You are on page 1of 56

Rachunek prawdopodobiestwa MAEW 104

Materiay do wykadu przygotowane przez


L. Janick, M. Rutkowsk, W. Wawrzyniak-Kosz
Literatura
[1] J.Jakubowski, R.Sztencel, Wstep do teorii prawdopodobiestwa, SCRIPT,
Warszawa 2001
[2] J.Jakubowski, R.Sztencel, Rachunek prawdopodobiestwa dla (prawie)
kadego, SCRIPT,Warszawa 2002
[3] T.Inglot, T.Ledwina, T.awniczak, Materiay do wiczen z rachunku
prawdopodobiestwa i statystyki matematycznej, Wydawnictwo Politechniki
Wrocawskiej, Wrocaw 1979
[4] H.Jasiulewicz, W.Kordecki, Rachunek prawdopodobiestwa i statystyka
matematyczna. Przykady i zadania, GiS.Wrocaw 2002
[5] W.Kordecki, Rachunek prawdopodobiestwa i statystyka matematyczna.
Definicje, twierdzenia, wzory , GiS, Wrocaw 2002
[6] W.Krysicki, J.Bartos,W.Dyczka, K.Krlikowska,M.Wasilewski, Rachunek
prawdopodobiestwa i statystyka matematyczna w zadaniach, cz I, PWN
Warszawa, 1997

1.1. Wstp czstociowa interpretacja prawdopodobiestwa
W otaczajcej nas rzeczywistoci mamy do czynienia nie tylko z dowiadczeniami
deterministycznymi ale te z tak zwanymi dowiadczeniami losowymi, ktrych wyniku nie
potrafimy przewidzie, jednak potrafimy okreli zbir moliwych wynikw. Rachunek
prawdopodobiestwa zajmuje si opisem dowiadcze losowych, ktre mona powtarza w
tych samych warunkach oraz badaniem prawidowoci ktrym podlegaj. Zaczniemy od
opisu pewnego dowiadczenia wykonanego przez Rutherforda i Geigera. Obserwowali oni
emisj czstek radioaktywnej substancji w przedziaach czasu o dugoci 7,5 sek. Dokonano
n = 2608 dowiadcze. Zaobserwowane wyniki przedstawia tabela, gdzie k oznacza liczb
czstek wyemitowanych w przedziale czasu o dugoci 7,5 s, n(k) oznacza liczb obserwacji
w ktrych wystpi wynik k,

=
=
10
0
) (
k
n k n , w(k) jest czstoci pojawienia si wyniku k,
n
k n
k w
) (
) ( = .

k

n(k) w(k)
0 53 0,022
1 203 0,078
2 383 0,147
3 525 0,201
4 532 0,204
5 408 0,156
6 273 0,105
7 139 0,053
8 45 0,017
9 27 0,010
10 16 0,006

Wartoci funkcji w(k) dla innej serii pomiarw mog by inne.

Zauwaono, e dla dugich serii pomiarw wartoci funkcji w(k) stabilizuj si wok
wartoci funkcji
!
) (
k
e
k p
k


= , gdzie jest pewn sta (w podanym przykadzie
877871 , 3 = ). Wartoci funkcji p(k) nie zale od n.


k n(k) w(k) p(k)
0 53 0,022 0,021
1 203 0,078 0,081
2 383 0,147 0,156
3 525 0,201 0,201
4 532 0,204 0,195
5 408 0,156 0,151
6 273 0,105 0,097
7 139 0,053 0,054
8 45 0,017 0,026
9 27 0,010 0,011
10 16 0,006 0,007




0
0,05
0,1
0,15
0,2
0,25
0 1 2 3 4 5 6 7 8 9 10
liczba emitowanych czstek
w
(
k
)
,

p
(
k
)
w(k)
p(k)




Inne przykady dowiadcze losowych to rzut kostk, rzut monet, obserwacja czasu
niezawodnej pracy pewnego urzdzenia,..






1.2. Definicja i wasnoci prawdopodobiestwa.
Zbir wszystkich moliwych wynikw dowiadczenia losowego nazywamy przestrzeni
zdarze elementarnych i oznaczamy przez .Elementy zbioru nazywamy zdarzeniami
elementarnymi i oznaczamy przez .

Przykady przestrzeni zdarze elementarnych.
1. W dowiadczeniu Rutherforda i Geigera obserwowano liczb czstek wyemitowanych
przez ciao radioaktywne - ,....} 2 , 1 , 0 { = .
2. Wykonujemy rzut kostk - obserwujemy liczb oczek na kostce - } 6 , 5 , 4 , 3 , 2 , 1 { =
3. Obserwujemy czas t niezawodnej pracy urzdzenia - )} , 0 [ : { = t t .
4. Wyznaczamy czas cigania pliku i liczb przerw w jego ciganiu -
,....}} 2 , 1 , 0 { ), , 0 [ : ) , {( = k t k t .
5. Rzucamy symetryczn monet a do pojawienia si ora - ,....} , , { RRO RO O = .

Zdarzeniem losowym nazywamy podzbir . Zbir wszystkich zdarze oznacza bdziemy
liter F. Dla zdarze, podobnie jak dla zbiorw, okrelamy alternatyw (sum) zdarze,
koniunkcj (iloczyn) zdarze, rnic zdarze. Zdarzeniem przeciwnym do zdarzenia A
nazywamy zdarzenie A` =\A. nazywamy zdarzeniem pewnym, - zdarzeniem
niemoliwym. Jeeli = B AI , to mwimy, e zdarzenia A, B wykluczaj si.
Nie wszystkie podzbiory bdziemy uwaa za zdarzenie i zaliczy do zbioru F.

Ze wzgldu na wymagania dotyczce dziaa na zdarzeniach, zakadamy, e zbir zdarze F
spenia nastpujce warunki:

U

1
2 1
,... , . 3
, ' . 2
, . 1
n
n
F A F A A
F A F A
F

Rodzin F nazywamy -ciaem zbiorw.
Z podanych warunkw wynika, e F A A = , jeli F A oraz , F = .

W przypadku dyskretnej (tzn. skoczonej lub przeliczalnej) przestrzeni zdarzeniem
losowym moe by dowolny jej podzbir. W przypadku nieprzeliczalnej przestrzeni
rodzin F naley precyzyjnie okreli. W zagadnieniach dobrym modelem probabilistycznym
okazuj si pewne podzbiory prostej, paszczyzny lub przestrzeni. Za rodzin F przyjmuje si
wwczas -ciao zbiorw borelowskich na prostej, paszczynie lub w przestrzeni, przez co
rozumie si najmniejsze -ciao zbiorw zawierajce przedziay otwarte (a, b) w R (koa
otwarte w R
2
, kule otwarte w R
3
) Mwic obrazowo, zbir borelowski w R (w R
k


,k=2,3) to
kady zbir, ktry mona otrzyma jako wynik przeliczalnych dziaa mnogociowych
wykonanych na rodzinie wszystkich przedziaw na prostej czy kul otwartych w przestrzeni
k-wymiarowej (k=2,3). Na przykad zbiorem borelowskim w R jest kady przedzia
jednostronnie czy dwustronnie domknity i kada pprosta.

Opisujc dowiadczenia losowe podajemy zbir wszystkich moliwych wynikw, okrelamy
rodzin F ale najbardziej interesujce s pytania o szans zajcia poszczeglnych zdarze. T
szans okrelajc zajcie zdarzenia mierzy funkcja zwana prawdopodobiestwem.


Definicja 1.2.
Prawdopodobiestwem nazywamy funkcj okrelon na rodzinie zdarze F speniajc
nastpujce warunki:

1 ) ( . 2
deg , 1 ) ( 0 . 1
=

P
F A o ka dla A P

3. Jeeli ,... ,
2 1
A A s parami rozczne (tzn. , =
j i
A A dla dowolnych j i ), to
U

=
1 1
) ( ) (
n n
n n
A P A P .
W szczeglnoci ) ( ) ( ) ( B P A P B A P + = dla zdarze rozcznych A, B.


Z powyszych warunkw (aksjomatw) wynika wiele wasnoci prawdopodobiestwa,
z ktrych najwaniejsze s przedstawione poniej:

Fakt 1.3.
1. Jeeli ), ( ) ( , B P A P to B A
2. P(A) = 1 P(A), a std P() = 0.
3. Jeeli ) ( ) ( ) ( ) ( ) \ ( , B A P B P A P B P A B P to B A = = ,
4. B A P B P A P B A P + = ( ) ( ) ( ) ( ).
5.
U
n
i
n
i
i i
A P A P
1 1
) ( ) (
= =

.
6. Jeeli ), ( lim ) ( ...,
1
2 1 n
n
n
n
A P A P to A A
U

=

=
7. Jeeli ). ( lim ) ( ...,
1
2 1 n
n
n
n
A P A P to A A
I

=

=

W przypadku trzech zbiorw A, B, C wzr z punktu 4. przyjmie posta:
) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( C B A P A C P C B P B A P C P B P A P C B A P + + + = a
przypadku dowolnej, skoczonej liczby zbiorw wzr ten mona uoglni w nastpujcy
sposb:
U
n
i n i n i i
n
n
i i i i
A A P A A P A P A P
1 1 1
1
1
2 1
2 1
) ... ( ) 1 ( ... ) ( ) ( ) (
= <
+

+ + =


Fakt.1.4.
Jeeli } : { I i
i
= , gdzie I jest zbiorem skoczonym lub I = N oraz
i i
p P = ) ( , przy
czym 0
i
p oraz

=
=
1
1
i
i
p , to dla A wzr

=
A
i
i
p A P

) ( okrela
prawdopodobiestwo na rodzinie wszystkich podzbiorw zbioru .

Trjk (, F, P) nazywamy przestrzeni probabilistyczn.


1
Przykad 1.1.
Niech A, B, C bd zdarzeniami. Zapisa za pomoc dziaa na zbiorach nastpujce
zdarzenia:
a) zachodzi dokadnie jedno ze zdarze A, B, C;
b) zachodz dokadnie dwa spord zdarze A, B, C;
c) zachodz przynajmniej dwa spord zdarze A, B, C.
d) zachodz co najwyej dwa spord zdarze A, B, C.
R o z w i z a n i e.
a) Zachodzi dokadnie jedno ze zdarze A, B, C, to oznacza dokadnie, e zachodzi A i nie
zachodz B ani C lub zachodzi B i nie zachodz A ani C lub zachodzi C i nie zachodz
A ani B czyli, e zachodzi zdarzenie
A B

B C

C.
b) Podobnie zachodz dokadnie dwa spord zdarze A, B, C oznacza, e zachodzi
zdarzenie
A B C

A B

C A

B C.
c) Zachodz przynajmniej dwa spord zdarze A, B, C oznacza, e zachodz dokad-
nie dwa spord zdarze A, B, C lub zachodz wszystkie trzy zdarzenia, czyli zachodzi
zdarzenie
A B C

A B

C A

B C A B C.
d) Zachodz co najwyej dwa spord zdarze A, B, C oznacza, e nie zachodz wszystkie
trzy zdarzenia, czyli zachodzi zdarzenie
(A B C)

= A

.
Przykad 1.2.
Studenci Wydziau Elektroniki musz zaliczy dwa lektoraty: z jzyka angielskiego i z j-
zyka niemieckiego. Z danych Dziekanatu wynika, e
2
3
studentw zalicza lektorat z jzyka
angielskiego, oba lektoraty zalicza co czwarty student, za przynajmniej jeden z lekto-
ratw zalicza rwnie
2
3
studentw. Jakie jest prawdopodobiestwo, e losowo wybrany
student:
a) nie zaliczy adnego lektoratu?
b) zaliczy jzyk angielski i nie zaliczy jzyka niemieckiego?
R o z w i z a n i e.
Niech A oznacza zdarzenie losowo wybrany student zaliczy lektorat z jzyka angielskie-
go, przyjmujemy, e P(A) =
2
3
, B - zdarzenie losowo wybrany student zaliczy lektorat
z jzyka niemieckiego.
a) Oczywicie chodzi o zdarzenie A

, wic
P(A

) = P((A B)

) = 1 P(A B) = 1
2
3
=
1
3
1
b) Podobnie: P(AB) =
1
4
, P(AB) =
2
3
, wic P(AB) = P(A)P(AB) =
2
3

1
4
=
5
12
Przykad 1.3.
Studenci Wydziau PPT zdaj w sesji zimowej I roku egzaminy z przedmiotw A,B,C.
Wiadomo, z danych poprzednich lat, e przedmiot A zalicza 60% studentw, przedmiot B
zalicza 80% studentw i przedmiot C zalicza 70% studentw. Studenci, ktrzy zaliczyli A
i B stanowi 55% ogu, ci ktrzy zaliczyli A i C stanowi 45% ogu a studenci, ktrzy
zaliczyli B i C stanowi 60% ogu. Sesj zimow zalicza ok. 40% studentw. Obliczy
prawdopodobiestwo, e losowo wybrany student:
a) zaliczy przynajmniej jeden egzamin,
b) zaliczy przynajmniej dwa egzaminy.
R o z w i z a n i e.
Wiemy, e P(A) =
3
5
, P(B) =
4
5
, P(C) =
7
10
oraz
P(A B) =
55
100
, P(A C) =
45
100
, P(C B) =
60
100
, P(A B C) =
40
100
.
Zatem:
a) P(ABC) = P(A)+P(B)+P(C)P(AB)P(BC)P(CA)+P(ABC) =
3
5
+
4
5
+
7
10

55
100

45
100

60
100
+
40
100
=
9
10
.
b) P(AB AC B C)) = P(AB) +P(AC) +P(B C) P((AB) (A
C)) P((AB) (B C)) P((AC) (B C)) +P((AB) (AC) (B C)) =
P(A B) + P(A C) + P(B C) 2P(A B C) =
8
10
.
1.1 Przykady przestrzeni probabilistycznych.
1.1.1 Prawdopodobiestwo klasyczne
Przestrze =
1
,
2
, . . . ,
n
jest zbiorem n zdarze elementarnych, z ktrych kade
zachodzi z tym samym prawdopodobiestwem, czyli P(
k
) =
1
n
dla k = 1, 2, . . . , n.
Zgodnie z Faktem 1.4. wzr
P(A) =
A
n
, (1)
gdzie A oznacza liczb elementw zbioru A, okrela prawdopodobiestwo na wszystkich
zdarzeniach A . Jest to tzw. prawdopodobiestwo klasyczne.
W rozwizywaniu zagadnie, w ktrych przestrze zdarze elementarnych jest skoczona
przydadz si nam wiadomoci z kombinatoryki.
Podstawowe schematy kombinatoryczne
Niech A oznacza dowolny zbir n rnych elementw A = a
1
, a
2
, . . . , a
n
.
Wariacje z powtrzeniami.
k-wyrazow wariacj z powtrzeniami zbioru A nazywamy kady k-wyrazowy cig
elementw tego zbioru Liczba V
k
n
wszystkich wariacji k-wyrazowych z powtrzeniami ze
zbioru n-elementowego wynosi
V
k
n
= n
k
. (2)
2
Wariacje bez powtrze.
k-wyrazow wariacj bez powtrze zbioru A (k n)nazywamy kady k-wyrazowy
cig rnych elementw tego zbioru Liczba V
k
n
wszystkich k-wyrazowych wariacji bez
powtrze ze zbioru n-elementowego wynosi
V
k
n
= n(n 1)(n 2) (n k + 1) (3)
Jeeli k = n, to k-wyrazow wariacj bez powtrze ze zbioru A nazywamy n-wyrazow
permutacj. Zatem liczba P
n
wszystkich permutacji zbioru n-elementowego wynosi
P
n
= n!. (4)
Kombinacje.
k-elementow kombinacj bez powtrze z n-elementowego zbioru A nazywamy
kady k-elementowy podzbir zbioru A. Liczba C
k
n
wszystkich kombinacji k-elementowych
bez powtrze ze zbioru n-elementowego wynosi
C
k
n
=
_
n
k
_
. (5)
Kombinacje z powtrzeniami.
k-elementow kombinacj z powtrzeniami z n-elementowego zbioru A nazy-
wamy zbir skadajcy si z k elementw, rnych lub nie rnicych si midzy sob,
wybranych spord n elementw, przy czym nie jest istotna kolejno, w jakiej elementy
tego zbioru s ustawione. Liczba C
k
n
wszystkich k-elementowych kombinacji z powtrze-
niami ze zbioru n-elementowego jest taka sama, jak liczba wszystkich rnych zbiorw
k-elementowych, jakie mona utworzy ze zbioru (n+k-1) elementw. Kombinacje z po-
wtrzeniami mona interpretowa, jako rozmieszczenie k nierozrnialnych elementw w n
szuadach, przy czym w kadej szuadzie moe by dowolna, nie przekraczajca k, liczba
elementw.
C
k
n
=
_
k + n 1
k
_
=
_
k + n 1
n 1
_
. (6)
Przykad 1.4.
W teorii czstek elementarnych bada si rozmieszczenie k czstek w podzielonej na komr-
ki przestrzeni fazowej, ktr mona matematycznie opisa np.jako podzbir przestrzeni
czterowymiarowej, gdzie wsprzdnymi s pooenie i pd czstki. Fizycy stwierdzili do-
wiadczalnie, e niektre czstki zachowuj si, jak kule rozrnialne, inne - jak kule
nierozrnialne i zaproponowali trzy nastpujce modele zachowania si czstek :
a) statystyka Maxwella-Boltzmanna. Czstki zachowuj si, jak kule rozrnialne, wic
pytajc o liczb moliwych rozmieszcze k czstek w n komrkach mamy do czynienia z
wariacjami z powtrzeniami i kade spord n
k
rozmieszcze jest jednakowo prawdopo-
dobne. Nie znaleziono jeszcze czstek, ktre zachowywayby si zgodnie z tym modelem.
b) statystyka Fermiego-Diraca. Czstki zachowuj si, jak kule nierozrnialne, ale w ka-
dej komrce moe by co najwyej jedna czstka i wszystkie moliwe rozmieszczenia s
jednakowo prawdopodobne. Tak zachowuj si np. elektrony, protony i neutrony.
c) statystyka Bosego-Einsteina. Czstki zachowuj si, jak kule nierozrnialne, w kadej
3
komrce moe by dowolna liczba czstek i wszystkie moliwe rozmieszczenia s jednako-
wo prawdopodobne. Tak zachowuj si np. fotony.
Zadanie w kadym z rozwaanych wyej modeli wyznaczy prawdopodobiestwo, z
jakim k (k n) czstek mona rozmieci po jednej w k z gry zadanych komrkach.
R o z w i z a n i e.
a) Przy ustalonej permutacji k rozrnialnych czstek tylko jedno rozmieszczenie spord
wszystkich n
k
moliwych rozmieszcze spenia dany warunek. Poniewa czstki mo-
na ustawi na k! sposobw, wic prawdopodobiestwo, z jakim k rozrnialnych czstek
mona rozmieci po jednej w k z gry zadanych komrkach rwne jest
k!
n
k
.
b) Jeeli nie odrniamy czstek, ale w kadej komrce moe by co najwyej jedna to
wystarczy wybra k spord n komrek i wrzuci do niej czstk, a to mona zrobi na
_
n
k
_
sposobw. Tylko jeden z nich spenia warunek z zadania, wic prawdopodobiestwo,
z jakim k nierozrnialnych czstek mona rozmieci po jednej w k z gry zadanych
komrkach wynosi
1
(
n
k
)
.
c) W tym przypadku mamy do czynienia z k-elementowymi kombinacjami z powtrze-
niami z n rnych elementw. Dla ustalonych k-komrek jest tylko jeden cig czstek
speniajcy warunki zadania, wic prawdopodobiestwo, z jakim k nierozrnialnych cz-
stek mona rozmieci po jednej w k z gry zadanych komrkach wynosi
1
(
k+n1
k
)
.
Przykad 1.5.
W pudle s kule biae i czarne. Razem jest ich n. Ile powinno by kul czarnych, aby praw-
dopodobiestwo wylosowania (bez zwracania) dwu kul rnych kolorw byo takie samo,
jak prawdopodobiestwo wylosowania dwu kul tego samego koloru?
R o z w i z a n i e.
Dwie spord n kul mona wybra na
_
n
2
_
sposobw. Oznaczmy przez k liczb kul czar-
nych. Zdarzeniu A wylosowano dwie kule rnych kolorw sprzyja k(n k) zdarze
elementarnych. Zdarzeniu B wylosowano kule tego samego koloru sprzyja
_
k
2
_
+
_
nk
2
_
zdarze elementarnych. Wykorzystujc wzr na prawdopodobiestwo klasyczne otrzymu-
jemy
P(A) =
k(nk)2
n(n1)
oraz P(B) =
2k
2
2nk+n
2
n
n(n1)
.
Poniewa zdarzenia A i B s przeciwne, to zamiast warunku P(A) = P(B) wystarczy
rozwaa jeden z warunkw P(A) =
1
2
lub P(B) =
1
2
. Kady z nich jest rwnowany
rwnaniu
4k
2
4kn + n
2
n = 0.
Rozwizaniami tego rwnania s liczby k
1
=
n+

n
2
oraz k
2
=
n

n
2
. Zauwamy, e jeeli

n nie jest liczb naturaln, to zadanie nie ma rozwizania. Jeeli za



n jest liczb
naturaln, to zarwno
k
1
=
n

n
2
=

n(

n1)
2
jak i k
2
=
n+

n
2
=

n(

n+1)
2
s liczbami naturalnymi oraz k
1
+ k
2
= n.
Podsumowujc zadanie ma rozwizanie jedynie w przypadku, gdy n jest kwadratem
liczby naturalnej (tylko wwczas

n jest liczb naturaln), czarnych kul powinno by
k
1
=
n

n
2
=

n(

n1)
2
lub k
2
=
n+

n
2
=

n(

n+1)
2
.
4
Przykad 1.6.
W szuadzie s dwie skarpety na praw nog i jedna na lew nog. Prawdopodobiestwo,
e losowo wybierajc dwie skarpety otrzymamy par rwne jest
2
(
3
2
)
=
2
3
, za prawdopodo-
biestwo wycignicia dwu prawych wynosi
(
2
2
)
(
3
2
)
=
1
3
. Do szuady dooono jedn skarpet.
Jaka to jest skarpeta, skoro teraz prawdopodobiestwo, e wylosowane dwie skarpety sta-
nowi par, wynosi
1
2
?
R o z w i z a n i e.
Wykorzystajmy poprzedni przykad. Mamy n = 4. Wylosowanie pary skarpet odpowia-
da wylosowaniu kul rnych kolorw. Zatem skarpet jednego typu moe by k
1
= 3 lub
k
2
= 1, czyli dooono praw skarpet.
Przykad 1.7.
Przypumy, e do jeziora zawierajcego nieznan liczb N ryb wpuszczono dodatkowo
1000 ryb oznakowanych (np. pomalowanych na czerwono). Po pewnym czasie dokonano
poowu 1000 ryb i znaleziono wrd nich 100 ryb z czerwonymi plamami. Jak na podsta-
wie tych danych oceni liczb ryb w jeziorze?
R o z w i z a n i e.
Za ocen N przyjmiemy tak liczb, dla ktrej prawdopodobiestwo wyowienia 100 zna-
czonych ryb spord 1000 jest najwiksze. Przyjmujc, e liczba ryb w jeziorze rwna
si (N + 1000), wyznaczymy prawdopodobiestwo p
N
(A), gdzie A oznacza zdarzenie po-
legajce na wylosowaniu 100 ryb oznaczonych przy losowaniu 1000 ryb. jest zbiorem
kombinacji 1000-elementowych ze zbioru N + 1000 elementowego. Wrd wylosowanych
jest 900 nieoznakowanych, wic N , 900. Std
=
_
N+1000
1000
_
, A =
_
1000
100
__
N
900
_
, wic p
N
(A) =
(
1000
100
)(
N
900
)
(
N+1000
1000
)
.
Aby okreli najbardziej prawdopodobn liczb ryb w jeziorze, wyznaczymy warto N,
przy ktrej p
N
(A) osiga warto maksymaln. Rozpatrzmy
p
N
(A)
p
N1
(A)
=
N
2
(N900)(N+1000)
= 1 +
100N+9001000
(N900)(N+1000)
.
Zauwamy, e iloraz ten jest wikszy od 1 bd mniejszy ni 1 w zalenoci od tego, czy
100N < 900 1000, czy 100N > 900 1000. Oznacza to, e gdy N ronie, liczby p
N
(A)
najpierw rosn a potem malej. Rozwaany iloraz osiga warto najwiksz, gdy N jest
najwiksz liczb naturaln nie przekraczjc
9001000
100
, czyli N =
9001000
100
lub N = 8999.
1.1.2 Przeliczalna nieskoczona przestrze probabilistyczna
Niech =
1
,
2
, . . . . Jeeli P(
i
) = p
i
przy czym p
i
, 0 oraz

i=1
p
i
= 1, to prawdopo-
dobiestwo zdarzenia A okrelone jest wzorem
P(A) =

i

A
p
i
. (7)
5
Przykad 1.8.
Dwaj gracze, A oraz B, rzucaj na przemian monet, dopki dwa razy pod rzd upadnie
ona na t sam stron. Jeeli drugi pod rzd orze albo druga pod rzd reszka pojawi si
w rzucie nieparzystym, to wygrywa gracz A. W przeciwnym przypadku wygrywa gracz
B. Obliczy prawdopodobiestwo wygranej dla kadego z graczy.
R o z w i z a n i e.
W opisanej grze zdarzeniem elementarnym jest cig, ktrego elementami s ory lub reszki
i na ostatnich dwu miejscach, po raz pierwszy pod rzd s dwa ory lub dwie reszki, czyli
= oo, rr, orr, roo, oroo, rorr, . . . ma nieskoczenie, ale przeliczalnie, wiele zdarze
elementarnych. Niech
k
oznacza zdarzenie druga reszka pod rzd pojawia si po raz
pierwszy w k-tym rzucie monet, za
k
- drugi orze pod rzd pojawi si po raz
pierwszy w k-tym rzucie.. Oczywicie k = 2, 3, . . . . Na przykad
5
= ororr,
5
= roroo.
Prawdopodobiestwo dla zdarze
k
,
k
wynosi
P(
k
) = P(
k
) = 2
k
, k = 2, 3, . . . .
Gracz A wygra, jeeli zajdzie zdarzenie A =
3
,
3
,
5
,
5
, . . .. Wygranej gracz a B
sprzyja zdarzenie A =
2
,
2
,
4
,
4
, . . .. Zatem
P(A) =

k=1
P(
2k+1
,
2k+1
) = 2

k=1
2
(2k+1)
= 2 2
3

1
12
2
=
1
3
oraz
P(B) =

k=1
P(
2k
,
2k
) = 2

k=1
2
2k
= 2 2
2

1
12
2
=
2
3
.
Prawdopodobiestwo wygranej gracza, ktry rzuca monet na parzystych miejscach jest
dwa razy wiksze ni gracza, ktry rzuca monet na nieparzystych miejscach. W tej grze
pozwlmy przeciwnikowi rozpocz gr! My rzucajmy na miejscach parzystych!
1.1.3 Prawdopodobiestwo geometryczne
W wielu zagadnieniach zbir mona przedstawi jako podzbir borelowski przestrzeni
IR (IR
2
lub IR
3
), ktry ma skoczon miar m - dugo (pole, objto). Dla zdarzenia
losowego A , dla ktrego t miar potramy obliczy, prawdopodobiestwo zdarzenia
A zdeniowane wzorem
P(A) =
m(A)
m()
, (8)
nazywamy prawdopodobiestwem geometrycznym.
Przykad 1.9.
Kawaek drutu o dugoci 20cm zgito pod ktem prostym w przypadkowo wybranym
punkcie. Nastpnie zgito drut jeszcze w dwu punktach tak, by powstaa ramka prosto-
ktna o obwodzie 20cm.
a) Jakie jest prawdopodobiestwo, e pole ograniczone ramk nie przekroczy 21cm
2
?
b) Jakie jest prawdopodobiestwo, e pole ograniczone ramk jest rwne 21cm
2
?
R o z w i z a n i e.
a) Niech x oznacza odlego wybranego punktu od bliszego koca drutu. Wwczas
= [0, 10]. Zdarzenie A pole ograniczone ramk nie przekracza 21cm
2
zachodzi wtedy
i tylko wtedy, gdy x(10 x) 21. Rozwizujc nierwno
x
2
+ 10x 21 0 dla x

[0, 10]
6
otrzymujemy
A = x

[0, 10] : x

[0, 3] [7, 10], wic P(A) =
m(A)
m()
=
6
10
.
b) Niech B oznacza zdarzenie pole ograniczone ramk jest rwne 21cm
2
. Wwczas B
zachodzi wtedy i tylko wtedy, gdy x = 3 lub x = 7, wic P(B) =
m(B)
m()
= 0, poniewa
dugo zbioru zoonego z dwu punktw wynosi 0. Zauwamy, e zdarzenie B jest moliwe
ale prawdopodobiestwo jego zajcia rwne jest 0.
Przykad 1.10.
W kadej chwili odcinka czasu T jednakowo moliwe jest nadejcie do odbiornika kade-
go z dwu sygnaw, ktre w tym odcinku czasu zostan przesane. Odbiornik nie moe
przyj drugiego sygnau, jeeli nadejdzie on w czasie krtszym ni od chwili nadejcia
pierwszego sygnau. Obliczy prawdopodobiestwo przyjcia przez odbiornik obu sygna-
w.
R o z w i z a n i e.
Niech x i y oznaczaj czasy nadej-
cia sygnaw do odbiornika. Wtedy
przestrze zdarze elementarnych
= (x, y) : x, y

[0, T]
moemy interpretowa jako kwadrat
o boku T a interesujce nas zdarze-
nie mona zapisa w postaci
A = (x, y) T T : [x y[ , .
Zatem P(A) =
(T)
2
T
2
=
_
1

T
_
2
.
x
y
O
T
T

Rys. 1.01.
Przykad 1.11.
Z przedziau [0, 1] wybieramy losowo trzy liczby x, y, z. Jakie jest prawdopodobiestwo,
e ich suma jest liczb z przedziau [
1
2
, 1]?
R o z w i z a n i e.
W tym przykadzie = (x, y, z) : 0 x, y, z 1, czyli geometrycznie jest szecianem
jednostkowym. Rozwaane zdarzenie to zbir
A =
_
(x, y, z) :
1
2
x + y + z 1
_
.
Tutaj m(A) jest objtoci zbioru A, ktry jest rnic dwu ostrosupw. Zatem
m(A) =
1
3
_
1
2
1 1
1
2

1
2

1
2
_
=
1
3

3
8
=
1
8
.
Poniewa m() = 1, wic P(A) =
1
8
.
7
2 Prawdopodobiestwo warunkowe.
Niezaleno zdarze.
2.1 Prawdopodobiestwo warunkowe.
Niech (, T, P) bdzie przestrzeni probabilistyczn, a B - dowolnie ustalonym zdarze-
niem takim, e P(B) > 0.
Denicja 2.1. Prawdopodobie nstwem warunkowym zdarzenia A pod warunkiem B nazy-
wamy liczb
P(A[B) =
P(A B)
P(B)
.
Std oczywicie P(A B) = P(A[B)P(B).
Posugujc si zasad indukcji matematycznej moemy udowodni, e dla dowolnego n,
przy zaoeniu, e P(A
1
A
n1
) > 0, prawdziwa jest rwno
P(A
1
A
n
) = P(A
1
)P(A
2
[A
1
)P(A
3
[A
1
A
2
) . . . P(A
n
[A
1
A
n1
). (9)
Fakt 2.2. Jeeli P(B) > 0, to funkcja P([B) okrelona na T spenia aksjomaty praw-
dopodobiestwa.
Przykad 2.1.
Rzucamy dwa razy symetryczn kostk.
a) Jakie jest prawdopodobiestwo wyrzucenia rnej liczby oczek?
b) Jakie jest prawdopodobiestwo wyrzucenia rnej liczby oczek, jeeli suma oczek wy-
nosi 11?
c) Jakie jest prawdopodobiestwo wyrzucenia rnej liczby oczek, jeeli suma oczek wy-
nosi 10?
R o z w i z a n i e.
Przestrze zdarze elementarnych jest zbiorem par uporzdkowanych (a, b), gdzie
a, b

1, 2, 3, 4, 5, 6. Wszystkie zdarzenia elementarne s jednakowo prawdopodobne.
a) Niech A oznacza zdarzenie wypada rna liczba oczek, czyli
A = (a, b)

: a ,= b = (1, 1), (2, 2), (3, 3), (4, 4), (5, 5), (6, 6).
Poniewa = 6
2
= 36 oraz A = 36 6 = 30, wic P(A) =
30
36
=
5
6
. b) Zdarzenie suma
oczek wynosi 11 oznaczmy przez B. Oczywicie B = (5, 6), (6, 5). Poniewa B A,
wic B A = B i std
P(A[B) =
P(B)
P(B)
= 1.
W tym przykadzie informacja o zdarzeniu B dawaa pewno, e zajdzie zdarzenie A.
c) Warunkiem jest zdarzenie D = (4, 6), (6, 4), (5, 5). Mamy:
P(D) =
1
12
, A D = (4, 6), (6, 4), P(A D) =
1
18
.
Zatem
8
P(A[D) =
P(AD)
P(D)
=
2
3
.
Jak wida, przy rnych warunkach prawdopodobiestwo zajcia zdarzenia A jest rne.
Przykad 2.2.
Wybrano losowo dwie liczby z przedziau [0, 1]. Jakie jest prawdopodobiestwo, e xy ,
0, 09 , jeeli wiadomo, e x + y 1 ?
R o z w i z a n i e.
Przestrze zdarze elementarnych jest kwadratem jednost-
kowym = (x, y) : x, y

[0, 1].
Interesujce nas zdarzenia to A = (x, y) : xy , 0.09
oraz B = (x, y) : x + y 1. Oczywicie P(B) =
1
2
.
Poniewa
A B =
_
(x, y) : 0.1 x 0, 9;
0,09
x
y 1 x
_
,
wic P(A B) =
0.9
_
0,1
(1 x
0,09
x
)dx =
2
5

9
100
ln 9.
Std P(A[B) =
P(AB)
P(B)
= 2
_
2
5

9
100
ln 9
_
.
x
y
O
1
1
Rys. 1.02.
Przykad 2.3.
Studenci Wydziau Elektroniki musz zda w I semestrze trzy egzaminy: z zyki (A),
analizy matematycznej (C) i z algebry (B). Z danych Dziekanatu wynika, e 70% stu-
dentw zalicza I semestr a 90% - zdaje egzamin z zyki. Jeeli student zaliczy algebr i
zyk, to prawdopodobiestwo, e zda analiz wynosi
4
5
. Jakie jest prawdopodobiestwo,
e student, ktry zda zyk, zda algebr?
R o z w i z a n i e.
Skorzystamy ze wzoru
P(A B C) = P(A) P(B[A) P(C[A B).
Mamy
7
10
=
9
10
P(B[A)
4
5
, skd P(B[A) =
18
25
.
2.2 Wzr na prawdopodobiestwo cakowite i wzr Bayesa.
Zamy,e jest sum rozcznych zbiorw B
i

T dla i

I. Wwczas dla dowolnego
zdarzenia A zbiory A B
i
s parami rozczne. Ponadto A=

i

I
(A B
i
), wic P(A) =

i
P(AB
i
). Jeeli wszystkie zdarzenia B
i
maj dodatnie prawdopodobiestwo, to P(A
B
i
)=P(A[B
i
) P(B
i
) dla kadego iI i otrzymujemy nastpujce twierdzenie.
Twierdzenie 2.1. (Twierdzenie o prawdopodobiestwie cakowitym)
Jeeli jest sum rozcznych zbiorw B
i
, przy czym P(B
i
) > 0 dla wszystkich iI, to
dla dowolnego zdarzenia A zachodzi rwno
P(A) =

i I
P(A[B
i
) P(B
i
).
9
Czasem zdarzenia B
i
wystpujce we wzorze na prawdopodobiestwo cakowite nazywa-
my przyczynami, zdarzenie A - skutkiem. Rozwamy zagadnienie w pewnym sensie
odwrotne do zagadnienia obliczania prawdopodobiestwa cakowitego. Mianowicie zapy-
tajmy, jakie jest prawdopodobiestwo przyczyny B
i
, gdy znany jest skutek A. Poniewa
P(B
i
A)=P(A[B
i
) P(B
i
), wic otrzymujemy tzw. wzr Bayesa
P(B
i
[A) =
P(A[B
i
)P(B
i
)

i I
P(A[B
i
) P(B
i
)
. (10)
Wzr Bayesa nazywamy wzorem na prawdopodobiestwo przyczyny.
Przykad 2.4.
Na stole ley 5 dugopisw. Kade przypuszczenie (hipoteza) dotyczce liczby zepsutych
dugopisw jest jednakowo prawdopodobne. Wybrany losowo dugopis okaza si zepsuty.
Ktre przypuszczenie dotyczce liczby zepsutych dugopisw jest najbardziej prawdopo-
dobne?
R o z w i z a n i e.
Oznaczmy przez H
i
hipotez, e liczba zepsutych dugopisw wynosi i, i = 0, 1, 2, 3, 4, 5.
Mamy P(H
i
) =
1
6
. Niech A oznacza zdarzenie wylosowany dugopis jest zepsuty, ww-
czas P(A[H
i
) =
i
5
. Zatem, ze wzoru na prawdopodobiestwo cakowite otrzymujemy
P(A) =
5

i=0
i
5

1
6
=
1
2
,
a std
P(H
i
[A) =
P(A[H
i
) P(H
i
)
P(A)
=
i
5

1
6
1
2
=
i
15
.
Przy warunku, e wylosowano zepsuty dugopis najbardziej prawdopodobne jest, e wszyst-
kie dugopisy s zepsute.
W statystyce prawdopodobiestwa hipotez P(H
i
) nazywamy prawdopodobiestwami
a priori (przed dowiadczeniem), prawdopodobiestwa P(H
i
[A) - prawdopodobiestwa-
mi a posteriori (po dowiadczeniu).
Przykad 2.5.
Telegraczne przesyanie informacji polega na wysyaniu sygnaw: 0 albo 1. Przy przesy-
aniu 0 przekamanie wystpuje w dwu przypadkach na trzydzieci, a przy przesyaniu 1
przekamanie wystpuje w dwu przypadkach na czterdzieci. Stosunek liczby wysyanych
0 do liczby wysyanych 1 wynosi 5 : 3. Obliczy prawdopodobiestwo, e:
a) wysano 0, jeeli wiadomo, e odebrano 0,
b) wysano 1, jeeli wiadomo, e odebrano 1,
c) wysano 1, jeeli wiadomo, e odebrano 0.
R o z w i z a n i e.
a) Oznaczmy przez B
1
zdarzenie wysano 0, przez B
2
zdarzenie wysano 1, przez
A
1
zdarzenie odebrano 0 oraz przez A
2
zdarzenie odebrano 1 . Wiemy, e
P(A
2
[B
1
) =
2
30
, P(A
1
[B
2
) =
2
40
,
P(B
1
)
P(B
2
)
=
5
3
.
10
Zgodnie ze wzorem Bayesa, prawdopodobiestwo zdarzenia wysano 0, jeeli odebrano
0 rwne jest
P(B
1
[A
1
) =
P(A
1
|B
1
)P(B
1
)
P(A
1
)
.
Zdarzenia B
1
, B
2
speniaj zaoenia twierdzenia o prawdopodobiestwie cakowitym,
wic
P(A
1
) = P(A
1
[B
1
) P(B
1
) + P(A
1
[B
2
) P(B
2
).
Poniewa P(B
2
) =
3
5
P(B
1
) oraz P(A
1
[B
1
) = 1 P(A
2
[B
1
), wic
P(B
1
[A
1
) =
1P(A
2
|B
1
)
1P(A
2
|B
1
)+P(A
1
|B
2
)
3
5
=
280
289
0, 969.
b) Zgodnie ze wzorem Bayesa, prawdopodobiestwo zdarzenia wysano 1, jeeli odebrano
1 rwne jest
P(B
2
[A
2
) =
P(A
2
|B
2
)P(B
2
)
P(A
2
)
.
Zdarzenia B
1
, B
2
speniaj zaoenia twierdzenia o prawdopodobiestwie cakowitym,
wic
P(A
2
) = P(A
2
[B
1
) P(B
1
) + P(A
2
[B
2
) P(B
2
).
Poniewa P(B
1
) =
5
3
P(B
2
) oraz P(A
2
[B
2
) = 1 P(A
1
[B
2
), wic
P(B
2
[A
2
) =
1P(A
1
|B
2
)
1P(A
1
|B
2
)+P(A
1
|B
2
)
5
3
0, 919
c) P(B
2
[A
1
) = 1 P(B
1
[A
1
) = 1 0.969 = 0.031.
Przykad 2.6.
Przecitnie 3% wyprodukowanych elementw ma wad. Do wykrywania wady stosuje si
test, ktry z prawdopodobiestwem 0, 9 wskazuje wad (wynik testu pozytywny), jeeli
element ma wad i z prawdopodobiestwem 0, 95 nie wskazuje wady, jeeli element jej nie
ma.
a) Jakie jest prawdopodobiestwo, e element ma wad, jeeli wynik testu jest pozytywny?
b) Jakie jest powysze prawdopodobiestwo, jeeli element poddamy testowi dwukrotnie
i za kadym razem otrzymamy pozytywny wynik testu?
R o z w i z a n i e.
a) Oznaczmy przez W zdarzenie element ma wad i przez N zdarzenie element nie ma
wady. Zdarzenia te s rozczne, W N = oraz
P(W) = 0.03, P(N) = 0.97.
Niech D oznacza zdarzenie wynik testu jest pozytywny. Z danych zawartych w zadaniu
wynika, e
P(D[W) = 0.9, P(D

[N) = 0.95.
Do obliczenia prawdopodobiestwa zdarzenia element ma wad, jeeli wynik testu by
pozytywny, czyli prawdopodobiestwa warunkowego P(W[D) wykorzystamy wzr Bay-
esa.
P(W[D) =
P(D|W)P(W)
P(D)
=
P(D|W)P(W)
P(D|W)P(W)+P(D|N)P(N)
=
0.90.03
0.90.03+0.050.97
= 0.358
poniewa z wasnoci prawdopodobiestwa warunkowego wynika, e
11
P(D[N) = 1 P(D

[N).
Zatem, jeeli wynik testu jest pozytywny, to prawdopodobiestwo, e losowo wybrany
element ma wad wynosi 35, 8%, czyli wrd elementw, ktre test wskazuje jako wadliwe
tylko 35, 8% elementw ma wad! Co wpywa na tak jako testu? Jaki test byby lepszy?
Dla wad, ktre wystpuj rzadko naleaoby wykorzystywa testy o wikszych wartociach
P(D[W) oraz P(D

[N).
b) Obliczamy, jakie jest prawdopodobiestwo, e element ma wad, jeeli test przeprowa-
dzony na nim dwukrotnie da wyniki pozytywne.
Niech A oznacza zdarzenie test przeprowadzony dwukrotnie na elemencie da za kadym
razem wynik pozytywny. Wwczas
P(A[W) = P(D[W) P(D[W) oraz P(A[N) = P(D[N) P(D[N).
Std P(W[A) =
P(A|W)P(W)
P(A|W)P(W)+P(A|N)P(N)
=
(0.9)
2
0.03
(0.9)
2
0.03+(0.05)
2
0.97
= 0.909. Zatem, jeeli
dwukrotnie zastosowany test da wyniki pozytywne, to prawdopodobiestwo, e element
ma wad wynosi 0.909. Prawdopodobiestwo trafnej diagnozy znacznie wzroso, gdy test
przeprowadzilmy dwukrotnie!

tatwo policzy, e prawdopodobiestwo zdarzenia element


ma wad, jeeli test przeprowadzony trzykrotnie na tym elemencie da za kadym razem
wynik pozytywny rwne jest 0.994.
Przykad 2.7.
Prawdopodobiestwo, e pogoda w danej miejscowoci jest taka sama, jak dnia poprzed-
niego rwne jest a dla dnia deszczowego i b dla dnia bezdeszczowego (a, b

(0, 1)).
Prawdopodobiestwo, e pierwszy dzie roku jest deszczowy rwne jest p
1
. Obliczy praw-
dopodobiestwo p
n
, e n-ty dzie roku jest deszczowy.
R o z w i z a n i e.
Oznaczmy przez D
n
zdarzenie n-ty dzie roku jest deszczowy, a przez B
n
zdarzenie
n-ty dzie roku jest bezdeszczowy. Wwczas dla dowolnego n , 1 mamy:
P(D
n+1
[D
n
) = a, P(B
n+1
[B
n
) = b, P(D
n+1
[B
n
) = 1 b, P(B
n+1
[D
n
) = 1 a.
Policzmy
p
2
= P(D
2
) = P(D
2
[D
1
) p
1
+ P(D
2
[B
1
) (1 p
1
) = ap
1
+ (1 b)(1 p
1
)
= p
1
(a + b 1) + 1 b,
p
3
= P(D
3
) = P(D
3
[D
2
) p
2
+ P(D
3
[B
2
) (1 p
2
) = ap
2
+ (1 b)(1 p
2
)
= p
1
(a + b 1)
2
+ (1 b)(a + b 1) + 1 b,
p
4
= P(D
4
) = P(D
4
[D
3
) p
3
+ P(D
4
[B
3
) (1 p
3
) = p
3
(a + b 1) + 1 b
= p
1
(a + b 1)
3
+ (1 b)(a + b 1)
2
+ (1 b)(a + b 1) + 1 b,
Posugujc si zasad indukcji matematycznej mona pokaza, e
p
n
= p
1
(a + b 1)
n1
+ (1 b)
n2

k=0
(a + b 1)
k
= p
1
(a + b 1)
n1
+ (1 b)
1 (a + b 1)
n1
1 a b + 1
=
1 b)
(1 a) + (1 b)
+ p
1
(a + b 1)
n1

(1 b)(a + b 1)
n1
(1 a) + (1 b)
.
Poniewa a + b 1

(0, 1), wic lim
n
(a + b 1)
n1
= 0 i std lim
n
p
n
=
1b
(1a)+(1b)
.
12
2.3 Niezaleno zdarze.
Denicja 2.3. Dwa zdarzenia A i B nazywamy niezale znymi, jeeli
P(A B) = P(A) P(B).
Jeeli P(B) > 0, to z niezalenoci zdarze A i B wynika, e P(A[B) = P(A), czyli, jak
si potocznie mwi, zajcie zdarzenia B nie ma wpywu na prawdopodobiestwo zajcia
zdarzenia A. Oczywicie dla dowolnego A

T zdarzenia A i s niezalene. Podobnie
- zdarzenia A i s niezalene. Jeeli zdarzenia A i B s rozczne i maj niezerowe
prawdopodobiestwa, to nie mog by niezalene.
Zdarzenia A
1
, A
2
, A
3
, . . . nazywamy rodzin zdarze niezalenych, jeeli dla kadej
skoczonej iloci zdarze A
i
1
, A
i
2
, . . . , A
in
zachodzi rwno
P(A
i
1
A
in
) = P(A
i
1
) P(A
in
). (11)
Fakt 2.4. Jeeli zdarzenia A
1
, A
2
, . . . , A
n
s niezalene, to niezalene s take zdarzenia
B
1
, B
2
, . . . , B
n
, gdzie B
i
= A
i
lub B
i
= A

i
dla i = 1, 2, . . . , n.
Przykad 2.8.
Wyrazi prawdopodobiestwo sumy n niezalenych zdarze A
i
, i = 1, 2, . . . , n za pomoc
prawdopodobiestw poszczeglnych skadnikw.
R o z w i z a n i e.
Poniewa
n

i=1
A
i
=
n

i=1
A

i
,
wic korzystajc z wasnoci prawdopodobiestwa i z niezalenoci zdarze A
i
, i =
1, 2, . . . , n moemy napisa
P
_
n

i=1
A
i
_
= 1 P(
n

i=1
A

i
) = 1
n

i=1
P(A

i
) = 1
n

i=1
(1 P(A
i
)).
czyli
P
_
n
_
i=1
A
i
_
= 1
n

i=1
(1 P(A
i
)). (12)
W tym momencie warto sobie przypomnie, jak si oblicza prawdopodobiestwo sumy
zdarze, o ktrych nie wiadomo, czy s parami rozczne (wzr ??). Wida, e, gdy
zdarzenia A
i
s niezalene, ten do skomplikowany wzr mona mocno uproci.
Przykad 2.9.
Trzech kontrolerw jakoci pracuje niezalenie. Pierwszy wykrywa 90% wad, drugi - 80%
a trzeci - 60%. Jaki procent wad wykrywaj cznie? Jaki procent wad wykrywa trzeci
kontroler a nie wykrywa pierwszy ani drugi?
R o z w i z a n i e.
Niech A
i
oznacza zdarzenie wad wykry i-ty kontroler. Wwczas:
P(A
1
) =
9
10
, P(A
2
) =
8
10
, P(A
3
) =
6
10
,
Wada zostanie wykryta, gdy zajdzie zdarzenie A = A
1
A
2
A
3
. Wykorzystujc wzr
na prawdopodobiestwo zdarzenia przeciwnego oraz prawa de Morgana otrzymujemy
13
P(A
1
A
2
A
3
) = 1 P(A

1
A

2
A

3
).
Poniewa z niezalenoci zdarze A
1
, A
2
, A
3
wynika niezaleno zdarze A

1
, A

2
, A

3
, wic
P(A
1
A
2
A
3
) = 1 P(A

1
)P(A

2
)P(A

3
) = 1 0, 1 0, 2 0, 4 = 0, 992.
Zatem cznie kontrolerzy wykrywaj 99, 2% wad.
Zdarzenie spord trzech kontrolerw wad wykry tylko trzeci kontroler mona zapisa
jako zdarzenie A

1
A

2
A
3
. Poniewa te trzy zdarzenia (tzn. A

1
, A

2
, A
3
) s niezalene,
wic
P(A

1
A

2
A
3
) = 0, 1 0, 2 0, 6 = 0, 012.
Przykad 2.10.
Niezawodnoci urzdzenia nazywamy prawdopodobiestwo tego, e bdzie ono praco-
wa poprawnie przez czas nie mniejszy ni T. Obliczy niezawodno urzdze, ktrych
schematy przedstawiaj ponisze rysunki. Liczby p
1
, p
2
, . . . oznaczaj niezawodnoci po-
szczeglnych, niezalenie pracujcych elementw.
a) p
1
p
2
pn
b)
p
1
p
2
pn
c)
p
1
p
2
p
3
p
4
p
5
p
6
p
7
.
R o z w i z a n i e.
Niech A
i
oznacza zdarzenie, e i-ty element pracuje poprawnie co najmniej przez czas T.
Wtedy p
i
= P(A
i
). Niech p oznacza niezawodno urzdzenia.
a) Urzdzenie pracuje niezawodnie wtedy i tylko wtedy, gdy niezawodny jest kady ele-
ment, czyli, gdy zajdzie zdarzenie A
1
A
2
. . .A
n
. Wykorzystujc niezawodno zdarze
A
i
otrzymujemy
p = P(A
1
A
2
. . . A
n
) = p
1
p
2
. . . p
n
.
b) Urzdzenie pracuje niezawodnie wtedy i tylko wtedy, gdy przynajmniej jeden element
jest niezawodny, czyli, gdy zajdzie zdarzenie A
1
A
2
. . . A
n
. Std
p = P(A
1
A
2
. . . A
n
)
i wykorzystujc prawa de Morgana oraz niezaleno tych zdarze, otrzymujemy
p = 1 P(A

1
A

2
. . . A

n
) = 1 P(A

1
) P(A

2
) . . . P(A

n
) = 1
n

i=1
(1 p
i
)
14
c) Urzdzenie pracuje niezawodnie wtedy i tylko wtedy, gdy zajdzie zdarzenie A
1
i zda-
rzenie A
2
(A
3
A
4
) i zdarzenie A
5
A
6
A
7
. Wykorzystujc wzr na sum zdarze oraz
ich niezaleno otrzymujemy
p = P(A
1
) P(A
2
(A
3
A
4
)) P(A
5
A
6
A
7
)
= p
1
(p
2
+ p
3
p
4
p
2
p
3
p
4
)(p
5
+ p
6
+ p
7
p
5
p
6
p
6
p
7
p
5
p
7
+ p
5
p
6
p
7
).
Przykad 2.11.
Rozwaamy rodziny posiadajce n dzieci. Niech A oznacza zdarzenie, e rodzina ma dzie-
ci obu pci, a B - rodzina ma przynajmniej jedn dziewczynk. Czy zdarzenia A i B s
niezalene?
R o z w i z a n i e.
Przyjmujc, e dzieci w rodzinie uporzdkowane s np. wedug starszestwa, oznaczmy
przez zbir cigw n-elementowych o elementach 0 (dziewczynka) i 1 (chopiec). Ww-
czas
= 2
n
, A = 2
n
2, B = 2
n
1, A B = 2
n
2.
Zatem
P(A B) =
2
n
2
2
n
, a P(A) P(B) =
2
n
2
2
n

2
n
1
2
n
i rwno nigdy nie zachodzi.
Przykad 2.12.
Wkadamy losowo n ponumerowanych kul do n ponumerowanych szuad. Jakie jest praw-
dopodobiestwo p
n
, e przynajmniej jedna kula tra do szuady o tym samym numerze?
Obliczy lim
n
p
n
.
R o z w i z a n i e.
Niech A
i
oznacza zdarzenie i-ta kula wpada do i-tej szuady, i = 1, 2, . . . , n . Kada
kula wpada niezalenie do kadej z szuad z tym samym prawdopodobiestwem rwnym
1
n
. Std, wykorzystujc wzr 12, otrzymujemy
p
n
= P(
n

i=1
A
i
) = 1
_
n1
n
_
n
.
Zatem lim
n
p
n
= 1 lim
n
_
n1
n
_
n
= 1 e
1
.
3 Zmienne losowe jednowymiarowe.
3.1 Denicja oraz rozkad i dystrybuanta zmiennej losowej.
Matematyczny opis dowiadczenia losowego wymaga sprecyzowania przestrzeni probabili-
stycznej, z ktr mamy do czynienia. Wprowadzimy teraz pojcia, ktre pozwol uproci
i stworzy jednolity opis dowiadczenia losowego. Zacznijmy od przykadu.
Badamy jako czterech wyprodukowanych elementw. Kady z nich moe by dobry
(oznaczmy to przez 1) lub wadliwy (oznaczmy to przez 0). Mamy wwczas
= (
1
,
2
,
3
,
4
) :
i
0, 1, i = 1, 2, 3, 4.
15
T jest zbiorem wszystkich podzbiorw zbioru . Faktycznie, najczciej interesuje nas
tylko liczba elementw dobrych wrd sprawdzanych, czyli wynikowi (
1
,
2
,
3
,
4
) przy-
pisujemy liczb (
1
+
2
+
3
+
4
). Okrelamy zatem na funkcj X o wartociach w IR
wzorem
X(
1
,
2
,
3
,
4
) =
1
+
2
+
3
+
4
.
Wartociami funkcji X jest jedna z liczb ze zbioru 0, 1, 2, 3, 4.
Zdarzenie (
1
,
2
,
3
,
4
) : X(
1
,
2
,
3
,
4
) = k oznaczamy krtko (X = k).
Denicja 3.1. Zmienna

losowa

nazywamy kad funkcj X : IR tak, e dla


dowolnego a IR zbir (X < a) = : X() < a jest zdarzeniem losowym, czyli
: X() < a

T dla dowolnego a

IR.
W dalszym cigu zapisujemy krtko


: X() < a = (X < a).
Z wasnoci rodziny T wynika, e zdarzeniami losowymi s te wszystkie zbiory postaci:
(X a), (X > a), (X , a), (a < X < b), (a < X b), (a X < b).
Ze zmienn losow wie si pojcie jej dystrybuanty.
Denicja 3.2. Dystrybuanta

zmiennej losowej X: IR nazywamy funkcj


F
X
: IR [0, 1] okrelon wzorem:
F
X
(x) = P(X < x)
Twierdzenie 3.1. Funkcja F : IR IR jest dystrybuant pewnej zmiennej losowej wtedy
i tylko wtedy, gdy :
F jest niemalejca,
lim
x
F(x) = 0, lim
x+
F(x) = 1.
F jest lewostronnie ciga,
Z dwu pierwszych warunkw wynika, e dla kadego x IR prawdziwa jest nierwno
0 F(x) 1.
16
Przykad 3.1.
Czy mona dobra stae a, b tak, by funkcja F(x) bya dystrybuant pewnej zmiennej
losowej?
F(x) =
_

_
ae
x
gdy x 1,
0, 5 gdy 1 < x 1,
b(2
1
x
) gdy x > 1.
R o z w i z a n i e.
Sprawdmy, czy istniej stae a, b, dla ktrych F(x) spenia zaoenia twierdzenia 3.1.
F(x) jest lewostronnie ciga.
lim
x
ae
x
= 0, wic a , 0.
lim
x+
b(2
1
x
) = 2b = 1, wic b =
1
2
. Aby F(x) bya niemalejca musi zachodzi warunek
ae
1

1
2
oraz b =
1
2
. Zatem dla kadej pary liczb (a, b), gdzie 0 a
e
2
, b =
1
2
funkcja
F(x) jest dystrybuant pewnej zmiennej losowej. Tylko dla pary liczb (
e
2
,
1
2
) F(x) jest
ciga na IR.
Jeeli potramy dla kadego podzbioru borelowskiego B okreli prawdopodobiestwo,
z jakim X przyjmuje wartoci w zbiorze B, to mwimy, e zosta okrelony rozkad
zmiennej losowej X:
P
X
(B) = P( : X() B).
W dalszym cigu oznaczamy krtko
P(X B) = P
X
(B).
Zauwamy, e rozkad zmiennej losowej spenia aksjomaty prawdopodobiestwa.
Rozkad zmiennej losowej jest jednoznacznie wyznaczony przez jej dystrybuant, co jest
treci nastpujcego faktu.
Fakt 3.3. Prawdziwe s nastpujce rwnoci:
1. P(X , a) = 1 F
X
(a),
2. P(a X < b) = F
X
(b) F
X
(a),
3. P(X = a) = F
X
(a
+
) F
X
(a)
(std, jeeli F
X
jest ciga w punkcie a, to P(X = a) = 0),
4. P(X a) = F
X
(a
+
),
5. Jeeli X jest typu cigego, to P(X = a) = 0 dla kadego a

IR.
Wyrniamy dwa zasadnicze typy zmiennych losowych: zmienne losowe typu skokowego i
zmienne losowe typu cigego.
Denicja 3.4. Mwimy, e zmienna losowa X jest typu skokowego lub X jest zmien-
na

dyskretna

, jeeli X przyjmuje skoczenie lub co najwyej przeliczalnie wiele wartoci


x
i
, i

I przy czym P(X = x
i
) = p
i
> 0 oraz

i

I
p
i
= 1.
Rozkad prawdopodobiestwa zmiennej dyskretnej nazywa si czsto funkcj prawdo-
podobiestwa i zapisuje w postaci
(x
i
, p
i
) : i

I
17
Dystrybuanta F
X
: IR [0, 1] zmiennej dyskretnej ma posta
F
X
(x) = P(X < x) =

{i:x
i
<x}
p
i
.
Jest to funkcja schodkowa, lewostronnie ciga o skokach o wartoci p
i
w punktach x
i
, i

I.
Przykad 3.2.
Zorganizowano nastpujc gr : gracz wyciga z talii 52 kart dwie karty (bez zwracania).
Jeeli s to dwa asy - gracz otrzymuje 20 punktw; jeeli dwie gury (krl, dama, walet) -
gracz otrzymuje 10 punktw; w kadym pozostaych przypadkw gracz traci dwa punkty.
Znale rozkad zmiennej losowej X oznaczajcej wygran gracza. Wyznaczy i narysowa
dystrybuant X.
3.2 Najwaniejsze rozkady dyskretne
Rozkad zerojedynkowy .
Mwimy, e zmienna losowa X ma rozkad zerojedynkowy z parametrem p (rozkad
B(1, p)), jeeli X przyjmuje tylko dwie wartoci oznaczane przez 1 i 0 (nazywane od-
powiednio sukcesem i porak) oraz
P(X = 1) = p, P(X = 0) = q = 1 p gdzie p

(0, 1).
Typowymi przykadami zmiennych o rozkadzie zerojedynkowym s zmienne losowe, ktre
opisuj jako wyrobu (dobry, wadliwy), prac urzdzea dwustanowych czy wynik gry
(wygrana, przegrana).
Rozkad dwumianowy - rozkad Bernoulliego
Eksperyment ze zmienn losow o rozkadzie B(1, p) powtarzamy niezalenie n razy. Niech
X oznacza liczb sukcesw w n powtrzeniach. Wwczas
P(X = k) =
_
n
k
_
p
k
q
nk
, dla k = 0, 1, . . . , n
Mwimy, e zmienna losowa zdeniowana wyej ma rozkad Bernoulliego z parametrami
(n, p). Piszemy wwczas, e zmienna losowa ma rozkad B(n, p). atwo sprawdzi, wyko-
rzystujc wzr na dwumian Newtona, e nieujemne wartoci P(X = k) sumuj si do 1:
n

k=0
P(X = k) =
n

k=0
_
n
k
_
p
k
q
nk
= (p + q)
n
= 1.
Zauwamy, e jeeli X
i
(i = 1, 2, . . . , n) s niezalenymi zmiennymi losowymi, z ktrych
kada ma rozkad B(1, p), to zmienna losowa Y =X
1
+X
2
+. . .+X
n
opisuje czn liczb
sukcesw w tych n prbach, czyli ma wanie rozkad Bernoulliego z parametrami n, p.
Warto k
0
, ktr zmienna losowa dyskretna przyjmuje z najwikszym prawdopodobie-
stwem, nazywamy najbardziej prawdopodobn wartoci X. Jeeli X ma rozkad
B(n, p), to
k
0
=
_
(n + 1)p lub (n + 1)p 1 gdy (n + 1)p

IN
[(n + 1)p] gdy (n + 1)p

IN.
18
Przykad 3.3.
W pewnym biurze zainstalowano 10 drukarek. Kada z drukarek pracuje niezalenie red-
nio przez 12 minut w cigu jednej godziny.
a) Jakie jest prawdopodobiestwo, e w losowo wybranej chwili bdzie wczonych 7 dru-
karek? co najmniej 7 drukarek?
b) Jaka jest najbardziej prawdopodobna liczba drukarek wczonych w danej chwili?
R o z w i z a n i e.
Jeeli drukarki pracuj niezalenie rednio przez 12 minut w cigu jednej godziny, to
zmienna losowa X oznaczajca liczb drukarek wczonych w danym momencie ma roz-
kad Bernoulliego z parametrami n = 10, p =
12
60
=
1
5
.
Zatem prawdopodobiestwo, e w losowo wybranej chwili bdzie wczonych 7 druka-
rek wynosi P(X = 7) =
_
10
7
_ _
1
5
_
7
_
4
5
_
3
0.00079, a prawdopodobiestwo, e w losowo
wybranej chwili bdzie wczonych co najmniej 7 drukarek rwne jest
P(X , 7) =
10

k=7
_
10
k
_ _
1
5
_
k
_
4
5
_
10k
0, 00086.
Zatem, jeeli zasilanie drukarek ustalone jest na poziomie dla szeciu drukarek, to prawdo-
podobiestwo przecienia (czyli P(X , 7)) rwne 0,00086. Czyli rednio przecienie ma
miejsce w cigu 86 minut na 100000 minut (1 minute na 1157 minut). Czy te rozwaania
mog pomc w ustaleniu poziomu zasilania?
Przykad 3.4.
Prawdopodobiestwo prawidowo wykonanej czynnoci przez pracownika wynosi 0.99.
a) Jakie jest prawdopodobiestwo, e wszystkie spord 100 takich samych, niezalenie
wykonywanych, czynnoci zostan wykonane prawidowo?
b) Jaka jest najbardziej prawdopodobna liczba czynnoci wykonanych prawidowo?
Rozway powysze pytania, gdy czynno bdzi powtarzana 199 razy.
R o z w i z a n i e.
a) Liczba prawidowo wykonanych czynnoci wrd 100 niezalenych powtrze opisanej
czynnoci jest zmienn losow o rozkadzie B(100, 0.99). Wszystkie czynnoci wykonane
prawidowo opisuje zdarzenie (X = 100), wic
P(X = 100) =
_
100
100
_
(0.99)
100
(0.01)
0
0.3660.
b) Poniewa dla zmiennej losowej X liczba (n + 1)p = 101 0.99 = 99.99 nie jest cako-
wita, wic najbardziej prawdopodobn wartoci X jest cz cakowita z tej liczby, czyli
99. Zatem zmienna losowa z najwikszym prawdopodobiestwem przyjmuje warto 99 i
prawdopodobiestwo to wynosi
P(X = 99) =
_
100
99
_
(0.99)
99
(0.01)
1
0.3697.
Niech zmienna losowa Y okrela liczb czynnoci wykonanych prawidowo przy 199 po-
wtrzeniach. Y ma rozkad B(199, 0.99), wic
P(X = 199) =
_
199
199
_
(0.99)
199
(0.01)
0
0.1353.
Dla zmiennej losowej Y liczba (n + 1)p = 200 0.99 = 198 jest cakowita, wic Y z naj-
wikszym prawdopodobiestwem przyjmuje wartoci 198 albo 197. Prawdopodobiestwo
to wynosi
P(X = 197) = P(Y = 198) = 0.2720.
19
Wida, e nawet jeeli prawdopodobiestwo sukcesu w jednej prbie jest bardzo due,
to prawdopodobiestwo samych sukcesw oraz najwiksza warto prawdopodobiestwa
maleje do szybko wraz ze wzrostem liczby powtrze.
Przykad 3.5.
Co jest bardziej prawdopodobne: wygra z rwnorzdnym przeciwnikiem nie mniej ni 3
partie z 4 partii, czy nie mniej ni 5 partii z 8 partii?
R o z w i z a n i e.
Zmienna losowa X okrelajca liczb wygranych spotka w czterech partiach ma rozkad
B
_
4,
1
2
_
, a zmienna losowa Y okrelajca liczb wygranych spotka w omiu partiach ma
rozkad B
_
8,
1
2
_
. Otrzymujemy zatem
P(X = 3) =
_
4
3
__
1
2
_
3
_
1
2
_
1
=
1
4
, P(Y = 5) =
_
8
5
__
1
2
_
5
_
1
2
_
3
=
7
64
.
Zatem bardziej prawdopodobne jest wygranie dokadnie trzech spord czterech partii.
P(X , 3) =
_
4
3
__
1
2
_
3
_
1
2
_
1
+
_
4
4
__
1
2
_
4
_
1
2
_
0
=
5
16
,
P(Y , 5) =
_
8
5
__
1
2
_
5
_
1
2
_
3
+
_
8
6
__
1
2
_
6
_
1
2
_
2
+
_
8
7
__
1
2
_
7
_
1
2
_
1
+
_
8
8
__
1
2
_
8
_
1
2
_
0
=
11
16
,
czyli bardziej prawdopodobne jest wygranie przynajmniej piciu spord omiu partii ni
przynajmniej trzech spord czterech partii.
Rozkad Poissona z parametrem
Mona udowodni, e prawdziwe jest nastpujce twierdzenie.
Twierdzenie 3.2. (Poissona)
Jeeli (X
n
) jest cigiem zmiennych losowych o rozkadzie dwumianowym B(n, p
n
), przy
czym lim
n+
np
n
= , to dla kadego k

IN zachodzi rwno
lim
n+
_
n
k
_
p
k
n
(1 p
n
)
nk
= e

k
k!
.
Mwimy, e zmienna losowa X ma rozkad Poissona z parametrem , > 0, jeeli
P(X = k) =

k
k!
e

. dla k = 0, 1, 2, . . . .
Oczywicie atwo sprawdzi, e P(X = k) , 0 oraz

k=0
P(X = k) =

k=0

k
k!
e

= e

k=0

k
k!
= e

= 1.
Przyblianie rozkadu Bernoulliego rozkadem Poissona jest stosowane w przypadku, gdy
n jest due (n , 50) a p mae tak, by np(1 p) 9.
Najbardziej prawdopodobn wartoci zmiennej lososwej o rozkadzie Poissona jest
k
0
=
_
lub 1 gdy

IN
[] gdy

IN.
20
Przykad 3.6.
Po miecie jedzi 1000 samochodw. Prawdopodobiestwo, e samochd ulegnie uszko-
dzeniu w cigu jednej doby rwne jest p = 0, 002. Jakie jest prawdopodobiestwo, e co
najmniej jeden samochd w cigu doby ulegnie uszkodzeniu? Zakadamy, e samochody
psuj si niezalenie. Jaka jest najbardziej prawdopodobna liczba uszkodzonych samocho-
dw? Ile miejsc naley przygotowa na stacjach obsugi,by z prawdopodobiestwem 0, 95
byo wolne miejsce dla uszkodzonego samochodu?
R o z w i z a n i e.
Oczywicie moemy tu skorzysta ze schematu Bernoulliego, czyli
P(X , 1) = 1 P(X = 0) = 1
_
1000
0
_
(0.002)
0
(0.998)
1000
0.8649, jednak takie oblicze-
nia s mudne.
Zgodnie z Twierdzeniem 3.2 (biorc = 1000 0, 002 = 2) otrzymujemy
P(X , 1) = 1 P(X = 0) = 1
2
0
0!
e
2
0.8647.
Poniewa (n + 1)p = 2.002

IN, wic najbardziej prawdopodobn liczb uszkodzonych
samochodw jest k
0
= 2.
Aby odpowiedzie na ostatnie pytanie naley znale takie l, gdzie l jest liczb miejsc w
stacji obsugi, e P(X l) , 0, 95, czyli P(X > l) = P(X , l + 1) < 0, 05.
Posugujc si tablicami rozkadu Poissona znajdujemy l + 1 , 6, czyli l , 5.
Przykad 3.7.
Wiadomo, e 1% produkowanych arwek to braki. Obliczy dokadnie i w przyblieniu,
prawdopodobiestwo, e:
a) wrd losowo wybranych 100 arwek nie ma ani jednej wybrakowanej,
b) wrd losowo wybranych 100 arwek s 2 wybrakowane,
c) jaka jest minimalna liczba arwek, ktre naley sprawdzi, by prawdopodobiestwo
znalezienia zej arwki byo nie mniejsze ni 0,9.
R o z w i z a n i e.
Niech X oznacza liczb wybrakowanych arwek wrd 100 wylosowanych.
a) P(X = 0) =
_
100
0
_ _
1
100
_
0
_
99
100
_
100
e
1 1
0
0!
0, 368 ( = 100
1
100
= 1
b) P(X , 2) = 1 P(X = 0) P(X = 1) 0.2642
c) Niech Y oznacza liczb wybrakowanych arwek wrd n wylosowanych. Y ma rozkad
Bernoulliego B(n,
1
100
). P(Y , 1) = 1 P(Y = 0) , 0, 9, wic P(Y = 0) 0, 1. Zatem
szukamy n takiego, e P(Y = 0) =
_
n
0
_ _
1
100
_
0
_
99
100
_
n
0.1. Std n , 230.
Przykad 3.8.
rubki s pakowane w pudeka po 100 sztuk. Prawdopodobiestwo, e rubka jest wy-
brakowana wynosi 0,01. Ile sztuk naleaoby doda do kadego pudeka, aby w celach
marketingowych mona byo powiedzie, e z prawdopodobiestwem nie mniejszym ni
0,9 w kadym pudeku jest co najmniej 100 sztuk dobrych?
R o z w i z a n i e.
Niech X oznacza liczb elementw wybrakowanych w pudeku. Zmienna losowa X ma
rozkad Bernoulliego z parametrami n = 100, p = 0, 01. Zatem
P(X = 0) =
_
100
0
_
p
0
(1 p)
100
0, 366.
21
Jeeli rozkad zmiennej X przybliymy rozkadem Poisoona z parametrem
= 100 0, 01 = 1, to
P(X = 0) = e
1
0, 367.
Dodanie do pudeka kilku (k
0
) elementw tylko nieznacznie zmieni parametr (np. dla
k
0
= 2 jest = 1, 02 oraz P(X = 0) = e
1,02
0, 36059). Korzystajc z przyblionego
rozkadu zmiennej X szukajmy wic najmniejszej liczby k
0
, dla ktrej
P(X k
0
) e

_
1 +

1!
+

2
2!
+ . . . +

k
0
(k
0
)!
_
, 0, 9.
Przyjmujc dla uproszczenia = 1 i korzystajc z tablic rozkadu Poissona otrzymujemy
k
0
= 2, bo
e
1
_
1 + 1 +
1
2
_
= 0, 9196.
Dokadniej dla = 1, 02 mamy
P(X 2) = e
1,02
_
1 +
1,02
1!
+
1,02
2!
_
, 0, 9295.
W rzeczywistoci prawdopodobiestwo znalezienia co najmniej 100 sztuk dobrych w pu-
deku zawierajcym 102 ruby (czyli dla X o rozkadzie Bernoulliego z parametrami
n = 102, p = 0, 01) wynosi
P(X 2) = (0, 99)
102
+ (0, 99)
101
0, 01 1, 02 +
102101
2
(0, 99)
100
(0, 01)
2
0, 9169.
Przykad 3.9.
Liczba komputerw, ktre mog by zaraone wirusem przez pewn sie ma rozkad Po-
issona z parametrem . W kadym zaraonym komputerze wirus niezalenie uaktywnia
si z prawdopodobiestwem p. Jakie jest prawdopodobiestwo, e wirus uaktywni si w
m komputerach?
R o z w i z a n i e.
Niech zmienna losowa X oznacza liczb zaraonych komputerw. X ma rozkad Poissona
z parametrem . Poniewa zdarzenia (X = k), k = 0, 1, 2, . . . s parami rozczne oraz

k=0
(X = k) = i P(X = k) = e

k
k!
> 0, wic spenione s zaoenia twierdzenia o
prawdopodobiestwie cakowitym. Niech zmienna losowa Y oznacza liczb komputerw,
w ktrych wirus uaktywni si. Mamy:
P(Y = m) = P
_
(Y = m)

_
k=0
(X = k)
_
= P
_

_
k=0
((Y = m) (X = k))
_
.
Poniewa zdarzenia (X = k), k = 0, 1, 2, . . . s parami rozczne, wic zdarzenia (Y =
m) (X = k), k = 0, 1, 2, . . . s te parami rozczne. Ponadto dla k < m jest (Y =
m) (X = k) = . Zatem, wykorzystujc twierdzenie o prawdopodobiestwie cakowitym
otrzymujemy
P(Y = m) =

k=0
P((Y = m) (X = k)) =

k=m
P(Y = m[X = k) P(X = k)).
Zdarzenie (Y = m[X = k) dla k , m oznacza, e spord k zaraonych komputerw
wirus uaktywni si w m komputerach, w kadym z prawdopodobiestwem p (m sukcesw
w k prbach), czyli
22
P(Y = m[X = k) =
_
k
m
_
p
m
(1 p)
km
.
Podstawiajc wartoci prawdopodobiestw i dokonujc elementarnych przeksztace, otrzy-
mujemy
P(Y =m) =

k=0
_
k
m
_
p
m
(1 p)
km
e

k
k!
=
e

m!
_
p
1p
_
m

l=0
((1p))
l+m
l!
=
(p)
m
m!
e
p
.
Rozkad geometryczny z parametrem p.
Eksperyment ze zmienn losow o rozkadzie B(1, p) powtarzamy niezalenie dopki po-
jawi si sukces. Niech X oznacza numer prby, w ktrej sukces pojawi si po raz pierwszy.
Wwczas, kadc q = 1 p otrzymujemy
P(X = k) = pq
k1
, dla k = 1, 2 . . .
Mwimy, e zmienna losowa zdeniowana wyej ma rozkad geometryczny z parametrem
p. Prawdopodobiestwa zdarze (X = k) s wyrazami cigu geometrycznego i sumuj si
do 1:

k=0
P(X = k) =

k=1
pq
k1
= p

k=1
q
k1
= p
1
1q
= 1.
Zmienn o rozkadzie geometrycznym wygodnie jest interpretowa jako czas oczekiwania
na pierwszy sukces, tzn. liczb powtrze eksperymentu poprzedzajcych eksperyment,
w ktrym po raz pierwszy otrzymalimy sukces.
Fakt 3.5. Jeeli zmienna losowa X ma rozkad geometryczny, to dla dowolnych liczb
naturalnych n
0
, k zachodzi rwno:
P(X > n
0
+ k[X > n
0
) = P(X > k).
O zmiennej losowej speniajcej warunek z Faktu 3.5 mwimy, e ma tzw. wasno
braku pamici. Ciekawszym jest fakt, e rozkad geometryczny jest jedynym rozkadem
dyskretnym posiadajcym wasno braku pamici.
Przykad 3.10.
Prawdopodobiestwo, e danego dnia w miejscowoci A latem wieci soce jest stae i
rwne p. Jakie jest prawdopodobiestwo, e jeszcze co najmniej przez 7 dni bdzie pikna
soneczna pogoda, jeeli ju od dwu tygodni wieci soce?
R o z w i z a n i e.
Przy zaoeniu, e pogoda w danym dniu nie zaley od pogody w dniach poprzednich,
zmienna losowa X okrelajca liczb kolejnych sonecznych dni ma rozkad geometryczny
z parametrem p. Zatem
P(X , 21[X , 14) = P(X > 20[X > 13) = P(X > 7) = (1 p)
7
.
23
Przykad 3.11.
Gwna wygrana w totolotku to prawidowe skrelenie 6 liczb sprd 49. Jakie jest praw-
dopodobiestwo gwnej wygranej za 1001 razem, jeeli przez 1000 razy nie byo gwnej
wygranej?
R o z w i z a n i e.
Sze liczb spord 49-u mona wybra na
_
49
6
_
sposobw (uporzdkowanie liczb nie jest
istotne). Wygranej sprzyja tylko jeden sporod
_
49
6
_
jednakowo prawdopodobnych sposo-
bw, czyli prawdopodobiestwo gwnej wygranej p rwne jest
p =
1
(
49
6
)
=
1
13983816
,
mona powiedzie, e jest bliskie jeden do czternastu milionw.
Gr w Toto-lotka powtarza si i w kadym powtrzeniu prawdopodobiestwo gwnej
wygranej rwne jest wyej obliczonemu p. Niech zmienne losowa X okrela numer losowa-
nia, w ktrym gwna wygrana pojawi si po raz pierwszy. X ma rozkad geometryczny z
parametrem p. Prawdopodobiestwo gwnej wygranej za 1001 razem, jeeli przez 1000 ra-
zy nie byo gwnej wygranej to prawdopodobiestwo warunkowe P(X = 1001[X > 1000).
Zatem
P(X = 1001[X > 1000) =
P(X=1001X>1000)
P(X>1000)
=
P(X=1001)
P(X>1000)
.
Poniewa
P(X > 1000) =

k=1001
P(X = k) =

k=1001
q
k1
p = q
1000

p
1q
= q
1000
,
wic
P(X = 1001[X > 1000) =
q
1000
p
q
1000
= p,
czyli prawdopodobiestwo wygranej za 1001 razem, jeeli nie wygralimy przez pierwsze
1000 jest takie samo, jak prawdopodobiestwo wygranej za pierwszym razem. Na tym
polega wasno braku pamici rozkadu zmiennej losowej, a ma j opisana zmienna
losowa X. Jeeli wiemy, e zmienna losowa przyja warto wiksz ni n, to wszystkie
nastpne wartoci n+k s przyjmowane z takimi samymi prawdopodobiestwami, z jakimi
przyjmowane s wartoci k. Przeszo, jeeli dotrwamy do chwili n, nie ma wpywu na
przyszo.
Rozkad Pascala z parametrami r,p.
Eksperyment ze zmienn losow o rozkadzie B(1, p) powtarzamy niezalenie dopki po-
jawi si r sukcesw. Niech X oznacza numer prby, w ktrej r-ty sukces pojawi si po
raz pierwszy. Wwczas dla r , 1, q = 1 p mamy
P(X = k) =
_
k 1
r 1
_
p
r
q
kr
, dla k = r, r + 1, . . . , gdzie r , 1, 0 < p < 1.
Mwimy, e zmienna losowa zdeniowana wyej ma rozkad Pascala z parametrami r, p.
Zmienn o rozkadzie Pascala wygodnie jest interpretowa jako czas oczekiwania na pierw-
szy r-ty sukces.
24
Przykad 3.12.
Na ulicy stoi sprzedawca gazet. Kady z mijajcych go przechodniw kupuje gazet z
prawdopodobiestwem p =
1
3
. Niech X oznacza ilo ludzi mijajcych go do momentu,
gdy sprzeda 100 gazet. Znale rozkad zmiennej X.
R o z w i z a n i e.
X ma rozkad Pascala z parametrami r = 100, p =
1
3
,
Rozkad hipergeometryczny
Z populacji skadajcej si z N elementw jednego rodzaju i M elementw drugiego
rodzaju losujemy n elementw. Niech X oznacza liczb elementw pierwszego rodzaju
wrd wszystkich wylosowanych. Wwczas
P(X = k) =
_
N
k
__
M
nk
_
_
N+M
n
_
, k = 0, 1, . . . , N.
Mwimy, e wyej zdeniowana zmienna losowa ma rozkad hipergeometryczny z para-
metrami N, M, n, n < N, n < M. Denicja jest poprawna, bo mona sprawdzi, e
N

k=0
P(X = k) =
N

k=0
(
N
k
)(
M
nk
)
(
N+M
n
)
= 1.
Przyblienie rozkadem Poissona moemy stosowa rwnie w przypadku, gdy zmienna
losowa ma rozkad hipergeometryczny, gdzie N +M jest due a liczba
N
N+M
n mieci si
w przedziale (0, 10).
Przykad 3.13.
Zauwamy, e w Przykadzie 1.7 liczba ryb oznaczonych wrd 1000 wyowionych (jeeli
w jeziorze jest N + 1000 ryb) jest zmienn losow o rozkadzie hipergeometrycznym z
parametrami N, M = 1000, n = 1000.
Przykad 3.14.
Spord liczb 1, 2, . . . , 35 losujemy pi liczb. Jakie jest prawdopodobienstwo, e bd
wrd nich cztery mniejsze od 21? Jaka jest najbardziej prawdopodobna ilo liczb wylo-
sowanych mniejszych od 21? Porwna wynik ze redni z takich liczb.
R o z w i z a n i e.
W tym zadaniu mamy do czynienia ze zmienn losow (okrelajc ilo liczb mniej-
szych od 21 wrd wszystkich wylosowanych) o rozkadzie hipergeometrycznym, gdzie
N = 20, M = 15, n = 5, wic:
P(X = 4) =
(
20
4
)(
15
1
)
(
35
5
)
.
Warunek P(X = k) < P(X = k + 1) rwnowany jest nierwnoci
(
20
k
)(
15
5k
)
(
35
5
)
<
(
20
k+1
)(
15
5(k+1)
)
(
35
5
)
,
ktrej rozwizanie daje k < 3.
25
Przykad 3.15.
Pudeko kulek potrzebnych do zmontowania oyska zawiera 10 sztuk o dodatniej odchy-
ce od nominalnego wymiaru rednicy i 15 sztuk - o ujemnej odchyce. Do zmontowania
oyska potrzeba 6 kulek, z ktrych co najwyej 3 mog mie dodatni odchyk od nomi-
nalnego wymiaru rednicy. Jakie jest prawdopodobiestwo, e monterowi, ktry wybiera
6 kulek losowo, uda si zmontowa oysko?
R o z w i z a n i e.
Niech X oznacza liczb kulek wrd 6 wybranych o ddatniej odchyce. Monterowi uda
si zmontowa oysko, X 3. X ma rozkad hipergeometryczny z parametrami: N =
10, M = 15, n = 6. Zatem P(X ) = 1 P(X = 4) P(X = 5) P(X = 6).
Rozkad wielomianowy
Rozkad dwumianowy moemy uoglni na przypadek n powtarzanych niezalenych eks-
perymentw, z ktrych kady moe mie jeden z k (k , 2) wynikw. Niech p
i
oznacza
prawdopodobiestwo realizacji wyniku i-tego rodzaju w kadej prbie, p
i

(0, 1), i =
1, 2, . . . , k, p
1
+p
2
+. . . +p
k
= 1, za X
i
niech oznacza liczb wynikw i-tego rodzaju w
n powtrzeniach. Wwczas
P(X
1
= n
1
, X
2
= n
2
, . . . , X
k
= n
k
) =
n!
n
1
! n
2
! . . . n
k
!
p
n
1
1
p
n
2
2
. . . p
n
k
k
,
gdzie n
i
, i = 1, 2, . . . , k s liczbami naturalnymi oraz n
1
+ n
2
+ . . . + n
k
= n.
Przykad 3.16.
Jakie jest prawdopodobiestwo, e w szeciocyfrowym kodzie wystpi trzy zera, dwie
pitki i jedna semka?
R o z w i z a n i e.
Zmienne losowe X
i
, gdzie i = 0, 1, 2, . . . , 9 oznaczaj odpowiednio liczb zer, jedynek, . . .,
dziewitek w szeciocyfrowym kodzie. p
i
jest prawdopodobiestwem wylosowania jednej
z dziesiciu cyfr, czyli p
i
=
1
10
, i = 0, 1, 2, . . . , 9. Zatem
P(X
0
= 3, X
5
= 2, X
8
= 1, X
1
= X
2
= X
3
= X
4
= X
6
= X
7
= X
9
= X
0
= 0) =
6!
3!2!1!
_
1
10
_
3
_
1
10
_
2
_
1
10
_
1
= 0.00006.
Przykad 3.17.
Po wstpnej kontroli technicznej 70% wyrobw oceniono jako dobre, 5% - jako wadliwe,
a 25% zdecydowano podda dalszej kontroli. Jakie jest prawdopodobiestwo, e wrd 10
wylosowanych wyrobw jest 7 dobrych, 2 wadliwe i 1 naley podda dalszej kontroli?
R o z w i z a n i e.
Niech zmienne losowe X
1
, X
2
, X
3
okrelaj odpowiednio liczb wyrobw dobrych, wadli-
wych i przeznaczonych do dalszej kontroli wrd 10 wylosowanych. Prawdopodobiestwa
dla poszczeglnej jakoci wyrobw wynosz odpowiednio: p
1
= 0.7, p
2
= 0.05, p
3
= 0.25.
Zatem
P(X
1
= 7, X
2
= 2, X
3
= 1) =
10!
7!2!1!
(0.7)
7
(0.05)
2
(0.25)
1
= 0.0185.
W rozkadzie wielomianowym zmienna losowa X
i
okrela liczb elementw i-tego rodzaju
wrd n elementw, wic X
i
ma rozkad dwumianowy B(n, p
i
). Zatem najbardziej praw-
dopodobna liczba elementw przeznaczonych do dalszej kontroli spord 10 wylosowanych
to 2.
26
3.3 Zmienne losowe typu cigego
Denicja 3.6. Mwimy, e zmienna losowa X jest typu cia

gl

ego, jeeli istnieje nieujemna
funkcja cakowalna f
X
: IR IR taka, e:
F
X
(x) =
x
_

f
X
(t)dt dla kadego x IR.
Funkcj f
X
nazywamy ge

sto scia

prawdopodobie nstwa.
Wiemy z analizy, e funkcja F
X
jest wwczas ciga. Ponadto - jest ona rniczkowalna
we wszystkich punktach cigoci funkcji f
X
i w punktach tych zachodzi rwno
F

X
(x) = f
X
(x).
Nietrudno wykaza, e prawdziwa jest nastpujca charakteryzacja.
Twierdzenie 3.3. Funkcja f jest gstoci pewnej zmiennej losowej wtedy i tylko wtedy,
gdy :
f(x) , 0 dla kadego x IR,

+
_

f(x)dx = 1.
Przykad 3.18.
Czy istnieje staa c, dla ktrej podana funkcja jest funkcj gstoci:
f(x) =
_

_
0, gdy x 0,
c, gdy 0 < x 1
c
x
2
, gdy x > 1
Wykorzystamy twierdzenie 3.3. Dla funkcji f(x) mamy c , 0 oraz
_
0

0dx +
_
1
0
cdx +
_

1
c
x
2
dx = 2c = 1
zatem dla c =
1
2
funkcja f(x) jest gstoci pewnej zmiennej losowej Y . Jej dystrybuanta
ma posta
F(x) =
_

_
0, gdy x 0,
1
2
x, gdy 0 < x 1,
1
1
2x
, gdy x > 1.
Obliczmy, dla zmiennej losowej Y prawdopodobiestwo zdarze:
P(2 < X < 1) = F(1) F(2) =
_
1
0
1
2
dx =
1
2
,
P(0 < X < 4) = F(4) F(0) =
_
1
0
1
2
dx +
_
4
1
1
2x
2
=
7
8
,
P(X > 2) = 1 F(2) =
_

2
1
2x
2
dx =
1
4
.
27
Przykad 3.19.
Dzienne zuycie energii (100 kWh =1) pewnej rmy jest zmienn losow X o gstoci:
f
X
(x) =
_
1
9
(3 + 2x x
2
) dla 0 x 3,
0 dla x < 0 lub x > 3.
Jakie jest prawdopodobiestwo zdarze: (X >
1
2
), (1 < X < 2)?
R o z w i z a n i e.
F
X
(x) =
_

_
0 dla x 0,
x
_
0
f(t)dt =
1
3
x +
1
9
x
2

1
27
x
3

11
27
dla 0 < x 3,
1 dla x > 3
P(X >
1
2
) = 1 F
X
(
1
2
) =
41
6
3
, P(1 < X < 2) = F
X
(2) F
X
(1) =
11
27
.
3.4 Najwaniejsze rozkady cige
Rozkad jednostajny na odcinku [a,b]:
Zmienna losowa X ma rozkad jednostajny na odcinku [a, b], jeeli jej gsto jest postaci
f
X
(x) =
_
1
ba
dla x [a, b],
0 dla x IR [a, b]
Wwczas
F
X
(t) =
_

_
0 gdy t a,
ta
ba
gdy t (a, b],
1 gdy t > b.
x
y
O 2
1
2
Rys. 1.03.
Gsto rozkadu jednostajnego
na przedziale [0,2]
x
y
O 2
1
2
Rys. 1.03.
Dystrybuanta rozkadu jednostajnego
na przedziale [0,2]
Przykad 3.20.
Z przystanku autobusy odjedaj co 10 minut. Zakadamy, e rozkad T czasu przybycia
pasaera na przystanek jest zmienn losow o rozkadzie jednostajnym. Obliczy praw-
dopodobiestwo, e pasaer bdzie czeka co najmniej 4 minuty, mniej ni 3 minuty.
R o z w i z a n i e.
f
T
(x) =
_
1
10
dla x [0, 10],
0 dla x IR [0, 10]
F
T
(t) =
_

_
0 gdy t 0,
t
10
gdy t (0, 10],
1 gdy t > 10.
28
Zatem
P(T < 3) = F
T
(3) =
3
10
.
oraz
P(T , 4) = 1 P(T < 4) = 1 F
T
(4) =
6
10
.
Przykad 3.21.
Automat produkuje kulki metalowe o rednicy X bdcej zmienn losow o gstoci
f
X
(x) =
_
5 dla x [0.4, 0.6],
0 dla x IR [0.4, 0.6]
Za zgodne z norm uznaje si kulki o rednicy z przedziau [0.41, 0.59]. Obliczy praw-
dopodobiestwo, e wybrana losowo z produkcji kulka spenia wymagania normy. Jaka
jest najbardziej prawdopodobna liczba kulek speniajcych wymagania normy wrd 1000
kulek.
R o z w i z a n i e.
P(0.41 < X < 0.59) =
0.18
0.20
= 0.9. Liczba Y kulek speniajcych wymagania nor-
my wrd 1000 kulek ma rozkad B(1000, 0.9), wic najbardziej prawdopodobna warto
zmiennej Y wynosi [1001 0.9] = 900.
Rozkad wykadniczy z parametrem
Zmienna losowa X ma rozkad wykadniczy z parametrem , > 0, jeeli jej gsto ma
posta
f
X
(x) =
_
0 dla x 0,
e
x
dla x > 0.
3
2 1 0 1 2
1
2
3 4
Rys. 1.04.
Gsto rozkadu wykadniczego dla = 1
Wwczas dystrybuanta jest postaci
F
X
(x) = =
_
0 dla x 0,
1 e
x
dla x > 0
Rozkad wykadniczy posiada wasno braku pamici przez co rozumiemy, e dla
dowolnych nieujemnych x, s zachodzi rwno:
P(X > x + s[X > s) = P(X > x).
Mona take wykaza, e rozkad wykadniczy jest jedynym rozkadem cigym
posiadajcym wasno braku pamici.
29
Przykad 3.22.
Czas pracy pewnego urzdzenia jest zmienn losow X o rozkadzie wykadniczym z
parametrem = 10
4
. Wiadomo, e urzdzenie pracowao 1000h. Jakie jest prawdopo-
dobiestwo, e popracuje co najmniej 6000h?
R o z w i z a n i e.
Wykorzystujc wasno braku pamici otrzymujemy
P(X , 6000[X > 1000) = P(X , 5000+1000[X > 1000) = P(X , 5000) = 1F
X
(5000) = e
0.5
.
Rozkad normalny z parametrami m, .
Zmienna losowa X ma rozkad normalny z parametrami m, (m,

IR, > 0), jeeli
jej gsto ma posta
f
X
(x) =
1

2
e

(xm)
2
2
2
.
Wiemy ju, e

_

f
X
(x)dx = 1.
Rozkad ten oznacza bdziemy symbolem N(m, ).
Rozkad normalny jest najwaniejszym rozkadem w teorii prawdopodobiestwa. Zosta
wprowadzony w XVIIIw. przez Gaussa i Laplacea Rozkad normalny, co niedugo przed-
stawimy, stanowi dobre przyblienie sum niezalenych zmiennych losowych. Z tego wzgl-
du jest wykorzystywany do opisu losowych bdw pomiarw. Jeeli bd pomiaru nie-
znanej wielkoci jest sum wielu maych losowych bdw dodatnich i ujemnych, to suma
tych bdw ma rozkad bliski rozkadowi normalnemu.
Dystrybuanty rozkadu normalnego N(m, ) , czyli funkcji
F
X
(x) =
1

2
_
x

(tm)
2
2
2
dt.
nie mona wyrazi przez funkcje elementarne. Wartoci dystrybuanty rozkadu N(0, 1),
czyli funkcji
(x) =
1

2
_
x

t
2
2
dt.
podane s w tablicach.
Wykres gstoci rozkadu N(0, 1) jest nastpujcy
30
Rys. 1.04.
Gsto rozkadu N(0,1)
Z symetrii wykresu gstoci wzgldem osi Oy otrzymujemy wygodn w obliczeniach rw-
no:

X
(x) = 1
X
(x).
Okazuje si, e wartoci dystrybuanty dowolnego rozkadu N(m, ) mona obliczy,
znajc wartoci funkcji (x).
Fakt 3.7. Jeeli X ma rozkad N(m, ), to zmienna losowa Y =
X m

ma rozkad
N(0, 1) oraz
F
X
(x) =
_
x m

_
.
Ostatni Fakt daje nastpujcy, czsto wykorzystywany wzr
P(a < X < b) =
_
b m

_
a m

_
.
Korzystajc ze standaryzacji i z tablic rozkadu N(0, 1) atwo sprawdzi, e gdy X ma
rozkad N(m, ), to
P(m3 < X < m + 3) = P
_
3 <
Xm

< 3
_
= 2(3) 1 = 2 0.9987 1 , 0.997.
Oznacza to, e wartoci zmiennej X z prawdopodobiestwem bliskim 1 zawarte s w
przedziale (m3, m + 3). Wasno t nazywamy prawem trzech sigm.
Przykad 3.23.
rednica metalowych kulek produkowanych przez automat jest zmienn losow X o roz-
kadzie N(0.5, 0.04). Za zgodne z norm uznaje si kulki o rednicy z przedziau [0.41,
0.59]. Obliczy prawdopodobiestwo, e wybrana losowo z produkcji kulka spenia wyma-
gania normy. Jaka jest najbardziej prawdopodobna liczba kulek speniajacych wymagania
normy wrd 1000 kulek?
R o z w i z a n i e
Szukane prawdopodobiestwo obliczymy dokonujc standaryzacji zmiennej losowej X oraz
wykorzystamy tablice rozkadu N(0, 1)
P(0.41 < X < 0.59) = P(
0.41 0.5
0.04
<
X 0.5
0.04
<
0.59 0.5
0.04
) =
(2.25) (2.25) = 2(2.25) 1 = 0.9756
Zmienna losowa Y okrelajca liczb kulek speniajcych wymagania normy, wrd 1000
kulek wyprodukowanych ma rozkad B(1000, 0.9756) i jej wartoci najbardziej prawdo-
podobn jest [1001 0, 9756] = 976.
Zauwamy, e obliczane w przykadzie wielkoci s wiksze ni analogiczne wielkoci dla
zmiennej losowej opisanej w Przykadzie 3.20.
31
Przykad 3.24.
Czas sprawnej pracy drukarek pewnego typu (w dniach) ma rozkad N(1000,80).Jaki
powinien by okres gwarancji, aby na 90% drukarka dziaaa przynajmniej przez okres
gwarancji ?
R o z w i z a n i e
Oznaczmy przez X czas sprawnej pracy drukarki, za przez T nieznany okres gwaran-
cji.Zdarzenie (X > T) ma zachodzi z prawdopodobiestwem co najmniej 0.9, czyli
P(X > T) , 0.9, ale
P(X > T) = P(
X 1000
80
>
T 1000
80
) = 1 (
T 1000
80
) = (
T 1000
80
).
Szukamy T, dla ktrego
(
T 1000
80
) , 0.9.
Z tablic rozkadu N(0, 1) odczytujemy, e
T1000
80
> 1.29. Poniewa funkcja (x) jest ro-
snca, wic T < 897.6. Zatem szukany okres gwarancji powinien mie co najwyej 897 dni.
Rozkad gamma z parametrami a, b > 0)
Zmienna losowa X ma rozkad gamma z parametrami a, b > 0, jeeli jej gsto ma posta

a,b
(x) =
_

_
0 dla x 0,
b
a
(a)
x
a1
e
bx
dla x > 0.
gdzie (a) (tzw. funkcja gamma) zdeniowana jest dla a > 0 za pomoc caki niewa-
ciwej
(a) =

_
0
t
a1
e
t
dt.
Cakowanie przez czci daje wzr rekurencyjny
(a) = (a 1)(a 1) dla a > 1,
wic dla a = n

IN otrzymujemy
(n) = (n 1)!
Dla naturalnych a = n rozkad gamma jest rozkadem sumy n niezalenych zmiennych
losowych o rozkadzie wykadniczym z parametrem b.
Rozkad Cauchyego z parametrem
Zmienna losowa X ma rozkad Cauchyego z parametrem , > 0, jeeli jej gsto jest
postaci
f
X
(x) =

(
2
+ x
2
)
.
Wwczas
F
X
(x) =
1

_
arc tg
x

+

2
_
.
32
3.5 Funkcje zmiennych losowych
Jeeli g jest w miar porzdn (np. posiadajc co najwyej przeliczalnie wiele punktw
niecigoci), funkcj zmiennej rzeczywistej, to dla dowolnej zmiennej losowej X: IR
funkcja g X = g(X) : IR te jest zmienn losow. Mamy bowiem:
(g X)
1
((, a)) = X
1
(g
1
(, a)) T.
Dla zmiennej losowej X w pewnych przypadkach rozkad zmiennej losowej g(X), gdzie g
jest funkcj zmiennej rzeczywistej mona atwo wyznaczy. Jeeli g jest cile rosnca, to
dystrybuant zmiennej Y = g X mona wyznaczy za pomoc dystrybuanty zmiennej
X w nastpujcy sposb:
F
Y
(x) = P(Y < x) = P(g(X) < x) = P(X < g
1
(x)) = F
X
(g
1
(x)).
Przykad 3.25.
Miesiczny koszt prowadzenia przyzakadowego laboratorium jest zaleny od liczby x
zatrudnionych w nim pracownikw zgodnie ze wzorem y = 15000x + 10000

x. Koszty
te traktujemy jako zmienn losow. Wyznaczy funkcj prawdopodobiestwa zmiennej
Y = 15000X + 10000

X, przyjmujc nastpujcy rozkad zmiennej losowej X:


x
i
2 3 4 5
p
i
0, 1 0, 25 0, 40 0, 25
R o z w i z a n i e.
Punkty skokowe y
i
zmiennej Y s postaci y
i
= 15000x
i
+10000

x
i
, co dla x
i

2, 3, 4, 5
daje y
i

44142, 62321, 8000, 97361. Poniewa g jest rnowartociowa,
wic P(Y = y
i
) = P(X = x
i
) = p
i
czyli otrzymujemy
y
i
44142 62321 80000 97361
p
i
0, 1 0, 25 0, 40 0, 25
Przykad 3.26.
W ustalonym punkcie paskiej folii znajduje si rdo promieniowania radioaktywnego
wysyajce promienie rwnomiernie we wszystkich kierunkach. W odlegoci 1 od folii
znajduje si rwnolegy do niej ekran, na ktrym obserwuje si byski spowodowane pro-
mieniowaniem. Niech X bdzie zmienn losow oznaczjc wsprzdn punktu obserwo-
wanego na ekranie. Korzystajc z zaoenia, e kt (t) jest wartoci zmiennej losowej
o rozkadzie jednostajnym na (0, ) wyznaczy jej gsto i dystrybuant zmiennej losowej
X Naszkicowa obydwie funkcje.
R o z w i z a n i e.
Spjrzmy na rysunek.
33
x
y
O
1
(u,1)
t
Rys. 1.03.
Niech (u, 1) bdzie punktem, w
ktrym umieszczone jest rdo
promieniowania. Promienie wysy-
ane s rwnomiernie we wszyst-
kich kierunkach oznacza, e kt

t
=

2
+
t
, gdzie tg
t
=
tu
1
,
jest wartoci zmiennej losowej o
rozkadzie jednostajnym na [0, ].
Std
F
X
(t) = P(X < t) = P( <
t
) = P
_
<

2
+ arctg(t u)
_
=
1

2
+ arctg(t u)
_
=
1
2
+
1

arctg(t u), wic f


X
(t) = F

X
(t) =
1

1
1+(tu)
2
.
Otrzymalimy zatem przesunity rozkad Cauchyego. Jeeli rdo promieniowania
znajduje si w punkcie (0, 1) to mamy zdeniowany wyej rozkad Cauchyego.
Denicja 3.8. Zmienne losowe X
1
, X
2
, . . . , X
n
nazywaj si niezalene, jeeli dla do-
wolnych t
1
, t
2
, . . . , t
n
IR zachodzi rwno
P(X
1
< t
1
, X
2
< t
2
, . . . , X
n
< t
n
) =
n

i=1
P(X
i
< t
i
)
Przykad 3.27.
Czas oczekiwania na poczenie w centrali telefonicznej dla kadego abonenta jest zmien-
n losow X o rozkadzie wykadniczym z parametrem = 0, 2s. Z centrali korzysta
jednoczenie i niezalenie 100 abonentw. Obliczy prawdopodobiestwo, e najkrtszy z
czasw oczekiwania jest wikszy ni 5s a najduszy - mniejszy ni 10s.
R o z w i z a n i e.
Niech X
i
bdzie czasem oczekiwania na poczenie i-tego abonenta,
X
1
, X
2
, ...X
100
s zmiennymi losowymi niezalenymi.
X = maxX
1
, X
2
, ...X
100
, Y = minX
1
, X
2
, ...X
100
,
Poniewa
(X < x)
1k100
(X
k
< x),
oraz
(Y > x)
1k100
(X
k
> x),
wic
F
X
(x) = P(X < x) = P(X
1
< x, X
2
< x, . . . , X
100
< x)
= P(X
1
< x)P(X
2
< x) . . . P(X
100
< x) = (F(x))
100
oraz
F
Y
(x) = P(Y < x) = 1 P(Y , x) = 1 (1 F(x))
100
34
Dla zmiennych X
k
o jednakowym rozkadzie wykadniczym otrzymujemy
F
X
(x) =
_
0 dla x 0,
(1 e
x
)
100
dla x > 0.
oraz F
Y
(x) =
_
0 dla x 0,
1 e
100x
dla x > 0.
Zatem; P(Y > 5) = e
20
, P(X < 10) = (1 e
2
)
100
.
3.6 Parametry rozkadu zmiennej losowej
W praktyce istnieje potrzeba opisania zmiennej losowej przez podanie pewnych charakte-
ryzujcych j liczb, zwanych parametrami rozkadu zmiennej losowej.
Omwimy teraz najczciej wykorzystywane parametry rozkadu zmiennej losowej.
3.6.1 Warto oczekiwana zmiennej losowej.
Denicja 3.9. Warto scia

oczekiwana

zmiennej losowej dyskretnej o rozkadzie


(x
i
, p
i
) : i I nazywamy liczb EX okrelon wzorem:
EX =

iI
x
i
p
i
,
przy zaoeniu, e suma

iI
[x
i
[p
i
jest skoczona.
Warto scia

oczekiwana

zmiennej losowej cia

gl

ej o gstoci f(x) nazywamy liczb EX okre-
lon wzorem:
EX =
+
_

xf(x)dx,
przy zaoeniu, e caka
+
_

[x[f(x)dx jest skoczona.


Zauwamy, e warto oczekiwana zmiennej losowej X jest odpowiednikiem znanego z
zyki pojcia rodka masy. W przypadku zmiennej dyskretnej prawdopodobiestwa p
i
interpretujemy jako masy skupione w punktach x
i
, a przyjty ukad jednostek jest taki,
e masa cakowita rwna jest 1. W przypadku zmiennej cigej f(x) jest gstoci masy.
Wprost z denicji (z wasnoci szeregw i caek niewaciwych zbienych) wynikaj na-
stpujce wasnoci wartoci oczekiwanej:
35
Fakt 3.10. (Wasnoci wartoci oczekiwanej)
1. E(aX + c) = aE(X) + c, dla a, c IR;
2. Jeeli P(X = c) = 1, to EX = c. W szczeglnoci E(EX) = EX ;
3. [EX[ E([X[);
4. Jeeli P(X , 0) = 1 , to EX , 0;
5. Jeeli Y = g(X), to EY =

i
g(x
i
)p
i
w przypadku zmiennej dyskretnej oraz
EY =
+
_

g(x)f(x)dx w przypadku zmiennej z gstoci f(x), o ile powyszy szereg


i caka s zbiene bezwzgldnie;
6. E(X + Y ) = EX + EY ;
7. Jeeli X, Y s niezalene, to E(XY ) = EX EY .
3.6.2 Wariancja zmiennej losowej.
Denicja 3.11. Wariancja

zmiennej losowej nazywamy liczb zdeniowan wzorem


VarX = E(X EX)
2
Pierwiastek z wariancji, czyli D(X) =

VarX nazywamy odchyleniem standardo-
wym albo dyspersj zmiennej losowej X, a wariancj oznaczamy czsto take sym-
bolem D
2
(X). Wariancja pozwala oceni, jak bardzo wartoci zmiennej losowej rni si
od wartoci oczekiwanej. Zaliczamy j do grupy tzw. parametrw rozproszenia. Inter-
pretujc rozkad prawdopodobieastwa jako rozkad masy jednostkowej (podobnie, jak w
przypadku wartoci oczekiwanej) widzimy, e wariancja jest odpowiednikiem wystpuj-
cego w zyce pojcia momentu bezwadnoci wzgldem rodka masy.
Fakt 3.12. Prawdziwa jest nastpujca rwno
VarX = EX
2
(EX)
2
.
Fakt 3.13. (Wasnoci wariancji)
1. VarX , 0,
2. VarX = 0 wtedy i tylko wtedy, gdy P(X = c) = 1 dla pewnej staej c.
3. Var(aX) = a
2
VarX,
4. Var(X + c) = VarX,
5. Jeeli zmienne losowe X, Y s niezalene, to Var(X + Y ) = VarX + VarY.
Oczywiste jest uoglnienie dwu ostatnich wasnoci Faktu 3.10 i ostatniej wasnoci Faktu
3.13 na przypadek dowolnej skoczonej iloci zmiennych losowych.
36
Tabela wartoci oczekiwanych i wariancji
rozkad X EX VarX
dwumianowy B(n, p) np np(1 p)
Poissona z parametrem
geometryczny z parametrem p p
1
(1 p)p
2
Pascala z parametrami r,p rp
1
r(1 p)p
2
hipergeometryczny p = N(N + M)
1
np np(1 p)
jednostajny na [a, b]
1
2
(a + b)
1
12
(b a)
2
wykadniczy z parametrem
1

2
normalny N(m, ) m
2
gamma z parametrami a, b ab
1
ab
2
Przykad 3.28.
Obliczy warto oczekiwan i wariancj dla zmiennych losowych o nastpujcych rozka-
dach:
a) P(X = 49) = P(X = 51) =
1
2
;
b) P(Y = 100) =
1
4
, P(Y = 100) =
3
4
;
c) P(Z = 100) = P(Z = 0) =
1
4
, P(Z = 50) =
1
2
.
R o z w i z a n i e.
Opisane zmienne losowe s typu dyskretnego, wic:
EX=49
1
2
+51
1
2
= 50, EY =100
1
4
+100
3
4
= 50, EZ=100
1
4
+50
1
2
+0
1
4
= 50.
Te trzy zmienne losowe maj tak sam warto oczekiwan. Zwrmy uwag, e warto
oczekiwana zmiennej losowej zaley nie tylko od wartoci, jakie ta zmienna losowa przyj-
muje ale te od prawdopodobiestwa, z jakimi te wartoci s przyjmowane.
Wariancje tych zmiennych s nastpujce:
VarX = (49 50)
2

1
2
+ (51 50)
2

1
2
= 1,
VarY = (100 50)
2

1
4
+ (100 50)
2

3
4
= 7500,
VarZ = (100 50)
2

1
4
+ (50 50)
2

1
2
+ (0 50)
2

1
4
= 1250,
Znajomo wariancji poprawia charakteryzacj zmiennej losowej. Jeeli wartoci zmiennej
losowej s odlege od wartoci oczekiwanej, to wariancja jest dua. Maa warto wariancji
mwi, e wartoci zmiennej losowej s bliskie jej wartoci oczekiwanej. Zauwamy, e
dla zmiennych losowych przyjmujcych skoczenie wiele wartoci zawsze istnieje warto
oczekiwana i wariancja.
Przykad 3.29.
Dla zmiennej losowej X, dla ktrej EX = 2, VarX = 3, wykorzystujc wasnoci wartoci
oczekiwanej i wariancji, moemy obliczy:
a) E(4X 9) = 4EX 9 = 1,
b) Var(2X + 7) = (2)
2
VarX = 12
c) D(2X 1) =
_
Var(2X 1) =

2
2
VarX = 2

3.
37
Przykad 3.30.
Zmienne losowe X, Y s niezalene, X ma rozkad N(3, 2), Y ma rozkad N(4, 3). Wy-
korzystujc wasnoci wartoci oczekiwanej i wariancji, moemy obliczy:
a) E(2X 4Y + 1) = 2EX 4EY + 1 = 21,
b) Var(X Y ) = VarX + (1)
2
VarY = 5
c) E(XY ) = EX EY = 12.
Przykad 3.31.
Zamy, e niezalene zmienne losowe X
i
maj rozkad B(1, p), i = 1, 2, . . . , n. Niech
Y =
n

i=1
X
i
. Obliczy EY oraz VarY . Dla jakiego p, VarY jest najwiksza?
R o z w i z a n i e.
Korzystajc z wasnoci wartoci oczekiwanej mamy:
EY = E(
n

i=1
X
i
) = n p.
Dziki niezalenoci zmiennych X
i
moemy policzy:
VarY =
n

i=1
VarX
i
= n p (1 p).
Wida, e VarY przyjmuje najwiksz warto dla p =
1
2
.
Przypomnijmy te, e zmienna losowa Y ma rozkad B(n, p). Zatem otrzymalimy od
razu parametry rozkadu B(n, p).
Przykad 3.32.
Pokaza, e jeeli zmienna losowa X ma wariancj, to dla zmiennej losowej Y =
X EX

VarX
zachodz rwnoci: EY = 0, VarY = 1.
R o z w i z a n i e.
Wykorzystujc wasnoci wartoci oczekiwanej i wariancji zawarte w faktach 3.10, 3.13
moemy policzy
EY =
1

VarX
E(X EX) =
1

VarX
(EX EX) = 0
oraz
VarY =
_
1

VarX
_
2
Var(X EX) =
_
1

VarX
_
2
VarX = 1.
Przeksztacenie powysze nazywamy standaryzacj zmiennej losowej.
3.6.3 Momenty.
Warto oczekiwana i wariancja s szczeglnymi przypadkami parametrw rozkadu zwa-
nych momentami.
Momentem zwykym rzdu k (k = 1, 2, . . .) zmiennej losowej X nazywamy liczb
EX
k
. Momentem absolutnym rzdu k (k = 1, 2, . . .) zmiennej losowej X nazywa-
my liczb E[X[
k
. Momentem centralnym rzdu k (k = 1, 2, . . .) zmiennej losowej X
nazywamy liczb E(X EX)
k
.
Fakt 3.14. Jeeli istnieje moment absolutny rzdu k, to istniej momenty absolutny,
zwyky i centralny rzdw l k.
38
Momenty centralne rzdu 3 i 4 wykorzystuje si do badania asymetrii rozkadu i stop-
nia jego koncentracji wok wartoci oczekiwanej.
Denicja 3.15. Wsp ol

czynnikiem asymetrii (sko sno sci) nazywamy liczb
3
okrelon
wzorem

3
=
E(X EX)
3
D(X)
3
Wspczynnik asymetrii dla rozkadu normalnego wynosi 0, a dla rozkadu wykadni-
czego rwny jest 2.
3.6.4 Kwantyle.
Denicja 3.16. Kwantylem rze

du p, gdzie p (0, 1), rozkadu zmiennej losowej X na-


zywamy kad liczb x
p
speniajc warunek
F
X
(x
p
) p F
X
(x
+
p
).
Oznacza to, e P(X < x
p
) p i jednoczenie P(X > x
p
) 1 p. Nie wszystkie
kwantyle rozkadu zmiennej dyskretnej s jednoznacznie wyznaczone, a kwantyle rozkadu
zmiennej typu cigego s jedynymi liczbami speniajcymi warunek F
X
(x
p
) = p.
Kwantyl rzdu
1
2
nazywamy median i oznaczamy m
e
. Dla zmiennej dyskretnej mamy
zatem

x
i
<me
p
i
0, 5

x
i
me
p
i
,
a dla zmiennej typu cigego mediana spenia rwno
F(m
e
) = 0, 5.
Kwantyl rzdu
1
4
nazywamy kwartylem dolnym, a kwantyl rzdu
3
4
kwartylem gr-
nym. Mamy zatem
P(x1
4
< X x3
4
) ,
1
2
.
39
3.7 Nierwno Czebyszewa i twierdzenia graniczne
W tym rozdziale poznamy nierwnoci czsto wykorzystywane do szacowania prawdopo-
dobiestw zdarze i zajmiemy si badaniem zbienoci cigw sum zmiennych losowych.
3.8 Wane nierwnoci.
Twierdzenie 1. (Nierwno Markowa) Jeeli P(X , 0) = 1, oraz EX < , to
dla dowolnego k > 0 zachodzi nierwno
P(X , k)
1
k
EX
lub rwnowanie:
P(X < k) , 1
EX
k
.
D o w d.
Dla zmiennej X typu cigego o gstoci f(x) mamy np.
EX =
_
(Xk)
xf(x)dx +
_
(X<k)
xf(x)dx , kP(X , k),
co daje dan nierwno. Analogiczny dowd mona przeprowadzi dla zmiennej losowej
dyskretnej.
Przykad 3.33.
rubki s pakowane w pudeka po 100 sztuk. Prawdopodobiestwo, e rubka jest wy-
brakowana wynosi 0,01. Ile sztuk naleaoby doda do kadego pudeka, aby w celach
marketingowych mona byo powiedzie, e z prawdopodobiestwem nie mniejszym ni
0,9 w kadym pudeku jest co najmniej 100 sztuk dobrych?
R o z w i z a n i e.
W rozdziale 3. rozwizalimy to zadanie stosujc przyblienie rozkadu Bernoulliego roz-
kadem Poissona. Teraz rozwiemy je wykorzystujc nierwno Markowa . Dla ustalone-
go n niech X bdzie zmienn losow okrelajc liczb wybrakowanych rubek w pudeku
zawierajcym n rub. X ma rozkad Bernoulliego z parametrami n, p =
1
100
. Chcemy, by
P(nX , 100) , 0.9 lub rwnowanie P(nX < 100) 0.1. Wykorzystujc nierwno
Markowa dla = n 100 moemy napisa
P(n X < 100) = P(X > n 100)
n
1
100
n100
.
Wystarczy zatem znale takie n, by zachodzia nierwno
n
1
100
n100
0.1 rwnowana nierwnoci n > 111.
Parametrem, za pomoc ktrego mona charakteryzowa rozrzut wartoci zmiennej loso-
wej jest wariancja albo odchylenie standardowe.
Rola wariancji jako miary rozrzutu zawarta jest w nastpujcym twierdzeniu.
40
Twierdzenie 2. (Nierwno Czebyszewa) Jeeli V arX < , to dla dowolnego
> 0 zachodzi nierwno:
P([X EX[ , )
VarX

2
.
lub rwnowanie
P([X EX[ < ) , 1
VarX

2
.
D o w d.
Niech X bdzie zmienn losow o skoczonej wariancji. Wykorzystujc nierwno Mar-
kowa dla zmiennej Y = (X EX)
2
, otrzymujemy:
P([X EX[ , ) = P(Y ,
2
)
1

2
EY =
1

2
E(X EX)
2
=
VarX

2
Przykad 3.34.
Zobaczmy, jakie oszacowanie daje nierwno Czebyszewa dla nastpujcych zmiennych
losowych:
a) Zmienna losowa X ma rozkad normalny N(m, ).
Poniewa EX = m i VarX =
2
, wic z nierwnoci Czebyszewa dla = 3 mamy
P([X m[ , 3)

2
9
2
=
1
9
,
podczas, gdy z prawa trzech sigm wynika, e prawdopodobiestwo tego zdarzenia jest
mniejsze ni 0,003.
b) Dla zmiennej losowej o rozkadzie prawdopodobiestwa
P(X = 2) = P(X = 2) = 0, 125, P(X = 0) = 0, 75
mamy
EX = 2 0, 125 + 2 0, 125 = 0 oraz VarX = 4 0, 125 + 4 0, 125 = 1
Nierwno Czebyszewa z = 2 ma posta
P([X 0[ , 2)
1
4
,
a jednoczenie prawdopodobiestwo tego zdarzenia wynosi
P([X[ , 2) = P(X = 2 X = 2) =
1
4
,
czyli dla tej zmiennej w nierwnoci Czebyszewa zachodzi rwno. Zatem oszacowania,
jakie daje nierwno Czebyszewa, nie mona polepszy.
Przykad 3.35.
W celu oszacowania nieznanej wadliwoci p poddaje si kontroli kolejne elementy partii
towaru. Niech X
i
= 0, jeeli i-ty element jest dobry, X
i
= 1 - jeeli i-ty element jest
wadliwy, i = 1, 2, . . . , n oraz niech Z
n
=
1
n
n

i=1
X
i
. Ile elementw naley skontrolowa, by
P([Z
n
p[ < 0.01) , 0, 9?
41
R o z w i z a n i e.
Obliczmy:
EZ
n
= E
_
1
n
n

i=1
X
i
_
= p, VarZ
n
= Var
_
n

i=1
1
n
X
i
_
=
1
n
2
n p(1 p) =
p(1p)
n
. Zatem z
nierwnoci Czebyszewa otrzymujemy:
P([Z
n
p[ < 0.01) , 1
p(1 p)
n (0.01)
2
.
Wyraenie p(1 p) przyjmuje warto najwiksz dla p =
1
2
, wic
1
p(p 1)
n (0.01)
2
, 1
1
4n (0.01)
2
.
Nierwno P([Z
n
p[ < 0.01) , 0.9 zachodzi dla n speniajcych nierwno
1
1
4n(0.01)
2
, 0.9, czyli dla n , 25000.
Przykad 3.36.
Wykonujemy 80 rzutw kostk. Znale najkrtszy przedzia, w jaki z prawdopodobie-
stwem nie mniejszym ni 0,9 wpada ilo otrzymanych szstek.
R o z w i z a n i e.
Niech X bdzie zmienn losow oznaczajc liczb szstek w 80 rzutach kostk. X ma roz-
kad B(80,
1
6
). Z wasnoci rozkadu Bernoulliego najwiksze prawdopodobiestwa maj
wartoci zmiennej pooone symetrycznie wzgldem EX. Mamy:
EX =
80
6
=
40
3
, V arX = 80
1
6

5
6
=
100
9
.
Wykorzystujc nierwno Czebyszewa otrzymujemy:
P([X
40
3
[ < ) > 1
100
9
2
, 0, 9. Std >
10

10
3
10, 54. Zatem najkrtszy przedzia o
szukanej wasnoci ma posta (2.79, 23.87).
3.9 Prawa wielkich liczb.
Korzystajc z nierwnoci Czebyszewa mona udowodni niektre twierdzenia wane dla
zastosowa rachunku prawdopodobiestwa.
Niech X
1
, X
2
, . . . bd niezalenymi zmiennymi losowymi o wartociach oczekiwanych
m
i
i wariancjach
2
i
. Rozwamy Y
n
=
n

i=1
X
i
. Wwczas V arY
n
=
n

i=1

2
i
i wida, e
ronie ona wraz ze wzrostem n. Dlatego rozwaa si Y
n
mnoone przez pewne liczbowe
wspczynniki A
n
, ktre ograniczaj wariancj Y
n
. Najczciej rozwaa si A
n
=
1
n
.
Wtedy Y
n
jest redni arytmetyczn zmiennych X
1
, X
2
, . . . , X
n
.
Bdziemy rozwaa dwa typy twierdze granicznych:
Prawa wielkich liczb to twierdzenia, w ktrych graniczna zmienna losowa ma
rozkad jednopunktowy
Centralne twierdzenia graniczne to twierdzenia, w ktrych graniczna zmienna
losowa ma rozkad normalny.
Niech X
1
, X
2
, . . . bdzie cigiem zmiennych losowych o skoczonej wartoci oczekiwanej.
Mwimy, e dla cigu (X
n
) zachodzi:
42
Sabe Prawo Wielkich Liczb, jeeli
> 0 lim
n
P
__
:

1
n
n

k=1
X
k

1
n
n

k=1
EX
k

<
__
= 1
Ze Sabego Prawa Wielkich Liczb wynika, e z prawdopodobiestwem bliskim 1, wartoi
zmiennej losowej
1
n
n

k=1
X
k
rni si dowolnie mao od swojej wartoci oczekiwanej
E(
1
n
n

k=1
X
k
).
Kiedy zachodzi Sabe Prawo Wielkich Liczb?
Twierdzenie 3. Jeeli X
n
s niezalene i lim
n
1
n
2
V ar
_
n

k=1
X
k
_
= 0,
to dla cigu (X
n
)zachodzi Sabe Prawo Wielkich Liczb.
D o w d. Korzystajc z nierwnoci Czebyszewa moemy napisa:
P
_

1
n
n

k=1
X
k

1
n
n

k=1
EX
k

,
_
= P
_

k=1
(X
k
EX
k
)

, n
_

2
n
2
V ar
n

k=1
X
k
0
Zauwamy, e jeeli zmienne losowe X
1
, X
2
, . . . , X
n
s niezalene i maj jednakowy rozkad
o wartoci oczekiwanej m i skoczonej wariancji, to rednie
1
n
n

k=1
X
k
z prawdopodobie-
stwem bliskim 1 przybliaj m.
Twierdzenie to jest prawdziwe rwnie przy sabszych zaoeniach.
Przykad 3.37.
W serii rzutw kostk niech
X
k
=
_
1 gdy wypadnie 6,
0 w przeciwnym razie.
Wwczas X
k
ma rozkad B(1,
1
6
). Z Prawa Wielkich Liczb wynika, e z prawdopodobie-
stwem bliskim 1, wartoci zmiennej losowej
1
n
n

k=1
X
k
rni si dowolnie mao od
1
6
.
Przykad 3.38.
Czy dla cigu niezalenych zmiennych losowych o nastpujcych rozkadach prawdopo-
dobiestwa
P(X
n
=

n) = P(X
n
=

n) =
1
2

n
, P(X
n
= 0) = 1
1

n
zachodzi Sabe Prawo Wielkich Liczb?
R o z w i z a n i e.
Zmienne losowe X
1
, X
2
, . . . s niezalene, ale nie maj jednakowych rozkadw. Sprawdzi-
my zatem, czy speniony jest warunek wystpujcy w ostanim twierdzeniu. Poniewa
EX
k
=

k
1
2

k
+ (

k)
1
2

k
+ 0 = 0 oraz VarX
k
= k
1
2

k
+ k
1
2

k
=

k,
wic
n

k=1
VarX
k
=
n

k=1

k n

n, a std 0
1
n
2
Var (

n
k=1
X
k
)
n

n
n
2
=
1

n
,
43
Zatem, dziki twierdzeniu o trzech cigach,
lim
n
1
n
2
Var

n
k=1
X
k
= 0.

Niech X
1
, X
2
, . . . bdzie cigiem zmiennych losowych o skoczonej wartoci oczeki-
wanej. Mwimy, e dla cigu (X
n
) zachodzi:
Mocne Prawo Wielkich Liczb, jeeli prawdziwa jest rwno
P
_
lim
n
1
n
_
n

k=1
X
k
E
n

k=1
X
k
_
= 0
_
= 1
Twierdzenie 3.4. (Twierdzenie Chinczyna)
Dla zmiennych niezalenych o tym samym rozkadzie i skoczonej wartoci oczekiwanej
m zachodzi
P
_
lim
n
X
1
+ X
2
+ . . . + X
n
n
= m
_
= 1
Pokaemy zastosowanie Mocnego Prawa Wielkich Liczb do obliczania caek oznaczonych,
gdy wyznaczenie funkcji pierwotnej jest trudne lub wrcz - niemoliwe w sposb anali-
tyczny.
(Metoda Monte Carlo obliczania caek oznaczonych)
Niech g(x) bdzie funkcj cakowaln na przedziale [a, b] i oznaczmy przez I nieznan
warto caki
b
_
a
g(x)dx. Wiemy, e jeeli X jest zmienn losow o rozkadzie jednostajnym
na przedziale [a, b], to
Eg(X) =
b
_
a
g(x)
1
b a
dx =
1
b a
I.
Jeeli X
1
, X
2
, . . . s niezalenymi zmiennymi losowymi o rozkadzie jednostajnym na prze-
dziale [a, b], to g(X
1
), g(X
2
), . . . s niezalenymi zmiennymi losowymi o jednakowym roz-
kadzie z wartoci oczekiwan
1
ba
I. Zatem, na mocy Twierdzenia Chinczyna, mamy
P
_
lim
n
1
n
n

k=1
g(X
k
) = Eg(X
1
) =
I
b a
_
= 1,
czyli z prawdopodobiestwem rwnym 1, dla duych n, rednia z wartoci
g(X
1
), g(X
2
), . . . , g(X
n
) jest dowolnie bliska liczbie
1
ba
I. Wystarczy wic wygenerowa
wartoci zmiennych losowych X
1
, X
2
, . . . , X
n
z rozkadu jednostajnego na [a, b] i przyj
liczb
ba
n
n

k=1
g(X
k
) za oszacowanie caki I =
b
_
a
g(x)dx.
Metody oparte na symulacji zmiennych losowych nazywaj si metodami Monte Carlo.
Mona je rwnie wykorzystywa do obliczania caek wielokrotnych.
44
3.10 Twierdzenia Graniczne
Mwimy, e dla cigu (X
n
) zmiennych losowych o skoczonych wariancjach zachodzi
Centralne Twierdzenia Graniczne, jeeli dla dowolnego t

IR
lim
n
P
_
_
_
_
_
_
n

k=1
X
k
E
n

k=1
X
k

Var
n

k=1
X
k
< t
_
_
_
_
_
_
=
1

2
t
_

x
2
2
dx = (t)
Oznacza to, i dystrybuanty zmiennych losowych Y
n
=
n

k=1
X
k
E
n

k=1
X
k
_
n

k=1
VarX
k
d w kadym
punkcie t

IR do dystrybuanty rozkadu normalnego N(0,1).
Zauwamy, e Y
n
jest standaryzacj sumy S
n
=
n

k=1
X
k
.
Twierdzenie 3.5. (Twierdzenie Lindeberga-Levyego)
Niech X
1
, X
2
, . . . bdzie cigiem niezalenych zmiennych losowych o jednakowym rozka-
dzie, wartoci oczekiwanej m i wariancji 0 <
2
< . Wwczas dla cigu (X
n
)
zachodzi Centralne Twierdzenia Graniczne. Zatem dla dowolnego t

IR prawdziwa jest
rwno
lim
n
P
_
_
_
_
n

k=1
X
k
nm

n
< t
_
_
_
_
= (t),
gdzie (t) jest dystrybuant zmiennej losowej o rozkadzie N(0, 1).
W praktyce Twierdzenie Lindeberga-Levyego wykorzystuje si przyjmujc, e dla duych
n zachodzi przybliona rwno
P
_
a <
S
n
nm

n
< b
_
(b) (a),
Stosujc twierdzenie Lindeberga-Levyego do zmiennych o rozkadzie zerojedynkowym
otrzymujemy:
Twierdzenie 3.6. (Twierdzenie Moivrea-Laplacea)
Niech X
1
, X
2
, . . . bdzie cigiem niezalenych zmiennych losowych o jednakowym rozka-
dzie B(1,p). Wwczas dla kadego t

IR zachodzi rwno
lim
n
P
_
S
n
np

npq
< t
_
= (t),
gdzie S
n
= X
1
+ X
2
+ . . . + X
n
.
45
Wane s uoglnienia Twierdzenie Lindeberga-Levyego idce w kierunku osabiania za-
oe tego twierdzenia. Okazuje si, e mona zastpi, do restrykcyjne, zaoenie o
jednakowym rozkadzie zmiennych X
n
zaoeniami dotyczcymi momentw trzeciego rz-
du.
Twierdzenie 3.7. (Twierdzenie Lapunowa)
Jeeli X
1
, X
2
, . . . jest cigiem niezalenych zmiennych losowych o skoczonych trzecich
momentach centralnych speniajcym warunek
lim
n
3

k=1
E[X
k
EX
k
[
3

k=1
VarX
k
= 0,
to dla cigu (X
n
) zachodzi Centralne Twierdzenie Graniczne.
Istnienie trzecich momentw pozwala te oszacowa dokadno przyblienia w Central-
nym Twierdzeniu Granicznym.
Twierdzenie 3.8. (Twierdzenie Berry-Ess eena)
Jeeli X
1
, X
2
, . . . jest cigiem niezalenych zmiennych losowych o tym samym rozkadzie
i E[X[
3
< , to prawdziwa jest nierwno
sup
t

IR

P
_
_
_
_
_
_
n

k=1
X
k
E
_
n

k=1
X
k
_

k=1
VarX
k
< t
_
_
_
_
_
_
(t)

C
E[X
1
EX
1
[
3

n(
_
VarX
1
)
3
,
gdzie
1
2
C < 0, 8.
Komentarz.
W prawach wielkich liczb widzielimy, e czynnik A
n
=
1
n
(co daje po prostu red-
ni arytmetyczn zmiennych X
1
, X
2
, . . . , X
n
.) jest tak silnie wygaszajcy, i powoduje
koncentracj rozkadu granicznego w jednym punkcie! W centralnych twierdzeniach gra-
nicznych rozpatruje si wspczynniki zmierzajce wolniej do zera, mianowicie A
n
=
1

n
.
Wwczas okazuje si, e graniczna zmienna losowa ma rozkad normalny N(0, 1).
Przykad 3.39.
Z partii towaru o wadliwoci 3% pobrano prb 500-elementow. Obliczy prawdopodo-
biestwo, e liczba elementw wadliwych w prbie nie przekroczy 4%.
R o z w i z a n i e.
P(
500

i=1
X
i
< 20) = P
_
_
_
_
_
500

i=1
X
i
500 0, 03

500 0, 03 0, 97
<
5

145.5
_
_
_
_
_
(0.41) = 0.6591.
46
Przykad 3.40.
Samolot zabiera 80 pasaerw. Przyjmujc, e waga pasaera jest zmienn losow o roz-
kadzie N(80,10) obliczy prawdopodobiestwo, e czna waga pasaerw przekroczy
9000kg.
R o z w i z a n i e.
Niech X
i
oznacza wag i-tego pasaera. Wwczas mamy
P(
80

i=1
X
i
> 9000) = P
_
_
_
_
_
80

i=1
X
i
80 80
10

80
>
9000 6400
40

5
_
_
_
_
_
1 (29.07) 0.
Przykad 3.41.
Rzucamy 80 razy kostk. Znale najkrtszy przedzia, w jaki z prawdopodobiestwem
wikszym ni 0, 9 wpada ilo otrzymanych szstek.
R o z w i z a n i e.
Wykorzystujc nierwnoci Czebyszewa (zad.3.4) otrzymalimy przedzia [2, 79; 23, 87].
Wykorzystujc twierdzenia Moivrea-Laplacea otrzymujemy
P
_
_
_
_
_

80

i=1
X
i

80
6
_
80
1
6

5
6

<
_
_
_
_
_
() () = 2() 1 > 0.9,
czyli () > 0.9 i > 1.64. Zatem najkrtszy przedzia jest postaci [7, 86; 18, 80].
Przykad 3.42.
Prawdopodobiestwo spostrzeenia sputnika z ziemi z okrelonego punktu obserwacyjnego
jest rwne p =
1
10
przy kadym locie nad punktem obserwacyjnym. Znale liczb lotw,
jak powinien wykona sputnik, aby z prawdopodobiestwem nie mniejszym ni 0,9 liczba
X
n
spostrzee sputnika bya rwna co najmniej 10.
R o z w i z a n i e .
Niech
X
k
=
_
1 gdy sputnik zosta dostrzeony w k-tym locie,
0 gdy sputnik nie zosta dostrzeony w k-tym locie.
X
k
B(1,
1
10
), m
k
=
1
10
,
2
k
= pq =
1
10
9
10
=
9
100
, Y
n
=
n

k=1
X
k
okrela ilo spostrzee
sputnika w n lotach.
P(Y
n
, 10) = P
_
Y
n
n
1
10
3
10

n
,
10 n
1
10
3
10

n
_
1
1

2
_

t
2
2
dt , 0, 9.
Mamy zatem: 1 () = 0, 9 gdzie =
100n
3

n
. Z tablic odczytujemy, e = 1, 28.
Zatem (po rozwizaniu nierwnoci) otrzymujemy n , 147.
47
Przykad 3.43.
Komputer dodaje 1200 liczb rzeczywistych i kad zaokrgla do najbliszej liczby ca-
kowitej. Bdy zaokrgle s niezalene i maj rozkad jednostajny na [
1
2
,
1
2
]. Obliczy
prawdopodobiestwo, e bd w obliczeniu sumy przekroczy 10.
R o z w i z a n i e .
Wprowadzajc oznaczenia: X
i
- bd zaokrglenia i-tej liczby otrzymujemy:
EX
i
= 0,
2
i
=
1
12
oraz V ar
1200

i=1
X
i
= 1200
1
12
= 100.
Zatem
P
_
1200

i=1
X
i
> 10
_
= P
_
_
_
_
_
1200

i=1
X
i

100
>
10

100
_
_
_
_
_
= 1 (1) = 0.1587
Przykad 3.44.
Czas pracy diody ma rozkad wykadniczy o wartoci oczekiwanej m = 900h. Zgroma-
dzono zapas 100 diod. Obliczy prawdopodobiestwo, e wystarczy ich na 100000 godzin
pracy, jeeli kad diod wczamy natychmiast po uszkodzeniu poprzedniej. Ile diod
trzeba mie w zapasie, by z prawdopodobiestwem wikszym ni 0, 99 wystarczyo ich na
99000 godzin pracy urzdzenia.
R o z w i z a n i e.
Oznaczmy czas pracy i-tej diody przez X
i
. Wwczas X
i
ma rozkad wykadniczy z para-
metrem =
1
900
,
P
_
100

i=1
X
i
, 100000
_
= 1 P
_
0
100

i=1
X
i
< 100000
_
=
1 P
_
10 <

100
i=1
X
i
90000
10 900
<
10000
10 900
_
= 1 ((1, 11) (10)) = 0.1335.
Szukamy N takiego,e P
_
N

i=1
X
i
, 990000
_
> 0, 99 czyli
P(0
N

i=1
X
i
99000) < 0, 01
P
_

N
i=1
X
i
N 900
900

N
<
99000 N 900
900

N
_
< 0, 01
Wykorzystujc CTG otrzymujemy

_
9900 N 900
900

N
_
< 0.01.
albo rwnowanie
_

9900N900
900

N
_
> 0.99 (2.33). Szukane N spenia nierwno
9N 9 2.33

N 990 > 0, czyli N , 106.


48
4 Zmienne losowe wielowymiarowe.
4.1 Denicja i przykady.
Denicja 4.1. Wektorem losowym n-wymiarowym (Zmienna

losowa

n-wymiarowa

) nazy-
wamy wektor n-wymiarowy, ktrego skadowymi s zmienne losowe X
i
dla i = 1, 2, . . . , n,
X()=(X
1
(), X
2
(), . . . , X
k
())
Denicja 4.2. Dystrybuanta

n-wymiarowej zmiennej losowej X nazywamy funkcj


F
X
(t
1
, t
2
, . . . , t
n
) : IR
n
IR okrelon wzorem
F
X
(t
1
, t
2
, . . . , t
n
) = P(X
1
< t
1
, X
2
< t
2
, . . . , X
n
< t
n
)
Zajmiemy si bliej zmiennymi losowymi dwuwymiarowymi.
Dwuwymiarow zmienn losow (X,Y) przyjmujc co najwyej przeliczalnie wiele war-
toci (x
i
, y
j
) : i I, j J nazywamy dwuwymiarow zmienn losow dyskretn.
Rozkad prawdopodobiestwa takiej zmiennej mona przedstawi w postaci
((x
i
, y
j
), p
ij
), gdzie p
ij
= P(X = x
i
, Y = y
j
), dla i I, j J.
Dla zbiorw I, J skoczonych wygodnie przedstawia si rozkad prawdopodobiestwa w
postaci tabeli
XY y
1
y
2
. . . y
n
x
1
p
11
p
12
. . . p
1n
x
2
p
21
p
22
. . . p
2n
.
.
.
x
m
p
m1
p
m2
. . . p
mn
Dystrybuanta takiej zmiennej jest funkcj schodkow
F(x, y) = P(X < x, Y < y) =

i,j;x
i
<x,y
j
<y
p
ij
.
Przykad 4.1.
Rzucamy 3 razy monet. Niech zmienna losowa X oznacza liczb wyrzuconych orw a
zmienna losowa Y numer rzutu, w ktrym orze pojawi si po raz pierwszy. czny roz-
kad prawdopodobiestwa wektora losowego X, Y opisuje nastpujaca tabela.
XY 1 2 3
0 0.125 0 0
1 0.125 0.125 0.125
2 0.25 0.125 0
3 0.125 0 0
49
Mwimy, e zmienna losowa (X, Y ) jest typu cigego, jeeli istnieje nieujemna funkcja
cakowalna f(x, y) taka, e dystrybuanta ma posta
F(x, y) =
x
_

y
_

f(u, v))dudv.
W punktach cigoci (x
0
, y
0
) funkcji f(x, y)

2
F
xy
(x
0
, y
0
) = f(x
0
, y
0
).
Dla borelowskiego zbioru A IR
2
mamy
P((X, Y ) A) =
__
A
f(x, y))dxdy.
Nastpujce twierdzenie charakteryzuje dystrybuant zmiennej losowej dwuwymiarowej
Twierdzenie 4.1. Funkcja F(x, y) jest dystrybuant pewnej zmiennej losowej (X, Y )wtedy
i tylko wtedy, gdy :
F(x, y) jest niemalejca ze wzgldu na kad ze zmiennych,
F(x, y) jest lewostronnie ciga,
dla kadego x i kadego y lim
x
F(x, y) = 0, lim
y
F(x, y) = 0
oraz lim
x,y+
F(x, y) = 1.
dla kadych x
1
< x
2
, y
1
< y
2
F(x
2
, y
2
) F(x
1
, y
2
) F(x
2
, y
1
) + F(x
1
, y
1
) , 0.
Wnioskiem z twierdzenia 4.1 jest nastpujca charakteryzacja funkcji gstoci.
Twierdzenie 4.2. Funkcja f(x, y) jest gstoci rozkadu prawdopodobiestwa pewnego
wektora losowego wtedy i tylko wtedy, gdy :
f(x, y) , 0 dla kadego (x, y) IR
2
,

+
_

+
_

f(x, y)dxdy = 1.
Znajc rozkad prawdopodobiestwa wektora (X, Y ) moemy wyznaczy rozkady praw-
dopodobiestwa zmiennych X, Y . Nazywamy je rozkadami brzegowymi. W przypad-
ku zmiennej losowej dwuwymiarowej dyskretnej (X, Y ) s one okrelone wzorami:
p
i
= P(X = x
i
) =

j
p
ij
, oraz p
j
= P(Y = y
j
) =

i
p
ij
Dla zmiennej dwuwymiarowej cigej (X, Y ) tzw. gstoci brzegowe s nastpujce:
f
X
(x) =

f(x, y)dy, f
Y
(y) =

f(x, y)dx.
Rozkad wektora losowego (mwimy czasem rozkad czny) wyznacza jednoznacznie
rozkady brzegowe, ale nie na odwrt. Rozkady brzegowe wyznaczaj rozkad czny, gdy
skadowe wektora losowego s zmiennymi niezalenymi.
50
Twierdzenie 4.3. Zmienne losowe X, Y s niezalene wtedy i tylko wtedy, gdy
F
(X,Y )
(x, y) = F
X
(x) F
Y
(y).
W przypadku zmiennych dyskretnych warunek ten rwnowany jest warunkowi
p
ik
= p
i
p
k
dla wszystkich i, k
a dla zmiennych typu cigego warunkowi
f
(X,Y )
(x, y) = f
X
(x)f
Y
(y) dla wszystkich x, y IR.
Oczywista jest posta powyszego twierdzenia w przypadku dowolnej skoczonej iloci
zmiennych losowych X
1
, X
2
, . . . , X
n
.
Przykad 4.2.
Zmienna losowa X jest liczb spalonych zasilaczy w pracowni w ciagu dnia, zmienna loso-
wa Y jest liczb przepi w sieci energetycznej. czny rozkad wektora losowego (X, Y )
opisuje tabela
XY 0 1
0 0.8 0.01
1 0 0.07
2 0.02 0.1
a) Obliczy P((X, Y ) (2, 0), (2, 1)).
b) Wyznaczy rozkady brzegowe zmiennej losowej X oraz Y . Ile wynosi P(X = 1),
P(Y = 0). Obliczy EX, EY .
c) Czy zmienne losowe X, Y s niezalene?
Przykad 4.3.
Wektor losowy (X, Y ) ma rozkad o gstoci
f(x, y) =
_
cxy dla 0 x 1, 0 y

x
0 poza tym
a) Wyznaczy sta c.
b) Wyznaczy rozkady brzegowe.
c) Czy zmienne losowe X, Y s niezalene?
Przykad 4.4.
Gsto wektora losowego (X, Y ) dana jest wzorem f(x, y) =
1
2
e

x
2
+y
2
2
.
a) Czy zmienne losowe X, Y s niezalene?
b) Obliczy P(X > 1).
c) Obliczy P((X, Y ) A), gdzie A = (x, y) : x
2
+ y
2
< 1.
51
4.2 Parametry rozkadu wektorw losowych
Gdy dany jest rozkad wektora losowego (X, Y ) oraz h : IR
2
IR jest funkcj cakowaln,
to dla Z = h(X, Y )
EZ = Eh(X, Y ) =
_

h(x, y)f(x, y)dxdy dla wektora losowego typu cigego

i,k
h(x
i
, y
k
)p
i,k
dla wektora losowego typu dyskretnego
Dla wektora losowego (X, Y ) kowariancj zmiennych X, Y nazywamy wielko
Cov(X, Y ) = E(X EX)(Y EY ) = EXY EXEY.
Jeeli VarX > 0, VarY > 0, to deniujemy wany parametr zwany wspczynnikiem
korelacji.

(X,Y )
=
Cov(X, Y )
_
Var(X)Var(Y )
.
Twierdzenie 4.4. (Wasnoci wspczynnika korelacji):
1. [(X, Y )[ 1
2.Jeeli zmienne losowe s niezalene, to (X, Y ) = 0.
3. (aX + b, cY + d) = sgn(ac)(X, Y ).
4. (X, Y ) = 1 wtedy i tylko wtedy, gdy istniej stae a, b takie, e P(Y = aX +b) = 1.
Wspczynnik korelacji jest miar zalenoci liniowej zmiennych X i Y . W przypadku, gdy
= 0, zmienne losowe nazywamy nieskorelowanymi. Jeeli (X, Y ) = 0, to zmienne
losowe moga by zalene. wiadczy o tym poniszy przykad.
Przykad 4.5.
Zamy, e zmienna losowa X ma rozkad N(0, ) i niech Y = X
2
. Mona atwo spraw-
dzi, e Cov(X, Y ) = 0, a zmienne X, Y s zalene.
Przykad 4.6.
Gsto wektora losowego (X, Y ) dana jest wzorem
f(x, y) =
_

3
8
y
2
cos x dla

2
x , 0 y 2
0 poza tym
a) Znale rozkady brzegowe
b) Wyznaczy kowariancj oraz wspczynnik korelacji zmiennych X, Y . Czy X, Y s nie-
zalene?
Przykad 4.7.
Wspczynnik korelacji zmiennych losowych X, Y wynosi 0.25. Jaki wspczynnik korelacji
maj zmienne losowe 4X 3 oraz 2Y + 4?
52