You are on page 1of 245

~

oP"'!

Ul
N O
~ O-
CIl
"t:!

"'O

H;..., "'O <ll 4-J


O- O
O-
rJJ
ro
oP"'!
..o.
'OQ.)
~ N
il;
O
E-<
en o r-<
,CIl

H :$
•....
O.)O
4-J
Q
"'O
~
~
4-J
oP"'!
'~=-'-
._,,FJ}ri)ilij;j!!Ni!!JW!iff1!lmlWJi1I~Pm!lVi{mf;'f:mi!r~~!fmi!jiiii!!!iH[i!i!ii!!IJ~;::~;I:~,;~r,I:m)~:l';T~f,,,t"~j",::r:::~",;"",;;"",<"",=,,,,,~=;:.:o.
__ -,.,"-,~'---
© Copyright by Jacek Jakubowski and Rafal Sztencel, Warszawa 2001

Podrecznik zawiera wyklad teorii prawdopodobiellstwa, obejmujacy rów-


niez wstep do teorii martyngalów z czasem dyskretnym, lancuchy Markowa
i podstawowe wiadomosci o procesie Wienera. Jest przeznaczony dla studen-
tów i pracowników naukowych wydzialów matematyki oraz innych wydzia-
lów, gdzie wykladany jest rachunek prawdopodobienstwa. Moze byc takze
uzyteczny dla osób, korzystajacych z metod probabilistycznych w swojej
pracy. Przedmowa
Teorie ilustruja liczne przyklady i ponad 500 zadarl o róznym stopniu trud-
nosci. Do prawie wszystkich zadan podano wskazówki, rozwiazania lub od-
powiedzi.
Niniejsza ksiazka powstala na podstawie wykladów i cwiczen z teorii praw-
Projekt okladki dopodobienstwa, które prowadzimy od przeszlo 20 lat na Wydziale Mate-
Rafal Sztencel matyki Uniwersytetu ·Warszawskiego.
Napisalismy ja z mysla o tych studentach, którzy chca usystematyzowac
Rysunki na okladce
i utrwalic wiadomosci wyniesione z wykladów i cwiczen, a takze o tych,
którzy pragna poglebic i rozszerzyc swoja wiedze. Ksiazka jest skierowana
Zofia Zawada
równiez do osób, które korzystaja z metod probabilistycznych w swojej
pracy.
Recenzenci
Chociaz skoncentrowalismy sie na najwazniejszych dzialach teorii, podrecz-
prof. dr hab. Stanislaw Kwapien nik obejmuje material obszerniejszy od standardowego rocznego wykladu
dr Katarzyna Pietruska-Paluba i pozostawia prowadzacemu zajecia pewna swobode manewru. Rozdzialy
dr Tomasz Zak umieszczone po centralnym twierdzeniu granicznym, poswiecone martyn-
galom, lancuchom Markowa i procesowi Wienera sa dosc rozbudowane,
wobec tego wykladowca moze dokonac wyboru sposród przedstawionych
zagadnien.
Dolozylismy wszelkich staran, aby Czytelnik w trakcie lektury nie musial
Wydanie II, poprawione i rozszerzone b"-- ~GQ{J
siegac do innych zródel. Zakladamy jednak znajomosc podstawowych pojec
ISBN 83-904564-5-1 i twierdzen analizy. Najwazniejsze narzQdzia analityczne, z których korzy-
stamy (w tym wlasnosci funkcji gamma i beta), zamieszczamy w dodatku
A. W dodatku C zamiescilismy bardzo zwiezly wstep do ogólnej teorii miary
i calki, ograniczony do miar probabilistycznych. Dodatek D zawiera podsta-
wowe wiadomosci o funkcjach analitycznych, niezbedne do obliczania calek
Sklad i lamanie metoda residuów.
SCRIPT, 02-777 Warszawa, ul. Teligi 6/22 Integralna czesc wykladu stanowia ilustrujace teorie przyklady, a takze
tel. (0-22) 641-47-70 zadania. Tych ostatnich .~cst ponad 500; trudniejsze oznaczono gwiazdka,
a jeszcze trudniejsze - symbolem t (pochodza one na ogól od prof. Stani-
www.script.com.pl
slawa Kwapienia).
e-mail: script@script.com.pl
Do wiekszosci zadan podajemy rozwiazania lub wskazówki, a do prawie
wszystkich - odpowiedzi. Zadania nie sa uporzadkowane wedlug stop-
Druk i oprawa nia trudnosci. Dobralismy je tak, by pomóc Czytelnikowi zrozumiec teorie
Paper & Tinta, Warszawa, ul. Bardowskiego 4 i sprawdzic stopien opanowania materialu. Ponadto wiele istotnych wyni-
ków (np. nierównosc Kolmogorowa) proponujemy jako zadania, dlatego tez
uwazamy za pozyteczne rozwiazanie wiekszosei z nich.

5
6 Przedmowa

Twierdzenia, lematy, uwagi i przyklady sa numerowane kolejno w ramach


biezacego paragrafu. Jesli wewnatrz paragrafu 7.2 odwolujemy sie do przy-
kladu 4, to poza nim - do przykladu 7.2.4.
Uwagi historyczne nie maja systematycznego charakteru. Czytelnik zainte-
resowany historia teorii prawdopodobienstwa znajdzie wykaz zródel w nocie
bibliograficznej. Rozdzial 1
Na zakonczenie serdecznie dziekujemy osobom, które zachecaly nas do na-
pisania niniejszego podrecznika. W szczególnosci prof. dr hab. Stanislaw .. '."

Kwapien, dr hab. Jola.nta Misiewicz i dr Tomasz Zak komunikowali nam


interesujace zadania, udostepniali fragmenty notatek ze swoich wykladów
i czytali fragmenty ksiazki w trakcie jej powstawania.
Opis doswiadczenia losowego
Dziekujemy recenzentom: prof. dr. hab. Stanislawowi Kwapieniowi, dr Ka-
tarzynie Pietruskiej-Palubie i dr. Tomaszowi Zakowi za wnikliwe uwagi,
które ustrzegly nas od wielu bledów i wplynely na uproszczenie niektórych § 1.1. Przyklady. Aksjomaty teorii prawdopodobienstwa
dowodów.
Specjalne podziekowanie kierujemy do naszych nauczycieli rachunku praw- Teoria prawdopodobienstwa zajmuje sie .zdarzeniami, pojawIajacymi sie
dopodobienstwa. Sa to (w porzadku chronologicznym) dr Edward Stachow- przy wykonywaniu doswiadczen losowych, czyli takich, których wyniku nie
ski, prof. dr hab. Tomasz Bojdecki i prof. dr hab. Stanislaw Kwapiel'1. da sie z góry przewidziec, a jednoczesnie dajacych sie powtarzac w tych
Bedziemy wdzieczni za wszelkiego rodzaju uwagi dotyczace zawartosci pod- samych warunkach. Dobrymi przykladami tego rodzaju doswiadczen sa gry
recznika. Mozna je kierowac na podane nizej adresy elektroniczne lub na hazardowe, których analiza dala w XVII w. poczatek teorii prawdopo'do-
adres wydawnictwa. bienstwa. Ale drugim, równie waznym impulsem do powstania teorii byly
Jacek Jaku.bowski tak zwane zjawiska masowe, w szczególnosci statystyki urodzen i zgonów.
jaku.b@mimuw.edu.pl Prowadzone od wielu lat obserwacje pokazuja, ze dziewczynki stanowia 48,3%
Rafal Sztencel noworodków w Polsce. Kobieta, która spodziewa 'sie dziecka, tak wlasnie bedzie
rafalsz@mimuw.ed7J.pl oceniac swoje szanse na urodzenie dziewczynki, choc ciezko tu mówic o wielokrot-
Internet: www.mimuw.edu.pl/~rafalsz nym powtarzaniu tego sarnego eksperymentu.
Warszawa, mad 2000. Liczba 0,483 ma dla kobiety raczej sens psychologiczny i sprowadza sie do stwier-
dzenia "mam mniej wiecej takie same szanse na dziewczynke, jak na chlopca" .
Z drugiej strony ma ona calkiem wymierne konsekwencje dla demografa pracu-
Nota do wydania drugiego jacego nad prognoza liczby ludnosci: jemu nie jest wszystko jedno, czy rodzi sie
48,3%, czy np. 49% dziewczynek.
Drugie wydanie zostalo rozszerzone o dwa dodatki, poswiecone funkcjom Dlaczego teoria prawdopodobieI1stwa stosuje sie do zjawisk masowych, gdzie nie
tworzacym momenty i zagadnieniu optymalnego stopowania. Ponadto prze- powtarza sie tego samego doswiadczenia, ale mnie.i wiecej takie samo doswiad-
redagowano pewne partie tekstu, a takze poprawiono niescislosci i omylki czenie? Moze dlatego, ze jej twierdzenia sa dosc odporne na oslabianie zalozen?
wydania pierwszego. Ich wykrycie zawdzieczamy w duzej mierze zyczliwej,
choc krytycznej lekturze naszych kolegów. IV szczególnosci serdecznie dzie- W dalszej czesci tego rozdzialu sprecyzujemy pojecie doswiadczenia loso-
kujemy prof. Adamowi Jakubowskiemu, prof. Karolowi Krzyzewskiemu, wego i powiemy, jak skonstruowac jego model matematyczny. Najpierw jed-
prof. Stanislawowi Kwapieniowi, dr. Rafalowi Latale, dr hab. Jolancie Mi- nak przeanalizujemy kilka typowych przykladów. Nie da sie chyba ominac
siewicz, dr. Krzysztofowi Oleszkiewiczowi i dr. Tomaszowi Zakowi. Dzieku- naj prostszego doswiadczenia - rzutu moneta·
jemy równiez naszym studentom; m. in. pan Radoslaw Bojanowski zdajac
egzamin odkryl zle wyliczona dystrybuante, a pani Zofia Jankowska wy- Przyklad 1. Rzucamy jeden raz moneta·
kryla bledy w odpowiedziach do zadan kombinatorycznych.
Mozliwe wyniki to orzel (O) i reszka (R). Zwrócmy uwage, ze doswiadcze-
Warszawa, marzec 2001. nie mozna powtarzac wielokrotnie w tych samych warunkach i jesli moneta

7
8 Rozdzial 1. Opis doswiadczenia losowego § 1.1. Przyklady. Aksjomatyteorii prawdopodobiellstwa g

jest symetryczna, to 'w dlugiej serii rzutów orzel pojawi sie wokolo polo- szlo:. "wypadla jedynka", "wypadl orzel", "otrzymano asa kier, dwójke karo
wie przypadków; innymi slowy czesto.Sc pojawiania sie orla wyniesie okolo oraz waleta, da.me i asa pik", "orzel pojawil sie po raz pierwszy w siódmym
1/2. Jesli w dlugiej serii nastapi znaczace odchylenie liczby orlów od po- rzucie". Jesli powiemy: "wypadla parzysta liqba oczek", to jeszcze nie wia-
Czestoscjest lowy liczby doswiadczen, zaczniemy raczej podejrzewac, ze moneta nie jest domo, co sie faktycznie zdarzylo. Inaczej mówiac, powinnismy na ogól dbac
liczbawystapien symetryczna .• o to, by mozliwe wyniki doswiadczenia byly "elementarne" w tym sensie,
zdarzenia
ze nie da sie ich juz rozlozyc na prostsze.
podzielonaprzez Przyklad 2. Rzucamy jeden raz kostka.
liczbewszystkich ... ' .. Zbiór wszystkich mozliwych wyników doswiadczenia nazywamy zbiorem
doswiadczen.Teraz mozl1wewymkl to elementy zbIOru {l, 2, 3, 4, 5, 6}. Tak Jak poprzed- zdarzenelementarnych i zazwyczaj oznaczamy litera D.
nio, doswiadczenie jest powtarzalne, i jak poprzednio, mozemy zastana-
wiac sie nad symetria kostki. Ponieyraz mozliwych wyników jest wiecej, Nalezy jednak pamietac, ze przy wyborze zbioru zdarzen elementarnych
pojawia sie w naturalny sposób wiele zdarzen, dajacych sie opisac slo- mozliwa jest pewna dowolnosc. Rzucajac moneta nie spodziewamy sie, ze
wami na przyklad tak: "wypadla parzysta liczba oczek", "wypadla liczba upadnie ona na "kant", wiec w pierwszym przykladzie D = {O, R}. Ale jesli
oczek mniejsza niz 4", "wypadla jedynka". Kazdemu takiemu zdarzeniu moneta jest gruba, to kto wie? 'vV przykladzie 3 nie interesuje nas kolej-
odpowiada podzbiór zbioru mozliwych wyników, odpowiednio: {2, 4, 6}, nosc otrzymywania. kart. Gdybysmy jednak chcieli rozpatrywac zdarzenia
{l, 2, 3}, {l}. Zdarzeniom bedziemy przypisywali pewna liczbe: pTO.wdopo- typu: "wszystkie karty czarne pojawily sie przed czerwonymi", kolejnosc
dobienstwo ich zajscia. Jesli kostka jest symetryczna, pewnie bez wahania stalaby sie istotna i naturalnym wyborem zbioru zdarzen elementarnych
przypiszemy prawdopodobienstwo k/6 zdarzeniu, reprezentowanemu przez bylby zbiór 5-elementowych ciagów O wyrazach ze zbioru 52-elementowego.
podzbiór k-elementowy. A jesli nie jest symetryczna? Zastanowimy sie nad Zajmijmy sie teraz wszystkimi mozliwymi zdarzeniami - czyli podzbiorami
tym nieco pózniej. _ - na razie przeliczalnego - zbioru D. W rozpatrywanych dotad I)l'zykla-
dach nie ma przeszkód, by prawdopodobienstwo przypisac wszystkim pod-
Przyklad 3. Z talii 52 kart wybieramy losowo 5. Jaka jest szansa, ze zbiorom zbioru zdarzen elementarnych. Jak niedlugo zobaczymy, nie zawsze
wszystkie karty beda czerwone? tak bedzie. Ale mozna sformulowac pewne minimalne rozsadne wymagania
Tu mozliwych wyników jest bardzo duzo - sa one 5-elementowymi pod- co do klasy zdarzen F, którym bedziemy przypisywac prawdopodobien-
zbiorami zbioru 52-elementowego. Natomiast zdarzenie, którego prawdopo- stwo. Jesli rozpatrujemy zdarzenie A C D, to -automatycznie dopuszczamy
dobienstwo mamy obliczyc, sklada sie z 5-elementowych podzbiorów 26- mozliwosc, ze A nie zajdzie. Nietrudno sie domyslic, ze zdarzenie "nie-A"
-elementowego zbioru czerwonych kart. Jesli uznamy, ze wszystkie mozliwe to A' = D \ A, czyli dopelnienie A. Dalej, w przykladzie 4 widzielismy
wyniki sa jednakowo prawdopodobne, to szansa otrzymania samych czer- nieskonczona alternatywe zdarzen, czemu odpowiada branie nieskonczonej
wonych kart wyniesie (256) / (552) (patrz § 2.1) .• sumy zbiorów. I w kOllcu rozpatrywany model powinien zawierac co naj-
mniej jedno zdarzenie.
Przyklad 4. Rzucamy symetryczna moneta az do chwili pojawienia sie
orla. Warto w tym miejscu podkreslic, ze zdarzeniami nazywamy wylacznie pod-
zbiory D, które naleza do:F. Nie nalezy tabe mylic zdarzenia elementarnego
Mozliwych wyników jest teraz nieskonczenie wiele, bo przed pojawieniem w ze zbiorem {w}. Ten ostatni nie musi byc nawet zdarzeniem.
sie orla moze wypas.c dowolna liczba reszek. Na szczescie jednak wyniki
dadza sie ustawic w ciag: jest ich przeliczalnie wiele. Jak przypisac im sen- Wracamy do F: klasa zdarzen powinna spelniac .nastepujace warunki:
sownie prawdopodobienstwa? Jesli moneta jest symetryczna, to szansa po- :~
jawienia sie pierwszego orla za n-tym razem wynosi 1/2". Istotnie, wszyst- 1. F # 0;
kich n-elementqwych ciagów orlów i reszek jest 2"; natomiast tylko jeden
z nich ma pierwszego orla na n-tym miejscu. Przypadek niesymetrycznej 2. Jesli A E F, to A' E F;
Alternatywa monety rozpatrzymy pózniej. Zauwazmy jeszcze, ze zdarzenie "orzel po-
zdarzen jawi sie wczesniej czy pózniej" da sie przedstawic w postaci przeliczalnej 3. Jesli Ai E F dla i = 1,2, ... , to U:l AiE :F.
odpowiada sumie
zbiorów alternatywy zdarzen:, "orzel pojawi sie za pierwszym razem", "orzel po-
jawi sie za drugim razem", "orzel pojawi sie za trzecim razem", etc. _ Klasa zdarzen F powinna wiec byc a-cialem poclzbiorów zbioru D, Z po-
danych warunków wynika natychmiast, ze D = A U A' E F, jesli A E F,
W kazdym z rozpatrywanych doswiadczen pojawial sie zbiór mozliwych wobec tego 0 = D' E F. Sa to szczególne zdarzenia: n zachodzi zawsze
wyników, przy czym wynik doswiadczenia stanowil pelny opis tego, co za- i nazywa sie zdarzeniem pewnym, natomiast 0 to zdarzenie niem.ozliwe.
la Rozdzial 1. Opis doswiadczenia losowego § 1.1. Przyklady. Aksjomaty teorii prawdopodobienstwa 11

Jestesmy teraz gotowi do zajecia sie minimalnymi rozsadnymi wymaga- (W6) P(A) ::;;1.
niami, dotyczacymi prawdopodobienstwa. Jest ich naprawde niewiele. Po-
niewaz prawdopodobiellstwo ma sluzyc do oceny szans zajscia rozmaitych (W7) P(A U B) = P(A) + P(B) - P(A n E).
zdarzen, powinno zachowywac sie podobnie do czestosci ~ystepowania zda-
rzenia przy powtarzaniu doswiadczenia. Dlatego pmwdopodobienstwem be-
D o wód. (Wl) Niech Al = n, Ai = 0 ella 'i = 2,3, .... Z aksjomatu 3 mamy
dziemy nazywacdpwolna f).lllkcje P, okreslona na er-ciele zdarzen F C 2°,
spelniajacawarunki:" '--
p(n) = p(n) + Z:2 P(0), a poniewaz P jest funkcja nieujemna (aksjomat
l) i p(n) = l (aksjomat 2), to P(0) = O.
Al. P: F -> R+; (W2) wynika z aksjomatu 3 i (WI), gdy wezmiemy Ak =0 dla k ~ n.
A2. p(n) = l; (W3) l = P(S2) = P(A U A') = P(A) + P(A').
" (W4) Jesli A C E, to E = A U (E \ A), a poniewaz skladniki tej sumy sq,
A3. Jesli Ai E F, i T.l, 2, ... oraz Ai n Aj = 0 dla i # j, to rozlaczne, z (W2) mamy P(E) = P(A) + P(E \ A).
(W5) Na mocy poprzedniej wlasnosci P(E) - P(A) = P(E \ A) ~ ° z ak-
sjomatu 1.
p(Q Ai) = ~P(Ai)'
(W6) Wystarczy zastosowac (W5) dla E = n.
Warunek Al stwierdza, ze prawdopodobienstwo kazdego zdarzenia jest nie- (W7) A U E = [A \ (A n E)] U (A n E) U [E \ (A n E)]. Wszystkie trzy
ujemne: taka wlasnosc ma takze czestosc. Warunek A2 wzial sie stad, ze zdarzenia wykluczaja sie wzajemnie, wiec skonczona addytywnosc i (W4)
czestosc zdarzenia pewnego wynosi 1. Co do warunku A3, mówi on, ze dla daja
zdarzen wyklucza.iacych sie, czemu odpowiadaja zbiory rozlaczne, prawdo-
podobienstwo sumy równa sie sumie prawdopodobienstw. Czestosc spelnia P(A U E) = P(A) - P(A n E) + P(A n E) + P(E) - P(A n B),
taki warunek. Widzielismy juz, ze nieskonczone sumy pojawiaja sie w teorii
w naturalny sposób i dlatego warunek A3 formulujemy dla sum nieskon- z czego natychmiast wynika zadana równosc. _
czonych. Nazywamy go przeliczalna
.,
addytywnoscia
.... ~-'
prawdopodobiellstwa.
Wlasnosc (W7) daje sie uogólnic na dowolna liczbe zdarzen. Otrzymujemy
PoWyzsze warunki zostaly sfol'mulowane po r'az pierwszy przez Kolmogo-
wtedy tzw. wzór wlaczen i wylaczen. Nazwa pochodzi stad, ze poszczególne
rowa w roku 1933 jako aksjomaty teorii prawdopodobienstwa.
rozlaczne skladowe sumy A U B U C sa na przemian wlaczane i wylaczane,
Mówiac krótko, matematyczny model doswiadczenia losowego to trójka ale ostatecznie kazda skladowa jest liczona dokladnie raz. Rysunki ilustruja
(n, F, P),gdzie P jest przeliczalnie addytywna i nieujemna miara unor- to dla dwóch i trzech zbiorów.
mowana, okreslona na pewnym er-ciele podzbiorów zbioru zdarzen elemen-
tarnych n. Te trójke nazywamy przestrzenia p·robabilistyczna.
Podstawowe wlasnosci prawdopodobienstwa podamy w postaci twierdzenia.

Twierdzenie 5. Jesli (n,F,p) jestpr'zestr'zenia probabilistyczna i A, B,


Al, A2, ... , An E F, to:

(WI) P(0) = O.

(W2) Jesli Al, A2, ... ,An wykluczaja sie wzajemnie, tj. Ai n Aj = 0 dla
i # j, to P(U~~l Ai) = Z~=l P(Ai) (skonczona addytywnosc).

(W3) P(A') = l - P(A): W ogólnym przypadku skladowe sumy AlU ... uAn sa postaci A?n ... nA~n,
gdzie Ci E {O, l} i przyjmujemy konwencje, ze AD = A, zas Al = A'.
(W4) Jesli A C B, to P(B \ A) = P(E) - P(A). W kazdej skladowej sumy co najmniej jeden symbol Ci jest równy 1.
(W5) Jesli A C E, to P(A) ::;;P(B).
12 Rozdzial l. Opis doswiadczenia losowego § 1.1. Przyklady. Aksjomaty teorii prawdopodobienstwa 13

Twierdzenie fi (Wzór wlaczen i wylaczen). Twierdzenie 8 (O przedluzaniu miary). Jesli P jest skonczenie addy-

L L tywna i
nieujemna funkcja na pewnym ciele A podzbiorów n, przy czym Jesli A jest
P(Al U ... U An) =
l~i ~n
P(Ai)-
l~it <'i2':::;n
p(AijnAi2)+···
l
pen) = 'i spelniony jest warunek (i) z poprzedniego twierdzenia lub waru- dowolna rodzina
nek (ii) dla A = 0. to P przedl'uza sie jednoznacznie do prawdopoaobienstwa zbiorów, a(A) jest
+ (-lt+l P(Al n ... n A,,). na a(A), czyli a-ciele generowanym przez A. najmniejszym
a-cialem
zawierajacym A,
D o wód. Istnieje prosty dowód indukcyjny, ale wymaga on raczej kartki tj. czescia wspólna
D o w ó d tego twierdzenia znajduje sie w dodatku C.
w formacie A3. My udowodnimy wZÓrliczac, ile razy wlaczono i wylaczono wszystkich a-cial
kazda skladowa. Taka skladowa (po odpowiednim przenumerowaniu zbio- Z teorii miary dobrze wiadomo, ze na ogól F nie moze byc a-cialem wszyst- zawierajacych A.
rów, co nie zmniejsza ogólnosci) da sie przedstawic w postaci Al n... nAkn kich podzbiorów n. Oto kolejny przyklad.
nA~+ln ... nA~, gdzie k ;;;. 1. W pierwszym skladniku wzoru, czyli P(Ai), L
kazda skladowa zostanie wlaczona k razy, w drugim, czyli P(Ai1 n Aiz), L Przyklad 9. Z odcinka [O, l] wybieramy losowo punkt. "
wylaczona (;) razy, itd. Ostatecznie liczba wlaczen wyniesie "Losowo" nie znaczy·tu na razie nic. Jesli umówimy sie, ze prawdopodo-
bienstwo jest rozlozone "równo" na odcinku, czyli ze szansa trafienia w od-
2.:(-l)i(~) = cUlek [a, bl jest równa jego dlugosci, a szansa trafienia w zbiór A i A + t
i=O
D.
G) - G) + G) - ... + (_l)k+l G) = 1. • jest taka sama, o ile A, A + t C [O, l], to wtedy n jest odcinkiem [O, l], P
Dlaczego? przypommJmy,
... ze ro d'zme zdarzen'(A) i nazywamy wstePUJaca,
.. Jes'l' l jest miara Lebesgue'a, zas F jest a-cialem podzbiorów mierzalnych. Ist-
nieja niemierzalne podzbiory odcinka, czyli takie, którym zadnej sensownej
Al C A2 C ... C An C An+1 ... , miary przypisac sie nie da (patrz zadania 10-13) .•
i zstepujaca, jesli
Przyklad 10. Czekamy na autobus. Zastanawiamy sie, jaka jest szansa,
Al :l A2 :l ... :l An :l An+l .... ze czas oczekiwania przekroczy 20 minut. A moze jednak
Twierdzenie 7 (O ciaglosci). Niech (n, F, P) bedzie przestrzenia pTO- Wynikiem doswiadczenia jest czas oczekiwania t E [0,00), zatem n = n = [D, T] dla
babilistyczna· = [0,00), jest tez intuicyjnie jasne, ze autobus w normalnych warunkach jakiegos
T?
duzego

.! raczej pojawi sie w ciagu kilkunastu minut. Ale w przeciwienstwie do po-


(i) Jesli (An):::"=ljest wstepujaca rodzina zdaTze·n. i U~=l An = A, to przedniego przykladu nie ma powodu, by prawdopodobienstwo bylo "równo
rozlozone". Jesli chcemy formulowac jakies przewidywania dotyczace czasu
P(A) = n->oo
lim peAn)'
oczekiwania, powinnismy viykonac badania statystyczne, których wyniki
moga wygladac tak, jak na rysunku po lewej, i które w zwartej formie
(ii) Jesli (An):::"=ljest zstepujaca TOdzina zdarzen i n~=]An = A, to mozna przedstawic tak, jak na rysunku po prawej.
P(A) = n->oo
lim peAn)'
---.--. ;--------------.------
................................... - ...........•. , .

Dowód. (i) Niech Bl= Al> B2 = A2 \ Al i ogólnie: Bn = An \ An-l' •••••••••••••••••


.................................................................................
,•••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••.•••••••••••••••••••••••••••••••••••••••••••••••••••••••••
, .
"" •• ""' ••n •••" •• •••••••••••••

Wtedy zdarzenia Bi wykluczaja sie, U7=1 Bi = U~=1 A; = An, a takze ..................... ,


" "
"•..•....................................................... "............................•.........
- ..
-.
U~l B; = A. Z przeliczalnej addytywnosci wynika, ze ••••••••••••••••••••••••••••••••.•••••••••••••••••••••••••••••••••••••••••••••••••••• n ••.••••••••••••••••••••••••• n ••••• ·•••••••••••••••••••••.••••••••••••• ,· ••••••••••••••••••••••••••••.••••••••••••••••

P(A) = P (00U B; ) ="~00 P(B;) = n-+oo


lim "P(Bi)
L.-J = nlimoo peAn)'

Warto znac prawa (-ii)


i=l ' ;=1

Rozpatrzmy rodzine wstepujaca


n

(On):::"=l,
i=1 '

gdzie On = A~. Wtedy


l~ !c_~~====='~
de Morgana: I
a) (n:1Ai)' = ;.j Zatem w rozsadnym modelu mamy
=U~t=l A~. )
00 On
111 = 111
00 A~ = [00]'
nOl An = A'
1
'L

b) (U:1Ai)' = i wystarczy skorzystac z (i) .• AE:F.


=n:1 A~. P(A) = f(x) dx,
14 RozdzialI. Opis doswiadczenia losowego § 1.1. Przyklady. Aksjomaty teorii prawdopodobienstwa 15

Podobnie, jak w przykladzie g, :F jest O'-cialem mierzalnych podzbiorów '5, i


Dane sa P(A U E) = ~ P(A n E) = ~,' ponadto ,P(A \ E) = P(E \ A).
Obliczyc P(A) i P(E \ A).
przedzialu [0,00), zas nieujemna funkcje f, taka ze J~cof(x) dx = l, na-
zwiemy gestoscia r'Ozkladu prawdopodobienstwa, bo pokazuje ona, jak praw- 6. Dane sa P(A' nE') = ~, P(A') = ~,ponadto P(A nE) = l. Obliczyc P(E)
dopodobienstwo jest rozlozone na R.• i p(A'nE).
7. Dane sa P(A) = i, P(E) = ~, A n E = 0. Uporzadkowac rosnaco P(A U E),
Przyklad 11. Jaka jest szansa, ze kurs akcji spólki X przekroczy na ju- ~,. P(A' i
U E) P(A U B').
trzejszej sesji 107 zl? a.: Niech A U E U G = Q, P(E) = 2P(A), P(G) = 3P(A), P(A n E) = P(A n
Mozna oczywiscie formulowac przewidywania na podstawie wyników po- G) = P(E n G). Pokazac, ze ~ ~ P(A) ~ i,
przy czym oba ograniczenia sa
przednich sesji, co doprowadziloby do modelu z gestoscia - jak w przykla- osiagane.
dzie 10. Ale takie przewidywanie nie bierze pod uwage zmieniajacych sie
Po co jest przeliczalna addytywnosc? Rzucamy moneta do chwili otrzymania
warunków. Jesli np. prezes spólki zlamie noge, kurs akcji moze gwaltownie pierwszej reszki. Zdarzeniami elementarnymi sa skonczone ciagi orlów zakonczono
spasc. Jesli okaze sie, ze w nadchodzacych wyborach duze szanse ma partia reszka i jeden nieskonczony ciag orlów. Q jest przeliczalna. Rozpatrzmy cialo
Z, zachwianie kursu moze byc jeszcze powazniejsze. Choc nie ma mozli- Q podzbiorów n, z.lozone ze zbiorów, które sa skOl1czone albo maja skm\.czonc
wosci powtarzania tego doswiadczenia w takich samych warunkach, model dopelnienia. Niech
z przykladu 10, z braku lepszej metody, moze sie przydac - szczególnie #A O~lIllC~" Iiczl"
w spokojnych czasac:h .• p(i)
J.':" = {O.l dla #A,<
#A < S"'?,
00. elementów zbiorll
A.
9.' Udowodnic, ze P jest !;&~~~zenieaddytywna i nie jest przeliczalnie addy-
Na. zakonczenie tego podrozdzialu podajemy terminy teorii zbiorów i od- tywna. Znalezc prawdopodobienstwo, ze reszka pojawi sie najpózniej w n-tym
powiadajace im terminy teorii prawdopodobienstwa, zebrane w tabelce. rzucie. Znalezc prawdopodobienstwo, ze reszka pojawi sie w skonczonej licz-
bie rzutów. Dlaczego ocena szans za pomoca P jest sprzeczna ze zdrowym
Nawet najbardziej
pedantyczny zbiór A E:F zdarzenie A (A !fe :F nie jest zdarzeniem) rozsadkiem?
w.yldl\c1owca nie wEA zdarzenie elementarne w sprzyja zdarzeniu A
wyl'ltzuic Zbiór niemierzalny. Przypuscmy, ze miara /-l, okreslona na (T-cielepodzbiorów
11~,YWll

(,OI'lIihul)w '/. Pl'h.WCj


AcB zdarzenie A pociaga za soba B R ma dwie naturalne wlasnosci: jest. przesuwalna, czyli /-l(A + x) = ~t(A) dla
o zdarzenie niemozliwe
l<alumny. kazdego A C R i x E 'R, a ponadto miara przedzialu jest. równa jego dlugosci.
n zdarzenie pewne Okazuje sie, ze istnieje wtedy podzbi'ór, któremu nie da sie sensownie przypisac A+x=
AnB=0 A i B wykluczaja sie miary -- zbiór niemierzalny. Dowód zawiera sie w ponizszych zadaniach. ={a+x:aEA}
A' nie-A, zdarzenie przeciwne do A
AuB alternatywa zdarzen Ai B 10. Relacja ~ jest zdefiniowana w nastepujacy sposób: x ~ y == x - y E Q.
AnB Udowodnic, ze relacja ta jest. zwrotna, symetryczna i przechodnia.
koniunkcja zdarze11 A i B
W takim razie relacja ~ dzieli zbiór liczb rzeczywistych na klasy abstrakcji. Niech
U bedzie taldm podzbiorem odcinka [0,1], do którego nalezy dokladnie jeden
Zadania element z kazdej klasy abstrakcji [x], gdzie x E [0,1]. Istnienie zbioru U wynika
z aksjomatu wyboru.
1. Niech A, E, G beda zdarzeniami. Zapisac za pomoca dziala6 na zbiorach 11. Udowodnic, ze jesli u, w E Q i u i- v, to (U + 'u) n (U + w) = 0.
nastepujace zdarzenia:
12. Niech ciag ('Wi)~l zawiera wszyst.kie liczby wymierne z odcinka [-l, l]. Udo-
a) zachodzi dokladnie jedno ze zdarze6 A, E, Gj
wodnic, ze
b) zachodza dokladnie dwa sposród zdarzen A, E, Gj
c) zachodza co najmniej dwa sposród zdarzen A, E, G. UlU + W'i) ::) [O,l].
i=l
2. Udowodnic, ze P(A1 U ... U An) ~ P(AI) + ... + PeAn). Przeniesc wynik na
przeliczalnie wiele skladników. 13. Udowodnic, ze zbiór -U jest niemierzalny.

3. Udowodnic, ze P(A n E) ~ P(A) + P(E) - 1. Powyzsze rozwazania staja sie bardziej eleganckie, jesli rozpatrywac miare na
4. Dane saP(A') =~, p(AnE) = ~i P(AUE) = ~.Obliczyc P(E'), p(AnE') okregu, niezmiennicza ze wzglQdll na obroty. Sugerujemy Czytelnikowi odpowied-
i P(E \ A). nia adaptacje zadalllO-13.

/-
I
l
_ .J
16 Rozdzial 1. Opis doswiadczenia losowego § 1.3. Prawdopodobienstwo geometryczne 17

§ 1.2. Przeliczalny zbiór zdarzen elementarnych Drugi gracz rozumuje analogicznie, wiec gra jest korzystna dla obu. Jest to
niemozliwe. Gdzie tkwi blad?
Jesli zbiór zdarzen elementarnych jest przeliczalny, mozna podac prosty, 3. Prawdopodobienstwo asymptotyczne. Poniewaz na zbiorze liczb natu-
kompletny i zdroworozsadkowy opis wszystkich mozliwych prawdopodo- ralnych nie mozna okreslic rozkladu "równomiernego", to pewne nadzieje
bienstw. wiazano z tzw. prawdopodobieÓstwem asymptotycznym, ale nie jest ono jed-
nak dobrym substytutem.
Twierdzenie 1. Jesli n= {W1, W2, ... }, dla kazdego i
zbiór' {w;} E F, P
Gdy 11C N, to pn.wdopodobienstwem asymptotycznym zbioru 11nazywamy
liczbe
jest pmwdopodobienstwem, to dla kazdego A C D mamy
Poo(A)== lim #(11n{l,2,
n-oo 11,
... ,n}),
P(A) = 2: Pi, o ile ta granica istnieje. Inaczej mówiac, jesli p" jest prawdopodobierlstwem,
{i:WiEA} Rozklad
ze liczba, losowo wybrana ze zbioru {l, 2, . '.. n} z rozkladem równomiernym
nalezy do A, to Poo(A) == lim,,_ooPn, gdy ta granica istnieje. równomierny na
gdzie Pi = P( {w;} ). Jesli na Pl,zyklad B jest zbiorem liczb parzystych, to Poo(B) == ~. zbiorze
skonczonym to
Niech 9 == {A C N: Poo(A) istnieje}. Udowodnic, ze g nie jest n;wet cialem.
taki, który
D o wód. Wystarczy przedstawic zbiór A w postaci sumy (przeliczalnej) 4. Opisac wszystkie er-ciala w przypadku przeliczalnego zbioru n. wszystkim
zdarzen jednopunktowych (zwrócmy uwage, ze F = 2°) i skorzystac z prze- 5. Czy istnieje er-cialo nieskonczone przeliczalne?
elementom
przy pisllju rów 11('
liczalnej addytywnosci P .• *6. Ile jest wszystkich mozliwych er-cial, jesli n ma n elementów? prn,wt lOPOllohitl(1
HtWII.
To twierdzenie mówi, ze w tym szczególnym przypaclku prawdopodobiell- t7. Niech Ak bedzie zbiorem liczb naturalnych podzielnych przez 1<:.Wylm\>mc,i.
stwo jest jednoznacznie wyznaczone przez prawdopodobienstwa zdarzell ele- na N nie istnieje takie prawdopodobienstwo P, ze P(Ak) == lik dla k ;?l l.
mentarnych. Dlatego tez kazdy ciag (Pi) liczb nieujemnych, dla którego
2:::1 Pi = l, wyznacza prawdopodobienstwo na D. § 1.3. Prawdopodobienstwo geometryczne
Warto zwrócic uwage, ze na zbiorze przeliczalnym i
nieskonczonym prawdo-
podobienstwo nie moze byc rozlozone "równo". Z drugiej strony, jesli zbiór Dosc czesto D jest podzblorem Rn, na którym istnieje naturalna miara (na
zdarzen elementarnych jest skonczony, to bardzo czesto tak bywa. Wtedy przyklad miara Lebesgue"a lub miara na sfer7.e, niezmiennicza ze wzgledu
trzeba umiejetnie okreslac liczebnosc zdarzen, do czego sluza metody kom- na obroty), przy czym D ma miare skonczona. Mówimy wtedy o "praw-
binatoryczne. Bedzie o tym mowa w nastepnym rozdziale. dopodobienstwie geometrycznym" , a rozwiazanie zadania sprowadza sie do
znalezienia miary (pola, objetosci) podzbioru Rn
Zadania Przyklad 1. Ania i Bozena umówily sie miedzy 16.00 a 17.00 w centrum
miasta. Komunikacja w godzinach SZC7.ytudziala, jak dziala. Osoba, która
1. Rzucamy symetryczna moneta do chwili wyrzucenia orla. Skonstruowac zbiór przyjd7.ie pierwsza, czeka na druga 20 minut, . .Jaka jest szansa, ze dojdzie
zdarzen elementarnych i wybrac odpowiednie prawdopodobieÓstwo. Jaka jest do spotkania?
szansa, ze liczba rzutów bedzie parzysta? podzielna przez 3? podzielna przez
m? Zeby opisac, co sie zdarzylo, wystarczy podac czasy przybycia obu koleza-
nek - na przyklad mierzone w godzinach, od 16.00. Mozna zatem przyjac,
2. Paradoks losowych liczb naturalnych. Adam i Bolek graja w nastepu-
jaca gre: automat generuje losowo pary sasiednich liczb naturalnych i przy- ze D = [O, l] x [O, l], a wtedy w = (t1, t2), gdzie t1, t2 E [O, l]. Pozostaje
znaje losowo jedna Adamowi, a druga Bolkowi. Adam zna liczbe przypisana wybrac prawdopodobienstwo: przyjmujac P(A) = A(A), gdzie A jest miara
Bolkowi, a Bolek zna liczbe przypisana Adamowi, ale zaden z nich nie zna Lebesglle'a, otrzymamy dosc rozsadny model, w którym szansa, ze Ania
swojej liczby. Osoba z mniejsza liczba placi drugiej tyle zlotych, ile wynosi pojawi sie w przedziale czasu [t, s] bedzie równa dlugosci tego przedzialu.
liczba jej przypisana. Kazdy z graczy moze uznac, ze nie warto grac w da- To samo dotyczy Bozeny.
nym momencie, i poprosic o nowa pare liczb. Ale zaden z nich nie skorzysta Malo tego: okazuje sie, ze jesli zdarzenie A polega na tym, ze Ania poja-
z prawa veta, bowiem rozumuje tak:
wia sie w przedziale czasu [a, b], a E - ze Bozen"a pojawia sie w przedziale
"Gdy widze, ze przeciwnik ma liczbe k, to ja mam k - l lub k + 1. Kazda [e, d], to
z nich jest jednakowo prawdopodobna. Gdy wygram, zyskuje k zl, a gdy
przegram, trace k - l zl, zatem srednio wygrywam 50 gr". P(A n E) = P(A) . P(E). (1)
.---
""RozdzialL Opis doswiadczenia losowego
---- - - ,-
§ 1.3.
- ---,~
Prawdopodobienstwo geometryczne 19

"\1Vartonarysowac oba zdarzenia i przekonac sie, ze powyzszy wzór wynika wiec byc takie, by pas wyciety ze sfery przez pobocznice walca mial pole
natychmiast ze wzoru na pole prostokata. Nieco pózniej okaze sie, ze jest równe l pola calej sfery, co oznacza, ze jego szerokosc d musi byc równa ~
to definicja niezaleznosci zdarzetL Na razie, przy intuicyjnym rozumieniu promienia sfery. Przy oznaczeniach z rysunku (r - promien monety) mamy
niezaleznosci, nietrudno zgodzic sie, ze czasy przybycia kolezanek powinny
byc niezalezne.
(~r+.,.z ==Rz,

a poniewaz ~ == ~ R, to
2v2
T----R,
Pfl.. wyciQl'.y
o.; ~(I

3 srery 111" pali'


.\ propol'C'jollnliu\ do
~. skad ;j == v2.• szcl'Ol{()~ci. '1'".1, IIi"
dzieje
lH'l.yplI.dkiolll
Dosc C7.,estoosoby rozwiazujace to zadanie proponuja jeszcze prostszy mo- w Lr~och
del, mianowicie zbiorem zdarzen elementarnych mialby byc zamiCLstsfery wynliara.ch.
okrag, bowiem sytuacjCLjest niezmiennicza ze wzgledu na obroty wokól
osi monety. Moneta zostaje zatem zredukowaHa do prostokata, sfera zas do
'.1
Wlasciwie to juz Jakie sa szanse, ze dojdzie do spotkania? Takie, jak pole zacienionego ob-
okregu. Wtedy jednak otrzymuje sie inna odp9.wiedz. Warto sie zastanowic,
tu poja.wia sie szaru na rysunku (jest to zbiór punktów (tl, tz) E [0,1] x [O, 1] spelniajacych
dlaczego (byc moze po lekj;urze rozdzialu 6).
;,!
:.".\
.....•
niezaleznosC
zmiennych
warunek jtl-t21:( ~), czyli 1- (~)Z ==~ .•
W nastepnym przykladtle~ (\)aradoksie Bertranda) i zadaniu 7 (o igle Buf-
losowych!
Rzut moneta tez moze prowadzic do zadania typu "prawdopodobienstwo fana) robimy podobne uproszczenia - ale tym razem nie ma to wplywu na
?J
geometryczne" . odpowiedz.
, t

Przyklad 2 (Gruba moneta). Jaka grubosc powinna miec moneta, zeby Przyklad 3 (Paradoks Bertranda). Z okregu o promieniu 1 wybrano
prawdopodobienstwp upadniecia na kant wynosilo ~? losowo cieciwe AB. Jaka jest szansa, ze bedzie ona dluzsza niz bok trójkata
.Iohn von Model, który tu proponujemy, jest skrajnym uproszczeniem tego, co vi rze- równobocznego, wpisanego w okrag?
Noumann czywistosci dzieje sie przy rzucie moneta. Otóz wiadomo, ze bryla umiesz-
podobno czona na plaskiej powierzchni nie przewraca sie, jesli rzut srodka ciezkosci
rozwiazal to
zadanie w 15
znajduje sie wewnatrz powloki wypuklej rzutu podstawy. Jesli zatem wek-
li

i ".
sekund. tor sily ciezkosci przebije pobocznice walca (monety), to przyjmiemy, ze
moneta nie przewróci sie i upadnie na kant. B B

1. Jesli umiescimy trójkat ta.k, by jednym z wierzcholków byl punkt A,


to - jak widac z rysunku- warunek zadania bedzie spelniony, jesli
B wpadnie do pogrubiollego luku, czyli jesli kat srodkowy, oparty na
cieciwie, bedzie wiekszy niz 27r /3. Prawdopodobiellstwo tego zdarze-
Zbiorem zdarzell elementarnych moze byc sfera, opisana na walcu. Jesli nia wynosi l.
wektor o poczatku O i koncu w punkcie A, losowo wybranym ze sfery, prze- 2. Mozna wybrac odleglosc srodka cieciwy M od srodka okregu. Rysunek
bija pobocznice walca, to moneta pada na kant. V'lymiary monety musza sugeruje, i,e szukane prawdopodobiellstwo wynosi ~.
20 Rozdzial l. Opis doswiadczenia losowego § 1.3. Prawdopodobienstwo geometryczne 21

3. Moze jednak nalezaloby wziac pod uwage kierunek promienia? Wy- 4. Z przedzialu [O, l] wybrano losowo dwa punkty, które podzielily go na trzy
bierzmy punkt M i dorysujmy do niego promien i cieciwe. Teraz wy- odcinki. Jaka jest szansa, ze z tych odcinków da sie skonstruowac trójkat?
glada na to, ze szukane prawdopodobienstwo wynosi ~. 5. \fil czasach, gdy autorzy tej ksiazki chodzili do szkoly, na strzelnicach mozna
bylo grac w nastepujaca gre: na duzy stól, na którym namalowano dosc
Jakie jest zródlo paradoksu? We wszystkich trzech przypadkach ogólny grubymi liniami krate, rzucalo sie monete. Jesli moneta przeciela linie, zo-
schemat jest ten sam: losujemy zdarzenie elementarne w E \1, a dlugosc stawala na stole. VVprzeciwnym razie gracz zabieral wszystkie lezace na stole
cieciwy jest pewna funkcja f(w). Za kazdym razem jednak mamy do czy- monety, oprócz jednej. Przypuscmy teraz, ze moneta ma promien d, a linie
o grubosci c umieszczone sa w odleglosci a (dokladniej, a jest odlegloscia
nienia z inna przestrzenia S1i inna funkcja:
miedzy srodkami linii). Jaka jest szansa, ze moneta nie przetnie linii?
6. Abstrakcyjny wariant poprzedniego zadania. Na nieskonczona sza-
1. S1 = [O, 27r), f(w) = 2sin~;
chownice o boku a rzuca sie monete o srednicy 2r < a. Jaka jest szansa, ze
2. S1 = [0,1], f(w) = 2V1 - w2;
a) moneta znajdzie sie calkowicie we wnetrzu jednego z pól; b) przetnie sie
z co najwyzej jednym bokiem szachownicy?
3. S1jest kolem o promieniu 1, wobec tego w = (WI, W2) i 7. Igla Buffonal. Igle o dlugosci l rzucono' na podloge z desek o szerokosci a
(l ~ a). Jaka jest szansa, ze igla przetnie krawedz deski?
Autorom
f(w) = 2/1~'(wi+ w~). 8. R.ozwiazac zadanie 7, gdy l > a (dla tych, którzy nie boja sie rachunków).
wygodniej uznac,
*9. Uogólnienie zadania o igle Buffona. Na plaszczyzne, podzielona pro- ze sie bojl,
Prawdopodobienstwo jest zawsze rozlozone "równo" na odpowiednim zbio- stymi równoleglymi na pasy o szerokosci równej l, rzucono losowo wielokat
rze. Mamy tu do czynienia z trzema róznymi zadaniami, stad trzy rózne wypukly o srednicy mniejszej niz 1. Znalezc prawdopodobienstwo, ze pr:oe-
wyniki. _ tnie on jakas prosta.
"Losowo" oznacza, ze wybieramy pewien odcinek, sztywno zwiazany z wielo-
Nalezy zwrócic uwage, ze termin "losowo" nie znaczy nic, dopóki nie po- katem, i rzucamy go losowo w sensie poprzedniego zadania. Tak zdefiniowana
"losowosc" nie zalezy od wyboru odcinka.
damy modelu doswiadczenia, czyli przestrzeni probabilistycznej.
10. Na plaszczyznie jest nieskonczenie wiele prostych równoleglych, w odleglo-
Jaka metoda Paradoks Bertranda jest dobra ilustracja faktu, ze rozwiazanie problemu sciach na przemian 2 i 10 cm. Na plaszczyzne rzucono okrag o promieniu 3
wybierzemy nastepuje dopiero po wybraniu przestrzeni probabilistycznej. Jednak sam
metode rachunek prawdopodobienstwa cm. Jaka jest szansa, ze nie przetnie on zadnej prostej?
nie rozstrzyga, jaka przestrzen probabili-
glosowania? *11. Z przedzialu [O, l] wybrano losowo przeliczalnie wiele punktów. Udowodnic,
Fragment dialogu styczna, czyli jaki model doswiadczenia nalezy wybrac. Rachunek prawdo- ze zdarzenie A, polegajace na tym, ze kazdy podprzedzial zawiera co najmniej
z filmu "Rejs" podobienstwa pozwala jedynie obliczac prawdopodobienstwa pewnych zda- jeden z wylosowanych punktów, ma prawdopodobienstwo 1.
rzen, jesli znane sa prawdopodobienstwa innych zdarzell. Tylko tyle i az
12. Z przedzialu [O, l] wybrano losowo liczbe x. Jakie jest prawdopodobienstwo,
tyle. ze jest to liczba wymierna? Niewymierna?
Gruba moneta jeszcze raz. Oto dane z próby weryfikacji modelu zapropono-
Zadania wanego w przykladzie 2: w serii 500 rzutów moneta (sklejona z pieciu pieciogro-
szówek) o srednicy 19,4 mm i grubosci 6,7 mm wypadlo 176 orlów (35,2%), 170
1. Z kwadratu jednostkowego wybrano losowo punkt o wspólrzednych (x, y). reszek (34,0%) i 154 "kanty" (30,8%). Monete rzucano na wykladzine dywanowa
Wyznaczyc funkcje: z wysokosci 10-20 cm. Okazalo sie, ze przy rzutach na podloge drewniana "kant"
a) f(a) = P(min(x,~) < a), wypada bardzo rzadko ze wzgledu na odbicia sprezyste2.
b) g(a) = P(max(x,~) < a), Model przewiduje szanse upadku na "kant" równa 32,64%, zgodnosc jest wiec
c) h(a) = P(min(x,y) < a), bardzo dobra. Dokladniej, szansa uzyskania gorszego dopasowania do czestosci
d) k(a) = P(max(x,y) < a). teoretycznych wynosi ok. 60%. Taka wartosc otrzymuje sie z testu X2 (którego nie
znajdziemy w tej ksiazce). Zamiast niego Czytelnik moze spróbowac zastosowac
2. Na odcinku [O, l] umieszczono losowo punkty L i M. twierdzenie de Moivre'a-Laplace'a z rozdzialu 7.
a) jaka jest szansa, ze srodek odcinka LM nalezy do [O, 1/3]'!
l Georges Louis Leclerc de Buffon opublikowal wzmianke o tym doswiadczeniu w 1735
b) jaka jest szansa, ze z L jest blizej do M niz do zera? roku, chcac zademonstrowac "przewage geometrii nad analiza" w teorii prawdopodobien-
3. Na odcinku [0,1] umieszczono losowo punkty Al, A2, Aa. Jaka jest szansa, stwa. Laplace zauwazyl, ze mozna w ten sposób wyznaczac doswiadczalnie liczbe 1'.
ze Al ~ A2 ~ Aa? 2Doswiadczenie wykona! Filip Switala (student Wydz. Ekonomii UW).
§ 2.1. Podstawowe schematy kombinatoryczne 23

Wszystkie tablice rejestracyjne mozna otrzymac tak: pierwsza litere VI'-y-


bieramy na 24 sposoby, druga i trzecia tez na 24 sposoby. Czesc literowa Czy ktos widzial
mozna zatem wybrac na 243 = 13824 sposoby. Podobnie stwierdzamy, choc tablice z cyframi
moze sie to akurat w tym przypadku wydac sztuczne, ze mozliwych ukladów OOOO?
cyfr jest 1.04. W rezultacie mamy 138 240 000 mozliwych tablic rejestracyj-
Rozdzial 2 nych .•

Z tego rodzaju rozumowaniem spotykamy sie w prawie kazdym zadaniu


kombinatorycznym. Zadany zbiór konstruujemy za pomoca pewnej procc-
Klasyczna definicja dury, podejmujac na kazdym etapie decyzje - jest to wybór jednej z wicln
mozliwosci. Na zakoilczenie mnozymy liczby mozliwosci wyboru w poszcze-
prawdopodobienstwa gólnych etapach. Rozumowanie to opiera sie na nastepujacym twieJ'dzcuiu:

Twierdzenie 2 (O mnozeniu). Jesli #Ai = ni dla i = 1,2, ... k, t,o

# (Al X ... x Ak) = 11.1 . 11.2' •... nk·


Dwa znaki buduja dwa domy, trzy buduja szesc domów,
cztery buduja dwadziescia cztery domy; piec buduje sto D o w ó d. Marny #Al = nI, zatem dla dowodu ~ndukcyjnego wystarczy po-
i
dwadziescia domów. Od tego wyjdz rozwazaj dalej to, kazac, ze # #
(Al X ... x A;n+1) = nm+l . (Al X .. , x Am). To jest jednak Sugestywny
i
czego usta nie moga wymówic ucho nie moze uslyszec. oczywiste, bo kazdy ciag (al,'" ,am+l) E Al x ... x Am+l mozna otrzy- dowód twierdzenia
mac dolaczajac na nm+l sposobów wyraz a\n~-l do ciagu (al"," am) E o mnozeniu dla
SeJer' Jecim - Ksiega stworzenia k = 2 znajduje sie
E Al X ... x Am .•
w podreczniku do
W tym rozdziale zajmiemy sie szczególnym przypadkiem sytuacji, opisanej Omówimy teraz cztery pp.Óstawowe schematy lwmbinatoryczne. Oto nie- I klasy szkoly
zbedne definicje i oznacz.er,lia. podstawowej,
w twierdzeniu 1.2.1: skoilczony zbiór O jednakowo pra,wdopodobnych zda-
uzywanyrn
rzen elementarnych. Z twierdzenia 1.2.1 wynika natychmiast, ze dla kazdego w latach GO-tych.
AcO . Definicja 3. k-wymzo'wa wa1"iacja z powtó1"zenia.mi zbio1"'u Y nazywamy Jest to rysunek
. #A kazda funkcje f: {l, 2, ... , k} --t Y .• oddzialu
P(A) = #0-' ustawionego
Liczbe k-elementowych wariacji z powtórzeniami zbioru n-elementowego w czworobok)
Taki model pasuje do wielu zadali, gdzie wystepuja karty, symetryczne bedziemy oznaczac symbolem A~,. który jest takze
dowodem
kostki i monety, losy na loterie itp. Powyzszy wzór tradycyjnie nazywa sie
przemiennosci
"klasyczna definicja prawdopodobienstwa". Otóz w poczatkach rozwoju Definicja 4. k-wymzowa wa1"iacja bez powtórzen zbioru Y zlozonego z n rnnozenia.
teorii definiowano prawdopodobielistwo zdarzenia jako stosunek liczby przy- elementów, gdzie O :::; k :::; n, nazywamy kazda .funkcje róznowaTtosciowa
padków sprzyjajacych do liczby wszystkich mozliwych, przy (milczacym) f:{1,2, ... ,k} --tY .•
zalozeniu, ze wszystkie przypadki sa jednakowo prawdopodobne. Definicja
ta nie jest formalnie poprawna, ale dawalo sie z nia pracowae. Liczbe k-elementowych wariacji bez powtórzeli zbioru n-elementowego be-
dziemy oznaczac symbolem V,~.

§ 2.1. Podstawowe schematy kombinatoryczne Definicja 5. Pe1"m-uiacja n-elementowego zbio1"UY nazywamy kazda funk-
cje f, odwzor'ow1Ljaca zbiór {l, 2, ... , n} na zbió1" Y .•
Przyklad 1. Tablica rejestracyjna zawiera trzy litery alfabetu lacinskiego
i cztery cyfry. Ile jest róznych tablic? Liczbe permutacji zbioru n-elementowego bedziemy oznaczac symbolem Pn-
Kazda funkcja f okreslona na zbiorze {l, 2, ... , k} wyznacza jednoznacznie
lLatwo bylo o pozorne paradoksy, a raczej bledy, takie jak stwierdzenie d'Alemberta
w artykule "Orzel i reszka" (Cro'ix et pite), w IV tomie Encyklopedii (1754). Szansa
ciag o wyrazach f( i), l :::; i :::;
k. Odwrotnie: kazdy k-wyrazowy ciag ele-
pojawienia sie dwóch orlów pod rzad w dwóch rzutach moneta mialaby wynosic 1/3, mentów zbioru Y wyznacza funkcje f: {l, 2, ... , k} --t Y. Zamiast o funk-
bowiem jesli w pierwszym rzucie wypadla reszka, nie ma sensu rzucac dalej, mozliwe sa cjach mozna wiec w powyzszych trzech definicjach mówic o ciagach, co
zatem wyniki R, 00 i OR.
wykorzystamy w dowodach.

22
24 Rozdzial 2. Klasyczna definicja prawdopodobienstwa § 2.1. Podstawowe schematy kombinatoryczne 25

""~..
Definicja 6. k-elementowa kombinacja zbioru Y, zlozonego z n elemen- Zdarzeniami elementarnymi beda tu wszystkie 7-elementowe ciagi o wyra-
tów, gdz'ie ° :::;k :::;n, nazywamy kazdy k-elementowy podzbió7' zbioTu Y .• zach ze zbioru 10-elementowego. Zdarzenia sprzyjajace to ciagi o Tóznych
wyrazach. W takim razie szukane prawdopo<J.obienstwo wynosi
Liczbe k-elementowych kombinacji zbioru n-elementowego bedziemy ozna-
V170
czac symbolem C~.
107
10·9 . 8 . 7 . 6 . 5 . 4
107
= 0,06048.•
Twierdzenie 7.
Mówiac krótko
A~=nk, n~l,k~O, (1)
Przyklad 9 (Dni urodzin). Typowa grupa cwiczeniowa na Uniwersyte- i ludzkim
cie Warszawskim liczy dwadziescia kilka osób..Czy czesto bedzie sie zdarzac, jezykiem: trzeba
n!
n, ze w grupie sa dwie osoby obchodzace urodziny tego samego dnia? A do- podac informacje,
O:::; k:::; (2)
~~= 71.(71. - l) ..... (n - k + l) = (n _ k)" kladniej: ile powinno byc osób w grupie, zeby szanse takiego zdarzenia byly gdzie kto wysiadl.

Pn = n!, n ~ 0, (3) wieksze niz 1/2?


n! Jesli zignorujemy lata przestepne, zadanie sprowadzi sie do poprzedniego:
O:::; k:::; n. (4)
c~= (~) k!(n - k)!' k osób w windzie i 365 pieter. Niech Pk oznacza prawdopodobienstwo zda-
rzenia przeciwnego do opisanego wyzej, czyli róznych dat. urodzin. Wtedy
Wyniki te znali juz matematycy szesnastowieczni (Tartaglia) i siedemnasto-
wieczni (Pascal). Jak sie wydaje, podstawowe twierdzenia kombinatoryczne,
tj. postac iloczynowa C,~,indukcyjny dowód wzoru na liczbe permutacji,
Pk = 365· .... M~"
(365 - k + 1) = (1 __ 365
1_) . '" . (l _ k365
- 1).

a takze wzór na liczbe wariacji bez powtórzell podal pierwszy w napisanej Prawa strone mozna oszacowac, korzystajac z nierównosci 1 + x ~ e:r,:
po hebr;:tjsku arytmetyce (1321) matematyk prowansa.lski Lewi ben Gerson Jt.]( iti,,, wnll,
(Leon Gersonides, 1288-1344). Prace Lewi ben Gersooa byly jednak malo Pk ~e-3~5 .... e-;65· =e_1+2+'j6~(k-l) =e-"(~3-;,l) I :1J"olt O Il)

Na hebrajski
znane.
tlumaczono wiele Na to, by Pk ~ 1/2 wystarcza, by k(k - l) » 730 log 2 ~ 505,9074, czyli
arabskich D o wód. (1) wariacje z powtórzeniami. k-elementowe wariacje z po- k ~ 23. Dokladniejsze rachunki pokazuja, ze P23 ~ 0,493. Pouczajacy jest
traktatów wtórzeniami to inaczej k-elernentowe ciagi o wyrazach z n-elementowego rzut oka na ponizsza tabele prawdopodobienstw róznych dat urodzin:
matematycznych, zbioru Y. Vvystarczy wiec skorzystac z twierdzenia o mnozeniu dla Al =
które z kolei byly = ... = Ak = Y.
czesto
tlumaczeniami (2) wariacje bez powtórzen. Teraz mamy do czynienia z k-eJementowymi
z greckiego. ciagami o róznych wYrazach z n-elementowego zbioru Y. Oczywiscie V,? =
= l, a dalej - V;+1 = (n - k)V;, bo po wybraniu k-elementowego ciagu Po zapoznaniu sie z tymi wynikami mozna wygrywac bez trudu zaklady, bo-
nastepny element mozna wybrac na n - k sposobów, o ile k + l :::;n. Stacl
wiem gdy pytanie, sformulowane na poczatku tego przykladu, stawiano stu- To jest absurd!
n! dentom kierunków uniwersyteckich2, srednia z' odpowiedzi wyniosla 385.•
A jest.
V; = n( n - l) ..... (n - k + l) = (n __k)! .
Przyklad 10. Na ile sposobów mozna rozdac n paczków k osobom? Paczki
(3) permutacje. Jest to szczególny przypadek wariacji bez powtórzen: smialo mozna uznac za nierozróznialne. Moze, sie zdarzyc, ze ktos nie do-
Pn = vnn = n! stanie paczka ..
(4) kombinacje. Poniewaz vnn = C~Pn (kazdy ciag k-elementowy mozna To samo pytanie mozna sformulowac w terminach kul nierozróznialnych: na
otrzymac, wybieraja,c podzbiór i ustawiajac jego elementy w ciag), to ile sposobów mozna n nie~ozróznialnych kul (paczki) wrzucic do k komórek
(osoby)? Jesli ri oznacza li(;zbe kul w i-tej komórce, to pytamy, ile jest róz-
nych ciagów liczb calkowitych nieujemnych ('r1, 1'2, ... ,rk), spelniajacych
. V;
enk = Pn = (n - n!klik! = (n)
k .• warunek

Przyklad 8. Winda jedzie 7 osób, a pieter w budynku jest 10. Jaka jest
'('1 + ... + Tk = n. (5)
szansa, ze wszyscy wysiada na róznych pietrach? 2W USA. Por. Tan Stewart, Co za traJI, Swint Nauki 8/19!J8, HH. 1~1 1(;,
26 Rozdzial 2. Klasyczna definicja prawdopodobienstwa § 2.1. Podstawowe schematy kombinatoryczne 27

Takie rozmieszczenia 'nazywamy kombinacjami z powtórzeniami. Rozwiazanie (jakie?) jest dobrze znane dla k = 2. Nietrudno domyslic sie,
Innymi slowy, pytamy, ile jest rozwiazan w liczbach calkowitych nieujem- jak wyglada ogólny wzór. Wybieramy 1'1 elementów do pierwszej czesci na
nych równania (5). Dwa rozwiazania uznajemy za rózne, jesli rózne sa ciagi (~')
1l sposobów, potem 1'2,., elementów
,,. I do drugi~j czesci na (n-:r1)
72 sposobów,
h,·· .1·k). itd. W rezultacie marny'
·ft· ',l \'
,
Oznaczmy kule gwiazdkami, a przegródki miedzy komórkami - pionowymi
kreskami. Na przyklad ciag I * II * I * *11 reprezentuje uklad 4 kul w 5 (n).
1'1 (n:~,J7'1)
"'2 ..... (n-(1·1+, 1'k-1
.. +1'k-1))
komórkach (sa 4 przegr,ódki; dodatkowo mamy po jednej kresce na poczatku
i na koncu). Ciagów zlozonych z n gwiazdek i k - 1 przegródek jest sposobów. ViTyrazenieto latwo uproscic do postaci
n!

(n:~~1) = (n+~-1).. I I
1'1·1'2····1'k· "
W jezyku kul nierozróznialnych zadanie to sprowadza sie do pytania, na il
Pytania o rozmieszczenie kul w komórkach sa ciekawe z róznych wzgledów, sposobów mozna ustawic w ciag n róznokolorowych kul, wsród któryc], jest
miedzy innymi z punktu widzenia mechaniki statystycznej. Bada sie tam
uklady n czastek w przestrzeni fazowej, która mozna podzielic na wiele
1'i kul 'i-tego koloru, i
'= 1,2, ... , k, 1'1 + 7'2 + ... + Tk = n. Takie usLil.wicnir\'
nazywamy peT7T!'Utacjl2miz powtó1'zeniami.
W przestrzeni nieduzych obszarów (komórek). Stan ukladu opisuje sie w terminach loso-
fazowej wego rozmieszczenia n czastek w k komórkach. Wydaje sie, ze czastki moga Mozemy teraz rozwiazywac zadania w stylu: jaka jest szansa, ze daty uro-
wspólrzednymi zachowywac sie dwojako: jak kule rozróznialne i nierozróznialne. Zapropo- dzin 34 osób rozkladaja sie na poszczególne miesiace tak: 6 miesiecy po 3
moga byc np. nowano trzy podstawowe modele zachowania sie czastek: osoby, 2 miesiace po 4 osoby i 4 miesiace po 2 osoby. Odpowiedz brzmi:
polozenie i ped.
a) statystyka Maxwella-Boltzmanna. Czastki zachowuja sie jak kule roz- 12!
34! . 12734 .•
róznialne i wszystkie kn rozmieszczen ma jednakowe prawdopodobienstwo. 61214!
Okazalo sie jednak, ze statystyka ta nie stosuje sie do zadnych znanych
czastek elementarnych. Przyklad 12 (Poker). Z 24 kart wybieramy 5, Jaka jest szansa, ze otrzy-
b) statystyka Fermiego-Dimca. Czastki zachowuja sie jak kule nierozróz- ma.my dwie pary? Chodzi tu o dokladnie dwie pary, nie o fulla ani karete.
nialne, przy czym Oto procedura, generujaca wszystkie taIcie uklady kart:

(i) dwie czastki nie moga przebywac w tej samej komórce, 1. Wybieramy dwie wartosci kart sposród szesciu (np. as i walet). Mozna
to zrobic na m sposobów.
(ii) wszystkie rozmieszczenia spelniajace (i) maja jednakowe prawdopo-
dobienstwo. 2. Z czterech kart o danej wartosci wybieramy dwie; robimy to dwu-
krotnie (w ten sposób wybieramy konkretne asy i walety: np. Al(.,
Z (i) wynika, ze k ;;?: n. Rozmieszczenie jest wyznaczone przez podanie ko- Ac:) i J<>, J~). Mozna to zrobic na m2 sposobów.
mórek zajetych, wobec tego prawdopodobienstwo otrzymania konkretnego
rozmieszczenia jest równe 1/ (~). Okazuje sie, ze zgodnie z ta statystyl"'1 3. Piata karte mozemy wybra.c dowolnie z 16 kart: wykluczamy 8 kart
zahcowuja sie elektrony, protony i neutrony. (tu: asy i walety), zeby nie otrzymac przypadkiem karety ani fulla.
c) statystyka Bosego-Einsteina. Czastki zachowuja sie jak kule nierozróz-
nialne. Rozpatrujemy wszystkie rozróznialne rozmieszczenia, uznajac je za W efekcie dwie pary mozna otrzymac na m (~)2 . 16 sposobów, Szukane
jednakowo prawdopodobne. Dlatego prawdopodobiellstwo ustalonego roz- prawdopodobienstwo wynosi (~) m 2. 16/ (254) = 8640/42504 ~ 0,2033.•
mieszczenia jest równe 1/ (n+,~-1). Zgodnie z ta statystyka zachowuja sie
fotony. Symetria. W wielu zadaniach mozna sie obejsc bez obliczeli, jesli umiejet-
nie skorzystac z symetrii. Rzecz ilustruja dwa przyklady ponizej.
Przyklad 11 (podzialy populacji). Na ile sposobów mozna podzielic
n-elementowa populacje 'na k czesci zawierajacych odpowiednio 7"1,' .. ,7'k Przyklad 13. Rzucamy symetryczna moneta 1999 razy. Jaka jest szansa
elementów, gdzie 1'1 + ... + 1'k = n? otrzymania parzystej liczby orlów? A gdyby rzucac
2000 razy?
J"

I
28 Rozdzial 2. Klasyczna definicja prawdopodobiellstwa § 2.2. Typowe bledy 29

Taka sama, jak parzystej liczby reszek: zamiana orla na reszke nie zmienia kule umieszczamy w jednej z n - l zajetych komórek. Zatem odpowiedz
prawdopodobienstwa zdarzenia. Zatem brzmi
n . n . (n - 1)1· (n - 1) _ n(n - l)n!
P(parzysta liczba orlów) = P(parzysta liczba reszek) = nn n"
l
= P(nieparzysta liczba orlów) = -.
2
_ Czy na pewno? Dla n = 2 otrzymujemy prawdopodobienstwo równe 1.
Latwo sprawdzic, ze wynosi ono w tym przypadku ~, i wyglada na to, ze
Przyklad 14. Na loterii 10 losów wygrywa, 100 przegrywa, a 1000 upraw- sprzyjajacych ustawien kul w komórkach jest dwa razy za duzo. Rzeczy-
nia do ponownego losowania. Jaka jest szansa wygranej, jesli wyciagamy wiscie, np. przy trzech kulach i trzech komórkach konfiguracje I - 1311,21
jeden los i gramy, dopóki sie da, czyli dopóki nie trafimy na los wygrywa- otrzymujemy dwukrotnie. Po raz pierwszy tak: odkladajac kule 1, wstawia-
jacy lub przegrywajacy? jac do drugiej i trzeciej komórki kule 3 i 2, i na zakonczenie umieszczajac
Jezeli za zdarzenia elementarne uznamy ciagi zlozone z k losów, uprawnia- kule l w trzeciej komórce. Zamiana kul 1 i 2 daje drugi - z pozoru inny
- sposób. Wyrózniajac kule odkladana na bok, popelniamy blad.
jacych do ponownego losowania (O :( k :( 1000), i jednego losu rozstrzy-
gajacego, to wpadniemy w klopoty, bo takie zdarzenia elementarne trudno Prawidlowe rozwiazanie jest nastepujace:
uwazac za jednakowo prawdopodobne. Niemniej jednak, w kazdym rozsad-
nym modelu, zdarzenia A", polegajace na tym, ze na koncu pojawil sie L Wybieramy dwie kule na G) sposobów.
los rozstrzygajacy o numerze n (l :( n :( nO), powinny miec jednakowe
prawdopodobienstwa. Rzeczywiscie, istnieje wzajemnie jednoznaczna od- 2. 'Wrzucamy je do wybranej na n sposobów komórki.
powiedniosc miedzy zdarz'eniami elementarnymi, skladajacymi sie na A"
i Am (jaka?). 3. Z pozostalych komórek wybieramy pusta na n - l sposobów.
Wynika stad, ze szansa wygranej wynosi ADo' Losy uprawniajace do dalszego 4. Umieszczamy pozostale n - 2 kul w n - 2 komórkach na (n - 2)!
losowania sa, jak widac, nieistotne. _ sposobów.

§ 2.2. Typowe bledy Sprzyjajacych konfiguracji jest wiec G) . n(n - l)(n - 2)! = n!G).-

Nie podalismy dowodu poprawnosci procedury, opisanej w przykladzie o Przyklad 2. Nie bez powodu motto tego rozdzialu pochodzi z "Sefer Je-
pokerze (2.1.12). Pelna formalizacja bylaby moze niecelowa, warto jednak cira" (Ks'iega stwo'rzenia). Traktat ten powstal przypuszczalnie na przelo-
sprawdzic dwie rzeczy: mie II i III w. po Chrystusie, w Aleksandrii. Kombinatoryka odgrywa w nim
Zl\,WH:I.(' wa,l'l,o kluczowa role.
~lpl'l\.wdziCI cr,y 1. CllYfaktycznie otrzymujemy wszystkie zadane uklady kart?
zdl.il"~elllt,
Trzydziestoma dwiema wdownymi sciezkami madrosci Jah, Jahwe Zaste-
JOlllt,'Ill.ilfIlO
juclnalwwo
H;-lt 2. Czy przypadki~m dwie z pozoru rózne drogi nie prowadza do tego
samego ukladu 'kart?
pów [...] wyryl i stwor-zyl swój swiat pr'zez trzy: p'T'Zezliczbe, slowo i p·ismo.
11I,,.,wdopoclobne. Dziesiec sefir nicosc'i oraz dwadziescia dwa podstawowe znaki: trzy matryce,
Innymi slowy, nalezy sprawdzic, czy istnieje wzajemnie jednoznaczna odpo- siedem podwójnych i
dwanascie PTostych3.
wiedniosc miedzy sposobami realizacji procedury, a generowanymi przez te
Owe dwadziescia dwa znaki to litery alfabetu hebrajskiego. Stanowia one Motyw
sposoby zdarzeniami elementarnymi. Czytelnik zechce to zrobic dla przy- obracajacych sie
podstawowe tworzywo swiata:
kladu 2.1.12 i zastanowic sie nad kolejnym przykladem. kól,
Dwadziescia dwa podstawowe znaki wprawione' w kolo. Przez 231 bram ob- produkujacych
Przyklad 1. n rozróznialnych kul umieszczono losowo w n komórkach. racane jest to kolo tam i
z powrotem - oto znak slowa. [...] Formujac kombinacje
Jaka jest szansa, ze dokladnie jedna komórka jest pusta? wywazal imieszal .fe: alej ze wszystkimi iwszystkie z alej; bet ze wszyst- podstawowych
substancji,
To proste: Pusta komórke wybieramy na n sposobów, odkladamy jedna
hmi i 'IJJszystk-iez bet i przez. obrót dookola zostalo znalezione wszystko, co wystepuje juz
wymówione, a co wychodzi z jednego imienia. w Timajosie
kule (mozna ja wybrac na n sposobów), a w pozostalych n - l komórkach Platona.
rozmieszczamy n - l kul na (n - l)! sposobów. Na zakoÓ.czenie odlozona 3Przeklad W. Brojer, J. Doktór, B. Kos, Tikkun, Warszawa 1995.
Rozdzial 2. Klasyczna definicja prawdopodobienstwa § 2.2. Typowe bledy 31
30

14. Rozdano 52 karty czterem graczom, po 13 kart kazdemu. Jaka jest szansa, ze
l{olo O 231 bramach" ma zwiazek z liczba dwuelementowych ciagów (róz-
a) kazdy ma asa? b) kazdy ma jalciegos pika?
;~ych) liter alfabetu hebrajskiego. Miesza sie "alef ze wszystkimi i wszyst- c) kazdy ma jakas figure (A, K, D lub W)?;
kie z alef" , co sugeruje, ze porzadek jest istotny -- przeciez z liter two-
15. Z 24 kart wybieramy 5. Obliczyc szanse otrzymania nastepujacych ukladów:
rzy sie slowa. Dwuliterowych ciagów uporzadkowanych jest jednak nie 231,
a 22 . 21 = 462, zatem, ktos s.ie tu pomylil. - para, dwie pary (jesli ktos nie czytal przykla.du), straight (karty tworza se-
kwens, kolory dowolne, byle nie jednakowe), trójka, fuli (trójka i para), kareta
(cztery karty tej same,(wart.osci), kolor (wszystkie karty w tym samym kolo-
Zadania rze, ale nie poker) i poker (sekwens, w tym samym kolorze).
16. W Totolotku losuje sie G J.i(;.zbz 49. .Takajest szansa, ze zadne dwie nie beda
1. Ile jest permutacji ~2 liter alfabetu hebrajskiego? Czy rzeczywiscie tej liczby
"usta nie moga w1mówic i ucho nie moz.e uslyszec"?
kolejnymi? ,
\,\,,(" ..
17. Winda raz jeszeze. Winda jedzie 7 osób, a kazda moze wysiasc na jednym
2. Cyfry O, l, 2, ... 9 usl;awiono losowo. Jakie jest prawdopodobiellstwo, ze z dziesieciu pieter. Jaka jest szansa, ze na pewnym pietrze wysiada 3 osoby,
a) Miedzy ° i l znajda sie dokladnie cztery cyfry? na innym 2, i na dwóch pietrach po jednej? TaJa konfiguracje mozna zapisfI.c
b) 7, 8 i 9 beda staly obok siebie? krótko jako 3,2,1,1,0,0,0,0,0,0. Ile jest takich ,konfiguracji i j,>kie sa S~aI1R(J
3. W pudelku jest 6 srubek dobrych i 2 zje. Jaka jest szansa, ze przy wyborze pojawienia sie kazdej z nich? ~
4 srubek wybierze sie 3 dobre i 1 zla? 18. Paradoks kawalera de Mere. Co jest bard'l'iej prawdopodobne: otrzyma-
4. W urnie sa 2 kule biale i 4 czarne. Losujemy 2 kule bez zwrac,mia. Co jest nie co najmniej jednej jedynki przy rzucie 4 kostek, czy co najmniej raz
bardziej prawdopodobne, wyciagniecie kul a) tego samego koloru; b) róznych dwóch jedynek na obu kostkach przy 24 rzutach obu kostek?
kolorów? De Mere uwazal,
19. Zadanie Samuela Pepysa4• Co jest bardziej prawdopodobne: uzyskanie co
ze te prawdopodo-
5. Z 52 kart wylosowano 6. Jaka jest szansa, ze wsród wylosowanych kart beda najmniej jednej szóstki w 6 rzutach, co najmniej dwu szóstek w 12 rzutach, biellstwa powinny
karty czerwone i czarne? czy co najmniej trzech w 18'1 byc równe,
6. Z 52 kart wylosowano 13. Jaka jest szansa, ze wsród wylosowanych kart beda 20. Paradoks kawalera de Mere. Jest to przyklad wyboru wlasciwego modelu astwierdzilpodobno
reprezentowane wszystkie wartosci? dla opisu zjawiska. Przy rzucie trzema kostkami sume 11 i 12 oczek mozna eksperymenta.lnie,
7. Z 52 kart wybrano 13. Jakie sa szanse otrzymania: otrzymac na tyle sarno sposobów. Dlaczego czesciej wypada suma 11 oczek? ze tak nie jest
a) 5 pików, 4 kierów, 3 trefli, 1 kara? 21. Jaka jest szansa., ze spotkam na przyjeciu 'osobe, obchodzaca urodzill)' tego (por. zad. 10.2.7).
b) ukladu 5-4-3-1? Zadanie mozna
samego dnia, co ja? Ile osób powirulo byc na przyjeciu, zeby ta szansa prze-
c) ukladu 5-3-3-2? kontynuowac: 3
kroczyla 1/2? kosci i 144 rzuty,
d) ukladu 4-4-4-1?
22. Koincydencje. Na imprezie mikolajkowej wszystkie n prezentów pozba- 4 kosci
8. Przy okraglym stole usiadlo dziesiec dziewczat i dziesieciu chlopców. Jaka
wiono karteczek z. imieniem adresata, losowo wymieszano i rozdano uczestni- rzutów.
i
6·144 = 876
jest szansa, ze osoby tej samej plci nie siedza obok siebie?
kom. Niech Pic oznacza szanse, ze dokladnie k osób dostanie wlasny prezent.
i; 9. Ile jest róznych wyników rzutu n nierozróznialnych kosci? Wyznaczyc Pk, k = O, 1,2, ... , n, a takze granice tych prawdopodobienstw,
10. Na ile sposobów mOzna podzielic 12 paczków miedzy 4 osoby, tak by kazda gdy n -> 00.
.,11
dostala a) przynajmniej jeden; b) przynajmniej dwa? (paczki uwazamy za 23. Z 52 kart wybrano 13. Ja.ka jest szansa otrzymania a) dokladnie siedmiu kart
nierozróznialne ).
jednego koloru; b) dokladnie szesciu kart jednego koloru?
11. Ile róznych pochodnych czastkowych rzedu r ma funkcja analityczna n zmien-
24. Urny z lózeczkami. W malym schronisku sa 3 pokoje: czteroosobowy,
nych?
trzyosobowy i dwuosobowy. Dziwnym trafem schronisko jest puste, gdy po- Ten tytul to
12. Ile jest róznych rozwiazan równania jawia sie grupa 6 turystów i natychmiast zajmuje miejsca calkowicie losowo. makabra!
" Xl + X2 + X3 + X4 = 25 .Takajest szansa, ze jeden pokój pozosta.nie wolny?
25. Pokazac, ze ella n > 1
a) w zbiorze liczb calkowitych nieujemnych;
~ b) w zbiorze liczb naturalnych.
13. Z jeziora wyLowiono200 ryb, oznakowano je ; wpuszczono do wody. Po pew- (~) -2(;) +3(;) - ... =0.
nym czasie wyLowiono100 ryb, a wsród nich bylo 8 oznakowanych. Za roz-
sadna ocene liczby ryb w jeziorze mozna uznac liczbe ryb, dla której zreali- 4Sa.mue]Pepys (1633-1703), autor slynnych dzienników, sekretarz Royal Society; py-
zowalo sie zdarzenie o najwiekszym prawdopodobienstwie. Jaka to liczba? tanie zostalo postawione Newtonowi.

.l'

I jl
32 Rozdzial 2. Klasyczna definicja prawdopodobienstwa

26. Znalezc wzór na;

(l)
l(~) +2(;) +3(;) + ... +n(:)
(2)
2·1· (;) +3·2· (;) + ... +n·(n-1)· (~) Rozdzial 3
27. Znalezc wzór na

~"( ~)2
Prawdopodobienstwo
warunkowe

§ 3.1. Definicja i przyklady

W tym rozdziale wprowadzimy podstawowe pojecie teorii prawdopodohien-


stwa - prawdopodobienstwo warunkowe. W zasadzie kazde zadanie z ra-
chunlm prawdopodobienstwa da sie sformulowac przy uzyciu prawdopodo-
bienstwa warunkowego. Jesli zastanawiam sie, jakie sa moje szanse do7.ycia
do nastepnego roku, odpowiedz zalezy od mojego wieku, plci, trybu zycia,
przebytych chorób, itd. Wszelkie tego rodzaju informacje moga miec zasad- 31 grudnia
nicze znaczenie. Wiedza o tym doskonale firn;ty ubezpieczeniowe: standar- o godzinie 23:59
dowy kwestionariusz zawiera wiele szczególowych pytan, a skladka zalezy te szanse sa dosc
duze.
od udzielonych odpowiedzi.
W ponizszym - dosc skrajnym - przykladzie widac, ze zajscie jakiegos
zdarzenia moze zmienic prawdopodobienstwo zajscia innego zdarzenia.
-"", :r ,~~

Przyklad 1. W jednej urnie sa same biale kule, w drugiej same czarne. ..•
j'
:',1
Wybieramy losowo urn!;! i wyciagamy z niej kolejno dwie kule. Niech A
(odp. B) oznacza zdarzenie, ze pierwsza (odp. ·druga) wylosowana kula jest
biala. P(B) = 1/2, gdyz wybór urny determinuje wybór koloru kuli. Jesli
wiemy, ze zaszlo zdarzenie A, to druga wylosowana kula bedzie biala, wiec
prawdopodobienstwo zajscia zdarzenia B, gdy wiemy, ze zaszlo zdarzenie
A, oznaczane przez P(BIA), jest równe 1. •

Oczywiscie nie zawsze tak jest, na przyklad przy dwukrotnym rzucie sy-
metryczna moneta wypadniecie orla w pierwszym rzucie nie ma wplywu
na prawdopodobieilstwo wypadniecia orla w drugim rzucie. Jesli wiemy, ze
zaszlo zdarzenie B, to ograniczamy sie do zdarzen elementarnych sprzyjaja-

-- -
cych B, intuicja podpowiada wiec, ze dla prawdopodobienstwa klasycznego

-
P(AIB) jest równe liczbie zdarzen elementarnych sprzyjajacych A i za-
wartych w B, podzielonej przez liczbe wszystkich zdarzen elementarnych

,~, ,
.---- ..-.-.
..•... ..

.~
33
34 Rozdzia,l 3. Prawdopodobienstwo warunkowe § 3.1. Definicja i przyklady 35

tworzacych B, czyli Jesli nierównosc P(AIB) > P(A) bedziemy interpretowali w ten sposób, ze
zajscie zdarzel1ia B zwieksza szanse zajscia 'zdarzenia A, to (1) oznacza,
p(AnB) ze zajscie zdarzenia B zwieksza szanse zajscia zdarzenia A wtedy i tylko
P(AIB) = # (A#B
n B) P(B) wtedy gdy zajscie zdarzenia A zwieksza szanse zajscia zdarzenia B. Jest
to sprzeczne z intuicja 'Nielu osób, którym wydaje sie, ze jesli B zwieksza
Prowadzi to do definicji w ogólnym przypadku.
szanse zajscia A, to A zmniejsza szanse zajscia B .•

Definicja 2. Pr'awdopodobienstwem warunkowym zajscia. zda'f'zenia. A pod


Korzystajac z (1) widzimy bez obliczen, ze prawdopodobieI'lstwo, iz bry-
warunkiem zajscia zdarzenia B, gdz'ie P(B) > 0, nazywa.my liczbe
dzysta ma asa pik (zdarzenie A), jesli wiemy;: ze ma co najmniej jednego
asa (zdarzenie B) jest wieksze od bezwarunkowego prawdopodobienstwa,
P(A[B) = P(A
P(B)
n B) . :z,ema asa pik: mamy P(,BIA) = 1 i korzystam)' z (1).
Jako natychmiastowa konsekwencje definicji prawdopodobieJ'tstwa warulI-
Latwo sprawdzic, ze przy ustalonym B prawdopodobie11stwo warunkowe kowego otrzymujemy t:WieMzenie o mnozeniit, które mówi, Jaj; oblic:l.Y(;
P(AIB) jest zwyklym prawdopodobienstwem na (O, F), a takze na (B,FB) prawdopoclobienstwo danego zdarzenia, gdy znamy prawdopodobieJ'lstwa
gdzie Fa = {A n B: A E F} (zadanie 1). warunkowe.

Przyklad 3. Wybieramy jedna rodzine sposród rodzin z dwojgiem dzieci. Twierdzenie 5. Jesli zdarzenia Al, A2, ... , An 8pelniaja warunek
Obliczyc prawdopodobienstwo zdarzenia, ze wybierzemy rodzine z dwoma
. chlopcami, jesli wiemy, ze w tej rodzinie: [:.;' ( '..
P(Al n A2 n ... n An-d'> o,

A jesli np. a) starsze dziecko jest chlopcem, ~; .. " "', to


wia.domo, ze
b) jest co najmniej jeden chlopiec. ~,.: ,u \, \ "
dziecko ma na P(Al n A2 n ... n A,,) = P(Al)P(A2IAd· ... · P(A"IAl r, A2 n ... nA,,_J).
drugie imie Roz w i az ani e. O jest zbiorem jednakowo prawdopodobnych par
Frltock? J;atrz
zftd.5. D o wód. Zalozenie zapewnia, ze wszystkie prawdopodobiellstwa warun-
{(c,c), (c,d), (d,c),(d,d)},
kowe, wystepujace we wzorze, sa dobrze okreslone. Korzystajac z definicji
gdzie pierwszy element oznacza plec mlodszego dziecka, drugi - starszego. prawdopoclobieilstwa warunkowego, piszemy prawa strone równosci. Czyn-
niki sie skracaja i otrzymujemy strone lewa. M
W punkcie a) spodziewamy sie odpowiedzi 1/2 i rzeczywiscie
1. 1 Twierdzenie to uzasadnia metode drzewek stosowana przy rozwiazywaniu
P({(c, e)}I{(e, e), (d,e)}) = f'2 =-.2 wielu zadan (liczby przypisywane galeziom to sa prawdopodobienstwa wa-
runkowe, a gdy poruszamy sie wzclluz galezi, to mnozymy te liczby).
Natomiast odpowiedz do punktu b) moze byc niespodzianka: ;,
Zadania
P( {(e, c)}I{(c, e), (d, c), (e, d)}) = 1/3.•
1. Niech P(E) > O. Udowodnic, ze P(AIE) jako funkcja A, przy ustalonym B,
Juz z tego przykladu widac, ze prawdopodobienstwo warunkowe ma wla- jest ·prawdopodobienstwem.
snosci, które sa dla wielu osób zaskakujace. Niezdawanie sobie z nich sprawy 2. Rzucamy trzema kostkami. Jakie jest prawdopodobienstwo, ze na zadnej ko-
prowadzi do blednych rozumowan. Pokazemy tu przyklad takiej zaskaku- stce nie wypadla szóstka, jesli na kazdej kostce wypadla inna liczba oczek?
jacej wlasnosci (patrz tez zadanie 3).
3. Poka,zac, ze jesli D zwieksza szanse zajscia A i D zwieksza szanse zajscia E,
to wcale z tego nie wynika, ze D zwieksza szanse zajscia A n E.
Przyklad 4.
4. Pokazac, ze jesli C C A n E i P(E - A) > O, to P(CIA) > P(CIA u B).
P(AIB) > P(A) e} P(BIA) > P(B) , (1) 'VVszczególnosci, gdy wiemy, ze zaszlo A, to prawdopodobienstwo warunkowe,
ze zaszlo A n E jest wieksze niz gdy wiemy, ze zaszlo A lub zaszlo B lub
gdyz obie strony sa równowazne nierównosci P(A n B) > P(B)P(A). zaszly oba naraz. l

l
----------- .•-.
36 Rozdzial 3. Prawdopodobienstwo warunkowe § 3.2. Wzór na prawdopodobienstwo calkowite i wzór Bayesa 37

Korzystajac z tego, widzimy bez obliczen, ze w brydzu prawdopodobieJlstwo zda- § 3.2. Wzór na prawdopodobienstwo calkowite wzór
rzenia, ze gracz A ma 4 asy, jesli wiemy, ze ma asa pik, jest wieksze od praw- Bayesa
dopodobienstwa, ze gracz A ma 4 asy, jesli wiemy, ze ma co najmniej jednego
asa.
Jednym z najbardziej uzytecznych wzorów zwiazanych z prawdopodobien-
stwem warunkowym jest wzór na prawdopodobienstwo calkowite. Pozwala
5. Wybrano losowo rodzine z dwojgiem dzieci i okazalo sie, ze jedno z dzieci on obliczac prawdopodobienstwa zdarzen, które moga zajsc w wyniku re-
ma na drugie imie Franek. Jaka jest szansa, ze drugie dziecko jest chlopcem alizacji innych zdarzeii, na przyklad w doswiadczeniach wieloetapowych.
(nie wykluczamy, ze tez ma na drugie imie Franek)?
Zeby móc zapisywac zwiezle zalozenia tego i pokrewnych twierdzen, wpro-
6. Wiadomo, ze P(AIB) = P(BIA), P(A U B) =l i P(A n B) > O. Dla jakich wadzimy pojecie TOzbicia zbioru n.
a mamy zawsze P(A) > a?
7. Z talii 8 kart - czterech króli i czterech asów - wybieramy losowo dwie karty. Definicja 1. Rozbiciem przestrzeni n nazywamy rodzine zdarzen {Hi};EI'
Obliczyc prawdopodobienstwo zdarzenia, ze wybrano 2 króle, jesli wiemy, ze: które wzajemnie sie wykluczaja, zas ich suma jest równa n. HiEF!
a) wybrano co najmniej jednego króla,
Rozbicie nazwiemy przeliczalnym, jilsli zbiór wskazników I jest przeliczalny;
b) wsród wybranych kart jest czarny król,
sko'nczonym, jesli jest skonczony. Zbiór przeliczalny
c) wsród wybranych kart jest król pik. moze byc
Illh Ilio.
8. Z talii 32 kart wyciagamy 5. Niech Twierdzenie 2 (Wzór na prawdopodobienstwo calkowite). Jezel'i SkO(ICZOIl.Y
A - zdarzenie polegajace na wyciagnieciu dokladnie trzech króli,
{B l, B2, ... , Bn} jest rozbiciem n na zdarzen'ia o dodatnim pTo.'/lJdopoclo-
bienstwie, to dla dowolnego zdarzenia A
B - zdarzenie polegajace 'na wyciagnieciu co najmniej jednego króla,
n
C -
D -
zdarzenie polegajace na wyciagnieciu króla czarnego,
zdarzenie polegajace na wyciagnieciu króla pik.
P(A) = L
i=l
P(AIBi)P(Bi)'

Znalezc prawdopodobienstwa P(AIB), P(AIC), P(AID).


Dowód.
9. Gracz dostal 13 kart z 52, obejrzal 8 z nich i stwierdzil, ze nie ma asa. Jaka
n n n Zdarzenia Bt
jest szansa, ze w ogóle nie ~a asa?
nazywa sie czasem
10. a) W partii brydza przed licytacja gracz E widzi, ze nie ma asa. Jaka jest
P(A) = P(U(AriB;)) = LP(AriBi) = LP(AIBi)P(B;),. hipotezar,..i.
i=l i=l i=l
szansa, ze jego partner ma 2 asy?
b) Gracz E widzi, ze ma 8 pików. Jaka jest szansa, ze jego partner nie ma Uwaga 3. Twierdzenie jest prawdziwe i dla rozbicia n na przeliczalna
pików? liczbe zdarzell Hi, i
= 1,2, ... (dowód wymaga zmiany dokladnie trzech
znaków drukarskich w podanym rozumowaniu).
11. Czterej gracz~ dostali po 13 kart. Jeden z nich zobaczyl przypadkowo 11 sa-
siada a) asa pik; b) jakiegos asa czarnego koloru; c) ja.ldegos asa. Jaka jest
szansa, ze ten gracz nie ma asa? Przyklad 4. Mamy w urnie b kul bialych i c czarnych. Wyciagamy jedna
kule i natychmiast ja wyrzucamy, nie sprawdzajac koloru. Jaka jest szansa
12. Jaka jest szansa, ze kazdy z graczy S, E i W ma co najmniej jednego asa, wyciagniecia za drugim razem kuli bialej?
jesli wiadomo, ze N nie ma zadnego?
Rozwiazanie. Niech Bl (B2) bedzie zdarzeniem polegajacym na wy-
13. Dylemat wieznia. Naczelnik wiezienia postanowil uwolnic jednego z trzech ciagnieciu za pierwszym (odp. drugim) razem kuli bialej. Analogicznie,
wiezniów, o czym dowiedzieli sie zainteresowani, ale nie dowiedzieli sie, który niech CI (C2) beda zdarzeniami polegajacymi na wyciagnieciu za pierw-
z nich bedzie wolny. Wiezien A ma wsród strazników znajomego, który to
szym (odp. drugim) razem kuli czarnej.
wie. Chce go zapytac, ale krepuje sie pytac o siebie. Pyta wiec o imie jednego
z wiezniów (róznego od niego), który ma pozostac w wiezieniu. Przed zada-
P(B2) = P(B2IBl)P(Bl) + P(B2ICl)P(Cl) =
niem pytania ocenia, ze kazdy z nich ma szanse wyjscia równa 1/3. Mysli,
ze jesli straznik powie na przyklad, ze zostaje B, to jego szanse rosna do 1/2
b- l b b c b
(bo zostanie uwolniony A lub C). Czy popelnia blad? = -c +-b -c +-b ---l + -c +-b -c +-b---l = -c +-b = P(Bd··
38 Rozdzial 3. Prawdopodobienstwo warunkowe § 3.2. Wzór na prawdopodobiellstwo calkowite i wzór Bayesa 39

Jest to doskonal a ilustracja faktu, ze na prawdopodobienstwo nie ma wply- R o z w i a z a n i e. Zbiór n tworza skonczone ciagi orlów i reszek, konczace sie
wu zajscie materialnego zdarzenia, ale tylko wiedza, która mozemy miec, na OOR lub ROR, oraz ciagi llie:,konczone (odpowiada to przypadkowi, ze
biorac pod uwage jego zajscie. W naszym przykladzie na szanse zajscia zda- gra sie nigdy nie skOllczy). NiechW1 (W2) bedzi!3 zdarzeniem, ze wygra Jas
rzenia nie mialy wplywu poprzednie ciagnienia tak dlugo, jak nie znalismy (odp. Grzes). Ok (Rk) k == J., 2, 3, zdarzeniem, ze w k-tym rzucie wypadl
ich wyniku. orzel (reszka). Niech

Przyklad 5. W loterii fantowej zorganizowanej na balu szansa wygranej x = P(WtlOl n O2),


Podobny przyklad jest równa p, przegranej - q, a z prawdopodobienstwem r wyciagamy los y = P(W1101 n R2),
pojawi! sie juz "graj dalej" . Los "graj dalej" wrzucamy z powrotem do urny i dokonujemy z = P(W1IR1 n O2),';
wczesniej. ponownego losowania .•Jakie jest prawdopodobienstwo wygranej?
w = P(W1IR1 nR2).
Rozwiazanie. Niech A (B, C) bedzie zdarzeniem polegajacym na wy-
Korzystajac z twied:wnia 6, otrzymujemy uklad równan
ciagnieciu losu wygrywajacego (odp. przegrywajacego, graj dalej), aW·-
zdarzeniem, polegajacym na tym, ze wygralismy na loterii. y = P(JiV1101 n R2 n 03)P(03101 n R2) +
P(W) = P(W[,A)P(A) + P(WJB)P(B) + P(IVIC)P(C) =
+ p(Hr1101 n R2 n R3)P(R3101 n R2) =
l L '. \
= 1 . P + O . q + P(W)· r . ..
-,. + -'w'
2" 2
Stad i analogicznie
p - -p .•
i ' P(W) = 1_ r - +q 1 1 l 1 1
! P
x = -x + -2 ·1, z = -x + O w = -w + -z.
2 2 ' . 2 2
Pokazemy teraz bardziej wyrafinowana wersje wzoru na prawdopodobieÓ-
stwo calkowite. Stad :r = 1, z = w = y = 1/2 i ze wzoru napra",dopodobienstwo calkowite
mamy P(Wd = 5/8. Podobne rozumowanie pokazuje, ze P(W2) = 3/8. Dlaczego nie 1/2?
Wynika stad, ze z.prawdopodobiellstwem l gra zakonczy sie wygra.na jed-
Twierdzenie 6. -Niech {H;}ZEl bedzie rozbiciem n na zdarzenia o dodat-
nego z chlopców, •
nim prawdopodobienstwie. Gdy P(B) > O, to

P(AIB) = L zEl
P(AIB n Hz)P(HdB).
Czesto znamy wynik doswiadczenia
odpowiada wzór (regula) Bayesa1.
i pytamy o jego przebieg. Na to pytanie

Twierdzenie 8 (Wzór Bayesa). Jesli {HZ};El jest przeliczalnym rozbi-


D o wód. Mozna przeksztalcic prawa strone równosci korzystajac z definicji
prawdopodobienstwa warunkowego i otrzymac strone lewa. Mozna tez ina-
ciem n na zdar'zen'ia o dodatn'im pmwdopodobienstwie i
P(A) > O, to dla Zalozenia tego
dowolnego j E I marny twierdzenia sa
czej. Przeciez P(-IB) = PB(-) jest prawdopodobiellstwem. Jest wiec sens prawie takie
mówic o PB(AIG) - prawdopodobienstwie zajscia zdarzenia A pod wa- P(AJHj)P(H/) . same, jak wzoru

runkiem zajscia zdarzenia G, gdy wierny, ze zaszlo zdarzenie B. Zachodzi P(HiIA) = ". na prawdopodo-
L-·/.El P(AIHz)P(Hi) bieI1stwo
równosc: calkowite.
D o wód. Z definicji prawdopodobienstwa warunkowego i wzoru na praw-
PB(AnH) _ p(AnHnB)/p(B) =p(AIHnB). dopoclobieilstwo ca.lkowite mamy
PB(AjH) = PB(H) - p(HnB)/p(B)

Twierdzenie jest wzorem na prawdopodobienstwo calkowite dla prawdopo- P(Hj[A) = P(A n Hi) = P(A[Hj)PCHj) .•
P(A) ~'iEl P(A[Hz)P(Hz)
dobieÓstwa PB(-) .•
lThomas Bayes (1702-1761) byl pastorem w ThrnbridgeWells pod Londynem. Dzieki
zainteresowaniom matematycznym zostal w 1742 roku czlonkiem Royal Society. Jego
Przyklad 7. Grzes i Jas rzucaja na przemian moneta. Jas wygrywa, gdy "Essay toward solving a Problem ir,.the Doctrine of Chances" ukazal sie dopiero w roku
Jak mogloby pojawia sie kolejno OOR, Grzes - gdy ROR. Jakie sa prawdopodobienstwa 1763.Wzór Bayesa nie zostal sfoÓnul'owanyprzez Bayesa. Taka nazwe nadal mu Laplace.
wygladac ogólne wygra.nej dla obu chlopców?
twierdzenie?
l
\V zadaniu zamieszczamy problem, rozwazany w cytowanej pracy.
40 Rozdzial 3. Prawdopodobienstwo warunkowe § 3.2. Wzór na prawdopodobieilstwo calkowite i wzór Bayesa 41

W statystyce prawdopodobienstwa hipotez P(H;) nazywamy prawdopo- 8. VVurnie jest n kuL przy czym n moze byc równe 2, 3, 4, 5 z jednakowym
dobienstwami a. priori (przed doswiadczeniem), P(HiIA) prawdopodobien- prawdopodobienstwem. Kule sa ponumerowane liczbami od l do n. Losujemy
stwami a. posteTiori (po doswiadczeniu). Rodzina zdarzell {HdiEI zwana kolejno dwie kule bez zwracania i zapisujemy cyfry z tych kul w kolejnosci
jest takze zupelnym ukladem zdarzen. wylosowania. Zapisana liczba okazala sie byc mniejsza od 44. Jakie jest praw-
dopodobienstwo, ze n bylo równe 3?
Przyklad 9. W zbio~ze 100 monet jedna ma po obu stronach orly, pozo- 9. Podczas klasówki z historii Jan i Pawel siedzieli obok siebie. Miedzy innymi
stale sa prawidlowe. W wyniku 10 rzutów losowo wybrana moneta otrzyma- mieli napisac dwie daty. Jan je pamietal, ale nie wiedzial jak je przyporzadko-
lismy 10 orlów, Obliczyc prawdopodobiellstwo, ze byla to moneta z orlami wac. Zapytal Pawla, wiedzac ze w 3 przypadkach na 4 Pawel zna prawidlowa
po obu stronach. odpowiedz, chociaz Paweluwazal, ze zawsze wie dobrze. Jednak Pawel w l
A jak zmieni sie przypadku na 4 oszukuje Jana. Co jest lepsze dla Jana: posluchac Pawla,
Rozwiazanie. Moglismy wybrac monete prawidlowa (zdarzenie H1l1ub czy odpowiedziec losowo?
odpowiedz przy
100 rzutach i 100 z dwoma orlami (zdarzenie Eh). Po wykonaniu doswiadczenia otrzymalismy
10. W komodach A, B i C sa po dwie szuflady. W kazdej szufladzie jest jedna
orlach? 10 orlów (zdarzenie A). Nalezy obliczyc P(H2IA), co robimy za pomoca
wzoru Bayesa: moneta, przy czym w komodzie A sa monety zlote, w C - srebrne, a w B
jest jedna moneta zlota i jedna moneta srebrna. Wylosowano komode, na-
1· 160 1024 i
stepnie szuflade, znaleziono tam monete zlota. Jaka jest szansa, ze w drugiej
szuIiadzie jest tez moneta zlata?
P(H2iA) = 210l . ~100 + 1 . 160 1123 ;::::;0,91. II
11. Paradoks Simpsona. (To zadanie pokazuje, z jak wielka uwaga i ostroz-
noscia powinnismy stosowac wnioskowanie, oparte na prawdopodobienstwie
Zadania warunkowym) .
Podac przyklad zdarzen A, B i G, dla których:
1. Problem z pracy Bayesa. Liczba p jest szansa sukcesu w schemacie Berno-
uIJiego (patrz 4.2) i zostala wybrana losowo z przedzialu [O, l] (czyli zgodnie P(AIB) < P(AIB') - (1)
z rozkladem jednostajnym; mialo to wyrazac "calkowita niewiedze"). Znalezc
i jednoczesnie
P(p E [a,b]1 zaszlo m sukcesów wOn próbach).
P(AIB n G) 2: P(A.IB' n G), P(AIB n G') ~ P(AIB' n G') (2)
2. Znalezc prawdopodobienstwo wybrania przedmiotu I gatunku, jesli jest 5%
Slownie mozna sformulowac paradoks w nastepujacy sposób:
braków, a 80% przedmiotów dobrych jest I gatunku. \
Moze sie zdarzyc sytuacja, ze w miescie X jest wieksza umieralnosc chorych na
3. biala.
W pierwszej
Rzucamyurniekostka.
sa 3 kule
Jezeli
biale
wypadnie
i 2 czarne,
mniej
a wniz
drugiej
5 oczek,
urnieto sa
losujem,~ule
4 cza~: i l gruzlice niz w miescie Y, a mimo to wieksza umieralnosc chorych kobiet jest
z pierwszej urny, jezeli wypadnie 5 lub 6 oczek, to losujemy kule z drugiej w miescie Y, a takze wieksza umieralnosc chorych mezczyzn jest w miescie Y.
urny. Jakie jest prawdopodobienstwo wylosowania kuli bialej?
4. W urnie sa trzy kule biale i dwie czarne. Wyciagnieto jedna kule z urny 12. Mamy w urnie b kul bialych i c czarnych. Wyciagamy kolejno kule i odkla-
i wyrzucono bez ogladania, a potem wyciagnieto nastepna. Jaka jest szansa, damy je, nie sprawdzajac koloru. Niech Gn bedzie zdarzeniem, polegajacym
ze za drugim razem wyciagnieto kule biala? na wyciagnieciu za n-tym razem kuli czarnej. Pokazac, ze P( Gn) = b~c' jesli
n:::; b + c.
5. Jest n monet, ale k z nich jest asymetrycznych i orzel wypada na nich z praw··
dopodobienstwem 1/3. Wybrano losowo monete i w wyniku rzutu wypadl 13. Schemat Pólya. Marny w urnie b kul b'ialych i c czarnych. Po wyciagnieciu
orzel. Jaka jest szansa, ze moneta jest asymetryczna? kuli z urny wrzucamy ja z powrotem i dokladamy jeszcze d kul tego samego
6. Wsród 65 monet jest jedna z dwoma orlami. Na wybranej losowo monecie koloru. Jakie jest prawdopodobienstwo Pk,n wyciagniecia k kul czarnych w n
losowaniach?
wypadl orzel 6 razy z rzedu. Jaka jest szansa, ze byla to moneta z dwoma
orlami?
Zadania 14-15a poswiecone sa zadaniu o ruinie gracza. Gracze A i B graja
7. W jednej urnie sa 2 kule biale i 8 czarnych, w drugiej 3 kule biale i 7 czar- w "orla i reszke" , rzucajac (niekoniecznie symetryczna) moneta. W pojedynczej
nych. Która urna jest która, nie wiadomo. Nalezy wylosowac (bez zwracania) kolejce gracz wygrywa l zl z prawdopodobienstwem p lub przegrywa l zl z praw-
po kolei dwie kule tak, by szansa otrzyma.iJ.ia dwóch kul bialych byla naj- dopodobienstwem l-p. Gracze maja kapitaly poczatkowe a i b, a + b = z.
wieksza. Jaka powinna byc procedura losowania? Przedyskutowac rozwiaza- Zasadniczo gra kOllCZYsie, gdy jeden z graczy zostanie zrujnowany. Gracze moga
nie w przypadku dowolnych skladów urn (ki bialych kul, ni czarnych kul, jednak umówic sie inaczej (np. wycofywac sie z gry w dogodnym dla siebie momen-
i=I,2). cie). Wyniki poszczególnych kolejek sa niezalezne, i choc pojecie niezaleznosci nie

Ll
42 Rozdzial 3: Prawdopodobienstwo warunkowe

zostalo formalnie wprowadzone, nie jest trudno intuicyjnie umotywowac sposób


zastosowania wzoru na prawdopodobienstwo calkowite do rozwiazania zadania.
Roboczo przyjmiemy, ze zdarzenia A i B sa niezalezne, gdy P(AIB) = P(B), aloo
(nieco ogólniej) gdy P(A n B) = P(A) . P(B).

14. Znalezc prawdopodobiellstwo qa ruiny gracza A, który zaczyna gre z kapi-


talem a zl, a konczy gdy wszystko straci (ruina) lub gdy bedzie mial c zl Rozdzial 4
(a::;; e).
15. Zadanie o ruinie dla gracza o nieograniczonym kapitale. Gracz A ma
nieograniczony kapital i gra az do momentu w którym wygra li zl. Znale~c:
prawdopodobiel1.stwo wygranej gracza A. Niezaleznosc zdarzen
15a. Pijak (i to pijany) znajduje sie 3 kroki od przepasci. Szansa wykonania
kroku w kierunku przepasci wynosi 1/3, w przeciwnym - 2/3, kroki sa nieza-
lezne. Jaka jest szansa ocalenia? Zakladamy, ze pijak spada, gdy znajdzie sie
na krawedzi przepasci.
16. Król Artur urzadza turniej rycerski, w którym rycerze spotykaja sie (jakze by
§ 4.1. Definicja i przyklady ,
inaczej?) systemem turniejowym. Obaj uczestnicy kazdego pojedynku maja
równe szanse na zwyciestwo. Wsród 2" uczestników jest dwu braci. Jakie jest Niezalcznosc jest kluczowym pojQciem, odrózniajacym rachunek prawdo-
prawdopodobienstwo, ze sie spotkaja w pojedynku? podobieilstwa od innych dzialów matematyki, badajacych wlasnosci prze-
17. Jest n osób: Al, A2, ... ,An. Osoba Al dostaje kartke ze znakiem +. Z praw- i
strzeni mierzalnych. Gdy .4. .B sa zdarzeniami, to jest naturalne powiedziec,
dopodobienstwem p, O < p < l, zmienia znak na przeciwny i podaje kartke ze zdarzenie B nie zalezy od zdarzenia A, gdy wiedza o tym, ze zaszlo A nie
osobie A2, która z prawdopodobienstwem p zmienia znak na przeciwny i po- ma wplywu na prawdopodobieristwo 7,ajscia B. Przy zalozeniu P(A) > O
lajo kartke osobie A3, itd. Na zakonczenie, po oddaniu kartki przez osobe oznacza to, ze P(BIA) = P(D), czyli P(AJlB) = P(A)P(B). Analogicznie,
A", ~I).ObH(Jrwowano znak +. Jakie jest prawdopodobier\.stwo, ze osoba Al nie A nie zalezy od B, gdy P(AIB) == P(A), czyli znów p(AnB) = P(A)P(B).
V,IIIiOllilfL
znaku? Stad definicja: '
,1('HI,t.o werRjfl zadania o klamcach:
1<117,da z -1 osób A, B, C, D mówi prawde z prawdopodobienstwem 1/3. Osoba Definicja 1. ZdaTzenia A B n.azywamy niezaleznymi
'i. (statystycznie nie-
A wypowiedziala pewne stwierdzenie, a nastepnie B powtórzyla je C, C powtó- zaleznym'i.), gdy P(A n B) = P(A)P(B) ..
rzyla je D, a D powiedziala, ze A mówi pra.wde. Jakie jest prawdopodobiel1.stwo, .,
ze osoba A rzeczywiscie wypowiedziala zdanie prawdziwe?
Uwaga 2. Zdarzenia rozlaczne A i B sa niezalezne wtedy i tylko wtedy,
Na dwóch nastepnych za.daniach mozna wypróbowac swoja intuicje, udzielajac
gdy P(A) = O lub P(B) = O. Zdarzenia
odpowiedzi bez rachunków.
niezalezne sa na
18. W miescie dzialaja dwa przedsiebiorstwa taksówkowe: Zielone Taxi (85% egzaminach czesto
R.elacja niezaleznosci jest relacja symetryczna (uzywane w jezyku potocz- mylone
samochodów) i Niebieskie Taxi (15%). Swiadek nocnego wypadku zakonczo- nym pojecie niezaleznosci nie ma tej wlasnosci, np. mój termin powrotu z rozlacznymi.
nego ucieczka kierowcy twierdzi, ze samochód byl niebieski. Eksperymenty I zawsze powoduje
z wycieczki w wysokie góry zalezy od pogody, natomiast pogoda jest nie-
wykazaly, ze swiadek rozpoznaje kolor poprawnie w 80% przypadków, a myli to ocene
zalezna od terminu powrotu). Probabilistyczne "nie zalezy" nie jest równo-
sie w 20% przypadków. Jak jest szansa, ze w wypadku uczestniczyla niebieska niedostateczna·
taksówka? wazne intuicyjnemu "nie ma wplywu na wynik" .

19. Test na rzadka chorobe, która dotknieta jest srednio jedna osoba na tysiac, Nie zawsze na podstawie opisu slownego zdarzenia mozna sie zorientowac,
daje falszywa pozytywna odpowiedz w 5% przypadków (u osoby chorej daje czy zaleznosc istnieje, czy nie. Oto przyklad:
zawsze odpowiedz pozytywna). Jaka jest szansa, ze osoba, u której test dal
odpowiedz pozytywna, jest faktycznie chora? Zakladamy, ze nic nie wiemy
Przyklad 3. Wybieramy jedna rodzine sposród rodzin, majacych n dzieci.
o innych mozliwych objawach u badanej osoby2.
Niech zd,u'zellie A polega na tym, ze w losowo wybranej rodzinie jest co
2ZOO. 18 i 19 na podstawie: Deborah J. Bennett, Randomness, Harvard Univ. Press, najwyzej jedna dziewczynka, B - w rodzinie sa dziewczynki i chlopcy. Czy
1998. zdarZCJli,\. )\ j IJ sa niezalezne?

t
1-
43
44 Rozdzial 4. Niezaleznosc zdarzen § 4.1. Definicja i przyklady 45

R o z w i a z a n i e. Przestrzen probabilistyczna tworza ciagi n-elementowe - Przyklad 7 (n zdarzen niezaleznych), Rozpatrzmy n-krotI).y rzut mo-
uporzadkowane wedlug starszenstwa ciagi dzieci. Wtedy wszystkie zdarze- neta. Niech zdarzenie Ak polega na tym, 'ze w k-tym rzucie wypadl orzel.
nia elementarne: sa jednakowo prawdopodobne i mamy #D = 2", #A = Zdarzenia Al, A2, ... , An sa niezalezne. W tym doswiadczeniu
= l + n, #B = 2"-1-1 i #
(A n B) = n (dokladnie jedna dziewczynka).
1
Zatem
[l = {w = (Wl,W2, ... ,Wn):Wi E {O,R}}, P(w) = 2n' Ak = {W:Wk = O}.
n+l 2n - 2 n
P(A n B) = P(A)P(B) q --2n .--2" = -2n q l + n = 2n-l q n = 3
Zatem P(Ak) = 2;:' = ~. Poniewaz
Jak widac, zdarzenia majace identyczny opis slowny sa raz zalezne, a. raz
nie. _ Ai, n Ai2 n ... n Aik = {w: Wi, = W'i2 = ... = Wik = O},

Definicja niezaleznosci n zdarzell musi byc, niestety, bardziej skompliko-


to dla dowolnego k i dowolnych l ~ il < i2 < ... < ik ~ n mamy:
wana, co ilustruja dwa przyklady zamieszczone po definicji. 2n-k l'
P(Ai, n A;, n ... n Aik) = ~ = 2k = P(Ai,)P(Ai2) .. · P(Ain),
Definicja 4. Zdarzenia Al,' .. , An nazywamy niezaleznymi, gdy
wobec tego zdarzenia Al, A2, ... , An sa niezalezne. _
P(Ai, n Ai2 n ... n Aik) = P(Ai.l ... P(Aik)·

dla l ~ il < i2 < ... < ik ~ n, k = 2,3, ... , n. Jesli zdarzenia Al" .. ,An sa niezalezne, to po zamianie niektórych z nioh
na zdarzenia przeciwne niezaleznosc zachowa sie. Ro,,"wijajac tQ obscrwAcj
Przyklad 5. Dla n ;;::3 z niezaleznosci zdarzen parami nie wynika ich otrzymujemy stwierdzenie, które pozwoli na upros7.czenie dowodu nic\f,ltlc:l-
niezaleznosc. Niech n = {Wl"",W4}, P(w.j) = Ai = {Wl,Wi+l}, 'i= l, nos ci z przykladu 7. Przyjmiemy konwencje uzyta do zapisu skladowych we
Czasem, dla = 1,2,3. Wtedy P(Ai) = ~, P(A, n Ai) = P(Wl) = dla 'i i= j, wiec l wzorze wlaczen i wylaczen: AD = A, Al = A'.
podkreslenia, ze zdarzenia sa parami niezalezne, Ale
Ilie chodzi Stwierdzenie 8. Nastep1ljace warunki sa równowazne:
o niezaleznosc
p<'l.raml1 mówi sie P(Al n A2 n A3) = P(Wl) = ~ =1= ~ = P(Al)P(A2)P(A3).
o wzajemnej ('i) Zdarzenia Al, ... , A" sa niezalezne;
niezaleznosci W wersji mniej abstrakcyjnej da sie to opowiedziec tak: w urnie sa cztery
zdarzen.
kule - niebieska, zielona, czerwona i pstrokata (niebiesko-zielono-czerwo- (ii) Dla kazdego c'iagu el,·.· en, gdzie ei E {O, 1}, i = 1,2, .. , n, zdarzenia
na). Szansa wyciagniecia kuli z kolorem niebieskim (a takze z zielonym lub Bl = A~l, ... , Bn = A~n sa niezalezne;
czerwonym) wynosi 1/2. Prawdopodobienstwo zajscia kazdej pary zdarzen
wynosi 1/4 i jest takie samo, jak szansa zajscia wszystkich trzech naraz. _
(ii'i) Dla kazdego ciagu el, ... en, gdzie ei E {O, l}, i = 1,2, ... n, zachodzi
r-ównosc

Przyklad 6. Z tego, ze pewne zdarzenia A, B, C spelniaja warunek P(A~1 n ... nA~n) = P(A~')"'" p(A~n). (l)

P(A n B n C) = P(A)P(B)P(C) Dowód. (i) => (ii). Skorzystamy z zasady indukcji. Dla n = 2 mamy
wcale nie wynika ich niezaleznosc parami. Niech na przyklad D = [0,1]2,
P(Al n A~) = P(Aj \ Al n A2) =
:F = B([O, 1]2), P = A. Jak latwo zauwazyc, zdarzenia
A jest miara
= P(Ad - P(Aj n A2) = P(A1)[1 - P(A2)] = P(Al)P(A~),
Lebesgue'a. A=B={(x,y):x>v}n[O,1]2, C={(x,y):x< !}n[O,1]2
wiec Al, A~ sa niezalezne. Na mocy symetrii takze A~, A2 sa niezalezne.
spelniaja zadana równosc, a zadne dwa nie sa niezalezne. _ Stosujac jeszcze raz powyzsz,~ rozumowanie do A~ i A2, otrzymujemy nie-
zaleznosc A~, A~. Teraz zakladamy, ze stwierdzenie jest prawdziwe dla n
Zeby skorzystac z definicji niezaleznosci, nalezy sprawdzic 2n - n - 1 rów- i dowodzimy je dla n+ l, stosujac jeszcze raz indukcje, tym razem ze wzgledu
nosci, ale na szczescie mozna to na ogól zrobic przy pomocy jednego rozu- na k - liczbe zdarzell zamienionych na przeciwne. Rachunki sa podobne do
mowania, jak pokazuje nastepny przyklad. pokazanych powyzej - zachecamy do samodzielnego ich przeprowadzenia.
I

>~
~--

lU Rozdzial 4. Niezaleznosc Zdal'7.()11 § 4.1. Definicja i przyklady 47

(ii) => (iii). Oczywiste. (iii) => (i). Wykazemy, ze równosc (l).iesl spel- Przyklad 13 (Nieskonczony ciag zdaJ.'zen niezaleznych). Niech
.)\ :'
nionaprzez (n - 1) zdarzen: Ai', ... , A~':"-ll. Otóz
" ~.H·,.F,P) = ([0,1], 8([0, 1]), A).

P(A~' n ... n ~~~1')= Dla kazdej liczby :1; E [O,/i] okreslmy jej rozwiniecie dwójkowe:
= P(Ai' n n A~~-l' n A~) + P(Ai' n ... n A~~l' n A~) =
= P(Ai1) .'P(A:'~-l') . P(AO) + P(Ai1) •••.• P(A~~-11) . P(A l) = x = 0
~ 2;-
d,,(x). = o, dl ()
71,=1
X , d2(:c ) , ...
= P(Ail) ',P(A~':..-n 1-

Dla liczb x majacych dwa rózne rozwiniecia bierzemy z definicji rozwiniecie


Argument indukcyjny i odpowiednie przenumerowanie zbiorów pokazuja, i,e nieskoilczone (tj. ilawierajace nieskonczenie wiele jedynek), wiec na przy-
(1) zachodzi dla dowolnych k zdarzeil A::' , ... , A~~", 1 o( i1 < ... < ik o( n, ~. klad ~ = O,OllU ... (a nie 0,1000 ... ).
skad juz wynika, (i). \. Niech An = {x E [0,1]: d" (x) = O}, n ='1,2, .:... Wtedy peAn) = ~.
Stwierdzenie 8 mozna w oczywisty sposób nieco wzmocnic: mianowicie
kazde ze zdarzen Bi z warunku ('ii) moze byc talcze równe 0 lub n, cr.yli
po prostu B; E O'(Ai) = {Ai, A~, 0, n}. Moglibysmy zatem powiedziec, ze
O'-ciala generowane przez niezalezne zdarzenia Ai sa takze niezalezne.
I II
Oto formalna definicja O'-cial niezaleznych w przestrzeni (n, F, P): I l ~ I I

Definicja 9. O'-ciala FI, F2, ... , Fn (Fj C F dla kazdego j) sa, niezalezne Zbiory il1 i ..12.
wtedy i
tylko wtedy, gdy dla dowolnych Aj E Fj, j = 1, ... , n jest
Poniewaz
P(Al n ... n A,,) = P(Al) ..... P(An).
Al n A2n ... n A" = {x E [O, l]: di (1;) = O, i= 1, 2, ... , n} = [O, 2~ J '
SLwicrd~,enic 8 mozna wyrazic w tym jezyku, a mianowicie
to P(Al n .....12
n ... n A,,) = 21n. Ogólniej,

Stwierdzenie 10. Zdarzenia Al, ..12, ... ,An sa, niezalezne wtedy tylko i
wtedy, gdy 0'(..11)"" ,00(An) sa, niezalezne, gdzie O'(Ai) = {Ai, A;, 0, n} sa
O'-cialami generowanymi przez Ai.
{:J; E [O,l]:di(:r.:) =ci,i= 1,2, ... ,n} = (n ~~~'8~+ n 1]
2'"

gdzie Ci =O lub Ci = l (przedzial jest z jednej' strony domkniety, bo roz-


Prawdopodobienstwo sumy zdarzen P(U~=l Ai) obliczamy na ogól ze wzoru winiecie jest niesk0l1czone). Wobec tego P(Bl n B2 n n Bn) = ,j;;, gdzie
wlaczen i wylaczen (twierdzenie 1.1.6). Dla zdarzen niezaleznych mozna to Bi = Ai lub Bi = A;. Niezalcznosc zdarzen A], ..12, , An wynika teraz ze
zrobic prosciej, korzystajac z praw de Morgana i stwierdzenia 8: stwierdzenia 8, bowiem jest spelniony warunek (ii). V\f efelccie ciag (Ai)~l
jest ciagiem zdarzen niezaleznych .•

Stwierdzenie 11. Gdy Al, ... ,An sa, zdQ.T'Zeniami niezaleznymi, to


Zadania

p(u,=1Ai) .=1A;) = l-ll(l-


= 1- p(n .=1 P(A;)). 1. Pokazac, ze wylosowanie z talii 52 kart asa wylosowanie karty czerwonej i
(kara lub kiera) sa zdarzeniami niezaleznyrni ..
2. A, B sa niezalezne i A U B = n. Wykazac, ze P(A) = 1 lub P(E) = 1.
Rozwaza sie tez nieskonczone ciagi zdarzen niezaleznych.
3. Czy z tego, ze A, E, C sa parami niezalezne wynika, ze a) AnE i C, b) AUE
i C sa niezalezne? .,
Definicja 12. Zdarzenia Al, ..12, ... nazywamy niezaleznymi, gdy dla kaz- 4. Zdarzenia Al, Az, ... AlG sa niezalezne i maja jednakowe prawdopodobien-
dego n zdarzenia Al, .....12,... , An sa, niezalezne. stwo p. Jaka jest szansa,' ~e:lz;J.jdziedokladnie jedno?

r-::I~_·:t--"!I--·7-Y-· '.,....'.~;;;I-" .;or_-. __ - _


48 Rozdzial 4. Niezaleznosc zdarzen § 4.2. Schemat Bernoulliego 49

5. Zdarzenia Al, .•. , An sa niezalezne i maja jednakowe prawdopodobienstwo i 15% nowych klientów, powodujacych wypadek z prawdopodobienstwem 0,4.
p. Jaka jest szansa, ze Prawdopodobienstwo, ze dany klient bedzie mial w ciagu roku wypadek jest
a) zajda wszystkie naraz? dra:niego niezmieune, niezaleznie od tego czy mial wypadek poprzednio czy
b) nie zajdzie zadne z nich? nie. Zatem prawdopodobienstwo, ze wybrany losowo klient bedzie mial wy-
c) zajdzie dokladnie jedno? padek jest równe 0,0685, a prawdopodobienstwo, ze bedzie mial drugi, jesli
wiemy, ze mial pierwszy, jest równe 0,3.516 (warto to obliczyc). Model za-
6. Adam, Bolek i Czesio rzucaja po kolei moneta. Wygrywa ten, który pierwszy
klada, ze nie ma nastepstw, a pomimo to spowodowanie wypadku zwieksza
wyrzuci orla. Znalezc szanse wygranej dla kazdego z graczy.
szanse powtórnego wypadku. Wyjasnic to.
7. Tenisista musi wygrac dwa mecze pod rzad z trzech. Moze grac a) z lepszym
i
od siebie, ze slabszym i znów z lepszym, b) ze slabszym, z lepszym znów ze
14. Wariant poprzedniego zadania. Kierowcy dziela sie na ostroznych (jest
ich 95%, i taki kierowca powoduje w ciagu roku wypadek z prawdopodobien-
slabszym. Który wybór daje wieksze szanse, jesli wyniki kolejnych meczów
stwem 0,01) i piratów (jest ich 5%, szansa na wypadek w ciagu roku .-- 0,5).
sa niezalezne?
Wybrany losowo kierowca nie spowodowal wypadku w roku 1998 ani 1999.
8. W meczu pilki noznej z prawdopodobienstwem t wygraja goscie, ~ gospo- Jaka jest szansa, ze spowoduje wypadek w roku 2000?
darze, a z.prawdopodobienstwem l
bedzie remis. Obliczyc prawdopodobiell-
stwo, ze w 14 meczach bedzie 7 zwyciestw gospodarzy i 3 remisy.
9. Na rysunku ponizej widac dwa systemy niezaleznie dzialajacych bezpieczni- § 4.2. Schemat Bernoulliego
ków. Prawdopodobienstwo przepalenia sie bezpiecznika przed uplywem czasu
T jest równe p. Obliczyc prawdopodobienstwo ciaglego przeplywu pradu Jak wyglada przestrzel l probabilistyczna dla n doswiadczell, wykonywanych
a) z A do B, b) z C do D w czasie T. niezaleznie, gdzie z j-tym doswiadczeniem zwiazana jest pri:estrzeó proba-
bilistyczna (nj,:Fj, Pj)? Wynikiem n doswiadczen bedzie ciag (Wl, , wn),
gdzie Wj jest wynikiem j-tego doswiadczenia. Zatem n = nI x n2 x x nn.
Jasne, ze :F = :Fl <:9 ... <:9 :Fn. Prawdopodobienstwo P powinno byc: takie,
A ----c=J-. B ze prawdopodobiellstwo zajscia zdarzenia Aj E :Fj jest równe Pj(Aj), 1.;',11.

P(AI X A2 X ... x An) = P(AI x n2 x x nn) x ...

c-·O-43-D Jak wiadomo z analizy matematycznej,


dopodobienstwo:
... x P(i1I
= PI(AI)' P2(A2)·

istnieje dokladnie jedno takie praw-


jest 0110 produktem miar Pl, ... , Pn, tzn.
X X

...
An)
·
=
Pn(An).

10. Niech a" == min(Pn, 1- Pn), gdzie p" E [0,1]. Wykazac, ze jesli I::'=l a", jest
P = P, <:9 P2 <:9 ... <:9 Pn·
rozbiezny, to nie istnieje przestrzen probabilistyczna dyskretna, zawierajaca
niezalezne zdarzenia A"A2, ... takie, ze P(An) == pn. Szczególnie waznym przykladem takiej sytuacji jest schemat Bemo~tlliego.
Schematem Bernoulliego bedziemy nazywac ci,ag niezaleznych powtórzell
Uwaga. Z tego zadania wynika; ze przestrzen dyskretna nie moze byc modelem tego samego doswiadczenia o dwu mozli wych wynikach, nazywanych umow-
dla nieskonczonego ciagu rzutów moneta. nie sukcesem i porazka. Poszczególne doswiadczenia bedziemy nazywac pró-
k
11. Owad sklada bami Bernoulliego.
k jajeczek z prawdopodohienstwem he-"", A > O. Potomek
wylega sie z jaja: z prawdopodobienstwem p, niezaleznie od iJmych. Znalei,c
prawdopodobienstwo, ze liczba potomków bedzie równa. l. Twierdzenie 1. Pmwdopudobienstwo zajscia dokladnie k sukcesów w sche-
12. Adam, Barnaba i Czeslaw strzelaja do tarczy; szansa trafienia wynosi p. Wia-
macie Berno'ulliego n pTób' z pmwdopodobienst1vem sukcesu w pojedynczej
domo, ze dwóch trafilo. Wybrac wlasciwa odpowiedz: a) jest wieksza szansa, próbie równym p wynosi (Z)l}(l- p)n-k ..
ze Czeslaw trafil; b) jest wieksza szansa, ze Czeslaw nie trafil; c) szanse sa
równe. D o wód. Umówmy sie, ze l oznacza sukces, O - porazke. Wtedy
13. Nastepstwa pozorne. Towarzystwo ubezpieczeniowe ma stalych klientów,
którzy powoduja - w ciagu roku - wypadek z prawdopodobienstwem 0,01 D = {O,l}n, P((al;'" ,an)) = pa,+ . .+a"(l_ p)n-(a,+..+a,,)
50 Rozdzial 4. Niezaleznosczdarzen § 4.2. Schemat Bernoulliego 51

Jesli Ak jest zdarzeniem, polegajacym na zajsciu k sukcesów, to W wyniku konstrukcji otrzymujemy ciag podzialów odcinka (O,l]

P(Ak) = L
(a" ... ,an):a) + ...+a,,=k
P((al"'" a.n)) = (~)pk(l - p)"-k .•
{Itt,.,i,,:ik E {O,I}},n= 1,2, ...
taki, ze zachodzi (l) i kazdy nastepny podzial 'jest drobniejszy od poprzed-
Pojawiaja sie naturalne pytania: jak skonstruowac przestrzen probabili- niego. '\ ,"
styczna dla schemat'u Bernoulliego o nieskonczonej ilosci prób? W szcze- Kazdy punkt x E (0,1] wyznacza jednoznacznie nieskonczony ciag zer i je-
gólnosci, jak zbudowac n dla nieskonczonego ciagu rzutów monety syme- dynek: (Xl, X2, ... ) taki, ze X;n = k, gdy x E It) ..,in_),k (xn jest dobrze
trycznej? Zdarzeniem elementarnym jest ciag (Wi)r:;l' gdzie Wi = ° lub 1. okreslone, bo odcin.ki otrzymane w n-tym kroku sa rozlaczne i ich suma jest Patrz zad, 1
Zatem zdarzen elementarnych jest nieprzeliczalnie wiele. Koncepcja przeli- calym odcinkiem (0,1]). Taki ciag odpowiada r,ealizacji schematu Bernoul-
czalnego zbioru zdarzElllelementarnych juz nie wystarczy (patrz tez zadanie liego nieskonczenie wielu doswiadczen, gdzie Xn = 1 informuje, ze w n-tym
10 z poprzedniego paragrafu). doswiadczeniu zaszedl sukces, zas .1;n = O-ze' zaszla porazka. Niech

Przyklad 2. Podamy konstrukcje modelu nieskonczonego ciagu niezalez- Ak={x:xk=l}= U I(k)"


'll,'L2 , ... ,'l/o.:-J ,l
nych prób Bernoulliego na przestrzeni probabilistycznej ((0,1], B((O, 1]), A). i),i2, •• ,ik-1E{O,1}

Trzeba pokazac, ze:


Unikamy w ten Musimy okreslic dla kazdego x E (0,1], czy zaszedl sukces czy porazka
sposó b rozwazania w n-tym doswiadczeniu, n = 1,2 ... i tak, by to byla realizacja doswiad- 1. P(Ak) = lAki =]l dla kazdego k ;;;. 1.
nieskonczonych
czen niezaleznych. Zrobimy to indukcyjnie. Bedziemy dzielic odcinek (0,1]
produktów miar
- por. uwaga 5. na odcinki lewostronnie otwarte i prawostronnie domkniete. W celu okre- 2. Doswiadczenia sa niezalezne.
slenia wyniku pierwszego doswiadczenia podzielimy odcinek (0,1] na dwa
prz.edzialy: Iil), /61), pierwszy o dlugosci p, drugi o dlugosci 1 - p ( gdy Ad. 1. Zobaczmy, jak powstaje zbiór Ak: po dokonaniu (k - l)-szego po-
dzialu odcinka (O,l] kazdy odcinek z tego podzialu dzielimy w proporcji
x E I?), to uznajemy, ze w pierwszym doswiadczeniu zaszedl sukces, gdy
]l : l - ]l i wybieramy wszystkie lewe odcinld powstalego k-tego podzialu.
x E 161), to porazka). Jesli ktos woli rachuilki:
Nastepnie (patrz rysunek) kazdy z nich znowu dzielimy na dwa przedzialy:
I?l, Ii26, oraz 1621, 1626 o dlugosciach odpowiednio p2 i p(I-]l) oraz (l-]l)p
i(l-p)(l-p)." .
P(A,,) = pC.'1,'2, U
.. ,'k-1 E{O.l}
Ii(~';2' .. ,ik_1,1)

'"
~ iI(k) ..
~111.21",~h-l,l I =p . '"
L-.t II(k~l).
tl,t2""ltk_l I = p.
'ii, ..,ik_l E{o,q i" ..,ik_1E{O,1}

(II I
Ad. 2. Na mocy definicji wystarczy pokazac, zewyniki doswiadczen od 1
(I l II I do n-tego sa niezalezne. VI!tym celu sprawdzimy, ,zejest spelniony warunek
(iii) ze stwierdzenia 4.1.8. Z (1) wynika, ze dla dowolnego ciagu Cl,' .. Cn,
gdzie Ci E {O,l}, 1 < < n, jest: i
Kontynuujemy konstrukcje indukcyjnie. Zakladamy, ze mamy podzial (0,1]
P(A~l n ... n A~") = P( {x: Xl = l - Cl,... ,Xn = 1- en}) =
na 2n przedzialów {It~2, ...,i,,: il E {O,l}} o dlugosciach
1-E),...•1-." I -- P I:~-
_- II(n) 1._1 (J -Ekl (l _ ]l)n- I:"-
k._l (l-Ek) --

II ..(n)
'll,t2,,··,tn I = pL.,k=l
,"",,11 ik
(l - "n ii-
p) n- L.,"=1'. (l) = P(A~')"'" p(A~n).

Dzielimy teraz kazdy z nich na dwa przedzialy, a mianowicie I,(n),. dzie- Krótko mOWJac,zdarzenie A~' n ... n A;'," jest .pojedynczym odcinkiem
l, 2'00'1 "n
z n-tego podzialu, który ma dlugosc "taka, jak trzeba" .
limy na dwa przedzialy !i(;,~l).,i",l i It~~)
.. ,iy"O o dlugosciach odpowiednio
Udowodnilismy zatem, ze ((0,1], B((O, 1]), A) moze byc przestrzenia proba-
illi21 ... ,in I . p oraz II(n).
II(n) il,i2, ... ,in· I ( l-
P). bilistyczna dla nieskOllczonego ciagu prób Bernoulliego.
52 Rozdzial 4. Niezaleznosc zdarzen § 4.2. Schemat Bernoulliego 53

Dla przykladu obliczmy w tej przestrzeni prawdopodobienstwo, ze w n Ai E Fi oraz Ai = s2i poza skonczona liczba wskazników i, natomiast P
pierwszych próbach zajdzie dokladnie k sukcesów. okreslone na cylindrach wzorem
'00
P(zaszlo dokladnie k zdarzen sposród A" Az, ... , An) =
P(Al X A2 X ... ) = IIl
i'=.
P(Ai)

= G)P(Al n A2 n ... n Ak n A~+1 n ... nA~) = (~)pk(l_ p)"-k.


(dobrze okreslone, bo P(Ai) = l poza skonczona liczba indeksów) rozszerza
Przedstawiona tu konstrukcja jest co prawda zmudna, ale za to niezalez- sie na F (tutaj trzeba skorzystac z twierdzenia z analizy o nieskonczonym
nosc odpowiednich zdarzen jest bezposrednio widoczna (z innym podej- produkcie miar).
sciem mozna sie zapoznac w zad. 11 i 12).
Drobna wade tej konstrukcji widac, gdy rozpatrzymy zdarzenia "wszyst- Zadania
kie próby zakonczyly sie sukcesami" i "wszystkie próby zakonczyly sie po-
razkami". Czytelnik zechce samodzielnie obliczyc ich prawdopodobienstwa 1. Rzucono 10 razy kostka. Jaka jest szansa otrzymania
i zapoznac sie z zadaniem 10. _ a) 6 oczek co najmniej raz?
b) 5 oczek dokladnie 3 razy?
Uwaga 3. Przypadek szczególny: p = ~ odpowiada przestrzeni probabi- 2. Dwie osoby rzucaja po n razy symetryczna moneta. Jakie jest prawdopodo-
listycznej dla nieskonczonego ciagu rzutów symetryczna moneta. Wtedy bienstwo, ze kazda z nich otrzyma te sama liczbe orlów?
w konstrukcji w (n + l)-szym kroku dzielimy przedzialy z n-tego podzialu 3. Rzucono 10 razy symetryczna kostka. Jakie jest prawdopodobienstwo, 1.0
na polowy. w pierwszym rzucie otrzymano szóstke, jesli wiadomo, ze
a) otrzymano 3 szóstki,
Mogloby sie wydawac, ze przy rzutach symetryczna moneta liczba orlów b) w nastepnych 9-ciu rzutach otrzymano szóstki?
i liczba reszek nie powinna róznic sie znaczaco, ze powinna byc mniejsza od
4. Obliczyc prawdopodobienstwo otrzymania parzystej liczby sukcesów w ciagu
pewnej ustalonej liczby, np. 1 miliona. Ale tak nie jest, co pokazuje ponizszy n prób Bernoulliego z pn,wdopoclobiellstwem sukcesu w pojedynczej próbie
przyklad. równym p.
*5. Jakie jest prawdopodobienstwo, ze liczba sukcesów w schemacie Bernoulliego
Przyklad 4. Rzucamy 2n razy symetryczna moneta. Niech 02n (odpo- n prób z p == ~ bedzie podzielna a) przez 3? b) przez 4? Czy mozna znalezc
wiednio R2n) oznacza liczbe orlów (odpowiednio reszek). Dla ustalonego k granice tych prawdopoclobiellstw, gdy n -> oo?
obliczyc limn->oo P(102n -R2nl 2k). ,;;;
6. Zadanie Banacha o zapalkach. Pewien matematyk nosi w kieszeniach
Rozwiazanie. Poniewaz 02n + R2n = 2n, to (lewej i prawej) po jednym pudelku zapalek. Ilekroc chce zapalic papie-
rosa, siega do losowo wybranej kieszeni. Jaka jest szansa, ze gdy po raz pierw-
n+k szy wyciagnie puste pudelko, w drugim bedzl~ k zapalek? (k == 0,1,2.", m,
P(102n - R2nl ,;;; 2k) = P(102n - ni,;;; k) = L
l=n-k
P(02n = l) = gdzie m jest liczba zap;dek w pelnym pudelku; zakladamy, ze w chwili po-
czatkowej matemc,tyk 11111. dwa pelne pudelka.).
7. Zadanie o podziale st~wkil. Szansa wygr~ia pojedynczej partii gry przez
gracza A wynosi p, i do' zakonczenia calej gry brakuje mu a wygranych partii;
m~kk (2n)
n+m l
22n';;; (2k+1) (2n)
n 22n =an· l jego przeciwnikowi brakuje b wygranych partii. Niestety, pojedynek musi
zostac przerwany. Jak sprawiedliwie podzielic. stawke?
Korzystajac ze wzoru Stirlinga, mamy an ;::::~ i granica prawdopodo- 8. Student rnusi poprawic oceny niedostateczne z dwóch przedmiotów. Szansa
Wzór Stirlinga: bienstw jest równa zeru. - poprawienia oceny z pierwszego przedmiotu w jednej próbie wynosi p, a dru-
n!"'~nne-n. giego - a. Zeby móc poprawiac druga ocene, trzeba najpierw poprawic
pierwsza· Poszczególne próby poprawiania sa niezalezne. Wiadomo, ze po
Uwaga 5. Analogicznie jak w przypadku skonczonej liczby doswiadczen
pietnastu próbach poprawienia oceny student jeszcze nie poprawil oceny
mozna pokazac, ze dla nieskonczonego ciagu niezaleznych closwiadczefl prze-
strzen probabilistyczna jest równa s2 = s21 X s22 X ... , F jest (l-cialem ge- lZadanie to w wersji symetrycznej bylo przedmiotem korespondencji Pascala z Fer-
nerowanym przez cylindry, tzn. przez zbiory postaci Al x A2 X .. " gdzie matem w roku 1654 i uznawane jest za poczatek teorii prawdopodobienstwa.
- Rozdzial 4. Niezaleznosc zdarzell

z drugiego przedmiotu. Jaka jest szansa - pod tym warunIdem - ze nie


§ 4.3. Lemat Borela-·Cantelliego 55

Uwaga 2. a) w E lim sup An wtedy i tylko ;wtedy, gdy w nalezy do nie-


poprawil jeszcze oceny z pierwszego przedmiotu? skonczenie wielu wyrazów ciagu (A,.J~=l·
9. Jakie jest prawdopodobienstwo, ze przy wielokrotnym rzucaniu para kostek b) w E liminf An wtedy i tylko wtedy, gdy w l~alezy do wszystkich wyrazów
szesciennych surrla oczek 8 wypadnie przed suma oczek 7? ciagu (A.n)~=l' poczynajac od pewnego miejsca.
10. Czy w modelu z przykladu 2 kazdemu nieskonczonemu ciagowi prób Ber- c) (liminfAn)' = limsupA:,.
noulliego odpowiada liczba z przedzialu (0,1]7 Udowodnic, ze tak nie jest.
d) (limsupAn)' = lirninfA~"
Scharakteryzow~~ takie ciagi prób i wykazac, ze nie prowadzi to do istotnych "
trudnosci, bo prawdopodobienstwa wszystkich zdarzen sa takie, jak trzeba .. D o wód. a) D la granicy ,gÓrnej. marny:
00
Inny opis konstrukcji z przykladu 2. Niech przeksztalcenie T: [O, l] -> [O, l]
bedzie dane wzorem ' w E limsupAn {=} Ym W
'1' E U An
n=m
{=} II'
dla O ~ x ~ p
T(x) = {X
Lx
l-p dla p < x ~ 1. {=} Ym3n=n(w);?lm w E An {=} 3(nk) i 00 w E An,o'
Oznaczmy Tn = '-----v------'
T o 1';0 ... o T. Niech co ma miejsce wtedy i tylko wtedy, gdy w nalezy do nieskon.czenie wielll A",
n raz)'
(oznaczenie: {An n.c.}, czyli An zachodzi nieskonczenie czesto).
dla O ~ x ~ p b) Dla granicy dolnej mamy:
!(x)=g dla p < x ~ 1. 00

*11. Wykazac, ze zdarzenia w EliminfAn {=} 3m = m(w) w E n


n=1TI
An {=} w E An dla n ~ m.

An = {w E [O,l]:! oTn(w) = l}, n = 1,2, ...


c) Z praw de Morgana:
sa niezalezne.

Jesli Czytelnik juz wie, co to jest zmienna losowa, moze rozwiazac .nastepujace
zadanie: lim sup A~,.= DlDO ntd,
DO
A.~ = LJ1
DO(
n \ nQn
DO)
An
DO DO

*12. Niech !,T beda jak w poprzednim zadaniu. Udowodnic, ze U o Tn) jest = n\ U
m.=ln=m.
n An = n \ liminf An·
ciagiem niezaleznych zmiennych losowych, przy czym dla kazdego n E N
PU o Tn = l) = p, PU o Tn = O) == l-p.
d) Oczywiste z punktu c.•

§ 4.3. Lemat Borela-Cantelliego Twierdzenie 3 (Lemat Borela-Cantelliego).

Lemat Borela-Cantelliego jest narzedziem pomocniczym, z którego bedzie-


(i) Jesli 2::=1 P(An) < 00, to P(limsup An) = Q.
my w dalszym ciagu wielokrotnie korzystac przy badaniu wlasnosci zacl1o- (ii) Jesli zdarzenia A1,A2,'" sa niezalezne i 2:::1 P(An) = 00, to
dzacych z prawdopodobienstwem 1. Dostarcza on informacji o prawdopo-
dobienstwach zdarzen typu "zaszlo nieskonczenie wiele zdarzen An". P(lim snp An) = 1.
Zaczniemy od definicji granicy górnej i dolnej ciagu zdarzell (An)~=l'
Uwaga 4. a) Z uwagi 2c wynika, ze limsup An = (liminf A~)', zatem

Definicja 1. Granica górna i odp. dolna ciq,g'u zdarzen (An) nazywamy P(lirnsupA,,) = P((liminfA~)') = l-P(liminfA~).
zdarzenia
DO DO DO DO
Stad teze punktu (i) twierdzenia mozna sformulowac w nastepujacy sposób:
l·lmsup A ,,=df n u An, lim inf An gJ; u n Ano
P(liminf A~) = l, tzn.
nl.=ln=m rn=l n=m
P(zachodzi skonczona liczba zdarze~ .4",) = 1.
56 Rozdzial 4. Niezaleznosc zdarzell § 4.3. Lemat Borela-Cantelliego 57

b) Warunek niezaleznosci w punkcie (ii) mozna oslabiac na rózne sposoby, Zadania


ale cos jednak trzeba zalozyc, bowiem jesli An = A i O < P(A) < l, to
~P(An) = 00 i limsupAn = A. 1. Zdarzenia Al, ... , An, ... sa niezalezne i maja równe prawdopodobienstwa.
Jaka jest szansa, ze zajdzie skoilczenie wiele zdarzen An?
D o w ó d twierdzenia. *2. Rzucamy nieskonczenie wiele razy symetryczna moneta. Niech An oznacza
zdarzenie, ze w pierwszych n rzutach bylo tyle samo orlów i reszek. Wykazac, Por. przyklad 6
(i) Korzystajac z tw. 1.7 o ciaglosci oraz z subaddytywnosci, otrzymujemy ze z prawdopoclobiellstwem l zachodzi nieskonczenie wiele zdarzen An.
00 00 (X) 00
Uwaga. zadanie staje sie latwe, gdy skorzystamy z teorii lancuchów Markowa.
P( nu
TIl=l n=m
An) = J~oo P( U An)
n=m
( J~~oo L
n=n/.
PlAn) = o,
3. W nieskonczonym ciagu prób Bernoulliego z prawdopodobienstwem sukcesu
w pojedynczej próbie równym p E (O, l) niech zdarzenie An polega na tym,
jako reszta szeregu zbieznego.
ze w próbach o numerach 2n, 2" + l, ... 2n+1_1 zajdzie kolejno n sukcesów.
(ii) Pokazemy, ze P(lim inf A~) = O, tzn. P(U:=l n~=m A~) = o. Wy- Udowodnic, ze jesli p < ~, to z prawdopodobienstwem l zajdzie skoncze-
starczy pokazac, ze dla kazdego m mamy p(n~=m A~.) = O. Korzystajac nie wiele zdarzen An, a idy p ;:, ~, to z prawdopodobienstwem l zajdzie
z twierdzenia o ciaglosci, niezaleznosci i oszacowania l + x :( eX, otrzymu- nieskoilczenie wiele zdarzen An.
jemy 4. Niech An beda zdarzeniami niezaleznymi, przy czym ?(A,,) = pn E (O, l).
N N Wykazac, ze zachodzi co najmniej jedno ze zdarzen An wtedy i tylko wtedy,
II II
00

P( n
n="fn
A~) = Nlim
__00
n=m
P(A~) = lim
iV-....oo
n=nt
(l - PlAn)) :(
gdy zachodzi nieskonczenie wiele zdarzen An.

N N
:( N-oo
lim II
n=m
exp(-P(An)) = lim exp(-
N~oo
n=m
L PlAn)) = o,

bo ~~=m PlAn) = 00 .•

Przyklad 5. VV nieskOl1czonym ciagu prób Bernoulliego z prawdopodo-


bienstwem sukcesu p E (0,1) w pojedynczej próbie, ciag PSSSP powtó-
rzy sie nieskonczenie wiele razy.
Niech An oznacza zdarzenie, ze w próbach o numerach n, n + 1, n + 2, n + 3,
n + 4 otrzymalismy PSSSP. Oczywiscie PlAn) = p3(1_- p)2. Nie mozemy
jednak zastosowac lematu Borela-Cantelliego bezposrednio do zdarzen A",
gdyz nie sa one niezalezne. Zeby obejsc te truclnosc, rozpatrujemy zda-
rzenia opisane przez rozlaczne ciagi prób: zdarzenia A5n, n = 1,2, ... sa
juz niezalezne i ~~=lP(A5n) = ~~=lp:I(1 - p)2 = 00, wiec z lematu
Borela-Cantelliego zajdzie nieskonczenie wiele sposród zdarzen (A5n), wiec
tym bardziej sposród (An) .•

Przyklad 6. Rzucamy nieskonczenie wiele razy niesyrnetryczna moneta.


Niech An oznacza zdarzenie, ze w pierwszych n rzutach bylo tyle samo or-
lów, co reszek. Wtedy z prawdopodobienstwem 1 zachodzi skonczona liczba
zdarzen An.

Istotnie, P(A2n-1) = O, P(A2n) = (2:)pn(1_ p)n ~ (4P~))n na mocy


wzoru Stirlinga. Wobec tego ~ PlAn) < 00 (bo p 1= ~) i teza wynika
z lematu Borela-Cantelliego .•
I
.j
§ 5.1. Definicja; rozklad zmiennej losowej 59

Zdefiniujemy teraz zmienna losowa o wartosciach wRn, która bedziemy


nazywali takze wekto'f'em losowym, n-wymiarowa zmienna losowa ..albo po
prostu zmienna losowa. Tej ostatniej nazwy bedziemy jednak najczesciej
uzywac w stosunku do zmiennej losowej o wartosciach w R.

Rozdzial 5 Definicja 1. Odwzo'f'o'wanie X: n -t R n nazywamy zmienna, losowa o war-


tosciach w R", .idl'i dla kazdego A E B(Rn) zhiór X-l (A) E:F. Przyjelo sie
okreslenie
Krótko mówiac, X jest zmienna losowa, jesli jest odwzorowaniem mierzal- Ilzmicnnl\, IttHOWII",
choc "ickl.ó, 'I,y
Zmienne losowe nym (n, F) w (Rn,B(R")).
Definicja zmiennej losowej gwarantuje, ze prawdopodobieilstwa wszystkich
twicl'd~l~l ~.{J
1lIl.lo1,n,lnl.y ','ówl

zdarzen zwiazanych ze zmienna losowa, czyli zdarzeil postaci X-l (A), gd7.ie fll'lIkcJII('I,
Inllowy<:h,
A E B(Rn), beda dobrze okreslone.
.JeSlizbiór n jest przeliczalny i F = 2[1, to kazde odwzorowanie X: n -t R"
§ 5.1. Definicja; '\ rozklad zmiennej losowej jest zmienna losowa. Taka i:lefinicje zmiennej losowej, gdzie n = 1., mozna
spotkac w szkolnych podrecznikach rachunku prawdopodobienstwa .
.Bardzo czesto z wynikiem doswiadczenia losowego wiaze sie w naturalny
Dla wektorów losowych mozna sformulowac pozornie slabszy warunek mie-
sposób pewna liczbe albo ciag liczb. Mamy wtedy do czynienia ze zmienna rzalnosci.
losowa·
Moze to byc liczba oczek przy rzucie kostka, suma oczek wyrzuconych Stwierdzenie 2. Jesli odwzorowanie X: n
-t Rn spelnia nastepujacy wa-
w kilku rzutach kostka, czas oczekiwania na autobus, itd. Viflasciwiewszyst- runek: dla kazdego 'ukladu liczb tl, t2, ... , t" E R zbiór
kie omówione wczesniej przyklady po niewielkiej adaptacji moglyby sie
znalezc na tej liscie, wraz ze wszystkimi znanymi Czytelnikowi grami lo- X-l((-oo,tl] X ... X (-oo,tn])
sowymi (ruletka, Toto-Lotek, trzy karty, bingo ...). Zmienna losowa bylaby
wyplata. Z kolei kazda sesja warszawskiej gieldy produkuje caly ciag liczb . nalezy do F, to X jest wektorem losowym. (czyli zrn'ienna losowa o warto-
Sa to kursy wszystkich (powiedzmy, prawie wszystkich) notowanych spólek. •.
. scwc h w Rn) .• L .- , .• "
{.)
A jesli w gre wchodza notowania ciagle? Teraz kursy moga sie zmieniac '.;$ .f ~' :;:.

w dowolnej chwili, i jesli nasze doswiadczenie losowe polega na obserwacji D o wód. 'Wystarczy zauwazyc, ze rodzina zbiorów
kursu ustalonej spólki przez pewien czas, to jego wynikiem jest pewna funk-
cja. Wobec tego naturalnym zbiorem wartosci zmiennej losowej moze byc {A C Rn: X-l (A) E F}
na przyklad przestrzen funkcji ciaglych (albo schodkowych) na odcinku. jest (l-cialem zawierajacym wszystkie zbiory postaci ( -00, tl] x ... (-00, tn],
Ogólniej, mozna rozpatrywac zmienne losowe o wartosciach w praktycznie a wiec wszystkie zbiory borelowskie. _ .
dowolnej przestrzeni, a nie tylko w R czy tez Rn.
Jak sie niebawem okaze, pewne proste charakterystyki liczbowe zmiennych Funkcja borelowska nazwiemy taka funkcje cp: Rn -l Rm, ze przeciwobrazy
losowych pozwalaja szybko ocenic oplacalnosc gier losowych; warto zatem zbiorów borelowskich w R m sa zbiorami borelowskimi w RT!.
zapoznac sie z dalsza czescia tego rozdzialu. Zlozenie wektora losowego z taka funkcja jest dalej wektorem losowym:
Kojarzenie doswiadczen z liczbami zalezy od subiektywnych ocen i potrzeb,
dlatego w jednym doswiadczeniu losowym moga pojawic sie rózne odwzo- Stwierdzenie 3. Niech X bedzie zmienna losowa o wartosciach wRn,
rowania X: n -t R, przypisujace kazdemu wynikowi doswiadczenia w E n a. cp: Rn -t Rm funkcja borelowska. Wtedy cp(X) .iest zmienna losowa o war-
tosciach w Rm .
liczbe rzeczywista. Na przyklad: wiele osób obserwuje kursy akcji na giel-
dzie. Kazdy z graczy ma inny zestaw akcji, wiec zysk (na papierze) kazdego
Gracz gieldowy Z nich bedzie inny..Mamy tu wiele róznych zmiennych losowych okreslonych D ow ód. Jesli B E B(Rm), to cp-l(B) E B(Rn), a poniewaz X jest zmienna
ma portfel akcji. na tej samej przestrzeni ~), co w naturalny sposób prowadzi do odwzorowa- losowa, to .
nia X: n -t R n, gdzie n jest liczba graczy. (cp(X)f-l(kJ) = X-l(cp-l(B)) E F_
~'.<•
58 . 1).

II"
60 Rozdzial 5. Zmienne losowe § 5.1. Definicja; rozklad Zmie1111ej losowej 61

platego, na przyklad, jesli X jest zmienna losowa, to Y = lXI i Z = eX sa Teraz zdefiniujemy rozklad prawdopodobienstwa zmiennej losowej. Odwzo-
zmiennymi losowymi. rowanie X: (n,:F) -+ (Rn, B(Rn)) umozliwia naturalny "transport" praw-
; Na zmiennych losowych mozna wykonywac wszystkie operacje, które sa wy- dopodobiellstwa P do przestrzeni Rn.
konywalne na funkcjach mierzalnych, i dalej pozostawac w klasie zmiennych
losowych. Definicja 6. Rozkladem pmwdopodobienstwa na Rn nazywamy kazda mia-
7'e probabilistyczna J1 na B (Rn).
Zmienne losowe o wartosciach w R sa zwyklymi funkcjami mierzalnymi, na
kt'6rych mozna wykonywac zwykle opera.cje algebraiczne: dodawanie i nmo- Definicja 7. Rozkladem prawdopodobienstwa zmiennej losowej X o war-
zenie, co ma zreszta naturalna interpretacje - chociazby zyski graczy giel- tosc'iach w Rn nazywamy rozklad pro.wdopodobienstwa I-'x, okreslony na
dowych, o których byla wczesniej mowa, mozna dodawac. Sarn zysk gracza B (Rn) zaleznosc'ia
jest wynikiem prostych operacji na innych zmiennych losowych.
I-'x(B) = P(X-1(B)), B E B(Rn).
Ogólniej: kazda funkcja Y: n -+ Rk, która da sie zdefiniowac za pomoca
, funkcji elementarnych i dzialan przeliczalnych (w tym lim, limsup, liminf, Zdefiniowana w ten sposób miara zawiera wszelkie interesujace z punktu
l ~I
sup, inf) na wektorach losowych X1,X2, ... jest k-wymiarowa zmienna lo- widzenia probabilistycznego informacje o zmiennej losowej X; o jej zbiorze
sowa (ostrzezenie: patrz zad. l). wartosci i
tym, jak prawdopodobienstwo jest na tym zbiorze rozlozone. Do-
Wazna umowa. Zmienne losowe X i Y równe z prawdopodobienstwem l kladniej, otrzymalismy nowa przestrzen probabilistyczna: (R n, B(R n), I-'x). Dodatkowy zysk:
sa nieodróznialne z punktu widzenia teorii, bowiem szanse przyjecia warto- Warto jeszcze raz podkreslic, ze rozklad prawdopodobienstwa nie musi byc zamiast
sci ze zbioru borelowskiego A sa dla obu zmiennych równe, co zapisujemy: kojarzony z konkretna zmienna losowa: rozkladem prawdopodobienstwa. na- L\bstrakc:yjJlcj
li prze~l;r'l:elli
P(X E A) = P(Y E A) dla wszystkich A E B(R"). Dlatego przyjmiemy zwalismy dowolna unormowana miare I-' na B(Rn). Czytelnik zechce sie
(n, J, 1')
H
umowe, ze napis X = Y oznacza równosc z prawdopodobienstwem l (ina- zastanowic, ja.k wtedy skonstruowac zmienna losowa, dla której I-' jest roz- praclljemy
czej: prawie na pewno), czyli P(X = Y) = 1. W paru przypadkach, w któ-
l"

kladem 'prawdopodobienstwa (albo krótko; rozkladem). w konkre\,lIcj


,
i.1
rych potrzebna bedzie równosc wszedzie, zostanie to jawnie powiedziane. Z
drugiej strony, czasem bedziemy chcieli podkreslic, ze X = Y p.n.
I uwaga dotyczaca oznaczen. P(X-l(B)) mozna zapisywac tak:
przestrzeni)
(R,I3(R),f.Lx),
np.

l::

Ze zmienna losowa wiaza sie w naturalny sposób dwa obiekty: generowane


P(X'-l(B)) = P( {w E [2: X(w) E B}) = P(X E B).

przez nia (T-cialo zdarzen oraz jej r'ozklad prawdopodobienstwa. Ostatniej, skrótowej notacji bQdziemy uzywac najczesciej. Fakt, ze zmienna
losowa X ma l'O'zklad prawdopoclobiellstwa iJ., bedziemy zapisywaC krótko:
Definicja 4. (T-cialem generowanym przez zmienna losowa X o warto-o X~I-'.
sciach w Rn nazywamy najmnie..jsze (T-cialo podzbiorów n, wzgledem x;tóTego Przypomnijury sobie teraz przyklad 1.1.10. Byla tam mowa o czasie oczeki-
X jest mierzalna.
wania na autobus. Ustalilismy, ze n = [0,(0) i P(A) = JA f(x)dx, A E:F.
Przyjmujac :F = B(R) otrzymamy sensowny model, jesli tylko f jest mie-
Czesc wspólna "Najmniejsze" (T-cialo, o którym tu mowa, to czesc wspólna wS7.ystkich rzalna wzgledem B(R). Zmienna losowa X bedzie sam czas oczekiwania,
rodziny u-cial jest (T-cial, wzgledem których X jest mierzalna. J3ed7.iemy je oznaczac przez zatem X(w) = w, w E [O, (0). W takim razie·
dalej u-cialem. (T(X). Oczywiscie (T(X) C :F. Mozna podac dokladna charakteryzacje zdfl.-
rzen, nalezacych do (T(X).
/lx(11) = L f(x) dx, A E B(R).
Stwierdzenie 5. (T(X) = {X-l(B); B E B(Rn)}. Powyzsza zaleznosc definiuje gestosc rozklad'u prawdopodob'ienstwa (albo
krócej -- gestosc pmwdopodobienstwa). Poniewaz umiemy calkowac wzgle-
Dowód. Oznaczmy:Fx = {X-l(B):B E B(R")}. Z wlasnosci przeciwo- dem miar'Y Lebesgl.le'a po R", warto przyjac definicje ogólniejsza:
brazów wynika natychmiast, ze ta rodzina zbiorów jest Il-cialem. Z definicji
Il(X) wynika, ze (T(X) C :Fx, poniewaz X jest mierzalna wzgledem :Fx. Definicja 8. Je.'ih p. jest Tozkladem prawdopodobienstwa na Rn i dla pew-
nej funkcji f: R'n -+ R calkowalnej w sensie Lebesgue 'a mamy
Zeby udowodnic zawieranie przeciwne, wezmy dowolny zbiór nalezacy do
:Fx. Jest on postaci X-l(A), gdzie A E B(Rn), zatem musi nalezec do (l)
kazdego (T-ciala, wzgledem którego X jest mierzalna. A to wlasnie oznacza, I-'(A) = j A f(x) dx, A E B(Rn),
ze :Fx C (T(X) .• to f nazywamy gestoscia rozklad1l 1-'.

II
Rozdzial 5. Zmienne losowe § 5.1. Definicja; rozklad zmiennej losowej 63
62

Teraz ze wzgledu na symetrie


Funkcje f przyjeto nazywac gestoscia, gdyz jest ona odpowiednikiem ge-
stosci masy w fizyce. Jesli f: R -+ R~to w punktach ciaglosci funkcji f ),.({x ER": .f2(:c) - .f1(x) <,O}) = O.
mamy
W takim razie .fI = h wszedzie, poza zbiorem miary zero.
J~-::f(s) ds - .eoo f(s) ds . p([x, x + h)) Na zakonczenie, jesli f spelnia warunki (i) i (-ii), to jest gestoscia rozkladu
f(x) = n-O
lim -=---'==-------~--
h = h_O
hm I1 . zdefiniowaDego prze:>, równosc (1) .•. ,

Rozklad; który ma gestosc, bedziemy nazywac rozkladem ciaglym. A oto Zajmiemy sie teraz rozklaclami z przeciwnego bieguna: rozkladami dyskret-
podstawowe wlasnosci gestosci: nymi. Niech X bedzie wynikiem rzutu symetry~zna kostka. Wtedy

Twierdzenie 9. Niech f bedzie gesto.<!cia rozkladu prawdopodobiensl,wa p, /.!x({'i}) = P(X = 'i) =~, gcly ~ = 1,2, ... ,6.
na Rn; Wtedy
Wlasciwie Rozklad {/,x jest skupiony na zbiorze {l, 2, ... , 6}, czyli
powinno sie
mówic
(i) JRn f(x) dx = (!(Rn) = 1. \. 6 l
O rozkladach (ii) f ~ O p. w. (czyl'i poza zbiol'em o mierze Lebesgll,e'a zero). p,x(A) = /J,x(A n {l, 2, ... , 6}) = :L ilIA(i).
'. i.=1
absolutnie
ciaglych (iii) Gestosc jest wyinaczona jednoznacznie z dokladnoscia do zb'ioró'l/J Ogólniej, bedziemy rozpatrywac rozklady skupione na zbiorze przeliczal-
wzgledem miary miary Lebesgue'a zero.
Lebesgue'a. nym (skonczonym lub nieskonczonym).
~Il Il ~I
Rozklady
Ponadto kazda funkcja}: Rn -+ R spelniajaca warunki Ci) i (ii) jest gesto- Definicja 11. R.ozklad p na R" nazywamy dyskT'etnym, jesli istnieje zbiór dyskret.ne
scia· p(S) = 1.
przeliczalny S C R", dla /,;);(JTi?go nazywa, sie czaseIn
skokowymi.
,óz z Lcgo, Ro:tklad. dyskretny daje sie opisac bardzo prosto, podobnie jak rozklad
IIjlllllllC gestosci Uwaga 10. Z twierdzenia g wynika, ze funkcja f: Rn -+ R jest gestoscia liczby oczek przy rzucic ko::;tka, wystarczy bowiem podac zbiór S i miary,
i ta.ll bed'i sie pewnego rozkladu prawdopodobie11stwa wtedy i tylko wtedy, gdy .f ~ O przypisane jego jednopllnktowym podzbiorom. Niech S = {Si: E I}, Pi = i
pojawiac
w najmniej
p.w. wzgledem miary Lebesgue'a i JRn f(x) dx = 1. i
= jJ,( {sd) dla E I, gdzie I jest przoliczalnyrll zbiorem wskazników, uzytym
stosownych do ponumerowania elemenLów zbioru S. \iVtedy
momentach, czyli D o wód. (ii) Istotnie, niech
na egzaminach. p,(A) = j./,(A n S) = I>i.lA(Si),
An = {x E Rn: f(x) < -l/n}, A = {x E Rn: f(x) < O}. iEI

Wtedy
O ~

gdzie )"(An) oznacza miare Lebesgue'a


i)"(A) = ),.(U~=l An) = O.
p(An) =
!
,An
f(x) dx ~ --)"(An),
l
n
zbioru An. Stad )"(An) = O, zatem
zatem pod,mie zbioru p~r {(Si,Pi): 'i E I} jest równowazne zdefiniowaniu
rozkladu p.. Dlatego w podrecznikach szkolnych rozkladem zmiennej losowej
nazywa sie zbiór par {(Si., Pi); 'i E I}, gdzie Pi > O', 'I:. i E I Pi = 1.
Jak sie niedlugo przekonamy (zad. 8), istnieja rozklady, które nie sa ani
ciagle, ani dyskretne.
(iii) Wystarczy zauwazyc, ze jesli f1 i h sa gestosciami rozkladu p, a Dla rozkladów prawdopodobie11stwa na R" mozna zdefiniowac dystryb1!-
ante: funkcje rzeczywista, która jednoznacznie wyznacza rozklad (czyli za-
Bn = {x E R":f1(x) - 12(x) < -l/n}, wiera pelna informacje o nim), a jednoczesnie jest obiektem prostszym do
badania niz rozklad.
to
Definicja 12. Dystrybunnta 1'Ozk/adu pmwdopodobie'nstwa p na R n nazy-
0= r (f1(x)
JBn n
- .f2(x)) dx ~ -~)"(Bn)'
wamy funkcje FI': R" -+ R, oheslona zaleznoscia
skad A(B,,) = '0, i podobnie jak w poprzednim punkcie,
FI-' (tl"'" t,,) = p(( -oo,tl] x ... x (-00, tn]).
A({X E R":f1(x) - 12(x) < O}) = O.

i <

l
64 Rozdzial 5. Zmienne losowe § ,5.1. Definicja:; rozklad zmiennej losowej 65

Uwaga 13. Jesli f.1x jest rozkladem zmiennej losowej X o wartosciach 7. Punkt ,T nazywamy punktem skokowym rozkladu).L, gdy ~l({X}) > O. Poka-
w Rn, dystrybu~nte F!,x bedziemy tez nazywac dystrybuanta zmiennej zac, ze rozklad prawdopodobienstwa moze miec co najwyzej przeliczalna
).L

losowej X i oznaqzac przez Fx. Wtedy liczbe punktów skokowych.


Sa d;"a style
Fx (tl , ... , tn) = P(X1 :::;; tl, ... , Xn :::;;tn). (2) 8, Niech).LI bedzie rozkladem ciaglym z gestoscia f(x) = l(o,I)(x), a ).L2 roz-
definiowania
dystrybuanty:
kladem jednop'unktowym skupionym w zerze: 2 ( {O}) = l. Pokazac, ze).L J.L

rosyjski - z = ~(f LI + fL2) nie ma ani rozkladu dyskretnego, ani ciaglego.


nierównosciami Na poczatku tego paragrafu wspomnielismy, ze mozna rozpatrywac zmienne lo-
9. a) Wykazac, ze jesli ).L jest rozkladem prawdopodobienstwa na R n, to
ostrymi w (2) - sowe o wartpsciach w prawie dowolnej pI·zestrzeni. R.ozsadny stopien ogólnosci
i amerykanski - uzyskuje sie dla zmiennych losowych o wartosciach w przestrzeni metrycznej, Konia z rzedem
).Lj(B) ~ ).L(Rx ... x R x B x R x ... x R), temu, kto wymysli
z nieostrymi. osrodkowej i zupelnej (zwanej czesto przestrzenia polska). Pozwala to w szczegól-
nosci badac z1nienne losowe o wartosciach w przestrzeniach Hilberta i Banacha.
'--v-"
j - t~ miejsce
i upowszechni
bardziej poreczny
Na przyklad proces Wienera, o którym jest mowa w rozdziale 13, jest zmienna zapis.
losowa o wartosciach w przestrzeni funkcji ciaglych na odcinku [O,l). gdzie B E B(R), jest rozkladem prawdopodobienstwa (nazywamy go (jedno-
wymiarowym) rozkladem brzegowym rozkladu ).L).
Ten styl W przestrzeni metrycznej E ma sens pojecie zbioru otwartego i naturalnym
amerykanski to O"-cialem jest rodzina zbiorów borelowskich B(E): najmniejsze O"-cialo, zawiera- b) Zdefiniowac rozklad brzegowy wielowymiarowy.
wlasciwie jace zbiory otwarte. Z1nienne losowe sa w tym przypadku odwzorowaniami mie- Zadanie 9b
10, Udowodnic, ze rozklad ~l na Rn jest dyskretny wtedy i tylko wtedy, gdy dla
atlantycki. rzalnymi (n,F) w (E,B(E)). najlepiej
Zreszta, jak
kazdego .i :::; n rozklad brzegowy ).Lj jest dyskretny.
rozwiazac
donosza, sytuacja Definicje i podstawowe twierdzenia o zmiennych losowych o wartosciach w prze- 11. Udowodnic, ze jesli rozklad ).L jest ciagly, to wszystkie rozklady brzegowe sa w pamieci.
jest na niektórych strzeni polskiej E uzyskuje sie bardzo prosto: z niniejszego paragrafu nalezy usu- ciag/'e.
obszarach plynna. nac wszystko, co dotyczy dystrybuant i
gestosci, a nastepnie napis "Rn" zastapic
12. Podac przyklad, ze implikacja odwrotna w zadaniu 11 nie zachodzi.
napisem "E". Zwrócmy uwage, ze te operacje przetrwa definicjf.\ ro:ddadu dys-
kretnego. 13. Podac 'przyklad, ze znajomosc rozkladów brzegowych nie wystarcza do od-
tworzenia pierwotnego rozkladu.

Zadania 14. Wektor losowy U = (X, Y, Z) ma nastepujaca wlasnosc: zmienna losowa


aX + bY + cZ ma rozklad jednostajny na [-l, l] (rozkladem jednostajnym na
odcinku nazywamy rozklad o stalej gestosci na tymze odcinku), jesli tylko
1. Wykazac, ze jesli (X"')"'EA sa zmiennymi losowymi, A - zbiorem nie przeli- 0.2 + /)2 + (;2 = l. Jaki rozklad ma U?
czalnym, to sUP"'EAX", nie musi byc zmienna losowa.
2. Wykazac, ze jesli X jest zmienna losowa, <p: R -> R jest funkcja rnil,rzalna , 15. Wykazac, ze jesli X ma rozklad dyskretny X ~ {(Xi,Pi)iE[}, a 'P jest funkcja
wzgledem (T-ciala zbiorów mierzalnych w sensie Lebesgue'a, to <p(X) nie mllsi boreiowska, to Y = <p(X) ma rozklad dyskretny:
byc zmienna losowa.
3. Udowodnic, ze X = (Xl, ... , Xn) jest wektorem losowym wtedy i tylko P(Y = y) = L
(n,<p(",,)=y}
Pn.
wtedy, gdy Xi jest zmienna losowa dla kazdego 'i :::; n.
4. Znalezc O"-cialogenerowane przez zmienna losowa X, gdy:
16. Wykazac, ze rozklady: geometryczny (w jednej z podanych wersji) i wy-
a) R.zucamy symetryczna kostka. X przyjmuje wartosc l, gdy wypadla pa-
kladniczy maja nastepujaca wlasnosc brak'u pam'ieci zwana tez wlasnoscia
rzysta liczba oczek, 2 - jesli nieparzysta. Markowa: jesli X jest zmienna losowa o danym mzkladzie, to
b) Losujemy punkt z kola K(a, l), X(w) = Iw - al.
5. Rozklad geometryczny. Wykonujem.y doswiadczenia Bernonlliego az do P(X> t + slX > t) = P(X > s),
chwili otrzymania pierwszego sukcesu. Niech X oznacza liczbQ wykonanych
doswiadczen, Y - czas oczekiwania na pierwszy s1.lkcfls.Wyznaczyc rozklady gdzie w p'rzypadlcu rozkladu ciaglego t, s E R+, a dyskretnego t, s E N.
zmiennych losowych X i Y. Wykazac, ze jedynym rozkladem ciaglym na,[O,oo) z wlasnoscia braku pa-
6. Rozklad wykladniczy. Przypuscmy, ze doswiadczenia opisane w zadaniu mieci jest wykladniczy, .a jedynym skupionyP'1 na liczbach naturalnych -
5 wykonuje sie n razy na sekunde, zas prawdopodobienstwo sukcesu wynosi geometryczny.
A/n, gdzie A':> O, a czas oczekiwania na pierwszy sukces, Xn, m.ierzy sie 17. Rozklad pierwszej cyfry zitaczacej. Wylosowac ok. 100 liczb z rocznika
w sekundach. Wyznaczyc dystrybuante zmiennej losowej Xn i zbadac jej statystycznego i sprawdzic, ile z nich ma pierwsza cyfre znaczaca 1, 2,
zachowanie przy n -> 00. 9. Wyjasnic wyniki. '
66 Rozdzial 5. Zmienne losowe § 5.2. Wlasnosci dystrybuanty rozkladu na R 67

Rozklad wykladniczy w demografii. Zmienna losowa o rozkladzie wyklad- przez Hal1eyaa róznily sie .od.'t~\l;ejGrannLa. Wolno :jednak podejrzewac, ze w cza-
niczym jest dobrym .qJ.odelem czasu oczekiwania na rozpad promieniotwórczy sach, gdy jedna epidemia dzumy pochlaniala. 30% ludnosci, a ocalala reszta byla
czastki. Nieco trudniej uwierzyc, ze byl to kiedys akceptowany moclel czasu zycia dziesiatkowana przez wojny, wykladniczy model czasu zycia byl bliski prawdy4.
czlowieka. W dzisiejszych warunkach postulat braku pamieci (który mozna takze vVarto jeszcze wspomniec, z~ Gra.unt oszacowal trzema nieza.leznymi metodami
sformulowac jako braI, starzenia sie ukladu) wydaje sie absurdalny w swietle liczbe mieszkanców Londynu5 na :i84 000. Bylo to efekLowne osiagniecie, zWa-
ogólnie dostepnych statystyk. Jesli nieujemna zmienna losowa X interpretowana zywszy, ze szacunki wahaly sie od 200 000 do 6-7· milionów. Graunt ustalil tez,
jako czas zycia ma wlasnosc braku pamieci, to przecietne dalsze trwanie ;i,ycia nie ze dziewczynki stanowia 13/27, czyli 48,15% noworodków.
powinno zalezec od wieku.
Tabele smierLelnosci sluzyly do wyceny rent dozywotnich. Prace Huygensa na te-
Przecietne dalsze trwanie zycia w chwili 1;mozna zdefiniowac forrnalnie jako sred- mat; wartosci oczekiwanej (o czym dalej), a takze Graunta i Halleya sa przykla-
nia wartosc X na zbiorze {X > t} minus 1;: dami zastosowaJ1 rachunku prawdopodobiel1stwa wykraczajacych poza gry hazar-
dowe. Jest to jU?,powa.zna.matematyka finansowa, bowiem przy jej nieumiejetnym

l
P(X >t) 1
{X>t} X dP - t ,
t ~ o. sLosowaniu mozna poniesc powazne straty:
{(nsa Lafa.rgc'Ct, 1,(,k dob7'ze znCtnCt pCtr-yzanom, na pewno prosperowalaby lepiej,
gdyby jej zalozyc'iele wziel'i w swoich mchubCtch pod uwage prawdy doktora Jfiller-
Wybieglismy tu nieco w przyszlosc, bowiem tego rodzaju srednimi bedziemy zaj-
meta. ;
mowac sie dopiero w rozdziale 6. Otóz wlasnosc braku pamieci jest rówllowazna
z tym, ze przecietne dalsze trwanie zycia jest stale (odpowiednie twierdzenie _o. Oblicza,li oni ,sm.icT(,elnosc weclu.g tCtblic BuffonCt, Parcieu i innych, które ustalono
patrz zad. 6.2.5). pr'zy wzieciu pod 'uwage wszystkich warstw ludnosci w kazdym wieku. Ale ponie-
waz ci, CO loku.ia kapitaly, zeby miec zapewniona p;zyszlosc, na ogól nie zaznali
n·iebezp·iecze·nst·11.Iwieku dzieciecego, a przywykli jada d regularnie, dobrze i
niekiedy
Tabela 1. Przecietne dalsze trwanie zyci~ w Polsce w 1997 rokUl. i
obficie, smierc nie nasLapila, nadzieje rozwialy sie spekulacje upadly6.
Wiek 15
45
30
60
40,4
54,5
16,1
27,1
62,9
20,8
33,9
48,2 68,5
77,0
O

§ 5.2. Wlasnosci dystrybuanty rozkladu na R

Gdyby czas zycia mieszkanca Polski mial rozklad wykladniczy, 60-letnia emerytka
Twierdzenie 1. Dystr1.jb'ltanf.a FI' r-ozkladu prawdopodobienstwa /L na. R.
ma nastepll,jace wlasnosci:
mialaby przed soba srednio nie 21, a 77 lat (bo taki jest sredni czas zycia). Z tabeli
1 widac jeszcze cos: o ile noworodek plci zenskiej srednio dozywa 77 lat, to kobieta
30-letnia - 78,2 lat, a 60-letnia - 80,8 roku. (i) F;" jest T/:ierna.lejaca.
Oczywiscie
Pierwsze znane tabele smiertelnosci zostaly opublikowane przez Johna Graunta ('i-i) limt~oo F/"U) = l; limt_-oo 1;~(i) = Q.
dystrybuanta (
w 1662 roku. Opieraly sie one na tygodniowych zestawieniach chrztów i pogrze- russe jest
bów, prowadzonych przez londynskie parafie od 1603 roku. (i'ii) J.~" jest pmwostroT/,nie c'iqgla. lewostronnie
ciagla.
Tabela 2. Liczba osób dozywajacych do danego wieku wg. Graunta2 D o w ó d. Zaczniemy od ogólnej uwagi o granicach: .jesli chcemy wykazac, ze
lirnhtó' f(t) = g, wystarczy udowodnic, ze dla kazdego ciagu (tn) monoto-
Wiek
Liczba osób i l
ll'icznego zbieznego do io od strony dodatniej (tj. in to) mamy f(tn) -+ g.
3E. Balley, An Estimate o[ the Degrees o[ Mortality o[ Mankind Dmwn Jrom the
Gmio"s Tables ol Bi?,th.• and Funemls ol the Gity o[ 13reslau, PhiL Trans. Royal Soe., vol.
Mozna przypuszczac (jak zauwaza Hacking), ze tabela powstala w prosty spo- 17 (1693), ss. 596-610, 654-·656.Rejestry pogrzebów, uw~gJedJliajacewiek, prowadzono
sób: Graunt zalozyl, ze poczawszy od wieku 6 Jat szansa. przezycia nastepnych we Wroclawiu od 1584 roku (patrz [HJ], tamze tablice Halleya).
10 lat jest stale równa 5/8 (to jest równowazne zalozeniu o braku pamieci) i za- 4Nie kazdy oczywiscie mial tak samo i,le. Z danych Williama Petty'ego wynika, ze
w ciagu roku w Londynie umieral l czlowiek na 30, na wsi - l na 37, w Rzymie - l
okraglil wyniki do liczb calkowitych. Nie jest jasne, jak dalece te da.ne odbiegaly
na. 40, a wsród czlonków pa.rlamentu -- l na 50 (por. 1l\iIAJ-2],s. 71).
od stanu faktycznego. Wiadomo; 'ze nastepne znane tabele smiertelnosci, ulozone 5J. Graunt, Natural and Political Observations u.pon the Bil/s oj Mortality, London
1662, patrz tez [MAJ-2], s. 71. '"
lZródlo: Maly Tacznik statystyczny, GUS, Warszawa 1999. 6 Anthelme Brillat-Savarin, Physiologie dIJ.goilt O" me.ditations de gastronomie tmns-
Hacking, The Emergence oj P7'Obability, Cambridge University Press, 1975. Tabele
21. cendante, 1825, przekl. pol. Joanny Guze: Fizjologia sma.k·u, wyd. III, PI\I\T,Warszawa
cytujemy za [SNE], s. 229. 1996, ss. 123-124..
68 Rozdzial 5. Zmienne losowe 69
§5.3. Wlasnosci dystrybu".'\'y ,'ozkladu na Rn.

Gdyby tak nie bylo, istnialaby liczba c: > O i ciag Sn ---+ t taki, ze Sn > t oraz Zadania
dla dostatecznie duzych n byloby If(sn) - gl > c:; wtedy jednak bez trudu
mozna by bylo wybrac podciag monotoniczny snk o tej samej wlasnosci. 1. Udowodnic, ze jesli funkcja F: R --t R ma 'wlasnosci l, 2 i 3 dystrybuanty,
to jest dystrybuanta miary, która na ciele A, skladajacym sie ze zbioru pu-
Analogiczna uwaga pozostaje w mocy, gdy t ---+ ±oo.
stego i zbiorów postaci U~=l(ai, bij, -00 :-;:;ai < bi :::; 00, gdzie odcinki
(i) Oczywiste, bo jesli t < s, to (-00, t] C (-00, s]. wystepujace w sumie maja rozlaczne domkniecia, jest okreslona równoscia Niestety, zbiór
pusty nie jest
n
(ii) Na mocy poprzedniej uwagi wystarczy wziac tn T 00. Wtedy R jest takiej postaci.
suma wstepujacej rodziny przedzialów (-00, tn] i z twierdzenia 1.1.7 o cia- p.(U(a;, bij) = I)F(bi) - F(ai)],
glosci mamy i=l i=l

00 gdzie przyjmujemy F(-oo) = O, F(oo) = l.


lim
n~oo Fj.t(tn) = lim
n-rOQ p,( (-00, tn]) = p,( U (-00, tn]) = I.L(R) = 1. 2. Udowodnic, ze jesli F ma wlasnosci l, 2 i 3 dystrybuanty, to funkcja
Funkcja 1
n=J.
f(s) = sup{1L:F(-u) < s} wyraza sie takze
wzorem I(s) =
Podobnie w przypadku granicy w -00: niech :-n .l -00. Rozpatrujemy zste- = inf{u: F(u) ~ s}.
jest dobrze okreslona na O = (O, l); jesli za prawdopodobienstwo na O przyj-
pujaca rodzine przedzialów (-00, tn], któryc~l czesc wspólna jest zbiorem
miemy miare Lebesgue'a, to f bedzie zmienna losowa odystrybuancie F.
pustym i jeszcze raz korzystamy z twierdzenia o ciaglosci.
3. Niech }~" bedzie dystrybuanta rozkladu J.1. Udowodnic, ze
(iii) Teraz tn .l t i n~=l (-00, tn] = (-00, korzystamy
I;]; z twierdzenia
o ciaglosci, podobnie jak w poprzednim punkcie. _ /1((-00, x)) = F,,(x-), J.1( {x}) = FI" (x) - FI"(x- ).

4. Dystrybuanta rozkladu prawdopodobienstwa J.1 dana jest wzorem


Twierdzenie 2. Jesli fzmkcja F: R ---+ R spelnia war'unkj U), (oii) 'i (-ii'i) ,
to jest dystrybzw.nta pewnego rozkladu.
Fl" (x) _
-
0,1
0,4
+
+ xx dla O::::;x < 0,5,
dla 0,5 :::; x < 0,55,
Dowód jest rutynowym zadaniem z teorii miary (zad. l). l
{OdIa dla x < O, ?
0,55.
Zmienna losowa, dla której F jest dystrybuanta, mozna otrzymac na dwa
sposoby. Jezeli p, jest rozkladem prawdopodobienstwa odystrybuancie .P Wyznaczyc J.1( {1}), 11([0, 1]),f,((0,0,55)).
otrzymanym z tw. 2, to zmienna losowa okreslona na przestrzeni probabi- 5. Niech f' bedzie rozkladem prawdopodobie11stwa na R. Wykazac, ze XQ jest
listycznej S1 = R, :F = B(R), P = p, wzorem X(w) = w ma dystrybuante punktem skokowym wtedy i tylko wtedy, gdy dystrybuanta FI" jest niecia-
J.1

Fx =F. gla w Xo·


Drugi sposób nie odwoluje sie do twierdzenia 2, a co wiecej, daje jego al- 6. Wyznaczyc rozklad zmiennej losowej Y = 3X - 5, jezeli X ma rozklad wy-
ternatywny dowód. Jesli F jest ciagla i scisle rosnaca, konstrukcje latwo kladniczy z parametrem ty.
wymyslic. Niech X ma rozklad jednostajny na [O, l]. Znajdziemy funkcje f, 7. Podac przyklad dystrybuanty, której zbiór punktów nieciaglosci jest gesty
dla której wR.
8. Zmienna losowa X ma rozklad jednostajny na odcinku [0,2] (czyli rozklad
P(f(X) :::;;t) = P(X :::;;rl(t)) = r1(t) = F(t). o gestosci f(t) = ~1[o,2](t)). Znalezc rozklady zmiennych losowych Y
= min(X, X2) i Z = max(l, X).
Wystarczy przyjac f = F--l, i wtedy wszystkie przejscia sa poprawne.
Zmienna losowa o t-Jzkladzie jednostajnym moze byc np. funkcja h(x) = x
na odcinku (O, l), który jest tu zbiorem zdarzen elementarnych, a praw- § 5.3. Wlasnosci .dystrybuanty rpzkladu na Rn
dopodobienstwem jest miara Lebesgue'a, obcieta do tego odcinka. Widac:
teraz, ze rozwiazanie mozna opisac prosciej: wystarczy wziac funkcje F-l W tym rozdziale wykazemy, ze dystrybuanta ..wyznacza rozklad prawdopo-
na odcinku (O, l) zmian~ Lebesgue'a. dobienstwa jednoznacznie. Zaczniemy od zbadania wlasnosci dystrybuanty
W ogólnym przypa~lku mozna znalezc namiastke funkcji odwrotnej do dys- rozkladu na Rn, które beda, jak sie nalezalo.spodziewac, podobne do wla-
trybuanty (zad. 2)., snosci dystrybuanty rozkladu na R.
70 Rozdzial 5. Zmienne losowe § 5.3. Wla.snosci dystrybua.nty rozkladu na Rn 7l

Twierdzenie 1. Dystryb'u.anta FI' T'Ozklad'u.prawdapodabienstwa J1. na Rn Udowodnimy teraz, :l,edystrybuanta wyznacza jednoznacznie rozklad. Sko-
ma rwstepnjq,ce wlasnasci: rzystamy z taJ< zwanego lematu o 7l'-i A-ukladach7. Bedziemy rozpatrywac
rodziny podzbiorów ustalonej przestrzeni n.
(i) Flt jest niemalejq,ca wzgledem kazdegO' ar'[j'u.mentn.
Definicja 3. Radz'ina zbior'Ów U jest 7l'-ukladem, jesli
(ii) FI'(Xl,"" xn) ..'....0, jesli infi Xi -+ 00 (czyli Xi -+ -00 dla prz1/,rwj-
mniej jednego argnmentu), FI'(Xl,' .. ,xn) -+ l, jesli infi :Di -+ 00. A, E E U => A nE E U.

(iii) F~ jest prawastronnie C'iq,gla,


Definicja 4. Radzina, zbiar'Ów L jest A-'ukladem, jesli
(iv) Jesli X" ::::; y" dla k = 1, ... ,n, ta W 1I1,f\mLlIl"l.ll

Pojawiaja sie 1:u


wartosci
C'i) n E L. IlJOiIlU. Lldt~,11
Hp{lI,ICI1~ 1111\('(/ 111l1t

2:.)-1)2:::=1 ekFI' C'U(cl , ... ,cn)) ~ O, (1) (J1<r'uAllIlIl"


dystrybuanty w
wierzcholkach (ii) Jesl'i A, E E L i E c A, ta A \ E E L. '\-ukl/ld(,w.
kostki gdzie
n- wyrn iarowej.
.I ,;
(iii) Jesli Ai E L dla i= 1,2, ... araz Al C .A2 C ... C An C "'1 ta
(iv) ma prosta
interpret.acje:
U(Cl"'" cn) = (clXl + (1- Cl)Yl,'" ,E,,:Cn + (1- cn)Yn), U:l Ai E L.
miara kostki ma
byc nieujemna. zas sumawa.nie przeb'iega po zbiarze {(Cl, ... , cn): Ci E {O, l}}. Uwaga 5. Jesli rodzina zbiorów jest jednoczesnie i
7l'- A-ukladem, to jest
a-cialern.
D O wód. Wlasnosci (i)-(iii) dowodzimy tak samo, jak dla rozkladu /-l na
R (twierdzenie 5.2.1), Czytelnik zechce potraktowac dowód powyzszego jako zadanie (zad. 3).
A by udowodnic zauwazmy, ze dla
(iv) A" = (-00, x"J, Ek = (-00, Y/c], 11.=
U;;=l Ak, E = n~=l Ek mamy ,
v'
Lemat i
6 (O 7l'- A-ukladach), Je.gli A-tlklad L zawiera 7l'-uklad U, to L
n zawiem O'(U), czyi'; O'-ciala generowane'p'f'zez U.

\',\ O::::;P(E n A') = P(E) - P(


k=l
U (Ak n E)),
o' D o w ó d, Niech Lo = L(U) bedzie naj mniejszym A-ukladem zawierajacym Tego rodzaju
lematy wystepuja
U. Udowodnimy, ze Lo jest 7l'-ukladem.
co na mocy wzoru wlaczen i wylaczen daje lewa strone W7,Oru (1) .• równiez pod
V\! tym celu rozpatrzmy najpierw rodzine nazwa lematów
o klasach
Wprowadzajac oznaczenie
monotonicznych.
c= {A: A n E E Lo dla kazdego E E U}.
,dk)F
Uh JA (x 1,·· ." X 71. )- -

.Jasne jest, ze U C C, bo U jest 7l'-ukladem. Ponadto rodzina C jest A-ukla-


= FI'(Xl,'" ,Xk-l,Xk + h,Xk+l, ... ,Xn) - }i~(Xl,'" ,Xn),
dem. Sprawdzenie trzech warunków jest proste:
mozemy (1) zapisac w na.stepujacej formie; jesli h/c ~ O, Xk E R, l ::::;k ::::; n,
to (i) n E c, bo U C Lo;
(1) (2) ···l:::.hnFI'
I:::.h11:::.h2 (n) ( ;r;l,""X" ) ~O.
(ii) Niech U, V E C i V C U. Wtedy vnE C UnE i
Operatory I:::. sa przemienne, co latwo udowodnic indukcyjnie.
(U \ V) n E = (U n E) \ (V li E) E Lo.
Uwaga 2. a) Warunek (i) wynika. z warunku (iv).
7Lemat ten pojawil sie po raz pierwszy w pracy W. Sierpit'lslciego Un theoreme
b) Dla n = l warunek (iv) wynika z warunku (i), ale dla n > 1 nie jest to generale sur les familles d 'ensemble, Fundamenta Ma.thematicae 12 (1928), ss. 206-210.
prawda (zad. 2). Dla potrzeb rachunku prawdopodobiet'lstwa odkryl go ponownie E. B. Dynkin.
72 R.ozdzial 5. Zmienne losowe § 5.4. Dystrybuanta a gestosc 73

(iii) Sprawdzamy, ze mozna wykonac monotoniczne przejscie do granicy. Dowód. Definiujemy p na (x,y] wzorem
Niech (Ai) bedzie wstepujaca rodzina zbiorów ze, co oznacza, ze
A.i n B E Lo dla kazdego B E U oraz i = 1,2, .... Wobec tego p ((. x,y ]) -_ (1)
6.h1 ... (n) F
6.hn ( X;l,'" ,xn),

gdzie hi = Yi - Xi > O. Warunek 4 zapewnia, ze p((x,y]) ;;:. O. Dalej

(QAi) nB=Q(AinB) postepujemy ana.logicznie jak dla n = 1 (patrz zad. 5.2.1) .•

nalezy do A-ukladu Lo. Uwaga 9. W twierdzeniu 7 udowodnilismy w istocie, ze jesli dwa roz-
klady prawdopodobienstwa sa równe na elementach 7r-ukladu generujacego
Wiemy teraz, ze jesli A E Lo i B E U, t.o A n B E Lo. lT-cialo T, to sa równe na calym T.
Drugi krok dowodu jest w pelni analogiczny do pierwszego. Trzeba wykazac,
ze jako B da sie wstawiac zbiory z Lo, zachowujac powyzsza implikacje. Zadania
W tym celu rozpatrujemy

C = {B: A nB E Lo dla kazdego A E Lo}.


1. Niech F bedzie.dystrybuanta pewnego rozkladu J.l niech F(t) = i foo g(x) dx
dla pewnej funkcji g. Wykazac, ze g jest gestoscia rozkladu /-l.
i jak poprzednio, dowodzimy ze C jest A-ukladem zawierajacym U, wiec 2. Udowodnic uwage 2b.
i Lo. Ostatecznie, jesli A E Lo i B E Lo, to A n B E Lo, zat.em Lo jako A- 3. Udowodnic uwage 5.
j 7r-uklad jest lT-cialem (uwaga 5), co konczy dowód .•

Twierdzenie 7. Jesli p 'i 1/ sa Tozkladami pm'Wdopodobienstwa na R''' § 5.4. Dystrybuanta a gestosc


i }~"= Fl/' td p(A) = lI(A) dla A E B(Rn).
Jesli istnieje gestosc g rozkladu p na R, to oczywiscie
D o wód. Z definicji dystrybuanty wynika, ze p(A) = lI(A) dla z:biorów A
postaci (-00, tl] x ... x (-00, tn]. Oznaczmy rodzine tego typu zbiorów
przez U. Jest ona 7r-ukladem. Dalej, niech F,"(t) = l= g(x) dx.

W praktyce czesto dana jest dystrybuanta i nalezy na jej podstawie odtwo-


L = {A E B(Rn): p(A) = l/(A)}.
rzyc gestosc. Z powyzszego wzoru wynika, ze F' = g p.w., nie jest jednak
L jest A-ukladem, co wynika z elementarnych wlasnosci prawdopodobien- prawda, ze w ogólnym przypadku calkujac F' odtworzymy F. Bedzie tak
st.wa; dla przykladu sprawdzmy warunek 2: jesli A, B E L i A C H, to dla funkcji F absolutnie ciaglych (por. np. [RUD-l], tw. 8.17) ..
Zajmiemy sie uzasadnieniem praktycznej - i pewnie zgodnej z pierwszym
p(B \ A) = I.(B) - j.«A) = ,/(H) - lI(A) = l/(H \ 1'1).
odruchem .-- nastepujacej recepty na g: nalezy zrózniczkowac F gdzie sie da
W takim razie L zawiera lT(U) = B(Rn) .• (a da sie prawie wszedzie, bowiem F jest monotoniczna) i jesli otrzymana
funkcja ma calke po (-00,00) równa 1, t.o jest gestoscia (por. zad. 5.9.11
Lemat o 7r- i A-ukladach przyda sie jeszcze, a za kazdym razem schemat odystrybuancie Cantora). Oto odpowiednie twierdzenia:
dowodu, korzystajacego z tego lematu, bedzie ten sam: pewna równosc
z natury rzeczy bedzie spelniona dla rodziny zbiorów tworzacej A-uklad, Lemat 1. Niech F: R ---+ R bedzie niemalejaca i pm'WostTonnie ciagla. Je-
a ponadto nietrudno bedzie ja sprawdzic dla prostych zbiorów, tworzacych sli F' 'istnieje prawie wszedzie, to dla dowolnych a ib Istnienie F' p.w.
7r-uklad (por. zad. 1). udowodnimy w
zad. 11.6.1.
Okazuje sie, ze funkcja o wlasnosciach
dystrybuanta
takich jak dystrybuanta jest juz
pewnego rozkladu (i jak wierny z tw. 7, dokladnie jednego). lbF'(S) ds (; F(b) - F(a).

Twierdzenie 8. Niech F spelnia warunki (i)-(iv) twieTdzenia l. Wtedy Dowód. Niech G(x) = fax F(s)ds, x E R. Poniewaz F jest niemalejaca,
istnieje taki Tozklad pTawdopodob'ienstwa j.< na R n, ze F = FI"' ilorazy róznicowe ponizej sa nieujemne i zadana nierównosc wynika z lematu
74 Rozdzial 5. Zmienne losowe § 5.5. Gestosc a odwzorowania gladkie 75

Fatou oraz prawostronnej ciaglosci funkcji F: Zadania


l' 1. Ciagla dystrybuanta P ma cia!)la pochodna g a) wszedzie, b) poza zbiorem
F'(s)ds= liminf nI_ ds':;;
.jb 1b n-i'OO F(s+l)-F(s) Z bez punktów skupienia. Wykazac, ze g jest. gestoscia dla dystrybuanty P.
a a n
2. R.ozwiazac zad. l bez zalozenia o ciaglosci g.
=
+ l)l'n -
',' ." .:;; lnn mf n ds 3. X ma rozklad N (O,l) (definicj,~ w § 5.10). Wyznaczyc dystrybuanty i (jesli
n-+oo j'ba F(s F(s)
_, .' 'J ;;.: :).". _
I" istnieja) gestosci dla a) Y = eX, b) Y = X2

~, = ..
llInlnf
G(b+ l)
n
- G(b) - G(a+ l)
n
+ G(a) = 4. Czy zmienne losowe z zad. 5.2.8 maja gestosc?
'~'
n-+oo .!
n
§ 5.5. Gestosc a oqwzorowania gladkie
" [ .ib+.l"F(s)
= l~rr!.~fn ds -1 "P(s)
a+.l] ds = F(b) - F(a).
Jesli zmienna losowa X ma rozklad ciagly, to, Y = rp(X) moze, choc nie
Prawostronna ciaglosc funkcji F zostala uzyta w ostatniej równosci. Dli. musi, byc lypu ciaglego (zad. l). Zajmiemy sie przypadkiem, gdy rp jest od-
malych h > O wartosci funkcji podcalkowej na przedziale [b, b + h] (odp. wzorowaniem gladkim i znajdziemy zaleznosc miedzy gestosciami X i rp(X).
[a, a+h]) sa bliskie P(b) (odp. F(a)). To samo stosuje sie zatem do srednich Jest to szczególny przypa.dek zadania, polegajacego na wyznaczeniu roz-
po obu przedzialach. _ kladu <p(X), gdy znamy rozklad X. Czesto zadanie to wygodniej jest roz-
wiazywac :7,3. pomoca c\ystrybuant, jak w poprzednim paragrafie.
Z lematu wynika natychmiast
Stwierdzenie 1. Jesli zmienno. losowo. X mo. 'rOzklad ciagly o gestosci f
Wniosek 2. Jesli F spelnia zalozenia poprzedniego lemat?1" a ponadto 'i X(n) C (0,,11), funkcja rp: (a, b) --> R jest klasy CI oraz ip'(x) =I- O dla
x E (0., li), 1,0 zmienna losowa Y = rp(X) mo. rO,zklo,d c'iagly o gestosci
lim F(t)
t-DO
= l, lim F(t) =
t--oo O,
g(y) = f(h(y))lh'(y)ll<p(J)(Y),
to gdz'ie h(s) = rp-l(S), J = (a,b).

[tDOP'(s) ds .:;;P(t), 1DO


F'(s) ds .:;; 1- P(t), D o w ó d. Zaló:iany, ze rp jest rosnaca.. ViTtedy, korzystajac z twierdzenia
o callcowaniu przez podstawienie, mamy dla y E ip(.T):
Twierdzenie 3. Jesli F jest dystr1Jbll,anta, F' 'istn'ieje pmw'ie wszedzie ..
oraz
Fy(V) = P(X ~ rp-l (V)) = l'
. <p-l(_DO,y]) f(x) d.T; =
= l,
to F' .jest gestoscia rozkladu
[: F'(s) ds
o dystrybuancie F.
L~ f(rp-l(V,)) 'l(rp-l),(u)1 dtt.
Podobnie postepujemy, gdy rp jest scisle malejaca. _
D o wód. \V swietle wniosku 2 wystarczy wykazac, ze Przyklad 2. Ze stwierdzenia l otrzymujemy wniosek, ze liniowa trans-
t formata zmiennej losowej o rozkladzIe normalnym ma rozklad normalny.
W szczególnosci gdy X '" N (m, 0'2), to Z = (X - m)/O' '" N (O, l).
[DO F'(s)ds ~ F(t),
Dowód, Niech Y = aX + b,1l =I- O. Wtedy rp(x) = ax +b i
co wynika natychmiast stad, ze 1
fy(u ) = fx(rp- 1(u)) Irp/(u)jl<p(R)(u l )'= fx (U-b)
-a- lal
.{DO F'(s) ds + 1DO
F'(s) ds ~ l oraz l
--e _(u_b_am)2/2a2a2
~O'lal '
1DO
P'(s) ds ~ 1- F(t) .• zatem Y '" N (b + am, 0.2(]'2). _

.""~:;'"
I

r
76 Rozdzial 5. Zmienne losowe § 5.6. Parametry rozkladów 77

Przy okazji udowodnilismy, ze jesli zmienna losowa X ma gestosc, to aX +b Zadania


ma rozklad ciagly o gestosci
1. Podac przyklad zmiennej losowej X o rozkladzie ciaglym i funkcji <p: R -t R,
1 dla której <p(X) ma rozklad skokowy ..
faX+b(u) = fx -a-b)
(U - .~. 2. Udowodnic, ze jezeli rozklad jest ciagly, to dystrybuanta jest funkcja ciagla.
3. X ma rozklad wykladniczy o parametrze a. Znalezc rozklad Y = l/X.
Jesli funkcja r.pnie jest rosnaca ani malejaca, to wzoru ze stw. 1 nie mozna
4. Udowodnic stwierdzenie 3.
zastosowac. Ale czesto wystarczy nastepujace uogólnienie:
5. Udowodnic, ze jesli wektor losowy X o wartosciach w R" ma rozklad ciagly
z gestoscia f, S jest otwartym podzbiorem R", takim ze P(X E S) = l,
Stwierdzenie 3.
f· Niech
Niech zmienna losowa X ma mzklad c'iagly z gestO.9Óa
<p: S--+ R" jest wzajemnie jednoznacznym odwzorowaniem klasy el , J<p
to gestosc zmiennej losowej Y = <p(X) ma postac
o, i
n
X(l2) C I = U
k=l
[ak, bk], g(y) = f(<p-I(y))!J",_l(y)l, y E <p(S).

gdzie, oznaczajac h = [ak, bk], mamy lnt h n lnt II = 0 dla l i k. 6. Znalezc rozkladlaczny
a) (Xl,X2)~N(O,(~~)),
Yl = (Xl + X2)/V2, Y2 = (Xl - X2)/v2, jesli
Definicja
Niech <p: I -t R bedzie klasy Gl na zbiorach lnt przy czym h, <p' (x) i- Odia wielowymiarowego
x E lnt h·
Niech hk bedzie funkcja odw'f"otna do <pna lnt h. b) (XI,X2) ~N(O,(~ ~)). rozkladu
normalnego
Wtedy Y = <p(X) ma rozklad C'iagly z gestosc'ia g: w §5.1O.

n § 5.6. Parametry rozkladów


g(y) = L
k=l
f(hdy))lh~(y)11Dk(Y)'
Zaczniemy od przykladu, w ktÓrym trzeba ocenic oplacalnosc pewnej gry.

gdzie Dk = r.p(lnth) jest dziedzinafv:nkcfi hk. Przyklad 1. Ktos proponuje nam udzial w nastepujacej grze: rzuca sie
symetryczna kostka. Jesli wypadnie 1, wygrywamy 2 zl; jesli wypadnie 2,
Dowód tego stwierdzenia pozostawiamy Czytelnikowi jako zadanie. placimy 1 zl; za 3 wygrywamy 4 zl; za 4 placimy 5 zl; za 5 wygrywamy
3 zl i wreszcie za 6 placimy 4 zl. Czy warto brac udzial w tej grze? Czy na

Przyklad 4. Chcerr..y znalezc rozklad Y = M, gdy X ~ N(O, 1). Funk-


dluzsza mete oplaca sie grac? \
Oplacalnosc taldej gry na dluzsza mete latvm ocenic. Jesli rozegramy n
cja r.p(x) = vr;;T, r.p:R -t R+ jest monotoniczna na przedzialach
partii, to kazdy z wyników pojawi sie srednio w n/6 przypadków (oczywiscie

II = (-00,0], 12 = [0,00). sa mozliwe losowe odchylenia). Laczna wygra~.\a wyniesie okolo


n n n nn n n
Mamy
2· -6 + (-1) . -6 + 4· -6 + (-5) . -6' + 3" -6 + (-4) . -6 =--6'
a srednia wygrana przypadajaca na jedna gre obliczamy, dzielac po prostu
hl(y) = _y2, Dl = [0,00), h2(y) = y2, D2 = (0,00).
laczna wygrana przez liczbe partii, co daje
Zatem
1 1 1 11 1 1
2· - -I-( -1)
6
. -66+ 4 . - + (-5) . -66+ 3 .~- + (-4) . -66= --o (1)
2 2 ( 4y lC. ( )
g(y) = f(-y )2yl(0,00) (y) + f(y )2yl(0,00) y) = y'2;'ie- 2 1(0,00) Y .•
W takim razie gra nie jest oplacalna na dl uzsza metQ, ule warto tez chyba
r07.grywnc jednej partii. _
Stwierdzenie 1 mozna uogólnic na wektory losowe (palil"Z zad. 5, 6).
78 Rozdzial 5. Zmienne losowe § 5.6. Parametry wzkladów 79

Zwrócmy uwage, ze mozemy wymyslac rozmaite reguly oceny oplacalnosci Powrócmy teraz do wzoru (l). Pojawily sie tam wartosci zmiennej loso-
gry, nie ma jednak reguly kazacej przyjmowac taka, a nie inna regule oceny wej (wygranej) i prawdopodobienstwa ich wystapienia. Sugeruje to, ze jesli
oplacalnosci. Jesli w podobnej grze z prawdopodobienstwem 1/1000 wy- zmienna losowa X przyjmuje wartosci ,Xi z prawdopodobienstwami Pi, czyli
Wymagajacy ma rozklad dyskretny {(::r;;,p;,)iEl}, to warto bada.c wyrazenie
(place grywamy 10000 zl, a z prawdoI;>odobienstwem 999/1000 przegrywamy 20 zl,
i wymagam) to moze warto zaryzykowac? Srednia wygrana na jedna gre, obliczona tak
studenci z USA jak poprzednio, jest ujemna, ale strata 20 zl nie jest bolesna, a zyskujemy , [X'= L.xiP;.
zadaja od 'iEI
chwile emocji i mozliwosc wygrania znaczacej sumy. Doskonale wiedza o tym
wykladowcy regul
wyboru regul,
organizatorzy wszelkich loterii, gier liczbowych i konkursów audiotele. Po- (sumowanie moze odbywac sic;: po nieskOllczonyrn, byle przeliczalnym zbio-
pozwalajacych dobnie rozumuja ci, którzy decyduja sie na ubezpieczenie, choc strata jest rze wskazników I). ,Jest to IJr'ednia wa.zona liczb Xi z wagami Pi. Wodniesie-
rozwiazac zadanie. tu gwarantowana: placimy skladke, a gdy utracimy ubezpieczony obiekt, niu do zmiennej losowej bedziemy mówic o wartosci sredniej lub wartosci
odszkodowanie nigdy nie pokrywa jego pelnej wartosci. oczek-iwo.'(/,e.f.Ki~~dys ll:i:ywano tez wdziecznego ~erminu nadzieja matema- .Jesli l'",U(;/I"~
Interesujacy z wielu wzgledów przyklad gry losowej, uprawianej w XVII tyczna (fr. esper'ance, czego slad pozostal w sy~bolu [X). kORI.klJ" u ie

wieku (i zapewne znacznie wczesniej) w karczmach, mozna znalezc w ,,'Wy- o(;~olmjwY/liku


Wartosc: oczekiwana zdefin,i,o~al Christian Huygens w pracy z 1658 roku r6wllogo wHI'I.()/kl
kladach z historii mat~lnatyki" Marka Kordosa8. Grano za pomoca tablicy,
De Tat-ioc'iniis in ludo a.led~, czyli ,,0 ra.chubach w grze w kosci" . oc",ekiwanoj,
która przewidywala kazdy wynik rzutu trzema nierozróznia.lnymi koscmi. wynoszacej ;'I,fi
Na razie dosz;lismy do szkol'n~j definicji wartosci oczekiwanej, chcielibysmy
Grajacy otrzymywal od bankiera, czyli wlasciciela tablicy, Jub wplaca,l mu oczka.
jednak miec definicje ogólna, niezalezna od typu rozkladu. Otrzymamy ja,
wielokrotnosc stawki, zalezna od wyniku. W pewnych pr:>:ypadkach gracz
korzystajac z teorii calki. Otóz jesli X ma rozklad dyskretny i przyjmuje
byl wykluczany z dalszej rozgrywki, w innych - mógl takze otrzymac; caly skollczenie wiele wartosci, to
bank. Obliczenie sredniej wygranej przypadajacej na jedna partie jest nic
tyle trudne, co zmudne. Sam autor przyznaje, ze nie mial dosc: cierpliwo- [X = 2: XiP(X = Xi),
sci, by to zrobic. Rozegral jednak wiele partii i stwierdzil doswiadcz;alnic, iEI
ze gra jest minimalnie korzystna dla bankiera. Faktycznie bankier wygrywa
a to jest, nic innego, jak calka z funkcji prostej, przyjmujacej wartosci Xi
w jednej partii srednio 0,46% swojej poczatkowej stawki9. Jak pisze Kordos:
na zbiorach Ai = {lV E O: X(w) = x;}, wzgledem miary P. W takim razie
Gm byla "sprawiedliwa", bo warunki byly dla wszystkich jednakowe od, i sensowne sa nastepujace definicje: '
poczatku znane, wiec chetnych do gry bylo wi,elu. Gdyby jednak w widoczny
sposób ograbiala ona grajacych na rzecz pTOwadzacego gTe wlasciciela, to Definicja 2. Po'wierny, ze zmienna losowa X o lJJar-tosciach 'UJ R ma 'UJaT-
zginalby on pTedko z nozem w plecach (regulaminy typu totolotek sa moz- to§c smdnia (wartosc oczekiwana), jezeli jest calh,owalna, czyli jezeli
liwe tylko w dwudziestowiecznych spoleczenstwach). Gdyby z kolei nie pr'zy-
nosila jakiegos zysku, to zg'inalby z glodu. Tablica ta powstala jak gal;v,nki
w przyrodzie - dToga ewolucji! j~lXI dP < 00.
Z kolei srednia wygrana przypadajaca na jedna gre w ruletce wynosi W/;edy war-ioscia sl'ednia (wartosc'ia oczekiwana) zmiennej losowej X na-
zwi(~my liczbe
Zagad ka: dlaczego
ostatnio 3 5· -l - l· -36 ~ -O 027
37 37'
= -27/0
,
01

lansuje sie forme [X= LXdP,


,:teleaudioll?
W Toto-Lotku na wygrane przeznacza sie 50% wplywów, zatem srednio W przeciwnym mzie powiemy, ze zmienna losowa nie ma wartosci sredniej
tracimy polowe stawki. Z kolei w konkursach audiotele na wygrane idzie (oczekiwanej) .
zaledwie 3-5% wplywów. Miraz glównej wygranej wartosci rzedu 50000 zl W kasynach wygrane to 74% przychodów, przy automatach do gry - 62%, w Totali-
(na ogól jest to samochód) dziala, dzieki telewizji, nadzwyczaj skutecznielO. zatorze Sportowym - 50%, w aucJiotele - 3-5%.
Rencista z zielonogórskiego i jego bezrobotna zona w lutym '98 laczyli sie z audiotele
sIKOR], ss. 1(;8-169. 480 razy, za ponad 10000 zl. (Wojciech Markiewicz, Polityka, 36 (2157) 5 wrzesnia 1998)
9Bozenna Rusiniak, Analiza wybranych "nieuczciwych" gier losowych, praca magi- Trzy telefonistki z Akademii Medycznej w Gdansku wydzwonily od stycznia 1997
sterska WMIM UW, Warszawa 1996. do stycznia 1998 sume 643 000 zl. W wyniku procesu zostaly uniewinnione, poniewaz
IOW k~nkursach audiotele bierze udzial czasem nawet 200 tysiecy osób. Koszt jed uej wedlug sadu nie bylo to ani wyludzenie, ani oszustwo, ani przywlaszczenie. Wygrywaly
rozmowy wynosi 12-20 zl (3-5 min.). Wplywy dla wszystkich telewizji z tego zródla pieniadze, dezodoranty, bielizne, zlote lancuszki i lokówki do wlosów, warte w sumie ok.
szacuje sie na 300 mln zl rocznie. 45000 zl. (Gazeta Wyborcza, 30 wrzesnia 1999).
80 Rozdzial 5. Zmienne losowe § 5.6. Parametry rozkladów 81

Bedziemy tez mówic o "zmiennej losowej calkowalnej" w odniesieniu do Punkt (iii) twierdzenia 4 uogólnia sie na skollczona liczbe zmiennych loso-
zmiennej losowej, której wartosc oczekiwana istnieje. Podobnie jak w teorii wych, mianowicie
calki napis EX < <Xl bedzie oznaczac, ze zmienna losowa X jest calkowalna;
EX = <Xl bedzie oznaczac, ze X jest nieujemna i niecalkowalna. W ostatnim
E(Xl + X2 + ... + Xn.) = EXl + ... + EXn, (2)
przypadku powiemy, ze wartosc srednia jest nieskonczona. gdy wartosci oczekiwane E Xi, i = 1, ... , n istnieja. Jest to fakt oczywisty,
ale bardzo pozyteczny, gdyz pozwala znacznie uproscic obliczanie warto-
Definicja 3. W ar-toscia srednia (wartoscia oczekiwana) zmiennej losowej sci oczekiwanej takich zmiennych losowych, które dadza sie przedstawic
X = (Xl,'" Xn) o wartosciach w Rn nazywamy wektor w postaci sumy prostszych zmiennych losowych, o latwych do obliczenia
wartosciach oczekiwanych. Zilustrujemy to przykladami.
EX = (EXI, ... , EXn),
Przyklad 5. Chcemy obliczyc EX, gdzie X jest suma wyrzuconych oczek
o ile wszystkie wspólrzedne maja waTtosc srednia. przy stukrotnym rzucie kostka. Gdybysmy obliczali EX z definicji, to mu-
sielibysmy znalezc rozklad X, co jest bardzo pracochlonne. Zastosujemy
Wartosc srednia dziedziczy po calce podstawowe wlasnosci, na przyklad wzór (2). Gdy Xi jest wynikiem i-tego rzutu, to X = Xl + X2 + ... + X100
liniowosc i zachowanie przy przejsciach granicznych. Najwazniejsze z nich i EX ='0 EXl + EX2 + .. + EXlOO = 350 .•
podajemy ponizej, a dowody zamieszczamy w dodatku C.
Nastepny przyklad ilustruje jedna z metod dowodzenia róznych wzorów
z kombinatoryki za pomoca rozwazan probabilistycznych.
Twierdzenie 4 (Wlasnosci wartosci sredniej). Zalózmy, ze waTtosci
srednie EX i EY istnieja. Wtedy Przyklad 6. Kupujemy k losów na loterii, w której jest M losów przegry-
wajacych i N wygrywajacych. Niech X bedzie1iczba losów wygrywajacych
(i) Jesl'i X ~ O, to EX ~ O. wsród tych, które kupujemy. Chcemy znalezc wartosc srednia X.

. (ii) IEXl ~ [lXI· Niech Xi informuje, czy i-ty los wygrywa, tzn. Xi = 1, gdy i-ty los jest
wygrywajacy i Xi =O, gdy jest przegrywajacy. Mamy P(Xi = 1) =
(iii) Dla a, b E R istnieje wa'f'tosc srednia aX + bY i N/(M + N), X = Xl + ... + Xk• Zatem na mocy (2)
N ;
E(aX + bY) = aEX + bEY. EX=k·---.'
. M+N
Ponadto Obliczajac EX bezposredI!io z definicji, mamy':
f I
'.'
i'l , ~ A f ,. "
l' \
(iv) Jesli Xn ~ O, to , ~. '
cv =
(,..A
'l.
1=0
k

L....,
(N) ( NI)
l k-l
(N+'"
k
E(lim inf Xn)
'n-l-OO
~ lirn inf EXn
n-l-OO
Stad, jako produkt uboczny, otrzymujemy tozsamosc:

(lemat Fatou).
k (~)(t!J _ ~_ •
(v) Jesli (Xn) jest niemalejacym ciagiem nieujemnych zm'iennych Loso- t;l CVtN!) - iVI+N'
wych, to E limn-> 00 Xn = limn->oo [Xn (twieTdzenie Lebesgue 'a-Bep-
po Leviego o zbieznosci monotonicznej). W obu przykladach zmienne losowe Xi mialy jednakowy rozklad, ale nie
zawsze musi tak byc (patrz np. zad. 10).
(vi) Jesli (Xn) jest takim ciagiem zmiennych losowych, ze IXnl ~ Z dla Zobaczymy teraz, jak obliczac wartosci srednie funkcji zmiennych losowych
pewnej calkowalnej zm'iennej losowej Z, to wylacznie na podstawie znajomosci rozkladu zmiennej losowej. Warto so-
bie uswiadomic, ze wszystkie charakterystyki liczbowe zmiennych losowych
E lim Xn
n--+oo
= n-tOO
lim [Xn omawiane w tym rozdziale zaleza wylacznie od rozkladu. Sformulujemy
twierdzenie nieco ogólniej, by móc w przyszlosci obliczac wszelkie takie
(twierdzenie Lebesgue 'a o zbieznosci zmajoryzowanej). charakterystyki.
82 Rozdzial 5. Zmienne losowe § 5.6. Parametry rozkladów 83

Twierdzenie 7. Niech cp:R n ---7R bedzie junkc.ia; borelowska;, a X zmien- Bezwzgledna zbieznosc szeregu 2:iEI cp(Xi)Pi wyraza calkowalnosc zmien-
na; losowa; o war·tosciach wRn. Wtedy nej losowej cp(X). Wobec tego, jesli np. X przyjmuje wartosci rzeczywiste,
to do istnienia E:(X) nie wystarcza zwykla zbieznosc szeregu 2: XiPi; musi
E:cp(X) = JRn
r cp(x)/-ix(dx), on byc zbiezny bezwzglednie. Warto sobie uswiadomic, ze jesli szereg jest
zbiezny tylko warunkowo, to przez odpowiednia zmiane kolejnosci sumowa-
przy czym równosc nalezy 7'Oz'Umiectak: jesli calka po .iednej stronie istnie,je, nia. mozna otrzymac dowolna sume (w tym ±oo; jest to twierdzenie Rie-
to istnieje takze calka po dTugiej st7'Onie sa one równe. i manna, patrz [RUD-2], tw. 3.55), wiec próby "oslabiania" definicji wartosci
oczekiwanej raczej nie dalyby rozsadnych wyników.
Dowód. Ze stwierdzenia 5.1.3 wynika, ze cp(X) jest zmienna losowa. Za-
stosujemy standardowa metode stopniowego komplikowania funkcji cp. Wniosek 9. Je.sli zmienno. losowa X o waTtosciach w Rn ma rozklad cia-
1. Niech cp = lA, gdzie A jest zbioremborelowskirn wRn. gly o ,l]estosci g, o.fu,nkc.ia cp:Rn ---7 R ,jest bOTelowska, to

E:cp(X) = 1· P(X E A) -\- O . P(X ~ A)


E:cp(X) = .L" cp(x)g(x) dx,
= /-ix(A) = .lAr 1· jJ,x(d.r:) = JRn
f cp(x)f.I.x(cl:r) .
PTZY czym calkowalnosc jednej ze stron implikuje calkowalnosc i
dr"Ug'ie.i TÓW-
nosc calek. l.
2. Niech cpbedzie funkcja prosta, tzn. cP= 2::::1 Xi lA;' Z liniowosci calki
(rozpatrujemy tu z jednej strony calke po przestrzeni D, z drugiej --"
po Rn) i z punktu 1 wynika natychmiast zadana równosc dla funkcji D o w Ó ci wymaga powtórzenia kroków dowodowych poprzedniego twierdze-
prostych. nia z oczywistymi zmianami, Mozna tez zauwazyC, ze dla kazdej mierzalnej
funk~if .
3. Jesli cp jest dowolna nieujemna funkcja borelowska, to jest granica
monotonicznego ciagu nieujemnych funkcji prostych. Zastosowanie .L" f(s)f.I.(ds) = k" f(s)g(s) ds,
1\
twierdzenia Lebesgue'a-Leviego o zbieznosci monotonicznej do wy-
nilm z punktu 2' daje zadana równosc dla nieujemnych funkcji bore- jesli tylko jedna z calek ma $eJls. Dowód tego faktu takze ludzaco przypo-
lowskich (istnienie calki po jednej stronie implikuje istnienie calki po mina dowód poprzedniego twierdzenia. _
drugiej stronie i równosc obu calek).
Przyklad 10. Znalezc waTtosc oczekiwana pola prostokata, którego ob-
4. Jesli cpjest dowolna funkcja borelowska, to cp = cp+-cp-, a jesli E:cp(X) wód jest równy 20, a jeden bok jest; zmienna losowa X o rozkladzie jedno-
ma sens, to calkowalne sa takze nieujemne zmienne losowe [cp(X)]+ = stajnym na [1,10].
= cp+(X) oraz [cp(X)t = cp-(X). Po zastosowaniu wyniku z po-
przedniego punktu wnioskujemy, ze istnieja calki Ro z w iaz ani e. Pole prostokat.ajest równe X· (lO-X), a gestosc rozkladu
jednostajnego g(s) = tl[l,lO](S), stad

'.L.n Cp+(x)/-ix(dx) .I~"cp-(x)/-ix(dx),


E:(X(l - X)) = 8(10 - s)g(s) ds = -s(10 - s) ds = 18. _
oraz ze zachodzi zadana równosc. I odwrotnie, jesli dwie ostatnie calki 100
-00 l 91
),,10
istnieja, to E:cp(X) ma sens i jest równa ich róznicy. -
Poniewaz dystrybuanta wyznacza jednoznacznie rozklad, to powinno byc
W szczególnych przypadkach - rozkl.adów ciagl.ych i dyskretnych - udo- mozliwe obliczenie wartosci oczekiwanej na podstawie znajomosci dystry-
wodniony wzór daje sie zapisac nastepujaco: buant.y. Zaczniemy od najprostszego wzoru tego typu:
Wniosek 8. Jesli zmienna losowa X ma TOzklad dyskretny {(Xi,Pi)iEJ},
to waTtosc oczekiwana istnieje wtedy i
tylko wtedy, gdy zbiezny .iest szereg
Stwierdzenie 11. Jesli X )< 0, to

2:iEllcp(Xi) !Pi, i wyraza sie wzorem


EX = 100(1- Fx(t)) dt = 1')0 P(X > t) dt,
Ecp(X) = :E cp(Xi)Pi.
i,EJ
przy czym istnienie jednej stTOny i'mpl'ik'uje istnienie drogiej ,i ich równosc.
84 Rozdzial 5. ZlIliellnc losowe § 5.6. Parametry rozkladów 85

D O wód. Skorzystamy z twierdzenia Fuhiniego. Miara produktowa bedzie Zwrócmy uwage, ze funkcja f(t) = E(X _t)2 przyjmuje minimum - równe
produkt rozkladu zmiennej losowej X i miary Lebesgue'a. wariancji - dla t = EX (por. zad. 4).
Pierwiastek z wariancji nazywamy odchyleniem standaTdowym:

.lo('" P(X > t) dt = }'oo


o [.I(t,oo)
/" 1· l,x(dS)] dt rJx = V'D2X.
Udowodnione wczesniej wzory na E<p(X) pozwalaja obliczac wariancje za
-/'00 /"
-00 .1(0,00) 1[0,00) (t) 1(t ,00) (s) ILx (d8) dt
(" pomoca rozkladu lJ,x, jesli przyjmiemy <pet) = t2 lub <pet) = (t - m)2, gdzie

= '/(0,00)
/" [.lo t dt]/I.x(dS) = .1(0,00)
/" SIJ.x(d8)
m = [X. Mamy wiec dla zmiennych 10sowycl;J.o rozkladzie dyskretnym
00 00

.l: SI!x(ds) = E(X). -


V2X = .L..
~(
i:--=l
X'i - m )2 Pi -_ .L..
~
i=l
XiPi
.2 - m2,

Inne tego rodzaju wzory mozna znalezc w zad. 1-·3. a dla zmiennych losowych o rozkladzie ciaglym z gestoscia g(x):

Kolejnym waznym 'parametrem rozkladu jest 1.uaTiancjn. Jest ona miara


rozrzutu rozkladu wokól wartosci sredniej. V2 X = ./-00
rx> (x - m)2g(x) dx = j'OO
-00 x2g(x) dx - m2,

Definicja 12. Jesli E(X - EX)2 < 00, to tl( liczbl( TJ.!!z:J)'WJh'Jn./)
'uJG,'J'ia7l.cja przy zalozeniu zbieznosci odpowiedniego szeregu/calki.
zmiennej losowej X o wa7·tosciach 'rzeczy'uri8tych i oznaczo:J'n.y: Wartosc oczekiwana i wariancja sa szczególny~i przypadkami tak zwanych
momentów.
v2/y = t(X _ EX)2
Momentem absolutnym rzedu, > O nazywamy liczbe [IX - alT, a zwyklym
- [(X - a)". Ostatnie wyrazenie ma zawsze sens dla, naturalnych. Jesli
Jest to po prostu sredni kwadrat odchylenia od sredniej. Wariancje mozna a. = EX, to moment nazywamy centmZnym,
obliczac równiez w inny, czesto wygodniejszy, sposób:
Nazewnictwo powinno sie kojarzyc z mechanika. Faktycznie, jesli zamiast
v2X = EX2 _ (EX)2 rozkladów prawdopodobienstwa wyobrazimy sobie rozklady masy (gestosc
rozkladu ma naturalna interpretacje - jest to zwykla gestosc), to okaze sie,
Dowód. ze wartosc srednia jest polozeniem srodka masy, a wariancja jest momentem
bezwladnosci wzgledem srodka masy (por. zad. 1).
v2 X = E(X - EX)2 = E (X2 - 2XEX + (EX)2) = EX2 - (EX)2 • Momenty wyzszych rzedów wykorzystuje sie w statystyce do mierzenia asy-
metrii (statystycy uzywaja tu slowa "skosnosc") rozkladów i stopnia kon-
Twierdzenie 13 (Wlasnosci wariancji). Je§h X jest zrn:ienna losowa. centracji wokól wartosci sredniej.
dla któTej EX2 < 00, to -/stn-ieje V2X ornz: Wspólczynnik asymetri:i (sko§no,<fC'i) jest zdefiniowany wzorem

(i) V2X) O. E (X - EX)3

(ii) V2(cX) = C2V2 X


Cl3 = (1)2 X)3/2

Dzieki wyrazeniu w mianowniku wspólczynnik asymetrii nie zmienia sie


(iii) V2(X + a) = V2 X przy pomnozeniu zmiennej losowej X przez stala. Tak samo jest dla ku,tozy,
(iv) 'D2 X =
O wtedy i lylko wtedy, gdy zmiienna losowa X jest z pm'UIClo- zwanej takze wspólczynnikiem splaszczenia i zdefiniowanej jako
podohie'nstwem 1 stala.
E (X - EX)'l
Cl4 =
('D2X)2 - 3.
Dowód. Jesli EX2 < 00, to z nierównosci Iti ~ Itl2 + 1 'wynika istnienie
EX i wtedy EX2 _(EX)2 < 00. Dowody wlasnosci (i)-(iv) pozostawiamy Kurtoza mierzy stopien koncentracji rozklaqu wokól sredniej (patrz zad.
jako cwiczenie. _ 15).
86
-- - - - - - - - - - - Rozdzial 5. Zmienne losowe
.-..
§ 5.6. Para.metry rozkladów
~

87
-- -.

Omówimy teraz parametr charakteryzujacy zwiazek miedzy dwiema zmien- Wniosek 17. Jesl'i zmienne losowe Xl,· .. X71"moja wariancje i sa parami
nymi losowymi. Mozna go uwazac za parametr rozkladu dwuwymiarowego, ni(~sko'fdow(me, 1,0
czyli lacznego rozkladu pary zmiennych (X, Y). n

Definicja 14. Kowario:ncja calkowalnych zmiennych losowych X 'i Y, spel- V2(XI + ... + X,,) = LV2X;.
'" ;=1
niajacych warunek EIXY! < 00, nazywamy wielkosc
Przyklad 18. Wkladamy losowo n listów do róznych adresatów do n ko-
cov(X, Y) = E [(X - EX)(Y - EY)] ,
pert. Znalezc wartosc srednia i wariancje liczby listów wlozonych prawi-
cHowa.
Uwaga 15. cov(X, Y) = E (XY) - EXEY.
n.o z w i az an i e. Niech X bedzie liczba listów wlozonych prawidlowo, a X;.,
Jesli cov(X, Y) :=; O, to zmienne losowe X i Y nazywamy nieskorelowQ:n.ym.i. 'i = 1,2, ... ,
bedzie '11., zmienna losowa mówiaca, czy i-ty list zostal dobrl\e
Na mocy nierównosci Schwarza dla calek (patrz tw. 5.7.1) marny wlozony, c7.yli X; = l, jesli i-ty list zostal wlozony prawidlowo, i Xi = O
w przeciwnym razie. Poniewaz P(Xi = l) = l/n, to EX = 1. Nietl'l1Jno
I cov(X, Y)I ~ VTJ2XV2Y, zobaczyc:, ze E(X;Xi) = P(XiXj = l) = l/n(n - 1) dla i= .1, wiec i
korzysta.jac ze wzoru (3) otrzymujemy V2 X=;1. •
przy czym równosc zachodzi wtedy i tylko wtedy, gdy zmienne losowe X
'i Y sa zwiazane liniowa zaleznoscia (typu aX + bY :=; c, gdz.ie 0.2 + b2 > O).
Dla wektora losowego X = (XI, ... , X,,) odpowiednikiem wariancji jest
Wynika stad takze, ze kowariancja istnieje, gdy istnieja odpowiednie wa- ma.cierz kowariaueji ..
riancje. Jesli zdefiniujemy wspólczynnik kor-elacj1:wzorem
Definicja 19. Jesli V2Xj < 00 dla kazdego.i = 1,2, ... ,n, ta macierz
p(X,Y) = ~~v~(~~~~_, Qx = [Ci.ikj=l,,,.,,,, gdzie ci,i = cov(X;,Xj) nazywamy macierza kowarian-
c,j'iwektom losowego. X = (X 1, ... X".).
to z powiedzianego wyzej wynika, ze Ipl ~ l, a Ipl = l tylko w przypadku li-
niowej zaleznosci miedzy zmiennymi. Zwiazek wspólczynnika korelacji z nie- Twierdzenie 20. Macie'l'z kowo.7"iancji ma nasl,ep~~.iace wlasnosci:
zaleznoscia zmiennych losowych przedyskutujemy, gdy wprowadzimy to po-
jecie. Odnotujmy jeszcze wazny fakt: ('1) :iesl symel;ryczna;

Twierdzenie 16. Jesli zmienne losowe Xl,' .. , Xn moja ~1Jariancje, to 'ist- (-ii) .iest nie7.l,iemn'ie ok1"eslona, tzn. dla kaidego sko'nczanego ciagu liczb
nieje wariancja sumy i 1'zecz))'W'is/;ycht1,· .. , t" marny 2:;~1titjC;j ;;;:O;
n rank(A) jest
(iii) Jesli rank(Qx) = k < n, to istn:ieje (n - k) 7'ównan liniowych wia- rzedem macierzy
V2(XI+"'+Xn)=Lv2X;+2 L cov(X;,Xj). (3) zacych zm:ienne losowe Xl, X2, ... , X", wiec (Xl,' .. , X,,) p7'zy.imuje A.
i=l l~i<j~n
'waTto,ki z pewnej k-wymia'f'Owej h'iperptaszczyzny.

Dowód.
D O wód. (i) jest oczywiste.
V2(XI + ... + Xn) = E(XI + ... + Xn)2 - (EXI + ... + EXn)2 = y = 2:~=1 =
" (ii) Rozwazmy zmienna 10Sb,v.:a
• .'l ",
tiX;, Jesli EX; mi, to
on

= L[EX; - (EX;)2] +
;=1 EY = Ltimi
1.=1

+2 L (EX;Xj - EX;EXj) =
oraz
l';;;<j';;"
"
= Lv2X;+2 L cov(X;,Xj) .•
i=l l~i<j~n O ~ V2(y) =E (tti(Xi
1.=1 - mi)) 2 = ~t;t,i
t 1.1 cov(Xi,Xj).
88 Rozdzial 5. Zmienne losowe § 5.6. Parametry rozkladów 89

(iii) Rozpatrzmy forme kwadratowa


n
--
I
-30
-40
-20
-50 [ O
-
l glebokosc -10(m)
13,0 45,8
27,2
4,9
39,1
powierzchnia (kme)
55,2

Qx(a) = ~Cijaiaj, a=(al, ... ,an).


i,j=l

poniewaz rank( Qx) = k < n, to istnieje n - k liniowo niezaleznych wekto-


rów a(1), ... ,a(n-k), takich ze Qx(a(l») = O dla l = 1,2, ... ,n - k. Ale

6. Znalezc minimum funkcji rp(t) E(X --- t)2, gdzie X jest zmienna losowa
majaca wariancje·
Qx(a) = [(~ai(Xi _ m;)) 2

Na ostatnich sesjach WIG wahal sie bez jednoznacznej


co otrzymalismy w dowodzie punktu 2, wiec dla l 1, ... ,n - k mamy
tendencji. Na wykresie tygodniowym pojawila sie swieca
z rilalym czarnym korpusem i stosunkowo dlugim knotem
P(I:~=l a;lJ(Xi - mi) = O) = 1.• na dole. Na wysokim; poziomie cen swiece tego typu na
ogól interpretuje sie jako negatywna formacje wisielca.
Zadania Pa-rkiet, pierwsza polowa 2000 r.

1. Na niewazkim precie umieszczono masy .P·i w punktach o wspólrzednych Xi, Formacje mIota, wisielca i spadajacej gwiazdy jak widac do dzis pobudzaja wy-
i= 1,2, .... Wyznaczyc srodek ciezkosci ukladu i moment bezwladnosci obraznie spekulantów, pragnacych zostac "straszliwymi demonami rynku" - ta-
wzgledem srodka ciezkosci. Przyjac, ze I::~l.Pi= l. kie bowiem poetyczne terminy stosowali Japonczycy na terminowym rynkn ryzu
2. Udowodnic, ze jesli X ~ O to: w Edo (obecnie Tokio) w XVII wieku. Jak sie wydaje, byli oni pionierami kon-
traktów terminowych i analizy technicznej.
(4) My natomiast zajmiemy sie trywialnym w gruncie rzeczy zastosowaniem wartosci
EX = 1'00 P(X ~ t) dl,
oczekiwanej, wariancji i wspólczynnika korelacji.
00

Zagadnienie portfela inwestycyjnego. Dla papierów wartosciowych notowa-


~ P(X ~ n) ~ EX ~ 1+ ~ P(X ~ n). (5)
n=l n=l nych na rynku kapitalowym mozna zdefiniowac dwie wazne charakterystyki: stope
zwrotu i ryzyko. Obie sa mierzone w procentach. Stopa zwrotu jest (oczywiscie)
Uwaga. Z nierównosci (5) wynika, ze nieujemna zmienna losowa X jest zmienna losowa, ryzyko - odchyleniem standardowym tej zmiennej losowej. Jesli
calkowalna wtedy i tylko wtedy, gdy stopa zwrotu (np. w stosunku rocznym) wynosi 7%, a ryzyko - 4%, oznacza to,
00 ze sredni zwrot z kapitalu 1000 zl bedzie równy 70 zl. Mozliwe sa jednak losowe
~P(X ~ n) < 00. odchylenia i ich typowe wartosci sa rzedu 40 zl. .Zatem stopa zwrotu od 30 do
n=l 110 zl nie bedzie niczym dziwnym. Zmienne losowe odpowiadajace poszczegól-
.uym papierom wartosciowym moga byc skorelowane dodatnio (np. akcje dwóch
Kryterium to przyda sie jeszcze w dowodzie prawa wielkich liczb. firm budowlanych), ujemnie (np. akcje kompanii naftowej i linii lotniczych), albo
3. Udowodnic, ze jesli X ~ O, r > O, to nieskorelowane (tu ciezko o dobry przyklad).
Inwestorzy nie lubia ryzyka i konstruuja portfele inwestycyjne tak, by przy danej
EX" = 100.,.tr-l P(X > I;) et/;. stopie zwrotu ryzyko bylo najmniejsze. Z drugiej strony, wysoka stopa zwrotu
moze sklonic do akceptacji podwyzszonego ryzyka.
4. Udowodnic, ze jesli X ~ O, rp jest rosnaca i rózniczkowalna, rp(O) = O, to
Ponizsze proste zadanie ilustruje problem w przypadku dwóch rodzajów papierów
wartosciowych.
Etp(X) = 100rp'(-t)P(X > t,) dt.
7. Zmienne losowe Xo i Xl maja dane wart0sci oczekiwane, wariancje i wspól-
5. W tabeli poda.no pola powierzchni, zamkniete przez wybrane poziomice. Po- czynnik korelacji: EXo = 0,05, "';1)2 Xo = 0,02, EX, = 0,07, "';1)2 X, = 0,03,
ziomica zerowa jest brzegiem jeziora, którego maksymalna glebokosc wynosi p(Xo, X,) = -0,5. Niech Xt = tXo + (1 - t)X" t E [0,1]. Dla jakiego t
54 m. Oszaco'!vac objetosc jeziora, poslugujac sie wzorem analogicznym do wariancja jest minimalna? Przedyskutowac zwiazek tego zadania z zagadnie-
wzoru ze stw. 11. niem portfela inwestycyjnego.
Rozdzial 5. Zmienne losowe § 5.7. Nierównosci zwiazane z momentami 91
90
, ,~

8. Udowodnic, ze jesV.'X jest zmienna losowa przyjmujaca wartosci calkowite 17. Wykazac, ze wspóIczyntlilHcorelacji jest symetryczny, tj, p(X, Y) = p(Y, X),
nieujemne, to [X = I::::"=l.P(X ;;. n). i p(aX b, Y) = sgn a.. 'lj(X, Y), o ile a ~
-I- O, czyli jego modul nie zmienia sie Obrazasz moja
przy przekszt.alceniach liniowych. inteligencje·
9. Obliczyc, korzystajac z zadania 8, wartosc oczekiwana zmiennej losowej X MarlO Puzo,
o rozkladzie geometrycznym (przyjmujacej wartosci 1,2" .. ). ] 8. Na podstawie samodzielnie zebranych danych statystycznych rozwiazac za- "Ojciec
gadnienie regresji liniowej. chrzestny"
10. Rzucamy kostka tak dlugo, az wyrzucimy wszystkie oczka. Znalezc wa.rtosc
srednia liczby rzutów. 19. Losowe sumy i reakcja lallcuchowa. VI! chwili t, t = 2,3, ... czastka albo
11. X, Y maja jednakowy rozklad. Czy jest pra.wda, ze [ (x ~ )7) = E (x ~y) ? znika z pra,wdopodobieIlstwem q, albo przeksztalca sie w m takich samych
czastek z prawdopodobieIlstwem ]l = l - q, Jaka jest srednia liczba czastek
12. Niech X bedzie wektorem losowym n-wymiarowym, A -- macierza p x n, B w n-tym pokoleniu? "
- macierza n x n. Udowodnic, ze:
a) jesli [X istnieje, to [(AXt) = At'; (X)\ [(AXtB) = AE (X)I B;
b) jesli macierz kowariancji Q x istnieje, to Q AX = A Q x A t. § 5.7. Nierównosci zwiazane z momentami
13. Jak mozliwie najdokladniej zmierzyc dlugosci dwóch pretów za pornoca zwy-
klej miarki, jesli wolno mierzyc tylko ~wa razy? Blad pomiaru jest zmienna W tym paragraHe udowodnimy kilka znanych z analizy i ba]'(h~o pozytcc<I-
losowa o zerowej sredniej i wariancji er. Bledy poszczególnych pomiarów sa nych nierównosci zwiazanych z momentami zmiennych losowych. Pierw~7.A,<I
niezalezne, nich ma co najmniej trzech a\.ltorów: Cauchy'egq, Buniakowskiego i Schwa-
14. Wyznaczyc wspólczynnik asymetrii dla rozkladu wykladniczego, rZ8.. W dalszym ciagu bedziemy sie do niej odwolywac jako do nierównosci
Schwar7,a.
15. Wyznaczyc kurtoze dla rozkladu: a) jednostajnego, b) normalnego, e) wy-
kladniczego.
Twierdzenie 1 (Nierównosc Schwarza). Jesli EX2 < 00, Ey2 < 00,
Zagadnienie regresji liniowej. Jesli X i Y sa zmiennymi losowymi, mozna to
zastanawiac sie nad znalezieniem funkcji liniowej jednej z tych zmiennych, która
najlepiej - w jakims sensie - przybliza druga· Zadanie to ma oczywisl,e zasto- EIXYI2 :;;;; EX2Ey2 (1)
sowania, Kiedys popularna byla regulka "prawidlowa waga (mezczyzny) w kilo-
gramach to wzrost w centymetrach minus, 100" , która nie mogla byc rzec7.,jasna
spelniona dokladnie, ale jej zaleta byla prostota (modny obecnie body mass index D o wód. Mozna zalozyc, ze EX~ > O i Ey2 > O (w przeciwnym przypadku
wymaga podnoszenia wzrostu do kwadratu). Czesto na podstawie wart.osci zmien- nierównosc jest oczywista, patrz zad. l). Poniewaz \:
nej losowej X, która mozemy obserwowac, chcemy oszacowac albo prognozowac
wartosc drugiej zmiennej losowej Y. Oto mozliwe pary zmiennych losowych: liczba 21abl :;;;; 0.2 + b2 (~.'
klientów - obroty, przebieg samochodu - zuzycie paliwa, wielkosc produkcji -
- df 2 l .
- dl" 2 l
zuzycie energii, indeks gieldy w Nowym Jorku dzis -- WIG jl1tro, dla a, b E R, to kladac a = X = X/(EX )2 l b = Y = Y/(EY )2, a nastep-
W nastepnym zadaniu proponujemy rozwiazanie zagadnienia regresji liniowej, nie biorac wartosc oczekiwana, otrzymujemy 2EI_X'Y! :;;;;EX2 + E5~2 = 2,
Kryterium jakosci przyblizenia jest sredni kwadrat bledu, czyli EIXYI :;;;;1. •
16. Niech X i Y beda zmiennymi losowymi o skonczonej wariancji, 7J2X ~ O.
Wyznaczyc takie liczby a, b, zeby E (Y - aX - b/ byla minimalna. Twierdzenie 2 (Nierównosc Jensena). Niech EIXI < CX) i niech g be-
dzie taka .funkcja wypukla, ze Elg(X)1 < 00. Wtedy
Prosta o równaniu
Y = 7J2X Y) (x - [X)
cov(X, -I- [y (6) g(EX) :;;;;Eg(X), (2)

nazywamy p7'Osta regresji (albo krzywa regesji liniowej) Y wzgledem X.


Jak wyglada rzecz w pr,aktyce? Jesli zbierzemy dane o zmiennych losowych X D O w ó d, Poniewaz g jest wypukla, to dla kazdego punktu .1:0 istnieje stala
i Y, otrzymamy n par (Xi, Vi). Przyjmujemy teraz, ze kazda taka para ma szanse >"(:1:0) taka, ze dla kazdego y.E R .
pojawienia sie l/n, obliczamy wariancje oraz kowariancje, uznajemy je za fak-
tyczne parametry rozkla~ów zmiennych losowych X i Y, a nastepnie wstawiamy g(y) ;;. g(xo) + (y - xo)>"(xo).
do wzoru (6). Statystycy nazywaja obliczone tak wielkosci wariancja z próby i ko-
wariancja z próby, W terminologii statystycznej sa one estymatorami wariancji Powyzsza nierównosc wyraza<fakt, ze wykres funkGji wypuklej ma w kazdym
i kowariancji. I punkcie prosta podpierajaca.
l' "

Rozdzial 5. Zmienne losowe § 5.7. Nierównosci zwiazane'z momentami 93


92

Jesli Czytelnik nie rozumie powyzszego napisu, jest calkowicie usprawiedli-


Biorac XQ == EX, y == X(w) otrzymujemy g(X) g(EX) + (X -EX):\(EX) ? wiony. Uzycie dystrybuanty prowadzi do znacznie prostszej definicji:
prawie na p~wno. Po wzieciu wartosci oczekiwanej obu stron otrzymujemy
, teze· - df
ess sup X == inf{t E R: Fx(t) =.1}.
Teraz podamy uogólnienie nierównosci Cauchy'ego-Buniakowskiego-Schwa-
rza. Twierdzenie 5 (Uogólniona nierównosc Czebyszewa). Niech funkc-
ja .9: R -> R. bedzie borelowska i dodatnia.
Twierdzenie 3 (Nierównosc HOldera). Niech p > 1, q > 1 spelniaja
równosc lp +! a
== 1. Jesli EIXIP < 00, ElYla < 00, to EIXYI < 00 i (a) Jdli g jest niern.alejaca, to dla. dowolnego a E R

EIXYI ~ (EIXIP):);(ElYla)~. (3) Eg(X)


ess sup g(x)
- g(a) ~ P(IXI ? a) ~ Eg(X).
g(a)
(5)

Dowód. Funkcja logx jest wklesla na (0,00), wiec dla. dowolnych dodat- (b) Jesl'i g jest parzysta i n'iemalejaca na [0,(0), to dla E >O
nich a, b, x, y, a + b == 1, mamy
log(ax + by) ? alogx + blogy = log:!:"y".
Eg(:!:) - g(e) ~
esssupg(x)
P(IXI ? e) ~ Eg(X).
g(e)
(6)

Stad D o wód. (a) Postepujac analogicznie jak w dowodzie twierdzenia 4 mamy


ax + by? xa:y".

l, = z'l, W > O, z > O, otrzymujemy


Biorac a == b ==
nierównosc Y6unga
~, x wP, y g(a)P(X ? a) r
~ J{X~a} g(X) dP ~ Eg(X) ~

1 1 ~ ess sup g(X) . P(X ? a) + g(a),


'UJZ ~ -wP + .-za. (L1)
P q skad wynika (5).
Punkt (b) dowodzi sie analogicznie. _
Niech X == IXI/(EIXIP)~, y == 1Y1/(EIYlq):\ (ZJlOWU, gdy EIXIP = O lub
Z uogólnionej nierównosci Czebyszewa otrzymujemy jako wniosek, dobiera-
EIY\a == O, to nierównOsc (4) jest oczywista). Gdy wstawimy do (4) X
zamiast 'W, y zamiast z i wezmiemy wartosc oczekiwana, to otrzymamy jac specjalna postac g, szereg oszacowan.
teze· -
Wniosek 6. (a) Nierównosc Markowa. Niech p> O. Wtedy
Udowodnimy prosta, ale niezwykle uzyteczna w rachunku prawdopodobien-
stwa nierównosc. P(IXI ? e) ~ EIXIP
eP
(7)

Niektóre zródla Twierdzenie 4 (Nierównosc Czebyszewa). Niech X bedzie nieujemna. dla dowolnego E > O.
przypisuja te
nierównosC zm'ienna losowa. Wtedy (lic! kazdego E > O, •
(b) Nierównosc Czebyszewa-Bienayme.
Markowowi.
P(X? e) ~ EX
e . TJ2X
P(IX-EXI ?E) ~-2E (8)

Dowód. eP(X ? e) ~ .r{X~€} X elP ~ EX. - dla dowolnego € > O.

Przedstawimy tera,; kilka wariantów nierównosci Czebyszewa. (e) Wykladnicza nierównosc Czebyszewa. Jesli EePx < 00 dla pew-
nego p > 0, to dla, A lo [O, pl
Przypominamy, ze ess sup X oznacza suprernum is totne X, czy li
. EeAX
ess supX ~ inf [sup
E:P(E)=Q wEfl\E
IX(w)I]·
P(X ? E) ~ ~ (9)

dla dowolnego E.
\{ f
94 Rozdzial 5. Zmienne losowe § 5.8. Niezalezne zmienne losowe !lrl

Nierównosc Czebyszewa ma interesujace zastosowanie w analizie. 3. Pokazac, ze jesli O <P < q, to


, 1

Przyklad 7 (Twierdzenie Bernsteina). Kazda funhje ciagla na od- I l ~ ~. (: ,i


(EIXIP);; :S:(EjXla)'i.
cinku [0,1] mozna j,ednostajnie przyblizac ciagiem wielomianów Bernsteina
4. Pokazac, ze jesli f:K,,~,:.o, O < EX2 < 00, A'E [0,1], to

'~n(x) ~ ~/(~) G)Xk(l- :ct-k P(X > AEX) ;;, (l _ ~)2 (EX)~
EX2 '

a w szczególnosci
I'~: Dowód. Niech mV',o) bedzie modulem ciaglosci funkcji I, ezyli -~
P(X > O) ;;, (EX)2
EX2
" dr
:iI mU, o) = sup I/(x) - l(y)l, 8> O
, ",vEIO,,]
5. Udowodnic nierównosci (7), (8) i (9).
1:r-,/I<S
lii
Hl
6. Wykazac, ze jesli X >0 i EX > O, to
'H
:!i
oraz M = sUPxE[O,I] I/(x)1 < 00, bo I
jest ograniczona .. Ustalmy 3: E [0,1].
Niech Sn bedzie zmienna losowa o rozkladzie Bernoulliego z pctrametrami l
EX:S:E (xL
l\
:~
!I~
n, x. Wtedy E/(Sn/n) = Bn(x) i z nierównosei Czebyszewa (8) marny
7. Udowodnic regule 3-0 (trzech sigm): jesli 1)2 X = 02 < 00, to
,
:t!
,

;H' p(1 Sn
n _ xl> n-i) :S: .2,.
4n" 1
II P(IX - EXI > 3a),:S: g'
Stad
:\ \1 8. Udowodnic nierównosc Minkowskiego: jesli p ;;, l, to
I
'l
t
I/(x)-Bn(x)l:S: L
{k:I~-xl~n-l }
!t(X)-/(~)I(~):J;k(1-X)"-h'-I- (EIX + Yll,))/1,:s: (EIXI1'))/1) + (EIYjl') l/P.

!t
1',1

ID -I- L ,1/(X)-f(~)IG~)xk(1_x)n-k:S:
§ 5.8. Niezalezne zmienne losowe
{k:I1';-xl>n-l} ,
'1~
'~

Definicja niezaleznosci zmiennych losowych jest naturalna: zdarzenia, gene-


rt~
~ :S: m(.f,n-l) -I-2MP(I~n - :r;1 > n-i) :S:
rowane przez pos)\czególne zmienne losowe powinny byc niezalezne.
:'~i'
'I'
;;;'1
, M
\"11 :S: m(f,n-.) -I- -" Definicja 1. Zmienne losowe Xl, X2'.'" Xn o wartosciach w R, okre-
'l~
1,·>\
2n2
slone na (n,:F, P) nazywa.my niezaleznymi, gdy dla kazdego ciagu zbiorów
'~'t~ gdzie prawa strona nie zalezy od :c. Poniewaz f jest ciagla na odcinku [0,1], bordowsk'ich B1, B2, ... , Bn zachodzi równosc
wiec jest jednostajnie ciagla i limó_o mU, 8) = O. Zatem
P(X1 E B]'X2 E B2, ... ,Xn E Bn) = P(XI'E BI)·.··· P(X" E Bn).(l)
lim sup If(x) - Bn(x)J = O .•
n-oc xErO,l]
Z (1) widac, ze rozklad laczny niezaleznych zmiennych losowyeh Xl, X2,
... , X" jest wyznaczony przez rozklady brzegowe, a dokladniej - przez
Zadania rozklady zmiennych losowych Xi'
Definicje 1 mozna takze wypowiedziec krótko: zmienne lQsowe sa niezalezne
1. Udowodnic nierównosc (1), gdy EX2 = O. wtedy i tylko wtedy, gdy niezalezne sa er-ciala!'generowane przez te zmienne Niezaleznosc
2. Udowodnic, ze w nierównosci H6ldera (3) zachodzi równosc wtedy i tylko losowe. Istotnie, po prawej'st.ronie równosci (le) wystepuja zdarzenia postaci a-cial
. IXIP _ IYla zdefiniowalismy w
wtedy, gdy EIXIP - EIYlq p.n, Xi-1(Bi), gdzie Bi E B(R), ezyli wszyst.kie ele~enty er-cial er(Xi) .
4.1.9, w def. 11
, ~,.(I·,i ',' • zdefiniujemy
pojecie ogólniejsze
- niezaleznosc
1.rl!>c ~,•••.,.•••..•....•
~
96 Rozdzial 5. Zmienne losowe § 5.8. Niezalezne zmiemle losowe 97

Przyklad 2. Nietrudno wymyslac intuicyjnie oczywiste przyklady nieza- Przyklad 4. Niech Xl, X2,· .. ,Xn beda niezaleznyrni zmiennymi losowy-
leznych zmiennych losowych. Oto dwa: mi. Znalezc rozklad Y = max(Xl,X2, ... ,Xn), Z = min(Xl,X2, ... ,Xn).
a) Rzucamy dwa razy kostka, Xi jest wynikiem i-tego rzutu, i = 1,2. Wtedy R o z w i a z a n i e. Wyznaczymy dystrybuanty:
zmienne los'owe Xl, X2 sa niezalezne.
Fy(x) = P(Y :S; x) = P(max(Xl, X2"'" Xn) :S; x) =
b) Z talii 52 kart wyciagamy jedna. Niech X bedzie jej wartoscia, a Y jej
kolorem (kolory numerujemy od l do 4). Wtedy X, Y sa niezalezne. _ == P(Xi :S; x, ... , Xn :S; x) == Fi (X)F2(X) ... Fn(x),
Fz(x) = P(Z :S; x) = 1- P(Z > :r) = l- P(Xl > x) ..... P(Xn > x) =
Dowodzenie czegokolwiek dla dowolnego ciagu zbiorów borelowskich moze n
przestraszyc poczatkujacego. Ale sprawdzanie niezaleznosci da sie znacz- = 1- ITr1 - Fi(x)].
nie uproscic, a glównym narzedziem w dowodach odpowiednich twierdzen i=l
bedzie lemat o 7['-i A-ukladach. Oto pierwsze twierdzenie z tej serii: W przypadku szczególnym, gdy Xi maja rozklady jednostajne na [0,1] (co
zapiszemy w skrócie: Xi ~ ufO, 1]), i = 1,2, ... n, mamy
Twierdzenie 3. Dla zmiennych losowych Xl, X2, ... , Xn o warto.SC'iach
w R nastepujace warunki sa równowazne:
.F'y(x) = xn dla ° :S;:I; < 1,
(i) zmienne losowe sa niezalezne, {OdIa
1 x < O,
dla x> 1.

(ii) /.L(X"x" ... ,X,,) = /.Lx, ® /.LX, ® ... ® I~X", Fz(x)= 1-(I-x)n dlaO:S;x<l,
(-iii) dla wszystkich ti,' .. , tn E R
{OdIa
1 dla x >< O,
1. -
Gdy zmienrle losowe maja taki sam typ rozkladu, to mozna podac prostsze
J<'(X" ... ,X,,)(tl, ... , tn) = FX, (tIJFXJt2)'" FxJtn). charakteryzacje niezaleznosci.
Dowód. Zaczniemy od rozkladów dyskretnych. Niech Sx; bedzie zbiorem punktów
skokowych rozkladu /.Lx,.
(i)=?(-ii). Dla dowolnych Bl"'" Bn E B(R), korzystajac z niezaleznosci
Dowód tego i definicji miary produktowej mamy Twierdzenie 5. Zmienne losowe Xl, X2"'" Xn o rozkladach dyskretnych
wynikania jest
= =
i
sa niezalezne wtedy tylko wtedy, gdy dla kazdego ciagu Xl, X2, ... ,xn, gdzie
wlasciwie
niepotrzebny, ale
/.L(X" ... ,x,,)(Bl X ... x Bn) P(Xi E Bl""
= P(Xl E Bl) .....
,Xn
P(Xn
E Bn)
E Bn) =
Xi E Sx" i
= 1,2, ... ,n,
warto zobaczyc
równowaznosc = /.Lx, (Bil/.Lx2(B2) ..... /.Lx" (Bn)
P(Xl = Xl,"" Xn = xn) = P(Xl = xtlP(X2 = X2) ... P(Xn = xn).
(i){o}( ii).
tzn. obie miary sa równe na 7['-ukladzie generujacym o--cialo B(R.n), wiec Dowód. =? Wprost z definicji niezaleznosci, wystarczy wziac Bi = {x;}.
sa równe na mocy uwagi 5.3.9. ~ Sprawdzarny, ze jest spelniony warunek (ii-i) z twierdzenia 3.
(ii)=? (i). Odwracamy
(i)=? (iii). Bierzemy Bi
rozumowanie.
= (-00, ti] dla i = 1,2 ... , n.
F(xl, ... ,X"J(tl, ... , in) = L
'Vi(ti
P(X1 = Yl,"" Xn = Yn) =
Y'iEBXi
(iii)=? (ii). Niech F bedzie dystrybuanta rozkladu l~xJ @ .. ® ~LXn' Wtedy 'i=l, ... ,'n

F(tl"'" tn) =~LXl ® I~X2 ® @ /.Lx" (( -00, tl] x ... x (-00, tn]) = =2::P(Xl = Yl)P(X2'= Y2)' .... P(Xn = Yn) =
= /.LX, (( -00, tl]) '/LX" -00, tn]) =
((
':L P(Xl = Yl) :,I: P(X2 = Y2) x ...
= Fx, (ti) ..... Fx" (tn), Yl:S;tl Y2~t2
V1ESX, viESxz
co z zalozenia jest równe F(X" ... ,X,,)(tl, ... , tn). Zatem
... x L P(Xn ~Yn) =
/.LX, @ /.Lx2 @ ... @ /.Lx" = /.L(X", .. ,X,,), Yn:.S;tn
YnESXn

bo oba rozklady maja identyczna dystrybuante. _ = FXI (h)Fx2(t2) ... Fx,,(tn).


98 Rozdzial5.
--
Zmienne losowe
- - - -- - - -
§ 5.8. Niezalezne zmienne losowe 99
..

Operacje na niesko'nczonych sumach sa uprawnione ze wzgledu na dodat- zastanowic, jak to sprawdzic najmniejszym kosztem (chyba nie warto obli-
niosc skladników. _ czac dystrybuant). Intuicyjny argument jest taki: jesli X = 1, to Y = O -
zatem informacja, o wartosci X daje nowa informacje o wartosci Y.
Przyklad 6. Rozj!latrzmy schemat Bernoulliego n doswiadczen. Wtedy
n = {O,l}n. Niech Xi(w) = Wi bedzie wynikiem i-tego doswiadczenia . c) Niech X7 ma rozklad N ('/7],j, o}), .7 = 1,2" .. ,n. 'Wspólrzedne Xl, X2,
Zmienne losowe Xl,X2, ... ,Xn sa niezalezne. . .. , Xn sa niezalezne wtedy i tylko w Ledy, gdy wektor (Xl, X2, ' .. ,Xn)
ma rozklad normalny z wektorem wartosci oczekiwanej (ml, m2,.·., mn)
Istotnie, niech ai E Sx, = {O, l}, i = 1,2, ... ,n, Wtedy i diagonalna macierza kowar'ia,ncji
P(Xl = aJ, ... ,Xn = Gon)= P((al,'" ,an)) = , 0"]
'\''' r- '\'''
= pL"=!

=
n

II
i=l
P(Xi
ai (l

=
- p

ai)' -
L..,i=!ai = . r
l °
2

:J
czyJiwtedy i tylko wtedy, gdy (Xl, X2"'" Xn) ma rozklad normalny i pa-
Teraz zajmiemy sie zmiennymi losowymi o rozkladzie ciaglym. rarni nieskorelowane wspólrzedne.
To wynika z twierdzenia 7, gdyz
Twierdzenie 7. Jesli Xl, X2, ' .. ,Xn sa zmiennym'i losowymi o Tozkla- Podobne
n
dach ciaglych z gestosciami
niezalezne wtedy
z gestoscia
odpowiednio gl, g2, ... , gn, to zmienne te sa
i
tylko wtedy, gdy IL(X!,X2,""X,,) jest TOzklo.dem c'iaglym II ( )= -;--;=----e
i=l
g.; 1;i
(y'27T)n<7]
1
... <711.
'
_1'\'''
L..,i=!~('·-m.)'
' .
twierdzenie: jesli
dwie
nieskorelowane
zmienne losowe
g(Xl, X2,"" Xn) = gl(X1)g2(X2) ... gn(Xn). maja rozklady
Mo:i,na znalezc przyklad dwóch nieskoreJowanych zmiennych losowych X i
dwupunktowe, to
D o wód. => Skorzystamy z twierdzenia 3 i twierdzenia Fubiniego.
Yo rozkladzie N (0,1), kt,óre nie sa niezalezne (zad. 20). Oczywiscie wtedy sa nieza.lezne.
rozkJad laczny fL(x,Y) nie moze byc normalny. _'
F(x!, ..,Xn)(t1, ... ,tn) = Fx! (t1) ... FXn (tn) = Teraz zajmiemy sie rodzinami niezaleznych zmiennych losowych.

=
jt!-00 gl(Xl)d.Tl.·. gn(3;n)dx" =
,{ta
-00 Definicja 9. Zmienne losowe (XC.)"'EA okreslone na tej samej pTZestr'zeni
pTObabilistycznej nazywamy niezaleznyrn'i, gdy dla kazdego skonczonego ci re-
t!-00 ... t"-00 gl (Xl)g2(X2)
.J .J .. ,gr.(xn)dx] ... da:n,
!l'U indeksów
niezalezne,
i,], i2, ... , 'in. E A, n E N, zmienne losowe Xi" ... , Xi" sa

zatem glg2 . , ... gn jest gestoscia.


..;= Odwracamy rozumowanie. _ Przyklad 10. W przykladzie 4.2.2 skonst.ruowalismy przestrzen probabili-
styczna dla nieskOllczonego ciagu prób Bernoulliego. Niech (Xn.)~] bedzie
Przyklad 8. a) Niech zmienne losowe Xj maja rozklad.y jednostajne na takim ciagiem zmiennych losowych na tej przestrzeni, ze Xi jest równe 1
[aj, bj], j = 1,2, ,n. Sa one niezalezne wtedy i tylko wt.edy, gdy wektor (odpowiednio O), jesli w 'i-tym doswiadczeniu zdar·zyl sie sukces (odpowied-
losowy (Xl, X2, , Xn) ma rozklad jednostajny na [al, b1] x , .. x [0.11., bn]. nio porazka). Zmienne losowe Xn, n = 1,2, ... sa niezalezne. _
Istotnie,
n n Jesli szansa sukcesu w schemacie Demoulliego jest'równa 1/2, to ciag zmien-

II
i=l
gi(Xi) = II
i=l
1ra;,b;](Xi) = 1Ia!,b!]x ...x[an,bnJ(Xr, X2"·,, Xn)
nych losowych (Un), gdzie U" = 2X" -1 dla n = 1,2.,... , bedziemy nazywac
ciagiem Bemoulliego. Zmienne losowe Un sa niezalezne i przyjmuja z rów-
nymi prawdopodobiel1stwami wartosci 1 i-l.
i korzystamy z twierdzenia 7.
Na poczatku tego paragrafu powiedzielismy, ze zmienne losowe (X"')"'EA sa
b) Wektor losowy (X, Y) ma rozklad jednostajny na okregu o srodku (O, O) niezalezne wtedy i tylko wtedy, gdy <7-ciala (<7(XC,))"'EA sa niezalezne. De-
i promieniu 1. Zmienne'losowe X i Y nie sa niezalezne. Czytelnik zechce sie finicja 11 ponizej nadaje tej wypowiedzi scisly sens. Okazuje sie, ze patrzac
100 Rozdzial 5. Zmienne losowe § 5.8. Niezaleznezmienne losowe 101

na niezaleznosc w ten sposób, mozna latwo otrzymac nastepujace twier- i


D o wód. Dla kazdego okreslamy klase 2; wszystkich skonczonych iloczy-
dzenie: Zmienne losowe Xl, X2, ... sa niezalezne. Dzielimy ciag na bloki nów postaci Bt, n ... n Btn, h, ... , tn E T;, Btm E Ftm. 2; jest 7l'-ukladem
dowolnej dlugosci i rozpatrujemy zmienne losowe oraz a(2;) = 9;. Z zalozenia wynika, ze 2i sa niezalezne (zad. 5), wiec
, 'Pl (Xl' ... Xm,), rp2(Xm,+l,··· Xm2),···,
z twierdzenia 12 {a(2;): i
E I} sa niezalezne. -

gdzie rpi sa funkcjami borelowskimi. Okazuje sie, ze nowe zmienne losowe To twierdzenie pozwoli nam uzyskac zapowiadany juz i bardzo wazny fakt,
sa w dalszym ciagu niezalezne. ze funkcje borelowskie od niezaleznych zmiennych losowych sa dalej nieza-
leznymi zmiennymi losowymi.
Zdefiniujemy zatem niezaleznosc dla rodzin zdarzell.
Definicja i
11. Niech {2i: E f} bedzie rodzina zb'ioró'W zdar-ze·n. 2i sa nie- Twierdzenie 14. Zalózmy, ze zmienne losowe
i
zalezne 'Wtedy tylko 'wtedy, gdy dla kazdego zbioru skonczonego J: JC fi
dla wszystkich Aj E 2j, JEJ zachodzi Xl,l, Xl,2,." ,.X'1,kl,X2,1,·· .X2,k2,Xn,1,·" ,Xn,kn

p(n Aj) = 11 P(Aj). sa niezalezne. Wó'Wczas zmienne losowe


iEJ JEJ

Twierdzenie 12 (O niezaleznych Niech {2i: E I} be-


7l'-ukladach). i Yj =rpj(Xj,I, ... ,Xj,kj)' j=1,2, ... ,n,

dzie rodzina 7r-ukladó'W. Wtedy warunkiem dostatecznym, (-i kon'iecznym) gdz'ie rpj - funkcje borelowskie takie, ze Yj sa dobrze zdefin'io'Wane, sa nie-
Czy 3i koniecznie niezaleznosci a-cial {a(2i): i
E I} jest niezaleznosc {2( ·i E I}. zalezne.
musza byc
?f-ukladami? D o.Wó d. Na mocy definicji niezaleznosci wystarczy rozpatrzyc przypa-
dek, gdy I
jest. zbiorem skonczonym. Dla wygody przyjmijmy, ze = I D o wód. Wektory Z; = (Xi,l, ... , X;,kJ sa niezalezne, bo na mocy twier-
= {l, 2, ... , n}. Na poczatek oznaczmy przez Al klase zdarzen Bl takich, dzenia 13 a-ciala
ze
n
a(Zi) = a(a(X;,d,·· ., a(Xi,kJ), i = 1, ... ,n
Tak. Minimalny
kontrprzyklad.
P(Bl n A2 n ... n An) = P(Bl) 11 P(Aj)
j=2 sa niezalezne. Poniewaz dla dowolnego zbioru borelowskiego B E B(R)
sklada sie z trzech
zbiorów, dla wszystkich Aj E 2j, j
= 2, ... ,n. Wystarczy wykazac, ze a(21) C Al,
tworzacych dwie
rodziny (zad. 21).
wtedy bowiem rodziny a(21), 2j, j
= 2, ... , n sa niezalezne. {1"j E B} = {Zj E rpjl(B)} E a(Zj),
Otóz, jak latwo sprawdzic, Al jest A-ukladem, 21 C A z zalozenia. Poniewaz
to 1"1,1"2, ... , Y;., sa nie<lalezne. -
21 jest 7r-ukladem, z lematu 5.3.6 o 7r- i A ukladach marny a(21) C Al'
Przypuscmy teraz, ze udowodnilismy, iz równosc Dlatego na przyklad, gdy Xl, X2, ... , KlD sa niezalezne, to Xl + X2 + X3,
k n X4 - X5, X6X7XS, Xa, e)('0 sa niezalezne.
P(Bl n ... n Bk n Ak+l n ... n An) = 11P(Bj) 11 P(Aj) Niezaleznosc zmiennych losowych pomaga w obliczaniu wartosci oczekiwa-
j=l .i=k-'-l nych. Istotnie, za.chodzi
zachodzi dla pewnego k < n, o ile Bj E a(3j), = l, ... , k i Aj E 2j, j
j = k + l, ... ,n. Rozumowanie podobne do przeprowadzonego powyzej Twierdzenie 15. Niech Xl,"" Xn beda n'iezaleznymi zmiennymi loso-
pozwala stwierdzic, ze równosc ta ma miejsce dla k + l, jesli tylko k -I- 1 :;;; n. wym,i, któTc maja 'Wa'rto,~coczek'iwana. Wtedy istnieje wartosc oczekiwana
W takim razie równosc zachodzi dla k = n. _ iloczynu X1X2 ..... Xn i
Twierdzenie 13. 'Niech {Ft: t E T}, Ft C F bedzie TOdzina niezaleznych E(X1X2 ..... Xn) = EXl . EX2 ..... EXn.
a-cial i
niech zb'iór T bedzie s'uma parami 1'Ozlacznych zbiorów Ti, E I. i
Wtedy niezalezna jest rodzina a-cial
D o wód. Niech funkcja rp: Rn --> R bedzie dana wzorem
9; = a( U Ft), i E f.
tET; rp(Xl,X2, ... ,Xn) = X1X2····· Xn·

I
~ ~ ~ ~, _ ...• 1 '-n ....
Rozdzial 5. Zmienne losowe § 5.8. Niezaleznezmienne losowe 103

Wtedy Erp(Xl, ... , X,,) = E(Xl X,,) istnieje, jesli tylko Zajmiemy sie teraz rozkla:dem sumy niezaleznych zmiennych losowych. Na
poczatek, niech XI,X2 beda niezalezne, E E B(R). Wtedy z niezaleznosci
r Irp(xl, ... , x,,)IJ1.(X, ,X,,)(dxl ... d;E,,) < 00. i twierdzenia Fubiniego mamy:
.JR"

Korzystajac z zalozen i twierdzenia Fubiniego, otrzymujemy


/l,X,+X2(E) = P(Xl + X2 E E) =
= P((Xl,X2) E {(x,y) E R?:x+y E B}) =
r IXlX2 ... x"!J1.(X,, ..,X,,)(dXl'"
.JR" dx,,) =
= J~2 I{X+VEB} (:J;,y)/t(x"X2) (dx, dyl =
JF
r
·Rn
IXlX2 ... x"I/JX,(dxdI .. ·J1.x,,(dx7,) = II" i'
i=1 ll11
1,'EilJ1.Xi(d;c;) <00 . = .J(o
R,- 1{:<+lIEB) (x,y)J1.x,(dX)J1.X2(dy) =
Zatem wartosc oczekiwana istnieje i wtedy .I~:[L: lB-lI(X)!lXl(dX)] !lX2(dy) =
E(Xl· ... · X,,) = Jn,n
r Xl· ... · X"!t(X,, ...,X •.,) (rlXl ... d:J;",) = L: I~'x, (E - y)!lx2(dy)= (!lx, * !lx2)(E).
= EXI . EX2 ..... EX" .•
W ostatnim wyrazeniu pojawila sie miara (probabilistyczna), która nazy-
wamy splotem rozkladów. Jest jasne, ze .
Uwagi. a) To twierdzenie nie jest prawdziwe dla nieskOl1czollego ciagu
zmiennych losowych Xl,X2, ... (patrz przykl. 11.2.5). J1.x, * !lX2 = !lX2 * !lx,·
b) Z twierdzenia wynika, ze jesli Xl i X2 sa niezalezne i maja wm·tosc
oczekiwana, to sa nieskorelowane (patrz takze zad. 6). Wykazalismy, ze ro:.;klad sumy niezaleznych zm~ennych losowych jest splo-
tom rOzkladów tych zmiennych losowych...
c) Twierdzenie mozna sformulowac nieco inaczej: jesli jedna ze stron jest
Gely zalozymy dodatkowo, ze Xl i X2 maja rozklady ciagle z gestosciami
calkowalna, to calkowalna jest druga i zachodzi równosc, V\Tystarczyw tym
91, .(/2, to korzystajac z twierdzenia, 5.8.7 otrzymujemy:
celu zauwazyc, ze istnienie E (XlX2 . , •.. X,,) jest równowazne z istnieniem
E (IXII·jX21· .. · . IX,,!), skad - po zastosowaniu twierdzenia Fubiniego
dla funkcji nieujemnych - otrzymujemy calkowalnosc EX;, = 1,2, ... , n. i !1,xJ+x2(E) = (/1x, * i:X2)(E)
: = .JR,2
r /tx, (B - Y)!lx2(dy) =
Twierdzenie 16. Jezeli Xl,X2, ... ,X" sa niezaleznymi znti.ennymi loso-
wymi, majq.cymi wariancje, to istnieje warianc.ia sumy i = Loo
(00 [/JE-li [Jj(U)dU]92(y)dY=

= JBl
1)2 (t
.=1 Xi) t
= ,=1 1)2 Xi.
gdzie (gl * g2)(U) = J~oogl(U -
-00 9l(U-y)g2(y)dydu=
j'OO

Y).92(y)dy
r
.JB (gl*g2)(u)du,

jest splotem funkcji znanym


z analizy. Zatem udowodnili§my
Dowód. Twierdzenie wynika z tw. 5.6.16 i stad, ze niezalezne zmienno A gdyby splesc
losowe majace wariancje sa nieskorelowane .• Stwierdzenie 18. Rozklad sumy niezaleznych z,miennych losowych o roz- gestosc z dowolna
kladach ciaglych jest zmienna losowa o r-ozkladzie. ciaglym z gestoscia bedaca miara?
Przyklad 17. Obliczymy wariancje liczby sukcesów 8" w schemacie Ber- splotem gestosci.
Tez mozna. patrz
noulliego n prób. Poniewaz B" = Xl + ... + X"' gdzie Xi mówi nam, czy zad. 12.
zaszedl sukces w i-tym doswiadczeniu (wtedy X; = l), czy nie (Xi = O) Przyklad 19. Niech Xl, X2 beda niezaleznymi zmiennymi. losowymi o roz-
oraz Xl, ... ,X" sa niezalezne (patrz przyklad 6), to kladzie UfO, l]. Wtedy Xl + X2 ma rozklad (zwany trójkatnym) o gestosci
"
1)2B" =.2:::; 1)2Xi = np(1 - p) .•
i=l g(x) = I[O.IJ(X - y)lfO.lJ(Y) dy = 2,- X dla 1 ( x ( 2,
Joo
-00 O
{ x,, dla x (.;. x[0,2].
dla O ( 1,
105
104 Rozdzial 5. Zmienne losowe § 5.8. Niezalezne zmienne losowe

Pouczajace jest obliczenie splotu trzech (zad. 11) i wiecej gestosci jedno- dystrybuante Cn dana wzorem (3). Zmienna losowa Nt przyjmuje wartosci
stajnych. Wykresy ,staja sie wtedy coraz bardziej podobne (dlaczego?) do calkowite nieujemne, czyli wystarczy znalezc P'(Nt = k) dla k = 0,1,2, ....
gestosci rozkladu normalnego.
P(Nt = k) = P(Sk .;;; t, Sk+l > t) =
Innym przykladem :zastosowania splotu jest = P(Sk .;;; t) + P(Sk+1 > t) - P({Sk .;;; t} U {Sk+1 > t}) =
->..t ().,t)k

Twierdzenie 20. Niech Xl, X2, ... ,Xn beda niezaleznymi zmiennymi lo- = Ck(t) + (1 - Ck+1(t)) - 1 = e ~
sowymi o rozkladzie wykladniczym z parametrem A.
dla k ~ 1, oraz
Wtedy suma Xl + X2 + ... + Xn m.a rozklad o gestosci gn i dystr·yb·ttanC'ie P(Nt = O) = P(XI > t) = e->..t.
Cn danych wzommi
Zatem Nt ma rozklad Poissona z parametrem At. Rozklad ten otrzymamy
Jest to !'OzkJ ad
AnXn-1 jeszcze raz w rozdz. 7 jako rozklad graniczny ciagu rozkladów Beruoulliego.
Erlanga. (2)
gn(X) = (n _ 1)ie-AX1(o,oo) (X), Latwo widac, ze P(Na = O) = 1 i proces ma prawostronnie ciagle trajek-
torie. Proces Poissona jest pT'Ocesem o pr·zyr'ostach niezaleznych, czyli dla
(3) dowolnych () .;;;to < tl < ... < tn zmienne losowe
Cn(x)=l-e ->..x (. 1+,+1.
AX n _ l.)' ' x>O.
... +( (A:I;)n-l)
Ntl - Nto,Nto - Nt".·· ,Ntn - Ntn_l
Dowód twierdzenia pozostawiamy jako zadanie (zad. 7).
Badanie zjawisk losowych przebiegajacych w czasie prowadzi w natmalny sa niezalezne.
sposób do badania rodzin zmiennych losowych, indeksowanych parametrem Ponadto Nt - N. ma rozklad Poissona z para~etrem A(t - s) (dowody obu
interpretowanym jako czas. Oto przyklad. stwierdzen - patrz zad. 9.4.2) .•

Przyklad 21 (Proces Poissona). Zdefiniujemy teraz rodzinQ zmiennych Zadania


losowych N (t), t E R+. Taka rodzine nazywamy p'rocesem stochastycznym,
a t interpretujemy jako czas. Funkcje N (-,w), gdzie w jest ustalone, na- 1. Zmienne losowe X, Y sa niezalezne i maja gestosci odp. !t i h· Udowodnic,
zywamy realizacja (albo trajektoria) procesu stochastyc:znego. Funkc:ja ta ze Z = X/Y ma gestosc g(u) = .I:""", lylh(yu)f2(y) dy.
Dalej bedzie wyobraza przebieg zjawiska odpowiadajacy jednej, konkretnie wybranej sy-.
2. Xi, 'i = 1,2 jest wektorem losowym d'i-wymiarowym z gestoscia fi. Jesli
wygodniej pisac tuacji (w) sposród wszystkich mozliwych. Xl, X2 sa niezalezne, to (Xl, X2) jest wektorem (dl +d2)-wymiarowym o roz-
Nt zamiast N(t).
Rozpatrzmy zdarzenia losowe takie, jak pojawianie sie czasteczek promie- kladz.ie ciaglym z gQsto§cia !rX"X2)(Z,W) = h(z)h(w).
niowania kosmicznego, rozpad radioaktywny, wezwania. telefonic:zne. Przy- i
3. Momenty przybycia autobusów A B sa niezaleznymi zmiennymi losowymi
puscmy, ze przeszlosc nie ma wplywu na przyszlosc. Ztttem mozna przy- X, y o rozkladzie wykladniczym z parametrami et i /-L.
puszczac (nie jest to bowiem formalny argument), :i.e czas oczekiwania na a) Znalezc rozklad momentu przybycia pierwszego autobusu.
pierwszy sukces (sygnal) bedzie zmienna losowa z wlasnoscia braku pa- b) Obliczyc prawdopodobienstwo, ze autobus A przyjedzie pierwszy.
mieci, czyli zmienna losowa o rozkladzie wykladniczym (patrz zad. 5.1.16). 4. Dowód stw. 4.1.10. Niech {AihEJ bedzie rodzina zdarzen nieza.leznych.
Po kazdym sukcesie wszystko zaczyna sie od nowa. Zatem kolejne czasy Wykaza.c, ze {U(Ai)hE! jest rodzina u-cial niezaleznych.
oczekiwania XA: sa niezaleznymi zmiennymi losowymi i maja ten sam 1'0~-
klad wykladniczy. Zdefiniujmy teraz zmienna losowa, liczaca sygnaly, które
5. Wykazac, ze ll'-uklady 3i z dowodu twierdzenia 13 sa niezalezne.
pojawily sie do momentu t: 6. Podac przyklad a) zmiennych losowych Xl, X2 zaleznych i nieskorelowanychj
b) zmiennej losowej X i takich funkcji f, g, ze zmienne losowe f(X) i g(Y)
dla Xl > t, sa niezalezne.
t-
N:!!{O sup{n:XI+ ... +Xn';;;t} dla Xl ~ t. 7. Udowodnic twierdzenie 20.
8. Niech X, Y, beda niezaleznymi wektorami losowymi. Wykazac, ze
Rodzine Nt, t> O nazywa sie procesem Poissona.
Wyznaczymy teraz rozklad zmiennej losowej. Nt. Niech Bn = Xl + ... +Xn·
P(X E A, (X, Y) E B) =L P(u, Y) E B)p.x(du).
Jest to moment pojawienia sie n-tego sygnalu. Z tw. 20 wynika, ze Bn ma
106 Rozdzial 5. Zmienne losowe § 5.8. Niezalezne zmienne losowe 107

9. Niech Z = L~=l TnUn, gdzie (Un) jest ciagiem Bernoulliego. Wykazac, ze Paradoks czasu oczekiwania. Zalózmy, ze odstepy czasu pomiedzy przyjaz-
Z ma rozklad jednostajny na odcinku [-l, l]. dami kolejnych autobusów sa niezalezne i maja i~en sarn rozklad wykladniczy
10. 'Vykazac, ze dla dowolnego ciagu (Mn) rozkladów prawdopodobieIlstwa ist- z pa.rametrem A, tak ze przyjazdy sa sygnalami z procesu Poissona (przyklad
21). Sredni czas oczekiwania na autobus mozna obliczac na dwa sposoby.
nieje taki ciag niezaleznych zmiennych losowych (Xn), ze Xn ~ /J'n,.
Po pierwsze, wlasnosc braku pamieci dla rozkladu wykladniczego powoduje, ze
11. Wyznaczyc rozklad sumy trzech niezaleznych zmiennych losowych o rozkla- niezaleznie od tego, ile czasu uplynelo od przyjaz,du ostatniego autobusu, sredni
dzie UfO, 1].
czas oC7,ekiwania jest stale równy 1/,\.
12. Wykazac, ze suma niezaleznych zmiennych losowych ma rozklad ciagly, jesli Po dl'1lgie, na przystanek przychodzimy w chwili 1:0 pomiedzy przyjazdami au-
jeden ze skladników ma rozklad ciagly.· tobusów. Jesli uznamy te chwile za wybrana losowo w odpowiednim przedziale,
to sredni czas oczekiwania powinien byc równy polowie sredniego odstepu, czyli
*13. 'Udowodnic, ze Z = L~=l Un/n, gdzie (Un)n jest ciagiem Bernoulliego, ma 1/2>'. Moze ta argumentacja jest podejrzana, ale kazdym razie sredni czas ocze-
rozklad ciagly (zbieznosc z prawdopodobier1stwem l tego szeregu mozna
kiwania powinien byc wyrainie krótszy niz l/A.
otrzymac z tw. 7.3.2).
Wyjasnienie kryje siQ, w fakcie, ze przedzial zawierajacy chwile to jest srednio
14. Dwustronny rozklad wykladniczy. Zmienne losowe X i Y sa niez,11(-)~ne dhlZSZY niz l/A.
i maja ten sam rozklad wykladniczy. Wyznaczyc rozklad X-Y.
15. Niech U = min(X, Y), V = max(X, Y)-rnin(X, Y), gdz.ie X, Y sa niezalezne
19. Wykazal:, i,e sredni czas, jaJci uplynal):ldprzyjazdu ostatniego autobusu jest
równy (J - e-'\',O)/A ..
i maja ten sam rozklad wykladniczy z parametrem A.
Wykazac, ze U i V sa niezalezne. Tak wiec dla d m~ych 1:0 sredni czas od przyjazdu ostatniego autobusu jest prak-
tycznie równy J / A, taki sam jest czas oczekiwania na najblizszy autobus. Prze-
Statystyki pozycyjne a proces Poissona. Jesli Xl, ... , Xn sa niezaleznymi thial 7..awiera.jacychwile to ma srednia dlugosc bliska'2/ A, my przychodzimy mniej
zmiennymi losowymi o tym samym rozkladzie, to kota statystyka P07.ycyjna nazy- wiQ,cejw jego polowie i paradoks znika.
wamy koty z kolei wyraz uporzadkowanego w sposób rosnacy ciagu (Xl, ... ,X,,); 20. Podac przyklad nieskore! 'wanych zmiennych losowych o rozkladzie N (O, l),
Clznaczamy ja symbolem ,x(k)' które nie sa niezalezne. "
W s"czegóbLOsci X(1) = min(Xl, ... , Xn), X(n) = max(XI, ... , Xn). 21. Podac .koutrprzy,klad, POk;lZUjaCY,ze tw. 5.8.1 2 nie jest prawdziwe dla do-
wolnych rodzin. zdarz.GI1.
16. Niech U = (U(l)'" .', U(n») bedzie zbiorem statystyk pozycyjnych dla roz- *22. Syrnetryc~na nierównosc Bernsteina. N.iech (U.n.) bed~ie ciagiem Ber-
kladu jednostajnego na [O, l]. Wykazac, ze U ma rozklad jednostajny na noulliego, 07,naczll1YSu. = U, + ... + u.n.. '~Iykazac, ze To symetryczny \
zbiorze.6.n = {(Xl, ... ,Xn) E Rn:o::;; Xl ::;;X2· .. ::;; X",::;; l}. przypadek
Wyznaczyc EX(k) dla k = 1,2, ... , n. nierównosci 7.4.2.
Na rynku w p( Vnr.:: > r )
Sn '":< e _,.2/2 .
Grybowie stoja Sygnaly pojawiajace sie w procesie Poissona realizuja intuicje losowego ukladu
taksówki o *23. Nierównosc Hardy'ego-Littlewoodn. Wyw~ioskowac z zadania 22, ze
numerach 27, 11 i punktów, co scislej mozna wypowiedziec tak: jesli obserwujemy proces do chwili
3. Jeden z
uczestników
t (albo do chwili pojawienia sie n-tego sygnalu), to zaobserwowane sygnaly maja
taki rozklad na odcinku [O, t] (lub [O, Sn]), jak statystyki pozycyjne dla rozkladu
Sn _::;;
lim nsup :j2nlogn
l p.n.
konferencji jednostajnego na odpowiednim odcinku.
probabilistycznej Uwaga. Równie dobrze
twierdzi, ze naj-
prawdopodobniej
17. Niech (Sn);:"=I bedzie ciagiem sygnalów w procesie Poissona. Wykazac, ze l· . f'
num, ~
Sn .... l p.ll.
wektor (Sri Sn+l, ... ~Sn/ Sn+rJ ma ten sam rozklad, co U z zad. 16. n y2nlogn >'" -
w miasteczku jest
36 taksówek. 18. Wykazac, ze w procesie Poissona t24. Podac przyklad dwóch funkcji ciaglych, róznych od stalej, okreslonych na
Dlaczego? Patrz
przedziale [O, l], które potraktowane jako zmienne losowe (prawdopodobien-
odp. do zad. 16.
P«SI, ... , Sn) E A. INt = n) = P(tU E A), A C .6.n , stwem jest miam Lebesgue'a na [0,1]) sa niezalezne. Czy takie funkcje moga
byc klasye'? Czy moga miec wahanie skor1czone?
gdzie U jest wektorem statystyk pozycyjnych z zad. 16. 25. Wylosowano niezaleznie i zgodnie z tym samym rozkladem o ciaglej dystry-
Innymi slowy, jesli wiadomo, ze na odcinku [0, t] pojawilo sie n sygnalów, buancie dwie liczby rzeczywiste; pokazano nam jedna z nich. Jesli prawidlowo
to ich wspólny rozklad jest taki, jak statystyk pozycyjnych dla rozkladu odgadniemy, czy jest ona mniejsza czy wieksza od drugiej, wygramy 106 USD.
jednostajnego na [O, t]. Co robic?

lO

f~
108 Rozdzial 5. Zmienne losowe § 5.9. Rózne rodzaje zbieznosci zmiennych losowych 109

§ 5.9. Rózne rodzaje zbieznosci zmiennych losowych (b) dla kazdego c> O limN~ooP(n:=N{IXn - XI ~ c}) = l;

Definicja 1. Ciag zmiennych losowych (Xn)~=l jest zbiezny do zmiennej (c) dla kazdego c > O liiuN_oo P(U:=N{IX;.,. - XI > c:}) = O.
losowej X:
Dowód. Równowaznosc (b) i (c) jest oczywista. (a) i (b) sa równowazne,
bowiem
(a) prawie na pewno, jesli
00 00
P({W:limXn(W)
n = X(w)}) = l, Xn !:.:.".:, X B P( U
N=l n=N
n {IXn - XI ~ e}) = l, (1)

co oznaczamy'Xn !:.:.".:, X; a poniewaz zdarzenia BN = n:=N{IXn - XI <


c} tworza rodzine wstepu-
(b) wedlug prawdopodobienstwa, jesli dla kazdego e > O
jaca, to z twierdzenia 1.1.7 o ciaglosci prawa strona (1) jest równowazna
warunkowi 00

limP(IXn
n - XI> e) = O,
Nlim
-+CXJ p(n{IXn-XI~e})=1.- .
n=N
co oznaczamy Xn ...!:..... X;
~.I?-j.'?.s~!<_.:!:. .lesl·l dla kazdego e > O mamy Z:::l P(IXn - XI > e) < 00,
Definicja
przestrzeni (c) wedlug p-tego momentu (w LP), O < P < 00, jesh EIXIP < 00, to Xn !:.:.".:, X.
LP(D,F,P) EIXnlP < 00 dla n = 1,2, ... i
znajduje sie D O wód . .Jest spelniony warunek (c) twierdzenia 3, gdyz
w dodatku C.
IimEIXri
n - XIP = O, 00 00

co oznaczamy Xn
L"
----> X.
P( U
n=.N
IXn - XI> e) ~ L
n=N
P(IXn - XI> e) --->
N~oo
O

jako reszta szeregu zbieznego. _


Kazda z tych zbieznosci ma swój odpowiednik w analizie (sa to odpowiednio
zbieznosci prawie ws:zedzie, wedlug miary i w LV). W przyszlosci pojawi sie Zbieznosc prawie na pewno pociaga za soba zbieznosc wedlug prawdopo-
jeszcze jeden rodzaj zbieznosci, najwazniejszy z punktu widzenia rachunku dobierlstwa.
prawdopodobienstwa: zbieznosc wedlug rozkladu (patrz rozdzial 8).
W· .k".l
_.:.n.19..~~._..0. 'l:
es!./\ vn p.n.
----> X , to Xn p
----> X .
Zajmiemy sie teraz zbieznoscia prawie na pewno. Bezposrednio :~definicji
wynika nastepujace stwierdzenie:
Dowód pozostawiamy jako zadanie (zad. 4). Z nierównosci Markowa wynika,
ze zbieznosc wedlug p-tego momentu pociaga zbieznosc wedlug prawdopo-
St . d
__ "'~~E._\1;~~l~_. . __~
2 .l es'l'2 X n ---->
p.n. X ,1Vn ---->
p.n. y ,to clobie11stwa.

(a) dla dowolnych a, b E R jest aX" + bYn !:.:.".:, oX + bY; 1'}\'.ie!:g~eme.6 . .ldli Xn l?, X, to Xn ...!:.....X. Gdy dodatkowo

(b) Xn·Y,,!:.:.".:,X·Y; ess sUPnEN Xn ~ K,


l p.n. l to zbieznosc wedlug prawdopodob'le'nstwa, Xn X, pociaga zbieznosc we-
(c) jesli P(X =1= O) = l, to l{x,,;óo} x" ----> X' L'
...!:.....
.
dlug p-tego momentu, Xn ----> X.
Mamy tez charakteryzacje zbieznosci prawie na pewno:
D o wód. Stosujemy uogólniona nierównosc Czebyszewa do funkcji g(x)
Twierdzenie 3. Nastep'u.jace wa'runki sa Tównowazne: = IxlP i Xn - x._

(a) Xn !:.:.".:, X; Jak pokazuje ponizszy przyklad, inne ogólne zaleznosci miedzy zbiezno-
sciami nie maja miejsca ..
110 Rozdzial 5. Zmienne IOHOWO § 5.9. Rózne rodzaje zbieznosci zmiennych losowych 111

Przyklad 7. a) Niech (An)n bedzie ciagiem zdarzen niezaleznych takim, ~ Nie wpi·ost. Gdy (Xn)n.1tli'e jest zbiezny wedlug prawdopodobienstwa, to
ze I:n peAn) = 00, ale limn~oo peAn) = O. Wtedy Xn = lAn jest zbiezny istnieje I': > O i podciag nk l' 00 taki, ze
do X == O wedlug prawdopodobienstwa i wedlug p-tego momentu dla do-
wolnego p > O, ale nie jest zbiezny prawie na pewno. Istotnie, dla dowolnego P(IXnk - XI > 1':) > 1':. (2)
I': > O, mamy P(IXnl > 1':) ~ peAn) --> O, [IXniP = peAn) -> O. Z dru-
Z zalozenia z podciagu (Xnk)k mozna wybrac dalszy podciag (Xnkl)1 zbiez-
giej strony, na mocy lematu Borela-Cantelliego zachodzi nieskonczenie wiele
ny do X prawie na pewno, ale (Xnkl)1 spelnia (2). Sprzecznosc. _
zdarzen An, zatem prawie na pewno Xn(w) = 1 dla nieskonczenie wielu n,
czyli Xn nie jest zbiezny prawie na pewno do X == O.
Wniosek 10. Jesli Xn -~ X, .f jest funkcja ciagla na zbior'ze A TaZ
b) Niech n= (0,1], An = (O,~] oraz Xn = 2nlA". Wtedy Xn(w) = O dla p
= 1,
n takich, ze ~ < w. Zatem X" ~ O (a wiec takze Xn O). Poniewaz L P(X E A) to f(Xn) ---7.r(X).

[IXniP = 2np . ~ ---->


n~oo 00 dla kazdego p, wiec Xn nie jest zbiezny wedlug D o w ó d. Korzysta.jac z t.wierdzenia 9, wystarczy pokazac, ze z kazdego
p-tego momentu dla zadnego p. _
ciagu rosnacego liczb naturalnych (nkh mozna wybrac podciag (nk/)I taki,

Zajmiemy sie teraz dokladniej zbieznoscia wedlug prawdopodobienstwa. ze l(X."",) ~ f(X). Poniewaz Xn L X, to z (Xn.) mozna wybrac
-Okazuje sie, ze z ciagu zbieznego wedlug prawdopodobieJlst.wa mozna wy- podciag (Xnk/) taki, ze Xnk/ ~ X (znowu z t~ierdzenia 9), a poniewaz
brac podciag zbiezny prawie na pewno.
P(X E A) =l i f jest ciagla na A, to f(Xn,) ~~ f(x) .•

Twierdzenie 8 (Riesza). Jesl'i Xn L X, to istnieje podciag (Xn/J taki, Wynika st.ad wniosek, odpowiednik
pewno, którego dowód z defix;icji bylby dosyc zmudny.
stwierdzenia 2 dla zbieznosci prawie na

ze··X nk p.n. X .
---7

D o wód. Z definicji zbieznosci wedlug prawdopodobienstwa, dla dowolnego


Wniosek 11. Jesli Xn L X, Yn L Y, to
k istnieje nk, ze
p(IXn - XI > 2-k) < Tk (a) dla. dowolnych a, b E R marny aXn + b)~, L aX + bY,
dla n ~ nk. Wybierzmy ciag (nk) tak, by byl rosnacy. Rozwazmy podciag
(Xnk). Poniewaz I:~l.P(IXnk - XI > 2-k) < 00, to z lematu Borela-
(b) X,,)/'n L XY,

-Cantelliego zachodzi skonczona liczba zdarzen (c) jesli P(X =1= O) = 1, to l{x"",o} i,. L*". l
{IXnk - XI > 2-k},
D o wód. Oczywisty, gdy zastosujemy wniosek 10 dla (Xn, Yn) i 'funkcji
zatem !Xnk(w) - X(w)1 ~ 2-kdla k ~ k(w), prawie na pewno, czyli f(x, y) = ol: -1-y, f(:l:,;u) = xy i .1'(.7:) = l{#o}~ .•

Xnk ~X, -
Twierdzenie 12. Nastepvjace war'unki sa równowazne:

Do badania zbieznosci wedlug prawdopodobienstwa bardzo przydatne jest ('i) Xn Lx;


nastepujace twierdzenie:
(ii) dla kazdego p> O

Twierdzenie 9. Ciag (X,,)n jest zbiezny wedlug pmwdopodobienstwa do


X wtedy i tylko wtedy; I gdy kazdy jego podciag (Xnkh zawiem podc'iag
. nu. c..
l.
n~c;o c'I (
----
1 +IXnIXn- -XIPXII' ),"
==0.

(Xnkl)1 zbiezny do X prawie na pewno.


(iii) dla pewnego p > O
i':Hi1~
D o wód. '*
(Xn)n jest 'zbiezny wedlug prawdopodobienst.wa do X, wiec:
podciag (Xnkh tez, i korzystajac z twierdzenia 8 otrzymujemy istnienie
n~oo
bm
.. c: ( 1 +IXnIX-n -XIPXI p ) = O.
podciagu (Xnk/)I zbiezn~go prawie na pewno do X.
112 Rozdzial 5. Zmienne losowe § 5.9. Rózne rodzaje zbieznosci zmiennych losowych 113

Dowód. Stosujemy nierównosc 5.7.6 do funkcji g(x) = l~~IP oraz zmien- 11. Dystrybuanta Cantora. Rzucamy moneta nieskonczenie wiele razy i jesli
nych Xn - X .• w n-tym rzucie wypadnie orzel, to wygrywamy 2 . 3-n zlotych. Niech X
oznacza laczna wygrana. Wyznaczyc dystrybuante X i pokazac, ze gestosc
Lat~o teraz zauwazyc, ze na przestrzeni zmiennych losowych (utozsamiamy nie istnieje. Jaki jest zwiazek dystrybuanty ze zbiorem Cantora? Jaka jest
zmienne losowe równe prawie na pewno) mozna wprowadzic metryke, przy wartosc oczekiwana i wariancja wygranej?
której przestrzen ta staje sie przestrzenia metryczna zupelna, zas zbieznosc 12. Udowodnic
w tej metryce jest równowazna ze zbieznoscia wedlug prawdopodobienstwa
(patrz zadania 8,9, 10). Twierdzenie 13 (Pratta). Jesli Xn, Yn, Zn, X, Y, Z sa takimi zmiennymi
losowymi, ze Xn ...!:.-., X, 1';, ...!:.-., Y i Zn ...!:.-., Z oraz Xn ,,; y", ,,; Zn p.n.
,t:i dla wszyslk·ich n, EXn -" EX, EZn -" EZ, EZ, EX sa skonczone. Wtedy
1:"

Zadania EYn -" EY i


EY jest skonczona.

1. Wykazac, ze zbiór {w E O: limnXn(W) = X(w)} jest zdarzeniem. 13. Udowodnic, ze jesli ciag zmiennych losowych (v'X n) jest zbiezny w L2, to
ciag (Xn) jest zbiezny w LI.
2. Wykazac, ze
14. Niech Xn beda niezaleznymi zmiennymi losowymi o jednakowym rozkladzie,
Xn ~ X e} Vc > O lim P(
N·-;.co n
n,7n);N
IXn - Krn I < c) = 1. niech istnieje EXl. Udowodnic, ze ~ maXi';;n lXii ...!:.-., O.

Jednostajna calkowalnosc. Wprowadzimy teraz bardzo przydatne pojecie:


Jest to warunek Cauchy'ego.
Wlasciwie
3. Wykazac, ze jesli dla pewnego ciagu o wyrazach clodatnich (en), takiego, ze Definicja 14. ówimy,
1\11 ze rodzina zmiennych losowych {Xt: t E I} jest jedno- jednostajna
cn! O mamy 00
stajnie calkowalna, gdy calkowalnosc nio

L
n=l
P(IXn - XI > en) < 00, lim supE
C~OOtEl
(IXtll{IXd>C}) = O.
potr'wbujo
l'p.kIClI1lY·

to Xn ~X. Na poczatku podamy kilka przykladów i kryteria na jednostajna calkowalnosc.


4. Udowodnic wniosek 5.
15. Udowodnic, ze jesli IXtl ,,; Y dla t E I, EY < 00, to {Xt: t E I} jest jedno-
5. Pokazac, ze granica wedlug prawdopodobienstwa jest; wyznaczona jedno-
znacznie. stajnie calkowalna. W szczególnosci skonczona rodzina zmiennych losowych
calkowalnych jest jednostajnie calkowalna.
6. Ciag (Xn) jest zbiezny wedlug prawdopodobienstwa do pewnej zmiennej
losowej X wtedy i tylko wtedy, gdy Vc > O limn,m_oo P(IXn - Kml > c) = O Podamy kryterium, 'l, którego w szczególnosci wynika, ze rodzina zmiennych lo-
(warunek Cauchy'egó). sowych ograniczona w Ll', p > 1, jest jednostajnie calkowalna.
7. Udowodnic wniosek 11.
16. Niech G bedzie funkcja rosnaca nieujernna taka, ze limt~oo G~t) = 00. Jesli
8. Niech LO = LO(O,F,P) oznacza przestrzeli wszystkich zmienny'ch losowych {Xt: t E J} sa calkowalne, M = sup, EG(IXtl) < 00, to rodzina zmiennych
na (O, F, P), przy utozsamieniu zmiennych losowych równych praw:ie na losowych {XL: t E J} jest jednostajnie calkowalna.
pewno. Pokazac, ze g(X,Y) = E (1~;2:'~I)
jest metryka na LO, (LO,g) 17. Udowodnic, ze ~mienne losowe {Xt: t E I} sa jednostajnie calkowalne wtedy
i tylko wtedy, gdy spelnione sa nastepujace warunki:
jest przestrzenia metryczna zupelna i Xn ..!..., X {o} lim",_oo g(Kn, X) = o.
9. Niech (O, F, P) bedzie przestrzenia probabilistyczna taka, ze zbieznosc we- (i) sup, EIXtl < 00,
dlug prawdopodobiei1Stwa nie pociaga zbieznosci prawie na pewno. Pokazac, (i'i) V c> O 3 Ó > O P(A) < ó => sup, J~ IXt! dP ,,; c.
ze na LO nie istnieje metryka (J taka, ze Xn ~ X {o} limn Q(Xn, X) = o.
10. Pokazac, ze jesli P jest rozkladem dyskretnym, to dla zmiennych losowych Sens pojecia jednostajnej calkowalnosci widac z nastepujacego twierdzenia:
okreslonych na przestrzeni probabilistycznej (O, F, P) zachodzi równowaz- 18. Ciag zmiennych losowych (X,,)n jest zbiezny w LP, p ~ l, wtedy i tylko
nosc:
wtedy, gdy
X" ~ X {o} X" ...!:.-., X.

Uwaga. Implikacja przeciwna tez jest prawdziwa: jesli zbieznosc wedlug (i) Ciag zmiennych losowych (X",)n je.~t zbiezny wedlug prawdopodobien-
stwa,

- -
prawdopo~obienstwa jest równowa~na ze zbieznoscia prawie na pewno, to

--
P jest rozkladem dyskretnym . (ii) (IXnIP)n sa jednostajnie calkowalne.

•••••••••• lllliil__ .llim 1--"· \ ....••..' ~ ..- -....... "'- ._, -. """""-
114 Rozdzial 5. Zmienne losowe § 5.10. Przeglad wazniejszych rozkladów 115

§ 5.10. Przegl<;l:dwazniejszych rozkladów Rozklad Poissona


II" ,'o.

Ponizej zamieszczamy przeglad najwazniejszych rozkladów prawdopodo- Jesli


bienstwa. Niektóre z nich pojawily sie juz w przykladach i zadaniach, po- Ak

zostale pojawia sie pózniej. Za kazdym razem podajemy definicje, ozna- P(X = k) =;''TIe->-' k = 0,1,2, ... , A> O,
czenie i' krótka chaql,kterystyke, a na zakonczenie - wartosc oczekiwana
to zmienna losowa X ma rozklad Poissona Pois(A).
i wariancj e (jesli istniej a) .
JesL to rozklad graniczny dla ciagu rozkladów' Bernoulliego B(n,Pn), gdy
n -> 00, Pn -> O i npn -.; A. W zwiazku z tym pojawia sie jako rozklad
Rozklad jednopunktowy
zdarzen "rzadkich" (wypadki drogowe, pozary, ~ygrane w "Toto-Lotka").
Pa.rametr: A E (O, (Xl).
Jesli P(X = a) = 1, to zmienna losowa X ma rozklad jednopunktowy,
oznaczany /ja. Moment.y: EX = A, 1)2 X = A.
Jest to najprostszy rozklad prawdopodobienstwa, wiec trudno o nim nie
wspomniec. Fizycy n~zywaja go delta Diraca - stad oznaczenie. Rozklad geometryczny
Parametr: a E R.
Jesli
Momenty: EX = a, 1)2X = O.
P(X ,= k) = (1- p)k-lp, P E (O, l), k = 1,2, ... ,

Rozklad dwupunktowy to zmienna losowa ma rozklad geometryczny z parametrem p.


Jest to rozklad czasu oczekiwania na pierwszy sukces w ciagu doswiadczen
Jesli P(X = a) = p i P(X = b) = 1 - P = q, P E (0,1), to zmienna losowa
Bernoulliego, rozumianego jako liczba doswiadczen, które nalezy wykonac,
X ma rozklad dwu punktowy. by doczekac sie sukcesu. Niekiedy rozumie sie czas oczekiwania doslow-
R.ozklad ten pojawia sie przy opisie doswiadczenia losowego o dwu mozli- nie, jako liczbe doswiadczell \~~\rkonanych przed' ol;rzyrrlaniem pierwszego
wych wynikach, z którymi mozemy skojarzyc wartosci liczbowe. sukcesu. Wtedy otrzymujemy zmienna losowa Y = X - 1, przyjmujaca
Parametry: a, b E R, a =F b, p E (0,1). wartosci k = 0,1,2, ... ; wtedy P(X ~ k) = (1 - p)hp. R.ozklad zmiennej
Momenty: EX = pa + qb, 1)2X = pq(a - b)2. losowej Y takze nazywamy geometrycznym (t:Y = EX - 1, 1)2y = 1)2X).
Ma wJasnosc "braku pamieci" (zad. 5.1.16). Jego ciaglym odpowiednikiem Momenty
jest rozklad wykladniczy. rozkladu
Rozklad Bernoulliego (dwumianowy) geometrycznego
Parametr: p E (0,1). najwygodniej
obliczac za
Jesli Momenty: t:X = l/p, 1)2X = (1 _ p)/p2. pomoca funkcji
tworzacych
(dodatek B).
P(X = k) = B(k, n,p) = (~)pk(1- p)"-k, k = 0,1, ... , n, p E [0,1], Rozklad wielomianowy

to zmienna losowa X ma rozklad Bernoulliego (dwumianowy) B(n,p). Jest uogólnieniem rozkladu dwumianowego i opisuje rozklad wyników przy
Jest to rozklad lacznej liczby sukcesów w n doswiadczeniach Bernoulliego, n-krotnym powtórzeniu doswiadczenia o l, mozliwych rezultatach. Jesli Xi
gdy szansa sukcesu w pojedynczym doswiadczeniu wynosi p. Nieco inaczej, oznacza liczbe wyników i-tego typu w serii, to
jest to rozklad sumy Xl + ... + Xn, gdzie zmienne losowe Xi sa niezalezne
. r ni
i maja ten sam rozkl~cl dwupunktowy: P(Xi = 1) = p, P(Xi = O) = 1 - p, P(Xl = nl,··· Xk = nk) = ni'"I
n! nk

i=1,2, ... n .. '! .nk· ,Pl" ·Pk ,

t' l
Parametry: n E N, p E [O,l].
gdzie Pi E [0,1], i = 1,2, ... h
1/1 + ... + Pk = 1, na + ... + nk = n.
Momenty: EX = np,·1)2 X = npq. Zmienna losowa Xi ma rozklad B(n,pi), cov(Xi,Xj) = -PiPj, gdy i # j.
116 Rozdzial 5. Zmienne losowe § 5.10. Przeglad wazniejszych rozkladów 117

Rozklad ujemny dwumianowy Rozklad jednostajny na A C Rn

Jesli Niech A bedzie borelowskim podzbiorem Rn o dodatniej i skonczonej mierze


Lebesgue'a A. Rozklad o gestosci
k = 0,1,2, ... ,p E (0,1), a> O, = A(A)-llA(X), Rn.
P(X=k)= (a + kk - 1) (l-p) k p", g(x) X E

'Wiaze sie z intuicja "losowego" wyboru punktu ze zbioru A. Najczesciej spo-


to zmienna losowa ma ujemny rozklad dwumianowy z parametrami a, p.
tyka sie rozklad jednostajny na przedziale [a, bl, którego gestosc wyraza sie
Jesli parametr a jest calkowity, marny do czynienia z czasem oczekiwa- wzorem
nia na a-ty sukces w ciagu prób Bernoulliego, tzw. rozkladem Pascala. X l
interpretuje sie jako liczbe porazek poprzedzajacych a-ty sukces. g(:c) = b_a1[a,b](X), xER.
Nazwa rozkladu bierze sie stad, ze Bedziemy go oznaczac Ula, b].

Czasem wygodnie jest rozumiec pojecie rozkladu jednostajnego nieco sze-


rzej, jesli tylko marny do dyspozycji rozsadna namiastke miary Lebesgue'a.
(a+:-l) =(_l)k(~~), Na przyklad: rozklad jednostajny na sferze (nie na kuli), na brzegu kwa-
gdzie dratu.
a(a - 1) ..... (o: - k + 1) Momenty zmiennej losowej X o rozkladzie Ula, b]:
(-ka) k!
EX= a+b V2X= (b-a)2.
Dla a = 1 otrzymujemy rozklad geometryczny. Niecalkowite wartosci a od-o 2 ' 12
powiadaja rozkladom granicznym dla rozkladów pólya. Przy oznaczeniach
z zad. 3.2.13 niech p = b/(b+c), 1 = d/(b+c). Jesli n -> 00, p -> O, 1-> O, Rozklad wykladniczy
np -> A, wy -+ p-l, to
Ma gestosc
g(x) = Ae-Axl(o,CXJ)(x).
Pk,n -> (AP +kk - l) ( 1+P p ) Ap ( 1+1 p ) k Jest ciaglym odpowiednikiem rozklad\.) geometrycznego i ma, tak jak on,
wlasnosc braku pamieci.
Parametry: a E (0,00), P E (O, l).
Parametr: A E (0,00).
Momenty: EX = a(l- p)/p, V2 X = a(l _ p)/p2 Momenty: EX = 1/ A, V2 X = 1/ A2.

Rozklad hipergeometryczny Rozklad gamma


Jesli
Rozklad o gestosci
(n) (m-n) ba
p (X = k) = k Im\
"-k , rnax (O , n + l' - fn ) "'" . (n, T ) ,
/ k..~ rnm
IU,b(:E} = r(a)xa-le-bXl(O,CXJ)(:E), a,b> O.

to zmienna losowa X ma rozklad hipergeometryczny z parametrami m, n Jesli (1 jest liczba naturalna, jest to rozkl.ad sumy a niezaleznych zmiennych
i f'. Zmienna losowa X mozna interpretowac jako liczbe wyróznionych ele- losowych o rozkladllie wykladniczym z parametrem b. W zwiazku z tym
mentów w T-elementowej próbce, jesli cala m-elementowa populacja zawiera mozna sie spodziewa.c wlasnosci
n elementów' wyróznionych. 1aj,b * la2,b = 'i'al+U2,b, (l)
Parametry: m, n, T.
która zreszta ma miejsce dla dowolnych. al, a2 (por. zad. 1).
Momenty: EX = nr/m, V2 X = [nr:(m - f')(m - n)]/[m2(m - 1)].
Parametry: a, b E (O, (0) (a jest parametrem ksztaltu, b - skali).

Przechodzimy teraz do rozkla.dów ciaglych.


Momenty: EX = a/b, V2 X = a/b2.
118 Rozdzial 5. Zmienne losowe § 5.10. Przeglad wazniejszych rozkladów 119

Rozklad beta trzech sigm" : szansa wyjscia zmiennej losowej-o rozkladzie N (O, er) poza
przedzial [-3er, 3er] jest praktycznie zerowa, bowiem wynosi ole. 0,003.
Rozklad o gestosci
1
a,b> O.
!3a,b('X) =..B(a,b):r;a-l(1- X)b-I1[O.l)(X),

Wiele rozkladów un{moclalnych (takich, ze gestosc ma jedno ekstremum)


jest tej postaci. Na pbyklad dla Q, = b = 1/2 otrzyrnl1jemy rozklad arcusa
sinusa - czyli czasu pobytu po stronie dodatniej w procesie V/jenem na ~.~;
odcinku [0,1] (patrz rozdz, 13) .
~ 68.31.

Parametry: a,b E (O,qo). <4
95.61.
--.
Momenty: EX = 0./(0. + b), 1)2 X = ab/[(a + b)2(a + b + 1)].
~ 99,7% ~

Rozklad Cauchy'ego
Dystrybuante rozkladu N (O, l) oznaczamy prz~z <I>(x). Pozyteczne jest
Ma gestosc oszacowanie ogona rozkladu normalnego: .
. h
f(x) = 7T((X - m)2 + h2)'
h> O. --e
l
V27f-
"---
l + < l - 'l!
_:c2j0:1;
x2
""() X <--e'
1
V27f-
~x2/2 -,
l
x
x> O. (2)

Najczesciej spotyka sie standardowa postac, gdzie rn = O i h = 1. Jesli (patrz zad. 3).
XI, ... Xn sa niezaleznymi zmiennymi losowymi o standardowym rozkladzie Parametry: m E R, er E (0,00).
Cauchy'ego, to nXI ma ten sam rozklad, co Xl + ... Xn.
Momenty: EX = m, 1)2X = er2.
Parametry; m E R, h E (0,00).
Wielowymiarowy rozklad normalny. Ogólna postac wielowymiarowego
Momenty: wartosc oczekiwana nie istnieje (zad. 5). rozkladu normalnego otrzymuje sie ze standardowej postaci przez prze-
ksztalcenie aJiniczne, analogicznie jak w przypadku jednowymiarowym.
Rozklad normalny (Gaussa) Rozpatrzmy zmienna losowa X = (XI, ... ,Xn) o gestosci

Jednowymiarowy standardowy rozklad normalny, N (O, 1), ma ge-


gXI,
( .. ·,Xn
,) __ 1_ -~L:'-,x;
- (v rn= e '-,
._( ..
x- xl,,,,,xn
) Rn
E .
stosc 271')n

Ma ona standardowy rozklad normalny w Rn, oznaczany przez N (0,1),


tp(x) = v ~e-X2j2.
27r gdzie I
jest macierza jednostkowa.
Jesli zmienna losowa X ma rozklad N (0,1), to zmienna losowa erX + rn, Niech T: Rn -, Rn bedzie nieosobliwyrn przeksztalceniem liniowym, tj.
gdzie er > O, ma rozklad N (m, (j2) o gestosci det T -I O i niech (-, .) oznacza iloczyn skalarny. ~najdziemy gestosc zmien- Przeksztalcenie
nej losowej Z = TX. Dla A E B(Rn) mamy:
l 2 o
liniowe
utozsamiamy
In (X) = __ e-(x-m) j2u
z jego macierza,.
.,-m,u erV27f-
P(TX E A) = P(X E T-lA) = JT-lA
r . g(X) dx ='jA g(T-Iu)ldetT-Ildu .
Na rysunku pokazano gestosc standardowego rozkladu normalnego. Nalezy
zwrócic uwage, ze skale na obu osiach sa rózne, w przeciwnym razie rystmek
móglby byc malo czytelny. Faktycznie gestosc jest bardziej splaszczona. Byc
" to Tt jest
transpozycja,. l'
moze warto zapamietac podane na rysunku liczby: prawdopodobienstwo, ze
Szukanagestosc IdtT-II_1(T-1s,T-1s) (albo.
zmienna losowa o rozkladzie N (O, l) przyjmie wartosc z przedzialu [-1,1] r '-11 - e e 2 przeksztalcemem
wynosi ok. 0,683; dla przedzialu [-2,2] jest to juz 0,956 i wreszcie dla ( ) ~ g(T',) Idet Y - (V2.')" y'dil(J -l(Q.,.), .,,,,""",m do
przedzialu [-3,3] mam\j' 0,997. Ta ostatnia zaleznosc znana jest jako "regula
h, Id'tT-'I,-I«T-'l'T~"'"
(V27f-)n ~ (V2.')O' TJ.
120 Rozdzial 5. Zmienne losowe § 5.10. Przeglad wazniejszych rozkladów 121

gdzie Q = (T-l )tT-I jest macierza dodatnio okreslona. Okazuje sie, ze Q ma - z dokladnoscia do parametru skali - rozklad X2 o n-l stopniach
jest macierza odwrotna do macierzy kowariancji zmiennej losowej Z, zdefi- swobody, a ponadto x i s;' sa niezalezne (tw. Fishera).
niowanej jako Cij = COV(Zi, Zj). Zeby to zobaczyc, zauwazmy najpierw, ze 3. Udowodnic oszacowanie (2) ogona rozkladu normalnego.
dla standardowej gestosci gaussowskiej g mamy:
4. Wykazac, ze jesli X i Y sa niezaleznymi zmiennymi losowymi o rozkladzie
jednostajnym na (O, l), to l
.l" (x, u) (x, v)g(x) dx = (u, v).
W takim razie
u = ,; -2 log X cos (21l'Y) v = ,; -2log X sin (21l'Y)

sa niezalezne i maja rozklad N (0,1).


Cij = JR"
r (Tx,ei)(Tx,ej)g(x)dx Zadanie to zostalo zainspirowane instrukcja obslugi kalkulatora programowal-
nego, z której wynikalo, ze taki jest algorytm generacji liczb losowych o rozkla-
= iRon
r (x, Ttei) (x, Ttej)g(x) dx = (Ttei, Ttej) = (TTtei,ej) = Qi/. dzie normalnym (Box-Mi.iller, 1958). Liczby losowe o rozkladzie jednostajnym
generuje sie bowiem stosunkowo prosto. Wiecej informacji o generowaniu liczb
Stad oznaczenie dla ogólnej postaci rozkladu normalnego: N (m, Q), gdzie losowych o zadanym rozkladzie mozna znalezc w § 7.4.
m jest wektorem wartosci srednich, zas Q - macierza odwrotna do macie-
5. Udowodnic, ze zmienna losowa o rozkladzie Cauchy'ego nie ma wartosci ocze-
rzy kowariancji. Gestosc wyraza sie wzorem kiwanej.

g(x) = .Jdet Q e-(Q(x-m),x-m) x E Rn.


(~)n '

Czasem wygodnie jest nazwac miara gaussowska miare skupiona na pewnej


wlasciwej podprzestrzeni liniowej R'n. Wtedy nie Ina ona. gestosci wzgle-
dem miary Lebesgue'a w Rn. Ale z rozszerzeniem definicji poczekamy do
rozdzialu o funkcjach charakterystycznych.

Rozklad X2 (n)

Rozklad zmiennej los0wej Xl + ... + X~, gdzie Xi, = 1,2, ... n sa nie- i
o tescie X2 zaleznymi zmiennymi losowymi o rozkladzie N (0,1) nazywamy rozkl:adem
slyszal chyba X2 o n stopniach swobody; oznaczamy go x2(n). Jest najbardziej znanym
kazdy. rozkladem wystepujacym w statystyce.
Gestosc rozkladu X2 (n) jest gestoscia "Yn/2,1/2'

Zadania

1. Wykazac, ZE! rozklad X2 o n stopniach swobody ma gestosc "1,,/2,1/2'


2. Niezalezne zmienne losowe Xl, ... Xn maja rozklacl N (O, l). Wykazac, ze
wariancja z próby, zdefiniowana wzorem

Sn2 = n1~L...
)Xi
k=l
-2
- x) ,

gclzie srednia z próby jest okreslona jako'

x=------
_ Xl + ... +X"
n
§ 6.2. Warunkowa wartosc oczekiwana wzgledem rozbicia przeliczalnego 123

To calkiem proste: jesli znamy U, to srednio V = ~U. A poniewaz fU = ~,


to f V = ~fU = *.
W polni formalne rozwiazanie wymagaloby konstrukcji modelu. Jesli przy-
jac D = {(1;, y) E [0,1]2: y ::;;:x}, to nalezaloby podac taka gestosc g(x, y) na
D, przy której U(x, y) = x ma rozklad jednostajny na [O, l], a V(:1:, y) = y
Rozdzial 6 '1, - rozklad jednostajny na odcinku [O, xl przy ustalonym x. W takim ra-
zie przy ustalonym x gQstosc powinna byc stala, gdy O ::;;: V ::;;: x, czyli
g(:t,V) = h(x)l{lI~"'}' a ponadto dla dowolnego t E [O, l]
Warunkowa wartosc
oczekiwana t=P(U::;;:t)= l [.{9(X,Y)dY]dX= l [l"'h(X)dV]dX=

it. Xh(1:)
. o
dx,

i rózniczkujac obie strony tej równosci otrzymujemy th(t) == l, czyli h(:I:)


6.1. Wprowadzenie

. iI
§ 1rc. Teraz

W tym rozdziale uogólnimy pojecie wartosci oczekiwanej. Zanim jednak fV= y·-:dy dx= -·-dx=- .•
wprowadzimy formalna definicje war-unkowej war-tosci oczekiwanej, która . 0 [j'Xo xl] 11
o xl 2
X2 4l
to definicja moze na pierwszy rzut oka wydawac sie niezrozumiala, zaj-
miemy sie zdroworozsadkowymi procedurami usredniania funkcji (czy tez Vlarto zdac sobie sprawe, ze przydlugie rozwazania prowadzace do kon-
;Imiennych losowych), postepujac podobnie jak przy definiowaniu prawdo- strukcji modelu nie naleza do teorii (z teoria mamy do czynienia dopiero
podobienstwa warunkowego. Otrzymamy cos w rodzaju "warunkowej war- wtedy, gdy skonstruujemy model). W istocie, pojawiajace sie w zadaniach
tosci oczekiwanej dla opornych". Ma ona niestety wade, odziedziczona po probabilistycznych rekwizyty: kostki, monety, odcinki, z których (nie wia-
prawdopodobienstwie warunkowym: traci sens, gdy warunek ma zerowe domo jak) wybiera sie losowo punkt, sluza tylko ubarwieniu teorii i pod-
prawdopodobienstwo. Idopiero wersja "turbo" warunkowej wartosci ocze- kresleniu jej zwiazku z zagadnieniami "z zycia". Jak wobec tego scisle sfor-
kiwanej nie ma, tej wady i pozwala na przyklad uzasadnic formalnie takie mulowac powyzszy przyklad? Stanie sie to jasrlC'pod koniec tego rozdzialu.
oto rozumowanie:

Przyklad 1. Z odcinka [O, l] wybrano losowo (czyli zgodnie z rozkladem


§ 6.2. Warunkowa Wartosc oczekiwana wzgledem roz-
jednostajnym) punkt U, a nastepnie z odcinka [O, Uj - równiez losowo - bicia przeliczalnego
punkt V. Jaka jest srednia dlugosc odcinka [O, V]?
Az do konca tego rozdzialu zakladamy, ze ustalona przestrzenia probabi-
listyczna jest (n, M, P). Zakladamy ponadto, ze wszystkie rozpatrywane
(T-ciala zawieraja sie w M.
Jak wiadomo, funkcja pelA) = PAO dla ustalonego zdarzenia A o dodat-
nim prawdopodobieilstwie jest rozkladem praw<;lopodobienstwa na D.
Zatem mozemy zdefiniowac warunkowa wartosc oczekiwana dla zmiennej
losowej X, jesli wiemy ze zaszlo zdarzenie A. Oznaczymy ja f (X I A).

Definicja 1. Niech X bedzie zmienna losowa o skonczonej wartosci ocze-


kiwane.j. Wtedy

x
___
f(XIA)~.__ j'L _
f X dPA.

122
124 Rozdzial 6. vVarunkowa wartosc oczekiwana 125
§ 6.2. Warunkowa wartosc oczekiwana wzgledem rozbicia przeliczalnego

Twierdzenie 2. Niech P(A) > O i niech X bedzie zmienna losowa o skon- Wzór (3) ma wiele zastosowan. Oto przyklad (patrz takze zadania 3 i 4).
7:-;o:n-;i3";~a:;'toia- oczekiwanej. Wtedy
Przyklad 4. Obliczymy wartosc oczekiwana liczby rzutów moneta az do
(1) 'Otrzymania-n orlów pod rzad. Orzel w pojedynczym rzucie wypada z praw-
E (X I A) 1 j'A X
= P(A) dP.
dopodobienstwem O < P :S; 1.

Inaczej mOWlac, E (X I A) jest srednia wartoscia zmiennej losowej X na Niech X oznacza wymagana liczbe rzutów, niech Y; =l (odp. Y; = O), gdy
zbiorze A. w i-tym rzucie wypadl orzel (odp. reszka). Wtedy
Dowód. Komplikujemy postac X: X = min{k? n:Yk-n+1 = 1, ... , Yk = l}.
1. Niech X = 1B, B E :F Wtedy Aby skorzystac ze wzoru (3), musimy wykazac, ze EX < 00. Niech.

E (lB I A) = 1n
1B dPA = P(BIA) = p(AnB)
----
P(A)
= Z = min{k: Yk-'n+1 = 1, ... , Yk =
Innymi slowy, dzielimy serie rzutów na bloki o dlugosci n i przyjmujemy, ze
1, k =n ·1, l E N}.

Z = ni, gdy l-ty blok jest pierwszym blokiem, zlozonym z n orlów. Jasne
= ptA) 118 dP.
jest, ze X :S; Z i dalej
00 00
2. Obie strony sa liniowe, wiec równosc (1) jest prawdziwa dla skonczo-
nych kombinacji:
n
EX :S; EZ = L
1=1
nIP(Z = ni) = n I::1(1 -
1=1
pn)l-Ipn < 00.

X=Lak1Bk, BkEF,k=1,2, ... ,n. (2) Zdefiniujemy teraz zdarzenia


k=l
Ak = {Y1 = Y2 = ... = Yk = 1, Yk+1 = O}, k = 0,1, ... , n-l,
3. Niech X ? O bedzie zmienna losowa calkowalna. Wtedy X jest granica
p.n. i w LI skonczonych kombinacji Xn postaci (2). Zeby otrzymac oraz
teze, wystarczy przejsc do granicy z n -t 00 i skorzystac z twierdzenia An = {YI= ... = Yn' = l}
Lebesgue'a. (zdarzenie Ak dla O :S; k :S; n-l polega na tym, ze pierwsza reszka poja-
4. Jesli X jest dowolna zmienna losowa calkowalna, to X = X+ - X-. wila sie w k + l-szym rzucie; An - ze po n-tym). Stanowia one rozbicie
Obie zmienne losowe po prawej stronie sa nieujemne i calkowalne, przestrzeni D i mamy równanie .
wiec teza twierdzenia wynika z punktu 3 i liniowosci calki. _ n n

Nastepne twierdzenie jest odpowiednikiem wzoru na prawdopodobienstwo


EX = L
';=0
E (X I A;) P(Ai) = LU + EX)pl-l(l
1=1
- p) + npn.
calkowite.
Rozwiazujac je, otrzymujemy
Twierdzenie i
3. Niech zdarzenia Az, E I st!lno'wia pr-zeliczalne rozbicie 111
EX=-+o+"'+-'
przestrzeni t"fnazdarzenia o dodatnim pr·awdopodobienst'UJ'ie. Je§l'i zmienna P p- pn
losowa X jest calkowalna, to
Dla p =~~ (moneta symetryczna) marny EX = 2n+1 - 2. _
EX =L E (X lAi) P(Ai). (3)
'zEl .J esli wiemy, ze zaszlo zdarzenie A, to warunkowa wartosc oczekiwana X
jest równa E (X I A), a gdy zaszlo Al, to jest równa E (X l Al), mozna zatem
Dowód.
zdefiniowac zmienna losowa E (X I F), gdzie F = o-(A):

EX = .J/'n X dP = L 1.
iEl A, X dP = L t
iEl. P(Ai) P(~ '.) .JA, X dP = E (X I F) (w) = {[(XI
E (X I Al),
A),
w E A,
w E Al.
Nalezy
zapamietac, ze
warunkowa

L
-
wartosc
= E(X lAi) P(Ai) .• Oznaczenie po lewej sugeruje, ze tak zdefiniowana zmienna losowa bedziemy oczekiwana jest
iEl
uwazac za warunkowa wartosc oczekiwana pod warunkiem o--ciala F. zmienna losowa.

11ll!1
h
126 Rozdzial 6. Warunkowa wartosc oczekiwana 127
§ 6.2. Warunkowa wartosc oczekiwan.a wz~ledem rozbicia przeliczalnego

Przyklad 5. Niech X bedzie liczba orlów otrzymana przy dwukrot,nym Przyklad 8. Rozpatrzmy schemat Bernoulliego n prób z prawdopodobien-
rzucIe moneta, A - zdarzeniem polegajacym na wypadnieciu orla w piel'w- stwem sukcesu równym p: Jaka jest srednia liczba sukcesów w pierwszej
szymrzucie. Wtedy ['(X I A) = 1}2[1·i+2·iJ =~, ['(XI A') = l· Zatem próbie, jezeli wierny, ile zaszlo sukcesów w calej serii?
R o z w i a'" a n i e. Niech Sn oznacza laczna liczbe sukcesów, zas Y lic?-be
sukcesÓw w pierwszym doswiadczeniu. Mamy obliczyc [' (Y I O'(Sn))' Otóz
[' (X IF) = {3/2,
1/2, A' .•
w E A,
U(Sn) = O'(Ao,··· ,A",),
Ponizsza definicja warunkowej wartosci oczekiwanej wzgledem O'-ciala ge-
nerowanego przez co najwyzej przeliczalna liczbe zdarzell realizuje pomysl
gdzie Ak = {S" = k}. Z definicji [' (Y I d8n)) (w) = [' (Y I Ak) (w) dla
zawarty w przykladzie 5.
w E Ak, wiQc wystarczy obliczyc E-(Y I Ak)' Niech Bk = Ak n {Y = l}.
Wtedy

n
Definicja 6. Niech = UiEJ Ai' gdz'ie zdarzen·ia. Ai o dodatnim pmwdopo-
dobienstwie stanowia Tozb'icie pTzestrzeni n, n'iech F = O'(Ai,'i E 1), niech
X bedzie zmienna losowa ma.iaca wartosc oczekiwana·
i [(Y I Ak) = P(~ I._) JAk Y dP = P(~_)/. L
wEAk
Y(w)P(w) =
1 P(Bk) pG=Dpk-lq(",-l)-(k-l)
Waru.E:ko~a war·toscia o~~kiwana X lJod war-unkiern O'-c'iala F bedz'iemy
nazywa.c zmienna losowa E (X I F) (w) równa [(X I Aj), gdy w E Aj, czyli
= PtAk) L
wEB" P(w) = P(Ak) = (nk

("-1)
~-- k
E-(X IF) (w) df= '\'LE-(X I Aj)1Aj(W). (~) - n
JEJ

Ale 8,,(w) = k ella w E Ak, wiec E-(Y I 0'(8n)) = ~ .•


Mówiac jezykiem bardziej potocznym, jest to srednia wartosc X, jesli wia-
domo, które ze zdarzen. Ai zaszlo. Przyklad 9. Definicja 1 jest w wielu przypadkach niezadowalajaca: niech
Dla tak zdefiniowanej zmiennej losowej zachodzi S" b<,?dzieliczba orlÓw, gdy rzuctuny n razy monett1, dla. której prawdopodo-
biciJstwo wypadniecia orla jest zmienna losowa U o rozkladzic jednostajnym
na [0,1]. Czemu jest rÓWJle prawdopodobienstwo P(Sn = klU = x)?
.Twierdzenie 7 ~ W aTunkowa wartosc oczekiwana E-(X I F) spelnia. nasf.e-
Otóz,
pujace warunki:
P(S", = klU= x) = E- (l{S'n=k} I U = x),
(a) E-(X I F) jest mierzalna wzgledem :F. ale P(U = :J;) = 0, wiec warunkowa wartosc oczekiwana nie da sie zdefi-
niowac w wyzej opisany sposób, choc intuicyjnie' jest jasne, ze powinna byc
(b) Jesli B E F, to .f~ X dP = JB E-(X I F) dP. równa (~)xk(l - :c)"-k .•

D o wód. Punkt (a) twierdzenia wynika natychmiast z definicji. Zadania


Zeby udowodnic (b), zauwazmy, ze jesli B E F, to B = Uk AJk, gdzie suma
1. Laczny rozklad zmiennych losowych X i Y dany jest tabelka:
jest skonczona lub przeliczalna. Wtedy
1~I1-X-';-l·r~31
( X dP
JB = L1 k Ah X dP = L k E-(X I Ajk) P(Ajk) = I ~: ~ II 0,2 I ~:~ I

= L1 1L Uzupelnic tabelke, znalezc E (X lu(Y)) i EX.


k Ajk E-(X I Ajk) dP = B k E-(X I AjJ lA.j/o dP = 2. Niech n = [O,l], P - miara Lebesgue'a na [O,l]. Znalezc E (f I F), jesli

l E-(X I F) dP. •
a) f(x) = -IX,:F jest u-cialem generowanym przez zbiory [O,~), [i, l].
b) f(x) = -x,:F jest u-cialem generowanym przez zbiory [O,~), [~, l].
128 Rozdzial 6. Warunkowa wartosc oczekiwana § 6.3. Definicja ogólna 129

3. Obliczyc wartosc oczekiwana liczby prób w schemacie Bernoulliego przepro- gdzie aj sa dowolnie ustalonymi liczbami, jest zmienna losowa spelniajaca
wadzanych az do momentu uzyskania kolejno: warunki (i) i (ii) z definicji 1. 1.'1I

a) sukcesu i porazki,
b) dwu sukcesów i porazki. Tu wybór liczb aj byl dowolny. A wiec przyklad 2 dobrze ilustruje fakt, ze
4. Mamy n osiedli polozonych wzdluz drogi w odleglosci l km od siebie. Osiedla mówiac o [; (X I F), myslimy o jednej konkretnej wersji (inne sa jej równe
obsluguje jedna karetka pogotowia. Kazde kolejne wezwanie z jednakowym p.n.). W dalszym ciagu, mówiac o warunkowej wartosci oczekiwanej, be-
prawdopodobienstwem pochodzi z dowolnego punktu i zostaje natychmiast dziemy identyfikowac rózne wersje; nie nalezy jednak zapominac, ze warun-
przekazane do karetki, która oczekuje na nie w osiedlu, w którym znajduje sie kowa wartosc oczekiwana jest zmienna losowa, wyznaczona z dokladnoscia
ostatni chory. Jaka jest srednia odleglosc przejezdzana przez karetke w czasie do zdarzen o zerowym prawdopodobienstwie.
jednego kursu?
5. Przecietne da!sze trwanie zycia. W rozwazaniach demograficznych z § 5.1
zdefiniowalismy przecietne dalsze trwanie zycia. Warunek stalosci przeciet-
Twierdzenie 3. Dla dowplnego (J"-ciala F C }vi calkowalnej zmiennej i
'i'Z;~'~;~rx'-';sTn;:eje wa.runkowa wa.rtosc oczekiwa.na.. Jest ona wyzna.czona.
nego dalszego trwania zycia mozna wyrazic tak: jesli zmienna losowa. X ~ O
jednozna.cznie z dokl.a.dnosC'ia do zdar-ze'n o pmwdopodobie-nstwie zero, tj.
jest czasem zycia, to dla pewnej stalej c > ()
jesli Y1, Y2 spelniaja wa7"lmki definicfi 1, to P(Yl Y2) = o. =1=

..
-" ... E (X I X > t) = c + t, t ~ O.

Wykazac, ze nieujemna zmienna losowa o ciaglej dystrybuancie spelnia ten D o wód. Najpierw udowodnimy jednoznacznosc. Zalózmy, ze Yi i Y2 spel-
warunek wtedy j. tylko wtedy, gdy ma wlasnosc braku pamieci. niaja (i) i Ui). Ten argument
Zdarzenie {Yl > Y2} E F, bo Y1, Y2 sa F mierz'alne. pojawia sie juz
chyba trzeci raz!
§ 6.3. Definicja ogólna
Ale nieco ina~zc.l
r Yi~~r
h~>~}h~>~} X~=r h~>~}~~ sfol'mnlowaIlY.
Wlasnosci warunkowej wartosci oczekiwanej wzgledem przeliczalnego roz-
bicia, podane w twierdzeniu 6.2.6, sugeruja ponizsza definicje. Stad

Definicja 1. Niech F C M bedzie (J"-cialem, a X zmienna losowa ca.lko- r


J{Yl>Y2} (Y1 -- Y2) dP = 0,
walna. Warunkowa wartoscia oczekiwana X pod wa.,.unkiem F na.zywa.my
zmienna--i~;o:;;a- {(XTJ)-;-speT~iaJa~'-:;;;~-;:;nki zatem P(Y1 > Y2) = o. To samo rozumowanie zastosowane do zdarzenia
{Y2 > Yd pokazuje, ze P(Y1 =I- Y2) = O. Jednoznacznosc zostala udowod-
niona"
(i) [; (X I F) jest F-mier-zalna;
Podamy teraz dwa dowody istnienia. Pierwszy jest krótki, ale wymaga zna-
(ii) dla. kazdego A E F jomosci twierdzenia Radona-Nikodyma. Natomiast drugi daje wyobrazenie
o tym, czym wlasciwie jest warunkowa wartosc oczekiwana.
j.A X dP = JAr [; (X I F) dP. Pierwszy dowód istnienia. Rozwazmy funkcje zbioru 1/ na F, za.dana
wzorem
W poprzednim paragrafie wykazalismy istnienie warunkowej wartosci ocze-
kiwa.nej dla (J"-ciala przeliczalnie generowanego, a poniewaz [; (X I F) jest
wyznaczona jednoznacznie z dokladnoscia do zdarzeil o prawdopodobien-
I/(A) = l X elP.

Jest to miara ze znakiem. Gdy P(A) = O, to v(A) = O, wiec v jest absolutnie


stwie zero (co za chwile udowodnimy), to wiemy, jak warunkowa wartosc eiagla wzgledem P i na mocy twierdzenia Radona-Nikodyma 11.6.1 istnieje
oczekiwana wyglada w tym przypadku. gestosc g = dvldP, która przyjmujemy za wersje [; (X I F), poniewaz spel-

_J>..!:.~Y.k!~Q.b Jesli D = U:l Ai, Ai n Aj = 0 i niektóre Ai maja zerowe


i
nia warunki U) (ii) z definicji 1. Istotnie, gestosc g jest F-mierzalna i dla
AEF
prawdopodobienstwa, to

w E Aj,P(Aj) > O,
r gelP
JA = v(A) = JAr X dP.
[; (X I F) (w) = {:}X l Aj), w E Aj, P(Aj) = O, Dowód pierwsza metoda zostal zakonczony.
130 Rozdzial 6, Warunkowa wartosc oczekiwana 131
§ 6,3, Definicja ogólna

Drugi dowód istnienia. 3, Jesli Xl ~ X2, to E (Xl I F) ~ E (X21 F) p.n.


L Najpierw udowodnimy istnienie warunkowej wartosci oczekiwanej dla Wynika to natychmiast z 1 i 2.
X E L2 (D., M, P). Skorzystamy w tym celu z twierdzenia o rzucie Ol'tOgO-
nalnym w przestrzeni Hilberta (patrz dodatek e). Niech H = L2(0., M, P), III. Istnienie dla X E L l (D, M, P), X ~ 0,
Wtedy Ho = L2(0., F, P) jest domknieta podprzestrzenia H. Niech X E J-I
Istnieja zmienne losowe X" E L2(0."A1,P) takie, ze dla kazdego w E D.
i niech Xo bedzie rzutem X na Ho, Wtedy oczywiscie Xo jest F-mierzalna.
Dalej, z samej definicji rzutu ortogonalnego, dla dowolnego Y E L2(0., F, P)
mamy X,,(w) X(w) l
(np. Xn = min(X, n)); E (Xn I F) istnieje na mocy
punktu I. Z wlasnosci n.3 wynika, ze zmienne losowe E (Xn I F) tworza
marny ciag niernalejacy. Niech Xo = Um", E (X" I F). Wtedy dla dowolnego A E F
marny, korzysta.jac z twierozenia Lebesgue'a.-Leviego o zbieznosci monoto-
(X - Xo, Y) = k Y(X - Xo) dP = 0, nicwej:
czyli
j'
.A X elP = lim
n.A /' X" elP n j A E (X~
= lim I F) elP = j A Xo dP.
inr y X elP = inr y Xo dP.
VV szcllególnosci Xo jest skollczona prawie na pewno; jest takze mierzalna
Biorac Y = 1.'1, A E F otrzymujemy
wzgledem F, ja.ko granica funkcji F-mierzalnych. Zatem E (X I F) = Xo·

\1
l X dP = l Xo dP.
IV.
Otóz
Istnieuie
y
dla dowolnej zmiennej
= E (X+ I F) -E (X- I F) jest dobrze'okreslona,
losowej X E LI(0.,M,P).
F-mierzalna i cal-
" Zatem Xo jest warunkowa wartoscia oczekiwana X wzgledem F. kowalna zmienna losowa, Dla dowolnego A. E F., mamy
i'

li
II. Wlasnosci

1. Va,/3 E R
E (X I F) dla X E L2(0., M, P).

VX1,X2 E L2(0.,M,P)
l X dP = j~X+ dP - l x- dP =
!I
E (aXl + /3X21 F) = aE (XII F) + /3E(X21 F).
= j .4 E p,.r?j F) dP - j A E (X:'" F) dP = jA' y dP,
I zatem E (X I :F) = Y, bo Y spelnia warunki (i) i (li) z definicji 1, co l(o!lczy
'I Dowód. Rzut jest odwzorowaniem liniowym. Jesli zatem XI,o i X2,o dowód twierdzeJlia, :3 .•

III
t' i
sa rzutami Xl X2 na podprzestrzen Ho, to aX1,o+/3X2,o jest rzutem Najwazniejsze wlasnosci warunkowej wartosci oczekiwanej zbierzemy w po-
aXl + /3X2. Oto bezposrednie sprawdzenie: gdy Y E Ho, to
nizszym twierdzeniu (inne wlasnosci - patrz zad, 1-6):
ndr
(aXl,O + /3X2,o - (aXl -I- /3X2), Y) = J::':YieE9..zenie oO'!: Niech x." Xl, X 2, b~da zmiennymi losowymi o skonczonej
~ = a(Xl,o - Xl, Y) + /3(X2,o - X2, Y) = 0, wartosci oczekiwanej, niech'F C M bedzie danym (J-cialem. Wtedy
'I'
lf'!
I'
I.
'I

'[I
~
co konczy dowód punktu
"
l, (a) Jdli X jest; .r-mi'c7'ZG.'lM, to E (X I F) =X p.n.,
W 2. Jesli X ~ O, to E (X I F) ;;;. O p.n. (b) Jesh X ~ O, t.o E (X I F) ;;;.() p.n"
ID
tl
Dowód. {E (X I F) < O} jest zdarzeniem z F. Poniewaz (c) IE (X I F) I ~ E (lXII F) p.n.,
~!
r~: (d) E (aXl + (3X21 F) = aE (XII F) -I- (3E (x21 F) p.n. dla a,(3 E R
'f
Il!
~~
O ~ j {sexl F)<O} X dP = j {&(XI F)<O) E (X I F) dP ~ O,
(e) Jesli Xn I X, to E (Xn I F) T E (X I F) p~,n.,
~l to
(f) Jesli FI C F2 C .M, to
~!
~ jE{&(XIF)<O} = O.
;~t
.,)
(X I :F) dP E (X t :FI) = E (E (X I F2) I :FIl = E (E (X I FIli F2)
Zatem P(E (X I F) < O) = 0, czyli E (X I F) ~ O p.n. (wszystkie j'ównosci p. n.),
,:;m.

;f
"'
t~!

:~i
132 Rozdzial 6. Warunkowa wartosc oczekiwana § 6.:3. Definicja ogólna 133

(g) EX = E (E (X I F)) p.n., Wprowadzmy nastepujace oznaczenie: jesli X jest zmienna losowa calko-
walna, Y - zmienna losowa o wartosciach w Rn, to
i
(h) Jesli F o-(X) SIJ:niezalezne (czyli zmienna losowa X jest niezalezna
od o--ciala F), to E (X I F) = EX p.n., E(X I Y) 'H E(X I o-(Y)).

(-i) Jesli Y jest ogmniczonlJ: zm'iennlJ: losowIJ:F-mierzalnlJ:, to


Jest X jajeczek, czyli X niezaleznych prób Bernoulliego z prawdopodobien-
E (Xy! F) =YE(XI F). stwem sukcesu p, wiec [; (Y I X) = Xp. Stad

EY 0-"= E (E (Y I X)) = E (Xp) = Ap.


D o w ó d, Korzystajac z definicji i wlasnosci calki, otrzymujemy natych-
miast punkty (a), (b), (c), (d), (e). Ten przyklad pokazuje, jak mozna obliczac war:tosc oczekiwana, korzystajac
U) E (X I Fil jestFrmierzalna oraz dla dowolnego A E FI C F2 marny z warunkowej wartosci oczekiwanej. Wlasciwy wybór zmiennej losowej X
czesto bardzo upraszcza rachunki. _

l E (X I F2) dP = l X dP = l E (X I FI) dP, S~wierdzenie 6 (Nierównosc Jensena).


'~;yp;;;'kl~,-~-z;~:ie"~ne l;sow~'x i ~(~,();'~iezlJ:
Jesli funkcja cp:R -7
,do Ll(D.,M,P), to
R jest

zatem E (E (X I F2) I Fil = E (X I FI), a poniewaz E (X I F1) jest F2-mie-


rzalna (FI C F2), to z punktu a) otrzymujemy cp(E (X I F)) ~ E (cp(X) I F) p.n.

E (E (X I FI) I F2) = E (X I FI), dla dowolnego a-c'iala F C Ai.


co kor1czy dowód (f).
D o w ó d. Skorzystamy z faktu, znanego z analizy:
(g) Jest to uogólnienie wzoru na prawdopodobienstwo calkowite. Biorac
F1 = {0, D.}, F2 = F i stosujac U) otrzymujemy
Fakt. Jesl-i cp jest fu:nkcjrt wyp'uklrt w R, to istniejlJ: cilJ:gi liczb (an);:"=1
EX = E (X I Fil = E (E (X I F) l FI) = E (E (X I F)), i (;3n);:"=l' takie, ze dla kazdego x E R

bowiem jedyne funkcje FI-mierzalne sa to stale, zatem E (Y l FJ ) = [y dla cp(x) = sup(anx


n
+ ;3~.
Y calkowalnej.
(h) EX jest stala, wiec jest F-mierzalna. Niech A E F. Z zalozenia X i lA
Stad mamy cp(X) ~ anX +;3,,, n E N, wiec E (cp(X) I F) ~ CY.n[ (X I F)+;3n
sa niezaleznymi zmiennymi losowymi, wiec
ella kazdego ustalonego n. Stad (jest przeliczalna liczba nierównosci p.n.)

r EX dP
JA = EX . ElA = E (X . lA) = ,A/' X dP, E (cp(X) I F) ~ sup[anE
n.
(X I F) + ;3n] = cp(E (X I F)) p.n._

wiec z jednoznacznosci E (X I F) = EX. Twierdzenie 7. Jesli X jest zmienna losowa, [lXI < 00, Y jest zmiennrt
(i) standardowy dowód - komplikacje postaci Y - zostawiamy czytelni- losowa o wartosciach 'W Rn, to istnieje funkcja borelowska h: Rn -7 R taka,
kowi jako zadanie. _ ze
[(XI Y) = h(Y).
Przyklad 5. Owad sklada X jajeczek zgodnie z rozkladem Poissona z pa-
'~'~;r;~t-:;:~;:;;:"X~
.~ owad z jajeczka wylega sie z prawdopodobienstwem p, nie- Dowód wynika natychmiast z nastepujacego lematu:
zaleznie od innych. Znalezc srednia liczbe pot(~mków.
Rozwiazanie, Niech Y bedzie liczba potomków owada. Mozna to zada- Lemat 8. Niech Y bedzie zmienna losowa o wartosciach wRn, X -
nie rozwiazac wyliczajac rozklad Y (patrz zad. 4.1.11). My skorzystamy zmienna losowa mierzalna wzgledem o-(Y). Wówczas istnieje funkcja bo-
z warunkowej wartosci oczekiwanej. r-elowska h: Rn-7 R. taka, ze X = h(Y).
134 Rozdzia.l 6. Warunkowa wartosc oczekiwana § 6,3. Definicja ogólna 135

D o wód. Zastosujemy metode komplikacji zmiennej losowej X.


Gdy mamy funkcje h(y) = E (X I Y =
y), to ,g(w) h(Y(w)) jest równe =
l. Jesli X = lA, gdzie A E a(Y), to istnieje zbiór borelowski B taki, ze tzn. E (X l Y)
E (X l Y), = h(Y). Na przyklad,desli E (X I Y = x) = X3, to
A = {w E n:Y(w) E B}. Wtedy E(X I Y) = y8
Zastosujemy teraz warunkowa wartosc oczekiwana do rozwiazania nastepu-
X(w) = lA(w) = lB(Y(W)) = h(Y(w)), jacego zagadnienia prognozy:
gdzie h = IB. Dany jest wektor losowy (X, Y), gdzie zmienna losowa X jest obserwowalna,
a zmiennej losowej Y nie mozemy obserwowac, Jak na podstawie obserwacji
2. Jesli X jest funkcja prosta, czyli X = 2:~=1CilA" to na mocy punktu X ocenic (prognozowac) Y?
l mamy lAi = ji(Y) i h = 2: cdi'
Problem ten przypomina nieco zagadnienie regresji liniowej, o którym wspo-
3. Jesli X jest dowolna zmienna losowa a(Y)-mierzalna, to istnieje ciag mnielismy w poprzednim r07,dzialc, i wlasciwie mozna by go okreslic jako
(X,J zmiennych losowych prostych i o'(Y)-mierzalnych, dla którego zagadnienie rp.gresji, tyle ze krzywoliniowej.
Xn(w) -t X(w), w E n. Na mocy punktu 2 istnieja funkcje boreJow- Zmienna losowa <.p(X), gdzie <.pjest funkcja borelowska, nazywamy pro-
skie <.pntakie, ze Xn(w) = <.pnCY(W)), zatem <.pnCY(w)) ---->
"'.-+00
X(w),
gnOl~a Y przy pomocy X, a E [Y - <.p(X)]2 - bledem sredniokwadratowym 'P* okresl" 1<J'~.vwll
W E n.
prognozy, który oznaczamy 6. <.p.<.p
* (X) jest prognoza optymalna (w sensie regresji.
Zbiór B = {x E Rn: limn <.pn(X) istnieje} jest zbiorem borelowskim. srcdniokwadrat.owym), jesli
Dlatego funkcja
E [Y - <.p*(X)]2 = inf E [Y - <.p(X)]2 ,

<.p(X) = {limn
O, <.pn(X), x E B,
'f- B, gdzie kres dolny jest brany po wszystkich funkcjach <.pborelowskich.
jest borelowska.
Twierdzenie 10. Niech L.y2 < 00. H1tedy prognoza optymalna istnieje
Ale orywiscie X(w) = limn <.pn(Y(W)) = <.p(Y(w)), w E n .• i jako <.p*(x) mozna 'Wz·iac <.p"(x) = E (Y I X = x).
Korzystajac; z twierdzenia 7, mozemy zdefiniowac warunkowa wartosc ocze- I

kiwana wzgledem {Y = y} nawet wtedy, gdy to zdarzenie ma zerowe praw- Dowód, Mozna ogi·aniczyc sie do <.ptakiego, ze E<.p2(X) < 00 (w przeciw-
dopodobienstwo. nym razie 6.'{! = (0). Niech <.p*(X) = E (Y I X). Wtedy

Definicja 9. Warunkowa wartoscia oczekiwana. zmiennej losowe.i X pod E [Y - <.p(X)]2 = E [Y - <.p + <.p*(X) - <.p(X)]2 =
* (X)
war"unkiem {Y = y}, która oznaczamy E (X I y = y), nazy'U.;amy liczbe h(y),
gdzie h .iest funkcja otrzymana w twieTdzeniu 7. = E [Y -- * (X)]2 + E [<.p
<.p * (X) - <.p(X)]2 +
+ 2E [(Y - <.p*(X))(~*(X) - <.p(X))].
Jezeli zmienna losowa Y ma rozklad dyskretny i P(Y = y) > O, to z tw.
6.2.2 wynika równosc Drugi wyraz jest nieujemny, a. trzeci jest równy zeru, poniewaz

E [(Y - '(!*(X))(<.p*(X) - <.p(X))] ~


E (X I y= y) = nrul = Y )J{Y=yj
r X dP
= E (E {[(Y -:::if!*(X))(<.p*(X) - <.p~X))] I X}) =
Obliczmy te wielkosc, korzystajac z definicji 9. Dla w E {Y = y} mamy = E (<.p*(X) - <.p(X)) ,E (Y - <.p * (X) I X) = o.
Zatem
E (X I Y) (w) = n/U) l= y j'{Y=y} X dF,
6.'{! ~ E [Y - <.p * (X)]2 .•
wiec
Jesli ktos pamieta, ze warunkowa wartosc oczekiwana zmiennej losowej
h(y) = F(Y l_
- Y) j'{Y=y} X dF, Y E L2 wzgledem a-ciala F jest rzutem ortogonalnym na L2(n,F,F),
latwo sie domysli, ze najlepsza sredniokwadratowa F-mierzalna prognoza
czyli definicja 9 daje ten sam rezultat, co poprzednio. Y jest E (Y I F). Zeby otrzymac twierdzenie 10, wystarczy wziac F = O'(X).
136
Rozdzial 6. Warunkowa wartosc oczekiwana § 6.4. Prawdopodobienstwo warunkowe - uogólnienie 137

Zadania i
§ 6.4. Prawdopodobienstwo warup.kowe - uogólnienie
1. Warunkowa wersja lematu Fatou. Jesli Xn ;:: O, to
Korzystajac z pojecia wa.runkowej wartosci oczekiwanej, uogólnimy teraz
E (IiminfXn I F) ~ IiminfE(Xnl F) p.n. pojecie prawdopodobienstwa warunkowego zdarzenia.
2. Warunkowa wersja twierdzenia o zbieznosci zmajoryzowanej . .Jesli
IXn(W)1 ~ Y(w), n = 1,2, ... , EY < 00 oraz Xn -> X p.n., to Definicja 1. Pmwdopodobiel1stwem warunkowym zdarzenia A E M pod

n E (Xn I F)
lim = E (X I F) p.n. warunkiem Y = y, któTe oznaczymy pTzeZ P(AjY = y), bedziemy nazywac
wielkosc
3. Udowodnic 6.3.4(i). [(1.4.1 Y = y) ..
4. Pokazac, ze 6.3.4(i) jest prawdzjwe pr7,y zalozeniu, ze Z jest F-mierza.lna
oraz
Poniewaz ma sens wyrazenie P(X E AIY = y), mozemy takze mówic o T"OZ-
(i) X, Y sa dodatnie, EX < 00, E (X Z) < 00 kladzie wa,(,1.mkowym zmiennej losowej X pod warunkiem Y = y. W nastep-
• lub nym przykladzie dane sa rozklady warunkowe, z których tworzy sie rozklad
(ii) X E LP, Y E La,p > 1,p-1 + q-l = 1. zmiennej losowej.

5. Wykazac, ze jesli X jest zmienna losowa cal kowalna, u-cialo g jest niezalezne
od u(u(X),F), to E(X 10'(9, F» = E (X I F). Przyklad 2. Niech Y ~ ula, 1]. Jesli Y = 3;, to rzucamy n razy moneta,
Uwaga. Biorac g = {n,0}, a wiec u-cialo nie niosace zadnej informacji, dla której prawdopodobienstwo wypadniecia orla jest równe x. Niech Sn
otrzymujemy 6.3.4(h). oznacza liczbe orlów. Znalezc P(Sn ~ k), k = 1,2, ... , n (por. z przykladem
i
6. X Y sa niezaJeznymi zmiennymi Joso';'ymi,
kazac, ze
f .- funkCja borelowska.Wy- 6.2.9).

E (J(X, Y) I y = t) = Ef(X,t). RozwiazaIlie. Jest jaSIle, ze

7. Rzucamy 10 razy symetryczna monet.a. Niech X oznacza laczna liczbe orlów,


zas y liczbe ariów w pierwszych czterech rzutach. Znale7.c E (X I Y).
P(Sn = klY = x) = h(x) = (~)Xk(l- xt-k.
8. Gdy EX2 < 00, to mozemy zdefiniowac waTunko'Wa wa'f-iancje:
Dlatego
V2(XIF) ~ E ((X - E (X I F»21 F).

Wykazac, ze V2X = E (V2(XIF») + V2([(X I F»). P(S", = k) = E (E (l(S,.=k} I y)) = E(h(Y)) =


9. X i Y sa niezaleznymi zmiennymi losowymi o tym samym rozkladzie i skon- '[

czonej wartosci oczekiwanej. Wyznaczyc E (X I X + Y).


= 10 P(Sn = klY = x)f.1.y(dx) =
10. Uogólnic wynik poprzedniego zadania na n zmiennych losowych .
11. Niech X i Y beda niezalezne, o tym samym rozkladzie 11. Wyznaczyc
I zadbac o to, .{ G~}7;A:(1-X)n-kdX= G)B(k+l,n-k+l)=
zeby nie E(XI X2_+_Y:.i)
wplatac sie
dla dwóch róznych rozkladów
w rachunki. 11.
= (n)
k f(k + l)f(n -
r(k+l+n-k+l) k + 1) = (n)
k k!(n - k)! = _1_,
(n+1)! n+l
12. Niech n = [0,1] x [0,1], P - miara Lebesgue'a na [0,1] x [O,l]. ZnaJc:i.c
E (f I F), jesli dla k = 0,1, ... ,n. Skorzystalismy tu z wlasnosci funkcji beta udowodnio-
a) f(x, y) = x, F jest u-cialem generowanym przez y. nych w dodatku A .•
b) f(x) = x - y, F jest u-cialem generowanym przez :l; + y.
c) f(x) = x2y, F jest (T-cialem generowanym przez y.
\V tym przykladzie obserwacje Sn i y sa obserwacjami z eksperymentu
13. Niech Xl, Xz, ... beda niezaJeznymi zmiennymi losowymi o tym samym roz- dwuetapowego. Rozklad Sn w drugim etapie z'alezy od wyniku Y pierwszego
kladzie, EIX11" < 00, Bn = Xl + ... + Xn, Fn = u(Bn, Bn+!, Bn+2, ... ). etapu. Nastepne twierdzenie pokazuje metode obliczania E (X Y = x), gdy j

Wyznaczyc E (Xl I Fn) i E (L:~=l


aiXi I Fn), gdzie L::1 ai = 1
laczny rozklad zmiennycli,losowych (X, Y) j~~t ciagly.
138 Rozdziar 6. Warunkowa wartosc oczekiwana § 6.4. Prawdopodobienstwo warunkowe - uogólnienie 139
I',,,,p it'

Twierdzenie 3. Jesli (X, Y) ma rozklad ciagly z gestoscia g, to Jesli .r~oog(x, y) dx = 0, t6 g(-, y) = ° p.w. (bo .9 ;;. O) i bierzemy wer-
sje gestosci g(,r.;, y) == ° (dla kazdego x). Wtedy dla kazdego :r; mamy
P(X E BIY) = .f;; g(x, Y) dx , (1) i.p(x )g(x, y) = O. Niech
Loo g(x, Y) d:r;

E ( (X) I Y) = .r~ooi.p(x)g(x, Y) dx i.p(y) = 00 -oc g(x,y) dx 00


i.p .r~oog(x, Y) dx '
(2) _ {I-~
O i.p(,r.;) ~g3:,y dlaJ~
d:r.; w p.p. g(x,y) dx > 0,
dla takich funkcji borelowsk'ich i.p, ze EIi.p(X)[ < 00. Gdy dla pewnego zda- Wtedy, poniewaz .r~oog(.1;, y) dx jest gestoscia Y., to
rzenia elementar'nego w

L: g(x, Y(w)) dx = o,
l = .l4?(Y) [L: 9(:r;,Y)d:C] dy = L: lA(Y)~(Y) [L: g(x,Y)dX] dy =

to kladz'iemy w obu wzorach z prawej strony wa'f'tosc O. = .lnr lA (Y)cp(Y) dP r


= .lY-l(A) cp(Y) dP = JBr cp(Y) dP.

Uwaga 4. Z tego twierdzenia wynika, ze funkcje Zatem dla kazdego B E er(Y) mamy

dla .r~oog(x, y) d:r;


j~E (i.p(X)
=I O;

wp.p.
I Y) dP = L cp(Y) dP, .
ponadto cp(Y) jest er(Y)-miel'i:a.lna,wiec z jednoznacznosci warunkowej war-
mozna nazwac warunkowa gestoscia X pod warunkiem Y, bowiem
tosci oczekiwanej wynika, ze:
Prawa strona (2)
h(Y),
jOHI, pOHtl\Ci
wiec podstawiamy
Y=y.
E (i.p(.>n I y = y) = L: i.p(x)fxlY(xJy) d:c.
E (i.p(X) [ Y) = cp(1') = -00 i.p(:c)Loo
;'00 00 g(x,
g(:J.:,Y)
Y) d:J.: dx P-p.w .•

Uwaga 5. Niech NI' = {w E n: f~oog(x, Y(w)) d:r;= O} : Wtedy Przyklad 6. Jesli wektor losowy (X, Y) ma rozklad normalny, tó regresja
jest liniowa. Niech (X, Y) rv N ((p.], /l'2),2J. Wt;edy
P(Ny) = f.ly ({Y: 100
-00 g(x, y) dx = o}) = .l{y:J
r 00
-00 g(x,y) d:>:=O}
f y (y) dy = E (X I Y) = ItI +- p(X, Y)-(Y
erx
-1~2)'
ery

= J{y:Loo
r 00 g(x,y) dx=O) [100
-00 g(x, y) d.1;] dy = o.
RO:twiazanie. Znajdujemy postac fxlY i obliczamy E (X I Y) .•
Wziac dwa funty
cieleciny,
\ wstrzasnac, obrac,
Zatem prawe strony wzorów (1)-(2) w tw. 3 sa dobrze okreslone pOi:azbio- Uwaga 7. Jesli rozklad (X, Y) ma ciagla gestosc f, to dla dowolnego zaprawic i zrobic
rem Ny miary zero: tam mozemy je okreslic dowolnie, wiec kladziemy zero. :tbioru B E B(R)
eskalop.
A. Slonimski,
J. Tuwim
D o w ó d twierdzenia 3. Udowodnimy tylko wzór (2), bowiem biorac i.p = 1 B, "W oparach
otrzymamy (1). Wezmy dowolny element B z <T(Y). Jest on postaci y-l (A), lim
h->O P(X E Blz < Y < z + h) = .JrB fXly(xJz) dx = absurdu 11

gdzie A E B(R). Mamy


= lim
11.-+0
P(X E BIIY - zl < h),

r E (i.p(X) I Y) dP
JB = JY-l(A)
r i.p(X) dP 1
= o i.p(X) lA (Y) elP = co daje intuicyjna interpretacje waru~kowej gestosci X pod warunkiem Y.

,/ = l: l: i.p(X)lA(y)g(X, y) dx dy =
Przyklad 8. Przy obliczaniu.;gestosci warunkowych trzeba jednak zacho-
wac ostroznosc. Jesli wektor losowy (X, Y) ma laczny rozklad ciagly i wy-
znaczamy gestosc warunkowa pod warunkiem {X = Y}, to przedstawiajac
= l [L: i.p(x)g(X,y)dX] dyo~n l. to zdarzenie w postaci X - Y = O i X/Y = l otrzymamy rózne wyniki.
140 Rozdzial 6, vVarunkowa wartosc oczekiwana § 6,4, Prawdopodobienstwo warunkowe - uogólnienie 141

Zeby to zobaczyc, wezmy niezalezne zmienne losowe X, Y o rozkladzie Piraci drogowi jeszcze' raz. Towarzystwa ubezpieczeniowe stosuja do pro-
wykladniczym i niech Zj = X + Y, Z2 = X - Y, Z3 = X/Y, Wtedy gnozowania liczby szkód metody subtelniejsze ni~~te przedstawione w zadaniach
4,1.14-15 o nastepstwach pozornych, Zamiast dzielic klientów na ostroznych i pi-
JZlIZ2 (1':10) = .\e->-Xl{x;?<o}, ratów przyjmuje sie, ze zmienna losowa X - 'Ji.czba szkód zgloszonych przez
klienta w ciagu roku -- ma rozklad Poissona z parametrem A. Ale sam parametr
Zdarzenie {X = Y} przyblizylismy przez {O < IX - YI < h}), Ale: A jest traktowany jak zmienna losowa (bowiem zalezy od klienta)j przyjmuje sie,
ze ma rozklad gamma z parametrami a i b,
JZllz3 (xiI) = hl (x) = .\2xe->-xl {X;?<O} , 6. Wyznaczyc rozklad liczby szkód dla losowo wybranego klienta,

Zdarzenie {X = Y} przyblizylismy teraz przez Jesli klient zglosil n szkód w ubieglym roku, mozna podjac próbe oszacowania pa-
rametru A, wyznaczajac jego rozklad warunkowy' pod warunkiem X = n, Wtedy.
{I(X/Y) - 11< h} = {IX - YI < hY}, • [(A I X = n) mozna przyjac za prognoze liczby szkód w biezacym roku.

7. vVyznaczyc rozklad warunkowy A pod warunkiem X =n oraz [(A I X = n).


Na zakonczenie powiemy, jak sformulowac scisle zadanie z przykladu 6.1.1,
Prognoza wysokosci roszczen. Zalózmy, ze klient towarzystwa ubezpiecze-
poslugujac sie rozkladami warunkowymi: zmienna losowa U ma rozklad jed- niowego zglaszal w poprzednich n latach roszczenia o wysokosciach Xl"" ,Xn,
nostajny na [O, l], a zmienna losowa V ma rozklad warunkowy jednostajny Nalezy na tej podstawie oszacowac Xn+l - wysokosc roszczen, jakie zglosi w bie-
na [O, t], jesli wiaclomo, ze U = t, Wyznaczyc EV. i
zacym roku, Zakladamy, ze Xi = m + U + 11;dla = 1,2, . ' , , n + 1, gdzie EU = O,
A jak wyglada formalne rozwiazanie tego zada.nia? Maina wykorzystac roz- '02U = 112, [11; = O, '0211; = v2, m = EXi, Zalózmy ponadto, ze zmienne losowe

wazania prowadzace w przyklaclzie 6.1.1 do konstrukcji modelu, mozna tez U i 11;Sif nieskorelowane,
obyc sie bez konstrukcji i skorzystac ze wzoru 6,:3.4(9). Zmienna losowa U mozna interpretowac jako losowe odchylenia dla poszczegól-
nych klientów, zmienne Vi - jako losowe róznice pomiedzy kolejnymi latamii,

Zadania S.Rozwiazac zagadnienie regresji liniowej dla zmiennych losowych Xn-'-l i 5'" =
=XI+",+Xn'
9, Zalozyc dodatkowo, ze zmienne losowe U i 11;maja laczny rozklad normalny
1. Znalezc rozklad warunkowy X pod warunkiem X + y = t, jesli X i Y sa i rozwiazac zagadnienie prognozy dla Xn+l i Sn = Xl + '" + Xn'
niezaleznyrni zmiennymi losowymi o tym samym rozkladzie
a) #(0,.>-2); b) wykladniczym z parametrem Aj c) Poissonaz par. A, Uogólnienia wzoru Bayesa. Maja one liczne zastosowania, m. in, w statystyce
Obliczyc w punkcie b: jmatematyce finansowej, Oznaczmy P(.410) ~ [(lA I O) (por. def. 6,5,1),
e) P(X < tl min (X, Y) < t)j E) P(X > tl max(X, Y) ~ 2t). Stwierdzenie 9. Jesli O jest (T-c'jalem, O C F, B E Q, A EF i P(A) > O, to
g) Uogólnic wyniki a-c na przypadek, gdy parametry A i ~t obu rozkladów
J' P(AIO) dP
sa rózne_ P(BIA) = ..B ,

2. Niech (X, Y) ma rozklad o gestosci f(x, y) = 81:yl [">O,y>O,,,'+y2<1} (:E, y).


Znalezc E (y I X = ~). D o wód. Dla kazdego zbioru B E Q mamy, na mocy definicji warunkowej wartosci
3. Odcinek [O, l] lamiemy losowo na dwie czesci, nastepnie wieksza czesc znowu oczekiwanej:
lamiemy losowo na dwie. Punkty lamania maja rozklad jednostajny, Jaka
jest szansa, ze z otrzymanych odcinków mozna zbudowac trójkat? fu P(AIQ)dP = fu lAdP = P(A. n E),
Wobec tego
4. Niech X, Y beda niezaleznyrni zmiennymi losowymi o rozkladzie jednostaj-
nym na [O, l], U = rnin(X, Y), V = max(X, Y), Znalezc: P( I ) - p(AnB) _ p(AnB)'
i
a) E (U I V) E (V I U)j b) E (sin(VU) I U). B A. - P(A)- - p(AnB) +p(AnB')

5. Udowodnic (najlepiej nie korzystajac z gestosci warunkowych), ze jesli (X, V) JB P(AIQ)dP JB P(AIQ)dP
ma rozklad normalny o sredniej zero, to
_______ J_B_P_(ó'l-19)dP + J~,P(AIQ)dP = JnP(AIQ)dP' •
EXY (TX l Na przyklad ten zwróci! nam uwage Wojciech N'iemiro. Patrz tez W. Niemiro, Ra·
E (X I Y) = EY2 ,y = p(X, Y) (Ty ,y p,n, chunek prawdopodobienstwa i
statystyka matematycz7!~, Szkola Nauk Scislych, Warszawa
1999, roz. 6, . "
101'1 Illw,Jzial 6. Warunkowa wartosc ocze!dwana § 6.5. Regularne rozklady warunkowe 143

lO, Niech {Al, ... ,An} bedzie rozbiciem zbioru n, niech B E M, P(B) > O, ._v..~~ga~'. Gdy F jest g~n~;owane przez prz~liczalne rozbicie {Ai: i E I},
X = E;:"1 ai lA" g: R -t R. Udowodnic, ze gdzie P(Ai) > O dla z E L; .to_ .
!.,:-,'
p(ErY)' 'I P(BIAi),
== gdy w E Ai .
. ' !:':eo g(a)P(BIX = a)J1.x(da) = E (g(X)lB)
E (g(X) I B)i = !:':eo P(BIX = a)J1.x(da) ElB Istotnie,

*11. Niech X, Y beda zmiennymi losowymi spelniajacymi warunek


& (In I A;) = 1
P(AJ J'Ai In dP = P(BnAi)
P(A; \ = P(BIAi)'

gdzie h: R x R -t R jest
P(X E AIY = y) =
funkcja boreJowska, a
i h(x, y)v(dy),

1/ miara O'-skonczona. Wyka-


Jest to prawclopodobidlstwo zajscia zclarzenia,B, gdy wiemy, do którego
zbioru Ai nalezy w, czyli gdy mamy dodatkowo czesciowa informacje o zda-
rzeniu elementarnym w.
zac, ze

pry E B/X = x) = !~
Leo
h(::C,Y)J1.y(dy) ,
h(x, Y)J.ty(dy)
~:r::..~_~er~~_~~~:
wlasno,sci:
P.rawdopodobid/'stwo warunkowe P(BIF) ma nastepu.iC[C

a jesli <p: R -t R jest taka funkcja borelowska, ze EI<p(Y)1 < 00, to (i) Jest zmiennlJ: lOSOWIJ:
F-mierzalna,.

(ii) Dla kazdego A E F


E (<p(Y) I X = x) = 100
-00 <p(y)C", !t(x, Y)I-/,y(dy'
h(::c, y) J1.y(dy).

P(A n B) = JAr In dP = JA [(In I F) dP = j'A P(BIF) dP.


Gdy wektor losowy (X, Y) ma rozklad dyskretny, otrzymujemy wzór z zadania
10; jesli ma rozklad ciagly, to znamy h (patrz uwaga 4) i ma miejsce zaleznosc (iii) O ~ P(BIF) ~ 1.

(iv) Jesli Bn SIJ:r'ozlacznc paTami, to


E (<p(Y) / X = x) = !:':eo:(Y)fxjY(xIY)Jy(y) dy
00 00
Leo fxjY (xly)Jy (y) dy .
P( U BnIF) = :L P(Bnl·1") p.n.,
12. Niech P, Q beda miarami probabilistycznymi na (n, F), dla których istnieje 1'/.=1 n=) ,
gestosc dQ/dP = Z > O P-p.n. Niech Q C F i niech X bedzie zmienna
losowa Q-calkowalna. Wtedy bo dlo, kazdego A E F
00 00 00

EQ(XI Q) = Ep(XZI Q)
U B"IF)
JA P( n=l dP U Bn n A) = n=l.
= P( n=] :L P(Bn n A) =
Ep (ZI Q) ,
00 00

§ 6.5. Regularne rozklady warunkowe :L JA P(BnIF)


= n=l dP,= :L P(BnIF)
JA n=l dP.
.;
W ostatniej czesci tego rozdzialu zajmiemy sie kwestia. istnienia regularnych Trzeba podkreslic, ze ta równosc je~t spelniona"prawie na pewno i wa-
rozkladów warunkowych; które umozliwiaja obliczanie warunkowej wartosci runkowego prawdopodobierlSLv.<a P(13I:F)(w) nie mozna, przy ustalonym w,
oczekiwanej jako calki ze zmiennej losowej wzgledem odpowiedniej miary. uwazac za miare (wzgleclem ·h), l •.

Mozna by sadzic, ze po WYl:z~ceIliu zbioru N niiary zero P(-I:F)(w) dla


Definicja 1. Prawdopodobienstwem wamnkowym zbiom B pod wamnkiem w E !1 \ N bedzie juz miara· '
C5-ciala F nazy;;;a~~y ;~;'s.ic::;ar~'Tikowe.iwartoTcT oczekiwane.i Ale tak nie jest. Jesli N(BI,B2," ,) jest zbiorem tych w, ze clla ustalonych
zbiorów rozlacznych Bl, B2, B3,·" nie jest spelniony warunek przeliczalnej
P(BIF) ~ & (lB I :F) . addytywnosci, to trzeba by"w:ykluczyc caly zbiór N = UN(Bl,B2,"'),
gdzie sumowanie odbywa sie'po wszystkich parami rozla.cznych zbiorach
Nalezy podkreslic, ze P(BI:F) jest zmienna losowa . Bl, B2, ... E M. Suma ta jest nieprzeliczalna, .l~ moze byc peN) > O.
wIec
144 Rozdzial. 6. Warunkowa wartosc oczekiwana § 6.5. Regulatl. warunkowe 14.5

Definicja 4. Jlegularnymrozkladem warunkowym wzgledem F nazywamy J:r:~y!<:l?:qm'!:_ Wektor losowy (X, Y) ma gestosc f(x, y). Definiujemy funk-
funkcje PF(', .):-Mx[Y:::::;To~ir-spe[;;iaJa~anasiep1aace-;~-;:~nki: cje

(i) dla E E M, P:F(E,·) jest weTsja E (1B I F), h(x, y) = J:'oo j(x,z)dz
dla fx (x) = J~cof(x, z)dz > O, '1\1,
w przeciwienstwie
{ g(y) j(x.y) dla /;dx) = O,
(ii) dla kazdego w E n PFhw) jest rozkladem pmwdopodobienstwa na
do tw. 6.4.3,
musiIny wstawic
M. gdzie g jest dowolna gestoscia, i
jakakolwiek
gestosc.
Istnienie regularnego rozkladu
ponizszemu twierdzeniu .
war~nkowego upraszcza wiele obliczen dzieki j.t(E,x) =
dl' l
.B
h(.1:,y)dy, E E B(R).

Wtedy
:!.:':Y1.er.9-ze!lJ_e~· Niech X bedz'ie zmienna losowa calkowalna, a PFe,·) Te-
gularnym rozkladem warunkowym wzgledem:F. Wtedy PYI<7(X) (E, w) = j.t(E,X(w)).
Istotnie, dla ustalonego E funkcja j.t(E, X (w)) jest o-(X)-mierzalna, zas
(l) j.th X (w)) jest dla ustalonego w miara. Trzeba jeszcze wykazac, ze faktycz-
E (X'I F) (w) = in X(w)PF(dw,w) p.n.
nie otrzymalismy wersje P(Y E EIX) dla E E 13(R), czyli ze dla A E B(R)
zachodzi równosc
Dowód. Dla X = lB, E E M, równosc wynika z definicji, dlatego rów-
nosc (l) jest prawdziwa dla funkcji schodkowych. Gdy X ;;, O, to istnieja
zmienne losowe schodkowe Xn takie, ze Xn T X. Wtedy z twierdzenia f' P(Y E EIX)(w)P(dw) = J{XEA}
f' ',: j.t(E,X(w))P(dw). (2)
J(XEA} . I
6.3.4(e) E (X I F) =; limn E (Xn I F) p ..n. Poniewaz PFe,w) jest miara dla
kazdego w, to korzy'sta.jac z (l) dla zmiennych losowych schodkowych Xn Zeby ja udowodnic, zauwazmy, ze lewa strona jest równa
otrzymuj emy

limE
n (Xn I F) = lim r Xn(w)PF(dW,w)
n lo = .~/' X(w)PF(dw,w), r
J{XEr1} I{YEB} dP = P(X E A,, Y E E),

zatem (l) zacllOdzi,.gdy X;;, o. Stad, poniewaz X = X+ - X-, otrzymu- prawa zas jest równa
jemy teze. _

Regularny rozklad warunkowy wzgledem F nie zawsze istnieje


mozna wykazac (zad. l), ze prawdziwe jest
(zad. 2), ale j'
.A jJ.(E,z)j.tx(dz)= .! . .4 [l.B j' X (x)dyfx(x)dx=
f(x,y) ]

T..W!!ol.n!~.!ljeJ~~Dla dowolnej zmiennej I080wej X i dowolnego F C M


= j'AxB f(x, y) dxdy',= P(X E A, Y E E).
istnieje Tegularny rozklad war'unkowy X pod war'unkiem F, tzn. !unk(,ja
Tym samym udowodnilismy równosc (2).
PX!;:{,·) okTeslona na B(R) x i taka, ze n
Zwrócmy uwage, ze gdy I::'co f(x, z )dz = O, to }J. x) jest rozkladem o ge- h
(i) Dla kazdego E E B(R) stosci g, mozna tu jednak wziac dowolny rozklad prawdopodobienstwa. _

PXiF(E,w) = P(X E EIF)(w);


Zadania
(i'i) Dla kazdego w E n, PXiF("W) jest 'fOzkladem pmwdopodob'ie'l!8/:wo' na
B(R). *1. Udowodnic twierdzenie 6.
*2. Wykazac, ze regularny rozklad warunkowy wzgledem danego <T-cialanie za-
To twierdzenie jest prawdziwe takze dla zmiennych losowych o wartosciach w~ze istnieje.
w przestrzeni polskiej, w szczególnosci - o wartosciach w Rn.
Na zakonczenie podamy przyklad czesto spotykanej sytuacji, gdzie regu-
larny rozklad warunkowy istnieje i ma taka postac, jakiej nalezaloby ocze-
kiwac (pOl'. uwaga 6.4.4).
1.47
§ 7.2. Prawo zero-jedynkowe Kolmogorowa

Poniewaz /n,oo /".-/-1,00' ciag (Tn,oo)n jest zstepujacy. Dla stwierdzenia,


::::>

czy A E Too, wystarczy wiedza o przyszlosci od dowolnie dalekiego mo-


mentu czasu. Wiedza o /00 jest zawarta w nieskonczenie odleglej przyszlo-
sci. Gdy ciag (/n) jest ciagiem a-cial niezaleznych, to ciag ten nie powinien
przechowywac do nieskonczonosci zadnej istotnej informacji.
Rozdzial 7
Twierdzenie 1. (Prawo O-l Kolmogorowa). Jesli a-ciala Tn sa nie-
zalezne, 1:0rlla kazdego zdaTZenia A E Too mamy P(A) = O albo P(A) 1. =
Sumy niezaleznych zmiennych D o wód. Dla dowolnego n niezalezne sa (T-ciala gn = lT(T1, T2, ... , /n) i
losowych F71+1,oo'Poniewai A E Too, to A E T71+1,CX:. Stad dla kazdego n zdarzeni
A jest niezalezne od gn, zatem A jest niezalezne od (T(gr, g2, ... ) = F],
(na mocy lematu G.8.1.2 o niezaleznych 71"-ukladach).
Poniewa.z A E F1,00, to A jest niezalezne samo od siebie, czyli P(A) =
§ 7.1. Wprowadzenie = P(A n A) = P(A? i ostatecznie P(A) = O lub P(A) = 1. •

Prawo wielkich liczb i centralne t.wierdzenie graniczne, udowodnione jesz- Wniosek 2. Jesli (Xn) jest ciagiem niezaleznych zmiennych losowych, to
cze w XVII i XVIII wieku, zajmuja w t.eorii prawdopodobieIlst.wa pozycje szeTeg 2:~1 Xn jest zb'iezny z prawdopodobienstwem O lub 1.
szczególna. Obecnie znane sa niezliczone warianty t.ych twierdzen, których
wspólna cecha jest asymptotyczne zachowanie sie wyrazen postaci
Xl + X2 + ... + Xn - an
Dowód. Niech Tn = cr(Xn). Wtedy (Tn) jest ciagiem (T-cial niezaleznych
i ella kazdego k
b71
1f""U'''- ,t

gdzie (Xn) jest Ói\giem niezaleznych zmiennych losowych, zas (an) i (bn) --
ciagami liczbowymi. Do badania tego rodzaju unormowanych sum zmien-
nych losowych przydaja sie z kolei kryteria zbieznosci szeregów niezaleznych {fn,=lXn Z~ieZny} {f
= n=k x" lIbiezny } E Fk,,,,
zmiennych losowych: Interesujace, ze taki szereg moze byc zbiezny wylacz-
wobec tego wystarczy skorzystac z twierdzenia 1. •
nie z prawdopodobienstwem O lub l - prawie wszedzie lub prawie nigdzie.
I od twierdzen tego typu, czyli praw zero-jedynkowych, zaczniemy.
Podobnie postepujemy w wielu innych przyphdkach, np. dowodzimy, ze dla
niezaleznych zmiennych 1()sowyd1 zdarzenia.
§ 7.2. Prawo zero-jedynkowe Kolmogorowa
{istnieje skOl'Jczona granica lim Xn},
,,~oo
Rozpatrzmy ciag a-cial Tn C :F. Jesli wyobrazimy sobie, ze /n jest a-cialem
generowanym przez zmienna losowa Xn, bedziemy mogli interpretowac Tn {lim'supXn = oo},
jako zasób wiedzy o doswiadczeniu (n, /, P) ot.rzymany w chwili n, gdy
dokonujemy kolejnych obserwacji w chwilach 1,2,3, .... Wówczas a-cialo
{·l' 1m
n-+oo' Xl+
------<0.
n .. ·+Xn'l }
= a ( Tn, /n+l"
Tn,oo df .. )
naleza do Foo (zad. l), zatem prawdopodobienstwo ich zajscia jest równe
reprezentuje cala wiedze o przyszlosci od chwili n. Definiujemy (T-cialo,
O lub 1. Ale na przyklad zdarzenie {sup Xn ( 5} nie nalezy do (T-ciala
zwane ogonowym albo resztkowym:
00 ogonowego.
=
Too df n Tn,oo.
n=l
(l) Hewitt i Savage uogólnili wynik Kolmogorowa
(patrz zad. 7).
na zdarzenia permutowalne

146
148 Rozdzial 7. Sumy niezaleznych zmiennych losowych § 7.3. Zbieznosc szeregów niezaleznych zmiennych losowych 149

Zadania
§ 7.3. Zbieznosc szeregów niezaleznych zmiennych lo-
1. Udowodnic, ze zdarzenia sowych
lim X,,},
{istnieje skonczona granica n-oc Na mocy wniosku 7.2.2 szereg niezaleznych zmiennych losowych X" I:~=l
moze byc zbiezny z prawdopodobienstwem 1 lub rozbiezny z prawdopodo-
{limsupX" = oo}, {'lim
n~oo Xl n+
+ ... Xn ,:;;a} bienstwem 1. W tym paragrafie zajmiemy sie problemem zbieznosci szeregu.
naleza do F00' Zaczniemy od nierównosci maksymalnej, gdZIe jak zwykle S" = I:~=lXk
2. Niech X bedzie zmienna losowa mierzalna wzgledem Foo zdefin.iowanego wzo- oznacza n-ta sume czesciowa.
rem (l). Pokazac, ze X = const p.n. Sformulowanie ze
3. Udowodnic, ze jesli X" sa niezaleznymi zmiennymi losowymi, to promien Twierdzenie l (Nierównosc Levy'ego-Ottavianiego) . .Jesli Xl, X2, stala 3 i dowód
zbieznosci szeregu potegowego I:;;"=1 Xkzk, z E C, jest staly p.n. ... , X" sa niezaleznym'i zmiennymi losowymi,. ·to dla kazdego c: >O pochodza od
Stanislawa
Twierdzenie Hewitta-Savage'a. Funkcje wzajemn.ie jednoznaczna 7r: N -> N, Kwapienia. Inne
P(maxIS;j > c:)':;; 3maxP(ISil > ~c:). (l) tego typu
7r = (7rl, nazwiemy permutacja skonczona, jesli 7r" = n dla wszystkich n
7r2, ... ), t~n I~n., nierównosci -
z wyjatkiem skonczonej ich liczby. patrz [KWA]
Gdy ponadto wszystkie Xi, 'rn:aja' rozklady symetryczne, to
Cos nowego: Jesli X = (X1,X2, ••. ), to 7r(X) ~ (X"I,X"2"")' Jesli A = {X E B}, gdzie
15(ROO) B E B(ROO), to 7r(A) = {7r(X) E B}. P(max ISil > c:) ,s; 2P(IS,,! > c:). (2)
t:%;n
Zdarzenie A = {X E B}, B E B(ROO) nazwiemy zdarzeniem permutowalnym,
jesli dla dowolnej permutacji skonczonej 7r'mamy 7r(A) = A.
. Przestrzef1 R00, która sie tu pojawila, jest przeliczalnym produktem R x R x
Dowód. Ustalmy s, t;? O. Dla i = 1,... ,n niech
I ,s; t + s dla j < i, IS~I > t + s}.
z metryka
Ai = {I S j
2:::00 Ix' - '(, I
';=1 ",
l
1(' ) - y"
c X, y -. + 0;=1
,\,00 lXi - Vi I . Wtedy A; sa parami rozlaczne oraz U7=1 Ai' - {maxi(n ISil > t + s}.
(R 00, d) jest przestrzenia metryczna, osrodkowa .i zupelna. Poniewaz

4. Wykazac, ze sa permutowalne nastepujace zdarzenia


Ai n {ISn - Sil ,s; s} C Ai n {IS"I > t}

a) limsup{B" E B}, gdzie B" = 2:::~=1Xk, B E B(R), (z nierównosci trójkata), to z rozlacznosci Ai oraz niezaleznosci zdarzen Ai
b) limsup{B" > a,,} dla dowolnego ciagu (a,,). i {ISn - Sil':;; s} marny
5. Pokazac, ze jesli A E Foo, to A jest zdarzeniem permutowalnym (implikacja n n
w druga strone nie jest prawdziwa).
6. Udowodnic
P(ISnl > t) ;? L
'i=1
P(Ai n {ISn - Sil ,s; s}) = L
i=l
P(A;)P(IS" - Sd ,s; s) ;?

A6E= "
(A \ E) U (E \ A). Lemat 3. Niech Yl, Y2, ... beda dowolnymi a-c'ialami zawaTtym'i 'Ul a-ciele
F, 9 = aCYl, 92, ... ). Wtedy dla kazdego A E Y 'istnieje ciag (A")k=l, gdzie
;? n;.inP(IS"
I~n - Sd ,s; s)· '"
~ P(Ai) =
t=1
Ak E a(Ql, Y2, ... 9k) taki, ze limk_oo P(A [), Ak) = o.
7*. Udowodnic
= (1 - rnaxP(IS"
'iS;n
- Sd> s))P(max
'i~n
ISil > t + 8).

Twierdzenie 4 (Hewitta-Savage'a). Niech. Xl,X2, ... beda niezalezny- Stad


mi zmiennym'i losowymi o jednakowym rozkladz'ie. Niech P(ISnl > t)
)~ ..
A = ((X1,X2, •.. ) E B},B E B(ROO),
n
P(rn;:'LXISil > t
t:::::::
+s "'" 1- maXi(nP(!S" _ Sil> S

bedzie zdar-zeniem permv.towalnym. Wtedy P(A) = () lub P(A) = 1. Gdy ma..'\:i(n P(ISil > 1t) < ~, to biorac 1t zamiast t oraz §t zamiast s,
otrzymamy
8. Wykazac, ze funkcja g(A, B) = P(A [), B), A, B E F, jest pseudometrykJ:.
Pseudometry ka
Wykazac, ze odwzorowania: A -> JA y dP, gdzie Y E [.r(n,F, P), (A, B) -;
jest nieujemna,
-> A n B, A u B, A \ B sa ciagle w tej pseuclometryce.
PUS"I > kt) o~n l.
symetryczna i:(n
P(max ISil > t) ,s; 1 _ max'~z~n P(ISn _ Sil > ~t)
i spelnia warunek
trójkata.
I ril) 151
Rozdzial 7: Sumy niezaleznych zmiennych losovl)'ch § 7.3. Zbieznosc szeregów niezaleznych zmiennych losowych

Oszacujemy teraz l. Poniewaz


p;,
II,' ,
I
P(ISn - Sil > ~t) < 2maxP(ISil
t~n > ~t) P( sup ISk - SIl· > c) < P(sup ISk - S", 1 > E/2) =
k,l~n
li ' =
1;:-;::71.

<
~~
IL: , oraz x/el - 2x) < 3x dla x E [O, n to !im P(
rn-lOO
sup
n~k~m.
ISk - Snl > E/2)

j,:; .
i maxi~n P(ISd > ~t) .. l
.;;; lim 3 sup P([Sk - Snl > E/6) <
;;1 m-oo n~/c':::;m
i.I" 1<
1- 2 maxi~n P(/Sil
l . < 3maxP(ISil
> 3't) ,,,,n
> 3't).
Iii:; 1.08 m
i'I':' Gdy maxi~n P(ISil > ~t) ~ ~, to nierównosc (l) jest spelniona automa-
< '(n-oc
!im -E2 '"
~ Ey2l·
11 I" H l=n
tycznie.
Prawa strona tej niel'ÓWnOSCl zmierza do zera, gdy n -> 00 jako resztA,
li II'
p ..
Tli"
Teraz udowodnimy (2). Niech Ai
i= 1,2, ... , n.. Wtedy
= {ISil < t,) = 1,2, ... , i - l, ISil > i}, szeregu zbieznego. Zatem ciag Sn jest zbiezny p.n. _
illi1ii Przyklad 3. Rozwazmy szereg harmoniczny z losowym wyborem IIWI,kll
HI i\
Ai C (Ai n {IS".I > t}) U (Ai n {12Si - S'nl > i}).
plus lub minus, czyli szereg L~=l ~Un, gdzie (Un) jest ciagiem BerJlOIII-
ill:I!I: Poniewaz Si i Sn - Bi sa niezalezne i maja rozklady symetryczne, zmienne liego. Wtedy EUn = O oraz
li lii
L 2'l
losowe Bn = Si + (Bn - Si) i 2Bi - Sn = Si -. (S", - B;) maja ten sarn
\'\,Iil.
rozklad. W konsekwencji otrzymujemy L
n=l
00
V2(Un/n) =
00

n=l,n
< 00,
\'\i:: P(Ai) < P(Ain{IBnl > t} )+P(Ain{12Bi-Bnl > t}) = 2P(A;n{IS,,1 > t}),
skad
wiec szereg L~U", jest zbiezny p.n., czylijest zbiezny dla prawie kazdego
wyboru znaków (patrz tez zadania 3 i 9). _
n

P(max
7.~n IBd
~
> t) = L
.
t=l
P(Ai) < t~n ~Bil >
2P(max t, IS"I >
.
t) < Podamy teraz warunki konieczne i dostateczne
nych zmiennych losowych. Niech X(c) OZna(;ba obciecie zmiennej losowej X
zbieznosci szeregu niezalez-

< 2P(IBn/ > t). _ na poziomie c, tj.

Twierdzenie 2 (O dwóch szeregach). Niech (X •.J bedzie ciagiem nie. '. X(c) = {XO dla flXI
XI >
< c.
c,
zaleznych zmiennych losowych. Jesli szer'egi
Twierdzenie 4 (Kolmogorowa o trzeclA szeregach). Warunkiem ko-
00 00
~
\)

L
'11=1
EXn, L
n=l
1)2 Xn
niecznym zb'ieznosci prrrUJiena pewno szeTeg1J,niezaleznych
wych L~=l Xn .iest zb:;eznosc dla kazdego c > O szeTegów
00 00 00
zmiennych loso-

sa zbiezne, to szereg .L~=1 Xn jest zbiezny p. n. L[x,~r;), LV2X~C), :[P(IXnl > c),
n=l n=l '1=1
Dowód. Niech Yn = Xn - EXn, n = 1,2, .... Poniewaz szereg L~=l EX" a warunk'iern dostatecznym jest zbieznosc iych szer'egów p'tzy pewnym c > Q.
jest zbiezny, to szereg L~=l x.n jest zbiezny p.n. wtedy i tylko wtedy, gdy
L~l Yn jest zbiezny p.n.
D Owód. Dostatecznosc: na mocy tw. 2 szereg L~l X~c) jest zbiezny p.n.
Poniewaz EY; = V2 Xn, wiec L~=l EY; < 00. Niech Sn = L~=l Yk. Z lematu Borela-Cantelliego i warunku LP(IXn! > c) < 00 wynika, ze
Sprawdzimy warunek Cauchy'ego, korzystajac po kolei: z oszacowania Xn(w) = X~c)(w) dla n ~ n(w), zatem L~=l Xn jest zbiezny p.n.
sup ISk - Sd = sup ISk - Bn + S~ - Bd < 2 sup IBk - 8nl, Dowód koniecznosci - patrz zad. 8. _
k,l~n k,l~n k~n
Okazuje sie, ze dla szeregów niezaleznych zmiennych losowych zbieznosc
z nierównosci (l), z nierównosci Czebyszewa i niezaleznosci Yn. Ustalmy prawie na pewno jest równowazna ze zbieznoscia wedlug prawdopodobien-
E:> O. Wtedy: stwa.
152 Rozdzial 7. Sumy niezaleznych zmiennych losowych § 7.3. Zbieznosc szeregów niezaleznych zmiennych losowych 153

Twierdzenie 5 (Levy'ego). Szer-eg 2::n Xn niezaleznych zmiennych loso- 2. Wykazac, ze jesli zmienne losowe Xn maja ten sam rozklad, P(X" 7'= O) > O,
wych jest zbiezny p. n. wtedy i tylko wtedy, gdy jest zbiezny wedlug pmwdo- to szereg 2:: X" jest rozbiezny p.n.
podobienstwa. 3. Niech (Xn) maja ten sam rozklad: P(Xn = l) = P(X" = -l) = ~. Udo-
wodnic, ze jesli 2::::"=1a;; < 00, to 2::::"=1a"Xn jest zbiezny p.n. -
D o wód. Ze zbieznosci p.n. wynika zbieznosc wedlug prawdopodobie1J.stwa 4. Niech P(Xn = n) = ~ = P(Xn = -n), P(Xn = O) = l - ~. Wykazac, ze
(wniosek 5.9.5). Udowodnimy implikacje w druga strone, a mianowicie wy- 2::::'=1 Xn jest zbiezny p.n., chociaz 2::::'=1 V2Xn = 00.
kazemy, ze ze zbieznosci szeregu 2::~=1 Xn wedlug prawdopodobie1J.stwa Twierdzenie 2 mozna tez udowodnic, korzystajac z bardzo pozytecznej nierówno-
wynika, ze zdarzenie sci Kolmogorowa.
00 5. Udowodnic
A = {2:Xn nie sp~lnia warunku Cauchy'ego } Twierdzenie 6 (Nierównosc Kolmogorowa). Jesli Xl, ... , X" sa nie-
n=l zaleznymi zmiennymi 10~0'Wymi, EXi = O, EX.? < 00, i
= 1,2, ... , n. to dla
kazdego E > °
ma zerowe prawdopodobienstwo, zatem szereg 2:: X" jest zbiezny p.n. (zad.
ES2
5.9.2). Otóz . ·P(max ISki ~ E) ~ _:~.
k~n &~2

00 00 00
Ponadto, jesh istnieje takie C > O, ze P(!X;I'~ C) = l dla i = 1,2, ... , n,
P(A) = P(U
1=1n=l
n {sup IXn
k
+ Xn+1 + ... + Xn+kl > l/l}) ~ 2:
/=1
P(A1), oraz ES~ > O, to dla kazdego E > °
. (C+E)2
gdzie P(max
k~n ISki ~ e) ~ 1- ---C--S2n
G .

Al = n{SUp IXn + ... + Xn+kl > l/l}, 6. Pokazac, ze gdy zmienne losowe Xn sa wspólnie ograniczone przez C (tzn.
n k istnieje takie C > O, ze P(!Xnl ~ C) = l), EXn = O, n = 1,2.:., to ze
l = 1,2, ... Pokazemy, ze P(AI) = O, na co wystarcza, by dla dowolnego zbieznosci 2::::"=1Xn p.n. wynika, ze 2::::"=1V2Xn < 00.
(J' > O, P(AI) ~ (J'. Dla ustalonego n mamy 7. Pokazac, ze w zadaniu 6 mozna opuscic zalozenie, ze EXn = O. Doklad-
niej: pokazac, ze gdy Xn sa wspólnie ograniczone (przez C), to ze zbieznosci
P(AI) ~ P(sup
k
IX" + ... + X"+kl > ljl) = 2::::"=1X" p.n. wynika zbieznosc szeregów 2::::"=1EXn, 2::::"=1V2 Xn.
8. Udowodnic warunek konieczny zbieznosci 2::::"=1Xn p.n. z tw. 4 (o trzech
= m---+oo
lim P(supIXn+",+Xn+A:I>l/l)~
k~m
szeregach) .
9. Niech (Xn)" bedzie ciagiem niezaleznych zmiennych losowych o jednakowym
~ lim 3maxP(IXn
m-+oo k~m
+ ... + Xn+A:1 > 1/(31)), rozkladzie: P(Xn = l) = P(X" = -l) = ~. Dla jakich e E [O,l], szereg
,",00 (V
6n=1 .A" / n 0) Jest
.. zb'lezny
.? p.n .. -
gdzie w ostatniej nierównosci skorzystalismy z (1). Szereg 2::~=1 x./l. jest 10. Zmienne losowe Xn sa wspÓlnie ograniczone. Pokazac, ze jesli I::::"=l anXn
zbiezny wedlug prawdopodobienstwa, wiec dla dostatecznie duzych n i do- jest zbiezny p.n. oraz 10.,,1 ~ C, n = 1,2, ... , to 2::::"=1a.~ < 00.
11.. Udowodnic
wolnych k
P(IXn + ... + Xn+kl > 1/(31)) < (J'/3. Twierdzenie 7 (Nierównosc Hoffmanna-JSZlrgensena). Jezeli Xl, ... ,
Xn sa nieza.teznym'i zmiennymi losowym'i, 8k = Xl + ... + Xk, to dla 'Wszyst-
Zatem P(A!) ~ (J'. II kich 8,t,'r E [0,(0) jest

P(maxl8kl > s + t + T) ~ P(maxlXkl > s) +


k~n k(n
Zadania
+ P(max
k~n
ISki> t)P( max 18k - Sjl
k,J~n
> T)

We wszystkich zadaniach (X,,) jest ciagiem niezaleznych zmiennych losowych. ~ P(maxjXkl


k~n
> s) +
1. Zbadac zbieznosc szeregu 2:: Xn, gdy: + 2P(max
k~n'
[Ski:> t)P(max
k~n
[Sn - Ski> T/2).
a) P(Xn = Tn) = P(Xn = O) = ~,
b) P(Xn = l) = l - P(Xn = O) = ~. t12. Niech S oznacza sume szeregu z przykladu 3. Wykazac, ze prS > t) ~ e-es,.
15/J Rozdzial 7. Sumy niezaleznych zmiennych losowych § 7.4. Prawa wielkich liczb 155

§ 7.4.. Prawa wielkich liczb '!'_~!~r.:Q.~eg).l2_~ (Mocne prawo wielkich licz b Bernoulliego).

Juz dawno zauwazono, ze gdy rzucamy wielokrotnie symetryczna moneta, ~~


n -'t P p.n.
to czestosc wypadniecia orla w koncu stabilizuje sie w poblizu !. Jakub
Bernoulli pod koniec XVII w. udowodnil
(przy ozna.czeTdru;h ,?; tw. l).
Podobno nowa
moneta Twierdzenie 1 (Prawo wielkich liczb Bernoulliego). Jesli 8n oma.-
jednocentowa cza'Ztczbesukcesów w schemacie Bemov.lliego n prób z pmwdopodobien.- D ow ód - patrz zad. 2.
tylko w 10% sl;wem sukces'u w pojedynczej p'róbie równym p, to dla ka.zdego e > O
przypadków Na przykladzie schematu Bernoulliego pokazalismy ogólna regule dotyczaca
upada twarza sum zmiennych losowych. Zajmiemy sie nia dokladniej. Niech X1,X2,··.
Lincolna do ·góry. bedzie ciagiem zmicnnych losowych majacych wartosc oczekiwana i niech
lim p(18nn - pl,;;; e) = l.
n-..oo

Obecnie, gdy znamy nierównosc Czebyszewa, dowód tego faktu jest try-
Bn = Xl + X2 + ... + Xn·
wialny (zad. 1). Mozemy udowodnic znacznie wiecej, a. mianowicic zbieznosc
czestosci Bn/n do p prawie na pewno. W tym celu skorzystamy z lematu Definicja 4. Mówimy, ze ciag (Xn)n spelnia mocne prawo w'ielkich liczb
Borela-Cantelliego i z nastepujacej nierównosci Bemsteina: (MPVilL), jezeli - ..---- ..--...------------ ....•.
8n - [Sn ----'t O p ..n.)
:I..~i..e!:~ze~ie _~ (Nierównosc Bernsteina). Jesl·i 8n jest l'iczba s'll.kce- - n n-+OCl

sów w schemacie n prób Bemoulliego z pmwdopodobie·1i.sl;wem. S1I.kceSlkp,


(t slabe pm:wo wielkich liczb (SPWL), gdy ma miejsce zbieznosc wedlug
to dla kazdego e > O
p-ra.wdopodobienstwa.

p(l:n _ pI> e) ~ 2e-ne2/4. Podamy warunki, kiedy zachodzj MPWL i SPvVL. Jak wspomnielismy na
poczatku rozdzialu, oba prawa wielkich liczb sa s~czególnymi przypadkami
Dowód. Marny problemu zbieznosci ciagu ~,
Sn - an ---
p(:n > p+e) ~~LkJm(p+e)
(~)pkqn-k ~
gd7.ie (an)n jest ciagiem liczb rzec~ywisj;ych, a (b,Jn
bn

ciagiem liczb dodatnich


\
rozbiezn.ym do 00 .. \
~k;;'n(p+e)
"L e->.((p+e)n-k) (~)pkqn-k ~ Historycznie rzecz biorac, pierwszym slabym pr'awem wielkich liczb bylo
P'iiVL Bernoulliego (twierdzenie 1). Z nierównosci' Czebyszewa wynika (zad.
4) nastepujace
'"
___e --'>'ne~
~ k (pe >.q)k( qe _>'P)n-Ic_
(n) - "o
" "

k=O

= e->.ne(pe>.q + qe->'P)'" ~ e->.nE(pe>.2q2 + qe>.2p2)n ~ :!:.~ie.r:.<=!~~!~~..~U~_~_~I:1:Niech (Xn)n bedzie ciagiem. zmiennych loso-
wych takich, ze
,;;; e->.ne . e>.2n
.. + eX
v2s
W przedostatniej. nierównosci skorzystalismy z nierównosci eX ~ x (a) lim __ n = O
n~oo n2
(dowód - patrz A.1.1). Wybieramy teraz A minimalizujace prawa strone,
lub
czyli A = ~ i otrzymujemy:
(b) Xn sa pammi nieskorelowane i mada wspólr-ie ograniczony d-rug-imo-
P (8n
--;; > p + e) ~ e-n.
,2 dla e > O. ment.
J

Analogicznie P(Bn/n ,;;;p - e) ,;;;e-n'; .• Wtedy (Xn)n spelnia SP HfL.


156 Rozdzial 7. Sumy niezaleznych zmiennych losowych § 7.4. Prawa wielkich liczb 157

Teraz przejdziemy do MPWL dla niezaleznych zmiennych losowych. Za- Dowód. Niech bo = 0, So = 0, Sn = I:7=lXn' Wtedy
czniemy od dwu lematów z analizy, dowody których przytoczymy dla kom- n n n
pletnosci wywodu. Wiadomo, ze jesli ciag jest zbiezny, to ciag srednich aryt-
metycznych tez zmierza do tej samej granicy. Nastepujacy lemat uogólnia 2:= bjxj = 2:= bj(sj - Sj-1) = bnsn - boso - 2:= sj_1(bj - bj-1).
ten fakt na srednie wazone. j=l j=l j=l

Stad i z lematu 6 (istnieje limn~oo Sn = s) otrzymujemy


Lemat 6 (Toeplitz). Niech (an)n bedzie ciagiem hczb nie ujemnych, niech
bn = I:7=1 aj, bn > ° dla wszystkich n ;:::1, bn 00. i l n 'l n
Jesli (xn)n jest ciagiem liczbowym takim, ze limn~oo Xn = x, to bn 2:= bjxj
j~l
= Sn - b j=lL Sj_1(bj
n
- bj-d -----> o. •
"n,-tOO

1 n

n-tOO
lim b 2:= ajJ.;j = :r.
n j=1
Teraz mozemy udowodnic

Twierdzenie 8 (Kolmogorowa). Niech (Xn)n bedz'ie ciagiem niezalez-


Dowód. Ustalmy dowolne E> °
i wybierzmy takie no = nO(E), zeby dla nych zm'iennych losowych tak'ich, ze 1)2 Xn < 00, n = 1,2, ... niech (bn)n i
n ;:::no zachodzila
takie n1 > no, ze
nierównosc IXn - xl ~ ~E. Poniewaz bn i 00, to istnieje bedzie c'iagiem rosnacym liczb dodatnich, takim, ze limn~oo bn = 00 oraz
00 '"02 X" .

1 no E
I:n=l ~ < 00, Wtedy
-~alx' 0) J' -'El <-2'
b
n, j=l l·llll ---=
rL-tOO
Sn - ESn
bn .
° p.n.
Wtedy dla n > n1 mamy
2 "

1 n 1 n
W szczególnosci, jesli I:':= 1 'D nlfn < 00, to (Xn)n spelnia MPWL.
bn J=l
2:=
' ajJ.;j - X ~ bn 2:= aj IXj - xl ~
)=1 D o wód. Poniewaz
l

~bn j=l
no

2:=ajfxj - xl +
1

bn j=no+1
n

2:= ajlxj - xl < 8n - ESn


bn
=~
bn
t.
J=l
bj . Xj - EXj,
bJ·

< -E
2
+ --
2Elb 2:=n !l''.1'< E • to z lematu 7 wystarczy pokazac, ze
n j=no+1 00 .

Lemat 7 (Kroneckera). Niech (bn)n bedzie ciag'iem TOsnacym liczb do- 2:= !!:!2-=_~Xn
n=l bn
datnich rozbieznym do 00, a (xn)n C'iagiem, liczb r'zeczy'Wistych takim, ze
I:':=1 Xn jest zbiezny. Wtedy jest zbiezny p.n., co wynika z twierdzenia 7.3.2 o dwu szeregach .•
1 n
Przyklad 9. Niech (Xn)n bedzie ciagiem niezaleznych zmiennych loso-
lim -b 2:= bjXj = O.
wych o jednakowym rozkladzie, [Xl = 0, 1)2X1 < 00. Wtedy dla kazdego
n-oc n j=1
E> O marny
W szczególnosC'i dla bn = n, Xn = Yn/n zachodzi 'Wynikanie:
lim Sn Przypadek E: =
Jesli sze'f'eg
00 n~oo rpl (l ogn)"2+E
l - O p.n., obejmuje
nierównosc
2:= Yn bowiem I:':=2 " 1,ah < 00 .• Hardy'ego-
n=l n -Littlewooda 2

zad. 5.8.23.
jest zbiezny, to Gdy zmienne losowe Xn maja jednakowy rozklad, nie trzeba zakladac ist-
lim Y1
n---+oo
+ Y2.•. +n ... + Yn = O. nienia wariancji, by zachodzilo MPWL. Wystarczy istnienie wartosci ocze-
kiwanej.
ltllllclzial 7. Sumy niezaleznych zmiennych losowych § 7.4. Prawa wielkich liczb 159

Twierdzenie 10 (MPWL Kolmogorowa). Jesli (Xn)~=l jest ciagiem 00 1 00


niezaleznych zmiennych losowych o jednakowym 'rOzkladzie, EIXll < co, to ~ 2 L 1/
k=l
(Xi1{k-l<lxd~k}) ~ 2 L
k=l
E (IXlI1U:-l<lx,l<k}) =
(Xn)n spelnia MPWL, czyli
= 2EIXl! < 00,

lim
n-oo n
Sn = EXl p.n. co kOI1CZYdowód .•

Przypomnijmy, ze na mocy wyniku z zad. 5.6.1, jesli X jest nieujemna Uwaga 11. Zachodzi twierdzenie w pewnym sensie odwrotne: Niech (Xn)
zmienna losowa, to bedzie ciagiem niezaleznych zmiennych losowych o tym samym rozkladzie.
00 00 Jesli istnieje stala C taka, ze P(limn Xl+';;+X" = C) > O, to EIXll < co
iC=EXl·
2:: P(X ;?; n) ~ EX ~ 1+ 2:: P(X ;?; n),
n=l n=l
D o w ó d. Z prawa. 0-1 Kolmogorowa (tw. 7.2.1) wynika, ze
skad natychmiast wynika, ze :tmienna losowa X ;?; O jest calkowalna wtedy
NFllt\~,'y I<OllilW:ldllll
i tylko wtedy, gdy 2::=1 P(lxl ;?; n) < 00.
P(limn Xl + ...
n + Xn = C) = 1. 1'()~wlll~II,(:~,IUll\il1111
5.n.l.
Dowód twierdzenia 10. Niech Yn = Xnl{IX"I~n} tzn. Yr, jest obcieciem
Xn na poziomie n. Korzystajac z tego, ze Xn maja jedrJakowy rozklad i :<I
Stad
wyniku zad. 5.6.1, otrzymujemy
X" Sn - l) . S,,-l Op.n.,
00 00 00 - (n n
-;;: = --;:;: n-l ---l
n~oo.

L
n=l
P(Xn =I Yn) = L
n=l
P(IXnl > n) = 2:: P(IXll > n)
n=l
~ EIXI I < co. wobec tego szansa, ze zajdzie nieskonczenie wieJe' zdarzen {lXni> n} jest
równa zeru. Zatem z lematu Borela-Cantelliego szereg ~:=l P(IXnl > n)
jest zbiezny, stad ~:=lP(IXll > n) < co, co daje EIXII < co (znów zad.
limn Xl+';;+X" = EXI p.n. wtedy i tyllco
Zatem z lematu Borela-Cantelliego
wt;edy, gdy lim y,+.;;+y" = EXl p.n. Dalej, limnEYn = EXl pociaga za
5.6.1) i
z MPWL (tw. 10) C = [Xl' •
soba, ze linln ~ 2:j=l EYj = EXl> a zatem wystarczy pokazac, ze
Uwaga 12. Jesli EIXll = 00, to limsuPTl~oo I~I= 00.
,

"
1m----------=

n
+ ... + (Yn -
(Yi - EXl)
n
EYn) O p.n., D ow ó d- patrz zad. 12.
a na mocy twierdzenia 8 wystarczy tylko dowiesc, ze Przejdzmy teraz do wniosków z MPWL.

'])2y,
o
~
n=l
00

---;;2n < co.


Wniosek 13. Defi:nic.7a czesto.5c·io'Wa p'f'O,wdopodobie71.stwajest uzasadnio-
na. Jesli 'W wyn:ikv, powtórzenia nieza.leznie n razy doswiadczenia otrzyma-
lismy w = (Wl, ... ,wn), to ,r;zestosc pO.ia'Wiania sie zdaTZenia A jest równa
Podobnie jak w zadaniu 5.6.1 przedstawimy wartosc oczekiwana Y; w po-
staci sumy wartosci oczekiwanych pewnych zmiennych losowych i zamie- fn(A)(w) e'" = 1Jl(WI) + ... + 1A(Wn)
nimy kolejnosc sumowania.
n
Z MPWL lim" fn(A) = El.4. = P(A) p.n.
o
~ '])2Yn
n=l
n2 ~ 0 ~E
'" ~
n=l
n2 [X n 1 {IXnl~n}
]2 - 0 E (Xfl{IX11~n})
_ ~
n=l
n2
Widac, ze prawdopodobieIlstwo jest odpowiednikiem teoretycznym czesto-
00 1 n sci (od czego rozpoczelismy wyklad teorii). Innymi slowy, defin.icja czesto-
L L
= n=l n2
k=l
E (Xi1{k-l<IX11~k}) = sciowa prawdopodobienstwa
mogorowa.
dalaby takie same wyniki, jak definicja Kol-

00 00 1
= LE
k=l
(Xi1{k-l<IX11~k}) L 2~
n=k n
Definicje czestosciowa prawdopodobienstwa
dopodobienstwo
propagowal von Mises: praw-
zajscia zdarzenia A mialoby byc równe granicy czestosci
160 Rozdzial 7. Sumy niezaleznych zmiennych losowych § 7.4. Prawa wielkichliczb 161

jego wystepowania. Zasadnicza wada tego pomyslu byla nieskonczona liczba Ale gdy mozna tak dobrac gestosc g, by iloraz .f/g wahal sie mniej niz f,
prób, potrzebna do obliczenia prawdopodobienstwa. Gdybysmy jednak mo- to 8n ma mniejsza wariancje niz Zn' Istotnie, mozemy dobrac gestosc g
gli wykonac nieskonczenie wiele doswiadczen, otrzymalibysmy prawdopo-
dobienstwo zdarzenia "takie jak trzeba". ta,k b y Jaf1 j2(z)
gez) d7~ < J'la f2( z) d z, a to oznacza,
.' ze
. c (f(X,J)2
c.,. g(Xtl < Cf2(X)
c.,. l ,
zatem V2 Bn < V2 Zn'
Mocne prawo wielkich liczb mówi takze, jak nalezy interpretowac wartosc
oczekiwana· Mozna by wysunac zastrzezenie, ze równie dobra, jesli nie lepsza, jest kla-
syczna metoda Simpsona, opierajaca sie na podziale przedzialu calkowania Wazny jest takze
Wniosek 14.
Wartosc sr-ednia teoretyczna pokr-ywa sie z intnicyjna. Niech na równe czesci. To prawda - w przypadku funkcji zmieniajacych sie regu- wymiar
Xl, X2, •.• beda niezaleznymi zmiennymi losowymi o jednakowym TOzktadz'ie larnie. Jesli funkcja zmienia sie bardzo nieregularnie, próbkowanie w losowo przestrzeni: w

i skonczonej war-tosci s-redniej EX1 = m. Wtedy 'lJJar-toscsr-edn'ia intnicyjna, wybieranych punktach pozwala wychwycic wklad takich nieregularnosci do
calki.
wielu wymiarach
metody
czyli limn Xl +-,:,.+Xn, jest r-ówna m ..- war·tosci sr-edniej teor-etycznej. probabilistyczne
Metody Monte Carlo stosuje sie takze clorozwiazywania równan calkowych sa lepsze.
MPWL jest bardzo wazne z punktu widzenia zastosowan. Omówimy tu i równail rózniczkowych czastkowych.
kilka z nich: Ich stosowanie wymaga otrzymywania realizacji ciagu niezaleznych zmien-
A. Weryfikacja wyboru przestrzeni probabilistycznej opisujacej nych losowych o zadanym z góry rozkladzie. Wiele standardowych pakie-
zjawisko. Czasem trudno jest wybrac wlasciwy model dla opisu zjawiska. tów oprogramowania zawiera generatory rozkladu jednostajnego na (O, l)
Czesto kryteria "zdrowego rozsadku" zawodza i jedynym sposobem weryfi- i z nich otrzymujemy generatory innych rozkladów. A mianowicie, gdy
kacji wyboru jest badanie czestosci. Jak wiemy z MPWL, czestosc zajscia Xl,'" ,Xn sa niezaleznymi zmiennymi losowymi o rozkladzie jednostaj-
zdarzenia zmierza do jego prawdopodobienstwa. Zatem nalezy wybrac zda- nym na (O, l), a dystrybuanta F rozkladu prawdopodobienstwa jest od-
rzenie, które ma istotnie rózne prawdopodobienstwa. w postulowanych przez wracallla,to F-l(Xl), ... ,F-1(Xn) sa niezalezne i maja rozklad o dys-
nas modelach i zbadac jego czestosc. Dobrym przykladem problemu wyboru trybuancie F (patrz § 5.2). Gdy funkcja odwrotna do F nie istnieje, to
wlasciwego modelu jest paradoks kawalera de Men\ (patrz zad. 2.2.20; do w zasadzie moglibysmy brac F-l zdefiniowane w zadaniu 5.2,2, ale zwy-
weryfikacji modelu wybieramy np. zdarzenie, ze wypadly same czwórki, kle jest to kosztowne rachunkowo. Dlatego czesto szuka sie innych rnetod,
albo trzy jednakowe wyniki). na przyklad zmienna losowa o zadanym rozkladzie staramy sie przedstawic
jako funkcj e zmiennych losowych X l, X 2, ... , Xn, które latwo generowac,
B. Metoda Monte Carlo obliczania calek. Jest to przyklad zastoso- tzn. Y = H(Xl, X2,"" Xn) (patrz zad. 5.10.4) i realizacje Y otrzymujemy
wania probabilistyki do problemów deterministycznych, dosc zreszta efek- jako funkcje realizacji X. Inna metoda jest metoda obcinania (patrz zad.
towny, poniewaz metody tej po raz pierwszy uzyl Stanislaw Ulam do obli- i
16 17).
czen zwiazanych z bomba atomowa.
C. Dy-strybuanta empiryczna. Powtarzamy pewne doswiadczenie nie-
Metoda jest przydatna zwlaszcza do obliczania calek wielokrotnych. Przed- zaleznie n razy. W wyniku tego otrzymujemy ciag Xl, X2, ... , Xn niezalez-
stawimy ja na przykladzie calki J~lf(x) dx, której nie potrafimy obliczyc nych zmiennych losowych (próbke) o nieznanej dystrybuancie P. Chcemy
teoretycznie, ale wiemy, ze istnieje. odtworzyc P. W tym. celu dla kazdego x E R definiujemy
Niech Xi beda niezaleznymi zmiennymi losowymi o wartosciach w (0,1) i o
l n
gestosci g. Wtedy z MPWL
Fn(x) =-
n
Ll 'i=1
(X,;;;"'}

Sn = -nl L
i=l -(-l --,
n f(Xi)
g X'i -(-ll = 11-( .) .
n ....•oo E [f(X1)]
g X a f(x)x
g g(x) (l;x; = .lIa ..
j(x) d;r; Dla ustalonego ;:r;jest t.o czestosc zdarzenia {Xk ~ x} dla próbki Xl, X2,
... , Xn, czyli zmienna losowa. Natomiast dla ustalonej w E n funkcja
p.n. Zatem obliczajac Sn,aproksymujemy calke (na pytanie, jak duze po- Fn: R ----> [O, l] jest dystrybuanta i nazywa sie dystrybuanta empiryczna
winnismy brac n odpowiemy pózniej korzystajac z centralnego twierdzenia obliczona z próbki n-elementowej.
granicznego). W szczególnosci, gdy Xi maja rozklad jednostajny na (O, l),
to Twierdzenie 15. Dla kazdego x E R
- L.:~=lf(X;} ----> j'l f(x) dx p.n. = 1.
Zn ~ n n ....•
oo a P(Fn(x) ----> F(x))

'--- -'---
102 n,o~,Jzjal 7, Sumy niezaleznych zmiennych losowych 163
§ 7.4. prawa wielkich liczb

D ow ó d. Ustalmy :r E R. Wtedy l{xi~"'} jest ciagiem niezaleznych zmien- E. Istnienie zmiennych losowych o rozkladzie singularnym.
nych losowych o tym samym rozkladzie i o wartosci oczekiwanej

E [1{xl~"'}] = P(X1 ~ x) = F(x). Definicja 18. Zmienna lospwl1 Y ma rozlcla,d~ingulamy (osobliwy), .jesli
je) dystrybuanta .jest ciayia. 'isl;nieje tah zb'ió7' A C R,
oj ze A(A) = O, ale
Zatem z MPWL
P(Y E A) = 1.
1 n
Fn(x) = n- L){Xi~X} ----;
n--lOO
F(x). - Przyklad 19. Niech Xl, X2, ... beda niezaleznymi zmiennymi losowymi
i=l
takimi, ze P(Xn = 1) = p i= ~, P(Xn = O) = 1 - p. Wtedy Y = 2::=1 f,;>
Analogicznie otrzymujemy, ze P (limn Fn(x-) = F(x-)) = 1 dla dowol- ma rozldacl singnlarny. Istotnie, cna dowolnego ,a E [0,1], P(Y = a) = O,
nego x E R. Oba te fakty pokazuja, ze wraz ze wzrostem n dystrybuanty wiec dystrybuantajest funkcja ciagla. Poniewaz P(limn Xl+',:;+Xn = p) = 1
empiryczne coraz bardziej upodabniaja sie do dystrybuanty F. Wykaza- oraz p i= ~, to Y przyjmuje wartosci z dopelnienia zbioru liczb normalnych
lismy zbieznosc dla kazdego punktu x z osobna, ale faktycznie zbieznosc przy podstawie 2, a wiec ze zbioru o zerowej mi.erze Lebesgue'a. _
jest jednostajna (to podstawowe twierdzenie statystyki matematycznej --
twierdzenie Cliwellki-Cantelliego).
p, Zastosowanie w analizie matematyczn~J'
D. Zastosowanie do teorii liczb. Pewne twierdzenia tej I'.eorii mozna
dowodzic metodami rachunku prawdopodobienstwa. Oto przyklad. Przyklad 20. Znalezc granice

Definicja 16. Liczbe a E [O,i] nazywamy nO'rmalna przy podsta.wie d, gdzie


d E N, d ~ 2, jezeli ma ona przedstawienie hm
. j'lo
n'-oo.
...
II xi + x~- + ... + x~
. o Xl X2 X'"
dX1 ... dXn

\N rozwinieciu 00 En
liczby normalnej
a= Ldn' O ~ En ~ d-I, Rozw. Niech Xl, X2> ••• beda niezaleznymi zmieimymi losowymi o rozkla-
wRzySI,kic cyfr)' 1'1.=1 dzje jednosta.jnym na (0,1). Wtedy
wy"I.Qpnjf1
jorJ1l"lwwo c~Qsto. spelniajace war-unek:
XJ+ ... +:r,1'I. .1, ,_C ~~~
l.lm
n
#{i:Ei=k,i=I,2,
n
... ,n} =-,d1 k E {O, 1, ... ,d - I}. j'l
• o
... lJ
. o XJ3 + ... + a:,·,,:; (~Xl
,
... X1
ch", -- '- (X3 + ... + X'
X3)n

Z MPWL,
Twierdzenie 17 (Borela) . Prawie wszystkie (w sensie rniaTY LebesglLe '0.) 1"3 ~::l

liczby z przedzialu [0,1] sa normalne wzgledem kazdej podstawy.


+ :_·_.
~.L_.
X-a +__
x3
n
~+ ..+x"
,_,__ -> __
[X3
I __1
Xl + ... + X", - X,+ ...
n -I-X" [Xl
. - 2
Dowód. Niech Ad = {x E [O,I]:::cnormalneprzypoclstawied}. Wtedy
zbiór A liczb normalnych przy kazdej podstawie jest równy Al. Wy- n~2 A poniewaz O < i~1:::~~
< 1, to z twierdzenia Lebesgue'a o zbieznosci
starczy zatem wykazac, ze P(Ad) = 1, d = 2,3, .... Ka.zda liczbe x E [0,1] zmajoryzowanej wynika, ze szuk,\l1a granica jest równa ~. _
mozna zapisac w postaci

;'. ~En(X) Zadania


X=~~,
n=l
gdzie En(X) E {O, 1, ... d - l}i funkcje En(X) sa niezaleznymi zmiennymi 1. Udowodnic PWL Bernou~·jego.
losowymi o jednakowym rozkladzie (rozumujemy jak w przykladzie 4.1.13, 2. Korzystajac zs nierównosci Bernsteina (tw. 2), udowodnic, ze w schemacie
gdzie wykazano istnienie nieskonczonego ciagu zdarzen niezaleznych). Usta- Bernoulliego ~ ----> P p~'Il.
71.-00
lamy dowolne k E {O,~, ... ,d-l}. Niech E~ = l{en=k}' Wtedy (E~)n sa
3. Wykazac MP\VL dla schematu Bernoulliego, kor~ystajac z twierdzenia o dwu
niezaleznymi zmiennym.i losowymi o jednakowym rozkladzie i z MPWL
szeregach.
lm-----n =- =1 4. Udowodnic twierdzenie 4.
P (l'n Ei + ... + E~ 1)
d
5. Jesli V2 X" ~ C < 00, n = 1,2, ... oraz X" zalezy jedynie od X"-l i Xn+1,
Stad P(Ad) = L _ a nie zalezy od innych )C:, ~O.(Xn)" spelnia SPWL.
164 Rozdzial 7. Sumy niezaleznych zmiennych losowych § 7.4. Prawa wielkich liczb 165

6. Twierdzenie Bernsteina. Jesli V2 X" ~ C < 00, n = 1,2, ... oraz wspól- generowanie zmiennej losowej X, gdy umiemy generowac zmienna losowa Y,
czynnik korelacji g(Xi, Xj) --+ O, gdy li - jl --+ 00, to (Xn)" spelnia SPWL. jest m.ozliwe przy uzyciu nastepujacego schematu (metody obcinania):
7. Twierdzenie Chinczyna. Udowodnic, ze jesli (X,,)n jest ciagiem zmien- a) Generujemy Y i niezalezna od niej zmienna losowa U o rozkladzie jedno-
nych losowych parami niezaleznych o jednakowym rozkladzie i skonczonej stajnym na (O, l).
wartosci oczekiwanej, to dla (X,,)n zachodzi SPWL. b) Gdy U ~ f(Y)jCg(Y), to przyjmujemy X = Y, w przeciwnym przypadku
wracamy do kroku l.
8. Znalezc przyklad pokazujacy, ze warunek w twierdzeniu 7 (Kolmogorowa)
nie jest warunkiem koniecznym. 17. Czy metode z poprzedniego zadania mozna zastosowac do zntiennej losowej
X o gestosci f(~;) = 20x(1 - x)31(o,1)(X)? Jest to gestosc rozkladu beta
9. Niech X"' n = 1,2, ... beda nie zaleznymi zmiennymi losowymi, P(X", =
z parametrami 2, 4.
= 1) = P(X" = -l) = Pn, P(Xn = O) = 1-2pn. Znalezc warunek konieczny
i dostateczny, by ciag (X,,)n spelnial MPWL. 18. Zalózmy, ze mamy bardzo dluga liste elementów. Niech n bedzie dlugoscia
tej listy, a m(i) bedzie liczba mówiaca, ile razy element z i-tego miejsca po-
10. Niech Xn, n= 1,2, ... beda niezaleznymi zmiennymi losowymi, dla których
jawia sie na liscie. Dana jest funkcja f przyporzadkowujaca elementom listy
l pewne wartosci. Niech Xl, X2, ..• beda niezaleznymi zmiennymi losowymi
P(Xn = n + 1) = P(Xn = -(n + l») = 2(n + l) log'(n + l)' o rozkladzie równomiernym na zbiorze {l, 2, ... , n}. Pokazac, ze
l k
P(Xn = O) = l - (n + 1) log (n + l)
Udowodnic, ze (X,,) spelnia SPWL, a nie spelnia MPWL.
lim !::
k~cok '" 6
1.=1
f(Xi)
m(X) t
= w. p.n.,

11. Rozwazmy bladzenie losowe niesymetryczne. Udowodnic, ze dla p > ~ jest gdzie liczba 'Ul jest suma wartosci dla (wszystkich) róznych elementów z tej
P(limBn = (0) = l, a dla p < ~ jest P(lim Bn = -00) = 1. - listy (gdy f(x) = l dla kazdego x, bedzie to liczba róznych elementów listy).
Ten wzór pozwala znalezc przyblizenie liczby 'Ul bez przegladania wszystkich
12. Wykazac, ze jesj:i (Xn)n jest ciagiem niezaleznych zmiennych losowych o elementów listy.
jednakowym rozkladzie, EX; < 00, EXt = 00, to P(limn ~ = (0) = 1.
19. Niech Xl, Y1, X2, Y2, ..• beda niezaleznymi zmiennymi losowymi o rozkladzie
13. Dany jest ciag (Xn)n niezaleznych zmiennych losowych o tynt samym roz-
jednostajnym na (O, 1). Niech f: [O, l] --+ [O, l]:bedzie funkcja mierzalna, Zi
kladzie, EXl = O, EXt = c. Wykazac elementarnie, czyli nie korzysta-
jac z tw. Kolmo!sorowa, a korzystajac z nierównosci Czebyszewa i lematu
= lU(X;l>Y<l' Udowoqnic, ze .
Borela-Cantelliego, ze ciag (Xn)n spelnia MPWL. n l'
*14. Twierdzenie Marcinkiewicza. Zalózmy, ze Xl, X2, ... sa niezalezne i jed- Hm ~
n-oc 2:
n i=l Zi = Jor f(x) dx p.n.
nakowo rozlozone. Udowodnic, ze jesli EIXIIP < (X) dla pewnego p E (0,2),
to P(limn(Bn - nu)/n1/p = O) =1, gdzie
20. Niech (X,,) bedzie ciagiem niezaleznych zmiennych losowych, i P(Xn = 1)
dla p E (O, l), = P(Xn = O) = ~, n = 1,2, .... Udowodnic, ze zmienna losowa
u = {~X1 dla p E [1,2). co

Y = '"
L- Yn
dnI
15. Niech f: [O, l] --+ R bedzie funkcja ciagla. Obliczyc granice: n=l

a ) llInn~co
. l [.1
vn. rl
o ... Jo V Xl2 + ... + X"2"d.~l ... d"Xn,
gdzie d E N, et> 2, ma rozklad singularny.
b) l·lffin---o.(X) Jorl [.lf("·i+
o ...+xn)d
n ::r:l ... d Xn; *21. Udowodnic
c) limn~co JOl .JOl f( V'X1X2 ... Xn) d~;1 ... dXn.
Twierdzenie 21 (Etemadiego). Jesli X"' n = 1,2, ... sa zmiennymi lo-
W nastepnym zadaniu jest mowa o generatorach liczb losowych. Obecnie ta- sowymi parami niezaleznymi o jednakowym rozkladzie, EIX11 < 00, to
kie generatory dostepne sa w wielu kalkulatorach prawie wszystkich pakietach i l·lm-Bnn
oprogramowania. Generowanie liczb losowych o zadanym rozkladzie moze byc =(.,C'x l p.n.
kosztowne numerycznie, stad zadanie.
*22. Podac przyklad ciagu niezaleznych zmiennych losowych o tym samym roz-
16. Niech zmienna losowa X (odpowiednio Y) ma rozklad ciagly z gestoscia
f (odp. g) i niech istnieje stala C ;" l taka, ze f ~ Cg. Udowodnic, ze
kladzie, dla którego ciag srednich Sn/n L
O, ale nie ma zbieznosci p.n.

I
Jon Rozdzial 7. Sumy niezaleznych zmiennych losowych
--
§ 7.5. Twierdzenie Poissona
~

167

§ 7.5. Twierdzenie Poissona n-krotnym produktem rozkbdu np. Xl, mozna zalozyc bez straty ogólnosci,
ze zmienne losowe Xl, .. ' , Xn sa okreslone na 'przestrzeni probabilistycz-
.Jesli liczba doswiadczell n w schemacie Bernoulliego jest duza, obliczanie nej (D, F, P), gdzie D = [O, l Jn, F jest u-cialem podzbiorów borelowskich
prawdopodobienstwa danej liczby sukcesów staje sie klopo'tliwe. Klasyczne [O, l]n, wreszcie P jest n-wymiarowa miara Lebesgue'a . .Jesli okreslimy
,
twierdzenie Poissona l dostarcza prostego przyblizenia, które ma rozsadna
dokladnosc w przypadku, gdy prawdopodobiellstwo sukcesu p jest male, dl,a Wk <1- p,
a iloczyn np - umiarkowany. Xk(W) = Xk(wJ,'" ,wn) = {~ dla Wk ;. l - p,

Twierdzenie 1 (Poissona). Jesli n --+ 00, Pn -> O; npn -> A > 0, to Lo zmienne losowe Xk beda niezalezne. Dalej, niech

dla. Wk < e-P,

(n)
k Pnk( 1- Pn) n-k --->
n~DO -_e-A
k!
Ak X;;(w) = {Ok dla Wk E [ak-.1, ak),

Dowód. Oznaczmy A" = np.,.,. 'Wtedy An -> A, a lewa strona powyzszego gdZIe . ak = "k
L.nn=O 7r"". Wtedy S,~= Xi + ... + X~ ma rozklad Poissona
wzoru da sie zapisac w postaci 'l, parametrem np.
'VII takim razie
n-l ..... n-le T . npn 1_ :::2: 1_ :::2: --> ~e-A
n n1 1'1 ( k! )k ( n
\) n( \)n -k n~DO k!
\k

Istotnie, jesli An -> A,"to (1 -- ~ r


-> e-A, co wynika np. z dwustronnego
IP(Sn E E) - kE'BnN L 7rkj' ~ IP(Sn E E) - P(S~ E E)I ~ P(Sn =J S~),
oszacowania log(l + x')t (A.1.2a). _
co wynika z elementarnej l~i~~ównosci: IP(A) - f(C)1 ~ P(A 6 C) i stad,
ze zdarzenie {Sn E E} 8. {S~ E E}, polegajace na tym, ze jesli Sn E E,
Taj, prosty dowód nie, daje jednak natychmiastowej informacji o bledzie
to S~ ej. E i odwrotnie, w oczywisty sposób pociaga za soba, ze Sn =J S~.
przyblizenia. Oszacowanie bledu jest zawarte w nastepnym twierdzeniu, Teraz
kt.óre'sformulujemy w jezyku niezaleznych zmiennych losowych. fi n

P(Sn =J S,~) ~ P( U{Xk


1,=1
=J Xk}) ~ E
k=l
P(Xk =1= xn·
Twierdzenie 2. Niech Xl; X2, ... ; Xn beda niezaleznymi zmiennymi lo-
sowymi o tym samym rozkladzie: P(Xi = 1) = p = 1 - P(Xi = O), Zmienne losowe Xk i XI~ róznh); sie na dwóch zbiorach: {w: wk E [l-p, e-P)}
i = 1,2, ... , n. Oznaczmy A = np, 7rk = ~~e-A dla k = O, 1,2, ... , Sn =
= Xl + X2 + ... + Xn. (tu Xk = O, X,7: = 1) oraz {w: Wk E [e-P + pe-p/I]} (tu Xk = l i Xi: > 1),
których laczna miara nie przekracza p2. Istotnie, mamy
Wtedy dla kazdego zbioru bor-elowskiego .B C R mamy
e-P - (1- p) + l - e-P - pe-P = p(1 - e-P) ~ p2.
"
IP(Sn E B) - .L
kEBnN 7rkl ( ~!2 Ostatecznie P(Sn =J S~) ~ np2 = ~. _

Wynika stad oczywiscie twierdzenie Poissona (wystarczy wziac E = {k}), Przyklad 3. Prawdopodobienstwo p trafienia "szóstki" w Toto-Lotku jest
a nawet wiecej: zbieznosc zachodzi, gdy npn -> 00, ale np:, -> O. Widac tez, równe 1/ C;) = 1/13983816 :::::7· 10-8 Ilu "szóstek" mozna sie spodziewa.c
ze uzasadniona jest zdroworozsadkowa regula mówiaca, kiedy przyblizenie w kazdym tygodniu, jesli grajacy wypelniaja kupony calkowicie losowo i nie-
jest dobre: n ma. byc duze, p - male, np - srednie. zaleznie od siebie, a kuponów jest2 n = l07?

D o w ó d twierdzenia 2. Poniewaz prawdopodobiellstwa wszelkich zdarzen 2Nie wiemy, ile kuponów wypelnia sie co tydzien w P61sce, ale mozna to bez trudu
oszacowac na podstawie statystyki glównych wygranych. Wiemy natomiast, ze gdy w
zdefiniowanych za pomoca zmiennych losowych Xk sa jednoznacznie wy- wegierskiej wersji totalizatora moz,na bylo wygrac 975 mir;, forintów (ok. 4,25 mln USD),
znaczone przez rozklad wektora losowego (Xl,'" Xn), który jest z kolei poniewaz przez ostatnie 21 tygOclllIn.ikt nie trafil glównej wygranej, Wegrzy kupili 10 mln
lSimeon D. Poisson, Recherches sur lo,probabilite des jugements en ""atiere criminelle
kuponów, czyli srednio jeden rlU jednego mieszkanca. I
znów nikt nie wygral. Zwrócmy
uwage, ze srednia wygrana przypadajaca na jeden kupon wyniosla 42,5 centa (Gazeta
et en matiere civile, precedee des regles genemles du calcul des probabilites, 1837. Wyborcza, 18/19 wrzesnia 1999),
168 Rozdzial 7. Sumy niezaleznych zmiennych losowych § 7.6. Twierdzenie de Moivre'a-Laplace'a 169

Zgodnie z tw. l nalezy sie spodziewac, ze liczba "szóstek" ma rozklad § 7.6. Twierdzenie de Moivre'a-Laplace'a
zblizony do rozkladu Poissonaz parametrem ,A = np ~ 0,7151. Wtedy
szanse pojawienia sie 0, l i 2 "szóstek" wynosza odpowiednio ok. 0,4891, Na rysunku ponizej widzimy reprezentacje graficzna dwóch rozkladów Ber-
0,3498 i 0,1251. Z twierdzenia 2 wynika, ze blad przyblizenia nie przekracza noulliego: po lewej dla n = 10, P = 0,5, po prawej dla n = 12, P = 0,2.
,A2/n :::;;0,5· 10-7 .Wyglada na to, ze dokladnosc jest az za duza. _
0.3

Czasem rozklad POlssona nazywa sie "rozkladem zdarzen rzadkich" albo


"prawem malych liczb". Moga to byc pozary, wypadki czy tez - jak wi- 0.2
dzielismy ~ glówne nagrody w grach losowych. Wystepowanie rozkladu Po-
issona w tego rodzaju sytuacjach badal Bortkiewicz w pracy z roku 18953.
Byla tam mowa o zgonach na skutek kopniecia przez konia warmii pruskiej.
0,1
Wiele przykladów obserwacji zgodnych z rozkladem Poissona, a w szczegól-
nosci opis doswiadczenia Rutherforda, w którym liczono rozpady atomów,
mozna znalezc w [FEL], t. l, VI.7. o
o 2 4- 6 8 10 o 2 4- 6 8 10 12

Zadania
Zobaczmy teraz, jak wygladaja oba rozklady odpowiednio unormowane.
1. Grajacy w Toto-Lotka wcale nie wypelniaja kuponów losowo. Malo kto na "Odpowiednio" oznacza tyle, ze. srednia ma byc równa zeru, a wariancja
przyklad odwazy sie skresli{; po kolei l, 2, :3, 4, 5 i 6. Zjawisko to badal równa l, czyli zamiast liczb>y sukcesów Sn rozpatrujemy teraz
m.in. Steinhaus4. Wymyslic i przedyskutowac test losowosci, nie wymagajacy
szczególowego badania kuponów.
Sn - np
S~ = ..;npq
2. Tekst broszury zawiera n = 100000 z.naków.W trakcie pisania (na kompute-
Liczba bledów rze) kazdy znak moze zostac blednie wprowadzony z prawdopodobiel'lstwem
w ksiazce po 0,0001. Z kolei redaktor znajduje ka,zdy z bledów z prawdopoclobiellstwern
kolejnych 0,9, po czym tekst wraca do autora, który znajduje kazdy z po:wstalych
korektach tworzy
malejacy bledów z prawdopodobienstwem 0,5. Jaka jest szansa, ze po obu korektach
i nieskonczony broszura bedzie zawierala nie wiecej niz 3 bledy?
ciag liczb
naturalnych.
3. Dwóch korektorów przeczytalo ksiazke. Pierwszy znalazl 91 bledów, drlIgi
53, przy czym bledów zauwazonych przez obu bylo 39. Nastepnie korektorzy
zostali zwolnieni z pracy. Dlaczego?
4. Ile srednio rodzynków powinno zawierac ciastko, 'l..cbyz prawdopodobiCJ1.-
stwem 0,99 dane ciastko zawieralo przynajmniej jeden rodzynek?
5. W Warszawie na Ursynowie ginie srednio 7 samochodów tygodniowo . .Jaka
Faktycznie jest to jest szansa, ze jutro bedzie "dzien bez kradziezy", przy zalozeniu stalej in-
20-40 tensywnosci dzialania zlodziei? -3 -2 -1 o 2 3 -2 -1 o 2 3
samochodów
miesiecznie
3L. von Bortkiewicz, Das Gesetz der kleinen Zahlen. Wladyslaw Bortkiewicz by! Na kolejnym rysunku dokonano zgodnej z powyzszym zmiany skali na osi x
(Pasmo, maj
2000).
profesorem uniwersytetu w Berlinie. Jego prace mialy znaczny wplyw na rozwój tcorii
prawdopodobienstwa w Rosji. W [MAJ-2] wystepuje jako statystyk polski, w Wielkiej
i takiej zmiany skali na osi 'U, by nie zmienily sie pola slupków. Lewy i prawy
Encyklopedii Powszechnej - jako niemiecki pochodzenia polskip.go.Stad warianty pi- rysunek upodobn.ily sie do siebie, a. wykres gestosci rozkladu N (O, l) suge-
sowni imienia. ruje, ze rozklady zmiennych losowych S~ sa podobne do rozkladu normal-
4pOr. H. Steinhaus, Kalejdoskop matematyczny, wyd. IV, WSiP, Warszawa 1989, Oraz nego.
B. Gleichgewicht, J. Kucharczyk i H. Steinhaus, Uwagi o grach losowych, Zastos. MaI;.V
(1960), ss, 21-33. W tej ostatniej pracy autorzy zbadali preferencje graczy przy skrp.slaniu Udowodnimy dwa twierdzenia de Moivre'a-Laplace'a, które scisle wyrazaja
liczb we wroclawskiej "Liczyrzepce" (material zawieral kilkadziesiat tysiecy kuponów). te intuicje. Przypadek symetryczny (p = 1/2) zostal udowodniony w pracy
I) H.Lw.d~.i<1.1 7. 811my uiezaleznych ;\llIiUllnydl IOHllWych § 7.6. Twierdzenie de Moivre'a-Laplace'a 171
l
do Moi vl'c'a&, JJiesymetryczny zas ~ w opublikowanym trilY lata pózniej Zauwazmy, ze k = np+8 •..
. , n- k = nq - 8•.., ...L
np = 1 +xkqh, n-k
nq = 1- xkph.
rloelatJw. Z dokladniejszej analizy rysunków wynika, ze B(k, n,p) ~ h'{J(Xk), gdzie
Przypadek ogólny twierdzenia udowodnil ponownie Laplace6, który nie mial
zwyczaju powolywac sie na poprzedników, dlatego tez wyniki de Moivre'a l _t2/2

pozostaly szerzej nieznane do konca XIX wieku 7.


'(J(t) = ~e
W dalszym ciagu bedziemy uzywac nastepujacych oznaczen: jest gestoscia rozkladu N (O, l). A dokladniej, marny
B(k,n,p) = P(Sn = k) = (~)pkqn-k, q = 1- p Twierdzenie 1 (de Moivl'e'a-Laplace'a, lokalne). Jesli
h = 1/..;npq - szerokosc slupka na dolnym rysunku z poprzedniej strony.
hl·Tk I II13JC(p, q) ::;; 1/2,
8k = k - np - odchylenie liczby sukcesów od sredniej.
1.0·
x •.. = 8.../..;npq - unormowane odchylenie liczby sukcesów od sredniej.
Symbolu :J; ••. wygodnie bedzie uzywac takze wtedy, gdy k nie jest naturalne. 1 e ~xU2 . eR(n,k) ,
B(k,n,p) = "j27fnpq
5 Miscellanea analytica. de seriebus et. quad'ratw'is, Londyn 1730. p'f'Zy czym
6TMorie analytique des probabilites, Paryz J812. 3 1 1
7 Abraham de Moivre urodzil sie 26 maja] 667 w Vi1.ry, zmarl 27 listopa.da '1754 rokl1
w Londynie. Koleje jego losu moga sie wyda.c dziwnie typowe.
IR(n, k)1 ::;; 41x •..1h + '3!:J;kI3h + 3n'
Po pieciu latach spedzonych w protestanckiej akademii w Sedanie, w Jat.ach 1682-168'J
studiowal logike w Saumur. Kontynuowal studia w College de Harcourt w Paryzu.
W szczególnosci, jdli n -+ CXJ i k -+ CXJ tak, ze hxrc -+ O, to R(n, k) ---;
n~oo
O.

Jako protest.ant., po odwolaniu edyktu nantejskiego (1685) byl zmuszollY do emigra-


cji. Okolo 1688 roku znalazl sie w Londynie. Zarabial na. i,ycie prywatnymi lekcja.mi D o wód. Ze wzoru Stirlinga w postaci n! = y27fn nne-n+8,,/12n, O < Bn <
matematyki, poniewaz otr2ymanie katedry bylo dla cudzoziemca trudne. Zostal jednak
wybrany czlonkiem Royal \Society w 1697 roku. 1 wyuilm., ze
W 1710 roku braI udzial w pracach komisji Royal Society, która miala. rozstrzygnac
spór Newtona i Leibniza o pierwszelistwo w odkryciu rachunku rózniczkowego i cal-
(2)
kowego. Roya] Society dobrze wiedzialo, co robi, bowiem de Moivre byl przyja.cielern B(k,n,p)=,/-.--_·
2k7r (nn - k)
V -k
(np)J'( --- lo.)n-
n nq '------v----"
•..·ei*'.eTIte'2("!:.."),
o -o'. -o'~
Newtona, którego poznal, obliczajac w kawiarni szanse w zakladach. Zadedykowa.l rnu. ~r.' v ' III
ksiazke The Doctrine' oj c;~ances or a M ethod oj Calc1Ll.ating the Probabilil.ies oj Events l j., II
in Play (1718), zawierajaca rozmaite zadania o grach losowych, a ta.kze definicje niezalez-
nosci zdarzen. Wyniki zawarte w tej ksiazce nie byly pewnie szerzej znane poza Anglia, i
gdzie O < Bi, O;, O;' < 1, = 1,2, .. "
bowiem jezykiem dominujacym w Europie byl francuski. Oszacujemy teraz po kolei wyrazenia I, II i III. Kazde z nich przedstawimy
W Miscellanea Analytica (1730) pojawia sie wzÓr - znany obecnie jako wzÓr Stirlinga
- w postaci w post~,ci Ai(n, k) . en,(n,ic), gdzie Ai bedzie równe o/2;npq' e-xV2 lub l
n!l'VC.nn+~e-n, (l)
i
odpowiednio dla = 1,2,3, zas Ri bedzie zawierac informacje o bledzie
przyblizenia ..
gdzie
l l 1 1 1. Mamy
log C =1- 12 + 360 - 1260 + 1680 - .. 1
Otóz Stirling jedynie zauwazyl, ze
wydaniu Miscellanea (1738).
C = .;'2;, o czym wspomina
de Moivre w drugim

Vi/z6r (1) posluzyl do wyprowadzenia lokalnego i integralnego twierdzenia granicznego.


J_n. y27fnpq . (1 + xkqh)-1/2(1- xkph)-1/2,
(3)

Przypadek niesymetryczny zostal udowodniony w dodatku nr 2 do Miscellanea (1733). czyli eRrCn,k) = (1 + xkqh)-]/~o. -xkph)-1/2.
De Moivre byl pionierem na polu geomet.rii analitycznej; otrzymal w 1707 roku wZÓr
Oszacujemy teraz blad przyhlizenia z nierównosci,A.1.3:
(cosx +i sinx)n = cosnx + isinnx. 1 .. 1 _
Zajmowal sie statystykami smiertelnosci, zagadnieniem renty dozywotniej, czyli, jakby- R1(n, k) = --[log(1
2 + xkqh) +log(l- xkph)] = "'-Xk(q
2 - p)h+ U1(n, k),
smy dzis powiedzieli, matematyka ubezpieczeniowa i finansowa. Od niego pochodzi po-
jecie funkcji tworzacej. Jednak ten wybitny matematyk, posiadajacy wplywowych przy- gdzie IUl(n,k)l::;; ~(q2+p2)X~h2::;; tlxklh,jesli hlxklmax(p,q)::;; 1/2.
jaciól, nie otrzymal nigdy platnego stanowiska i do konca zycia utrzymywal sie z lekcji Ostatecznie
matematyki oraz konsultacji; zmarl w nedzy. Przewidzial date wlasnej smierci, zauwa-
zywszy, ze kazdej nocy spi o 15 minut dluzej, zatem umrze w dniu, w którym bedzie spal 3
24 godziny.
(4)
IRl(n, k)1 :::;; 4lxklh.
172 Rozdzial 7. Sumy niezaleznych zmiennych losowych § 7.6. Twierdzenie de Moivl'e'a-Laplace'a 173

II. Zbadamy logal:ytm wyrazenia II, które najpierw zapiszemy w postaci Tabela 2. Przyblizenie de Moivre'a-Laplace'a dla n = 12 i P = 1/5.
1 k 0,003321889
0,000000197
0,206158430
0,068719477
0,000519045
0,000057672
0,015502148
0,053150220
0,132875551
0,283467842
0,000004325
0,000000004
0,236223201 0,062323704
0,167657830
0,001129670
0,000003308
0,009557650
0,0'18034772
0,14:3405341
0,267916449
0,000079315
B(k,n,p) blad-0,002192219
0,000000082
0,000000000
0,000000001
blad-18,68%
-84,72%
-94,26%
-38,35%
-9,62%
-98,11%
-99,39%
-99,74%
-0,006395772
-0,005115448
-0,015551392
0,254319625
-0,005944498
-0,000000195
wzgledny
0,018096424
0,010529791-9,31%
-0,000439730
-5,49%
7,66%
7,92%
bezwzgledny
-0,000054364
-0,000004243
-0,000000004
-0,038500600
-6~,99%
hcp(Xk)

(1 + xkqh)np(1+xkQh)
896327 O
10
4512
11 l
-:-(1 - xkph)nq(l-xkPh)'

Po wzieciu logarytmu i skorzystaniu z oszacowania udowodnionego w do-


datku A: dla lxi ~ ~ mamy (1+x) 10g(1+x) = x+lx2+5, gdzie 181~ llxl3,
otrzymujemy

-[np(1 + xkqh) log(1 + xkqh) + nq(l - xkph) 10g(1 - xkph)] = (5)


2

=- ~k + R2(n, k), (6)

gdzie

1 3
IR2(n, k)1 ~ -hlXkl , (7)
3 Podamy jeszcze wyniki dla n= 20 i p = 1/2, które mozna porównac z danymi
z tabeli 1.
jesli tylko hlxkl ma.x(p, q) ~ 1/2.
III. Wyrazenie III jest po prostu równe eR3(n,k). Mamy
Tabela 3. Przyblizenie de Moivre'a-Laplace'a dla n = 20 i p = 1/2.
k 0,000181
0,000001
0,000019
0,073929
0,160179
0,014786
0,004621
0,120134
0,001087
0,036964
0,1761970,000296
0,001329
0,000008
0,000054
0,036021
0,004875
0,072537
0,161'134
0,014645
0,119593 749,34%
183,93%
-2,55%
-1,88%
-0,95%
-0,45%
63,60%
22,20%
0,1784121,26%0,78%
0,002215
0,000254
0,001255
-0,001392
-0,000141
-0,000541
blad0,0001l5
0,000241
0,000007
bezwzgledny
B(k,n,p)blad
hcp(Xk) 5,~0%
wzgledny
0,000035
-0,000944
10 l
4325 fi897 O

- (l12k + l)
12(n _ k) < R3(n, k) < 1
12n'

Stad
l l 1 1
--12n (1 + xkqh)- (l + xkph)- < R3(n, k) l
<:--2n .
Jesli hlxkl max(p, q) ~ 1/2, to

--3nl <R3 ()n,k <-.


l
12n (8)

Udowodnione oszacowania (4), (6) i (7) na Ri daja nal;ychrniast pierwsza


czesc tezy. Z lokalnego twierdzenia de Moivre'a-Laplace'a wynika tak zwane I;wier-
dzcni(~ integralne, które daje oszacowanie prawdopodobienstwa, ze liczba
Zeby otrzymac druga czesc tezy, zauwazmy, ze gdy hxt, -> O, to hl:r;kl ~
sukcesów zawiera sie w danym przedziale. Przy zalozeniach tw. l marny
~ hmax(lxkI3, 1) -> Q .•
bowienI
Zobaczmy teraz, jaka jest dokladnosc przyblizenia z t.w. l w przypadkach,
omawianych na poczatku tego paragrafu. B(k,n,p) ~ htp(Xk) ~ j'Xk+~h
Xk-~~ tp(t) dt.
Sumujac wzgledem k E [a, b], otrzymamy
Tabela 1. Przyblizenie de Moivre'a--Laplace'a dla n = 10 j p = 1/2.
k 0,009766
0,117188
0,000977
0,205078
0,246094
0,043945
B(k,n,p) 0,041707
0,0102855,32%
0,113372
0,001700
0,2065770,73%
0,2523132,53%
blad
hcp(J;k) -5,09%
-3,26%
74,09%
0,006220
-0,0022:~8
wzgledny
blad
0,001498
-0,003816
0,000724
bezwzgiQ'dny__
0,000519 o Xa+l = Xa + ~h.
Twierdzenie 2 (de Moivre'a-Laplace'a, integralne). Jesli

h max(lxa/' IXbl) max(p, q) ~ 1/2,

to

P(a ~ Bn ~ b) = [if>(Xb+1) 2 - if>(Xa_1


,2 )]eD(n,a,b), (
9) c[> jest
dyst.J'ybllantl'
J'Dzldll.nll N (O, l).
174 Rozdzial 7. Sumy niezaleznych zmiennych 1000wycJJ § 7.6. Twierdzenie de Moivre'a-Lapla.ce'a 175

gdzie
W zwiazkii z integralnym twierdzeniem de Moivre'a-Laplace'a nalezy sie spodzie-
wac, ze regula trzech sigm sformulowana w § 5.10 dla rozkladu normalnego ma
ID(n,a,b)l~
[5
max -4!Xklh+-3!Xkl 1 3 lIry
h]+-+-h-. miejsce równiez dla schematu Bernoulliego. Oto jedna z wersji tej regull:
kE{a.b} 3n 8

W szczególnosci, jesli n -t 00 i a, b zmieniaja sie tak, ze hx~ -t O i hxg --> O, P(Sn E (n'p - 3..;nprj, np + 3..;nprj») ;:: 0,997,
to D(n, a, b) ---t
n-+oo
O i wtedy jesli np - 3,;npq > O i np + 3JfiPij < n.
(10) Warunlci na n dadza sie 7,apisac krótko w postaci n > 9 rna:x(q/p, p/q). Dla przy-
P(a ~ Bn ~ b) ~ <p(Xb+~) - <p(xa_~)' padku symetrycznego oznacza to, ze n ;:: 10. Gdy n = 10, prawdopodobienstwo po
P(a ~ Bn ~ b) ~ <P(Xb) - <p(Xa)· (11) lewej stronie wzoru wynosi 1022/1024, czyli 0]<0100,99805, wiec regula rzeczywi-
scie <iY.ialajuz dla nieduzych n. Liczba. 0,997 po prawej stronie zostala wybrana
Ostatnie przyblizenie jest mniej dokladne, ale jest prostsze i cbyba czesciej zapewne dlatego, ze ~1>(3)- <1>( -3) = 0,9973 ... , co w stosunku do "idealnego"
stosowane. ro7.kladu normalnego daje pewien za,pas.
St.ad jednak jeszcze daleko do dowodu (cytowani a.utorzy nie podaja go). Znane
Dowód. Porównamy htp(Xk) z calka
twierdzenia daja 7.byt mala dokladnosc, gdy n jest male. Czytelnik moze spró-
bowac swych sil, dowodzac regule trzech sigm z prawdopodobiellstwem po pra-
wej mniejszym niz 0,997, korzystajac ze scislych wyników tego typu: nierównosci
lXk+~h
xk-;ih
l tp(i;) dt = <P(Xk+~) - <P(Xk_~)'
Dernot,eina (t;w. 7.4.2), a takze jej wzmocnienia9:
Z twierdzenia o wartosci sredniej wynika, ze
Twierdzenie 4 (NierównoSc Bernsteina). Jesli Xl, ... , Xn sa niezaleznymi
<P(Xk+~) - <P(Xk_~) = htp((k),
zmiennymi losowymi o tym samym rozkladzie, IXil;( K, [Xi = O, [Xl = 0-2,
i= 1,2, ... n, S'", = Xl + ... + X"' to
przy czym (k E (Xk - %, Xk + %), czyli
1.2 Kt.
htp(Xk) = e~(d-x~) [<p(xk+1)2 - <P(Xk __~)],
_
P(ISnl > t;o-.fii) ::;;2 exp ( - 2' (1 + 3o-.fii )-1) .

a poniewaz la - xtl = I(k - Xkl·l(k + xkl ~ ~h(2IXkl + ~h) = hlxkl + ih2, Na zakonczelJie podamy bez dowodu latwe do zapal~ietania, oszacowanie doklad-
nosci przyblizenia w twierdzeni.u de Moivre'a-LapIlce'a:
htp(Xk) = erk[!P(Xk+~) - !P(Xk_~)], Jest to wniosek z

gdzie hl ~
~hlxkl +t~h2.
sup p
Sn - -n.J
l::;; t -
.
<I)(1.) :::; L-+ ?. . (12) tw. 10.1.2
t E R. I ( ..•. ,
-!!fPti ) I . fi!Pq
2 2

Laczac te zaleznosc z lokalnym twierdzeniem granicznym, otrzymujemy


Rzedu tego oszacowania nie mozna poprawic. Dlatego dla p bliskich zera nie jest
ono zbyt dobre, wtedy jednak ruozna zastosowac przyblizenie Poissona z tw. 7.5.2.
B(k~n,p) = erk+R(".k)[<p(Xk+~) - <P(Xk_~)],
Do kwestii dokI adn osci przybli;;;cnia w twierdzeniach tego typu powrócimy w roz-
i oznaczajac d = maxk:E{a,a+1, ...•b} Irk + R(n, k)1 otrzymujemy dwustronne dziale 10 (tw. Berry-Esseena ]0.1.2).,
oszacowanie

e-d[!P(Xk+!) - !P(Xk_~)] ~ B(k,n,p) ~ ed[!P(xk_H) - !P(Xk_~)]'


Zadania
Wystarczy teraz zsumpwac powyzsze nierównosci po k E {a,a + 1, ... ,b}, 1. Udowodnic, ze jesli a jest ustalone, to przy n --> (X)
zeby otrzymac (9) .•
P(S~ ~ a) ~ 1- <1>(a), P(S~ ~'a) ~ <I>(a). Sn -- np
Najczesciej stosuje sie nastepujacy wniosek z twierdzenia 2: S;; = ..;npq .
8M. Zakrzewski, T. Zak, Kombinatoryka, prawdopodobienstwp zdrowy rozsadek, Qu- i
Wniosek 3. Jesli Xa i Xb sa stale, to
adrivium, Wroclaw 1993, s. 121. R.egule zaczerpnieto z: E. S. ViTentzel, L. A. Owczarow,
Teoria wierojatnostiej i
jejo inzenierskije prilozenija, Nauka, Moskwa 1988.
9S. N. Bernst.ein, Teor~ja Wierojatnostiej, wyd. 4, Moskwa-Leningrad 1946. Mozna
t.am znalezc znacznie ogólniejsza nierównosc. Patrz takze Matematiczeskaja Enciklope-
P(xa ~ B~Pnpq ~ Xb) ~ <P(Xb + !h) - <I>(xa - !h) dija, Moskwa 1977, t. L s. 430.
176 Rozdzial 7. Sumy niezaleznych zmiennych losowych

2. Wydzial Matematyki pragnalby przyjac nie wiecej niz 120 kandydatów. Zda-
jacych jest 250, a szansa zaliczenia testu wynosi 0,4. J,lkie jest prawdopodo-
bienstwo, ze Wydzial bedzie mial klopot z nadmiarem kandydatów?
3. Zadanie o konkurencji. Na campusie uniwersyteckim sa dwie restauracje,
po 120 miejsc kazda. Wiadomo, ze codziennie 200 osób bedzie chcialo zjesc
obiad, a wyboru restauracji dokonuja losowo - powiedzmy, rzucajac syme- Rozdzial 8
tryczna moneta. Jaka jest szansa, ze w którejs restaura,cji zabraknie miejsc?
Ile miejsc nalezy przygotowac w kazdej restauracji, by powyzsze prawdopo-
dobienstwo bylo mniejsze od 0,001?
4. Bolek rzucil100 razy moneta i otrzymal 77 orlów. Adas chce powtórzyc ten
wyczyn (tj. otrzymac 77 lub wiecej orlów) i zamierza rzucac moneta az do
Zbieznosc rozkladóvy
skutku. Ile srednio serii po 100 rzutów potrzeba, aby sie doczekac 77 lub
wiecej orlów?
5. Wyznaczyc przyblizenia prawdopodobienstw otrzymania w n rzutach syme-
tryczna moneta co najmniej 60% orlów dla n = 10, 100 i 1000. § 8.1. Przyklady i definicja
6. Na Wydziale Matematyki jest 320 uzytkowników poczty elektronicznej i kaz-
dy korzysta z niej srednio przez 9 minut w ciagu doby. Ile powinno byc pola- Ze zbieznoscia rozkladów mielismy juz do czynienia, ale nie wiedzielismy
czen telefonicznych, zeby szansa dodzwonienia sie do komputera pocztowego o tym. W twierdzeniach Poissana (tw. 7.5.1) i de Moivre'a-Laplace'a (tw. Ja wiedzialem, ale
wynosila co najmniej 0,95? Podac przyblizenie wynikajace a) z twierdzenia 7.6.2) wystepuja ciagi rozkladów Bernoulliego (w tw. 7.6.2 odpowiednio nie informowalem.
Poissonaj b) z twierdzenia de Moivre'a-Laplace'a. przeskalowane), które staja sie coraz bardziej podobne do rozkladu granicz- JJ
7. Na Wydziale Matematyki jest n = 200 uzytkowników poczty elektronicznej nego: Poissona lub normalnego. Ponadto widac; ze ma miejsce punktowa
i dwa polaczenia telefoniczne z komputerem pocztowym. Szans" dodzwo- zbieznosc odpowiednich dystrybuant. Przeanalizujemy teraz kilka przylda-
nienia sie do komputera pocztowego wynosi 0,75. Ile minut w ciagu doby dów i zobaczymy, czego mozna oczekiwac od zbieznosci dystrybuant.
srednio uzytkownik korzysta z polaczenia? Podac przyblizenie wyn.ikajace a)
z twierdzenia Poissona; b) z twierdzeni" de Moivre'a--Lapla,ce'". Przyklad 1. R.ozpatrzmy ciag rozkladów jedll,opunktowych (Da,,), gdzie
an, -; a. Niech F'n bedzie dystrybuanta Da". Latwo sprawdzic, ze dla t a =1=
8. Na podstawie losowej próby szacujemy procent chorych na rzadka chorobe
Gulgenstierny-Gjellerupa. 'Wiadomo na pewno, ze liczba chorych nie przekra- marny limn~oo F~, (t) = F(t), gdzie F jest dystrybuanta rozkladu Da. Jednak
cza 0,5% populacji, a blad ma byc mniejszy od 0,001 z pr"wdopodobienstwem dla t = a moga byc Idopoty - jak widac z rysunku.
0;95. Ile osób musi liczyc próba?
1"'-
9. Na podstawie losowej próby szacujemy procent doroslych osób, które umieja
czytac i pisac. Wiadomo n" pewno, ze jest to ponad 90% (doroslej) populacji,
a blad ma byc mniejszy od 0,01 z prawdopodobien.stwem 0,9. Ue osób milsi
liczyc próba?
10. Prawdopodobiellstwo urodzenia chlopca wynosi 0,517. J "ki e jest prawdopo-
dobienstwo, ze wsród n = 10000 noworodków liczba chlopców nie przewyzszy
-~----~~"- a an
------'!'-----lI>
a
liczby dziewczat'?
Gdy an 1a okazuje sie, ze Fn(a) == O =1= 1 = F(a). _

Przyklad 2. Niech F bedzie dowolna dystrybuanta. Zdefiniujemy dystry-


buanty Fn(t) = F(t - ~), n= 1,2, .... Mamy znów Fn(t) ----->
n~oo F(t-).
Ta granica lewostronna równa sie F(t) tylko wtedy, gdy t jest punktem
ciaglosci F. _

Przyklad 3. Niech I-in = 2:~-~


~8k/71' I)YHl.ryl>llll.JiI.1L
l"" 1'()ilil<llLdll
II" .111111.

funkcja ~chodkóWf~ (rYHlIllck lm ll/l.Htl,II'JllijHI,rOllill),

Itr
Rozdzial 8. Zbieznosc rozkladów § 8.1. Przyklady i definicja 179

Mozna sobie z tym poradzic na przyklad tak (por. tez zad. 7): zauwazmy,
ze dla dostatecznie duzych m suma I:~m Ip",k - Pkl moze byc dowolJ:lie
mala. Vi/ynika to z nierównosci Czebyszewa i stad, ze wartosci oczekiwane
rozwazanych rozkladów sa wspólnie ograniczone. Jesli oznaczymy przez X"
zmienna losowa o rozkladzie Bernoulliego z parametrami (n,Pn), a przez
X - zmienna losowa o rozkladzie Poissona z parametrem A, to poniewaz
11.])" ......., A, dla, pewnego K jest npn ::;;K, i mamy:
Gdy n .......,
00, ciag (Fn) jest zbiezny punktowo do dystrybuanty rozkladu
jednostajnego na [0,1]. Zachodzi jeszcze jedno interesujace zjawisko: ella P.(X n op
'- ,)/EX,,_npn/K
171, ~
11~
-
m.
~
m
dowolnej funkcji f ciaglej i ograniczonej
EX A
P(X ;:;:m) ::;; -m = -.
111

•{OO-00
fclJ.tn= L-:-f
n-l
k=O n l (k)-n -->
n->ex, 11
o
f(x)d:r;.
W takim razie dla. ustalonego E: > O istnieje takie m, ze dla kazdego n:

Rozpoznajemy tu sumy riemannowskie funkcji f. Po prawej stronie poja-


wia sie calka z funkcji f wzgledem rozkladu jednostajnego
naturalnego kandydata na rozklad graniczny .•
na [O, l], czyli L00

Ic=m.
IPn,k - pici::;; L00

h=m.
IPn,1c1 + L
00

Ic=m.
K+A
Iphl ::;;--
l m
< c:

.r f dJ.t, gdzie
Mozna sprawdzic, ze i w poprzednich przykladach J f df.Ln ......., Natomiast dla dostatecznie duzych n mamy I:Z'=I!Pn,1c - Pkl < c:, z czego
f.Ljest w rozsadnym sensie rozkladem granicznym, a f - ciagla ograni- i WYllilca, ze prawa strona wzoru (l) jest dla dostatecznie duzych n mniejsza
niz 2c: .•
czona. Z przykladu l widac, ze warunek ciaglosci f jest istotny. Ograni-
czonosc gwarantuje natomiast istnienie odpowiednich calek. W nastepnym
przykladzie, odwolujacym sie do twierdzenia Poissona, sprawdzenie zbiez- W daJs:tym ciagu tego rozdzialu (E, (J) bedzie :oznaczac przestrzell me-
nosci calek nie bedzie juz takie proste. tryczna, osrodkowa i :tupel.na. Bedziemy miec do czynienia, z rniarami na
(E, B(E)). Tylko wyniki dotyczace dystrybuant z natury rzeczy beda for~
Przyklad 4 (Rozklady Bernoulliego i Poissona). Niech (f.Ln) bedzie mulowane dla E = R lub E = n:".
ciagiem rozkladów Bernoulliego o parametrach (n, Pn), przy czym npn .......,
A. Warto zwr6ci6 uwage na wlasno~c rodziny rozklar1ów (f.Ln), która pojawila
W swietle twierdzenia.Poissona (tw. 7.5.1) mozna sie spodziewac, ze rozkla- sie w poprzednim przyklad:>,: :. Zostalo tam udowodnione, ze dla kazdego
dem granicznym bedzie rozklad Poissona z parametrem A. Istotnie, niech E > O istnieje taki przedzial, ,,\raniczony I, ze I.tn (I) > l - c: dla kazdego n.
Pn,k oznacza prawdopodobienstwo otrzymania k sukcesów w n-tym schema- Intuicyjnie rzecz biorac, dzi~j :tej wlasnosci nie ma szans na ucieczke miar
cie Bernoulliego, i niech Pic = ~~e->-' Oznaczajac przez Fn i F odpowiednie do nieskoilczonosci. Stad defi;licja:
dystrybuanty, mamy I i Konkurencyjny

Fn(t) =
"
L
O~k~t
Pn,k -->
71.-+00 L
O~k~t
Pic = F(t).
Definicja
nazywamy
5. Rodzine (f.LtltET TOzkladÓw prawdopodobienstwa na (E, B(E))
jedr'na, jesli dla kazdego c: > O istnieje tab zbiÓr zwarty K, ze
termin to ciasna.
Ale po angielsku
mamy tight.

Zbieznosc wynika z twierdzenia Poissona i stad, ze sumy w powyzszym f.Lt(K) > l- c:

wzorze maja ustalona, skonczona liczbe skladników. Nieco trudniej udo-


wodnic, ze dla kazdej funkcji ciaglej i ograniczonej f ma miejsce zbieznosc dla. wszystkich t E T.
odpowiednich calek. Istotnie, jesli M, to Ifl ::;;
W przypadku rozkladów na R (odp, na Rn) wystarczy w definicji zastapic

li: f df.Ln - l: f df.L1 ::;; ~ If(k)IIPn,k - Pkl ::;; M ~ IPn,k - pici· (l)
zbiór zwarty przedzialem domknietym i ograniczoliym.

Przyklad 6. Niech {X",: a E A} bedzie rodzina zmiennych losov,rych dla


Klopot polega na tym, ze choc Pn,k .......,Pk dla ustalonego k i n .......,
00, której istnieje b > O taka, ze sup", E IX", Ib = M < 00. Wtedy rodzina
to nic stad nie wynika, bo suma zawiera nieskonczenie wiele skladników. {!-tx" : a E A} jest jedrna.
180 R.ozdzial 8. Zbieznosc rozkladów § 8.1. Przyklady i definicja 181

Istotnie, wezmy dowolne E > O.' Wtedy dla kazdego a E A mamy: Zadania
M
P(IX",1 > n) = P(IX",18 > n8) :( E (IX",
n 18) :(5n <E
1. Wykazac, ze jesli X, Xl, X2, ... sa zmiennymi losowymi o wartosciach w prze-
strzeni metrycznej (E, 12) i Xn ~ X, to Xn -.E... X.
dla dostatecznie duzych n. _ 2. Podac przyklad ciagu zmiennych losowych okreslonych na tej samej prze-
strzeni D, zbieznego wedlug rozkladu, który nie jest zbiezny wedlug prawdo-
Podane przyklady mialy umotywowac nastepujaca definicje: podobienstwa.
3. Wykazac, ze jesli X, X l, )(2, ... sa zmiennymiJosowymi o wartosciach w prze-
Definicja 7. Niech (P.n);;:'=l bedzie ciagiem rozkladów prawdopodob'ie'nstwa strzeni metrycznej (E,'O) i Xn -.E... X, gdzie P(X = c) = 1, c E E, to
na (E, B(E)). Pow'iemy, ze jest on slabo zbiezny do rozklad'u p. (co bedziemy Xn~C.
oznaczac P.n ~ /l-) 'o jesli dla kazdej fl1nkcji ciaglej i ogmniczonej f: E -l R 4. Udowodnic, ze jesli Xn'·.E...., X, (t, b E R, to aXn + b -.E... a X + b.
mamy
5. Podac przyklad ci'tgu dystrybuant, który je~t punktowo zbiezny, ale odpo-
lim JEr
n-+oo f dp.n = JEr t dp.. wiednie gestosci nie sa zbiezne.
6. Niech fJ-, fJ-J, jJ.2, .. beda miarami skupionymi na zbiorze liczb calkowitych
Nalezy jeszcze wyjasnic, skad sie wzielo slowo "slaba" okreslajace zbiez- nieujemnych. Wykaza(;, ze
nosc. Jest to konwencja zaczerpnieta z analIZY funkcjonalnej. Funkcja f
jJ·n ~ jJ. <=> \fkENu{Q} J.Ln({k}) -. J.L({k}).
wyznacza funkcjonal ciagly na przestrzeni miar. W definicji zada sie, by
ciag wartosci funkcjonalu byl - dla kazdego funkcjonalu - zbiezny. Tego 7. Twierdzenie Scheffe'go. Niech bedzie miara a-skonczona, fJ- in, i - funk-
rodzaju zbieznosc nazywa sie slaba, zeby odróznic ja od mocnej zbieznosci, cjami n,ieujernnymi i takimi, ze miary vn(A) = JA in dJ.L, v(A) = JA i sadfJ-

Tak naprawde, wyznaczonej przez norme. miarami probabilistycznymi. Niech in ~ f wzgledem miary J.L. Udowodnic,
jest to zbieznosc Natomiast w odniesieniu do zmiennych losowych bedziemy mówic o zbiez- ze
"slaba nosci wedl'ug rozklad'u:
z gwiazdka"
Definicja 8. Jesli X,X1,X2, ... sa zmiennymi losowymi, a p., ILI, P.2, ... 8. Niech fJ-, jJ'n
sup
A Iv(A) - vn(A)1

beda rozkladami ciaglymi o gestosciach


:( lii- l1 inl dJ.L -.

i, in
O.
odpowiednio. Jesli
ich rozkladami, to powiemy, ze ciag (Xn) jest zbiezny 'Wedlll,g 'tOzkl(Ld1Ldo J" -. J
p.n. wzgledem miary Lebesgue'a, to fJ-n -.E... J.L.
X, jesli /l-n ~ p.. Piszemy wtedy Xn ~ X. 9. U ogólnienie zad, 6. Niech /"1, fJ-2, beda miarami probabilistycznymi
jJo, o ••

skupionymi na zbiorze przeliczalnym S C E. Udowodnic, ze


Uwaga 9. Poniewaz JE f dp.x = Ef(X), to Xn ~, X wtedy i tylko wtedy, a) jesli I;/x ES fJ-n({X}) -. J.L({~;}), to fJ-"....".!....1",
gdy Ef(Xn) -+ Ef(X) dla kazdej funkcji ciaglej i ograniczonej. t b) jesli kazdy punkt Sjest izolowany, fJ-"....".!....It, to\fx E S J.Ln({X}) -. fJ-({x}).
Wykazac, ze punkt b) nie jest prawdziwy bez zalozenia, ze kazdy punkt S
Jesli rozkladem granicznym jest na przyklad standardowy normalny, mo- jest izolowany.
zemy z lekka naduzyc jezyka, piszac Xn ~ N (0,1). 10. Niech P" = N (m"" 0";). Udowodnic, ze rodzina {P,,: a E A} jest jedrna
Zakonczymy ten paragraf uwaga techniczna, która bedzie wielokrotnie wy- wtedy i tylko wtedy, gdy istnieje takie K > ,0, ze dla wszystkich a E A jest
korzystywana w dalszym ciagu. Im,,[ :( K, la~1:( K.
11. Udowodnic, ze jesli (X,,) jest ciagiem zmiennych losowych o wartosciach
Uwaga 10. Jesli zbiór F jest domkniety, to dla kazdego E > ° istnieje a) w R, b) w R" i X" -.E... X, to rodzina (J.LXn)n jest jedrna.
jednostajnie ciagla i ograniczona funkcja taka ze XI' :( f :( XF<, gdzie t, 12. Rozklad jednostajny na kuli a rozkbld normalny. Niech Xn bedzie
F". = {x E B: g(x, F) < E} (zbiór Fe nazywamy c-otoczka zbioru P).
o

pierwsza wspólrzedna zmiennej losowej o rozkladzie jednostajnym na kuli


jednostkowej w Rn. Wykazac, ze
Dowód. Wystarczy zdefiniowac f(x) = tp(lg(x,
e F)), gdzie
,fii.xn N (O, 1) .
o

-.E...
dla t :( 0,
dla ° < t :( 1, (2) Jak zmieni sie odpowiedz, gdy rozpatrzymy rozklady jednostajne na sferach
tp(t) = {l~- t dla t > 1. • jednostkowych wRn?
I!-!') Rozdzial 8. Zbieznosc rozkladów § 8.2. Charakteryzacje slabej zbieznosci rozkladów 183

§ 8.2. Charakteryzacje slabej zbieznosci rozkladów (2)


~ Jo
(00 !imninf f-Ln({ x~'I(x)
, > t}) dt
Ponizsze twierdzenie znacznie upraszcza badanie slabej zbieznosci rozkla-
(3)
dów, ;;;. ./0(00 11,( {x: f(:r;) > t}) dt = JE( I dl!.
Twierdzenie 1. Niech f-L,f-LI , f-Lz,... beda rozkladami prawdopodobienstwa Nierównosc (2) jest; wnioskielJl z lematu Fatou, zastosowanego do nieujem-
na (E,B(E)). Nastepujace warunki sa równowazne: nej funkcji P'n( {x: f(,1;) > t}), natomiast (3) wynika wprost z zalozenia.
Jesli lewa strona (1) jest nic mniejsza. niz prawa: strona (3) dla funkcji I, to liminf(-anl =
(i) f-Ln ~ f-L. jest tak równiez dla f -I-e, gdzie c jest dowolna stala, czyli dla kazdej funkcji = - lim sup ano
ciaglej i ograniczonej. Stosujac otrzymane oszacowanie do - I, otrzymujemy
(ii) limn_'oo.f~ f dll,n = JE f dp. dla, Junkc.ii f: E -> R ogmniczonych i jed- warunek (i).
nosta.inie ciaglych.
U'ii)e:{iv) - natychmiastowy dowód przez przejscie do dopelnien.
(i'ii) limsuPn~oo P'n(F) ~ f-L(F) dla zbio'/'ów F domkn·ietych.
(-i'i'i) i (iv)=}(v) Marny
(iv) liminfn_,oof-Ln(G) ~ f-L(G) dla zbiorów G ot;wa.Ttych.
p.(IntA) ~ liminf/l.n(IntA)
n ~ liminf,un(A)
n ~
BA =A \ lnt A. (v) Iimn~oo f-Ln(A) = It(A), o ile p.(8A) = O. ~ limsuPJ1.n(A) ~ limsuPJ1.n(A) ~ /l(A).
n n
Dowód. Oto jego schemat: najpierw udowodnimy wynikania U)=? (i'i)=}
Jesli ,.!(8A) = O, to skrajne wyrazy sa równe, c9konczy dowód.
(iii), (iv)=} (i), a nastepnie równowaznosc (iii){=} (i'v) wynikania (iv)=? i (v)=}(i'i'i) Po pierwsze, 8{ ::r::e(x, F) ~ <5}C {x: e(x, F) = ó}. Te ostatnie
(v)=? (iii).
zbiory sa rozlaczne dla róznych ó, zatem tylko przeliczalni e wiele z nich
(i) =}(ii). Oczywiste. ma miare ,u dodatnia. Pozwala. to ominac tru;]nosc, zwiazana z brzegiem
(ii)=} (iii). Niech F bedzie zbiorem domknietym. Ustalmy <5> O. ViTtedy dla dodatniej mim-y: wybierzmy Ok lOtaJ" by odpowiednie zbiory
dostatecznie malych c> O dla zbioru F" = {x E E: e(:c, F) < c} zachodzi
nierównosc 1;10 = {x: Q(:r.:, F) ~ Ók}

f-L(F.) < f-L(F) -I- <5.


mialy Zel'owe brzegi. Teraz dla kazdego k
Istotnie, dla domknietych F mamy n~=l FI/n = F. Korzystajac z twier-
dzenia 1.1.7 o ciaglosci, wybierzmy takie c > O, by nierównosc zachodzila limsuPf-Ln(F)
n
~ limsup,un(Fk)
n
= f-L(Fk)'
i rozpatrzmy (uwaga 8.1.10) jednostajnie ciagla funkcje J, spelniajaca wa-
runek XF ~ I~
XF.· Wtedy J3iorac k -> 00, otrzymujemy (3) .•

Prostym wnioskiem z udowo~nionego twierdzeIlia jest


( f dJ1.n= JE
lim nsup f-Ln(F) ~ lim nsup JE (' I dp, ( J1.(F~) < p(F) -I-<5.

Poniewaz liczba <5> .o. moze byc dowolna, dowód zostal zakonczony.
Twierdzenie 2. Jesli f-L iv sa T'Ozk/ada.mi prawdopodobienstwa na prze-

(iv )=}( i). Niech f bedzie ciagla i ograniczona. Zalózmy na. razie, ze .f ~ O.
strzeni (E, B(E)) i dla k'a'ide'j
II funkcji ciagle.i i ograniczonej I
"Vtedy, przepisujac wzór ze stw. 5.6.11 w postaci calek, otrzymujemy
( J df-L
JE = JE( f dIJ,

Lldf-Ln = L:>O f-Ln({x:f(x) > t})dt. to f-L(A) = IJ(A) dla A E B(E).

Zbiory {x: J(x) > t} sa otwarte, zatem


D o wód. Poniewaz zbiory domkniete generuja (T-cialo zbiorów borelowskich
i tworza rr-uklad, to na mocy lematu o rr- i A-ukladach wystarczy udowodnic
(1)
liminf
n ( J d/ln
JE = liminf
n Ja(00 f-Ln({x: I(x) > t}) dt ~ teze twierdzenia tylko dla. zbiorów domknietych.,
,;
184 Rozdzial 8. Zbieznos,5 rozkladów 185
§ 8.3. Zbieznosc rozkladów. ;c llJieznosc dystrybuant

Niech (/-Ln) bedzie ciagiem stalym, o wszystkich wyrazach równych /-L.Z za- Zadania
lozenia jest on slabo zbiezny do 1/, i z warunku (iii) twierdzenia l otrzy-
mujemy /-L(F) = lim sUPn Iln(F) ~ I/(F). Symetria daje nierównosc prze- 1. Pokazac, ze nie jest prawdziwe stwierdzenie: jesli f.l" ~ f.l, to dla kazdego
ciwna· _ B E B(R) mamy f.l,,(B) -> f.l(B).

2. Udowodnic, ze jesli Xn ~ X, y" -E... O, to X" + Y" ~ X.


Oczywisty jest
3. Udowodnic, ze jesli Xn ~ X, Yn ~ e, to Xn + y" ~ X + e.
4. Podac przyklad zmiennych losowych Xn, y", X, Y takich, ze Xn -.!!..... X,
Wniosek 3. Granica slabo zbieznego ciagu rozkladów jest wyznaczona jed-
noznacznie. Yn ~ y, ale nieprawda, ze Xn + Yn ~ X + Y.
5. Udowodnic, ze jesli X" ~ X, Yn -.!!..... O, to XnY" ~ O.

Jesli h jest odwzorowaniem ciaglym z E w przestrzen metryczna El, to 6. Udowodnic, ze jesli Xn ~ X, Y" ~ a, to XnY" ~ a X.
z Xn -E... X wynika natychmiast h(X,,) -E... h(X). Mozna to stwierdzenie 7. Udowodnic, ze jesLi XnYn ~ X, Yn ~ O, j jest funkcja rózniczkowalm,
znacznie oslabic. Niech Dh bedzie zbiorem punktów nieciaglosci funkcji h. w zerze, to X,,(f(Y,,) - j(O» ~ 1'(O)X.
*8. Niech X, Xl, X2, ... beda zmiennymi losowymi o «!artosciach w przestrzeni
Twierdzenie 4. Jesli odwzorowanie h: E -> El jest m'ierzaLne, Xn -E... X, metrycznej (E, O) i niech Xn ~ X. Udowodnic, ze gdy h, hl, 11.2, •. ;E -> F
sa odwzorowaniami mierzalnymi (F - przestrzen metryczna), a zbiór A jest
/-LX(Dh) = Oto h(X,,) -E... h(X).
taki, ze P(X E A) = l, wreszcie dla e E A mamy hn(en) -> h(e) gdy
D '
o(e", e) -> O, to hn(X,,) ----;. h(X).
D o wód. Udowodnimy, ze zachodzi warunek (i'ii) twierdzenia 1. Niech P 9. Owad i mrówki. Owad sklada jaja zgodnie z rozkladem Poissona z parame-
bedzie zbiorem domknietym. Wtedy , trem (l. W nocy mrówki kradna mu jaja: szansa, ze dane jajo zostanie ukra-
dzione, wynosi q. Nastepnego dnia historia sie powtarza (liczba zlozonych jaj
limsuPI.J.h(x,,)(F)
n = limsup/-Lx"
n (h-l(F» ~ lirnsup/-Lx"
n
(h-:t(F)) ~ m;, ten sam rozklad, co poprzedniego dnia i jest niezalezna od przeszlosci),
itd. Jaki jest rozklad graniczny liczby jaj ocalonych przed mrówkami?
~ /-Lx (ii-l (F)),

to
§ 8.3. Zbieznosc rozkladów, a zbieznosc dystrybuant
bo Xn -E... X. A poniewaz h--:t(F) C ho-lep) U Dh, p'X(Dh) O,

/-LX (h-1 (P)) = /-Lx(h-1(F)) = /-Lh(x)(F).-


Jak sugerowaly przyklady podane na poczatku rozdzialu, zbieznosc roz-
kladów wiaze sie ze zb.ieznbscia odpowiednich dystrybuant, ale na ogól nie
W zadaniu 8 po~lane jest uogólnienie tego faktu.
wszedzie -- jedynie w puhktach ciaglosci dystrybuanty granicznej. Taka
Nastepne twierdzenie jest sformulowane w duchu znanego z analizy kryte-
zbieznosc dystrybuant nazwiemy slaba i zachowamy oznaczenie Pn ~ F.
rium zbieznosci ciagu, i przyda sie w dowodzie twierdzenia Levy'ego.
Oto oczekiwana charakteryzacja slabej zbieznosci dystrybuant rozkladów
Warto udowodnic na R.
odpowiednik tego
twierdzenia dla Twierdzenie 5. P'n ~ /-Lwtedy i
tylko wtedy, gdy kazdy podc'iag (ILn,,)
ciagów zawiera podc'iag (/-Lnkt) slabo zbiezny do /-L. Twierdzenie 1. Niech /-L,/-LI,/-L
2, ... beda 'rozkladami prawdopodob'ienstwa
w przestrzeni
metrycznej
na (R, B(R)), i n'iech P, FI, F2, •.. beda ich dyst'rybuantam.'i.
i zastanowic sie} D o wód. Koniecznosc jest oczywista: jesli dla kazdej funkcji ciaglej i ogra- Wtedy zbieznosc /-Ln ~ /-L jest równowazna temu, ze Fn(t) -> F(t) dla
czy istnieje
metryka w niczonej f ma miejsce zbieznosc calek: J f d/-Ln -> I
f d/-L,to samo odnosi kazdego punktu ciaglosd t dystTybuanty granicznej F.
przestrzeni sie do dowolnego podciagu,
rozkladów D o wód. Najpierw udowodnimy, ze z warunku (ii) twierdzenia 8.2.1 wynika
równowazna Dostatecznosc: przypuscmy, ze /-Ln ~ /-L.Wtedy dla pewnej funkcji ciaglej
Niech t bedzie !)unktem ciaglosci F. Rozpa-
slabej zbieznosci ograniczonej f i pewnego podciagu (nk) mamy II
f d/-Lnk - J f d/-LI> ó > o,
slaba zbieznosc dystrybuant.
trzmy jednostajnie ciagle funkcje f", g" spelniajace warunki
Poczatek dowodu
znany jest jako
(zad. 8.3.4). i z tego podciagu nie da sie juz wybrac zadnego, dla którego zachodzilaby lemat o wieszaku;
zbieznosc calek. Sprzecznosc z zalozeniem konczy dowód. _ X(--oo,t-c) ~ f" ~ X(-oo,t] ~ g" ~ X(-oo,t+c]' tak naprawde jest
1;\1 pól wiuszaka.
186 Rozdzial 8. Zbieznosc rozkladów § 8.3. Zbieznosc rozkladów, a zbieznosc dystrybuant 187

Po scalkowaniu wzgledem miary f.Lni wzieciu granicy dolnej pierwsza i druga D O wód. Jesli x jest punktem .
ciaglosci F, Xl, x" E D i
';1,
Xl < X < x", to
Mozna uzyc nierównosc daja

I:
F,,(X') < Fn(x) < F(X!'),
warunku 8.2.1,(v),
ale jak ktos nie
doczyt.a\... F(t - c:) ;;;; JE df.L = lirr~inf L:
JE d,t <lin-;..inf Fn(t).
zat.em

Po wykorzystaniu w analogiczny sposób ostatnich dwóch nierównosci otrzy- liminfFn(:r');;;; liminfFn(x) ~ limsupFn,(:c) ~ limsupFn(x"),
mujemy nastepujacy lancuszek:
czyli "
F'(x');;;; liminfF,,(x) ~ limsuPF;n(X) ~ F(X").
F(t - c:) ;;;;li~,inf -00
;'00 JE dP'n ;;;;limninf Fn(t) ;;;;
Jesli tera.z Xl, x" -t a:, to otrzymamy limFn(x) = F(a;). _
;;;;li~nsupFn(t,);;;; ]imsup gEdP'n;;;; F(t:+c:),
n n .-00
/'00 Lemat 3. J(azdy C'iag dysi.,.ybll.ant zawiera. podciag slabo zbiezny do dyst.,.y-
b1wnty ulomnej. 'l.• "•
Zeby zakonczyc dowód, Vlrystarczy wziac c: -t O. II 'J

Przypuscmy teraz, ~a ma miejsce slaba zbieznosc dystrybuant. Wyprowa- D o wód. Wystarczy wykazac zbieznosc na zbiorze gestym i przedluzyc F
dzimy stad warunek (iv) z tw. 8.2.1. w naturalny sposób do fUJl1(cljiprawostronnie ciaglej.
Niech G bedzie dowolnym zbiorem otwartym w R. \/iTtedy G = U:;O=l h, Niech 'Wl, 'W2, ... bQdzie ciagiem zawierajacym "Wszystkie liczby wymierne.
gdzie h sa rozlacznymi przedzialami otwartymi (byc moze nieograniczo- Poniewaz (F,,(-W1)) jest ciagiem ograniczonym, lrnozna z niego wybrac pod-
nymi). Niech h = (ak: bk). Zawsze mozna Vlrybrac takie punkty ciaglosci ciag zbiezny o wyrazach nu, n12,· ... Z tego podciagu wybieramy taki pod-
("~,,IJ;,IC (e'k,bk) dystrybuanty granicznej a~,b~ E (ak,bk), a~ < b~, zeby dla ustalonego ciag O wyrazach 71.21, n22,"" zeby (Fn2k(W2)) byl zbiezny, itd. Z otrzymanej
0>0
tablicy wskazników wybieramy przekatna i otrzymujemy ciag funkcji (F"kk)
'1.1.!tll· pll 11i< I,nw zbiezny w ka~dym punkcie wymiernym do funkcji Po: Q -t IL.
1I111d'll51oAc:i
P(b~) - F(a~) = ,"((a~, b~]) ~ f.L(h) - c' Tk. (l)
flllll<eji Teraz wyst,lrczy zc\efin.iowac
Illtlllot.onicznoj
Wtedy
00
j<,,,1. ]J1·?'ulicznlI1Y. F(t) = inf{Fo(w):w > t},
lin-;..inff.Ln(G) ~ 2.)F(b~) - F(a~)] ~ ~t(G) - c.
k=l
zeby otn>;ymac zada.na funkcje graniczna· _
Pierwsza nierównosc otrzymujemy, rozpatrujac najpierw sume skoilczona
L;;=dFn(b~) - Fn(a~)] i przechodzac z m do nieskOllczonosci po wzieciu Lemat 4. Kazdy.jedrny ciag mzkladów prawdopodobienstwa na (R, B(R.))
granicy dolnej wzgledem n. Druga nierównosc otrzymuje sie, dodajac stro- zuw-iem podc'iag slabo zb'iezny.
nami nierównosci (1) dla k = 1,2, .... Zeby zakonczyc dowód, wystarczy
wziac c: -t O i skorzysta.c z tw. 8.2.1. _
D o wód. Niech (Fn) bedzie ciagiem dystrybuan~. Wybieramy podciag Fnk
Bedziemy teraz zmierzac w kierunku twierdzenia Prochorowa: jedrnosc ro- slabo zbiezny do pewnej dystrybllantyulomnej'P (lemat 3).
dziny rozkladów jest równowazna z tym, :te z kazdego ciagu da sie wybrac Na mocy jedrnosci dla kazdego c > O istnieje takie M, ze -M i M sa
podciag slabo zbiezny. Innymi slowy, jedrnosc jest równowazna z warun- punktami ciaglosci F, oraz
kowa zwartoscia.
Fnk(M) - Fnk(-M) ~ 1.- c,
Lemat 2. Niech (Fn) bedzie ciagiem dystryb1wnt, a D - zbio.,.em gestym w
a stad, biorac k -> 00, otrzymujemy
R. Jesli Fn(t) -t F(t) dla wszystkich t E D, to Fn(t) -t F(t) we wszystkich
punktach ciaglosci F. F(M) - F(-M) ~ 1- €,
Funkcja graniczna F nie musi byc dystrybuanta, jest natomiast dyst.,.ybu- zatem F jest dystrybuanta pewnego rozkladu pr~wdopodobienstwa f.L. -

Masa moze uciec anta ulomna, ma bowiem wszystkie wlasnosci dystrybuanty oprócz jednej:
do limt_oo F(t) - limt __ ~ F(t) = p;;;; 1, i byc moze p < 1. Mozemy teraz udowodnic
nieskonczonosci.
188 Rozdzial 8. Zbieznosc rozkladów
§ 8.3. Zbieznosc rozkladów, a zbieznosc dystrybuaI?t 189

Twierdzenie 5 (ptochorowa). Rodz'ina rozkladów pra'Wdopodob'ie'nstwa 8. Niech rozklad zmiennej losowej X bedzie okresJony przez wszystkie momenty
A = {Pa: IX E I} na (R, B(R)) jest jedrna 'Wtedy 'i tylko wtedy, gdy z kazdego i niech Xn, n = 1,2, ... maja wszystkie momenty, [X~ --+ [Xr dla r =
ciagu elementów tej r'odziny da sie wybrac podC'iag slabo zbiezny do pewnego = 1,2, .... Udowodnic, ze Xn -E..... X.
rozkladu prawdopodobienstwa.
9. Udowodnic, ze jesli X" .lL X i sUPn [IXnlp+g < 00, p > O, c > O, to
[lXI" < 00 i limn [IXni" = [lXI" oraz lim" [X;;' = EXPo
D O wód. Koniecznosc zostala udowodniona w lemacie 4. Dostatecznosc:
*10. Udowodnic odpowiedniki twierdzenia l oraz lematów 2, 3 i 4 dla rozkladów
przypuscmy, ze rodzina rozkladów nie jest jedrna. Wtedy istnieje takie
prawdopodobienstwa w (Rk, B(Rk)).
c > 0, ze dla kazdego zbioru zwartego K istnieje taka miara p E A, ze
*11. Udowodnic twierdzenie Prochorowa
p(K) < l - c. Przyjmujac za K kolejno przedzialy [-,n, n] otrzymujemy
ciag miar pn E A, n = 1,2, ... , dla których Pn([-n, n]) < l - c. Otóz ciag a) wRn,
(Pn) nie moze zawierac podciagu zbieznego do pewnego rozkladu prawdo- b) wR=,
podobienstwa. c) w dowolnej przestrzeni metrycznej, osrodkowej i zupelnej.

Przypuscmy bowiem, ze Pnk ~ p. Wybierzmy taki zbiór zwarty K, zeby 12. Niech (Xn) bedzie ciagiem niezaleznych zmiennych losowych o rozkladzie
p(K) > l-c. Jesli Ko jest o-otoczka zbioru K, to dla dostatecznie duzych
U[O, l], Yn = n . min(X1, ... , Xn). Czy istnieje taka zmienna losowa Y, ze
Yn _.~ y?
n mamy Ko C [-n, n], i na mocy otwartosci zbioru Ko i warunku ('iv) tw.
8.2.1 otrzymujemy
Lemat o malzenstwach i miara Haara. Twierdzenie o istnieniu miary Ba-
ara na grupie zwart.ej mozna otrzymac z tw. Prochorowa i kombinatorycznego
l - 10< p(Ko) < liminf J.!nk (Ko) < lim inf f1nk ([-nk, nk]) < 1 - c.
lematu Balia o systemach reprezentantów1 (inaczej: o malzenstwach). Kolejne
Sprzecznosc konczy dowód .• kroki dowodu wynikaja z zadan:

*12. Niech Al, ... An beda podzbiorami zbioru skonczonego X. Wykazac,' ze war
Zadania runkiem koniecznym i dostatecznym na to, by z kazdego zbioru Ai mozna
bylo wybrac reprezentanta ai tak, by ai i= aj dla i= j jest:i
1. Niech Xn -E..... X, IiJn,nan = a, a - punkt ciaglosci dystrybuanty Px, Udo-
wodnic, ze limn PXn (an) = F(a). VJC{l, ... ,n}
#(U'Ai)
tEJ ~ #J.
2. Twierdzenie Diniego. Wykazac, ze jesli ciag dystrybuant (Fn) jest zbiezny
punktowo do dystrybuanty ciaglej F, to zbieznosc jest jednostajna. Podzbiór Kg przestrzeni metrycznej (E,p) nazywamye-s18cla, gdy dla kazdego
3. Metryka Levy'ego. Okreslamy odleglosc d miedzy dystrybuantami F i G x E E istnieje takie u E Ko, ze p(x,u) :::; c. Sko'\1czona c-siec nazywamy mini-
w nastepujacy sposób: malna, gdy nie istnieje c-siec o mniejszej liczbie elementów.
Warto wykonac
rysunek d(F, G) = inf{e: V"ER G(x - c) - c:::; F(x) :::;G(:r; + c) + c}. 13. Niech {Xl,' .. , Xn} i {Yt, , .. , 'Yn} beda minim!~lnymi c-sieciami w przestrzeni
ilustrujacy te metrycznej (E, p). Wykazac, ze istnieje taka permutacja 7l': {l, ... , n} -+
definicje Wykazac, ze Fn ~ F wtedy i tylko wtedy, gdy d(1;'n, P) --+ O. --+ {l, ... , n}, ze p( Xj, 'Y,,(j)) :::; 210 dla kazdego j :::; n.
Wykazac, ze d jest faktycznie odlegloscia i ze zbiór miar probabilistycznych
14. Niech E bedzie przestrzenia metryczna zwar~a, a Kn = {:r;in), ... xi::;,} -
na (R, B(R)) z metryka d jest przestrzenia metryczna, osrodkowa i zupelna.
minimalna -'--siecia w E. Niech Pn bedzie rozkladem równomiernym na K"
*4. Okreslic odleglosc miedzy rozkladami na (E, B(E)), uogólniajac pomysl z za-
(tj. p,,({xjn)'}) = l/m,,). Wykazac, ze ciag (Pn) zawiera podciag (PncJ slabo
dania 3 i udowodnic odpowiedniki sformulowanych t.am twierdzen.
zbiezny clo pewnego rozkladu prawdopodobienstwa /1 na (E,B(E)).
* 5. Twierdzenie Skorochoda. Wykazac, ze jesli /1,/11, /.12, ... sa rozldadarni 15. Twierdzenie o istnieniu miary Haara. Niech G bedzie grupa izome-
prawdopodobie1'1stwa na (R,B(R)) i /-1" ~~ /1, to istnieja zmienne losowe trii przestr~eni metrycznej zwartej E. Wyka~ac, ze miara /1 otrzymana w gA = {gx:x E A}.
X, Xl, X2, ... o rozkladach odp. /1, /-ll, /-12, ... okreslone na przedziale (0,1) poprzednim zadaniu jest niezmiennicza ze wzgledu na G, czyli /1g = p dla
i takie, ze Xn(W) -+ X(w) dla kazdego w E (O, l).
kazdego g E G, gdzie /1g(A) ~ /1(g-'l A) dla A E B(E).
6. Wykazac, ze jesli Xn -E..... X, to [lXI ~ liminfn [IXni. W .5k .. J. E fd p.g = J'1mk_= mnk
-1 ",mnk
uj~l .f( gXj nk)' '.
7. Udowodnic, ze jesli Xn ~, X i X" sa jednostajnie calkowalne, to X ma
wartosc oczekiwana i limn [Xn = EX. IWitold Lipski, Wiktor Marek, Analiza kombinatoryczna, PWN, Warszawa 1986,
s. 192.
§ 9.1. Definicja i przyklady 1!l1

Przyklad 2. Obliczymy funkcje charakterystyczna zmiennej losowej X


o rozkladzie N (0,1) (lub, co na jedno wychodzi, rozkladu N (O, l)). Mamy

rpx(t) = E:eitX _ 1 100 e'tx-(x2/2)


rn=
_ v21r.-00 . dx=,

Rozdzial 9 121r .loo


,
=e-t.2/2 Vrn= -00 e·-(x-it)2/2 dx = e- t 2 /2

bowiem ostatnia calka jest równa~, niezaleznie od t. Zeby to zobaczyc,


Funkcje charakterystyczne nalezy obliczyc calke z funkcji e-z2 /2 po brzegu przedstawionego na 1'Y8unku
prostokata i wziac ]l -> 00.

R + it
§ 9.1. Definicja il przyklady ,.
l"
v
Z punktu widzenia analityka funkcja charakterystyczna jest w zasadzie 'I;.'.',i
transformata Fouriera,miary. Dla probabilisty liczy sie fakt, ze pewne wla-
snosci rozkladów i rel~cje miedzy rozkladami tlumacza sie prosto na jezyk -R R
funkcji charakterystycznych, a wygodniej jest operowac zwyklymi funk-
cjami niz miarami, " Poniewaz calkowana funkcja jest analityczna, calka po brzegu prostokata
Funkcje charakterystyczne posluza nam do dowodu centralnego twierdzenia jest równa zeru (patrz tw, D.2.4). Calki po pionowych bokach zmierzaja do
granicznego (rozdzial 10), Glównym wynikiem tego rozdzialu jest twierdze- zera, gdy R -> 00. ViTobec tego
nie 'Lóvy'ego-Cramera ,,0 ciaglosci": punktowa zbieznosc funkcji charakte~
rys tycznych do funkcji ciaglej w zerze pociaga za soba zbieznosc odpowied- e-~ d::r; = e-2 dx =.j2;.
nich rozkladów do rozkladu, którego funkcja charakterystyczna jest funkcja /00-(Xl (,._;<)2 •100"2
--00
graniczna.
Z teorii funkcji analitycznych bedziemy korzystac jeszcze kilka razy. Doda-
Definicja 1. Punkc.ia charakterystyczna zmiennej losowe.i X: n -> R na- tek D zawiera niezbedne wiadomosci i opis technilci liczenia calek metoda
zywamy funkcje rpx: R -> C, dana wzorem residuów. Mozna jednak w tym przypadku (i w innych) obejsc sie bez funk-
cji analitycznych (patrz zad, 7) .•
rpx(t) = E:eitX, t E R. (1)
Oto podstawowe wlasnosci funkcji charakterystycznych:
Pojawila sie tu - wczesniej formalnie nie zdefiniowana .- wartosc oczeki-
wana zmiennej losowej o wartosciach zespolonych. Podstawowe (i oczywiste)
Twierdzenie 3. Niech rpx bedzie funkcjq chamkt'erystycznq zmienne.i 10-
jej wlasnosci podajemy w zadaniu 1. W szczególnosci, poniewaz leitXI = 1,
sowe,i X, Wtedy
zmienna losowa po prawej stronie (1) jest zawsze calkowalna, wobec tego
funkcja charakterystyczna jest dobrze okreslona dla kazdej zmiennej loso-
wej. (i) rpx(O) = 1.
Oczywiscie mamy
(ii) Irpx(t)1 ~ 1.
EeitX = i: eits fJ·x(ds),

gdzie fJ.x jest rdzkladem zmiennej losowej X. Wobec tego równie dobrze
(iii) 'Px(t) = rpx(-t).

(iv) rpx(t) jest .iednosta.inie C'iqgla.


mozna mówic o funkcji charakterystycznej dowolnego rozkladu.

190

\-
192 Rozdzial 9. Funkcje charakterystyczne § 9.1. Definicja i przyklady 193

Dowód. (i) rpx(O) = Eeo = 1; Twierdzenie 7. Jesli EIXln < 00, n E N, to n-ta pochodna funkcji cha-
(ii) jrpx(t)1 = IEeit:"I :( EletXI = 1; rakterystycznej rpr;) istnieje i jest jednostajnie ciagla, a ponadto
(iii) rpx(t) = EeitX = Ee-itX = rpx(-t).
(iv) Irpx(t + h) - <Px(t)1 = IE (eihX - 1) eitXI :( Ele'ihX - 11 = ó(h), gdzie
rpc;\O) = inExn
na mocy twierdzenia Lebesgue'a o zbieznosci zmajoryzowanej 8(h) -> O dla
h -> O, a to oznacza jednostajna ciaglosc .• D o wód. Pokazemy, ze

Powiemy, ze zmienna. losowa jest symetryczna, gdy X i-X maja ten sam
rozklad. Sam rozklad nazwiemy wtedy symetrycznym. Rozklad /1- jest sy-
metryczny wtedy i tylko wtedy, gdy /1-(A) = /1-( -A) dla A E B(R).
rpr;)(t) = L: ('is)neits f.lx(ds),

Uwaga 4. Funkcja charakterystyczna rozkladu f.l jest rzeczywista wtedy


co natychmiast daje rp:;) (O) = inExn.
i tylko wtedy, gdy rozklad jest symetryczny. Istotnie, dla n = O otrzymujemy deflnicje funkcji charakterystycznej. Przy-
puscmy teraz, ze powyzszy wzór jest prawdziwy dla n = k. Udowodnimy
jego prawdziwosc dla n = k + 1. Niech EIXlk+1 < 00 (wtedy równiez
D o wód. Jesli rozklad jest symetryczny, na mocy (i'i'i) marny (P x (t) =
EIXlk < (0):
= rpx(-t), a jednoczesnie na mocy symetrii rpx(t) = rp-x(t) = rpx(-t).
Dlatego funkcja charakterystyczna jest rzeczywista. Odwrócenie tego rozu-
(k) ( ) (k) ( )
mowania jest prawie oczywiste, wymaga jednak twierdzenia o jednoznacz-
rpv
(k+1)(t) _ l'
- lm rpx t + hh' - rpx t
nosci: rózne rozklady maja rózne funkcje charakterystyczne (tw. 10) .• J, h~O ,

Istnieje wiele kryteriów na to, by dana funkcja byla funkcja charaktery- .= hlim -00 (iS)k ei(t+h)-j:
__ O )'00 h _ eits /1-x(ds)
styczna. Przytoczymy tu jedno z nich.

Definicja 5. Funkcje rp: R -> C nazywamy doda,tn'io okr'eslona wtedy tyl- i = 'I,~O
lim 1,00 eihs. - - 1/1-x(ds)
-00 (is)ke,ts_h",-,
.

ko wtedy, gdy dla kazdego naturalnego n, dla kazdego ciagu tl, ... tn liczb
rzeczywistych i
zespolonych Z1,· .. Zn mamy = 100
-00 (is)ke,ts
" ~~:1-,.;;--
eihs - 1 /1-x(ds)

L rp(tk - tZ)ZkZl ~
k,Z";;n
O.
= L: ('is)kHeilS f.Lx(df)

Wejscie z granica pod znak calki jest poprawne, bo na mocy elementarnej


Twierdzenie 6 (Bochnera). Funkcja rp jest Junkcja charakteTystyczna
nierównosci: leit -11 :( Iti funkcje podcalkowe sa wspólnie ograniczone przez
pewnego rozkladu prawdopodobienshiJa wtedy i
tylko wted.y, gd.y jest ciagla,
dodatnio okreslona i
rp(O) = 1.
funkcje Islk+1, calkowalna z zalozenia.
Jednostajna ciaglosc pochodnych udowodnimy podobnie, jak jednostajna
D o w ó d. Latwo udowodnic koniecznosc warunku. Jesli rp jest funkcja cha- ciaglosc samej funkcji w I;w; 3(iv):
rakterystyczna zmiennej losowej X, to mamy
')
Irp~)(t + h) - rp~')(t)1 = IE[(iX)"(eihX - 1)e'itX11 :( E (IXrn!eihX -11) =
= 8(h),
L
k,L~n
rp(tk - 'tl)ZkZ/ = L
k,l~n
Ee'ZtkXe'itIXzkZl = ElL
k~n
eiLkX zkl- ~ O.
gdzie 8(h) -> O dla h -> O .•

Dowód dostatecznosci odlozymy na koniec rozdzialu (par. 9.3) .• Zeby sformulowac krótko wniosek z twierdzenia 7, wprowadzimy nastepu- Jak zauwazyl
Littlewood,
jace oznaczenia: o( x) bedzie oznaczac dowolna funkcje zmiennej x, dla któ-
sinx = O(x), ale
Zajmiemy sie teraz kwestia istnienia pochodnych funkcji charakterystycz- rej limx~o(o(x)/x) = O; z kolei O(x) bedzie oznaczac taka funkcje, dla niekoniecznie
nych, co umozliwi nastepnie operowanie wzorem Taylora. której ulamek O(x)/x jest ograniczony w pewnym otoczeniu zera. (J:) = SillX.
• I \)~ Rozdzial 9. Funkcje charakterystyczne § 9.1. Definicja i przyklady 195

Wniosek 8. Jesli EIXln < 00, to Bez klopotu cia sie natomiast zobaczyc, ze funkcja charakterystyczna wy-
znacza jednoznacznie rozklad. Nietrudno to zrozumiec intuicyjnie: jesli dla
n ('t)k kazdego t E R
'Px(t) = LEXk. ~ + o(t").
k=O k.

'P1,(i) = 100
-00 eHx p,(d:r) = ./'00
-00 eitx I/(d:c) = 'PI/(t),
D O wód. Wystarczy przedstawic reszte w rozwinieciu Ta.ylora funkcji 'P x
w otoczeniu zera jako to ella wielomianów trygonometrycznyeh postaci w(x) = :Z:=-m cnein",
mamy

['PCn\tet)
x _ <pl:»~
x (0)(ni + x
<pC") (O)tn
ni , L: w(x) It(dx) = L: w(x) v(dx).

Jak wiadomo ze znanego z aua.lizy twierdzenia Stone'a-Weierstrassa, ta- .


gdzie O < et < 1. Z ciaglosci n-tej pochodnej wynika, ze pierwszy wyraz da
sie zapisac jako o(t") .• kimi wielomianami mozna przyblizac jednostajnie wszystkie funkcje ciagle
f o okresie 21f. Zamiana zmiennych daje to samo dla okresu 2K, co juz
Jesli na przyklad E X = O i 1)2 X = 1, to funkcja charakterystyczna zmiennej wystarczy. Zatem
losowej X daje sie zapisac w otoczeniu zera jako 1- ~t2 + o(t2). Wykorzy-
stamy ten fakt pózniej, w dowodzie centralnego twierdzenia. granicznego.
Twierdzenie 10. Jesli T'Ozklady prawdopodobidtstwa p, v na (R, B(R)) i
m(~i(! 1"6wnc funkc.ie chamkte1"1.jstyczne, czyli <p",(t) = 'PI/(t) dla wszystkich
Zajmiemy sie teraz zachowaniem funkeji charakterystyczny eh przy prostych t E R, to I), = 1/.
operacjach na zmiennych losowych. Po pierwsze, marny
. \- l'

Ten wzór nie jest D ow ó d. Jesli teza nie zachodzi, to zgodnie z tV'{.8.2.2 dla pewnej funkcji
opatrzony tyt;ulem
'PaX+b(t) = eitb'Px(at). (2)
Twierdzenie, ciaglej i ograniczonej .f m~~Y" l.r~oo fdp, - J:"oo f dvl > 6 > O. Z drugiej

Wil~C nA, pewno Jest to bezposredni wniosek z definicji funkcji charakterystycznej. strony, dla kazdego K > 1 istnieje funkcja ff( o nastepujacych wlasnosciach
"ostu,nie (patrz rysunek): .'
Po drugie - i jest ~o kluczowa wlasnosc funkcji charakteryst.ycznych -
zigllOl'own.ny.
zachodzi: .

Twierdzenie 9. Jesli X, Y sa niezaleznymi zmiennymi. losowymi, to

'Px+y(t) = <px(t)<py(t).
-K
Dowód. <px+y(t) = Eeit(x+y) = EeitXeitY = EeitXEeitY = 'Px(t)<py(t).
Przedostatnia równosc wynika stad, ze dla niezaleznych zmiennych loso-
wych U = eitX i V = e'itY mamy EUV = EUEV (por. zad. lb) .•
L f(:c) = fId:J;) dla x E [-f( + 1,K -1].
Nie nalezy jednak sadzic, ze jesli funkcja charakterystyczna sumy zmien-
2 . .fK (- K) = h«K) = O .
nych losowych jest równa iloczynowi ich funkcji charakterystycznych, (;0
zmienne losowe sa niezalezne. Odpowiedni przyklad zawiera zad. 8. Zeby 3. N a przed ziaJ ach [- K, ---~<. + 1.] i [I( - 1.,K] funkcj a f J{ jest liniowa.
otrzymac kryterium niezaleznosci, trzeba uzyc wielowymiarowych funkcji
4. !i< jest okresowa, o okresie 2K.
charakterystycznych, o których bedzie mowa dalej.
Jest jasne, ze slaba zbieznosc rozkladów pociaga za soba zbieznosc punk- Jasne jest, ze przy }( 00 mamy zbieznosc punktowa /J( do f, a poniewaz
--->

towa odpowiednich funkcji charakterystycznych: czesc rzeczywista i urojona SUPXERIh«x)1 ~ M= sUP"'ER If(x)i, z twierdzenia Lebesgue'a o zbiezno-
funkcji ft(x) = et", sa przeciez dla kazdego t ciagle i ograniczone. Odwró- sci zmajoryzowanej dla dostatecznie duzych K
cenie tego twierdzenia - twierdzenie Levy'ego--Cramera o ciaglosci - jest
takze prawdziwe, ale dowód zajmie nam reszte tego rozdzialu.
1)'00
-00 !K _00!K dv
dp, - )'00 I > 2'
6
196 Rozdzial 9. Funkcje charakterystyczne § 9.1. Definicja i przyklady 197

Ostatnia nierównosc nie moze jednak zachodzic, bo istnieje wielomian try- Zwrócmy uwage, ze wszystkie podane tu funkcje sa okresowe, a ponadto dla kaz-
gonometryczny 'W, dla którego dej z nich istnieje takie s i'
0, ze I'P( s)1 = 1. Nie jest to przypadek. Rozklady:
geometryczny, Bernoulliego i Poissona sa rozkladami ar'ytmetycznymi, czyli skon-

II: -I: centrowanymi na zbiorze punktów postaci kh, gdzie k jest calkowite. Rozklad
fj

1]00 -00 fI( df.! - ]00


-00 w d/kl < ~
4 hdv 'Wdvl < 4' jednopunktowy i dwupunktowy sa przesunietymi rozkladami tego typu.
5. Udowodnic, ze dla funkcji charakterystycznej 'P rozkladu f.! nastepujace wa-
a jak wiemy,
nmki sa równowazne: .

(i) 'P(s) = l dla pewnego s i' O;

]00
-00 'W d/k = ,/'00
-00 'W dv. • (-i'i) 'P ma okres s;

(ii'i) rozklad J.!. jest skupiony na zbiorze punktów postaci 2'Irk/s, k E Z.


Zadania 6. Udowodnic, ze jesli 'P jest funkcja charakterystyczna rozkladu p, to zachodzi
jedna z trzech mozliwosci:
1. a) Gdy Z jest zmienna losowa o wartosciach zespolonych, to
(i) 1'P(t)1 < l dla wszystkich t i- O;

EZ~ 1 ZdP,
(-i'i)

(iii)
1'P(s)1
i rozklad
1'P(t)1
= l i 1'P(t)1 < l
J.!.
dla wszystkich t E (O, s). Wtedy Icpl ma okres s,
jest skupiony na zbiorze punktów postaci b + 2'Irk/ s, k E Z.
= l dla wszystkich t E R. Wtedy cp(t) = eitb i J.!. jest skupiony
gdy Z jest calkowalne, tzn. gdy J~ IZI dP < 00. Udowodnic, ze gdy Z = w punkcie b.
= X + iY, gdzie X, Y sa zmiennymi losowymi o wartosciach rzeczywistych,
to EZ istnieje wtedy i tylko wtedy, gdy EX i EY istnieja; w takim przypadku F\mkcje charakterystyozne rozkladów ciaglych. Interesujace, ze gestosc
EZ = EX +iEY. i funkcja charakterystyczna zmiennej losowej o rozkladzie N (O, l) róznia sie tylko
b) W dowodzie twierdzenia 9 przeslizIlelismy sie gladko nad faktem, ze czynnikiem stalym. Jest jeszcze druga podobna Dara, gdzie gestosc i funkcja cha-
zmienne losowe U i V maja wartosci zespolone. Wypelni{: Inke i wykazac, rakterystyczna róznia sie parametrem skali .•.
ze EUV = EUE1/.
Tabela 2.F'unkcje charakterystyczne rozkladów ciaglych.
2. Zmienne losowe X, Y, U, V sa niezalezne i maja rozklad N (O, l). Obliczyc
., ll 1
la:I;~ ..
funkcje charakterystyczne zmiennych losowych:
a) XY; b) X2; c) X/Y; Gamma
d) l(X2 - Dwustronny + --
y2); e) XY wykladniczy
Cauchy'ego
Trójkatny
Jednostajny U( UV,
2e
;.~
f(a)X cosh x e. -...".-
v'2'rr
Wykladniczy
-0., a) N (O, l)Jednostajny
Cosinus U(O, a) ,\ > °
[0,00)
z par.
7T

hiperboliczny
- at
~
7r
,\-it -~
l-cosax
Rozklad Funkcja
(l -
-iti
~
l ~eleia.t_l
cosh gjnat
7r't/2
charakterystyczna
e-t"/2
~(l
)l[-a,al(l;) ~
-
1 -lxi
a-l
,\_1_e-x-/2
Gestosc
21-cosat
fa·l[_.a,al(x)
(l _ ~)-a
-bxl
//.1,
·110,a!(J;)
'\e-Ax1[o,00)(;J;
J.;;J )l[_a,a](J;))

Normalny,
3. Obliczyc funkcje charakterystyczna rozkladu x2(n).

Funkcje charakterystyczne rozkladów arytmetycznych. W tabeli l poda-


jemy funkcje charakterystyczne poznanych dot.ad rozkladów dyskretnych. Maja
one pewna wspólna ceche -- pat.rz zadania.

Tabela 1. Funkcje charakterystyczne rozkladów dyskretnych.


Rozklad Funkcja pe;ta ++ qe·itb
e.>-(e"-1)
---.l!.........
charakterystyczna
e'itu
l-qe~t (peit q)n

7. a) Obliczyc funkcje charakterystyczne rozkladów wymienionych w tabeli.


W przypadku rozkladów Cauchy'ego i cosinusa hiperbolicznego mozna to
zrobic technika residuów (rozwiazania w dodatku D). Funkcje charaktery-
styczna rozkladu normalnego mozna obliczyc inaczej niz w przykladzie 2.
4. Obliczyc funkcje charakterystyczne podane w tabeli. b) Wyznaczyc funkcje charakterystyczna rozkladu N (m, 0'2).

_1111, 11111. _1111, , ••••• 1111, ,IIiIII ,_III


199
198 Rozdzial 9. FUllkcje charakterystyczne § 9.2. Twierdzenie Levy'ego-Cramera o ciaglosci

8. Gestosc rozkladu wektora losowego (X, Y) dana jest wzorem Dowóci. Mamy

_ (1 - '1'(8)) =- (1 - =
g(x, y) = { ~(1 + xy(x2 - y2)) w p.p.
dla lxi < l, Iyl < l, 1
71 fU-'u
rls
l !OO !U
'U, . --00' -11,
etSX)
.
dSIL(dx)

Wykazac, ze X i Y sa zalezne, a mimo to <PX +y = 'PX . <Pl'. vV razie klopotów __ ILC"X ~


rachunkowych - znalezc prostszy przyklad takiego zjawiska, _ ') ,j'oo
-00 (l _ sin'/),xUJ;) (")
9. Zbadac, czy nastepujace funkcje sa funl(cjarni charakterystycznymi i jesli tak,
~2 -J.L(dx)+2
WYZW1CZYC odpowiedni rozklad: j'
, (-00,-2/".) 21 j'(2/'11.,00)2-J.L(dx)=
1
a) cost; b) cos2t; e) ~(1 +e'it)2; d) l+~ofit; e) (2 _ eH)-l. = IL(( -00, -2/n) U (2{1,I" (0)),
10. Wykazac, ze jesli '1'1, ... , CPn sa funkcjami charakterystycznymi, a I:, Pi. = l,
i
Pi > O, = 1,2, ... 'n, to równiez kombinacja wypukla I:,P'i<pi jest funkcja skad nal;yclllniasl wynika (1). -
charal(terystyczna,
U.. Zmienne losowe XJ.,X2, ... X"" ... sa niezalezne i maja te sama funkcje cha- Twierdzenie 2. Niech (/.t,,) bedz'ie ciag'iem TOzkla,dów pmwdopodobienstwa
rakterystyczna '1'. Zmienna losowa N jest od nich l1iezalezua i ma rozJdad na (R, B(R), .Te:iliC'iag('1',,) fu,nkcfl chamkl,erystycznych tych rozkladów jest
Poissona. Vlyznaczyc funkcje eharakterystycznq losowej sumy Xl + ... + X N· zIJiezny p1m,kto'Wo do fu,'nkc:ii '1', ciaglej w zerze, to C'iag (J.Ln) jest jedrny.
12. Wiadomo, ze 'I' jest funkcja eharakterystyezna pewnej zrniennej losowej X
o rozkladzie J.L. Czy funkcjami charakterystycznymi sa; D o w ó ci. Ustalmy E: > O i wybierzmy '/1., dla którego
a) <p2; b) Re <P; c) 1'1'12;d) 1<p1.
13. Udowodnic, ze jesli funkcja charakterystyczna zmiennej losowej X ma druga
pochodna w zerze, t.o E:X2 < 00. -;.
1 j'"_,y - 'f/(s)) ds ~ ~.

Jest· t,o czesciowe od~ócenie twierdzenia 4. Mozna udowodnic, ze istnienie po- Istnienie takiego u wynika z ciaglosci funkcji !P w zerze; w dostatecznie
c1loclnej rzedu 2k w zerze pociaga za soba istnienie moment.u rzedu 2k. Dla po- malym otoc7,eniu zera wsz.ystkie wartosci funk,cji podcalkowej beda bliskie
chochlych rzedu nieparzystego juz tak nie jest (por. zad. 14). zeru, a zatem i ich sreu.n}<t:;
14.
Wykazac, ze rozklad o gestosci f(x) = (1+",2) l~g(e+x2) nie ma wartosci oczc-
Tera? dla dost.atecznie duzych n z zalozenia i z twierdzenia Lebesgue'a o
kiwanej, ale jego ~unkcja charakterystyczna jest rózniczkowalna w zerze. zbieznosci zmajoryzowanej mamy ,.
15. Niech X przyjmuj~ wartosci calkowite. Udowodni{:, ze
- (l-ipn(s))ds::;;E:,
1 fU-u
'lL .
k E Z.
27r l'" e-ikt<px(t;)
P(X = k) = ~ . -" d.t,
wobec tego ella dostatecznie duzych n na mocy lematu l
16. Twierdzenie Riemanna-Lebesgue'a. Udowodnic, ze gdy X jest zmiclJna
losowa o rozkladzie ciaglym, to 'I'x(l,) -> O, gdy Iti -> 00. 1J,,.,([-2/u, 2/'/),] ~ 1 - e,

co konczy dowód twierdzenia. -


§ 9.2. Twierdzenie Levy'ego-Cramera o ciaglosci Ukoronowaniem tego rozd~ialu jest

Zaczniemy od zwiazku pomiedzy jedrnoscia ciagu rozkladów a zachowaniem


Twierdzenie 3 (Levy'ego-Cramera). Niech (ILn) bedzie ciagiem roz-
sie ciagu funkcji charakterystycznych.
kladów prawdopodobienstwa na (R, B(R)) niech (ipn) bedzie ciagiem ich i
Lemat 1. Jesl'i J.Ljest rozkladem prawdopodobienstwa z funkcja charakte-
funkcji charakterystycznych . .Jdli ipn(t) -t ip(t) ala 'Wszystkich t E R funk- i
cja 'I' jest ciagla w zerze, to 'I' jest funkcja charakterystyczna pewnego roz-
rystyczna '1', to dla kazdego u > O zachodzi I
klad'/), fi. i ILn
si
----; J.L.

(1)
fL([-2/u, 2/u)) ~ 1- -; _)1 - ip(s))
11'11. ds. D o wód. Sklada sie z nastepujacych kroków;
200 Rozdzial 9. Funkcje charakterystyczne § 9.2. Twierdzenie Levy'ego-Cramera o ciaglosci 201

1. Funkcja 'P jest ciagla w zerze, !odzina rozkladów (IJ-n) jest zatem sformulowan umówmy sie, ze rozklad jednopunktowy zaliczamy do normalnych
jedrna (tw. 9.2.2) i zawiera podciag (IJ-n,,) slabo zbiezny do pewnego (co do rozszerzenia definicji patrz § 9.4).
rozkladu IJ- (tw. 8.3.5). Jest to kandydat na rozklad graniczny.
2. ·Teraz 'Pnk -; 'PfJ. - funkcji charakterystycznej rozkladu j.L; ale z za-
Lemat 4. Jesli dla pewnego a > jest EeaX2 ° < 00, to funkcja charakterystyczna
zmiennej losowej X, r.p x, jest calkowita.
lozenia 'PfJ. = 'P.
Jesli ponadto r.px(z) f. O dla wszystkich z E e, to X ma rozklad normalny.
3. Pozostaje wykazac, ze caly ciag j.Ln -"..!." p. W tym celu wybierzmy
dowolny podciag (j.Lnk)' Jak poprzednio, z jedrnosci wynika istnie- D o wód. Z nierównosci
nie podciagu zbieznego (Pnk,). Ale ciag funkcji charakterystycznych
('Pnk,) jest zbiezny do 'P = 'PfJ.' a poniewaz funkcja charakterystyczna
Iz:r:1:::; a2x2 + a-"lzI2, z E C, a, x E R,
wyznacza jednoznacznie rozklad (tw. 9.l.IO), rozkladem granicznym wynika, ze EeizX jest dobrze okreslona dla wszystkich z E Z. Ponadto
tego podciagu jest j.L. Na mocy twierdzenia 8.2.5 caly ciag jest sla.bo
zbiezny do /;,.• lr.px(z)1 :::; e,,-2IzI2 j(a),

co oznacza, ze r.px jest funkcja calkowita rzedu:::; 2; jesli nie ma zer, musi byc
Zadania postaci e-·"z2 /2+.'&z, gdzie a;'j; E C. Ale r.px jest funkcja charakterystyczna, wiec
na mocy tw. 9.1.7 ir.p~(O) ,= EX, -r.p~(0) = D"X, zatem b E R i a ~ 0, a to
1. Udowodnic, ze jesli Xn maja rozklad Poissona z parametrem An, An -, A > 0, O7,:nacza,ze·X ma rozklad normalny. -
to Xn ~ X, gdzie X ma rozklad Poissona z parametrem ,\.
2. Udowodnic, ze jesli X" -.!?-> X, an -.., a, b" -, b, to anX" + b" ~ a X + b. Z tego lematu wynika, ze zmienna losowa o rozkladzie normalnym nie daje sie
rozlozyc na sume niezaleznych skladników inaczej, niz w trywiainy sposób.
3. Wykazac, ze jesli X" ~ Xo, 1';, ~ Yo,X", Y;, sa niezalezne, n = 0,1,2, ... ,
to X" + y" ~ Xo + Yo. Czy zalozenie o niezaleznosci jest istotne? *8. Twierdzenie Cramera. Wykazac, ze jesli zmienna losowa X o rozkladzie
4. P(Xn = kin) = 1/n2, k = 1,2, ... ,n2. Udowodnic, ze nie istnieje zmienna normalnym jest suma dwóch niezaleznych zrniennych losowych Y i Z, to obie
t,e zmienne maja rozklady normalne.
losowa X taka, ze Xn ~ X.
9. Udowodnic, ze funkcja
. r.p(x) = ~l+eX' nie jest funkcja charakterystyczna·
Problem Haara. Wiadomo, ze X = 2:::::'=1. U,,/2n, gdzie (U"),, jest ciagiem
Bernoulliego (patrz 5.8.10 i zad. 5.8.9), ma rozklad jednostajny. Natomiast pelne Druga charakteryzacja rozkladu normalnego. Podamy bez dowodu2 naste-
rozwiazanie ponizszego zadania dosc dlugo nie bylo znane.
pujace
t5. Zbadac, dla jakich a E (O, l) zmienna losowa X", = 2":::::'=] ClnU" ma rozklad
ciagly. Twierdzenie 5. Niech zmienne losowe X, Y beda niezalezne i niech
6. Rzucamy moneta, dla której prawdopodobienstwo wypadniecia orla jest rów-
ne p. Niech X bedzie liczba rzutów potrzebnych do uzyskania n ortów. Zna-
u= aX + bY,
lezc rozklad graniczny zmiennych losowyeh 2Xp, gdy p -t O. V = cX +dY.
*7. Korzystajac z tego, ze
Jesli U 'i V sa niezalezne, to wszystkie cztwNj zmienne maja rozklad normalny,
sin t chyba ze przeksztalcenie definiujace U 'i V jest trywialne, tj. albo U = oX, V =
(II cos 22~-1 ) (g cos 2;" ) ,
= dY, albo U = bY, V = eX.

udowodnic, ze splot dwu rozkladów singularnych moze byc roz]dadcm eia- Twierdzenie to stanowi punkt wyjscia do definicji zmiennej losowej gaussowskiej
glym. tam, gdzie nie da sie zdefiniowac gestosci wzgledem naturalnej miary, na przyklad
Charakteryzacja rozkladu normalnego. Ponizszy lemat wymaga zaawan- w przestrzeniach Banacha o wymiarze nieskonczonym albo na grupach. Jesli X
sowanej teorii funkcji analitycznych l . Przypomnijmy, ze funkcja calkowita nazy- jest zmienna losowa, a X l, X2 .- jej niezaleznymi kopiami, to X jest gaussowska
wamy funkcje analityczna okreslona na calej plaszczyznie zespolonej. Dla prostoty wtedy i tylko wtedy, gdy Xl + X2 i Xl - X2 sa niezalezne. Zeby taka definicja
miala sens, wystarczy samo dodawanie!
lNiezbedne informacje, w tym twierdzenie Hadarnarda o faktoryzacji, mozna znalezc
np. w: F. Leja, TeoTia funkcji analitycznych, Warszawa 1957. 2[FEL], t. n, tw. XV.8.2.
§ 9.3. Twierdzenie Bochnera i wzory na odwrócenie 203
:'11'1 Rozdzial 9. Punkcje charakterystyczne

Rozklady stabilne. Z podstawowych wlasnosci funkcji charakterystycznych wy- Jesli bn = O dla. kazdego n, to rozklad nazywamy, scisle stabilnym. Jesli rozklad
nika, ze jesli X, Xl, X2, ••• sa zmiennymi losowymi o tym samym rozkladzie stabilny jest symetryczny, to jest scisle stabilny, ale nie na odwrót (por. trzeci
Cauchy'ego (z funkcja charakterystyczna e-I!!), to z przyt.oczonych tu przykladów).
Okazuje sie, ze dla danego rozkladu stabilnego stale an sa postaci n1/"', gdzie
Xl + X2 + ... + Xn ~ nX, (2)
exE (0,2]. Wtedy rozklad nazywamy a-stabilnym.
czyli rozklad sumy rózni sie od rozkladu pojedynczego skladnika tylko parame- Po co badac rozklady stabilne? One i tylko one moga sie pojawiac jako rozklady
trem skali. Innym znanym rozkladem o tej wlasnosci jest N (O, 1). Wtedy graniczne uuormowanych sum niezaleznych zmiennych losowych o tym samym
Xl + X2 + ... + Xn ~ nl/2 X.
rozkladzie, czyli wyrazeil postaci
(3)
Xl + ... + X" - b" ,l
W rozdziale 13, poswieconym procesowi Wienera, mozna znalezc jeszcze inny
(l.n
przyklad: dodatnia zmienna losowa odystrybuancie 2(1- <I>(l/JX)) dla x O, ;;O

gdzie <I>jest dystrybuanta rozkladu N (0,1). We wzorach (2) i (3) pojawia sie takimi sumami mielismy juz do czynienia w pra~ach wielkich liczb, gdzie jed-
wtedy czynnik n2. nak rozklad gralJiczny jest ·tr.ywialny. Z nietrywialnym rozkladem granicznym
Sa to przyklady rozkladÓw stabilnych. R.zut oka na flJnkcje charakterystyczne bedziemy mieli do czynienia wkrót;ce.
rozkladu Cauchy'ego i !:ozkladu N (O, 1) moze podsunac p0111ysl,ze gdyby dalo 'Teori,>rozkladów stabilnych z,qstala zapoczatkowana przez Paula Levy'ego (1924)
sie udowodnic, ze e-Iti'" jest funkcja charakterystyczna (powiedzmy, dla ex O), ;;O
j istol;lJie rozwinieta. prze~ Alekpaudra ChinczYnil i W. Doeblina3 (1939).
mielibysmy cala klase symetrycznych rozkladów stabilnych, przy ezym we wzor>lC
(3) pojawilaby sie stala n 1/<>. Rozklady graniczne unormowanych sum, Z.a:: pomoca funkcji charaktery-
stycznych mozna otrzymac prosty dowód jednej Zl wersji pra.wa wielkich liczb
Az tak dobrze nie jest. Oto zadanie na ten temat.
i centralnego twierdzeni<'l granicznego (w calej ogólnosci udowodnimy je w na-
10. Udowodnic, ze <p(t)= e-Iti'" nie jest funkeja charakterystyczna dla o: > 2. stepnym rOl':dziale). I

Nietrudno wykazac, ze <p(t) = e-Iti'" jest funkcja charakterystyezna dla O < CI ~ 1: 15. Prawo wielkich liczb Chinczyna. Udowodnic
I
11. Udowodnic, ze kazda funkcja parzysta, przedzialami liniowa, wypukla. n<'l
<p
Twierdzenie 7. Niech X, Xl, X 2, ...beda ni.ezaleznymi zmiennymi loso-
[0,(0) i taka, ze <p.(0) = 1 jest funkcja charakterystyczna. wymi o tym. sam.ym 'rozkla.dzie i niech EX = O. Wtedy
12. Kryterium Pólya. Udowodnic, ze kazda flmkcja <p parzysta, wypukla na
[0,(0) i taka, ze' <p(0) = 1 jest funkcja charakterystyc>lna. Wykazac, ze'
w szczególnosci <p(t) = e-Iti'" jest funkcja charakterystyczna dla ° < a: ~ 1..
_X_l_+_' '_'_+_)(_'_"
n
-i ;.
13. Podac przyklad dwu róznych funkcji charakterystycznych, równych ni1 pew-
nym przedziale. 16. Centralne twierdzenie :graniczne. Udowochlic
Twierdzenie 8. Niech'X,Xl,X2, ... beda n·iezQ,leznym.i zmiennymi loso-
Nieco trudniej udowodnic, ze <p(t) = e-\tl'" jest funkcja charakterystyczna dla. wymi o tym samym rozk/adzie., n'iech EX =O i V2X = 1. Wtedy
wszystkich a E (0,2). Ponizej przedstawiamy argument wziety z rozwaza.n astro-
nomicznych, ale zredukowany do sytuacji jednowymiarowej. Zalózroy, ze llogól-
Xl + ... + X" -E... N (O,1).
niona sila grawitacji jest odwrotnie proporcjonalna do oclleglosci w potedze fJ, fii '
fJ> O.
17. Korzystajac z twierdzenia 6 udowodnic twierdzenie de Moivre'a-Laplace'a.
14. Na odcinek [-n,n] rzucono losowo (zgodnie z rozkladem jednostajnym) n
gwiazd o jednostkowych masach. Wyznaczyc funkcje charakterystyczna gra-
nicznego rozkladu sily grawitacji w punkcie O. Dlajakich (J rozklad graniczny
istnieje? § 9.3. Twierdzenie Bochnera i wzory na odwrócenie
Podamy teraz ogólna definicje rozkladu stabilnego. Widzielismy juz, ze z funkcji charakterystycznej mozna odczytac momenty
rozklac1u, wiec latwo uwierzyc, ze daloby sie odczytac dystrybuante (i ge-
Definicja 6. Nieeh X, Xl, X2, •.• beda niezaleznymi zmiennymi losowym.i o tym
stosc, jesli istnieje). Do tego celu sluza wzory na odwrócenie. Za ich pomoca
samym rozkladzie f.1-. Rozklad f.1- nazywamy stabilnym, gdy dla kazdego n istnieja
i
stale an > O bn, dla ktÓr-ych
clokollCZYlJIYdowód twierdzenia Bochnera (9.1.6).

Xl + X2 + ... + X" ~ H"x + bn. 3Mll.t,Plllf't.yk belp;ijski, zgina! mlodo w czasie II Wojny Swiatowej.
204 Rozdzial 9. Funkcje charakterystyczne § 9.3. Twierdzenie Bochnera i wzory na odwrócenie 205

Twierdzenie l (Tozsamosc Parsevala). Niech <.p i ?/J beda funkcjami


Wyznaczylismy zatem F za pomoca funkcji charakterystycznej
o nie jest tytul charakterystycznymi rozkladów prawdopodobienstwa /1 i v. Wtedy
'P. _

l: l:
powiesci Otrzymujemy natychmiast znany juz wniosek: funkcja charakterystyczna
Ludluma.
(l) wyznacza jednoznacznie rozklad.
e-ist<.p(s) v(ds) = ?/J(x - t) f.L(dx).
Twierdzenie 3 (O odwrotnym przeksztalceniu Fouriera). Rozklad
D o w ó d, Wystarczy scalkowac obie strony oczywistej równosci
prawdopodobienstwa f.L, któTY ma calkowalna funkcje charakterystyczna <.p,

e-ist<.p(s) = l: eis(x-t) f.L(dx)


ma takze ogmniczona i ciagla
f(x)
gestosc

= -27rl ,100
-00
f,

e-tSx<.p(s)
.
dana wzorem

ds. (7)
wzgledem miary v i zamienic kolejnosc calkowania po prawej stronie. _

Wyznaczymy teraz dystrybuante za pomoca funkcji charakterystycznej. D O wód. Poniewaz funkcje podcalkowe we wzorze (6) sa wspólnie ograni-
czone (co do modulu) przez calkowalna funkcje l<.pl, mozna wejsc z granica
Twierdzenie 2. Jesli t jest punktem ciaglosci dystrybuanty F o funkcji
pod znak calki. Widac wtedy, ze f jest gestosCia rozkladu prawdopodobien-
charakterystycznej <.p,to
stwa /1. Ciaglosc i ogranic%onosc funkcji f sa oczywiste (por. tw. 9.1.3) .•

F(t)
.
= lim
a--+oo lt-co [l- 211"'_00100e-'s . t <.p(s)e-S 2/2
a
2
cls
]
clt.
W niosek 4.
i tyLko wtedy,
Nie1!jemna fu.nkcja charakterystyczna
gdy gestosc f jest ogmniczona.
<.pjest calkowalna wtedy

D o wód. Niech p, bedzie rozkladem prawdopodobienstwa z dystrybuanta


F i funkcja charakterystyczna <.p. Dalej, oznaczmy przez la, a > 0, gestosc D O wód. Koniecznosc warunku zostala juz udowodniona w poprzednim
rozkladu N (O, a2), a przez ?/Ja - jego funkcje charakterystyczna. Mamy twierdzeniu. Zalózmy wiec, ze f :S; M. Ze wzoru (5) po podstawieniu t = O
otrzymujemy
la (x) = l (X); ,
;'1 -q)a(t) ="fi; ·11(at). (2)

Tozsamosc Parsevala (l) przybiera postac 27r l 100


-00 <.p(s)e--S 2 l_a 2 ds = 100
o-00 11/a(x)f(x) dx:S; M.

co po uwzglednieniu
l: e~ist<.p(sha(s)

zaleznosci
ds

(2) daje
= l: ?/Ja (x - t) p,(dx),
(3)
Funkcja podcalkowa po lewej stronie jest nieujemna, i gdyby 'P nie byla
calkowalna, lewa strona zmierzalaby do nieskonczonosci przy a -4 00 .•

Twierdzenie 5 (Tozsamosc Plancherela).: JezeL'i rozklad prawdopodo-


bienstwa f.L ma gesto.4c f 'i ftmkc.ie chamkterystyczna <.p, to 1'P12 jest calko-

-00 e-1St<.p(S);'ll
100. (S)
; ds ="fi; 100
-00 11 (a(::!; - t») f.L(clx) ,
(4) wCl,Lna wtedy i
tyLko wtedy, gdy f2 jest calkowalna. W tym przypadku

czyli
)'00
-'00 f2(y) dy = l
27r Loo
(OO 1<.p(tW elt.
(8)

-
27r,l 100.
-"O
e-,st<.p(s)e-S /2a ds
2 , 2
= 100
-00
11/aC]; - f;) f.L(cl::r:). (5)
D o w ó d. Zauwazmy, ze 1<.p12 jest funkcja cha,rakterystyczna symetryzacji

Po prawej stronie rozpoznajemy gestosc splotu f.L * Il/a, zatem lewa strona rozkladu p" tj. rozkladu f.L* p" gdzie jL(A) ~ f.L(--A) dla A E B(R). Gestoscia
takze jest gestoscia tego rozkladu. Oznaczmy jego dystrybuante przez 1"< •. tego rozkladu jest splot h = f * j, gdzie j(x) = fi-x):
Oczywiscie przy a -+ 00 marny f.L* 11/a ~
dystrybuanty F jest
f.L, zatem w punktach ciaglosci
h(x) = l: f(y - x)f(y) dy.
(9)

Jesli funkcja 1<.p12 jest calkowalna, to h jest na; mocy tw. 3 ciagla i ograni-
F(t) = !im Fa(t)'
a_~ = a-oo
lim j't-00 [2.100
2w -00 e-ist<.p(S)e-s2/2a2 dS] dt. (6)
czona, zas wzór (7) po podstawieniu x = ° daje (8).
"Oli Rozdzial 9. Funkcje charakterystyczne § 9.3. Twierdzenie Bochnera i wzory na odwrócenie 207

Na odwrót, jesli f2 jest calkowalna, tÓ z nierównosci Schwarza zastosowanej Wzór na odwrócenie (7) zastosowany do prawej strony (12) dla pary funkcji
do (9) wynika, ze h jest ograniczona. Wtedy na mocy wniosku 4 funkcja ga, lf;a daje
1'P12jest calkowalna. _

Wniosek 6. Jesli I li g sa gestosciami, a'P i1/; - ich funkc.iami charakte-


1: .f.a(.X)'Ij!" (x)ciu," dx = 1: ga(t - V')'P1l.(t) dt. (13)

rystycznymi, i
to 12 g,2 sa ca.lkowalne wtedy i
tylko wtedy, gdy sa calkowalne Jesli podstawimy w (13) v, = O i wezmiemy a -+ O, otrzymamy
1'P12 i 11/;12. W takim przypadku mamy

-00,../,,(3;)
l'oc' dx = 'Pn(O) =ll,
'. I"
l '••
(10)
.f[00"
-00 lf(y)g(y) dy 1
= 27f 100
-00 'P (t)1/; (t) cl/;. zat.em fn jest gestoscia· '~ "
Jesli a -+ O, lewa. strona (13) zmierza (na mocy tv!. Lebesgue'a o zbieznosci
D o wód. Wystarczy fastosowac twierdzenie 5 do gestosci (f + g) /2 .• unajoryz.owanej) do funlcji. charakterystycznej rozkladu prawdopodobien-
\
st.wa o gestosci fn' Prawa strona jest wartoscia, oczekiwana 'P1l. wzgledem
Mozemy teraz podac dowód dostatecznosci w twierdzeniu Boclmera (tw. rozkladu prawdopoc1obiellstwa o gestosci ga(t ..:. u). Poniewaz rozkladem
9.1.6). granicznym jest óu, wprost z definicji slabej zbieznosci wynika, ze prawa
strona zmiern do 'Pa (u). Zatem 'Pn jest funkcja' charakterystyczna odpo-
D o wód. Z ciaglosci 'Pwynika istnienie, a z dodatniej okreslonosci - nic- wiadajaca in.
ujemnosc ponizszych calek:
Udowodnimy teraz jedrnosc ciagu rozkladów o gestosciach fn. Z tozsamosci
Plancherela (10) mamy
=-
fn(x)
27fn l laln e-'x(u-v)'P(u
o . o
- v) dvdu ~ O.

/00
-D.O g",(x)fn(x) dx; 1 .1-00
= 27J' [00 'Pn~.t)1/Ja(t) dt,
Zamieniajac zmienne na u, t = u - v, otrzymujemy
czyli
(11)
fn(x) = ~jn
27J' -n e-itx(l_11)'P(t;)dt.
. n
["(1-
.f -(( a.
j:rl)fn(X)d.X = ;), jn
-n (Sin(at!~)2(1_lli)'P(t)dt.
_7J' at/2 n (14)
Pokazemy, ze fn jest gestoscia rozkladu prawdopodobiellstwa pewnej zmien- Poniewaz
nej losowej (oznaczmy ja Xn) o funkcji charakterystycznej
-
l 1'00
'Ij!,,(t) dt = -1
27r . -00 a l

= (.1- -;;:- (tw. 3 o odwrotnym pr:óCksztalceniu Pouriera dla x = O), to dla ustalonego
'Pn(t) Iti) 'P(t)l[-n,nJ(t).
h> O z postaci 1p,,(t) mamy 2: Jitl>h 'Ij!,,(t) dt -+ O, gdy a -+ 00 (z twier-
W tym celu wykorzystamy funkcje dzenia Lebesgue'a) i ~tl~h i;
'I/Ja(t,) dt -, 1. Zatem gdy a -+ 00, to prawa
strona (14) zmierza do 1 (jednostajnie wzgledem, n). Stad dla dowolnego
,,> O,
ga(x) 1 ( 1- -;;
= -; lxi) l[_a,a](x),

czyli gestosci rozkladów prawdopodobienstwa o funkcjach charakterystycz- P(IXnl ~ K) = ,-h


fI( , fn(x) dx ) jI(-I( ( 1- ~I'rl)
a In(x) dx ~ l- c

nych 1/;a(t) = (Sin~;;c') f (tabela 2, § 9.1). dla dostatecznie duzych K. Wobec tego (Xn)n jest rodzina jedrna, mozna
zatem wybrac podciag Xnk zbiezny do pewnej zmiennej losowej X, dlatego
Pomnozymy teraz obie strony równosci (11) przez 1/Ja(x)eitLx i po scalkowa-
niu wzgledem x otrzymamy
lim'Pxn,
k k
(t) = hm 1 - -n
n (Iti) 'P(t)l[-n 1
. (t) = 'P(t)
n,]

1: In (x)1/;" (x)eiux dx = 2~ 1: [1: e-i(t-tL)X1/;" (X)dX] 'Pn(t) dt. (12) jest funkcja charakterystyczna. _
209
208 Rozdzial 9. Funkcje charakterystyczne § 9.4. \Vielowyrniarowe funkcje charakterystyczne

Zadania Przyklad 1. Obliczymy funkcje charakterystyczna n-wymiarowego roz-


kladu normalnego. Zaczniemy od zmiennej losowej Y = (Y1, ... Y,,) o stan-
1. Wykazac, ze dla rozkladu prawdopodobienstwa p, o funkcji charakterystycz- dardowym rozkladzie N (O, I). Mamy
nej rp zachodzi wzór
cPy(t) = Eei(tly,+".+tnYn) = e-l I>~= e-l(t,t).
p,({c}) = a-+oo
lim a ja-a e-icsrp(s)
21 ds. Jesli X = AY, gdzie A: Rn --+ Rn jest odwzorowariiem liniowym, to
2. Wyznaczyc
cpx(.s) = e-~(Ats,Ats) = e-l(AA's,s) = e-l(Qs,s),
u-oo
Iim 21a l·a
-a Irp(s)12 ds,
gdzie Q jest macierza kowariancji (por. § 5.6 i § 5.10).
gdzie rp jest funkcja charakterystyczna rozkladu p,.
Wreszcie dla naj ogólniejszego rozkladu normalnego, czyli rozkladu zmien-
3. Wy~zac, ze rozklad prawdopodobienstwa p, o iimkcji charakterystycznej rp
Rozklad nej losowej X = AY + m, m E R"', mamy
jest bezatomowy wtedy i tylko wtedy, gdy
bezatomowy to 'Px(t) = ei(m,t)e-~(Qtot). (1)
inaczej rozklad o
ciaglej a~oo
!im 2a
~ ja-a Irp(s)12 ds = O. Postac tego wyrazenia mozna bylo zreszta przewidziec na podstawie zna-
dystrybuancie.
t4. Twierdzenie Sheppa. X i Y sa niezaleznymi zmiennymi losowymi o tym jomosci jednowymiarowej funkcji charakterystycznej .•
samym rozkladzie i zerowej sredniej. Wykazac, ze
Postac funkcji charakterystycznej wielowymiarowego rozkladu normalnego
[IX + y! ~ [IX - YI·
sugeruje natmalna modyfikacje jego definicji. Na razie macierz Q musi byc
dodatnio okreslona. Zauwazmy jednak, ze jesli Q jest nieujemnie okreslona,
§ 9.4. Wielowymiarowe funkcje charakterystyczne Q, gg Q + d, to macierze Q"sa dodatnio okreslone dla c> O. Z kolei bio-
rac c -> O widzimy, ze rozklad o funkcji charakterystycznej danej wzorem
Jesli X jest wektorem losowym, zdefiniujemy funkcje charakterystyczna (1) jest granica rozkladów normalnych. Jesli macierz Q nie jest dodatnio
Nie chce mi sie CPx: Rn --+ C wzorem okreslona, taki rozklad jest skupiony na podprzestrzeni nizszego wymiaru
tego pisac. t ER"'. i rozpatrywany na tej podprzestrzeni ma tam gestosc gaussowska (z wyjat-
B. Linda cpx(t) = Eei(t,X) ,
kiem skrajnego przypadku rozkladu jednopunktowego). Od tej chwili wiec
Odpowiednie twierdzenia dowodzi sie metodami ·takimi, jak w przypadku rozklad normalny definiujemy jako rozklad o funkcji charakterystycznej da-
jednowymiarowym. Pozostawiamy to Czytelnikowi jako cwiczenie. nej wzorem (1), gdzie macierz Q jest nieujemnie okreslona.
Zwrócmy uwage, ze jesli X = (Xl,'" Xn) i t = (tl, O, ... O), to Teraz rozklad
Sformulujemy teraz kryterium niezaleznosci ~miennych losowych.
jednopunktowy
cpx(t) = CPx, (tl)'
Twierdzenie 2. Zm.ienne losowe Xl,'" Xn sa niezalezne wtedy tylko jest normalny!
Z wielowymiarowej funkcji charakterystycznej mozna zatem bez trudu od- wtedy, gdy
czytac informacje o rozkladach brzegowych jedno- i wielowymiarowych.
Z definicji widac takze, ze funkcja charakterystyczna wektora losowego X
'P(Xl, .. ,X.,,)(i;I>"" ln) = CPXl (tt)~,··· lf'x,,(tn).

jest wyznaczona jednoznacznie przez rozklady zmiennych losowych (l, X),


D O w ó cI. Warunek jest oczywiscie konieczny; dostatecznosc wynika z twier-
gdzie t E Rn. Wraz z twierdzeniem o jednoznacznosci daje to godny uwagi
dzenia o jednoznacznosci, Gowiem produkt rózkladów ).LX,,···, ).LX" ma
wynik, nie do uzyskania - o ile nam wiadomo - bez transfonnacji Fo-
funkcje charakterystyczna 1jJ(tl,'" tn) = lpx, (tl) ..... 'P x" (tn).
uriera: miara probabilistyczna na Rn jest wyznaczona jednoznacznie przez
miary pólprzestrzeni. Ponizsze twierdzenie pozwala sprowadzac: badanie zbieznosci w Rk do ba-
dania zbieznosci w przypadku jednowymiarowym.
Odpowiednik wzoru (9.1.2) przybiera postac

CPAX+b(.s) = ei(s,b)cpx(At.s), Twierdzenie 3 (Cramera-Wolda). Jezeli X,X1,X2,.·· .sa wektoram.i

gdzie b E Rn, zas A:Rn --+ Rn jest odwzorowaniem liniowym. Wykorzy- lo.sowymi o wartosciach w Rk, to Xn .E.. X wtedy i tylko wtedy, gdy
stamy ten wzór w ponizszym przykladzie . (t, Xn) .E.. (t, X) dla kazdego t E Rk

r_ r_ r_ .•.... - r •••••••• ··- r ••••• ·· 1' ••••• r •••••• r•••••• · r_ ,.•...•.•... I •••••• f ••••••. ' r___. r •••••••• ·-·'-· r_ <- ,-
'J 10 Rozdzial 9. Funkcje charakterystyczne

D o wód. Koniecznosc jest oczywista, bo funkcje cos (t, .), sin (t, -) sa ciagle
i ograniczone.
Dostatecznosc. Gdy (t, Xn) ~ (t, X), to z definicji slabej zbieznosci

Eei(t,Xn) -+ Eei(t,X),

czyli dla kazdego t mamy 'PXn(t) -> 'Px(t), zatem z tw. Levy'ego-Cramera
Rozdzial 10
Xn~X,.

d Centralne twierdzenie
Zadania
.
1. Twierdzenie Kaca. Wykazac, ze jesli X, Y sa ograniczonymi zmiennymi granIczne
losowymi spelniajacymi warunek E: (Xkyl) = E:XkE:yl dla k,l calkowitych \ I" • ~,\~"

nieujemnych, to X i Y sa niezalezne.
Uwaga. W swietle tw. 2 jest oczywiste, ze zmienne losowe X i Y sa nieza-
lezne wtedy i tylko wtedy, gdy E: (cp(X)1jJ(Y)) = E:cp(X)E:,jJ(Y) dla wszystkich § 10.1. Wprowadzenie
funkcji ciaglych i ograniczonych cp, 1jJ (wynik ten daje sie oczywiscie otrzymac
i
bez funkcji charakterystycznych). Twierdzenie Kaca pozwala na zawezenie
rozpatrywanej klasy funkcji. Jesli Y = lA, kryterium niezaleznosci jest jesz- W zadaniu 9.2.16 udowodnilismy najprostsza wetsje centralnego twierdze-
cze prostsze: wystarczy, by E: (cp(X)lA) = E:cp(X) . P(A). Wykorzystamy to nia granicznego dla niezaleznych zmiennych losowych o tym samym rozkla-
w dowodzie tw. Dynkina-Hunta (13.4.1). dzie. Teraz udowodnimy znacznie ogólniejsze twierdzenie tego typu. Mówi
ono mniej wiecej tyle, ze suma duzej liczby niezaleznych skladników o skon-
Pozytki z funkcji charakterystycznych doskonale ilustruje nastepne zadanie, za- czonej wariancji, gdzie zaden skladnik nie dominuje, ma w przyblizeniu
wierajace stosunkowo prosty dowód niezaleznosci przyrostów procesu Poissona. rozklad normalny.
*2. Udowodnic, korzystajac z twierdzenia 2, ze proces Poissona (patrz przyklad Tlumaczyloby to ws\\echobecnosc ro\\kladu normalnego w 'zadaniach "z zy- Nieujemna
5.8.21) jest procesem o przyrostach niezaleznych i ze Nt .- Ns ma rozklad znllenna losowa
cia". Moz,na rozsadnie argu'mentowac, ze wzrost, waga, iloraz inteligencji
nie moze lniec
Poissona z parametrem A(t - s). i inne mierzalne cechy osobnicze, zalezne od wielu czynników genetycznych rozkladu
Wsk. Udowodnic i srodowiskowych, powinny miec; rozklad \\blizony do normalnegol. Argu- normalnego.
menty takie sa jednak czesto naduzywane2.
Lemat 4. Niech h: R+ --> C bedzie funkcja mierzalna, Ihl :::; l, i
taka, ze h -- l W dalszym ciagu bedziemy rozpatrywac tablice zmiennych losowych po-
ma nosnik ograniczony. Wówczas y = I1;;'=l h(Sk) jest zmienna losowa dobr-ze sta.ci (Xn,k,,), gdzie K:n -t 00, n = 1,2, .... Zalozymy, ze zmienne losowe
okr'eslona, calkowalna i w kazdym wierszu, czyli Xn.1, Xn,2, ... , Xn,k". sa niezalezne. Taka tablice
E:Y = e>' Jooo (1.(,,)-]) du nazwiemy schema.tem seTii. Dla, wygody przyjmiemy kn =
n. Wszystkie
t.wierdzenia i rozumowania z t.ego ro\\dzialu pozostaja, w mocy dla ogólniej-
Wiemy, ze Nt = Er'=llIO,tj(Sk). Niech dla B E B(R) szych schemat.ów serii po oczywistych modyfikacjach.
00 Znanajuz wersje centralnego twierdzenia granicznego mozna sformulowac w
N(B) D lB(Sk)
dl'"
=
k=l
= #{k ~ 1: Sk E B}.
jezyku schematów serii. Jesli (Xn) jest ciagiem niezaleznych zmiennych loso-
wych o tym samym rozkladzie i wariancji cr2, definiujemy Xn,k = Xk/cr,jii
dla k ~ n. Mamy wtedy EXn,k = O, L~=l V2 Xn,k = l, a ponadto wszystkie
Wykazac
I . I oznacza tu
l Albo do logarytmicznie-normalnego. Zmienna losowa X ma taki rozklad, gdy log X
ma rozklad normalny. Czasami bowiem wplyw niezaleznych czynników na dana ceche
miare Lebesgue'a. Stwierdzenie 5. Jesli Bl' B2, ... , Bn E B(R+) sa rozlacznymi zbiommi ogm-
niczonymi, takimi, ze IBjl > O, to N(Bl), ... ,N(Bn) sa niezalezne zmienne i moze
2
n1iec charakter lnultiplil<at~,...wnYl nie addytywny.
Jak zauwazyl Stanislaw J{ wapiell, w zastosowaniach st.atystycznych zarówno sred-
losowe N(Bi) maja rozklad Pois(AIBil). i
nica jablka, jak jego waga miewaja rozklad normalny. Co"móglby odpowiedziec na to
statyst.yk? .

211
212 § 10.2. Twierdzenie Linde!x'lga-Levy'ego 213
Rozdzial 'lO. Centralne twierdzenie graniczne

zmienne losowe w wierszu maja ten sam rozklad (a wiec zaden skladnik nie Przyklad 3. Niech (Un) bedzie ciagiem BernouJJiego. Wtedy z symetrii wynika,
ze
dominuje; por. zad. 2). Wtedy rozkladem granicznym dla sum elementów P(Un = ±l) ,
wierszy jest rozklad normalny. = 1/2.
Postulat, by zaden skladnik nie dominowal, bedzie wyrazony za pomoca 2P(~Uk < o) + P(~Uk.= o) = 1,
nastepujacego warunku: zatem

Powiemy, ze schemat serii (Xn,k) spelnia warunek Lindeberga, jesli dla


kazdego r > O
~I= ~P(fUkk=l
Ln(r) = -2
S
1 n
'\:""'
~
n k=l
E ((Xn,k - EXn;k)21{IXn ,.-eXn , kl>,·sn}) --}
n--+oo O,
Ip(fuk
k=! < o) -
-_.-~-._-_.-
- 2
1
er:') l
V7m-)2;;:
2n
l
2
= o) ~
1
,;n'
.
gdzie s~ = L~=l V2(Xn,k). Zastepujac zmienne losowe Xn,k przez
Zadania
Xn,k - EXn,k
Sn 1. Udowodnic uwage 1 b).
widzimy, ze bez straty ogólnosci mozemy zakladac, iz E Xn,k = O, s~ = 1. 2. Sprawdzic, ze jesli X, X l, X2, ... sa niezaleznymi zmiennymi losowymi o tym
Taki schemat serii nazwiemy znormal'izowanym. samym rozkladzie, EX = O, V2 X = 1, i Xn,k = Xk/,;n, to schemat serii
(Xn,k) spelnia warunek Lindeberga.
Uwaga 1. Gdy znormalizowany schemat serii spelnia warunek Lindeherga,
to 3. Udowodnic, ze warunek Lapunowa: dla wszystkich n, k naturalnych i dla
pewnego o > Ojest E!Xn,k!2+S < 00 oraz
a) na wariancje sumy wiersza maja wplyw wszystkie wariancje skladników:.
maxk';;n o-;"k --> O, gdy n --> 00.
r 1 ~~ EIXn,k - E~n,kI2+Ó
n-=-~s;'+S ' = O,
k=l
Istotnie, ()~,k ,;;;r2 + E (X~,kl{1Xn.ki;;'r}) ,;;; r·2 + Ln(T); li
b) Xn,k sa asymptotycznie maJe, czyli dla dowolnego T > O pociaga za soba warunek Lindeberga.
4. Udowodnic, ze gdy Xl, X2, sa niezaleznymi zmiennymi losowymi takimi,
maxP(IXn,kl ;;:.r) ----+ O.
k~n n--+oo ze IXnl ,;;; f( < 00, n = 1,2, oraz s;' = L~=l V2 Xn --"+ 00, to ciag (Xn)
Hpelnia warunek Lindeberga (oznacza to, ze warunek ten jest spelniony dla
Na zakonczenie warto zwrócic uwage, ze nie zakladamy nic o zwiazkach po- schematu serii (Xn,k), gdzie X".k = Xk dla r. ,;;; n).
miedzy poszczególnymi wierszami: zmienne losowe z kazdego wiersza moga
byc okreslone na osobnej przestrzeni probabilistycznej.
§ 10.2. Twierdzenie Lindeberga-Levy'ego
Nastepujace twierdzenie rozstrzyga kwestie dokladnosci przyblizenia w central-
nym twierdzeniu granicznym, o ile zalozymy istnienie trzeciego monlentu.
Ponizsze twierdzenie zostalo udowodnione przez J. W. Lindeberga w 1922
Twierdzenie 2 (Berry-Esseen). Jdli (Xn) jest ciagiem niezaleznych zmien- roku, jako uogólnienie wielu czesciowych wyników.
nych losowych o tym samym mzkladzie 'i EIXll:J < 00, Sn= Xl + ... + Xn,
n = 1,2, ... , 'to Twierdzenie 1. Niech (Xn,k) bedz'ie znorm:alizo1JJanym schematem serii.
Jesli speln'ia on 'Wanmek L-indebe'rga, czyli dla, kazdego r > O
(l) n
tER ..jV2 Sn
sup!p(Sn-ESn <t) -!PU)I ';;;CEIX1-E~'(113,
()'J"fil

gdzie (]' = ..jV2Xl, 1/V27f';;; C < 0,8.


J~~Lk=l EX~,kl{IXn,kl>r} = O.
to
Bez dodatkowych zalozen o zmiennych losowych rzedu oszacowania nie mozna po- n

- -
prawic. Dla schematu Bernoulliego prawa strona (1) jest równa C (p2 + (/) 1v'nP<i,
LXn,k ~ N(O,l).
z czego wynika tw. 7.6.12. Prosty przyklad (oparty na podobnym ciagu zmiennych k=l
losowych) pokazuje, ze C ;;:.1/ V27f i rzad oszacowania 1/,;n nie da sie polepszyc .

••••• ----, •••••• _. , ••••• 1111 •••• mt


"1·'1
Rozdzial .10. Centralne twierdzenie graniczne § 10.2. Twierdzenie Lindeberga-Levy'ego 215

V'l dowodzie skorzystamy z dwóch nierównosci. Pierwsza jest oczywista: ZaLem


, W,
iex-1-xl<x2, XE[-~,H (1) ° ~..Pn(t) < -r'
6 + t2 Ln(r-).
Oto druga (latwy dowód indukcyjny pomijamy): niech al, ... , ctn, Ol ... On E Rutynowy argument pokazuje, ze Pn(t;) -l 0, gdy n -l 00: ustalamy I:: > O,
E C i lad, Ibil < l dla = 1,2, n. Wtedy i wybieramy T takie, ze 1'ltl3 /6 < 1::/2; isl:nieje takie N, ze dla n> N zachodzi
nierównosc t2 Ln(r') < [/2, a zatem Pn(t) < I:: ella n > no.
lal' .... an - 1>1 bn I < lal - bt! + ... + lan - bnl- (2)
Pozostaje wykazac, ze vn(t) -l O, gdy n -l 00. Nt1 mocy (l) i uwagi 10.1.1a
\
D o w ó d twierdzenia 1. Ustalmy t E R. Niech Zn = L:;~=lXn,k, 'Pn,k = n n
= <PXn,kl ([nIk
2 C'v2
= CAn"k' Vn (t)/L1f<l4
"'"
k=1
4' CJnk
1
"'" ;-1'
/lf.4(,
-
m,lX(Jnk'
k~n 2)l L
k=l
CJnk - -4
2 , _l.t4 nlaxCJnk
k~n - 2 I -l °.
Wykazemy, ze 'Pz,Jt) .----;
17.-+00
e-t"/2, czyli do funkcji charakterystycznej roz-
kladu N (O, l). Niezaleznosc zmiennych 10sowycl1 w kazdym wierszu daje KOI'lCZY to dowód twierdzenia. _
n
'PZ,,(t) = II
k=l'
'Pn,k(t.),
\Varunek Lindeberga
losowych Zn do N (O,
nie jest konieczny dla zbieznosci rozkladów zmiennych
l), co cpokazuje oczywisty
".\

a zatem na mocy nierównosci (2) Przyklad 2, Niech wszygtki~' zmienne losowe X;",k w schemacie serii maja
rozklady N (O, (J~.,k ) . ,,- ,. ze pierwsza
ZalóiITty, zmjenna losowa w wierszu ma
rozklad N (O,~) (pozostale moga miec np. równe wariancje, byleby suma
l'Pz" (t) - e-t2/21 = Itr
k=l 'Pn,k(t) fr
- k=l e-er~'kt2/~1 < wariancji w wierszu wynosila l). Wtedy warunek Lindeberga nie jest spel-
n

\iV.vnw: litX'·~IJ..
..
< L
k=l
l'Pn,kU) - e-er~kt2/2/ =
nicmy, ale CTG zach.odzi, bo Zn ~ N (O, l) .•

n W powyzszym przykladzie jeden ze skladników wiersza dominuje. Jesli to wyklu-


IlIo~,nll swobot.hliB
d"pi~IlC, bo ma
czymy, warunek Lindeberga okaze sie konieczny,
sl'odn ia zero. = k=l
'\'
~ IE: (eitX".k - l - itX nIk _ + lt2
2 X2nIk ) + l _lt2CJ2
2 'n,k _ e-er;;"kt2/2/ ~
,,::
n n Twierdzenie 3 (Fellel'a). Jesli zmienne losowe (X",k) t11!or'zaznormalizowany

L
< k=l IE (eitX"'k -1- itXn,k + ~t2X~,k)' L11-
+ k=1 ~t2CJ;',k _ e-er~",i2/21 =
schemat serii i L:~=l X",k ..E..,N (0, l), a ponadto

max 7)2 X ",k, ---t O,


= Pn(t) + vn(t). k~n n-co
to zmienne losowe (X",k) spelniaja waru.nek Linrleberga.
Wykazemy, ze oba wyrazenia po prawej stronie zmierzaja do zera, gdy
n -l00.
D o wód. Wykazemy, ze równosc
Aby oszacowac Pn U)', sume wart.oSci bezwzglednych calek rozbijemy na dwie
sumy: calek po zbiorze {IXn,kl < T} i {/Xn,kl > r} Na mocy nierównosci
A.1A(c) pierwsza suma szacuje sie przez - L1og<Pn,k(t) = L(1- <Pn,dt)) + Rn(t), (3)
k=l k=1

° dla n ......•
k=l'
L
~ E It3 X~,kll{IX".kl";r}
6 "" Itl3
<>::
L CJ",k --.!!.E.6
61 k=l•~ 2 1'.
definiuje funkcje Rn(t), gdzie R,,(t) -~
Z nierównosci A.1.4(b) wynika, ze:
00.

. 2
Do oszacowania drugiej sumy posluzymy sie nierównoscia A.1.4(b) zasto-
sowana do E: (eitX",k - l - itXn,k). Cala druga suma nie przekracza wtedy 11- <p",k(t)1= If (ei'X".k -1- itXn,k) I :;:;~[X~,k' (4)

n.
Na mocy zalozenia maxb(" EX;'.,h -,0, co gwarantuje istnienie logarytmów w (3).
t2)-:-'E:X2k1{IX
4.:-.1 n, n,k />,.} <t2Ln(r). Oszacowanie na. R,,(t) dla dostil.tecznie duzych n wynika z równosci log z =
k=1 (z - l) + log(l + z - l) - (.: - l), z A.1.2, A.1.4(b) i (4):
216 Rozdzial 10: Centralne twierdzenie graniczne § 10.2. Twierdzenie Lindeberga-Levy'ego 217

Dla danych n, i c mozemy wyznaczyc z centralnego twierdzenia granicznego takie


n no, by dla n > no zachodzilo

IRn(t)1 :'S :L
k=l
I'Pn,k(t) - 112 :'S T:; l'Pn,dt) - 11· :L
k=l
l'Pn,dt) - 11 :'S
p(IXl+.~.+Xn -EXll ~c:) :'Sn.
2 n 2
Zwykle bierzemy c: i n bliskie O. Oto rozumowanie, prowadzace do znalezienia no·
:'S ~2 . max
k~-n !'Pn,k(t) - 11· '"
~ EX;',k = ~2 .m~x
k~n l'Pn,k(t) - -->
11 n-'oo o. Poniewaz
k=l

Ustalmy teraz c > O. Lewa strona (3) zmierza do ~t2, zatem i czesc rzeczywista
prawej strony ma te sama granice. Oznacza to, ze
p (I Xd ',;!' + Xn_ EXll < c:) = w( c:) _w(~ c::) = 2W(C::) -l,
to chcemy, by 2(1 - w(c:yn/a)) :'S (~, czyli w(evn/a) ~ 1- (n/2). Znajdujemy

~t2 :L
n
- k=l 1!xIC< (1- cos tx) ,un,k(dx) = :L
n
k=l 1 Ixl>< (l -. cos t:t) ,un,k(rlX) + Re Rn(t),
takie ;3, ze <1>(;3) = l - (0'./2). Z monotonicznosci W mamy cyn/a ~ (3, a stad
n ~ ;32a2/c:2
gdzie /-,n,k jest rozkladem zmiennej losowej Xn,k.
Gdy nie znamy 0'2, to chcac skorzystac z tego wzoru powinnismy znac ograniczenie
Funkcja podcalkowa po prawej stronie nie przekracza 2 < po lewej zas
2:c2 / e2, a2 :'S K. W szczególnosci, gdy zmienne losowe Xi licza, czy zaszlo zdarzenie A

ex2/2. Korzystajac z tego i dzielac obie strony przez ~t2, otrzymujemy w i-tym doswiadczeniu (czyli Xi = l, gdy zaszlo zdarzenie A, Xi = O, gdy nie
zaszlo), to EXi = P(A) i '02 Xi = P(A)(l - P(A)) :'S 1/4, zatem

. ~r
1- .L.
k=l JI.
IxlCE
X2 ~!n,k(dx):'S 4
't:"2t2 + T2IRn(/;)I.
2
n ~;32 /4c:2 .•

Prawa strona moze byc dowolnie mala, jesli wziac dostatecznie duze ·t i dobrac Zadania
dostatecznie duze n. Za,tem i lewa strona zmierza do zera, co daje warunek Lin-
deberga .•
1. Józio zalozyl sie z Olkiem, ze w 100 rzutach kostka uzyska w sumie nie mniej
niz 400 oczek i w tym celu.rozpoczal cwiczenia. Ile serii po 100 rzutów musi
Z zad. 8.3.2 wiemy, ze gdy Fn ~ F i P jest ciagla, to dystrybuanty F" sa
srednio wykonac, zeby doczekac sie takiego wy::,iku?
zbiezne jednostajnie do F. Stad wynika oczywisty, ale bardzo pozyteczny
2. Na poczcie pojawia sie 100 klientów dziennie, kazdy z nich dokonuje wplaty
wniosek, z którego korzysta sie stale w typowych zadaniach:
(lub wyplaty) Xi, = 1,2, ... ,100, gdzie Xi sa niezaleznymi zmiennymi
,i

losowymi o tym samym rozkladzie, zerowej sredniej i wariancji równej 1002.


Wniosek 4. (a) Jesli (Xn,k) jest schematem serii spelniajqcym Vla7"1Lnek Ile gotówki nalezy miec w kasie rano, by z prawdopodobienstwem 0,99 na
Lindeberga, mn = [(Xn,l + ... + Xn,n), s;; = 1)2 X",l -/- ... + 1)2Xn,n, to koniec dnia nie zabraklo pieniedzy? Zakladamy, ze w ciagu dnia ewentualne
q; jest braki uzupelnia ze swojej kieszeni naczelnik, ale wieczorem chce odzyskac
dystrybuanta swoje pieniadze.
rozkladu N (0,1). sup !P(Xn,l
aER' -/- ... -/- Xn,n .;;;a) - <P (9' -Bnmn) 1----;
n-.C<) O (5) Jak zmieni sie odpowiedz, gdy jest 100 urzedów pocztowych, pracujacych w A jesli naczelnik
nie chce
tych samych warunkach i mogacych pozyczac sobie nawzajem gotówke?
(b) Jesli (Xn) jest ciagiem niezaleznych zmiennych losowych o tym samym ryzykowac? Do tej
3. Rzucono 1000 razy kostka. Znalezc przyblizenie prawdopodobienstwa, ze sytuacji pasuje
TOzkladzie, [Xl = Tn, 1)2Xl = (J2, to nierównosc
suma oczek bedzie zawarta miedzy 3410 a 3590.
7.3.1(2).
4, Dane sa niezalezne zmienne losowe o tym samym rozkladzie X, X l, X2, ...
(6) i EX = O, O < a2 = '02 X < 00. Wyznaczyc w zaleznosci od a, CI< E R
sup P(X1
aER 1 . + ... + Xn .;;;a) -. <P (a-mn)1
(J y fi,
---;:;;; n-·oo
----; O.

Nalezy podkreslic, ze o\3zacowania (5) i (6) mówia o bledzie be:ówzglednym n-oo


lim p(!XI + nO:
... +X" I:> a).
przyblizenia; nie ma gwarancji, ze blad wzgledny zmierza do zera.
5. W Polsce jest 24,6 mln podatników (dane z roku 1998) i kazdy z nich myli sie
Przyklad 5. W 7.4 pokazalismy jak obliczac calki za pomoca metody Monte
§ przy wypelnianiu zeznania podatkowego. Wartosc bledu dla i-tego podatnika
Carlo. W tym i w wielu innych przykladach wykorzystuje sie mocne prawo wiel- jest zmienna losowa Xi, gdzie EXi = O i '02 Xi = 10000, czyli .../'02Xi = 100
kich liczb, a wiec fakt, ze dla niezaleznych zmiennych losowych o jednakowym (zlotych); ponadto zakladamy niezaleznosc Xi. Jaka jest szansa, ze straty
rozkladzie X, +"'+Xn ~ EXI. Ale jak szybko jest zbiezny ten ciag? panstwa w wynikn tych bledów przekrocza l grosz na podatnika? A 3 grosze?
§ 10.2. Twierdzenie Lindeberga-Levy'ego 219
218 Rozdzial 10. Centralne twierdzenie graniczne

6. Jas i Stas twierdza, ze posiadaja zdolnosci telekinetyczne; Jas rZ\lcillOO razy


*15. Oznaczmy przez Bn liczbe inwersji, a przez Zn liczbe cykli w permutacji
:.\bioru {l, 2, ... , n}. Udowodnic, ze
kostka i uzyskal 490 oczek, natomiast Stas w 100 rzutach moneta otrzyrnal
65 orlów. Który z nich ma wieksze zdolnosci telekinetyczne? Przedyskutowac
odpowiednie kryterium. a) 6
Bn - n2/4
n3/2
..!!.....AI (O, 1),

7. Ile partii gry w kosci musial rozegrac kawaler de M.ere, zeby zorientowac sie
w róznicy szans zajscia zdarzen opisanych w zadaniu 2.2.18, miec rozsadna i b) Zn-logn ..!!.....AI(O,l).
pewnosc, ze wynik jest statystycznie znaczacy, czyli ze ewentualna róznica (log 71,)1/2

czestosci nie jest dzielem przypadku? Tego wdzaju problem jest typowy ula 16. Zmienne losowe X; sa niezalezne i maja ten sarn rozklad; P(Xi = a) =
statystyki; nalezy wymyslic i przedyskutowac test statystyczny.
= P(Xi = l/a) = 1/2, przy czym a > 1. Zbadac'zbieznosc wedlug rozkladu
8. Zmienne losowe Xl, X2, ... , sa niezalezne i P(Xk = k) = P(Xk = -le) = ~. ciagu zmiennych losowych Z'n = (Xl' .... X.,,)J;vn.
Niech B~ = I:~=ITJ2 Xk. Zbadac zbieznosc wedlug l"Ozkladu ciagu 17. Wielowymiarowe CTG. Niech X,X1,X2, ... beda niezaleznymi wekto-
XI + ... + x." rami losowymi o tym saruym rozkladzie, przy czym EX = O i wspólrzedne
Sn wektora X maja skonczone wariancje. Znalezc rozklad graniczny dla ciagu
wektorów losowych
9. Zmienne losowe XI, X2, ... , sa niezalezne i maja rozklady U( -ak, ak). Niech
Zn = Xl + ... + Xn
s;' = I:~=ITJ2 Xk. Zbadac zbieznosc wedlug rozkladu c.iagn
XI+ ... +X" 18. Wzór Stirlinga. Niech Bn = XI + ... Xn, gdzie zmienne losowe Xn sa
Sn nieza.lezne i ma.ja rozklad Poissona z parametrem 1. Udowodnic, ze
jesli a) ciag (ak) jestI ograniczony i Bn -.. 00; b) jesli I: a~ < 00. e-n71,n+]/2

Kiedy spelniony je1t warunek Lindeberga? 'L


(') E(Sn-n)- -- =e~~~r~(n_k)nk
.~ -- -= n!
..jn ;',1""l,f,o .jii. k!
10. Zmienne losowe Xl, X2, ... , sa niezalezne i symetryczne,

P(X" = 1) = P(Xk = -1) = ~(l- k-2), (ii) (Sn;n n ) - ..!!....;.~,.gdzie N ~.AI(O,1)';


P(Xk = k) = P(X" = -k) = ~k-2.
2
("') .jii.
2n c(8.n.-n)-
c... c... l .
~. cN- _ ,;<h' -

Zbadac zbieznosc wedlug rozkladu ciagu (Bn/ .jii.), gdzie s.••.= Xj + ... +Xn. Uv) n! ~ ,Jz:;;:e-"71,"'+:I/2.
Co mozna powiedziec o wariancjach zmiem1yc:h losowych S,,/.jii.?
11. Zmienna losowa X>. ma rozklad Poissona z parametrem A. Zbadac zbieznosc; Przypominamy, ze X- = -min(X,O) oznacza czesc ujemna zmiennej loso-
wedlug rozkladu zmiennych losowych (X>. - A)/V); dla A -.. 00. wej.
*12. Udowodnic, ze 19. Niech X bedzie zmienna losowa spelniajaca nastepujace warunki:
" k

r -n '"
,,~~e D
',=J
~k! - 2'
- ~ (i) EX2 < 00;
(ii) Jesli Y i Z sa niezaleznymi kopiami ,X, to X ~ Y:jf.
13. Zmienna losowa Xn ma rozklad x2(n). Wykazac, ze
Vlykazac, ze X ma rozklad .Al (0,0-2).
X" - n D
20. Udowodnic, ze jesli zmienne losowe Xn, n = 1,2, ... sa niezalezne o jednako-
,j2ri -t.Af (0,1).
wym rozkladzie, EXn = O, SX~ = 0-2, jest funkcja rózniczkowalna w zerze, i
14. Zmienne losowe Xl, X2, ... sa niezalezne, maja ten sam rozklad i EXl = O, to ',' . ';
TJ2 Xl = 1. Wykazac, ze Y71,(f(Y,,)
r::: - i(O)) ->.AI
D (' O,o-! f (O)) 2) ,

u" = gdzie y" = ~(Xl + X2 + ... + Xn).


..jn(XI
X? ++ + Xn) --E.,.AI (0,1),
+X~

Xl+ +Xn ..!!.....AI(O,l).


Vn = \ /Xr2l + .. . + X~
§ 11.1. Momenty stopu 221

J ak odrózniac zmienne losowe typu '17 od zmiennych losowych typu (T7?


To istotna kwestia, bowiem '17 wyglada na dosc rozsadna taktyke, podczas
gdy taktyka oparta na (T7 jest tyle warta, co wskazówki "wysiadzie Pani
na przedostatnim przystanku"; "sprzeda Pan akcje, jak ich cena osiagnie
maksimum".
Rozdzial 11 W tym wlasnie celu wprowadzimy rodzine' (T-cial (Ft) t T' gdzie t E T
bedziemy zazwyczaj interpretowac jako parametr czasowy."W tym rozdziale
zakladamy -- z dwoma wyjatkamil -- ze T C {O, l, 2, ... } = N, tak jak
w przykladzie l.
Martyngaly Fs jest, jak juz wspomnielismy, (T-cialem zdarzen, o których mozna powie-
dziec, czy zaszly, czy nie, obserwujac ciag (Xt) tET do chwili s. Najczestszym
przykladem jest rodzina Fs = (T(Xt: t:;:; s).
W przykladzie l mamy Fa = {0, O}, poniewaz Xo == O, wiec po prostu nie
§ 11.1. Momenty stopu ma materialu do obserwacji.

W tym rozdziale bedziemy po raz pierwszy systematycznie badac zjawi-


FI jest generowane przez rozbicie O na zbiory ~11(1)i ~11(-1). Istotnie,

o
w chwili l znamy tylko wartosc zmiennej losowej 6.
ska rozwijajace sie Vi czasie, dlatego tez wzbogacimy matematyczny model
doswiadczenia losowego, czyli przestrzelI probabilistyczna (O, F, P) o nie-
malejaca rodzine (T-cial Ft C F Kazde takie (T-dalo Ft bedziemy interpre-
towac jako rodzine izdarzen, o których wiadomo, czy zaszly, czy nie, jesli
obserwowac doswiadczenie do chwili t. .(/+~ QD
Przyklad 1. Jacek iPlacek rzucaja moneta. Jesli wypadnie orzel, Jacek
wygrywa od Placka zlotówke, w przeciwnym razie zlotówke wygrywa Pla-
cek. Gra toczy sie tak dlugo, jak dlugo obaj gracze maja pieniadze. Jacek
\~.,
~' \JD
postanawia wycofac sie z gry, gdy po raz pierwszy jego wygrana wyniesie 7 F2 jest generowane przez rozbicie O na zbiory E11(Cl) n ~21(C2)' gdzie
zl. Notuje wobec tego swoje kolejne wygrane. Sa one zmiennymi losowymi Ci = ±1. .
6, 6, E3·· .. Laczna wygrana to Xn = Z=:'=1 Ei, n = 1,2, .... Prllyj mij my, Mamy tu Fo C :FI C ... C Fn C Fn+1 C ... C F. Teraz mozemy odpowie-
ze Xo = O. dziec na pytanie, czym sie róznia zmienne losowe '17 i (T7. Otóz dla kazdego
Chwila wycofania sie Jacka z gry jest takze zmienna losowa, która mozemy n zdarzenie {T7 :;:; n} nalezy do (T-ciala Fn, poniewaz
zdefiniowac tak:
'17 = inf{n: Xn = 7}. h :;:;
n} = 1.6= 7} U {6 + 6 = 7} U ... U {6 + ... + ~n = 7},

Jacek moze sie nie doczekac chwili, gdy wygra 7 zl. Jesli nawet zalozymy, ze a kazdy ze skladników sumy po prawej stronie jest elementem Fn·
uzupelnia zapas gotówki pozyczkami od rodziców, to nie jest wykluczone,
Natomiast {er? :;:; n} rf- Fn, bo zdarzenie to zalezy od zmiennych losowych
ze Placek chytrze podsuwa mu niesymetryczna monete. Tak czy owak, na o numerach przekraczajacych n (patrz zad. 9).
ogól istnieje dodatnie prawdopodobienstwo, ze '17 jest nieskOllczona. Tego
Powyzszy przyklad stanowi uzasadnienie dla wprowadzenia nastepujacych
rodzaju niewlasciwe zmienne losowe, o zbiorze wartosci NU{oo}, bedziemy
definicji.
w dalszym ciagu rozpatrywac dosyc czesto. Nasza zmienna losowa '17 ma
interesujaca i intuicyjnie oczywista wlasnosc: w kazdej chwili wiadomo, czy
moment '17 juz nastapil, czy nie. Definicja 2; Filtracja nazywamy niemalejaca TOdzine (T-cial (Ft)tET, gdzie
Ft C F dla t E T.
Gdyby Jacek interesowal sie ostatnim takim momentem, w którym jego -----------------
wygrana wyniesie 7 zl, zdefiniowanym jako (T7 = sup{n: Xn = 7}, to nigdy lPieTwszy wyjatek to martyngaly z czasem odwróconym, gdzie T = -N, drugi ~
nie wiedzialby, czy taki moment juz nastapil, czy nie. _ ma.rtyngal potrzebny do dowodu tw. Radona-Nikodyma, gdzie zbiór T jest tylko cze-
sciowo uporzadkowany.

220
.,
§ 11.1. Momenty stopu 223
~22 Rozdzial 11. Martyngaly

Twierdzenie 6. Jesli (Xt)tET jest ciagiem zmiennych losowych adapto-


Definicja 3. Rodzina zmiennych losowych (Xt)tET jest adaptowana do fil-
wanym do filtracji (Ft)t.ET, to chwila pierwszej wizyty w zbiorze B E B(R), infr/J =-l
tmcji (Ft)tET' jesli zmienne losowe Xt sa Frmierzalne dla t E T. zdefiniowana jako

W szczególnosci rodzina zmiennych losowych (Xt)tET jest adaptowana do 7B(W) = inf{t E T: Xt(w) E B},

naturalne.j filtracji (Ft)tET' gdzie Ft = u(Xs: s ( t), t E T. jest momentem stop-u..

Definicja 4. Momentem stopu wzgledem filtmcji (Ft) tET nazywamy zmien- Dowód pozostawiamy Czytelnikowi (zad. 4.a; kwestia dalszych wizyt - 4b).
na losowa 7: n -; T U {+oo}, spelniajaca 'war"lJ,nek Mozemy rozpatrywac klase zdarzell, o ktÓ1'ych w]adom~, czy zaszly, czy nie,
jesli obscl'wowa.c doswiadczenie do (losowej) chwili 7. Bedzie to u-cialo Fn
{7(t}EFt
~clefiniowane jak nastepuje:
dla wszystkich t E T.
Definicja 7. Jesli 7 jest m.ornentem stopu wzgledem filtracji (:Ft) tET' to F.,.
Moment stopu nazywa sie czasami momentem Markowa lub momentem
i
.jest klasa takich zbiorów A, ze A E :F dla kazdego t mamy An{7 ( t} E Ft.
zatrzymania (ang. stopping time).
Interesujace, ze zaleznosc )"t. C Fs dla t ( s pozostaje w mocy, jesli t i s
Podsumujmy: jesli chcemy rozpatrywac zjawiska probabilistyczne rozwija- zastapimy przez mom:enty stopu 71 ( 72. '
jacesie w czasie, to oprócz przestrzeni probabilistycznej (0., F, P) uzy-
teczna bedzie filtracja (Ft) tET i rodzina zmiennych losowych (Xt) tET - Twierdzenie 8. Jezeli 7, 71, 72 sa momentami stopu wzgledem filtracji
zazwyczaj adaptowana do tej filtracji. Dosyc czesto przyjmuje sie Ft = (:Ftl t;E 7' , 1;0
= u{X.,: s ( t}, co aptomatycznie gwarantuje ostatni warunek. Wtedy :Ft
jest rodzina zdarzen, zaleznych tylko od zmiennych losowych X" dla 8 ( i. (i) F, .jest u-cia.lem.
Zajmiemy sie teraz wlasnosciami momentów stopu.
(ii) ]e§li 7 == t, to j:, = :h
Lemat 5. Zmiennalo.sowa 7:0. -; TU{+oo} jest momentem stopu wzgle- (iii) A E F.,. 'WtedY'i tylko wtedy, gdy A E F i {7 = t}nA E Ft dla Icazdego
dem filtracji
t E T.
(Ft) tET wtedy i tylko wtedy, gdy {7 = t} E Ft dla kazdego t E T. '
(iv) Jesli 7) (72, to :F" C F"'2'

D owó d. {7 ( t} = U"S;;t,SET{ 7 = s}, skad wynika dostatecznosc warunku. Dowód pozosta.wiamy Czytelnikowi (za.dania 6·-8).
Koniecznosc wynika natychmiast stad, ze
I jeszcze jedno twierdzenie, dotyczace mierzalnosci.

{7=t}={7(t}\ U {7(S} .• Twierdzenie 9. Jdli 7 jest momentem. stopu 'Wzgledem filtracji (Ft)tET'
s't}s:rft
zas (Xt) - c'ia9'iem adaptowanym do (Ft), to: .

Warto zdac sobie sprawe, ze 7 == s jest momentem stopu wzgledem dowolnej


(i) Zmienna loso'Wa 7 jest F, -mierzalna.
filtracji (zad. 2). Jesli 71, 72 sa momentami stopu, to

df . df
(ii) Zmienna losowa X.,. jest F.,.-rnierzCLlna na z?iorze {7 < oo}.
71 fi 72 = mm( 71, 72), 71 V 72 = max( 71,72)
D o wód. (i) Trzeba wykazac, ze dla kazdego s mamy {T ( s} E F,. Otóz
sa momentami stopu (patrz zad. 3). dla kazdego t E T
Pierwsza wizyta Bardzo czesto bedziemy mieli do czynienia z chwila pierwszej (drugiej, itd.)
nie po~'inll~ t:wac wizyty w zbiorze borelowskim (por. 77 z przykladu 1). {7 ( t} n {7 ( s} = {7 ( t fi s} E FtAs C Ft,
dlUzeJ mz 48
godzin.

j'
224 Rozdziall1. Martyngaly § 11.1. Momenty stopu 225

wiec na mocy definicji :FT jest {T ~ s} E :FT' co konczy dowód. Wreszcie calkowalnosc zmiennej losowej ST wynika z nierównosci
(ii) {XT < s} n {r < oo} n {T ~ t} = Uu~t({Xu < s} n {T = 71}) E :Ft .•
[ISTI ~ [T[IX11,
Dalej bedziemy czesto korzystac z nastepujacego spostrzezenia: jesli (Xn)
jest ciagiem niezaleznych zmiennych losowych, a T jest momentem stopu która otrzymamy, powtarzajac rozumowanie dla zmiennych losowych lXii
wzgledem naturalnej filtracji (:Fn), gdzie :Fn = o-(Xl' ... ,Xn), to zmienne zamiast Xi· •
losowe Xn i l{T>n-l} (informujaca, czy T nastapil po chwili n - l) sa
niezalezne, bowiem {T > n - l} E ;:,.-1'
Uogólnianie prostych i oczywistych stwierdzeil na momenty stopu prowadzi Zadania
do ciekawych wyników. Jeden z nich, z elementarnym dowodem, zamiesz-
czamy ponizej. Nieco pózniej zostanie on udowodniony za pomoca teorii .'l. T jest momenterq stopu. Czy stad wynika, ze momentem stopu jest a) T + l;
martyngalów. b) T - l? c) T2? Rozwiazac zadanie przy zalozeniu, ze l) T = N, 2) T = N.

Niech 5n = Xl + ... +Xn; zalózmy, ze zmienne losowe Xi, i = 1,2, ... maja 2. Udowodnic, ze T == s jest momentem stopu wzgledem dowolnej filtracji.
ten sam rozklad. Wtedy oczywiscie
i
3. Niech Tl T2 beda momentami stopu. Udowodnic, ze Tt 1\ T2 oraz Tl V T2 sa
[5n = n· [XI, momentami stopu.
(1)
4. Niech T bedzie momentem stopu wzgledem filtracji (Ft)tET i niech (Xt)
jesli tylko [Xl istnieje.
bedzie ciagiem zmiennych losowych adaptowanym do tej filtracji.
Nic nie stoi na przeszkodzie, by rozpatrywac sumy losowej liczby skladni- a) Udowodnic, ze chwila pierwszej wizyty (Xt) w zbiorze B E B(R) po chwili
ków: jesli N jest zmienna losowa, to T jest momentem stopu.
df b) Zdefiniowac moment h-tej wizyty (Xn) w zbiorze B i udowodnic, ze jest
SN(W) = SN(w)(W), on momentem stopu.
Niech teraz T bedzie momentem stopu wzgledem naturalnej filtracji (';F,.). 5. Niech (Xi) bedzie ciagiem niezaleznych zmiennych losowych o rozkladzie
Zastepujac po lewej stronie wzoru (l) liczbe n przez T, a po prawej - przez UfO, l]. Niech T = inf{n: Xl + ... + Xn ;, l}. Wyznaczyc eT.
[T, otrzymujemy
6. Udowodnic, ze a) Fr jest O'-cialem; b) jesli T == t, to FT = Ft.
Twierdzenie 10 (Tozsamosc Walda). Jesli Xl, X2, ... sq niezaleznymi .7. a) Wykazac, ze fi E FT wtedy i tylko wtedy, gdy A E F i dla kazdego t E T
zmiennymi losowymi o tym samym rozkladz'ie, [IX11 < 00, zas T jes!; mamy {T = t} n A E F/.
momentem stopu wzgledem filtmcji (:Fn)~=l' gdzie :Fn = 0-(X1, ... ,Xn), b) Niech T i O' beda momentami stopt!. Wykazac, ze kazde ze zdarzen:
i[T < 00, to:
J [ST=[T'[Xl, {T < a}, {T> a}, {T ~ o-}, {T;' u}, {T = O'},
Zwrócmy uwage na zalozenie o niezaleznosci - w wyjsciowym stwierdzeniu najezy jednoczesnie do FT i FO'.
(l) niepotrzebne. '
8. Udowodnic, ze jesli Tl ~ T" to Fr, C FT2·
D o wód. Przyjmujac Sa = O, otrzymujemy
9. Opisac Fr, jesli zmienne losowe Xi, ·i = 1,2, sa niezalezne, P(Xi = l) =
00 00
= P(Xi = -l) = 1/2, Fi = u(Xl, ... Xi), T == inf{n ~ 2: Xl + ... +Xn = l}.
[ST = I>
j=l
[l{T~j}(Sj - 5j-l)] = LS
j=l
[l{T>j_q.Xj] 10. Podac przyklad na to, ze o-(T) # Fr·
00 11. Zmienna losowa 0'7 zprzykladll l nie jest oczywiscie momentem stopn,
= L
j=l
P(T ~ j) . [Xl = [T' [Xl' poniewaz przyjmuje wa,l'tosc -co. Wykazac:, ze nie spelnia( ona warunku
{U7 ~,t} E Ft· .
inf0 = +00,
sup0 =-00

12. Jesli (Xn) jest ciagiem Bernoulliego, zas T = inf{n: Bn = l}, to eT = co.
W pierwszym wierszu skorzystalismy ze spostrzezenia po tw. g o niezalez·
nosci zmiennych losowych l{T>j-l} i Xj. Równosc L;':l P(T ~ j) = [T 13. Rzucamy kostka tak dlugo, az otrzymamy wszystkie oczka. Znalezc wartosc
zostala udowodni9na w zad. 5.6.8. srednia sumy wyrzuconych oczek ..
226 Rozdzial 11. Martyngaly § 11.2. Martyngaly, nadmartyngaly, podmartyngaly 227

§ 11.2. Martyngaly,
, nadmartyngaly, podmartyngaly a. zastepujac równosci odpowiednimi nierównosoiami, otrzymujemy warunki
równowazne (b) i (c). Warto tez pamietac, ze jesli T = N, to np. zamiast
Przypomnijmy sobie gre Jacka i Placka z poczatku tego rozdzialu. Jesli a) wystarczy sprawdzic, 7,e' -
moneta jest sym.etry~zna, i po pewnym czasie Jacek wygral 10 zl, to sred-
nia wartosc lacznej wygranej po nastepnej partii wyniesie równiez 10 zl, E(X"+J 1:1',,) = Xn, n= 1,2, ...
,', l" l~
zatem sredni przyro§t wygranej bedzie równy zeru. Jesli moneta jest ni esy-
metryczna, sredni przyrost wygranej bedzie dodatni lub ujemny. lub

Gra moze byc bardzikj skomplikowana: powiedzmy, ze .lacek zarzadza wiel-


E(X"H - X"IF,,) = O, n= 1,2 ....

kim funduszem powierniczym i wygrywa lub przegrywa na skutek fluktuacji co rno7.e znacznie tJproscic rachunki.
kursów papier'ów wartosciowych. W obu sytuacjach mozna sobie postawic
pytanie, czy odpowiednia strategia pozwoli przechytrzyc rynek. I w obu Przyklad 2. Jesli (X,,, F,,). jest martyngalem (podmartyngalem), a T mo-
przypadkach narzedzi do analizy dostarcza teoria martynga.lów.
mentem stopu wzgledem (.T-.,JnEN, to ciag zatrzymany:
Zakladamy, ze mamy ustalona przestrzen probabilistyczna (~, F,?), filtra-
cje (Ft)tET i adaptowany do niej ciag zmiennych losowych (Xt)tET (moga
XT = (X"I\T1 F,,)

byc to wygrane Jacka w chwili t).


tez jest rni:l.rtyngalem (podrnartyngalem).
Istotnie,
Definicja 1. Rodzina (Xt, Fi) tET' gdzie zmienne losowe Xt sa calkowalne n-l
dla t E T jest
X"I\T = l.:
rn=l
Xm . l{r=m} + X" .l {r;;',,},

(a) martyngalem, jasli dla s ~ t, s, t E T gdzie oba. skla.dniki po prawej stronie sa mierzalne wzgledem F".
Dh.Ltego zmienna losowa Xnl\r jest calkowalna i
E(XtIFs) = Xs,
X("+i)l\r - X"l\r = l{r>nj(X"+l - X,,),
'(b) nadmartyngalem, jesli dla s ~ t, s, t E T
WleC
E(XtIFs) ~ Xs,
[; (X('H-l)1\T - X"I\T I :Fil.) = l{r>n}[ (X"+1 - X" l F,,) = O (~O),

(c) podmartyngalem, .jesli (-Xi,Ft)tET jest nadmartyngalem. gdzie nierównosc w nawiasie odnosi sie do nadmartyngalu. _

Czasem bedziemy pozwalac sobie na lekkie naduzywanie terminologii, mó- Przyklad 6


3. Niech Xn = + ... +~'" gdzie ~i sa niezaleznymi zmiennymi
wiac "ciag (X,,) jest martyngalern",
dzi w gre.
jesli jest oczywiste, jaka·filt.racja wcho- i
losowymi t.akimi, ze [~i = O, = 1,2 .... Niech F" = 0'(6, ... ,~,,). Wtedy
(Xn,F,,):,~o jest martyngalem.
Martyngal jest gra sprawiedliwa
w takim sensie, ze srednia. wygrana w chwili Istotnie, bez trudu sprawdzamy, ze [(X"+l - X"IFn) = E(~n+1IFn) =
s, gdy znany jest przebieg gry do chwili t (zdarzenia, o których wiadomo, = [~n+l = O. -
czy zaszly, czy nie, jesli obserwujemy gre do chwili t, t.worza O'-cialo Ft),
jest równa Xi, czyli lacznej wygranej w chwili t.
Przyklad 4. Jesli X jest calkowal.na zmienna losowa, (F,,) - filtracja
Podmartyngal jest gra korzyst.na dla gra.cza, nadrnartynga.1 - niekorzystm);. iX" = [ (X l F,,), n = 1,2, ... , to (Xn, F")~=l jest martyngalem. Mart.yn-
v>.' takim razie w Warunek z punktu a) definicji mozna sformulowac równowaznie tak: Jesli ga.ly tej postaci nazywamy pmwost1'Onnie domknietymi. _
definicji
martyngalu
i
s, t E T, s ~ t A E Fs, to
Przyklad 5. Niech Zn = Xl ..... X"' gdzie Xi sa mierzalne wzgledem
mozna by sie
obejsc bez
formalnego
wprowadzania
pojecia
Xsd? l = l Xtd?,
niezaleznych O'-cial 9i. [Xi =j'~, zas Fn = O'(gl'" .,g,,). Wtedy (Zn,F,,)
jest martyngalem ..

warunkowej
wartosci
oczekiwanej!
228 Rozdzial 11. Martyngaly 229
§ 11.2. Martyngaly, nadmartyngaly, podmartyngaly

Istotnie, Przyklad 7. Niech (Yn);:O=l bedzie ciagiem niezaleznych zmiennych loso-


wych o tym samym rozkladzie, P(Yn = 1) =.P = 1 - P(Yn = -1); jesli
E(Zn+1l.Fn) = E(Xl Xn' Xn+1!.Fn) = Xl· ... · Xn' E(Xn+11.Fn) = Y;, = l, to uznajemy, ze w n-tej kolejce wygralismy. Rozpatrzmy gre ze
= Xl Xn . E(Xn+1) = Zn' specjalnym sposobem obstawiania. Najpierw stawiamy l, potem podwa-
jamy stawke, gdy przegrywamy i wycofujemy sie z gry, gdy wygramy po Taka metode gry
Kladac P(Xn == O) == P(Xn == 2) == 4 otrzymamy interesujacy wniosek. raz pierwszy. Poniewaz na pewno kiedys wygramy, jest to doskonaly sposób znal juz
Wtedy EZn = l, P(Zn = O) = 1- 2-n, P(Zn = 2n) = 2-n. Wobec tego Casanova.
na wygranie. Czy rzeczywiscie?
I::=l P(Zn > O)= I::=l 2-n < 00, i z lematu Borela-Cantelliego wynika, Stawke w grze definiujemy formalnie tak: lVI = l, a dla n> l
ze z prawdopodobienstwem l tylko skonczenie wiele wyrazów ciagu (Zn)
jest róznych od zera, wiec limn--+oo Zn == O p.n. Zatem
n --
gdy Y1 = -1, ... ,Yn-1 = -1,
w: _ {2n-1
O wp. p.
(Wn) jest ciagiem prognozowalnym. Kapital w grze jest znów przykladem
E (fi Xi) = O < l =g EXi·
transformaty rnartyngalowej i wyraza sie wzorem
Nie da sie wobec tego (bez dodatkowych zaloze1i) uogólnic twierdzenia. n

o wartosci oczekiwanej iloczynu niezaleznych zmiennych losowych (5.8.15)


na nieskonczenie wiele czynników. _
Xn = L
k=l
WkYk = Xn-1 + vVnYn·

I W nastepnym przykladzie wprowadzimy bardzo wazne pojecie transfOl'-


l
Dla p = mamy do czynienia. z ma.rtyngalem, dla p > ~ z podmartyngalem.
\ / maty martyngalowej. Gdy Yl = -l, ...,
Yn = -l,
to gracz przegral,'
n
Transformata
martyngalowa jest Przyklad 6. Niech (Xn, .Fn);:O=obedzie martyngalem, zas Wll.);:O=O
ciagiem Xn = -(L 2i-l) = _(2n - l),
dyskretnym i=l
analogiem calki pmgnozowalnym, czyli takim, ze zmienna losowa Vn jest :Fn-1-mi.erzalna,
stochastycznej. n = O, l, 2, ... (przyjmujemy .F-l = {0, n}). Zakladamy ponadto, ze zmien- gdy ponadto Yn+l = l, to
ne losowe Vr, sa ograniczone i definiujemy
Xn+1 = Xn + lVn+1 . l = _(2n + l) + 2n = 1.
Zn = VoXO + Vi (Xl - XO) + ... +v"(X,,, - Xn-Il.
Niech T = inf{n;;' 1: X" = l}. Jesli p = ~, to peT = n) = (~)n, a ponadto
Wtedy (Zn,.Fn);:O=o jest martyngalem: peT < (0) = l, ET = 2, EXr = l.
Ciag (Vn) jest Wystarczy zau,,:,~zyc,z: r j .•...,,,!\ ,.I, i , Zatem nawet w grze "sprawiedliwej" istnieje taka strategia gry, ze w skoIl-
strategia gracza. ""_ J i· ,,'. czonym czasie (z pra:wdopodobiei1stwem l) gracz wygra l, EXr > EXl = O.
& Wn(Xn - Xn-l) !.Fn-l) :== Vn . E (Xn - Xn;l[.Fn-l) == O. Cho(~sredni czas oczekiwania na wygrana jest równy 2, nie jest ograniczony
l .•... z góry. Dlatego pewnym sukcesu mozna byc jedynie majac nieograniczony
Ciag (Zn) nazywa sie ciagiem transformowanym z (Xn) przez (V,,) albo kapital. Ale wtedy po co grac? _
tr-ansJonnata maTtyrl.galowa.
Sytuacja ta ma nastepujaca interpretacje; niech (Xn) oznacza laczna wy- Dla martyngalu EXn = EXl. Okazuje sie, ze w typowych sytuacjach (por.
grana Jacka do chwili n. Gre obserwuje Wacek, ktÓry stawia na Jacka twierdzenie Dooba ponizej) mamy EXr = EXI, gdy podstawimy zamiast n
w n-tej partii Vn zlotych (jego decyzja zalezy od historii gry do chwili moment stopu T. Nie Zawsze tak jest, co wlasnie widac z tego przykladu.
n - l, stad warunek prognozowalnosci Vn) i wygrywa Vn(Xn - Xn-l) 7.lo- Teraz podamy drugi przyklad interesujacego uogólnienia dosc banalnego
tych. Wacek uwaza (czy slusznie?), ze moze przechytrzyc los, choc wygrane stwierdzenia: Jesli (Xn, .Fn):'=o jest nadmartyngalem, zas a, b - ustalo-
Jacka tworza martyngal. _ nymi liczbami, to

Warto zauwazyc, ze martyngal zatrzymany (Xni\r) jest przykladem trans- ((Xa,.Fa), (Xb, :FbY)
formaty martyngalowej: ciag prognozowalny (Vn) jest zdefiniowany wzorem jest tez nadmartyngalem. Jesli zamiast a i b wstawimy (ograniczone!) mo-
Vn = 1{r>n-l}, n =: 1,2, ... ; patrz przyklad 2. menty stopu, otrzymamy niezwykle uzyteczne
~:H)
Rozd'zial 11. Martyngaly § 11.2. Martyngaly, nadmartyngaly, podmartyngaly 231

Twierdzenie 8 (Dooba). Niech ciag (Xn,Fn):'=o bedzie nadmartynga- Uwaga 11. Twierdzenie pozostaje prawdziwe dla podmartyngalów, jesli
lem (martyngalem) i
niech 71 :(; 72 beda dwoma ograniczonymi momentami znak ,,=" w tezie zamienimy na ,,:?".
stopu. Wtedy ciag (Xr" Fr.) :=1 jest nadmartyngalem (martyngalem) .
Wniosek 12. Jesli istnieje stlLla K taka, ze P(71 :(; K) = P(72 :(; K) = l,
D o wód. Zalózmy, z~ 71 :(; 72 :(; N. Nalezy udowodnic, ze dla A E FrJ to sa speln'lone zalozenia twie'f'dzenia. Jezeli ponadto P( 71 ,:; 72) = l, to
mamy
EXI = [;Xr1 = [;Xr2 = EX,.,.

l j'A Xr, dP:? !


.JA Xr2 elP. (l) Iii/obce tego twierdzenie
oba),
9 n(óc.~'ywiscie jest uogól~ieniern
". ' i' '
twierdzenia 8 (Do-

Nierównosc (1) wystar,czy sprawdzic na rozlacznych "kawaleczkach" zbioru


A, ,\lj'cietych przez zbiory {71 = k}, k = O, l, 2, ... , N. Ustalmy w takim Wniosek 13. Je,sli (Xn) .iest mar'tyngalem ogr'0.7?:lczonymp.n. przez stala,
razie k, O :(; k :(; N i oznaczmy B = A n {71 = k}. Wystarczy pokazac, ze czyli IX." I :(; G dht n = 1,2.,., 1;0 sa spelnione zalozenia twierdzenia 9.
JB Xr21\m dP jest nierosnaca funkcja m, gdy k ,:; m :(; N, Zauwazmy, ze
B E Fk C Fm, takze {72 > m} E Fm, wiec B II {72 > m.} E Fm' Dowód, IXril:(; G, zatem E (IXnllh>n}) ,:; GP(7i > n) ~n~oo O,.
Mamy teraz

=l
!
JB Xr21\(m+1) dP - JB Xr21\m dP ! = !
JBn{r2>m) (Xm+1 -- Xm) dP :(; O.
Wniosek 14. Biorac 71
m1Jjemy E:Xr2 = [Xl.
'l 72 spelniajace zalozenia twierdzenia otrzy-

Równosc bierze sie stad, ze dla 72 :(; m obie zmienne losowe pokrywaja D o Vi ó d twierdzenia 9 (Dooba) , Wystarczy wykazac, ze dla kazdego zda-
sie, a jesli 72 > m, to pierwsza z nich przybiera wartosc Xm+1, druga zas rzenia. A E Fr,
wa.rtoSc Xm. Nierównosc wynika z definicji nadmartyngalu, Zatem udowod-
nilismy (1).

Jesli ciag (Xn) tworzy martyngal, to ciagi (Xn)


liLrni, i otrzymujemy równosc we wzorze (1) .•
i (-Xn) sa nadmartynga- !
.JAn (r'-;'rd Xro- elP !
= JAn{r2~rd Xrj elP.

Poniewaz 71 przyjmuje wartosci 1,2, .. , to wystarczy pokazac, ze' dla do-


Czasami przydaje sie wzmocniona wersja twierdzenia Dooba. wolnego n :? l

Twierdzenie 9 (Dooba). Niech (Xn,Fn) bedz'le maTtyngalem, 0.71 ',72


skonczonymi p. n. momentami stopu, takimi, ze /' X'2 elP = /' Xr1 dP,
. An{r2~rl}n{rl=n} . An{r2~r,}n{rl=n}
E:IXri I < 00, i = 1,2, (2) tzn. dla B = A n {71 = n} E :Fn
liminfE
n~oo (IXn[lh>n}) = O, 'l = 1,2. (3)

Wtedy E: (Xr21 Fr,) = Xr, na zbioTze {72 :? 7d P-p.n. !


JBn{ r2~n} Xr2 elP = !
J Bn{r2~n} XnelP.
(4)

Gdy P(71:(; 72) = l, to Mamy

= =
E (Xr2 I Fr,) Xr, p.n.,
1Bn{r2~n} Xn elP
j'Bn{r2=n} Xn elP + ,l'Bn{r2>n.} Xn elP =
czyli ciag (Xr" Fr,), (Xr2,Fr2) jest martyngalem.

Uwaga 10. W przykladzie 7 ! .JBn{r2=n} Xn dP !


+ JBn{r2>':'}l [(Xn.+1 I Fn) elP =

J{T>n} IXnl dP = (2n - 1)P(7 > n) = -n.-


2n-l
2 ----+
n~oo l,
= ! JBn{r2=n} Xr2 elP + ! JBn{r2~n+1} Xn+1 dP =
wiec nie sa spelnione zalozenia twierdzenia 9.
/' • Bn{r2=n}
Xr2 elP +1 .1
Bn{r2=n+1}
Xr2 elP +
232
Rozdzial 11. Martyngaly § 11.2. Martyngaly, nadmartyngaly, podrnartyngaly 233

+ J rBn{ T2>n+l} Xn.Ll dP = EY = L


n=l
E (dlXn - Xn-lI1{T)n} Ifn-1)) =
00
= J rBn{n(T2(n·H} XT2 dP + J rBn{ T2)n+2} Xn+2 dP = ... = L n=l
E(E (IXn - Xn-11Ifn-l) l{T)n}) ,,;;
co
'" = .JIBn{n(T2(m}
czyli
XTO - elP + .JrBn{ T2>m} Xm elP,
,,;;
L j=l
CP(T ;;?j) = CET < 00.

Skorzystalismy z faktu, ze zbiór {T j} = {-r ;:;; j - l}' nalezy do fj-1'


I
;;?

JBn{n(T2(m} XT2 dP = JBn{T2)n}


r I
Xn dP - Jsn(T2>m} Xm dP. Sprawdzimy z kolei, ze spelnione jest zalozenie (3) twierdzenia 9. Poniewaz
{T;;? n} n {T> k} = {T> k} dla n";; k, to
Z twierdzenia Lebesgue'a dla m -t 00

r
JBn{T2)n} XT2 dP = m~oo
limsup r
[ JBn{m)T2)n} I
Xn dP - JBn{T2>m} Xm dP]
E (IXkI1(T>k}) ,,;; E (t n=l IXn - Xn-111{T>k}) ,,;; E (Y1{T>k}) ---+
k~oo
O.

Zatem liminfk~oo E (IXkI1{T>k}) = O .•


= JBn{T2;:,n}
r Xn dP - lim inf JBn{T2>m}
m-.oo l Xm elP = Przyklad 16 (Zadanie o ruinie gracza). Wylozona w tym i poprzed-
nim paragrafie teorie zastosujemy do zadania o winie gracza (§ 3.2, zad. 14,
= JBn{T2)n}
r Xn elP. 15). Zaletami takiego podejscia sa prostota i scislosc.
Przypomnijmy, ze gracze maja' kapitaly poczatkowe a i b, a + b = z, a wy-
Ostatnia równosc wynika z zalozenia (3). Udowodnilismy zatem równosc grane pierwszego gracza w kolejnych partiach sa niezaleznymi zmiennymi
(4) .•
losowymi 6,···, ~n,"" przy czym P(~i = 1)= p, P(~i = -1) = q = 1- p.
Zakladarny, ze p, q > O, co wyklucza trywialne przypadki "gry do jednej
Jako zastosowanie twierdzenia g udowodnimy twierdzenie, z którego mozna
prosto wyprowadzic tozsamosc Walda 11.1.10: bramki". Przyjmiemy Bn = + ... + ~Tt' 6
Moment ruiny pierwszego gracza definiujemy jako
Twierdzenie 15. Niech (Xn, fn);.;o=l bedzie maTtyngalem (podr/1,o:f'tynga- T1 = inf{n: Bn = -a}.
lem), dla którego istnieje taka stala C, ie dla n 1,2, ... =
Jest to moment stopu, dla którego P(T1 < (0) < 1. Natomiast chwila
[(IXnH - Xnll fn) ( C p.n. zakonczenia gry, czyli .ruiny pierwszego lub drugiego gracza, to

i niech T bedzie momentem stop'u, ET < 00. TJl. =inf{n:Bn E {-a, b}}.

Wtedy EIXTI < 00 i EXT = EXl (EXT;;? [Xl)' Ten moment stopu jest juz skonczony p.n., dlatego ze z prawdopodobien-
stwem l pojawi sie kiedys np. kolejno a + b w'ygranych pierwszego gracza.
D o wód. PrzyjmUmy, ze Xo = O. Wtedy
A. Prawdopodobienstwa ruiny dla obu graczy. Szukanymi prawdo-
00
podobienstwami sa Pl = P(BTR = -a) i P2 = P(BTR = b). W przypadku
XT = L(.Xn - Xn-l)I{T)n}, symetrycznym (p = q =~) ciag (Bn,0'(6'''''~n));.;o=1 jest martyngalem
n=l i E3n = O dla n = 1,2, ..... Na podstawie twierdzenia Dooba mozna podej-
zatem rzewac, ze EBTR := O, wobec tego
00

IXT! ,,;; y= L
n=l
IXn - Xn-1[I{T)n},
-ap1 P2 =
{ Pl + +
bp21, =O

zbadac
)zna sie
'l, tw. 9.
Zalozenie (2) twierdzenia g jest spelnione,

-."." - bowiem Y jest calkowalna:

_ - 1iIIiiIiI. -- _~I'
skad Pl

••••
=

_1111
b/z, P2 = a/z.

_II~' ••••• 11' ...-.a


235
":1·1 R.ozdzial 11. Martyngaly § 11.2. Martyngaly, nadmartyngaly, podmartyngaly

Jednak TR nie jest ograniczonym momentem stopu i nie mozna bezposrednio C. Kapital nieskOllczony: sredni czas oczekiwania na ruine. Przy-
skorzystac z tw. 8. Ale ESrRl\n =O dla kazdego n (TR!\ n jest juz ograni- puscmy teraz, ze gracz z kapitalem a gra przeciwko nieskonczenie bogatemu
przeciwnikowi i wygrywa jJojeciyncza partie z prawdopodobieitstwem p < ~.
czonym momentem stopu), a ponadto ISrRI\" I ..;; ma.x(o., b) i SrJ1l\n ~.:::. Sra
przy n -t 00. Istotnie, dla kazdego k E N mamy Vhedy 6 -1- ... -I-~rl = -a, gdzie T1 jest momentem ruiny pierwszego gracza.
Z tozsamosci Walda mielibysmy (jesli tylko ET] < 00)

P( U {SrRl\n "# Sr,.}) ..;; P(TR > k). ET1' E6 = -a,


n~k

skad natychmiast wynika, ze ETj = q~-p" Pozo~t,aje wykazac, ze faktycznie


Prawa strona zmierza; do zera, poniewaz P( TR < 00) = 1.
ETj < 00. Vv tym. celu OfiZa,Clljemy P(Tj > n) z nierównosci Bernsteina
Teraz z twierdzenia Lebesgue'a o zbieznosci zmajoryzowanej wynika, ze ." 1'1"

E BrR = O, co konczy dowód dla przypadku symetrycznego. (7.4.2). OznaczaJac Uj = (fi + 1)/2, marny: ,
I.\~ . Wlasciwie
W przypadku niesymetrycznym martyngalem jest ciag P(Tj > n) ..;;p(eJ -1- ... -I- ~n > -o.)f= korzystamy tu
l' l ' z jednos~ronncgo
osza.cowalliu
= P(U] + ... + Un > "2(-0.,+11,)) = w dowodzie
((2)S",
p a(6, ... '~n))OO.n=J
l l nierównosci
= P(U1 -I- ... + Un > -"2a"+ n(p -I- "2 - p)). Bernsteina.

(zad. 5). Postepujac analogicznie do poprzedniego przypadku, otrzymujemy


E(qlp)STR = l, wobec tego Dla dostatecznie duzych n mamy n(~ - p) - ~o. > ~n(~ - p), wobec tego
prawa strona nie przekracza e-n(~-p)2/l6, stad 2:nP(Tl > n) < 00, czyli
p (zad. 5.6.2) ET1 < 00.
{ Pl -I-P2
(!L)-apl
P
=+l,(!L)bp2 = l 'iiVynik wygl<1da rozsadnie, bowiem q - p jest srednia przegrana, przypada-
jaca na jedna partie·
skad
D. Sredni czas oczekiwania na wygranie 1 zl w grze symetrycznej.
(~)a _ (~y
Pl = Czas ten jest nieskonczony, nawet jesli gracz ma nieskonczony kapital. Gdy-
l - (~)z . bysmy mieli ET < 00, gdzie T = inf{ n: 6
-I- ... + En = l}, to z tozsamosci
Walda wynikaloby, ze
B. Nieskonczony kapital. Obliczymy teraz prawdopodobienstwo ru- ET' E6 = 1,
iny dla gracza z kapitalem a, którego przeciwnik ma. kapital nieskoTlczony.
Naturalnym pomyslem jest dokonanie przejscia granicznego (z -~ 00) we co jest niemozliwe, bo E6 = O .•
wzorach otrzymanych w poprzednim zadaniu. Wymaga to jednak uzasad-
nienia, które podajemy ponizej.
Niech Aa oznacza zdarzenie, polegajace na ruinie gracza z kapitalem a;
Zadania
niech Aa,z oznacza. zdarzenie, polegajace na tym, ze zanim gracz zostal
zrujnowany, jego wygrana byla zawsze mniejsza. od z. Otóz P(Aa,z) jest
.'l. Niech Zn beda niezaJeznymi zmiennymi losowymi o tym samym rozkladz.ie
prawdopodobienstwem ruiny gracza z kapitalem a w grze z lacznym kapi-
i zerowej sredniej, niech Fn = a(Z!, ... ,Z,,) i
talem a -I- z, a ponadto Aa jest suma wstepujacego ciagu zdarzen Aa.z. Z Xa = Za,
twierdzenia o ciaglosci
Xn = 2::Zn-1' Zn.
dla q;;;' p, k=l
P(Aa) = P(U00 Aa l z) = z-+oo
z=1
lim P(Aa,z) = {I('l)a
P dla. q < p.
Udowodnic, ze (X"' F,,) jest martyngalem.
Okazuje sie, ze przy grze sprawiedliwej lub niekorzystnej dla pierwszego 2. Wyprowadzic tozsamosc Walda z faktu, ze (Sn - nEX!, a(Xl'" . Xn)) jest
gracza szansa ruiny wynosi l, w przeciwnym razie wynosi ona (q/p)a. martyngalem .. ;

I ~'l
236 Rozdzial 11. Martyngaly § 11.3. Twierdzenie o zbieznosci nadmartyngalów 237

3. Udowodnic nastepujaca wersje tozsamosci Walda: jesli Xl, X2, .•• sa nieza- § 11.3. Twierdzenie o zbieznosci nadmartyngalów '~
leznymi zmiennymi losowymi o tym samym rozkladzie, Exf < 00, ET < 00,
to
Twierdzenie 1. Jezeli ciag (Xn, .Fn)~=Q jest nadinartyngalem, a ponadto
E (8r - TEXd2 = ETV2Xl. SUPn EX,-': < 00, to ciag (Xn) jest zbiezny prawie na pewno do zmiennej
loso'wej calkowalnej.
Wsk. Zalozenie, ze EXn = Onie zmniejsza ogólnosci. Wtedy ciag (8;; -nEXfJ
jest martyngalem.
Dowód twierdzenia opiera sie na technice liczenia "przejsc w góre" ciagu
4. Udowodnic, ze w symetrycznym zagadnieniu ruiny sredni czas oczekiwania liczbowego (xn) przez przedzial [a, b]. Zdefiniujemy mianowicie
na ruine któregos z graczy wynosi ab.
TO = inf{n: Xn < a}
5. Niech ~i, i = 1,2, ... beda niezaleznymi zmiennymi losowymi, P(~i = l) = p, T1 = inf{n:n > TQ,Xn >.b}
P(~i = -l) = =
1 - p. Niech Fn = 0'(~1, .. ~n) i Zn
q = (~/,+ ..+E" Cj"
"
Wykazac, ze ciag (Zn, Fn) jest martyngalem.
T2k inf{n:n > T2k-1,Xn < a} ~'"
6. Martyngal (Xn, Fn);;"=o jest calkowalny z kwadratem, tj. [X.,; < 00, n (t,t)·- "
= O,l, .... Niech T2k+l inf{n:n > T2k,Xn > b}
Przyrosty Dn = Xn - Xn-l, n= 1,2, ...
martyngalowe sa
czyms posrednim Wykazac, ze zmienne losowe Dn (czyli przyrosty martyngalowe) sa parami
miedzy nieskorelowane.
zmiennymi
losowymi
7. Wykazac, ze przy odpowiednich zalozeniach co do calkowalnosci, funkcja wy-
niezaleznymi
a nieskorelowa- pukla martyngalu (Xn, Fn) jest podmartyngalernj jesli funkcja jest wypukla
nymi. i niemalejaca, to przeksztalca podmartyngal (Xn, F,,) w podmartyngal.
J~~Ciag (Xn) jest martynga.lem. Zbadac (zakladajac w razie potrzeby odpo-
wiednie warunki calkowalnosci), czy sa pod- lub nadmartyngalarni ciagi: ~
a) (lXnn", p.~ 1; b) (Xn II a)n; c) (X" Va)". o 2 3 4 5
9. Jedna z mozliwych strategii gracza jest zmiana rodzaju gry. W przypadku
gry sprawiedliwej nie powinno sie ani zyskac, ani stracic. Przypuscmy, ze Jak widac z rysunku, T2k+1 jest momentem (k + l)-szego przejscia w góre
dwóch przyjaciól rozpoczelo inwestowanie na gieldzie w tym samym czasie ciagu (:l;n) przez przedzial [a, b]. U~ bedzie oznaczac laczna liczbe przejsc
i pewnego dnia okazalo sie, ze ich portfele maja te sama wartosc. Co sadzic w góre ciagu (:rn), czyli
(~.i.: er
o propozycji "zamienmy sie portfelami"?
jesli T1 < 00,
Jesli na gieldzie panuje uPokój (albo marazm, jak wola pisac analitycy), do-
bry model sytuacji stanowia dwa rnartyngaly: (X"' F,,) (Y", F,,), oraz taki i Ub" gJ O
{SUP{k;;:' 1: T2k-1 < oo} jesli T1 = 00.
moment stopu T, ze Xr = y.,. na zbiorze {T < oo}. Niech Jak sie okazuje, skotlczona liczba przejsc w góre jest (prawie) równowazna
zbieznosci ciagu:
n _
dla n > T,
Z :I.! {XY"n dla n (T.
Lemat 2. Ciag liczbowy (Xn)~=o jest zbiezny (byc moze do granicy nie-
Wykazac, ze wtedy (Z"' F,,) jest martyngalem. skonczonej), i
tj. lim sup Xn = lim inf ::r:n 'Wtedy tylko wtedy, gdy U~ < 00
dla 'Wszystkich par liczb 'Wymiernych a, b takich, ze a < b.
10. Udowodnic, ze jesli (X"' Fn) jest martyngalem i zmienne losowe Xn sa jed-
i' _ -
nostajnie calkowalne, to spelnione sa zalozenia tw. 9.
D o wód. Koniecznosc. Gdyby dla pewnej pary liczb wymiernych a < b
11. Niech (X")"ET, gdzie T = {O,l, ... , m} lub T = N, bedzie skonczonym lub bylo U~ = 00, to istnialyby takie dwa podciagi (Xkn) i (Xln)' ze Xkn < a,
nieskonczonym ciagiem zmiennych losowych, adaptowanym do filtracji (F,,). Xl" > b/- dla n = O, l, 2, .... Wtedy jednak ciag (xn) nie bylby zbiezny.
Wykazac, ze jesli EIXrl < 00 oraz EXr = O dla dowolnego momentu stopu T
"

Dostatecznosc. Jesli ciag (xn)~=o nie jest zbiezny, to dla pewnych a, b wy-
przyjmujacego dwie wartosci w zbiorze T, to (Xn, F")nET jest martyngalem.
miernych mamy liminfn~oo Xn < a < b < limsuPn~oo Xn; wtedy zas
:!:IH § 11.3. Twierdzenie o zbieznosci nadmartyngalów 239
Rozdzial 11. Martyngaly

isLni0ja dWl\ podciagi (Xkn) i (Xln) takie, ze Xkn < a i Xln > b dla n Z twierdzenia Dooba "\\'ynika,
. ze EXr, 21.: ;;;. EXr, 21.:+1 , wiec biorac wartosci
= O, 1,2, ... , skad U~= 00. _ oczekiwane obu stron, otrzymujemy

Jesli (Xn) jest (skonczonym lub nieskonczonym) ciagiem zmiennych lo- O;;;. (b - 1.l.)EU~[m]- E(Xm ~ ar,
sowych, to okreslone powyzej wielkosci Tk i u~ sa zmiennymi losowymi, co konezy dowód lematu. -
przyjmujacymi byc moze wartosc 00.
D ow ó d twierdzenia o zbieznosci nadmartyngalów. Nie~h U~[m] oznacza
Ponadto, jesli (Xn) jest ciagiem adaptowanym do (Fn) , to
tami stopu ze wzgledu na (Fn) (patrz zad. 11.1.4).
Tk sa momen-
liezbe przejsc w góre ciagu skoIlczonego Xl," . , Xm. Wt.edy U~ [m]
dla m --> 00. Z udowodnionego poprzednio lematu wynika, ze
U~ i
Lemat. 3. Niech (Xn,Fn):=l bedzie nadrnar-tyngalem. Wtedy dla a < b EUI>[. ] ~ _l_E(X
a1n'''''/I_a m _ a )- __ -b-al_E (IXm\ - 0.1-
2 Xm + a) ~
""
mamy

l. EU~[m] < b ~ a E(Xm - a)-. < _l_o


b-·a E(IXml-Xm
2 + 10.1+0.)
2 = _l_(EX~+a+)
b-a <
II
Tutaj U~[m] oznacza liczbe przejsc w góre skonczonego ciagu X l, ... , Xm < -b -l a (supEX~
n + 0.+) < 00.
i jest zmienna losowa. Zatem , :~ ., (

D o w ó d lematu. NieSh T~ = Tk 1\ m; rozpatrzmy teraz zmienne. losowe


EU~ <"lb' ~J;:
- a (sup
n EX~ + 0.+) < 00
Xr~k+l - Xr~k' Mozliwe sa trzy przypadki:
dla dowolnych liezb rzeczywIstych a, b, gdzie a < b, czyli z prawdopodo-
l°(k+ l)-sze przejscie.w góre zakonczylo sie przed chwila m, czyli T2k < m., bienstwem l zmienna losowa U~ jest skonczona dla wszystkich (naraz!)
T2k+1 < m. Wtedy
par liezb wymiernych a, b, gdzie a < b. Wobec tego (na mocy lematu 2)

Xr~k+l - Xr~k = Xr2k+1 - )(r2k > b-a. eiag (Xn) ::"=0 jest zbiezny (byc moze do granicy nieskoIlczonej) z praw-
dopodobienstwem 1. Pozost.aje udowodnic skonczonosc granicy: poniewaz
IXnl = x,t + X~ = X" + 2X,-::, a (Xn, F,,)::"=o jest nadmartyngalem, to
2°(k + l)-sze przejscie w góre nie zakonczylo sie calkowicie przed ehwila m,
czyli dokladniej - T2k < m, T2kH > m. Wtedy EIX"I =EX,,+2EX,-;:- < EXo+2supEX':;. (1)
n

Xr, 2k+l -Xr' 2k. =Xm-Xr' 211: ;;;'-(Xm-a)-, Ale (z lematu Fatou)
poniewaz E(lim inf IX"l)
n-+oo
< lim inf EIXnl,
tt.-l-OO
o ~ --x-, 1n. 7' - I
x ~ -X-, X-X 2k _ {OXm - Xr2k dla T2k
T~k =
< m, wobee tego lirnn-~oo X" musi byc prawie wszedzie skonczona i calkowalna. -

czyli Xm - Xr~k jest albo zerem, albo liczba wieksza od Xm - a; w kazdym Uwaga 4. Kazdy nadmartyngal nieujemny jest zbiezny.
przypadku jest nie mniejsza niz - (X m - a) - .
Uwaga 5. Dla nadmartyngalu warunek sUPn EX;; < 00 jest równowazny
3°(k+ l)-sze przejscie w góre nie rozpoczelo sie przed chwila m, tj. T2k > m
warunkowi sUPnE!Xnl < 00, co wynika z (1).
i tym bardziej T2kH > m. Wtedy po prostu
Uwaga 6. Jesli (X,,) jest podmartyngalem, to poniewaz (-Xn) jest nad-
Xr' 2k+l - Xr' 2k = Xm - Xm = O. martyngalem, warunkiem dostatecznym zbieznosci jest

Dodajemy teraz stronami otrzymane nierównosci (k = O, l, 2, ... ,m; zwróc- supEX;; < 00,
n
my uwage, ze liczba przejsc w góre jest mniejsza niz m): ,",
na co z kolei wystarcza, by
m
stipEIXnl < 00 .
2:(
k=l
Xr~k+l 2_ Xr~k) ;;;. (b - a)U~[m] - (Xm - a) -. . T"

I-
240 R.ozdzial 11. Martyngaly § 11.3. Twierdzenie o zbieznosci nadmartyngalów 241

Przyklad 7 (Model pólya). Urna zawiera bo bialych i Co czarnych kul Twierdzenie 8 (Nierównosc Hardy'ego-Littlewooda). Jezeli (Un)"
(bo, Co ;;::l). Losujemy kule z urny, zwracamy ja i dokladamy m kul tego sa- jest c'iagiem Bemoulliego, to
mego koloru. Niech bn, Cn oznaczaja liczbe kul bialych i czarnych po n-tym
losowaniu. Definiujemy Xn = cn/(bn + cn) - jest to ulamek kul czarnych IU1 + ... + Un\ ~ 1 p.n.
n-oo
lim sup ,j2n log n
w urnie po n-tym losowaniu - i F" = o-(Xo, ... Xn), n = 0,1,2, ....
Okazuje sie, ze (Xn, Fn);;"=o jest martyngalem. Zeby to sprawdzic, zdefi- D o wód. Istotnie, niech Xn = Ul + ... + Un, :Tn = IJ(U1, ... , UrJ Wtedy
niujemy zmienne losowe Yn: niech Yo = l, a dla n > O niech Yn = 1, jesli l 2

w n-tym losowaniu wyciagnieto czarna kule, w przeciwnym razie Yn = O.


y: = e""x"-,,nO< jest nadmartyngalem (patrz zad. 1). Zdefiniujemy teraz

Wtedy dla n;;:: O mamy


Zn g,t;
j'OO
Yn'"da = e",Xn-!na:2 da =
-00 -00
JOO
Cn+1 = Cn + mYn+1, bn+1 = bn + m(l - y",+l),
e -,,(vna--".n)
M ~n +'2'
_1~ da =
a takze j'OO
-00 l r::: X 2 x:
1. X2
Jesli X przyjmuje
ty lko wartosci O P(Yn+1 = lIYo,·· . Yn) = X"' (2) r,;:;e'if. •100
= yn -00 e-T
,,2 du =,fI7r
-:;;:e ~
2" .
i 1, to
P(X = 11.1') = Dlatego Jest prawie oczywiste, ze (Zn, Fn) :=1 jest nadmartyngalem nieujemnym
e (l{X=l} F) =
I (patrz zad. 3), zatem zbieznym p.n. do zmiennej losowej Z, a w szczególnosci Innymi slowy,
E(Xj.1') Co =
ograniczonym p.n. przez pewna zmienna losowa Co, co oznacza, ze dla n ==
+ n+1 = SUPn /:n < 00
Yo,· .. , Y,.,.) = E (, Cn+1 I Yo, ... , Yn) 1,2, .. , mamy
E (Xn+11
Cn
Cn+lb
. 'm l X2
p.n.,
p.n,

Cn+ -b--
n+m + Cn+ b,,+m, E (Yn+1! Yo"." Y,.,) = yn
r,;:;,e'if. "" C° s:::

__ cn__ + __ m X" = stad


Cn + bn + m C" + bn + m
Cn - -l, In n -2n ~ C = log Co,
+ X~
=--=Xn·
Cn + bn
2
czyli
-n In n + X; ~ C . 2n
Udowodnilismy zatem, ze ciag (Xn) jest martyngalem wzgledem ciagu
u-cial uCYo, - .. , Yn). Ale Fn C u(Yo,.·., Yn), wobec tego
IX,,(w)1 ~jn In n + C(w) ·2n,
E (Xn+11 Fn) = E (E (Xn-H I Yo,· . , y",) I Xo,.· . X,,) = wobec tego
= E (X" I Xo, ... Xn) = Xn.
limsup _IXnl._ .
rr.->oo y ~I
<:nm n ~ l p.n . -
Zatem (Xrr., Fn) jest martyngalem. Stad i z (2) wynika, ze
Zadania
P(Yn+1 = l) = E (P(Yn+1 = l\Yo, ... , Yn)) = EX" = EXo = Co +
~b ().
1. (Uli) jest ciagiem Bernoulliego. Niech:F" = a(Ul, ... , Un) i niech
Poniewaz IXnl ~ 1 dla n = 1,2, ... , z twierdzenia o zbieznosci martynga- Z '11. _ e a(UJ+...+Un)-("a2/2)
- .
lów wynika, ze istnieje taka zmienna losowa X, ze Xn ~ X, et ponadto
EX = limn->oo EXn = co/(co + lio) (z tw. Lebesgue'a o zbieznosci zmajory- Udowodnic, ze (Zn., :Fn) jest nadmartyngalem. Zbadac zbieznosc ciagu (Zn.)
zowanej). _ prawie na pewno w LI. i
2. Korzystajac z twierdzenia o zbieznosci nadmartyngalów, wykazac tw. 7.3.2:
Efektownym przykladem zastosowania twierdzenia o zbieznosci martynga- jesli (X")~=l jest ciagiem niezaleznych zmiennych losowych, EX" = O dla n E N
lów jest dowód nierównosci Hardy'ego-Littlewooda (por. zad. 5.8.23). i 'L:'=l EX; < 00, to szereg 'L:'=l Xn jest zbiezny prawie wszedzie.
11,1 ~, Rozdzial ] 1. Martyngaly § 11.4. Nierównosci martyngalowe 243

3. Wykazac, ze ciag (Zn) Z dowodu nierównosci Hardy'ego-Littlewooda jest k = 1,2, ... ,n. Wtedy Ak E Fk dla k :;;;;n i A = Al. U ... U An. Teraz
nadmartyngalem.

Martyngaly z czasem odwróconym. Czasem zamiast rosnacego ciagu a-cial


mamy do czynienia z ciagiem malejacym. W tym przypadku mozna odwolac JA f XndP t/. t/'
= k=1' Ak Xn elP = .,=1' Ak E (Xn I Fk) elP ;;.
SIe do teorii martyngalów z czasem odwróconym. Jesli (J"n)neN jest malejacym
ciagiem a-cial, to (J"-n)ne_N jest juz ciagiem rosnacym. Ta z pozoru trywialna
sztuczka z odwróceniem numeracji ma konsekwencje glebsze, niz by sie wydawalo
na pierwszy rzut oka.
Zatem
;;.
tl t k=J' A"
Xk dP ;;. l' 10=1 P(Ak) = r·P(A).

-N zawiera. Bedziemy zatem rozpatrywac martyngaly ze z~iorern indeksów -N lub -N. Po-
ostatni element, niewaz kazdy martyngal (Xn,J"")"e_N jest postaci X ",·X+ ",lXI
a to jest róznica! rP(maxX;
1.~n ;;. T):;;;; f. X" elP:;;;; EX;
JA :;;;;EIXnl .•
Xn = E (Xo I F,,) ,
Uwaga 2. Jesli XI,'" Xn jest rnartyngalem, funkcja f: R -+ R jest wy-
zmienne losowe X" musza byc jednostajnie calkowalne (zostanie Loudowodnione
pukla, zas zmienne losowe f(X,,) sa calkowalne, to z nierównosci Jensena
w lemacie 11.5.1). Mozna zatem spodziewac sie, ze odpowiedniki znanych twier-
dzen beda mocniejsze. wynika, ze ciag f(X]), ... , f(Xn) jest podmartyngalem, wiec spelnia nie-
równosc maksymalna. W szczególnosci: gdy fet)' = Iti otrzymujemy
4. Ciag (X"' J"n)ne-N jest nadmartyngalern i lim,, __ oo EX" < 00. Vlykazl:Lc,
ze (Xn)"E_N jest rodzina zmiennych losowych jednostajnie calkowil)nych.
l
P(ma.,xIXkl ;;. r) :;;;;-EIXnl,
k~n r.
5. Udowodnic

Twierdzenie 9. Jezeli (X"., J"n)ne_N jest nadmartynga,lem i a jesli f(t) = t2, zas Xk = '{!i' + ... + Uk, k = 1,2, ... n, gdzie Ui sa
niezaleznymi zrn.iennymi losb"ivymi o sredniej zero i skonczonej wariancji, to
Iim
n-;-oo
EX" < 00, Lrz;ymujemy nierównosc Kolmogorowa:
, .

i
to ciag (X-n)nEN jest zbiezny p.n. w LI do pewnej zmiennej losowej X.
Jesli ponadto (Xn,F.')ne_N jest mar-tyngalem, to ~n r
tEU;.
J •••

p(m~\1 -\-... + [hl;;. r):;;;; ~~ h:=1

Zadania
x =E (xo I Q J"_") .

1. Udowodnic, ze dla podmartyngalu (Xk)i:=l i dowolnego r > O zachodzi nie-


§ 11.4. Nierównosci martyngalowe równosc

Udowodnimy tu uogólnienie nierównosci Kolmogorowa (7.3.6). Warto po- rP ~~n Xk


(rrkl!n. ,;:;;-T) ,;:;;E (X"l{min".;;n Xk>-r))' - EXo ,;:;;EX: - EXo.
równac oba dowody.
2. Udowodnic, ze ella poclma1·tyngalu (Xk)~'=l i dowolnego r > O zachodzi nie-
równosc
Twierdzenie 1
(Nierównosc maksymalna dla podmartyngalów).
rP(maxIXkl:;:' T)';:;; 3maxEIXkl.
Niech (X", Fk)k=l bedzie podmartyngalem. Wtedy dla r > O k:::;:;n k~n

3. Wykazac, ze dla nadmartyngalu (Xk)k=l zachodzi nierównosc


rP(maxXk;:;'
k~n l
r):;;;; J{maxk"'n Xk~r} XndP:;;;; EX;:;;;; EIXnl. . [(
P(max lXI" :;:,r) ,;:;;- maxEIXkl,
k'" r k'n
Dowód. Niech T = inf{k E N:Xk ;;. r}. Jest to pierwszy moment prze- przy czym K = l, gdy ciag (Xk) ma staly znak lub jest martyngalem;
kroczenia poziomu i
r. Niech A = {maxk';;;nXIe ;:;, r} Ale = A n {T = k}, w ogólnym przypadku K = 3.
244 Rozdzial 11. Martyngaly § 11.5. Zbieznosc martyngalów w LP 245

4. Nierównosc Dooba. Wykazac, ze jesli (Xk)~=l jest martyngalem, p > 1, D owód. Z jednostajnej calkowalnosci wynika, ze SUPn E IXn I < 00, i dla-
to tego podmartyngal jest zbiezny p.n. do zmiennej losowej X; jeszcze raz ko-
rzystajac z jednostajnej calkowalnosci, otrzymujemy zbieznosc w LI (zad.
E sup
k';;" IXk!P ~ (-p-)
p - l p EIX"IP 5.9.18).
Pozostaje udowodnic (i·i).Niech A E Fm. Z uwagi po definicji podmartyn-
galu wynika, ze ciag (fAX'n dP) jest niemalejacy dla n ;) m. Ponadto na
§ 11.5. Zbieznosc martyngalów w V mocy (i)
Lemat 1. Jesli X jest calkowalna zmienna losowa na (n, F, P), a (Fa)aEA
rodzina O'-cial" zaw(L'rtych w F, to rodzina (E (X I Fa) )aEA jest jednostajnie
calkowalna. '
I r X" dP -
JAJA r X dPi ~ jA IXn - XI d~ ~ EIX" - XI --->
n-->CX) O.

Zatem JA Xn dP T J~ X dP, a stad dla m ~ n


Dowód. Skorzystamy z kryterium z zad. 5.9.17. Po pierwsze,

sup ElE (X I Fa)


aEA
I ~ EIXI·
i ostatecznie
l XmdP ~ l X~tdP ~ l XdP,

Po drugie, jesli r' >

! ! \
O, to E (X I Fm) ) Xm,
\

co kOl1cZYdowód (ii).
. {1[(XIF~)I>r}
IE (X I Fa) I dP ,;;;
.. {1[(XIF,,)I>z}
E (lXII Fa) dP = W przypadku martyngalu nalezy udowodnione twierdzenie zastosowac do
(Xn) i do (-Xn) .•
=!. {![(XI F,,)l>"} !XldP,
Mozna udowodnic, ze X jest jedyna zmienna losowa mierzalna wzgledem
0'(F1,:F2,"') dla której Xn = E (X I Fn) (zad. 1).
poniewaz {lE (X I Fu) I > r} E Fa. Jesli ustalimy c > 0, to istnieje 5 > O
o takiej wlasnosci, ze J~ lXI dP < c, o ile P(A.) < o. Aby zakonczyc dowód, Kwestia zbieznosci martyngalów w LP dla p > 1 zajmiemy sie w zadaniach.
wystarczy dobrac tak duze r', by P(IE (X I Fa) I > 'I') < O. Ale
Twierdzenie 3 (O ciaglosci warunkowej wartosci oczekiwanej).
,,;:EIXI Niech X bedzie calkowalna zmienna loso'wa na (n, F, P), a (Fn) - c'iagiem
P(IE (X I Fa) I > r) ,;;; ElE (Xr I FQ) I '" -
T l O'-c'ial zawartych 'UJ F.

a to juz wystarczy .•
(i) Jdli ciag (Fn) jest niemalcjacy i Fa = 0'(.1'1, .1'2, ... ), to

Twierdzenie 2. Niech (Xn, Fn) bedzie jednostajnie calko'walnym podrn.ar-- E(X I Fn) -; E (X I Fa)
tyngalem (odp. mar-tyngalem). Wtedy istn'ieje taka calkowalna zmienna 10-
sowa X, ze pmwie na pewno i w L l.
(i) Xn -; X p.n. i w L1; (ii) Jesli C'iag (Fn) jest n:ier-osnacy i Fa = n::::l Fn, to

E(X I Fn) -; E (X I Fa)


(i-i) Ciag X l, X2, ... ,X jest podrn.artyngalem (odp. mar·tyngalern.).

W szczególnosc'i, jednostajn'ie calkowalny mar-tyngal (Xn, Fn) jest PTa'lJ}()-


pmw'ie na pewno i w LI.
stmnnie domkniety, czyli jest postaci
D o wód. (i) Ciag (E (XI Fn) , Fn) jest jednostajnie calkowalnym mar-
Xn = E (X I Fn) . tyngalem, wiec na mocy tw. 2 jest zbiezny,p.n. i w LI do calkowalnej
-II --------c"rij7ifl---------------- Rozdzial 11. Martyngaly § 11.5. Zbieznosc martyngalów w V' 247

i .ro-Jllkrzalllej zmiennej losowej Xo. Ponadto, poniewaz rozwazany ciag Niech F = n~=l a(Sn, Sn+l>' .. ). Wt.edy z t.wierdzenia 3(ii) ot.rzymujemy
rozszerzony o Xo jest martyngalem, zachodzi równosc

E (Xo I Fn) = E (X I Fn), n = 1,2, . Bn -> E


n (Xl I F)

Zatem dla dowolnego zbioru A E Fn, n = 1,2, ... , mamy


prawie na pewno i w LI. Wiadomo jednak (na 'mocy prawa 0-1, por. zad.
7.2.2), ze liml1~oo(Sn/n) = c p.n., i ze zbieznosci w [} ot.rzymujemy c =
jA Xo dP = JA!X dP. = E (E (XII F)) = EXl = m._
Klasa zbiorów A spelniajacych te równosc jest .A-ukladem i zawiera n-uklad
U~=l Fn, a. zatem - na mocy lematu 5.3.6 - zawiera Fo. Oznacza t.o, ze Zadania
Xo = E (X I Fa).
(ii) Ciag (E (X I F-n) , F-n)nE-N jest martyngalem z czasem odwróconym.
1. Udowodnic, ze X z ~wierdzellia 2 jest jedyna zmienna losowa mierzalna wzgle-
Teza jest bezposrednim wnioskiem z twierdzenia o zbieznosci 11.3.9. _ dem (]"(F!,:F2, ... ), dla której X" == E:(X I F,,).

2. Niech n == [0,1], :F == 8([0,1]), P jest miara Lebesgue'a, a j funkcja bore-


Mozemy teraz podac prosty dowód prawa O-l Kohnogorowa (tw. 7.2.1). lowska calkowalua wzgledem miary Lebesgue'a. Rozwazmy zstepujacy ciag
Przypomnijmy oznaczenia: jesli (X;) jest ciagiem zmiennych losowych, to podzialów odcinka [O, l]: {:rr)}7;;1' xin) == O,x~,::: == 1. Udowodnic, ze
Fl,n = a-(X1, ... Xn), Fn,oo = cr(Xn, Xn+1,· .. ), Foo = n~=lFn,oo.

Twierdzenie 4 (Prawo 0-1 Kolmogorowa). Jezeli (Xi) jest ciagiem n. w) = . j+1 dla wEXj [(n) (n»)
,Xj+l
Xr (df 1 l,,<nl
niezaleznych zmiennych losowych i A E Foo, to P(A) = O lub P(A) = 1.
x;~\ _ x(n)
J (n) xj f(z) dz
"

jest zbiezny p.n. do j (X == lim" Xn moi,na traktowac jako pochodna funkcji


D o w 6 d. Zmienna losowa lA jest mierzalna wzgledem F00, tym bardziej
wzgledem F1,00, oraz niezalezna od Fl,n dla kazdego n. Stad i z twierdzenia P(s) == Io' j(z) cl\,zgledem danego ciagu pOd~iaIÓw).
3 mamy . Zbieznosc martyngal<6w w LP. Dzieki nierównosci Dooba z zad. 11.4.4 twier-
dzenie o zbie7.110Sci mardngalów w .ui dla p > 1 mozna. sfornmlowac' nastepujaco:
P(A) = ElA = E.(lA I Fl,n) .!::::, E (lA I F1,00) = lA.

Dlatego P(A) moze przyjmowac tylko Wal'tosci O lub 1. II Twierdzenie 6. Niech (X",F")neN bedz'ie martyngalem i niech p> 1. Na.ste-
p'ujace wa.r'unki sa. "ównowazne:

Kolejnym wnioskiem z twierdzenia 3 jest prawo wielkich liczb Kolmogorowa (i) sUPneN
(tw. 7.4.9) E:IX."IP < 00,
('ii) ciag (IXnIP)~=o .iest jednost(~jnie Cellkawalny,
Twierdzenie 5 (MPWL Kolmogorowa). Jesli (Xn) .jest ciagiem nie- (oiii) ciag (X")"eN jest zbiezny w LP,
zaleznych zmiennych losowych o tym samym rozkladz'iei wartosci oczeki-
wanej m, a Sn = 2:~=iXk, to
(iv) istnieje taka zmienna losowa Y E LP(n, F, P), ze X~ = E: (Y I :Fn), n
== 0,1,2, .... J

S
--2:. -+ 'tn
n Jesli te warunki sa spelnione, to ciag (Xn)nEN jest zbiezny p.n. do zmiennej
losowej X E LP, takiej, ze X~ 'J;} B (X I Fn) dla n = 'O, l, 2, ... , przy czym X jest
prawie na pewno i w LI. jedyna zmienna losowa mierzal7'L,a wzgledem (]"(Fo, FI"" .), dla której ta równosc
zachodzi. > •

Dowód. W zadaniu 6.3.13 udowodnilismy, ze 3. Udowodnic twierdzenie 6. -,

4. Udowodnic odpowiednik tw. 6 (oczywiscie bez. warunku (i)!) w przypadku


E (XII 8n, 8n+1, ... ) = E (XII Sn) = Sn.
n p==1.
248 Rozdzial 11. Martyngaly § U.5. Twierdzenie Radona-Nikodyma 249

§ 11.6. Twi~rdzenie Radona-Nikodyma Lemat 5. Jesli ciag uogólniony (Ut)tET spelnia war-unek Cauchy'ego, to
jest zbiezny, a ponadto istnieje r-osnacy ciag indeksów (tn)nEN, dla którego
Udowodnimy teraz, korzystajac z twierdzenia o zbieznosci nadmartynga-
lów, klasyczne twierdzenie o rozkladzie miary na czesc absolutnie ciagla nlim Utn
........•
00
= limt Ut.
i singularna (osobliwa) wzgledem innej miary.

Twierdzenie 1 (Raclona-Nikodyma-Lebesgue'a). Niech /J, 1/ beda, i D o w ó d. Podstawiajac w warunku Cauchy'ego c: = l/n, otrzymujemy
miarami Sk01iczonymi na (D, F). Istnieje wtedy taka funkcja mier-zalna 1
g: D -; R+ i
taki zbiór' S E F, ze ~!(S) = O dla kazdego A E F i \In E N ::It~E T \lt E T t~L';;; t,=;- (!( Ut;', utl < ~'

1/(A) = 1/(A n S) + l g

Ponadto funkcja g jest wyznaczona jednoznacznie z dokladnosÓa do zbiorów


d~,
(l) Definiujemy teraz indukcyjnie rosnacy ciag (tn)nEN: tl = t~; jesli dane
jest in, to tn-I-I jest dowolnym elementem wiekszym od tn i t~+1' 'Wtedy
12('Ut",'Ut) < 2/n dla t ~ tn, Wynika stad, ze ciag (tn)nEN spelnia warunek
zer-owej miary ~, zas zbiór- S - z dokladno.<iciq do zbiorów ze'l'Owej miar-y Cauchy'ego, zatem jest zbiezny do u.
~+1/. Zidentyfikowalismy granice· Teraz, jesli t ~ tn, mamy

Do dowodu przydadza sie podstawowe wiadomosci o ciagach uogólnionych. 2

(E, metryczna zupelna, ;/ z,::\sT -- zbiorem cze-


/2(u,'Ut)';;; I2(U,Utn) + /2(Ut",Ut):;;; /2(u,UtJ +-,n
Nie k torzy
' w ola • Niech
, .... (2) bedzie przestrzenia •
zbiory filtrujace SCIOWO uporzadkowanym przez relacJe,;;; I skJecowanym w prawo, co ozna-
w góre· cza, ze dla kazdej pary 'I! E T istnieje ograniczenie górne, czyli takie t E T, czyli Iim/, 'Ut = u. a
i
'U"

i,e u ,;;;t 'I! ,;;; t.


W dalszym ciagu bedziemy mieli do czynienia ze zbiorem skierowanym,
Definicja 2. Oiagiem 'U,ogólnionym nazywamy dowolna funkcje u: T -; E, jaki tworza skonczone, mierzalne rozbicia przestrzeni D z naturalna relacja
porzadku:
Ciag uogólniony bedziemy oznaczac standardowo: (UtltET' Definicja granicy {"41, ... ,A.n} < {BI, ... ,Bm},
ciagu jest oczywista adaptacja zwyklej definicji granicy:
wtedy i tylko wtedy, gdy dla i = 1,2, ... n
Definicja 3. Powiemy, ze ciag uogólniony (Ut)tET ,iest zbiezny do u E E mi
(co oznaczamy limt Ut = 'U) wtedy tylko wtedy, gdy i A=UBkj'
j=1
'ic:>O ::ItoET 'itET to';;;t=>O(Ut,u) <c:.
czyli gdy roz:bicie po prawej stronie jest drobniejsze od tego po lewej.
Dwa techniczne lematy pozwola nam sprowadzic badanie zbieznosci ciagów
uogólnionych do badania "przyzwoitych" ciagÓw. Nietrudno sie domyslic, ze bedziemy rozpatrywac martyngal z takim wla-
snie zbiorem indeksów. Naturalny przyklad zamieszczamy ponizej. Dzieki
Lemat 4. Jesl-i ('Ut)tET jest ciagiem 'twgólnionyrn takim, ze dla kazdego '1'0- udowodnionym lematom mozemy ograniczyc sie do badania rosnacych cia-
snacego ciag'u wskazników (tn)nEN C'iqg(Ut,.) jest zbiezny, to (Ut)/,ET spelrl'ia gów indeksów, a to pozwala na zastosowanie teorii martyngalów z czasem
war'unek Cauchy'ego: dyskretnym, gdzie T = N.

'ic:>O ::ItoET 'itET to';;;t=>i2(Utn,utl<c:.


Przyklad 6. Dana jest przestrzeii probabilistyczna (D, F, P) i skonczona
miara 1/, absolutnie ciagla wzgledem P. Ni~ch T oznacza zbiór wszyst-
D o wód. Gdyby tak nie bylo, mielibysmy
kich skorlczonych rozbic D, uporzadkowany jak wyzej. Jesli t E T i t =
::Ic:>O 'itoET ::IiET (to<tl\i2(Uto,Ut)~C:), {.AL ... ,A~J, to definiujemy Ft = I7(Ai". .. , A~,) oraz

Wybierajac dowolne tl E T i definiujac indukcyjnie tn+l jako dowolny


element T, dla którego tn ,;;;tn+1 i (!(Ut" , Ut,,+,) ~ c:, otrzymujemy rosnacy
dla w E A}, gdy P(A}) > O,
ciag (tn)nEN, taki, ze (UtJnEN nie jest zbiezny, co przeczy zalozeniu. a
Xt(w) = ',f(~
O
{ .,,(A') dla w E A}, gdy P(A.}) = O.

l('
I, III,
251
250 Rozdzial 11. Martyngaly § 11.6. Twierdzenie Radona-Nikodyma
r /1

Innymi slowy, Xt jest gestoscia miary v, obcietej do O"-ciala Ft, wzgledem P a stad ,-,.t"

(jesli to nie jest ocZywiste, Czytelnik zechce to potraktowac jako zabawne


(3)
zastosowanie lematu o 7[- i A-ukladach). /. (c - X)dl/
,A = ./.A X d~L
Jasne jest, ze Ft C Fs dla t ~ s. Wykazemy, ze ze (Xt, Ft)tE1' jest martyn-
galem (zbiór indeksów jest co prawda nietypowy, ale przeniesienie defmicji Standardowa metoda stopniowego komplikowania funkcji poka.zuje, ze dla
na ten przypadek nie nastrecza trudnosci). Niech t ~ s i niech A E Ft· dowolnej mierzalnej funkcji f i zbioru A E :F mamy
Wtedy
(4)
L XtdP = I/(A) = L XsdP. /. f·
, A (c - X) dl/ = ./ r.f
A X d/L.

Na zakOl'tczenie zauwazmy, ze dla kazdego ciagu rosnacego (t"),,EN ciag Niech S = {X = c}. Podstawiajac A =S do (3), otrzymujemy
(XtJ jest, na mocy twierdzenia 11.3.1 o zbieznosci nadmartyngalów, zbiez-
ny p.n._
0= r (c:
./8 - X) dv = ./sr X dfL".; = CfL(S),
Dowód twierdzenia Radona-Nikodyma. Niech c = M(O)+v(D). Gdy c = O, skad p.(S) = O. Podobnie.~ (3) wynika, ze v({X > c}) = M({X > c}) = O.
twierdzenie jest trywialne. Gdy c > O, definiujemy
Niech teraz
l
P=-(p.+v). f(w) = {~/(e - X(w))
dla w E S',
dla w E S.
c
Podstawiajac f do (4), otrzymujemy
Jest oczywiste, ze miara. 1/ jest absolutnie ciagla wzgledem P. Jesli skon-
struujemy martyngal (Xt, Ft) taki, jak w przykladzie 6, to dzieki temu, ze
IXtl ~ c p,n. stwierdzimy - na mocy tw. Lebesgue'a - ze dla kazdego
rosnacego ciagu (t,,)nEN ciag (Xtn) jest zbiezny nie tylko prawie na pewno,
I/(A n S') = 1 Ans' f· (c - X) dv ~" 1
Ans' fX dfL =
ale i w L1(0,F,P) Z lematów 4 i 5 wynika, ze ciag uogólniony (Xt)I.ET = j'AnS' -X· dfL = j'A ,;g dfL,
c -X
jest zbiezny w LI (D, F, P) do zmiennej losowej X, czyli
gdzie
Vc> O ::lto E T Vt;;. to (2) dla w E S',
~ lXI - XI dP < c. g(w) = {;(w)/(c - X(w)) dla w E S.
Ostatecznie dla dowolnego A E F mamy
Nietrudno sie domyslic, ze X jest gestoscia miary v wzgledem P, a proste
rachunki pokazuja, ze gestosc 1/ wzgledem p, powinna byc równa X/(c - X)
tam, gdzie X < c. Zbiór {X = c} bedzie zbiorem S wystepujacym w (l).
Sprawdzimy teraz formalnie, ze X jest gestoscia miary 1/ wzgledem P.
v(A) = I/(A n S) + v(A n SI) = v(A n S) + i g dp"

Ustalmy zatem A E F i c> O. Niech to bedzie rozbiciem D, którego istnienie czyli (l).
gwarantuje warunek (2). Rozpatrzmy teraz rozbicie t, generowane przez to Pozostala do wykazania jednoznacznosc. Prz'ypuscmy, ze powyzsza zalez-
i zbiór A (jest to "wspólne zageszczenie" rozbic to i {A, A'} ). Poniewaz nosc zachodzi takze dla zbioru SI i funkcji gl' Wtedy dla kazdego A E F
to ~ t, mamy JfllXt - XI dP < c, i tym bardziej

li -iXt dP X dPi < c.


skad po podstawieniu
I/(A n S)

A = S otrzymujemy
+ 1.9A d/L

1/(S) = v(S n SI)' poniewaz


'A + 1.91
= 1/(A n?}.) dp"

Ale J4. Xt dP = 1/(.A.) (bowiem A E Ft; por. przyklad 6). Wobec dowolnosci fL(S) = M(SI) = O. Podobnie 1/(SI) = 1/(SlnS), wiec 1/(S\Sl) = 1/(SI \S) =
c wnioskujemy, ze dla kazdego A E F = O. '
~ . ~_I'H " \

'!
1/(A) = .A X dP
11
= -C A
X dp, +-11
C A
X dz/,
Skoro dla kazdego A E,J.f.jest 1/(A
zatem.9 = .91 M-p.n. II
n S) = 1/(A n SI), to JA.9 dp, = JA.91 dfL,
252 Rozdzial 11. Martyngaly § 11.7. Miary produktowe i za$tosowania w statystyce 253

Wniosek 7, Jesli skonczona miara v jest absol11tnie ciagla wzgledem Sk011- )(n, n = 1,2, ..
czonej miary j..L, to istnieje mierzalna funkcja g, dla któTej
gdy w n-tym rzucie wypadl orzel,
Xn= {~ gdy w n-tym rzucie wypadla reszka.
v(A) = 19dj.L,
Ponadto zdefiniujemy dwie funkcje pomocnicze:
przy czym g ): O p. n. i g jest wyznaczona jednoznacznie z dokladnoscia do
zbior'ów zerowej miary j.L. 0(1) = T, 0(0) = 1- r'; 71"(1) = p, 71"(0) = 1 - p.

Uwaga 8. W dowodzie tw. Radona-Nikodyma-Lebesgue'a gestosc dv/dj.L Niech tera.z


powstala "zdroworozsadkowo", a mianowicie jako granica wyrazen postaci
z _ o(Xd····· o(Xn) :Fn = 0"(X1,· .. Xn).
cv(A eJn - 7f(XI) ..... 71" (Xn) ,
f).~A v(A)
C _ cv(A) jl,(A) . Okazuje sie, ze ciag (Zn, :F");;:'=1 jest martYllgalem wzgledem prawdopodo-
f).(A)+v(A)
bienstwa P, dla którego P(Xn = 1) == p. l\'1amy bowiem

Zadania
E -- =-·p+--·(1-p)=1,
/ ( 71"(Xn)
Q(X,,) ) P
T 1-
l-p T
1. Wykazac, ze monotoniczna funkcja f: R -t R jest rózniczkowalna wszedzie
z wyjatkiem zbioru o zerowej mierze Lebesgue'a. i wystarczy zastosowac wynik z przykladu 11.2.5.
Poniewaz Zn ): O, n = 1,2, ... , z twierdzenia 11.3.1 o zbieznosci nadmar-
tyngalów wynika, ze ciag (Zn) jest zbiezny P-p.n., a co wiecej, granica jest
§ 11.7. Miary produktowe i zastosowania w statystyce
równa zeru, jako ze
Q(Xn+1)
Kazdy wie, ze nie da sie dlugo utrzymac w tajemnicy asymetrii monety czy
tez kosci do gry. Wystarczy bowiem wykonac dostatecznie dluga serie do-
Zn+l = Zn . 71"(Xn+I)'

swiadczen, i jesli na przyklad pojawi sie podejrzanie duzo (albo podejrzanie wiec
malo) orlów, hipoteza o symetrii monety nie da sie utrzymac. l· Z l' Z l' Q(Xn+1)
Tego rodzaju problemy sa typowe dla statystyki. Statystyk formuluje pewna n
llTISUP n+l = lmsup
n n' lmsup
n 1f (V
"/).,n+l\'

hipoteze dotyczaca modelu doswiadczenia losowego, a nastepnie stara sie ale drugi czynIlik po prawej stronie jest rózny ód 1 (bo T =1= p), wobec tego
ja zweryfikowac doswiadczalnie. W opisanej powyzej sytuacji hipoteze mo- lim sUPn Zn = O P-p.n.
zemy sformulowac naatepujaco: "rozklad liczby orlów w n doswiadczeniach Jesli orzel wypada z prawdopodo bienstwem r, to mamy do czynienia z roz-
jest rozkladem Bernoulliego z parametrami n, 1/2". W wyniku ebpery- kladem Q, ciag (Z,:;-l, :Fn) jest martyngalem zbieznym do zera Q-p.n., zatem
mentu byc moze uda sie odrzucic te hipoteze - jesli na przyklad w serii
(Zn) zmierza wtedy clo nies'konczonosci.
1000 rzutów wypadnie 900 lub wiecej orlów. Przy 510 orlach chyba kazdy
Widzimy, ze martyngal (Zn, :Fn) moze sluzyc do podjecia decyzji o wyborze
zawahalby sie przed odrzuceniem hipotezy. Niezaleznie jednak od posia-
danej wiedzy statystycznej czujemy intuicyjnie, ze im wieksze jest n, tym miedzy 't i p. Im dluzszy jest cZaS obserwacji, tym bardziej staje sie jasne,
czy ciag zmierul. do zera, czy do nieskonczonosci. Calkowitej pewnosci jed-
pewniejsze sa wyniki. Uznajemy tez, ze podejmowanie decyzji na podstawie
Ilak nigdy miec nie mozna. _
odchylenia liczby orlów od idealnej sredniej (500) jest rozsadne, natorniast
rozwazanie np. parzystosci liczby reszek jest pozbawione sensu.
Rozumowanie przedstawione w przykladzie 1 az sie prosi o uogólnienie.
Postaramy sie uzasadnic teoretycznie oba te stwierdzenia. Zaczniemy od
Zamiast dwóch rozkladówdwupunktowych nalezaloby rozpatrywac dwa
prostego przykladu, \v którym sa dwie równouprawnione hipotezy.
dowolne rozlclady prawdop'oclobienstwa j.L i lJ, byle jeden byl absolutnie
ciagly wzgledem drugiego (tak wlasnie jest w przykladzie). Ciag (Zn) bylby
Przyklad 1. Nalezy zdecydowac, czy szansa otrzymania orla przy rzucie
wtedy -- tak, jak w przykladzie ~ ciagiem gestosci miary produktowej
moneta wynosi p czy T (p r, p, r E [0,1]). Definiujemy
=1= zmienne losowe
j.L (9 ... (9 j.L wzgledem v (9 ... (9 v.
255
q,) Ilozdzial 11. Martyngaly § 11.7. Miary produktowe i zastosowania w statystyce

Udowod nimy teraz I:wierdzenie Kakutaniego o absolutnej ciaglosci miar Zeby udowodnic (ii), wystarq:zy lekkie uogólnienie tej uwagi. Otóz dla do-
wolnego ciagu zbiorów Bl\ ... , Bn E .1' marny"

!
produktowych, co pozwoli na uogólnienie przykladu 1.

Niech (no,;:-) bedziC:).,przestrzenia mierzalna, (Pn) i (Qn) - okreslonymi


na niej ciagami rozkladów prawdopodobienstwa. Niech n = no x no x ... ; Q(B1 X ... X Bn X
. \ ('
no x 'i');'
.

... ) = n Q,,(Bk) = n·II gk dPh II =

!
zmienna losowa Xn niech bedzie rzutem na n-ta wspólrzedna. Okreslamy k=l k=l' lh,
teraz u-ciala.1'n = u(X!, ... , Xn) oraz.1'oo = u(Xl, ... ,). Na tym ostatnim
u-ciele okreslone sa prawdopodobienstwa produktowe: . B1X ... xB"xn"x.,. 91(X1)· ... · gn(Xn) dP =

p = Pl 0 P2 0 . r
} Bl X, .. xB71 XnOX .. 11 indP.
Q = Ql 0 Q2 0 .
Z lematu o 7[- i A-ukladach v.rynika natychmiast równosc
Twierdzenie 2 (Kakutaniego). Niech dla kazdego n mia,m Qn /Jedz'ie
absolutnie ciagla wzgledem Pn, niech gn bedzie odp01jJiednia gestoscia n'iech i Q(B) = L indP
In = gl(X1) ' .. , 'g,,(Xn). dla wszysl.kich B E .1'n·

Wtedy
ZaJózmy teraz, ze T jesl. momentem stopu (P + Q)-p.w. sk011czonym. Jesli
n E .1'n to .
00 00
(n, Foo,

(in
(i) (In, .1'n) jest martyngalem

jesli T jest momentem


na P);

stopu wzgledem (Fn)n, skonczonym, pra'wie


Q(B) = Q(B n {T < oo}) = n=1
.z= Q(B n {T = n}), . = .z=
n=1
1_
Bn{ r_n}
in dP =
wszedzie wzgledem miary P + Q, to Ir jest gestoscia Q wzgledem P
na u-ciele Fr; r
.IBn{r<oo} ir dP = .IrB ir elF.

(iii) Q jest albo absolutnie ciagla, albo singularrl,a wzgledem P. Jesli P(lZostaje udow6dnic (-i'ii). Z nierównosci Schwarza wynika, ze
00

II1
n=1 no ..;g;. dPn > o, o ~ r
lno ..;g;. dPn ~

to (In) jest zbiezny pr'awie na pewno i


w L1 do zmiennej losowej ioo, zatem zawsze
00
która jest gestoscia Q wzgledem P na .1'ooi jesli natomiast
g ilo ..;g;. dPn < 00.

fi 1 ..;g;. dPn = o,
n=l no
Zalózmy najpierw, ze powyzszy iloczyn jest dodatni. Wystarczy udowodnic,
ze ciag (.jJ;,) jest zbiezny w L2 (n, Foo, P). Wtedy, jak latwo pokazac (por.
to limn ...••oo In = O P-pmwie na pewno, i limn ...••oo in = 00 Q-pmwie zad. 5.9.13), ciag Un) jest zbiezny w Ll (fi, .1'00' P) do pewnej zmiennej
i
losowej 00' Daje to (bez stosowania jakiegokolwiek twierdzenia Lebesgue'a)
na pewno.
równosc .:

Dowód. (i) jest oczywiste: wystarczy zauwazyc, ze In jest iloczynem nie- Q(B) = j~/oodP . ,
zaleznych zmiennych losowych o wartosci oczekiwanej równej 1, bowiem
.\ \
.' .. \' ,
dla wszystkich B E U~=1 .1',:, wiec na mocy lematu o 7[- i A-ukladach -
dla wszystkich B E .1'00' Natomiast zbieznosc prawie wszedzie ciagu (In)
Egn(J(n) = .Ino
r gn dPn = Q,,(no) = 1. do 100 wynika na przyklad z twierdzenia o zbieznpsci nadmartyngalów .
256 Rozdzial 11. Martyngaly § 11.7. Miary produktowe i za:itosowania w statystyce 257

Pozostaje zatem udowodnic zbieznosc w L2 ciagu (..;r;;J W tym celu spraw- D O wód. Wystarczy tu pokazac, ze I1:'=1 IDo. V§ dPa = O, gdzie g jest
dzimy warunek Ca\lchy'ego. Z niezaleznosci zmiennych losowych Xn i stad, gestoscia Qo wzgledem Po, na co wystarcza, by IDo V§ dPa < 1. Otóz gdyby
ze J in dP = 1, otrzymujemy ostatnia calka byla równa 1, to w nierównosci Schwarza dla funkcji 1 i V§
zachodzilaby równosc, co oznaczaloby g = const p.w. wzgledem Po, co jest
równowazne równosci rozkladów Po i Qo. li
.! (V in+k - ·Jf;Y dP = 2- 2.! V in+kin dP :=

Przyklad 4 (Zagadnienie dyskryminacji). Wiadomo, ze modelem do-


= 2 - 2 .!n+kin Jgn+l (Xn+1) ..... gn+k(Xn+k) dP = swiadczenia losowego jest jedna z przestrzeni probabilistycznych: (D, F, P),
(D, F, Q), przy czym istnieje gestosc g = dQ/dP.
=2- 2 II 1
j=n+l Do
vfifj dPj. doswiadczenia,
zdecydowac, czy faktycznym rozkladem jest P czy Q.
Na podstawie wyniku
czyli konkretnego zdarzenia elementarnego Wo E D nalezy

Wobec zalozenia o zbieznosci iloczynu (do granicy dodatniej!), dla dosta- Kazdej metodzie decydowania odpowiada tzw. zbiór kTytyczny A E F: je-
tecznie duzych n i wszystkich k E N wystepujacy powyzej fragment ilo- sli Wo E A, wybieramy P, w przeciwnym razie wybieramy Q. W praktyce
czynu jest dowolnie bliski 1, zatem warunek Cauchy'ego jest spelniony. bledne decyzje powinny kosztowac, przyjmiemy wiec, ze wybranie Q za-
Konczy to dowód pierwszej czesci (iii), miast P wiaze sie ze strata IQ, zas wybranie P zamiast Q - ze strata lp.
W celu udowodnienia drugiej czesci (i'ii) zalózmy, ze Z,llozymy jeszcze, ze dany jest pewien rozklad a prioTi, mianowicie szansa
00 natrafienia na rozklad P jest równa p, na Q - równa q = 1 - p. Zalozenie

II r
n=1 Jnu ..;g;: dPn = O.
Mozemy teraz obliczyc srednie
i Q. Wynosza one odpowiednio
straty, gdy faktycznym rozkladem jest P o istnieniu
rozkladu (L p'''io,''i
nie zawsze jest
Wynika stad od razu, ze dla n-t 00
IQP(A) + O . P(A') = IQP(A), O . P(A) + lpQ(A') = IpQ(A').
realistyczne

Calkowita srednia strata, zwana ryzykiem, wynosi


r
JD Jj;. dP fr JDor
= k=1 ..flik dh -t O.

7-(.4.) = pIQP(A) + qlpQ(A') = aP(A) + bQ(A').


Poniewaz ciag ( V]';;.) jest nieujemnym nadmartyngalem (jako funkcja wkle-
sla martyngalu) na (D,Foo,P), jest zbiezny prawie wszedzie. Jak widzieli- W dalszym ciagu bedziemy zakbdac, ze a, b > O.
smy, jest zbiezny do zera w LI, wiec i P-prawie wszedzie.
Zobaczymy teraz, jaki zbiór krytyczny minimalizuje ryzyko, Mamy
Pokazemy teraz, ze in -t 00 Q-prawie wszedzie, W tym celu zauwazmy,
ze ciag (l/V]';;.,Fn) jest nadmartyngalem na ([1,Foo, Q): zmienne losowe
l/V]';;. sa dobrze okreslone, jako ze Q(Jn = O) = J{!n=O} f" dP = O, a ella '/'(A) = aP(A) + b JA'r gdP = .j'A adP + ,A'
/' bgdP ~
kazdego n E N i B" E Fn mamy
~ .Inr rnin(a, bg) elP = .I{a~bg}·
r adP'+ r
J{<t>b9} bg elP =
r
JBvfn ::r dQ = JBvln
r 1;;- dP = l
JE Jj;. dP ~ JE l Vfn+I dP =
= a.P(g ~
a)
b + bQ (g < a
7/
. = JB
r _l-dQ
Jfn+1 . Wyznaczylismy zatem ryzyko minimalne

Wnioskujemy teraz, podobnie jak w przypadku zbieznosci ciagu (V]';;.), ze


ciag (l/.JJ::) jest zbiezny Q-prawie wszedzie, a poniewaz J(1/I]';;) dQ = 1'mi.n = .Inl min(a., bg) dP '
= J V]';;. dP -t O dla n -t 00, mamy zbieznosc do zera w LI i Q-prawie
wszedzie. _ które jest osiagane dla zbioru A = {g ~ V·
Jesli powtórzymy doswiadczenie n razy, ryzyko minimalne wyniesie
Wniosek 3. lesl'! Po i Qo sa róznymi Tozkla.dami pmwdopodob'ienstwa na
(Do, F), to rozklady pTOduktowe P = Po @ Po @ ... i Q = Qo @ Qo @ ... sa
na Foo wzajemnie osobliwe. Tn = lo'r min( "a bf n ) dpl9n 1
"bH Ro~dzial 11. Martyngaly § 11.8: Zastosowania w matematyce finansowej 259

grhie In jest opisana w twierdzeniu Kakutaniego (tw. 2) gestoscia rozkladu (obligacja) i instrumentem dajacym byc moze wiekszy zysk, ale z ryzykiem
Q ® ... ® Q wzgledem P ® ... ® P = p®n. Poniewaz (In, Fn) jest martyn- (akcja). Ceny obligacji sa deterministyczne, mian9wicie cena jednej obligacji
galem na przestrzeni (ll, Foo, Poo), to ciag (min(a, bln), Fn) jest nadmar- Bt wynosi:
tyngalem. Wobec tego Tn+1 ,,;; Tn, n = 1,2 ... , a poniewaz limn->oo In = O Bo=l, .Bt=(l+r)t,
Poo-p.n., to Tn O. l t=1,2, ... T,

gdzie r jest stala stopa pro,C;vntowa, mówiaca q ile wzrosla wartosc obli-
Udowodnilismy formalnie fakt intuicyjnie oczywisty: zwiekszajac liczbe do-
gacji pomiedzy momentami transakcji. Natomia.st ceny jednej akcji St sa
swiadczen, zmniejsz(1my ryzyko. _
zmiennymi losowymi. Cetla '"akcji w momencie zero jest znana liczba Sa·
Nasza wiedza wynika z ohsurwacji cen, zatem informacje tworza rosnacy
Zadania ciag O'-cial Ft = O'(So, Sl, .... S,.). Handel akcjami i obligacjami polega
m, okresleniu w czasie (t, t 1), na podstawie wiedzy dostepnej do mo-
-1-

1. Iloraz wiarogodnosci. Niech (X,,) bedzie ciagiem zmiennych losowych, mentu t, portfela t.zn. lic7.by akcji 1>t+1 i liczby obligacji 1]IH1, które chcemy
o którym wiadomo, ze wektor (X l, ... , X,,) ma dla kazdego n E N gestosc posiadac w momencie t + l. Sklad portfela na moment t + 1 jest para
pn, albo dla kazdego n E N ma gest.oSc Gon.. Statystycy definiuja ilora~ wia- zmiennych losowych <]')t+1' \l'lt+1' zaleznych od wiedzy do momentu t, a wiec
rogodnosci wzorem: Ft-mierzalnych. W momencie t + 1 znamy nowe ceny: nasza wiedza posze-
rzyla. sie. Korz.ystajac z tego, w czasie (t + 1, t + 2) tworzymy nowy portfel
An(X1, ... ,Xn) = Gn(XJ, ,X",) na moment t + 2. Dlatego zawsze zakladamy, ze 'procesy tworzace portfel
Pn(X1, )Xn)'
sa procesami prognozowalnymi (por. przyklad 11.2.6).
przy zalozeniu (dla wygody), ze fakt.yczna gest.oSc p" jest. ciagla i JJn.(~;) > (J
Gdy portfel w momencie O zawiera a akcji i ;3 obligacji, to jego wartosc
dla kazdego x E Rn.
wynosi Vo = aSa + ;3Bo. W momencie t wartosc portfela Vi wynosi
Zwrócmy uwage, ze nie zakladamy niezaleznosci zmiennych losowych X".
Wykazac, ze ('>-n, a(Al, ... An)) jest martyngalem zbieznym p.n. Vi = <p/St + \f!tBt·
2. Archeolog ma podzielic znalezione na cmentarzysku czaszki na. meskie lco- i Zakladamy, zc inwestor zmienia swój portfel bez konsumpcji, bez doplywu
biece. Wiadomo, ze obwód czaszki meskiej ma z dobra dokladnoscia rozklad
normalny o sredniej 57 cm i odchyleniu standardowym 4 cm; dla czas~ek kapitalu z zewnal',rz, a takze nie ponosi zadnych kosztów transakcji. Dlat.ego
kobiecych wartosci te wynosza odpowiednio 54 cm i 3 cm. majac w momencie L kapil'.al \lt = (f)/ St + \lI t Bt. moze go wydac i utworzyc
Jak klasyfikowac czaszki przy zalozeniu,.ze koszty blednych decyzji obydwu nowy portfel <Pt-H, WtH, kupujac akcje po cenach St i obligacje po cenach
rodzajów sa jednakowe, a czaszki obu plci znajdowane sa jednakowo czesto? Bt. Zat.em
Jakie jest. prawdopodobienstwo blednej decyzji? '1\SI. + WtBt = <Pt-j-lSt + WH1Bt· (1)
3. W woreczku jest. 5 monet symetrycznych i
5 t.akich, ze orzel wypada z praw- St.ad zmiana kapitalu (zysk) w momencie t + 1 jest równy
dopodobienstwem p = 1/4. Rzucamy n = 100 razy losowo wybrana moneta
i na podst.awie wyniku doswiadczenia decydujemy, czy moneta jest syme- ViH -Vi = <PtH(St+l - S,.) + wtH(Bt+1 - Bt)· (2)
t.ryczna. Koszt.y blednych decyzji obydwu rodzajów sa jednakowe. Podac re-
gule decy~yjna minimalizujaca ryzyko. \Vyplata (europejska) nazywamy dowoba zmienna losowa postaci X =
= h(ST)dla pewnej funkcji h (X interpretujemy jako sume pieniedzy otrzy-
mana w momencie T). Sama funkcja h charakteli,Yzuje produkt finansowy
§ 11.8. Zastosowania w matematyce finansowej oferowany na rynku. Na przyklad dla opcji kupna o cenie wykonania K
marny
W tym paragrafie podamy rozwiazanie problemu wyceny produktu finan- h(O = (t - K)+,
sowego oferowanego na rynku. Szczególnym przypadkiem takiego produktu
jest opcja (europejska) zakupu akcji, czyli umowa, w której druga strona czyli wyplata jest równa
zobowiazuje sie sprzedac w chwili t = T akcje po cenie wykonania K. Po-
wstaje pytanie: ile warto zaplacic za opcje w chwili O?
h(ST) = (Sy - K)+ .I
Rozwazmy najprostszy model rynku finansowego, na którym handluje sie Istotnie, poniewaz mamy prawo do zakupu akcji po cenie K, to jesli cena
w chwilach O,1, ... , Tti\.1strumentem dajacym staly zysk bez zadnego ryzyka rynkowa akcji jest wyzsza, realizujemy opcje i zarabiamy ST - J{. Jesli akcje
260 Rozdzial 11. Martyngaly § 11.8. Zastosowania w matematyce finansowej 261

sa tansze, czyli ST ( K, nie ma sensu realizowac opcji i wtedy wyplata jest Skorzystalismy tu z niezaleznosci zmiennych losowych Ui oraz zad. 6.3.6.
równa zeru. Stad
Ile taka wyplata powinna kosztowac w momencie 07 Aby zdefiniowac po-
prawnie cene wyplaty X, wprowadza sie pojecie portfela replikujacego. Port- .MUl, ... , Ut-l, l) - f t-l (Ul, ... , Ut-l) _
fel replikuje wyplate X, gdy kapital VT, który on generuje w momencie T 2(1-p) -
jest równy X (tzn. 'Iw X(w) = VT(w) ). Wartosc portfela replikujacego MUL, ... , Ut-l, -l) - Jt-1(Ul, ... , Ut-l)
w momencie O nazywamy cena wyplaty X, gdyz majac taki kapital poczat- -2p
kowy i stosujac portfel replikujacy marny w momencie T kapital VT= X.
a zatem At = CYi - Yi- Il / (Zt - Zt-1), co daje teze· Jedynosc jest oczywi-
Zbudujemy model bardziej szczególowy (Cox-Ross-Rubinstein). Niech \1 = sta. _
{g,d}T, P = J-t0T, gdzie J-t(g) = p = 1 - J-t(d). Zalózmy, ze stopa zwrotu
z akcji Rt = (St - St-Il/St-l jest zmienna losowa przyjmujaca dwie war- Z tego lematu wynika
tosci, a mianowicie dla w = (Wl, ... ,WT) marny Rt(w) = b, gdy Wt = g,
Rt(w) = a, gdy Wt = d, gdzie -1
< a < r < b. To zalozenie jest naturalne, Twierdzenie 2. Portfel z kapitalem poczatkowym Vo replikujacy wyplate
bo jesli r < a, to warto kupowac tylko akcje, a w pr'zypadku b < r tylko ob- X 'istnieje wtedy i tylko wtedy, gdy
ligacje. Krótko mówiac, ceny akcji zaleza od wyników rzutów (niekoniecznie
symetryczna) moneta.
Do znalezienia ceny wyplaty X wykorzystamy twierdzenie o reprezenta- Vo = E ((1 :rY)'
cji martyngalu, które w tym szczególnym przypadku bedzie mialo prosta
gdzie P jest T'Ozkladem zadanym przez J-t(g) == (r - a)/(b - a).
postac (i dowód). Niech
Wtedy istnieje dokladnie jeden portfel replikujacy wyplate X, zatem cena
wyplaty X momencie O wynosi Vo.
11)

Uk(w) = {l -1 dla Wk
Wk =
= g,d,
gt = rr(U1, ... , Ud, D o wód. =} Niech Wt bedzie zdyskontowanym procesem wartosci portfela,
t . tj. Wt = Vt/ Bt· Korzystajac z (2), a nastepnie z (1), otrzymujemy
Zt = I:(Uk - 2p + 1).
= il'>t+1Rt+1St + \]it+1rBt + (ril'>t+1St - ril'>t+1St) =
k=l Vt+1 - Vt

Wtedy Ul,"" UT sa niezaleznymi zmiennymi losowymi i latwo widac, ze


= il'>t+ISt(Rt+l - r) + rVt.
Zt jest martyngalem wzgledem gt· Zatem Vt+1 - (1 +r)Vi = il'>t-l-lSt(Rt+l - r-). A poniewaz zachodzi równosc

Lemat 1. Gdy (Yi, gt) jest mar·tyngalem, to istnieje dokladnie .jeden p'roces 1
prognozowalny A taki, ze RH-1 - T = :.?Y - o.)(Zt+1 - Zt),
t
(tu wykorzystalismy postar. to definiujac
Yt = Yo + I:
k=l
Ak(Zk - Zk-l)'
f.t(g»,

. 1(b - a )( 1+ r )-(t+1' Jij)t+1St,


A t ='2
D o wód. Zmienna losowa Yi jest gcmierzalna, wiec na mocy lematu 6.3.8
wnioskujemy, ze jest to proces prognozowalny, ograniczony, i taki, ze
mamy Yi = ft(Ul,: ... , Ut)- Niech
Wt+l - Wt = At(Zt+1l-- Zt). (3)
A = MUL, ... , Ut-l, 1) - h-l (Ul, ... , Ut-l)
t 2(1 _ p) .
Zt jest martyngalem wzgledem miary P, zatem Wt jako transformata mar-
Z definicji widac, ze A jest ciagiem prognozowalnym. Poniewaz (Yi, gt) jest tyngalowa jest martyngalem. Stad
martyngalem, to E (Yi I gt-l) = Yi-l' czyli

pft(Ul,"" Ut-b 1) + (1 - p) f t (Ul , ... , Ut-b -1) = f t-l (Ul , ... , Ut-l). Vo = Wo = EWT = E ( BT
VT ) ,
2(i'
Rozdzial 11. Martyngaly

a poniewaz X = VT, to [; (h) = 110.

'*= Niech yt = [; (~, , :FI)' Wtedy Y jest martyngalem, wiec z twierdze-


nia o reprezentacji wynika istnienie jedynego procesu prognozowalnego A
takiego, ze
I
y; = Yo + LAk(Zk - Zk-l)'
Rozdzial 12
k=l

Niech Vi =: (l + r·)lyt i l]! I = (Vi - At.St)B:-1. Wtedy przy kapitale po-


czatkowym 110 portfel o skladzie <'Dl =: At akcji i I]!I obligacji jest jedynym
portfelem replikujacym wyplate X .•
Lancuchy l\1'arkowa"
Uwaga 3. Gdy rn<;t/TIYdo czynienia z opcja europejska kupna z cena wy-
konania }(, co oznacza, ze posiadacz opcji otrzymuje wyplate h( ST) =:
= (ST - Kt't-) to portfel replikujacy spelnia warunek <'Dt ~ O dla kazdego § 12.1. Definicja i przyklady
t. Innymi slowy, portfel replikujacy nie zmusza do krótkiej sprzedazy akcji,
czyli pozyczenia akcji, sprzedania ich na rynku i zainwestowania otrzyma- Zaczniemy od przykladu pozornie prostej gry.
nych pieniedzy w obligacje. Dowód pozostawiamy jako zadanie:
Przyklad 1. Jacek i Placek obserwuja kolejne wyniki rzutów symetryczna
Zadania moneta i zapisuja je. Gra konczy sie wygrana Jacka, gdy w ciagu wyników
pojawi sie po raz pierwszy OOR., Placek wygrywa zas wtedy, gdy doczeka sie
1. Udowodnic uwage 3. ciagu ORO. Jasne jest, ze z prawdopodobienstwem l gra zakonczy sie. Mniej
oczywiste jest, jak obliczyc szanse wygranej dla obu graczy (choc mozna to
zrobic elernentarnie, por. przyklad 3.2.7). Nasuwa sie jeszcze kilka pytan:
Jesli jeden z graczy wybral pewien ciag orlów i reszek, jaki ciag .(nie be-
dacy podciagiem ani lladciagiem pierwszego) powinien wybrac drugi gracz,
by miec najwieksze szanse wygranej? Jaki jest sredni czas oczekiwania na A jest nad ciagiem
pojawienie sie danego cia).\u (por. przyklad 6.1.4)? i
B wtedy tylko
wtedy, gdy B jest
podciagiem A.

Gre mozna sprowadzic do schematu gry planszowej, pokazanej na rysunku.


Do wygranej Jacka prowadza stany O, OR. i ORO. Do wygranej Placka- O,

263
264
Rozdzial 12. Lallcuchy Markowa § 12.1. Definicja i przyklady 265

00 i OOR. Prawdopodobienstwa przejscia pomiedzy stanami umieszczono Intuicyjnie jest to oczywiste, bo Xn = Xn-l +'un, zas Xn-l i Un sa nieza-
przy strzalkach. Po dojsciu do stan6w OOR i ORO pozostajemy w nich. lezne. Formalnie, gdy P(Xn-l = Sn-l, ... ,X1 = 8l,XO = 80) > 0, to jak
Odpowiedzi na postawione pytania mozna znalezc w zadaniach 14-16. II latwo widac

Przyklad ilustruje mozliwosci róznorodnych zastosowall lallcuchów Mar-


P(Xn = SnlXn-1 = Sn-l,"" Xo = So) = P(Un = Sn - Sn-l) =
kowa. Próbki przydatnosci lancuchów Markowa do rozwiazywania wielu P(Un = Sn -- Sn-l,
---'------------ = Sn-l) _ P(X n -_ 3nIX n-l- 8n-l ) .
zagadnien praktycznych bedzie mozna zobaczyc w przykladach i zadaniach. P(Xn'-l
,
= Xn-l
Sn-l)
_

Lancuch Markowa (tak jak w przykladzie) charakteryzuje sie pewna liczba


dopuszczalnych stanów i regulami przechodzenia pomiedzy nimi. Istotne Ciag (Xn) opisuje losowei?ladzenie po prostej.'Innymi slowy, (Xn) opisuje
jest to, ze szansa;z;nalezienia sie w stanie A w chwili n zalezy tylko od kapital gracza w nieskoilczónej grze, w której moze on wygrac jedna stawke
stanu, w jakim bylismy w chwili 71.- 1, i od regul przechodzenia. z prawdopodobienstwem p:i przegrac jedna stawke z prawdopodobienstwem
VV celu sformalizowania pojecia lancucha Markowa bedziemy rozpatrywac 1 - p. Xo jest równe kapito.lowi poczatkowemu.gracza . .Jak zwykle, ujemne
wartosci Xn interpretujemy jako dlug gracza. m
ciag zmiennych losowych (Xn);:;:'=o okreslonych na tej samej przestrzeni pro-
babilistycznej (D,:F, P). Zmienna losowa Xn przyjmujaca wartosci z prze-
liczalnego zbioru 5, opisuje stan ukladu w chwili n. Bedziemy sie zajmo- Przyklad 5. Rozpatrzmy gre planszowa o trzech polach: SI, S2 i S3. Na
Zbiór przeliczalny wali takimi ukladami obserwowalnymi w dyskretnych momentach czasu, poczatku losujemy, gdzie postawic pionek. Nastepnie, zaleznie od pola, na
moze byc dla których stan ukladu w momencie n + l, czyli Xn+l, zalezy tylko od którym stoimy, losujemy pole, na które przesuniemy pionek. W tym celu
skonczony lub
nieskonczony. stanu ukladu w momencie n, tj. od Xn, a nie zalezy od calej przeszlosci potrzebne jest dziewiec pr~wdopodobienstw przejscia Pij z pola Si do Sj,
tzn. od wszystkich wartosci Xo, Xl"'" Xn-l' Xn. gdzie i, j = l, 2, 3. Sa one takie same dla kazdego kroku (choc mozna by
Dokladniej, przyjmiemy nastepujaca deiinicje: przyjac, ze za kazdym razem sa one inne). Zakladamy ponadto, ze kolejne
losowania sa niezalezne. '

Definicja 2. Ciag zmiennych losowych (Xn).~=o o waTto§c-iach 'lU ]!'rzeli-


Przyjmiemy, ze prawdopodobienstwa przejscia maja wartosci podane na
rysunku.
czalnym zbioTze 5 (pTzestTzen'l stanÓ'W) nazywamy la'nc'Uchern MaTko'Wa
'Wtedy
mamy
i tylko 'Wtedy, gdy dla kazdego n E N i kazdego ciagu 80, SI, ... ,sn E 5
..~
P(Xn = SnlXn-l = Sn-l,· .. ,Xl
= P(Xn =
= SI,
Snl./Y"n-l
./Y"o ==

=
SO)
Bn-l),
= Q,.:'."
O 3,'!, .,.,'..
•.•.
: l 0~2
, ' ,5 I~
" ",.52
"<?~ ..",,: ..:j"
~04 U/t /,'\","".'
.-'•.,

··~t"'/!~
~, ..0:7/
,0,7
jesli tylko P(Xn-l = Sn-I,· .. ,X1 = Sl,XO = BO) > O.
0,3 :!)h\,~3 )
"7~~il.).,

.Jest to wlasnosc MaTkowa ciagu zmien~ych losowych (Xn).;;"=o.


Mozemy je takze zapisac w postaci macierzy:
Przyklad 3. Ciag niezaleznych zmiennych losowych o wartosciach w ~bio-
rze 5 tworzy lancuch Markowa. _
P = P21 P22 P23 = 0,4 0,3 0,3
P3l
(Pll P32
P12 P33
P13) (0,3
0,3 0,7
0,2 0,0
0,5)
Przyklad 4 (Bladzenie przypadkowe na prostej). Jest to ciag nieza-
leznych zmiennych losowych (Un);:;:'=o, gdzie dla n ~ l marny P(Un = l) = Zwrócmy uwage, ze suma kazdego wiersza wynosi l (dlaczego?).
= p, P(Un = -1) = 1 - p, natomiast Uo jest dowolna zmienna losowa Niech Xo, Xl, ... bedzie ciagiem zmiennych losowych opisujacych kolejne
o wartosciach w zbiorze 5 = Z.
polozenia pionka w tej grze. Oznaczmy P(Xo = sd = Pi(O), = 1,2,3. i
Deiiniujemy Xn = Uo + Ul + ... + Un, n = 1,2, .... Ciag (Xn) tworzy Mozemy bez trudu wyznaczyc rozklad zmiennej losowej Xl, czyli liczby
lancuch Markowa.
Pk(l) = P(X1 = Sk), k = 1,2,3, opierajac sie na podanych regulach gry.
:.WU Rozdzial 12. Lancuchy Markowa § 12.1. Definicja i przyklady 267

Mamy Prawclopodobiellstwa zna.lezienia. sie w poszczególnych stanach mozemy


potraktowac jako wspólrzedne barycentryczne punktu w trójkacie rów-
Pk(l) = P(X1 = sklXo = Sl)' P(Xo = Sl) + (1) nobocznym: jesli Xl, :E2 i Xg sa wierzcholkami trójkata równobocznego
+ P(XI = Sk!XO = S2)' P(Xo = S2) + i x = PlXI + P2:C2 + pgXS, llt + P2 + Ps == 1, Pi ~ O dla i
== 1,2,3, to Pl,
P2 i pg nazywamy wspólrzednymi bary centrycznymi punktu x. Na rysunku
+ P(XI = sklXo = SS)· P(XO == ss) ,=
przedstawiono ewolucje ukladu w trzech pierwszych krokach. Nietrudno sie
== PIk' PI(O) + P2k' P2(0) + PSk . PS(O). domyslic, ze punkt odpowiadajacy rozkladowi stacjonarnemu jest jedynym
elementem czesci wspólnej rodziny trójkatów, z których pierwsze trzy po-
W postaci macierzowej da sie to zapisac krótko:
kazano na rysunku: n-ty trójkat reprezentuje dopuszczalne rozklady praw-
dopodobienstwa zmiennej losowej Xn.
(P1(0),P2(0),P3(O)) P21 P22 P23 = (Pl (1), P2(1), pa(l)). 3
PSl
(Pll PS2
P12 PS3
P13)

Jak widac, maszyneria sluzaca do obliczania prawdopodobiellstw znalezie-


nia sie w poszczególnych stanach w kolejnych krokach jest bardzo prost.a.
Mozemy bez trudu wyznaczyc rozklad Xn+l' znajac rozklad Xn. Oto wy-
niki obliczen dla kolejnych dziesieciu krokÓw. Za pierwszym razem startu-
jemy ze stanu Sl, za drugim - z Sg.

Tabela 1. Prawdopodobienstwa znalezienia sie w poszczególnych st,mach dla


dziesieciu kolejnych kroków.
n Pl (n)p3(n)
0,3000
0,3379
0,3378
0,3386
0,3352
0,3470
0,3200
1,0000 0,2828
0,7000
0,3793
0,379:~
0,2827
0,3792
0,2825
0,3802
0,:n37
0,3010
0,2660
0,4070
0,3600
0,2700
0,0000
00,2828
1,0000
0,3795
0,2833
0,3781
0,2791
0,3857
0,2100
0,4700
0,2000
0,3407
0,3270
0,3700
0,3000
0,0000
,0000
0,2856
0,3520
0,5000
0,3379
0,3380
0,3374
P2(n)
pl(n)
P3(n)
[>2('11)

dl;
Widzimy, ze po pewnym c,z'lsie uklad praktycznie zapomina o stanie po-
Dane z tabeli przedstawiamy na wykresach ponizej.
czatkowym, bowiem rozkfr~S1.'~lniennej losowej X.n zmierza do tak zwanego
rozkladu stacjonarnego (zajmiemy sie tym zjawiskiem pózniej, w § 12.5).
--5J Rozklad stacjonarny jest r~prezentowany przez wektor 7r == (7r1, ... ,7rn),
;--Sz dla ktÓrego 7r P == 7r, czyli odpowiednio unormowany wektor wlasny macie-
rzy P. W naszym przypadku jest to wektor (0,3379,0,3793,0,2828).
-,l- 53
To, ze (Xn) jest lancuchem Markowa, wynika na przyklad z zadania 1. •
\

Zapiszemy teraz formalnie wnioski z przykladu.


0,2

, , , , , , , ,0 Definicja 6. Macierz P = (Pij)i,jES nazywamy macierza przejscia na B,


° 23456789 ° 2 345 6 7 8 9 gdy wszystkie jej wyrazy sa nie ujemne, a ponadto s'uma. kazdego wiersza
268
'Rozdzial 12. Lancuchy Markowa § 12.1. Definicja i pr7.ylclady 269

wynosi 1, czyli dla kazdego iES Twierdzenie 8. Dla kazdego 1'Ozkladu pmwdopodobienstwa Q na S i ma-
cierzy przejscia P na S istnieje na pewnej pTZestrzeni probabilistycznej
I)ij
JES
= 1. cuch Markowa o rozkladzie'poczatkowym Q macierzy przejscia P. i
lan-

Jeden ze sposobów dowodu polega na nasladowaniu postepowania z przy-


Taka macierz nazywamy równiez macier'za stochastyczna. kladu 5 (patrz zad. 2). Inny - z twierdzenia Kolmogorowa C.4.2, bowiem
rozklady skonczenie wymiarowe sa zgodne, co wynika z (2).
W naszym przykladzie macierz przejscia dla kazdego kroku zostala zadana
z góry i byla taka sama dla kazdego kroku. Ogólnie nie musi tak byc. Ma- Przyklad 9. Bladzenie przypadkowe z barierami elastycznymi.
cierz przejscia II(n) = (7rij(n))i,jES nazwiemy macierza przejscia lancucha
Niech S = {O, 1, ... , a}, i niech macierz przejscia (w jednym kroku) P ma
Markowa (Xn);:"=o w :n-tym kroku, n ~ 1, gdy
postac
' O
7rij(n) = P(Xn = sjlXn-1 = Si) ...
1P
O
O
OP
P
OP 1(1 - ra)pO
O
OO O O
O Tal)
O
(1 - ro)q q I} q )
TaP O

dla wszystkich takich i, dla których P(Xn-1 = sd > O.

Niestety, macierz II(ri) nie jest wyznaczona jednoznacznie, co widac z try-


wialnego przykladu: niech S = {O, 1, 2}, Xn = O dla n = O, l, 2, .... Wtedy
kazda macierz stochastyczna o pierwszym wierszu (1, O, O) jest macierza
przejscia w n-tym kroku dla (Xn). Nie bedziemy dowodzic istnienia t;ej ma-
cierzy; zreszta we wszystkich zadaniach jest ona w mniej lub bardziej jawny
sposób dana z góry. ' gdzie p, q ~ O, P + q = 1, O ~ 1'0, ra ~ 1. Gdy 1'0 < 1 ira < 1, jest to bla-
W dalszym ciagu bedziemy badac wyhicznie zdefiniowane ponizej lar'Icuchy dzenie z barierami pochlaniajacymi (osiagajac stan O lub a zostajemy tam
Markowa jednorodne w czasie. Mozna je opisac w pelni przez podanie roz- za zawsze). Gdy TO ::= 1 = Ta, to jest to bladzenie z barierami odbijajacymi
kladu poczatkowego jJ,xo i jednej macierzy przejscia P = II(n), n = 1,2, .... (uklad startujac ze stami wewnetrznego nigdy nie dotrze do O ani do a).
W jezyku teorii gier lancuch ten odpowiada grze dwu przeciwników A i E,
Definicja 7. Jesli (Xn);:"=o jest lanC7.Lchem Markowa, to rozklad zm'ien- w której obaj maja lacznie a zlotych. Gracz A wygrywa 1 zloty w pojedyn-
nej losowej Xo nazywamy 1'Ozkladern poczatkowym. La'nc-uch Mo.Tkowa na- czej grze z prawdopodobienstwem p. Stan ukladu w momencie n odpowiada
zywamy jednorodnym (albo jednorodnym w czas'ie), gdy 'istnieje mac'ieTz kapitalowi gracza A w rnomencie n. ~txo (k) = 1, gdy poczatkowy kapital
p = (Pij )i,jES, bedaca dla kazdego n jego mo.cier·za przejsc'ia w n-tym k'rok'U.. gracza A wynosi k,
Dojscie do stanu O (oclp. a) oznacza. ruine gracza A (odp. E). Za kazdym
W przypadku opisanym w definicji dla kazdego n i dla kazdego ciagu razem, gdy gracz A (oclp. B) przegrywa ostatnia zlotówke, to przeciwnik mu
SO,Sl,'" ,sn E S marny ja oddaje z pl'awdopodobie1'lstwem TO (odp. Ta), a z prawdopodobienstwem
1 - r'O (odp. 1- 'ra) gra sie konczy. Gdy sa dwie bariery odbijajace, to gra
P(Xn = SnlXn_l = Sn-1,· .. , Xl = SI, Xo = SO) = Psn_,"" I nie konc7.Y sie nigdy. _

jesli tylko P(Xn-1 = Sn-l, ... I Xl = S], Xo = So) > O. Podstawowe wlasnosci jednorodnego lailcucha Markowa zawiera
Rozklady skoilczenie wymiarowe lancucha Markowa, czyli rozklady wekto-
rów (Xk" ... , Xk,,) spelniaja zaleznosc (zad. 20):
Twierdzenie 10. Gdy (Xn);:"=o .jest jednorodnym lancuchem Markowa, to
zachodza nastep1tjace zaleznosc'i, przy zalozeniu, ze w punktach (a), (b), (c)
wll'l"unk'i w pmwdopodob'ie'nstwach 'Warunkowych maja dodatnie pTawdopo-
P(Xo = So,··· ,Xn = sn) = P(Xo = sO)Psos1 •..•. PSn-1"n' (2)
dobienstwa:
sa wiec wyznaczone
przejscia.
jednoznacznie przez rozklad poczatkowy i macierz
(a) (lla dowolnych m, n E N i dowolnych sa, SI, ... , sn E S
Najczesciej spotykany sposób definiowania lancuchów Markowa jest Ilspra- P(X1 = Sl,X2 = S2,··· ,Xn = snlXo = sa) =
wiedliwiony przez P(Xm+1 = SI,·'" Xn+~' = snlXm = SO);

li
!O
'IW . Rozdzial 12. Lancuchy Markowa § 12.1. Definicja i przyklady 271

(b) dla dowolnych i


m, n E N dowolnych sa, SI E S 1'(Xl = Si) > O. Oznaczmy prze;/, S+ zbiór takich stanów Sm, dla których
1'(XI+1 = Sm, Xl = Si) > O i ;/'auwazmy, ze 1);171 = O, jesli m rt S+. Teraz
1'(Xn+m = sllXm = Sa) = 1'(Xn = Sl!XO = Sa);
1'(X1+n.+1 = sjlXl = s;) =
(c) dla dowolnych m, n E N i dowolnych io, il,· .. ,im,.'lj,.·.]n E S '2: 1'(X/+n.+1 = SjlXl+l = Sm, Xl = Si{P(X/'+l = Sm!XI = Si) =
{m:smES'I'}
1'(Xl = il,··· ,Xm = im,Xm+l = jl, .. · ,Xm+n = .inlXo = io) = = Sj IX'+l = Sm)1'(XI+1 = m\XI = Si) =
= 1'(Xl = il"'" Xm = imlXo = iO)1'(Xl = ]1, ... , Xn = jnlXo = im);
'2: 1'(Xl+n.+1
{m:sn·,ES+)

(d) jesli A E O'(Xn, Xn+l, ... ), to 1'(AIXo, Xl, ... , Xn) = 1'(AIX,,). '2: Pm:i(n.)Pi,n = '2: Pmj(11,)Pim = Pij(n + 1),
{m.:s",ES+} {rrr:smES)

D o wód. Punkt (a) jest oczywisty, gdyz z twierdzenia o mnozeniu i z deH- c;/,ego ualezalo dowiesc.
nicji jednorodnego lancucha Markowa Innym sposobem zctpisu zwiazku 1'(I)P(k) = 1'(k+l), wynikajacego stad, ze
1'(n) = jm sa r'ównania Chaprnana-Kolmogorowa dla prawdopodobienstw
1'(Xl = SI>." ,Xn = snlXo = so) = przejscia:
= PSDS1PSlS2'" PS~_lSn = 1'(Xm+l = SI,·'" Xm+n = sn.IXm = sa)·
Vk,l E N VSi,Sj E S Pij(k + l) = '2:Pim(k)Pmj(l),
"m,
Punkty (b) i (c) dowodzi sie podobnie.
(d) Rodzina zbiorów A spelniajacych ten warunek jest A-ukladem. R.o- Podsumujmy praktyczne wnioski z podanych twierdzen i definicji: po pierw-
dzina L zbiorów {Xkl E. Bl,' .. , Xkm E Bm}, n < kI < k2 < ... < km, sze, macierz przejscia P jednoznacznie okresla prawdopodobienstwa przejsc
m = 1,2, ... , Bi C S, jest 7r-ukladem zawartym w A, wiec z lematu o 7r- w dowolnej liczbie kroków. Tak na przyklad:
i A-ukladach 0'(12) = O'(Xn, Xn.+I>" .) C A. To, ze L C A wynika z poniz-
szej zaleznosci, zachodzacej dla dowolnego m: P(X4 = Sj, X7 = Sk, XI3 = Sz\X2 = S'I) = Pi.i(2)pjk(3)Pkl(6).
..
Po drugie, oznaczajac Pi(n) = P(X.", = S·i.), Si E S, n = 0,1, ... , otrzymu-
(3) jemy z (4.):
[;(;I] 1{Xn+1EB,} I Xo,··· ,xn.) = [; (g 1{Xn+1EB,J I x,,) ,
p'l(n) = '2: P(Xn = s;!Xo = Sk)1'(XO = Sk) = '2:pki(n)pk(O). (5)
która dowodzimy indukcyjnie. _ k i k

Macierz przejscia P lancucha Markowa sklada sie z prawdopodobiellstw Zatem znajac rozklad poczatkowy, dany przez wektor (PO(O),pl(O), ... )
przejsc w jednym kroku. Zajmiemy sie teraz mozliwosciami przejsc w wiek- imacierz przejscia P mozemy wyliczy(~ rozklad X,,:
szej liczbie kroków. Juz z przykladu l widac, ze prawdopodobieilstwa przej-
scia w n krokach tworza macierz (pO(n),PI(n), ... ) = (pO(O),PI(O), ... )1'n.

pn. o~n 1'(11,) = (Pij(11,))i,jES Przyklad 11. Lallcuch Markowa o dwu stanach, S = {O, l}, ma macierz
przejscia '
Udowodnimy, ze Pij(n) jest faktycznie prawdopodobieilstwem przejscia ze
stanu Si do Sj w n krokaCh, czyli ze J:p~, .(~~~ ~~~).
'>,
, ~'
VI E N Pij(11,) = 1'(XI+n. = sjlXI = Si), (4) Gdy Poo oj 1 lub Pll oj 1, l~t~o udowodnic indukcyjnie (zad. 10), ze

= i) >
o ile 1'(Xl O.

Istotnie, dla 11,= 1 wzór (4) jest po prostu definicja macierzy przejscia. Wy-
1'(11,)= 2 - POG- l Pll (l-Pll
1 - Pll l-poo)+
l - POG '.
konamy teraz przejscie indukcyjne: zalózmy, ze (4) zachodzi dla pewnego
n; wykazemy jego prawdziwosc dla n + 1. Niech zatem l bedzie takie, ze + (poo + Pll
2-POO-Pll - 1)" ( 1 - Poo-(l
-(l-pll)' l-Pll- poo)) .

r
272 Rozdzial 12. Lancuchy Markowa § 12.1. Definicja i przyklady 273

Ten prosty larlcuch Markowa opisuje wiele sytuacji, np. kolejne wyniki rzu- 6. Niech X" bedzie bladzeniem przypa.dkowym na prostej z przykI. 4, Xo = O.
tów moneta; system telekomunikacyjny przekazujacy tylko cyfry O i l, przy Pokazac, ze ciagi (y.,) i (Z,,), .zdefiniowane wzorami
czym na kazdym etapie prawdopodobienstwo, ze cyfra nie bedzie zmieniona a) y" = IX"I, ,,'
. wynosi p .• b) Zn = U" - Xn, gdzie U" = maxk~"Xk,
sa lancuchami Markowa; znalezc ich macierze przejscia ..
Lancuchy Markowa zostaly wprowadzone do teorii prawclopoclobiet\.stwa przez 7. Niech X i Z bedc~lancuchami Markowa o wartosciach calkowitoliczbowych.
matematyka rosyjskiego, Andrieja Andriejewicza Markowa (1856-1922). Markow Czy X + Z musi byc lancuchem Markowa?
bral czynny udzial w rosyjskim ruchu liberalnym. W 1913 roku, gdy uroczyscie 8. Seminarium probabilistyczne jest organizowane przez matematyków z To-
obchodzono w Petersburgu 300-lecie panowania Romanowów, Markow zorganizo- runia, Warszawy i Wroclawia. Na zakonczenie kazdego spotkania losuje sie
wal konkurencyjne obchody 200-lecia odkrycia prawa wielkich liczb przez Berno- z równymi prawdopodobienstwami miejsce nas,tepnego sposród dwóch pozo-
ulliego. stalych osrodków. Czy taka procedura jest sprawiedliwa, zwazyw'szy. ze or-
W tymze 1913 roku Markow przeanalizowal ciag 20000 liter poematll Puszkina ganizcl.cja seminarium wiaze sie z kosztami dla gospodarzy? Jakiego rodzaju
"Eugeniusz Oniegin" , by dowiesc, ze jest on dobrym przyblizeniem lancucha Mar- twierdzenie o lancuchach Markowa rozstrzygneloby te kwestie?
kowa. Dzielac stany na samogloski i spólgloski otrzymal nastepujaca macierz A na razie: podac macierz przejscia odpowiedniego lal'Lcucha Markowa, obli- Patrz np. § 12.5.
przejscia: czyc prawclopodobiel'lstwa znalezienia sie w poszczególnych stanach w chwili
i
n ich granice przy n ---+ 00. Zbadac szybkosc zbieznosci.
Samogloska
0,3:37
0,872
0,663
0,128 9. Niech (X..,) bedzie jednorodnym la.1'lcuchem Markowa na przestrzeni proba-
spólgloska
ska
gloska bilistycznej (O,F,P) i
niech no E N,s E 8 beda takie, ze P(X"o =- s) > O.
Wt.edy na przestrzeni probabilistycznej (D, F, Ps), gdzie Ps jest prawdo-
podobiei1stwem na F zadanym wzorem P,(B) =- P(BIX"o =- s), proces
Y,,(w) ~ X"o+n(W) jest lancuchem Markowa z ta sama macierza przejscia co
Rozkladem stacjonarnym (czyli odpowiednio unormowanym wektorem wlasnym
X" i takim, ze P.(Yo =- sol = 8s(so) ..
tej macierzy) jest (0,432; 0,568), co oznacza, ze w tekscie "Eugeniusza Oniegina"
10. Wyl«'\zac indukcyjnie prawdziwosc wzoru na postac P(n) z przykladu 11.
powinno byc 43,2% samoglosek i 56,8% spólglosek. I rzeczywiscie tak jest1.
11. Czastka porusza sie wzdluz osi OX ze stala predkoscia +v lub -v. VVchwi-
lach 1,2, ... kierunek ruchu pozostaje bez zmian z prawdopodobienstwem p,
a z praw. q = l - p zmienia sie na przeciwny. Zmienna X" opisuje kierunek
Zadania ruchu w momencie n. Znalezc P(Xn =- +vlXo = -v), P(Xo = +vIX" = +v)
oraz l'Ozklad X"' gdy wiemy, ze P(Xo = v) = r.
1. Niech (U,,) bedzie ciagiem niezaleznych zmiennych losowych, 'Pn: 8 x R'-f 8, 12. k kul bialych i k kll] czarnych umieszczono w dwu pudelkach, po k kul
n = 0,1,2, ... beda funkcjami borelowskimi (8 jesl; zbiorem przeliczalnym w l«tzdym. Stan ukladu jest opisany przez podanie liczby kul bialych w
z metryka dyskretna). Niech Xo bedzie zmienna losowa o wartosciach w 8 pierwszym pudelku. Przejscie pomiedzy stanami odbywa sie w nastepujacy
niezalezna od ciagu (U,,) i niech sposób: z obu pudelek losujemy po jednej kuli (niezaleznie od siebie), po czym
zarn.ieni'1.mydla kul pudelka. ZnaleZC:macierz przejscia dla takiego littlcucha
X"+l = 'Pn(X", U,,), n= O, 1,2, ....
Markowa (jest to model dyfuzji Bernoulliego-Laplace'a przeplywu plynów
pom.iedzy dworna 7.biornikami).
Wykazac, ze (X,,) jest lal'lcuchem Markowa.
13. Niech X, Y beda n.iezaleznymi lancuchami Markowa, oba z macierza przejscia
2. Udowodnic twierdzenie 8, korzystajac z zadania 1. P. Udowodnic, ze Z = (X, Y) jest lancuchem Markowa z macierza przejscia

3. Niech (U,,) bedzie ciagiem niezaleznych zmiennych losowych o t.ym samym P'ij,H = p';.hPjk·
rozkladzie, P(U" = l) = P(Un = -l) = ~. Czy a) X." = u." . Un+l, b) Czas oczekiwania na wystapienie wzorca. Jak sie okazuje, czas oczekiwania
y" = Un+~n+1 sa lancuchami Markowa? na wystapienie ciagu orlów i reszek (przyklad l) zalezy od tego, czy przesuniety
wzorzec pokrywa sie sam ze soba. Dokladniej, jesli A jest l-elementowym, a B
4. Pokazac przyklad lancucha Markowa Xo, Xl, ... i dowolnej funkcji boreJow-
- m-elementowym ciagiem orlów i reszek, A (k) oznacza ciag pierwszych k wy-
skiej f, takich ze f(Xo), f(XJ), ... nie jest lancuchem Markowa.
razów, zas A(k) - ciag ostatnich k wyrazów ciagu A, dla k = 1,2, ... , min(l, m)
5. Udowodnic zaleznosc (3) z dowodu tw. 10d. definiujemy .
jesli A(k) =:B(k),
l Fakty z zycia Markowa podajemy za [SNE). 8k(A, BY=
.' { 2k
O w przeciwnym razie,
'1'1·1 11.o'ld'Ii It.1 12. LmkucllY M/l.r!wwa
§ 12.2. Klasyfikacja sl,anów ~7b

'"l)) ~.
()I'I\Z
min(l,rn.) Bedziemy mówili, ze stan Sk 'jest osiqgalny ze stanu Sj, gdy p.ik(n) > O
A:B= L
k=l
8k(A,B).
dla pewnego n (oznaczenie: Sj ---- Sk)' Stany Sk i Sj nazywamy wzajemnie
komunikujqcymi sie, gdy si ---- Sk iSk ---- Sj (co oznaczamy Sj f---l Sk).
iii
j,'li
Sposób obliczania A : B naj.1epiej przedstawic na przykladzie: Stan Sk nazywamy stanem nieistotnym, gdy istnieje stan Sj taki, ze stan Sj 'l"

jest osiagalny ze stanu Sk, a stan oSk nie jest osiaga'lny ze stanu Sj'
A= 0000 l!

B=
OOOR
OOOR
8
4
-o lj,

.P
j.

OOOR
U 2

Ge/t)
A:B- OOOR--- 14 II!
I
ii
*14. Wy&'tzac, ze sredni czas oczekiwania na pojawienie sie wzorca A jest równy
A:A.
*15. Wykazac, ze jesli gracz wybral wzorzec A, a jego przeciwnik wzorzec B, to
es)
jego szanse wygranej sa równe
A:A-A:B Na rysunku stan SI jest nieistotny, stany S2 i S3 kOI~lbnikuja sie wzajemnie.
B:B-B:A'
Przyklad 1. W bladzeniu przypadkowym po prostej (przyklad 12.1.4)
Jest to wzór C~mwaya:' i hladzeniu z barierami elastycznymi (przyklad 12.1.9) wszystkie stany
*16. Vlykazac, ze jesli jeden z graczy wybral wzorzec ala2 ... (Lm., \'0 drugi zmaksy- sa wzajemnie komunikujace Sie. W bladzeniu z barierami pochlaniajacymi
malizuje szanse swojej wygranej, gdy wybierze lepszy z wzorców bal ... 0."'-1, stany 1,2, ... , a. - 1 sa nieistotne. _ 'I~

gdzie b moze byc orlerp. lub reszka. li

*17. Przeniesc cala teorie ~1Jylozonaw zadaniach 14-16 na przypadek niesyme- Zbiór stanów e bedziemy nazywali za.mknietym., jezeli zaden stan spoza e II~
tryczny. Pewnych wskazówek co do postaci wzorów dostarczaja zad. 6.2.3 nie da sie osiagnac wychodzac z dowolnego stanu w C.. Pojedynczy stan
i przyklad 6.2.4.
Sk tworzacy zbiór zamkniety (tUl. Pklc = 1) bedziemy nazywaii stanem
Funkcje harmoniczne. Jesli (X,,) jest lancuchem Marlwwa o przestrzeni sta- puchla.nia.)acym (na przyklad w bladzeniu z barierami pochlaniajacymi -
nów S i macierzy przejscia (pij), to funkcja harmoniczna nazywamy taka funkcje bariery, czyli sta.ny O i a sa sta.nami pochlaniajacyini). Pochlaniajace sa
f: S --> R, ze istnieje stala A, dla której zachodzi równosc takze stany OOR. i OR.O w przykladzie 12.1.1.
Lal1eUch Markowa nazywamy niep'/"zy'Wiedlnym, gdy wszyst.kie stany wza-
>..J(i) = LPijf(j).
JEB jemnie komunikuja sie.

18. Wykazac, ze jesli f jest funkcja harmoniczna na lancuchu Markowa (X,,) Uwaga 2. Rozpatrzmy zamkniety zbiór stanów e S. Niech % = Pij c
o skonczonej przestrzeni stanów, to ciag ()."f(X,,), a(X1, ... , X,,)) jest mar-
clla S'i, Sj E e (w macierzy P skreslamy wiers7,e i kolumny odpowiadajace
tyngalem.
starlOm nie nalezacym do zbioru e). Wtedy macierZ! Q jest stochastyczna,
19. Rozwiazac zagadnienie ruiny gracza konstruujac odpowiedni hU1cuch Mar- bo dla dowolnego 8; E E
i
kowa funkcje harmoniczna.
20. We wzorach (1) i (5) kr,yje sie - co prawda nieszkodliwe - oszustwo. Podac
poprawne dowody tyc~.zalezJlosci, a nastepnie udowodnic zaleznosc (4).
l= L
sJ.•ES
Pik = L
sJ,EC
Pik,
./

gdyz Pik = O dla Si E e, oSk !j.,C z definicji zamkm,etego zbioru stanów.


§ 12.2. Klasyfikacja stanów Oznacza to, ze na e mamy zd~finiowany nowy lancuch Markowa, który
okresla zachowanie calego lancucha po wpadnieciu <;lozamknietego zbioru
Badanie ewolucji jednorodnych lancuchów Markowa o 'macierzy przejscia stanówe.
p = (Pij);"iES zaczniemy od klasyfikacji stanów ze wzgledu na mozliwosci
przejscia miedzy nimi. v'
Stwierdzenie 3. Jesli 8;. --> Sj, Sj ---- oSk, to Si ---- Sk·
276 Rozdzial 12. Lancuchy Markowa § 12.3. Stany chwilowe i powracajace 277

Dowód. Wezmy r,n takie1 ze Pij(r) > O, pjk(n) > O. Wtedy z równania 2. Mówimy, ze (X,,) jest lancuchem'Markowa jednorodnym w czasie i w prze-
Chapmana-Kolmogorowa strzeni, gdy S == Z oraz Pi,k+i == P(X"+1 == k + ilX" == i)- == Pk. Udowodnic,
ze (X,,) jest lancuchem Markowa jednorodnym w czasie i ..~ przestrzeni wtedy
pidn + r) = LPil(r)Plk(n) ~ Pij (r)pjk(n) > O. _ i tylko wtedy, gdy X" == Uo + ... + U"' gdzie (Ui)~l jest ciagiem niezaleznych
l zmiennych losowych o jednakowym rozkladzie i wartosciach calkowil;oliczbo-
wych, zas Uo ~ Xo.
Dlatego relacja +---4, która jest symetryczna, jest takze przechodnia. 3. Udowodnic, ze larlcuch Markowa jest nieprzywiedlny wtedy i tylko wtedy,
gdy zbiór stanów S nie ma wlasciwych podzbiorów zamknietych.
4. Niech S == {l, 2, 3, 4}. Przeprowadzic klasyfikacje stanów lancucha Markowa
Wniosek 4. Jesli Si +---4 Sj, Sj +---4 Sk, to Si +---4 Sk.
:I 1 l
j 1
It t
:'1

Przyklad
l
5. Lancuch Markowa na przestrzeni
nastepujaca macierz przejscia
l 2
O O
stanów 5 = {l, 2, ... 5} ma
a)
O
O
l4 1
1
o 1D(ac~erZ6
l

1
O

'I l,I
i
l

Il p~zejS~i)a
'
O
b)
( O
O
O
l
O
O

O
';i

O
l1.l.)
';i ,c)
(l.!
4
';i

O
:I
';i D
2 2 O O
I
S-

O
O
3
4
2
l
!
101
2
O , b) O
3 "3
O

O
O
!
l l
4'
O
O
4
O

~ , c)
~

Ó
±
O
O

t
O

"l 2l
1
§ 12.3. Stany chwilowe i powracajace
a) (11 O O
~
O
O
O
O
OJ (l
O
O O ~ O
~

~O)
O

(10
l
O

O
2
O
2
O Od tej chwili stan s j lal1cucha Markowa bedziemy dla skrócenia notacji
okreslac tylko liczba j.
Przy badaniu ewolucji lancucha Markowa w czasie chcemy. wiedziec, do
.. ~J których stanów lancuch wraca nieskonczenie wiele razy, a które po pewnym
czasie opuszcza bezpowrotnie.

(@~.
W~.
01) <~?
'.' ~,
°2 vl
'W,,~,,;in
t.V Niech Pkj bedzie prawdopodobienstwem,
dotrze kiedykolwiek do stanu j. Wt;edy

Pkj = P(
00

U {Xn =
ze lancuch wychodzac

j}IXo = kl·
ze stanu k

n=1

Wtedy Gdy Jkj(n) jest prawdopodobieilstwern, ze wychodza€: ze stanu k lal1cuch


dojdzie po raz pierwszy do stanu j w n-tym kroku, tzn.
a) stany 1,2,5 sa nieistotne; {3,4} oraz 5 sa zamknietymi zbiorami stanówi
gdy ograniczymy sie do C = {3, 4} mamy nieprzywiedlny lancuch Markowa, Jkj(n) = P(XI # :l,···, X"'-1 /= j, Xn = jlXo = k)

b) {l, 2}, {3, 5}, {3, 4, 5} i 5 sa zamknietymi zbiorami stanów, 4 jest stanem to
00
nieistotnymi gdy ograniczymy sie do CI
nieprzywiedlny lancuch Markowa,
= {l,2} lub C2 = {3,5} mamy
Fkj = L
n=l
fkj(n).

c) 2,5 sa stanami nieistotnymii {1},{1,2,5},{3,4} i 5 sa zamknietymi


zbiorami stanów, przy czym 1 jest stanem pochlaniajacym, a gdy ogra- Przyklad 1. Dla lal'icucha Markowa o dwu stanach (5 = {O, l}, patrz
niczymy sie do {3,4} ta mamy nieprzywiedlny lancuch Markowa. _ przyklad 12.1.11) mamy: foo(l) = Poo, foo(n) = POIP~'12plO dla n ~ 2.
Zatem
00 00

Zadania Poo = L foo(7,!) = Poo + LPOIP~i2plO


n=l " n=2

1. Niech Xi beda wynikami kolejnych rzutów kostka i niech Z" bedzie ostatnia
i Poo = l, gdy poo =l lub Pll'< 1.
cyfra liczby Xl Xn. Jakie sa stany pochlaniajace lancucha Markowa Gdy poo < 1 i Pll < 1 to po analogicznych rachunkach otrzymujemy, ze
Zn? PlO = POI = Fu = Poo = 1. •
278
Rozdzial 12. Lancuchy Markowa § 12.3. Stany chwilowe i powracajace 279

Ze wzoru na prawdopodobienstwo calkowite latwo wynika (zad. 1), ze praw- co daje teze twierdzenia. Przejdziemy teraz do dowodu równosci (2).
dopodobienstwa Pkj(n) i /kj(n) sa zwiazane równoscia
Ustalmy nI < 71,2< ... < nk. V/tedy
fi. n-l
Pkj(n) = L
7n=1.
Ikj(m)pjj(n - m) = L
m.=O
,fk.j(n - m)pjj(m) (1) P(X"I
k
= .i,l = 1, ... ,k,Xn
.' H\
'
oj: j dla n oj: 71,/,71,
,
~ nklXo = i) =

dla dowolnych stanów'j, k i dowolnego n ~ 1, gdzie Pkj(O) = Ókj. I1[P(X"f_d-1 oj: .1, ... , Xr,,-1 oj: j, Xnl = .iIXnl_l = j) x
1.=2

Definicja 2. Stan j nazywa.my X P(X1


n
oj: .i, ... , Xnl_1 oj: j, Xn1 = .1lXo ~ i)] =
(a) powraca.1acym, gdy Fj.j = 1; fij(nl) fI li.i(n/
1=2
- ni-l)'
(b} chw'ilowym, gdy FjJ < 1.
Sumujac po wszystkich k-elementowych ciagach rosnacych n], ... ,nk i kla-
Zatem stan j jest powracajacy, gdy lancuch startujacy ze stanu j powróci do dac mI = nI, '{'nI = T/'I - 71,1_1 dla l> 1 otrzymujemy (2):
niego z prawdopodobiel'istwem 1. W przykladzie 1 stan O jest powracajacy,
gdy Poo = 1 lub Pu < 1.
P(AI,IXo = 'i) = L Iij (mIlljj (m2) .,. fJj(mk)=
Niech zmienna losowa Nj liczy, ile razy proces przebywa w stanie .i, tzn. Taj ,·m,2, ....·1'171k;;?1

Nj = L~=II{Xn=j}· Nastepujace twierdzenie wyjasnia. lepiej nazwy: stan 00 k 00

powracajacy i chwilowy. = (L
ml=1
Iij(mIl) II( L
Ij~(ml))
/=2 m!=1 .
= FijFL-l .•

Twierdzenie 3. Stan'j jest


Uwaga 4. a) Z (3) wynika, ze P(Nj = oolXo = i) = Fij gdy j jest stanem
(a) powracajacy wtedy i tylko wtedy, gdy P(Nj = oo[Xo = j) = 1; powracajacym, a gdy j jest stanem chwilowym, to P(Nj = oolXo = i) = O.
Zatem w stanie chwilowym przebywamy tylko skonczenie wiele razy, nieza-
(b) chwilowy wtedy i tylko wtedy, gdy P(Nj < oolXo = j) = 1. leznie od tego, skad startujemy.

D o wód. Oczywiscie {Nj = oo} = lim sUPn {Xn =.n. Gdy Ak jest zdarze- b) Stan nieistotny k jest sta.nem chwilowym na mocy (5), gdyz dla stanu.1
niem polegajacym na tym, ze Xn = .1 dla co najmniej k róznych momentów takiego, ze k -->.1 i -,(.7 --> k) jest P(Nk < oolXo = k) ~ Pkj(n) > O (patrz
takze zad. 9).
czasu n, czyli Ak = {Xn! = j dla pewnych nI < 71,2 < ... < nd, to
Ak-l-1 C Ak i n;;o=1 Ak = lim sup" {Xn = .i}. Zatem z twierdzenia o ciaglo-
sci: Podamy teraz drugie twierdzenie charakteryzujace stany chwilowe i powra-
cajace za pomoca macierzy przejscia P. Niech
lim P(AkIXo
k-+oo
= i) = P(limsup{Xn
n = j}IXo = i) = P(Nj = oolXo = i). 00 00

Teraz polmzemy, ze Pj ill LP:ij(n)


n=l
= L P(X"
11.=1
= .1lXo = ,j) =
00
= 'i) =
Wtedy z (2) otrzymujemy
P(AkIXo FijFj~-I. (2)
= L ['
n=1
(l{j} (Xn) I Xo = j) = [' (Nj
I
I Xo = j),

a wiec Pj jest srednim czasem przebywania lanc'ucha Markowa w stanie j


dla Fjj < 1, (3)
P(limsup{Xn
n =.1}IXo =i) = k-+oo.
lim FijF/j-l = {~ .. 1.) dla Fjj = 1.
Twierdzenie 5. Stan.1 jest
Biorac i = .1 otrzymujemy:
P(Nj = oolXo =.1) = 1q Fjj =1 (4)
(a) powracajacy wtedy i tylko wtedy, gdy Pj = +00;
I"

P(Nj = oolXo = .1) = O q Fj.i < 1, (5) (b) chwilowy wtedy i tylko wtedy, gdy Pj < 00.
280 Rozdzial 12. Lan.cuchy Markowa § 12.3. Stany chwilowe i powracajace 281

D o wód. Korzystajac z (1) mamy Przyklad 7 (Bladzenia). a) Bladzenie przypadkowe po prostej. S = z.


n n k-l Z dowolnego stanu j przechodzimy na prawo cLostanu j + 1 z prawdopodo-
bienstwem p, a na lewo do stanu j - 1 z prawdopodobienstwem g = 1 - p.
L,pjj(k)
k=l
= L, L, !jj(k
k=l m=O
- m)pjj(m) =
Zatem Pj,j+! = p, PJ.j-1 = g, Pjk = O gdy Ij - ki =11. Zbadajmy czy zero
n-l n n jest stanem powracajacym. Otóz
= L pjj(m) L iJj(k - m) ::;; L pjj(m)Pjj =
m=O k=m+l m=O
n poo(2n) = (2n)
n 1
yJrn
pngn ~ ·-;;;;_(4pqt,
= Pjj + Pjj L, pjj(m).
m=l gdzie do otrzymania przyblizenia uzylismy wzoru Stirlinga. Do zera mo-
zemy wrócic tylko w parzystej liczbie kroków, zatem poo(2n + 1) = O.
Stad Stad I:~=lPoo(n) < 00 dla p =I ~, bo wtedy O < 4pq < 1. Dla p = ~,
n I:~=oPoo(n) = 00. Otrzymalismy nastepuj acy wynik:
(1- Pjj) L, pjj(m)
m=l
::;;Fjj. (6) Zero jest stanem powracajacym wtedy i tylko wtedy, gdy p = ~.
b) Bladzenie przypadkowe w przestrzeni R k, k ~ 2.
Niech
Udowodnimy najpierw punkt b) twierdzenia.
Gdy stan j jest chwilowy, to na mocy (6) Xn = (X~,O, ... ,O) + (O,X~,O, ... ,0) + ... + (O, ... ,O,X~),
Pjj
Pj ::;; 1- F JJ < 00. gdzie Xl, X2, ... ,xn sa niezaleznymi bladzeniami losowymi po prostej.
Wtedy
Gdy Pj < 00, tzn. (Nj I Xo = j) < 00, to P(Nj = oolXo
E.: = j) = O, wiec k
z poprzedniego twierdzenia j jest stall8m chwilowym.
Mozemy teraz udowodnic punkt a). poo(2n) II
= ",=1 P(X2n = OIX~ = O) =
1 1
[(2n)pnqn]k
n ~

Gdy j jest stanem powracajacym, to nie moze byc Pi < 00, bo wtedy
z punktu b) twierdzenia wynikaloby, ze stan j jest ch"';ilowy. Zalózmy, ze
~[--(4
vnVif pq
)n]k _ .
- nk/2 JTk/2 (4pg)
1
nk
,
Pj = 00. Gdyby bylo Pjj < 1, to lewa strona (6) bylaby nieograniczona, poo(2n + 1) = O.
a prawa ograniczona - sprzecznosc. Zatem Fjj = 1, czyli .j jest stanem
powracajacym. _ Zatem dla k = 2ip = ~ mamy
Stwierdzenie 6. Jezeh j jest stanem chvJilo'Wym, to dla. kazdego stan7.L';, 00 1 00 1
I:~=lPij(n) < 00, zatem lim.n~ooPij(n) = O. L,poo(n) = - JT
L,'- n = 00,
n=l n=l

Dowód. Dla i=j teza wynika z twierdzenia Sb. Gdy i =I j, to z (1) czyli zero jest stanem powracajacym.
wynika, ze
Dla k =2 ip =I ~ zero jest stanem chwilowym. Dla k ~ 3 mamy
00 00 n
1
LPij(n) = L L !ij(rn)pjj(n - m) = poo(2n)::;; Cknk/2
11,=1 n=11n=1 .,
00 00 00 00

= L L, !ij(m)pjj(n
rn=l n='m
- m) = L, /ij(m)
rn=;].
L,pjj(l)
l=l
=
i kazdy stan jest chwilowy. Zatem wychodzac t zera lancuch moze z dodat-
nim prawdopodobienstwem nigdy tam nie wró~ic .•
= FijPj < 00,
Wydaje sie, ze nie ma powodu, by w powyzszym przykladzie stan zero byl
gdyz j jest stanem chwilowym. _ stanem wyróznionym. I tak rzeczywiscie jest.
2/)2 Rozdzial12. La11cuchy Markowa § 12.3. Stany chwilowe i powracajace 283

Twierdzenie 8. W nieprzywiedlnym lancuchu Markowa wszystkie stany Twierdzenie 11. PTzes!;rzen stanów S lanc'ucha Markowa mozna .iedno-
sa tego samego typu: jezeli jeden jest powraca.iacy (odp. chw-ilowy) to wszyst- znacznie przedstawic w postaci sumy:
kie sa powracajace (odp. chwilowe).
S = T U SI U S2 U .. :,
Uwaga 9. Twierdzenie to mówi, ze wszystkie stany sa tego samego ro-
dzaJu, wiec mozemy ,mówic o lancuchu Markowa okreslonego rodzaju, np. gdzie T jest zbior'em stanów chwilowych, a Si ,'UtniepTzywiedlnymi zamknie-
powracajacym. tym'i zbioTami stanÓw powmcli.iacych.

D o w ó d twierdzeni~ 8. Wezmy dwa dowolne stany: j, k. Wtedy istnieja D o w ó d. Dla stanu powracajacego j
.i, E S \ 1', niech Sj = {k: k <-+ j}. Sj
liczby naturalne N, M > O takie, ze a = Pk.i(N) > 0, (3 = P.ik(M) > O. Dla jest zamknietym zbiorem stanów wzajemnie komunikujacych sie. Sk = Sj
n E N mamy • dla k E Si oraz Sk n Si = 0 dla k rt (Si U T). Zatem S \ T rozbija sie na
rozlaczne klasy, które mozemy ponumerowac: SI, S2, ....•
pjj(N + M + n) = LPji(M)pii(n)pij(N) ~ Pjk (M)Pkk(n)pl'.i (N) =
lIi
Z twierdzenia wynika, ze gdy Xo = k i k E Sn, to lal'icuch Markowa nigdy
= afJpkk(n). nie opusci Bn i mozemy wziac Sn jako cala przestrzen stanów, a jesli k E T,
to lar1cueh pozostaje w T caly czas lub trafia do jakiejs klasy Sm, gdzie juz
Analogicznie, pkIc(N + M + n) ~ ajJpjj(n). Stad, dla n > M + N, pozosta.je.
1
(7)
a(3pjj(N + M + n) ~ Pkk(n) ~ a{3pjj(n - M - N),
Zadania
zatem asymptotyczne wlasnosci ciagów Pkk (n) i Pjj (n) sa identyczne: na
przyklad L~=IPjj(n) = 00 wtedy i tylko wtedy, gdy L~=1Pkk(n) = 00 .• 1. Udowodnic równosc (l), czyli:
Z tego twierdzenia i z przykladu 7 przed nim wynika, ze dla symetrycznego
bladze'nia przypadkowego na prostej i na plaszczyznie wszystkie stany sa '1"1 n-l
powracajace, natomiast dla bladzenia w R\
k ~ 3, wszystkie stany sa Pkj(n) = L !kj(m)p:ij(n - m) = LJ'kj(n - m)pj.i(m)
ehwilowe. Stad, jak zauwazyl W. Feller, zdanie "wszystkie drogi prowad7.a H/,::.::l 1n=O

do Rzymu" jest prawdziwe na plaszczyznie, a nieprawdziwe w R 3.


2. Zbad,lc, czy sa powracajace ll<\stepujace lallCuchy Markowa opisujace bla-
Wniosek 10. Jezeli lancuch Markowa jest powrac(~iacy, to dlo. kazdego d~,enia losowe po kracie Zd, d;;' l.
stanu j a) Poruszamy sie wzdluz wersorów. Zn+1 = Xn + Jn+1, zmienne losowe Jn
P(3n ~ 1 Xn = j) = 1 sa ni()M]()~ne o Cym samym ro~kladzie, P( li = ±en) = fa, gdzie ej, ... ,ed
sa wersorami w R d.
niezaleznie od T'Ozkladu poczatkowego Xo.
b) Jezeli w momencie '/I, jestesmy w punkcie a', to traktujac a jako srodek
kostki skaczemy ze srodk:: Ha jeden z wierzcholków.
Dowód. Poniewaz Fij= 1 dla kazdego i (zad. 9), to Xn+l = Xl). + Yn+1, }~, .- .. niezalezne, o tym sa.!rnyrnrozkladzie.
00
1;'
P(3n ~ 1 Xn = J) = P(
;
U {Xn
n=1
= j}) = P(Yn=(C'1, ... ,C'd))=2d' ., C'i=±l.
00
3. Wykazac, ze dla stanu chwilowego i zachodzi
= LP(U{Xn =j}[Xo = i)P(Xo = i) =
iES n=1. Pi
Fi;, = 1 +Pi'
=. L FijP(XO = i) = 1..
iES
L-,r/._ Pij (n) = 00 .
4, Wykazac, ze jesli stan j jest powracajacy . oraz'ia -; j, to ,",00_1
Poslugujac sie klasyfikacja stanów na chwilowe i powracajace mozna prze- 5. Wykazac, ze jesli j jest stanem chwilowym, to Ln Pi:i(n) < 00 dla dowolnego
strzen stanów S podzi~lic na klasy, o czym mówi stanu i. \~T szczególnosci limn Pij ( n) == O,

1-
284 Rozdzial 12. Lancuchy Markowa 285
§ 12.4. Lancuchy okresowe

6. Niech lancuch Markowa z przestrzenia stanów S = {o. l, 2, ... } ma macierz Definicja 3. NiepTzywiedlny lancuch MaTko,lila naZY1uamy okTesowym, gdy
przejscia postaci: POl = Po, poo = l -'- po, P:n.n+l = Pn, pnO = l - p·rt·
jego stany sa okresowe z okresem d > 1. W pTZeC'iwnym pTZypadku lancuch
Kiedy ten lancuch jest powracajacy, a kiedy chwilowy? nazywamy n'ieokresowym.
7. Udowodnic, ze lancuch Markowa o skonczonej liczbie stanów nie moze skla-
dac sie z samych stanów chwilowych. Czy jest to prawda dla lancuchów Opiszemy teraz przestrzen stanów takiego lancucha.
Markowa z przestrzenia stanów 5' = {l, 2, ... }?
j
8. Udowodnic, ze dla 'skonczonego lancucha Markowa jest stanem chwilowym Twierdzenie 4 (O rozkladzie na podklasy cYkliczne). ZbióT stanów
j
wtedy i tylko wtedy, gdy jest stanem nieistotnym. Czy jest to prawda ella S okTesowego lancucha MaTkowa o okTesie d z macieTza przej§cia P mozna
lancuchów o przestrzeni stanów nieskonczonej? pTZedstawic jako sume 'rOzlacznych zbiorów Si, ... Sd takich, ze
9. Udowodnic, ze jesli lancuch Markowa jest powracajacy, to Fi:i = l ella kaz-
dych stanów i, j. ; (i) jesli Pij> O, i, E Sn" to jE Sm+l (przyjm'ujemy, ze Sd+1 = Si),
10. Niech (X;:) i (X~) beda symetrycznymi hladzeniami przypadkowymi na pro-
stej, startujacymi odpowiednio z punktu a E Z i b E Z. Jaka jest szansa, ze
. 'l'~ na
(ii) Jes Sm za d.o.my macwrz
.' ., .' Pij
przeJscza (m) = Pij (l)"( , ·t,J E S n, t O
te dwa hladzenia'3potkaja sie w pewnej chwili w jakims punkcie? otrzymamy n:iep'rz'fjl1JiedlnynieokTesowv}anc'uch Ma.Tkowa.

Dowód. Niech Sm = {j E S::Jk E N Plj(kd+m) > Ol. Lancuch jest


§ 12.4. Lancuchy okresowe nieprzywiedlny, wiec dla kazdego.i E S istnieje n takie, ze Plj(n) > O, wiec
S=~U~U ...
U~. -
Widzielismy juz, ze nie zawsze mozna wrócic do punktu wyjscia w dowolnej Rozlacznosc zbiorÓw Sn wynika natychmiast.z przechodniosci relacji kon-
liczbie kroków. Na przyklad dla bladzenia przypadkowego na prostej powról; gruencjI i
stad, ze jesli j E Sm oraz Plj (s) > O, to s == m (mo d d). Ten
do danego stanu moze nastapic tylko w parzystej liczbie krokÓw. MÓwimy ostatni fakt ma miejsce, gdyz Pjl (t) > O dla pewnego t, zatem Pll (kd + m +
wtedy, ze stan ma okres 2. OgÓlnie, przyjmiemy nastepujaca de6.nicje. t) > O i pn(s + t) > O. Stad d dzieli m + t i dzieli s +t, wiec s == m (modd).

Definicja 1. Okresem stan'u j nazywamy liczbe (i) zachodzi, gdyz Pij > O i Pli(kd + m) > O dla pewnego k, pociaga
Plj(kd + m + l) > O, zatem jE Sm+l.
oU) = NWD{n:pjj(n) > Ol.
Aby udowoclni(~ (-in, wykazemy, ze (pgn)) ..
'l,JESm jest macierza przejscia.
Jest to najwiekszy wspólny dzielnik zbior'IJ,tak-ich n, ze powrót do stan'l! j Dla dowolnego i, E Sm mamy
moze nastapic po n krokach.
Stan j nazywamy okTesowym, gdy oU) > l i nieokTesowyrn, gdy oU) = 1. L p~T) = L Pij(d) = L Pij (d) + L
jES'm jESm jESm jES\Srn
Pij(d) = LPij(d)
jES
= l,
Oczywiscie pjj(n) =.0 dla n nie bedacych wielokrotnosciami oU).
poniewaz Pij (ci) = O dla.J ej Sm (z punktu (i) wynika, ze w jednym kroku
Twierdzenie 2. W n'iepTzywiedlnyrn lanc'uchlL Ma'rkowa wszystk'ie stany przechodzimy z Sk do SI:+l, k = 1,2, ... , d - l, a z Sd do Sl, zatem w ci
maja ten sa.m ok'res. krokach przechodzimy z Sm do Sm)' •

Z tego twierclzenia wynika, ze czesto badanie okresowych larlcuchów Mar-


D o wÓd. Wezmy dwa dowolne stany i, j. Niech di = o (-i) , dj = oU). Ponie- kowa mozna sprowadzic do bada.nia larlcuchów nie okresowych.
i
waz <-+ j, to istnieja m, l takie, ze P'i:;(I) > O, Pji (m) > O. Niech n bedzie
takie, ze pjj(n) > O. Wtedy
Zadania
pii(l + m + n) ~ Pij (l)pjj(n)pji(m) > O,

zatem di dzieli l + m + n. Takze Pii (l + ni) > O, wiec di dzieli l + m, stad


di dzieli n. Zatem di :::; dj, bo dj =, NWD{ n: Pjj (n) > O l. Analogicznie o .!. 1. o
rozumujac otrzymujemy, ze di ~ dj, wobec tego di = dj .• a) l O O, h) l O O O
Ola
1. CZY(l~nC~Chl 0010
N)larkowa o(~actz~ PT)jSCia
Dlatego mozemy mówic o okresie samego lancucha i ma sens definicja:
jest lancuchem okresowym?

I J

Ii
II
§ 12.5. Rozklady stacjonarne i twierdzenia ergodyczne 287
286 Rozdzial 12. Lancuchy Markowa

2. Udowodnic, ze jesli dla macierzy przejscia nieprzywiedlnego lmicucha Mar- Przyklad 3. Model Ehrenfestów. k czasteczek rozmieszczono losowo
kowa istnieje takie j, ze PJJ' > O, to lancuch nie jest okresowy. w dwu naczyniach (1 i II). W chwili n losowo wybrana czasteczke przenosi
3. Czy jesli wszystkie elementy na przekatnej macierzy przejscia nieprzywiedl- ~ie z nac~ynia, w którym byla, do drugiego. Jesli w pewnej chwili w naczyniu
nego lancucha Markowa sa równe zeru, to lancuch jest okresowy? I jest m> ° czasteczek (uklad jest w stanie m), to w chwili nastepnej uklad
znajdzie sie w stanie m-l lub m+1, zaleznie od tego czy czasteczka przeszla
z naczynia I do I I, c?,y odwrotnie. ZnaleM: rozklad stacjonarny.
§ 12.5. Rozklady stacjonarne i twierdzenia ergodyczne Rozwiazanie. S = {O, 1, ... , k},pl,I-1 = t,Pl,lH = kkl. Pozostale ele-
menty macierzy przejscia sa zerami. Rozkla.d stacjonarny 'Ir spelnia równa-
Okazuje sie, ze dla wielu lailcuchów Markowa (X,,) wplyw r07..lcladu poczat- nie'lr = 'Irp, tzn.
kowego na prawdopodobieilstwo znalezienia sie ukladu w ustalonym stanie 7l'1
maleje wraz ze wzrostem n. Taka sytuacje widzielismy w § 12.1 (przyklad 'Ira = k'
5). Z kolei zad. 12.1.8 sugeruje, ze ma miejsce szybka zbieznosc rozkladów 2
(Xn) do tak zwanego rozkladu stacjonarnego. 'lrl = 'Ira + k'lr2,
Zajmiemy sie teraz tym zjawiskiem. Zaczniemy od rozkladów stacjonar-
nych.
7r1 = ( 1 - l-l) T 7rl-l + 1+1
T7r1+1,
Definicja 1. Mówimy, ze 1'ozklad prawdopodobie'nstwa (7Lj).iES .jest 1'Ozkla-
dem stacjonamym dla lancucha Ma1'kowa o macieTzy prze.iscia P, gdy 7fk = k'
7fk-l

7r = 7rP, Stad 'lrl k'lrO, 'lr2 ~(7l'I-7l'O) (~)7rO,7r3 k


:3 (7r2 - ~7fl
k-l) (~) 7fo,
ogólnie
czyli gdy 2:jEs 7rj = 1 oraz dla kazdego j jest 7rj ;:::° i 7rj = 2:i 7r'iPi ..i'
7l'i = (k)l 7fo,
1= 0,1, ... k.

Przyklad 2. Znalezc rozklad stacjonarny dla lancucha Markowa o macie-


rzy przejscia P, gdzie
Poniewaz 2:~~0 'lri = 1, to 'Ira = -dt i 7f1= m -dt, a wiec ro~klad stacjonarny
jest rozkladem dwumianowym .•

a) l ,b) (1° G)
(1.l 1.) i' . Zajmiemy sie teraz asymptotyka ciagu (Pij (n)) n' Zaczniemy od lematu.
Ad. a) 7r = 7rP tzn. Lemat 4. J(;sli (Xn) .iest nir1pTzyw'iedlnym, n:ieo/;nsowym la.ncuchem Mar-
kowa, 1;0 dla kazdej paTY sf;Q',ió'W'i,j ma.my Pij (n) \> O dla dostatecznie du-
1 1
27r1 + 37r2 = 7rl, zych n .. ;) .1"

l 2
-7rl
2
-I- -7r2
3
= 7r2 D o w ó d. j jest ~tanem nie~i~'esowym, czyli o(j)= 1, wiec istnieja liczby
naturalne Tl.r,Tl.2,'" ,n,. takie, ze pj.i(Tl.m) > O,m.= 1, ... ,7' oraz
7l'1+ 7l'2= 1.
NWD(nl,'" ,n,.) = 1.
Stad 7rl = ~,7r2 = ~.
Tu nie jest Ad. b) Dla kazdego wektora 7r = (7l'1,7l'2) mamy 7r = 7l'P, wiec istnieje Istnieje takie no, ze jesli n ;::: no, to n = alnl"+ a2n2 + ... arnr, gdzie
prawda, ze
nieskonczenie wiele rozkladów stacjonarnych. Kazdy jest wyznaczony przez
ai - ca.lkowite, ai ;::: 0, i
= 1,2, ... r. Istotnie, najwiekszym wspólnym
p.ii(n) -+ 1rj. dzielnikiem zbioru C = {n:pjj(n) > O} jest 1, wiec istnieja nr, ... , nr E N
7rl E [0,1] (wtedy 7r2 = 1 - 7rr) .•
oraz 11,"" lr E Z takie, ;;,e 2:~=llin.i = 1. Niech no = nI 2:~=1 Iii Ini.
Wtedy n ;:::no ma przedst.awienie postaci n = no -I- knl + m, gdzie k ;::: 0,
Gdy 7r jest r.ozkladem stacjonarnym, to 7l'P2 = (7rP)P = 7l'P = 7r i przez m < nI. Stad
indukcje 7rpn = 7l'. Zatem, gdy Xo ma rozklad 7r, to jak wiemy X." ma.
rozklad 7l'p'" = 'Ir, czyli ciag (Xn) jest ciagiem zmiennych losowych o tym n = knl + 2)nl11;l + mli)ni,
samym rozkladzie. Stad wlasnie nazwa "stacjonarny". i=l

I'
289
288 Rozdzial 12. Lancuchy Markowa § 12.5. R.ozklady stacjonarne i twierdzenia ergodyczne

czyli n = aJnl + ... + arnr, gdzie al ~ O, 1= 1,2, ... r. Wtedy dla n ~ no (i'i) Wykazemy, ze jesli 1[ = (1[j) jest rozkladem stacjonarnym, to dla do-
r wolnych stanów i,j: lim,,~=Pij(n) = 1[j.
pjj(n) ~ II
m=l
pjj(amnm) ~ II
m=l
[pjj(nm)]"m > O.
Rozpatrzmy lancuch Markowa (Xn, Yn), na przestrzeni stanów 5 x 5, z ma-
cierza przejscia P zadana wzorem: Pij,kl = Pik' Pjl· Taki lancuch istnieje
(tw. 12.1.8), bo P jest macierza stochastyczna, co wynika z tego, ze p jest
Poniewaz Pij(t) > O dla pewnego t, to Pij(t + n) ~ Pij(t)Pij(n) > O dla . macierza stochastyczna (patrz tez zad. 12.1.13).
n ~ no. -
Poniewaz Pij (n) > O dla dostatecznie duzych n (lemat 4), to Pij,kl(n) > O
dla dostatecznie duzych n (korzystamy tu z nieokresowosci), wiec (Xn, Yn)
Twierdzenie 5. Niech (X,,) bedzie nieprzywiedlnym, nieokr'esowym lan-
cuchem Markowa, dla ktor'ego istnieje rozklad stacjona:my 1[. Wtedy jest nieprzywiedlnym lancu.chem Markowa. Jak latwo zauwazyc, jest on
nieokresowy i 1[ij = 1[i '1[j je.st rozkladem stacjonarnym, wiec (Xn, Yn) jest
(i) (Xn) jest lancttchem powracajacym, lancuchem powracajacyi~l (1)1\nkt (i) dowodu).
Niech T = inf{n: X" = Y" = l}. Poniewaz z uwagi 12.3.4 i zadania 12.3.9
(ii) limn~=Pij(n) = 1[j > O dla wszystkich stanow i,j,
wynika, ze P(Nll = oolXo == i, Yo = j) = dla powolnych stanów l,j, i, to l
(iii) rozklad stacjonarny jest jedyny i 1[ j = -j-;., gdzie J.1.jjest sTedn'im cz().- P (T < 00 I X o = 'L Yo = j) = 1. Dla m :( n zachoi:!zi (korzystamy z wlasnosci
sem powrotu la'ncucha do stanu j. 12.1.8c, b)

Uwaga 6. a) W przykladzie 2b istnialo nieskoIlczenie wiele rozkladów sta- P((X", Y,,) = (k, h), T = mlXo = i, Yo = j) =
cjonarnych, bo lancuch nie byl nieprzywiedlny (zobacz tez zad. 2). -= P((Xu, Y,,) =I- (l, l), 'u < m, (Xm, Ym) = (l, 1)IXo = i, Yo = j) .
b) Twierdzenie pozwala latwo znajdowac srednie czasy I)OWrotu l"i, znacznie ·P((Xn-m, Y,,-m) = (k, h)jXo = l, Yo = l) =
latwiej niz korzystajac z samej definicji. = P(T = rnlXo = i, Yo = j)Plk(n - m)Plh(n - m).
c) Dla lancucha Markowa spelniajacego zalozenia twierdzenia
Sumujac po wszystkich mozliwych stanach h (odpowiednio k) otrzymujemy
l
P(X" = k) = L
'iES
p(Xo = i)Pij(n) --; ~,
n-,oo J.1.}
P(Xn = k, T = m,IXo = i, Y() =.j) = P(T = mlXo = i, Yo = j)Plk(n - m)

niezaleznie od rozkladu poczatkowego Xo. Niefo:rmalnie oznacza to, ze lan- P(Yn = h, T = mlXo = 'i, Yo = j) = P(T = m'rXo = i, Yo = j)Plh(n - m)
cuch zapomina, skad wystartowa.l. Biorac k =h dostajemy:
d) Rozklad 1[ jest czesto nazywany rozkladem granicznym.
P(Xn = k, T = mlXo = 'i, Yo = j) = P(Y" =: k, T = mlXo = i, Yo = j)
e) Jesli lancuch Markowa ma SkoIlczenie wiele stanów, to dla zachodzenia
tezy twierdzenia wystarczy zalozyc, ze la.ilcuch jest nieprzywiedlny i nie- Sumujac po m :( n mamy
okresowy (patrz tw. 9). Wtedy dowodzimy istnienia rozkladu stacjonarnego.
P(Xn = k, T :( nlXo = i, Yo = j) = P(Y" = h, T :( nlXo = 'i, Yo = j).
Dowód twierdzenia 5. Jak wiemy, gdy 1[ jest rozkladem stacjonarnym, to
dla kazdego j Stad

= hlXo = i, Yo = j)
1[j = L
iES
1[iPij(n). (1) P(Xn
:( P(Xn = k, T :( nlXo
:(
= 'i, Y() = j) + P( T > nlXo = i, Yo = j) =
= P(Yn = k, T :( nlXo = i, Yo = j) + P( T > nlXo = i, Yo = .j) :(
(i) Najpierw wyKazemy, ze lancuch jest powracajacy. Gdyby byl chwilowy,
:( P(Yn = klXo = i, Yo = j) + P(T > nlXo = i, Yo = j).
to limn~ooPij(n) = O, i z (1) oraz z twierdzenia Weierstrassa o zbiezno-
sci szeregów2 wynika, ze 1[j = O dla kazdego sprzecznosc, poniewaz j- Zamieniajac rolami X i Y marny
I::j 1[j =I- o. Zatem lancuch jest powracajacy.
P(Y" = hlXo = i, Yo = j) :(
2Twierdzenie to jest dyskretna wersja twierdzenia Lebesgue'a o zbieznosci zmajory-
Dn anm = '\"
0n Cn < co, m, n E N, to limm '\"
zowanej: jesli lanml ~ c" i '\" Un limm anm· :( P(Xn = hlXo = i, Yo = j) + P(T > nlXo = i, Yo = j).
'mo Rozdzial 12. Lancuchy Markowa 291
§ 12.5. Rozklady stacjonarn~ i twierdzenia ergodyczne

aLem
Niekiedy twierdzenie 5 jest nazywane twierdzeniem ergodycznym, a lancuch
Markowa, dla którego istnieja granice IirnnJ);j(n) = 'Trj > O - lancuchem
Ipik(n) - pjk(n)1 = ergodycznym. Mozna pokazac, ze jesli laI\cuch Markowa jest nieprzywie-
= IF(Xn = klXo = i, Yo = j) - P(Yn = klXo = i, Yo = j)1 .;::; dhlY, powracajacy, a wartosci oczekiwane czasów powrotu sa skonczone, to
.;::;P(T > n[Xo = i, Yo = .i). istnieje rozklad stacjonarny (zad. 10) .

Poniewaz P(T < oolXo = i, Yo =.j) = l, to limn Ipik(n) -pjk(n)1 = O. Stad, Przyklad 7 (Sztuczka karciana). Potasuj talie kart i odkrywaj karty
z (1) i z twierdzenia Weierstrassa (patrz ostatni przypis): po jednej. Kazda figura liczy sie za 10, as za 1, pozostale standardowo. Po-
pros partnera, zeby wybral jedna z dziesieciu pierwszych kaI"t, Jesli ma ona
'Trk - pjk(n) = '2: 'Tri (Pik (n,) - pjk(n)) .-->
T/.-tOO 0, WaItosc n, to parl;ner opuszcza (n - l) kolejnych kart i przechodzi do karty
iES n-tej z kolei, itd. W korlcu trzeba bedzie przejsc do karty, która powinna
byc m, kart dalej, ale nic bedzie juz tylu kart. Partner zapamietuje ostatnia
co daje (ii) : limn~ooPjk(n) = 7rk. obejrzana karte, a ty ja odgadujesz z duzym prawdopodobienstwem. Jak to
(-i'ii) Jedynosc rozkladu stacjonarnego wynika z (-i'i), bo gdy 'TrI jest innym zrobic, gdy nie znamy karty, od której zaczal paI"tner?
rozkladem stacjonarnym, to 7r:i = limnpjj(n) = 'Trj. Wykazemy teraz, ze PowtarzanlY te sama procedure za.czynajac od jakiejs ustalonej przez nas
dla kazdego i
jest 'Tri > O oraz 'Tri J.! i = 1. Stad wynika; ze fi,,: = ~ < 00, wiec karty. Mamy dwa niezalezne laJ\cuchy MaI"kowa o ,tej samej macierzy przej-
i jest stanem powracajacym, a ze lancuch jest nieprzywiedlny, to wszystkie scia i o róznych punktaeh startu. Jak wynika z dowodu twierdzenia ergo-
stany sa takie. dycznego, gdyby talia miala nieskollczenie wiele kart kazdej wartosci, to
Zalózmy, ze 'Trj = O dla pewnego.1. Wtedy O = 'Tr.i= 2:i 'TriPi.i(n) ~ 'TriPij(n) latkuchy Markowa "skleilyby sie" z prawdopodobiel\stwem l i dalej zacho-
dla kazdego i
oraz n. Poniewaz lancuch jest nieprzywiedlny, to dla kazdego wywalyby sie tak samo. Zatem jest duza szansa, ze karty z tych lancuchów
i istnieje n = n(i) takie, ze Pij(n) > 0, a wiec 'Tri = O dla kazdego i- Markowa spotkaja sie, nim talia sie skonczy .•
sprzecznosc.
Z twierdzenia ergodycznego mozna otrzymac informacje o sredniej czestosci
Zatem 'Tri > O dla kazdego i. Niech zmienna losowa Xo ma rozklad 'Tr. Wtedy
pr~ebywania lailcl1cha Markowa w zbiorze.
00 00

'Trj/-ij = 'Trj '2: P(Tjj > nlXo = .i) = '2: P(T.ij ~ nlXo = .i)P(Xo = j) = Wniosek 8. Niech (Xn) !idzie lG:l1.c'/1.chem ergodycznym, A C 8, niech i
. n=l n=l l/n (A) oznacza .4Tedni czas pT;;ebyw~Lnia la-ricucha Ma'rkowa w zbior'ze A do
00
momentu ni ~i.
= 2:. P(Tjj ~ n, Xo = j).
n=l
,
I/A(n) = lA(XO)
n+1 + lA(Xn)
+". (2)
Oznaczmy Cn = P(X", #- j, O .;::;m .;::;n) dla n = 0,1,2, .... Poniewaz .i jest: , I
stanem powracajacym, limn~oo Cn = O. Z kolei, poniewaz dla n ~ 2 Wt;edy , .

[: h\\A}1
(lilII Xo = i) --->
n-+oo '2: 'Tr.i·
P(Tjj ~ n, Xo = .1)'= _
,.'
jEA
,t

= P(Xo = .i, Xm #- j dla l .;::;m .;::;n - l) = Dowód.


= P(Xm #-j, l';::; m .;::;n - l) - P(Xm #- j, O.;::; m';::; n-l) =
= Cn-2 - Cn-l, l n ,
[: (v,,(A) I Xo = i) = -.- '2: [:(lA(Xm) I Xo = 'i) =
to
+ 1 m=O
T/, ,.

1" I
00 = -. 2:. 2:.p;j(m) =
n + 1m= o JE"A .
'Trj/-ij = P(Tjj ~ 1, Xo = j) + '2:(Cn-2 - Cn-l) =
n=2 1 n
= P(XO = j) + P(XO #- j) - lim Cn
n~oo = 1. • =~ -
L..Jn+1 '"
~ Pij (m) ---> '"
~ 'Trj,
jEA m=O jU!.
292 Rozdzial 12. Lancuchy Markowa § 12.5. Rozklady stacjonarne i twierdzenia ergodyczne 293

poniewaz limn~oo Pij (n) = Kj. - Argument indukcyjny daje

Gdy zbiór stanów jest skonczony, to istnIeje rozklad stacjonarny i mozna j


M(kno+n) _ mj(kno+n):<'" (M(n)
jmj _ (n»)(1 _ ~.
c)k
podac oszacowanie szybkosci zbieznosci ciagu (Pij(n))n (por. zad. 12.1.8).
Podciag Nr?no) - mjkno) z~ierza zatem do zera, gdy k 00, wiec sam ciag
Twierdzenie 9. Jesli przestrzen stanów n'ieprzyw'iedlnego i nieokresowego '1'(n) (n). l :..... ci ,. N'lec h Kj _
--->

l' mj(n). ,
lanwcha Markowa jest skonczona, to dla kazdego i istn'ieja gmnice
iv..j -mj , Ja w monoton.lczny, zmierza o zera. - 1mn~oo
widzimy, ze Kj ) mjno) ) c > O, zatem wszystkie Kj sa dodatnie, oraz dla
n = kno + m, m < no mamy
lim Pij (n)
n~oo = Kj > O.

Ponadto istnieja stale c > O, "( E (0,1) takie, ze Ipij(n) - Kjl ~ MJn) - mjn) ~ (M;m) - myn))(1 - E)k ~ (1 - E)k =
1
= [(1 - E)no]kno ~ C"/n,
Ipij(n) - Kjl ~ C. "(n
1

gdy "( = (1 - E) no, c = "I"~-l'


i K = (Kj) jest jedynym rozkladem stacjonamym.
K jest rozkladem prawdopodobienstwa, bo ze ~konczonosci S mamy

D o wód. Wiemy, ze
'\'
~ Kj = n-too
lim 2:=pij(n).= 1.
JES JES
\Ii,j 3N(i,j) \In) N(i,.il Pij(n) >.0
Gdy J.L jest rozkladem stacjonarnym, to
(lemat 4). Przestrzen stanów jest skonczona, wiec istnieje takie no, ze
Pij (no) > O dla kazdej pary i,j. Niech E = mini,j Pij(nO)' Oczywiscie E> O. /Lj = lim '\' J.LiPij(n) = '\' lim Pij (n)
J.Lin--tco = '\' PiKj = Kj,
r~--o.oo~ ~ .L...t
Oznaczmy iES iES iES

mj(n) -mmpij
_.
, ()n,
Mjn) = mp-XTl;j(n). a wiec mamy jedynosc. -
Poniewaz p'ij(n + 1) = L,lPilPlj(n), to
Wlasnosc Markowa (tw. 12.1.8d) mozna latwo uogólnic na

mJ'(n+1) = mm
. 2:= PUPlj
't
(n )" ? mm
. 2:= Pil mm
't
. PIJ ()n l
= my'(n) , P( {(Xn, Xn+1, ... ) E A}IFn) = P( {(Xn, Xn+1"") E A}IXn),
l l

gdzie Fn = (T(Xo, ... , Xn,), co mozna zapisac w postaci


a wiec m;n+1) ) m;n). Analogicznie Mj"+l) ~ Mjn).
P( {(Xn, Xn-l-l>' .. ) E A}IFn) = Px,J {(Xo, Xl, ... ) E A}),
Pij(n + no) = 2:=[Pil(no) - EJ!jl(n)]Plj(n) -+ E 2:=Pjl (n)PI:i (n) )
l l gdzie Pj jest rozkladem (Xo, Xl," .), gdy P(Xo = j) = 1.
Jest to formalny zapis intuicyjnego faktu, ze gdy jednorodny lancuch Mar-
) m;n) 2:=[pu(no) - Epjl(n)] + Epjj(2n) =
l kowa dojdzie w momencie n do stanu Xn, to dalej zachowuje sie tak samo,
jakby startowal w momencie O ze stanu Xn·
= m;n)(l - E) + Epjj(2n),
Okazuje sie, ze mozna zastapic deterministyczny moment n przez moment
czyli stopu. Jest to tak zwana mocna wlasnosc Markowa.
Z mocna
m(n+no)
J ;/ m(n)(1_
>- J c-) + EP'JJ'(2n) . wlasnoscia
Twierdzenie 10. Niech T bedzie momentem stop'u wzgledem zdefiniowa-
Markowa
Analogicznie Mj"+no) ~ Mj")(1 - E) + Epjj(2n). Stad nego wyzej ciagu (T-cial (Fn). Wtedy na zbiorze {T < oo} spotkamy sie
jeszcze w
]./1(n+no) _ m(n+no) :;:::(M(n) _ m(n»)(l _ ~.
c)
P({(X,.,Xr+I, ... ) E A}IFr) = PxT({(XO,Xl, ... ) E A}). rozdziale 13.
J J '" J J
~!!/l Rozdzial 12. Lancuchy Markowa 295
§ 12.5. Rozklady stacjonarne i twierdzenia ergodyczne

Dowód. Jak wiemy, gdy f(x) = P({(Xo,Xl, ... ) E A}IXo = x), prawa Korzystajac z MPWL otrzymujemy dla stanów powracajacych nastepujaca
strona jest równa f(XT). Niech B E JT. Wtedy, korzystajac z wlasnosci zaleznosc:
warunkowej wartosci oczekiwanej, wlasnosci Markowa i tego, ze n

"(n =~~ Tm -----+ 11j


p.n. (3)
Bn{T=n} ED"(X[), ... ,Xn),
n n 711.=1 n---+oo

otrzymujemy
Zastosujemy ja do zbadania czestosci przebywania lar1.cucha powracajacego
w stanie .7. Niech (J j oznac~a. moment pierwszego dojscia do stanu j, tj.
f P({(XT,XT+l,
JB ... )EA}!Fr)dP= f.. 1A((XnxT+l,
Ja ... ))dP= (Jj = inf{n ~ l:Xn =.i}.
00

=~ P( {(Xn"') E A} n B n {T = n}) = 'Twierdzenie 12. Dla, la'n,c'ILclw.po'Wmcajacego (Xn) niech


n=O
00 '1'1.

= ~P({(Xn'''') E A} nBn {T = n}) = N,,(j) = ~ l(X'n=j}, GnCi,}) = [(Nn(j) I Xo = i).


11.=0 rn=l

I=
= n=O l _ Bn{T-n} P( {(Xn' ... ) E A}IFn)dP =
Wtedy
N,,(j)
-n-,
-->
n ~ 00
~l{rj<oo}
I.Lj
Pi -p.n.
= I=
n=OJBn{T=n} P({(Xn, ... ) E A}iXn)dP = omz
Gn(i,} ') --> 1
-71-,- n-l>oo f.Lj

=I=
n=O JfBn{ r=n} Px,.((XO,Xl, ... )EA)dP=
gdzie przyjmujemy 1/00 = ():
= L Px,((Xo, Xl,"') E A)dP..
Dowód. Niech i = :j. Z definicji Nn(j) i "(n mamy ')'N,,(j) :( n < "(N"Ci)+1'

Zalózmy teraz, ze lancuch startuje z ustalonego stanu i, tj. P(Xo = i) = 1. Stad


Polózmy "(o = O, a dalej: NT! Ci) ,( N;, (j) ,( Nn Ci)
"(N,,(j)+l" n ....,"(Nn(j)
"(l = inf{n ) 1: Xn = i}, = inf{n > "(l: Xn = i},
"12
i ze wzoru (3) otrzymujemy pierwsza czesc dla = j. Dla j postepujemy i i =1=

i ogólnie ')'m = inf{n> "(m-l:Xn = 'i} beda kolejnymi powrotami do analogicznie biorac larlcuch Markowa (XO'j+m), m ~ O na przestrzeni pro-
stanu i. "Wtedy Tn = "(n - "(n-l sa odstepami CZaSUpomied~y kolejnymi babilistyczneJ'
.' O' = {D"' J' < oo} p = Jn{D"'J, < oo} i P'(A) = p(An{O'j<oo}).
P({O'j<=})
powrotami.
Druga czesc twierdzenia wynika z twierdzenia Lebesgue'a o zbieznosci zma-
'Twierdzenie 11. Gdy i jest stanem powracajacym, to (Tn)~=l }est C'la-
joryzowanej. -
giem niezaleznych zmiennych losowych o tym samym Tozkladzie. Korzystajac z twierdzenia 11 mozemy uogólnic wniosek 8:
, l
D o w ó d, "(l jest momentem stopu, wiec z mocnej wlasnosci Markowa 'Twierdzenie 13. Niech (Xn) bedzie nieprzywiedlnym
nieokresowym lan-
c'uchem Markowa dla któr'ego istn'ieje mzklad stacjonarny 7r. Wtedy l/n (A)
P((X"n+1,X,n+2",,) E AIF')'l) = PJ(Xl,"') E A),
_ sTedni czas przebywani;;: i~nc'U,cha MaTkowa w zbiorze A zdefiniowany
bo X')'l = i,
Zatem ciag (X')'l+I,X')'l+2, ... ) ma taki sam rozklad, jak WZOTem (2) spelnia zaleznosc:
(Xl, i jest niezalezny od J')'l' wiec niezalezny od 1'1' Stad 1'2 ma
X2, .. ,)

ten sam rozklad co 1'1 i jest niezalezny od 1'1, Dowód konczymy stosuj ac lim lJn(A)
n~oo = L....
'" Ki p.n.
iEA
indukcje matematyczna. _
297
296 . R.ozdzial 12. Lancuchy Markowa § 12.5. R.ozklady stacjonarne i twierdzenia ergodycine

D owó d. Poniewaz ]<1 = .2:iEA l{i}, wiec wystarczy udowodnic twierdzenie Zatem na mocy tw. 5 lancuch jest powracajacy i
dla A = {i} dla dowolnego i E S. Dla dowolnego n niech k = k(n) bedzie
takie, ze p.,'
(7',,)()n= . ()nd ----+
Ph 1
-=- = ,-d = dnj.
T1 + ... + Tk ~ n < T1 + ... + Tk+1' JJ n~oo p,j p,j

Wtedy k = 1{i}(X1) + ... + l{i}(Xn) i Z mocnej wlasnosci Markowa:


n
k+1 + ... + l{i}(X,,)
-- k
k + 1T1 + ... + Tk+1
1{i}(X1)
. < ~~---~~-
n
~ ---- k
T1 + ... + Tk
p.;j(n) = L
k=l
P(Xn = .1, Tj = klXo = i) =
n
Biorac k ---+ 00 i korzystajac z (3) otrzymujemy
= L P(Tj
k=l
= klXo = i)P(Xn = jlTj = k, Xo = i) =
n
lim v,,({i}) = ~ = 7I'i,
n_ex) n Pi = L P(Tj
k=l
= klXo = i)P(Xn = jlXk = .1) =
gdzie przyjmujemy ~ = O. Ostatnia równosc dla stanów powracajacych, n
dla których 7I'i > O, zostala udowodniona w twierdzeniu 5, a ella pozostalych
rodzajów stanów w zadaniu 11. •
= L
k=;1
P(Tj = klXo = i)pjj(n - kl·

Zajmiemy sie teraz badaniem granicy limn Pij (n) dla okresowego lar'1cucha Zatem
Markowa.
pij(nd + m) = L P(Tj
k=O
= kd + mlXo = i)p;j((n - kld) =
00
Przyklad 14. Niech P = (~ ~). Jest to lancuch okresowy o okresie
2 i limn~oopoo(2n) = 1, limn~oopoo(2n + 1) = (l. Granica nie istnieje,
natomiast istnieja granice podciagów i nie jest to przypadek .•
=
k=O
L P(Tj = kd + mlXo = i)pjj((n - k)d)l{o,l, ..,n}(k).

Jak wiemy, przestrzen stanów lancucha okresowego rozbija sie na rozlaczne


Niech n -, 00; wtedy z twierdzenia o zbieznosci zmajoryzowanej
zbiory SI, S2, ... , Sd (twierdzenie 12.4.4). Zachodzi pij(nd + m) ----+ d7I'j'p(Tj < oolXo = i) = d7rj .•
'n--+,OO

Twierdzenie 15. Je.'ili (Xn) jest n'iep'rzywiedlnym okresowym la1ic'UcheTn


Markowa i
z 'rOzkladem s'tacjona'mym 7r, 'to dla E SIl .1 E Sl+m (mo d cl) Zadania
lim pij(nd
n--+oc + m) = d7rj 1.. W pudelku A jest Cikul ponumerowanych liczbami od l do 6, w pudelku B -
ani jednej. Wykonano 100000 rzutów kostka i po kazdym rzucie przeklad,mo
·i 7rj > (l dla kazdegoj. kule z wylosowanym numerem do drugiego pudelka. Jilka jest (mniej wiecej)
szansa, ze pudelko B jest puste?
2. Znalezc wszystkie rozklady stacjonarne dla lancucha Markowa o macierzy
Dowód. Niech 'rh = (l + m) (model). Gdy P(Xo E Sm) = 1, to zmienne
przejscia.3
losowe Yn = Xnd tworza nieprz,ywiedlny nieokresowy lancuch Markowa 2
o
o zbiorze stanów Sm (twierdzenie 12.4.4). Niech Yj = min{n:Yn = j}. l ~ O
'4
l
Wtedy
p= (1 ~
O

O
~
:5
i
~)
5"1 .
Tj = dYj, gdzie Tj = min{n: Xn =.J},
p,j 3. Udowodnic, ze jesli 7r jest rozkladem stacjon.arnym oraz j nie jest stanem
[ij = E(Yj I Yo = j) = E ('2 I Xo = j) d powracajacym dodatnim (patrz def. 17), to = o. 'i)
298 § 12.6. Dojscie do ustalonego zbioru stanów 299
Rozdzial 12. Lancuchy Markowa

4. Dla lancucha Mark.owa (Xn.) niech Sp oznacza zbiór stanów powracajacych *11. W nieprzywiedlnym lal;cl~chu Markowa stan powracajacy j jest zerowy wte-
dodatnich. Gdy Sp i= 0, niech Sp = UiEI Si, gdzie Si - klasa stanów wza- dy i tylko wtedy, gdy lim"._oo pi,i(n) = O clla dowolnego stanu i.
i
jemnie komunikujaGYch sie, Si n Si = 0 dla i= j. Poka.zac, ze kazda miara VVslc. W dowodzie koniecznosci zastosowac chwyt z dowodu twierdzenia 5.
stacjonarna dla (X,,) jest postaci 2:::iO ai.11"i, gdz.ie a.i ~ O, 2:::'iO ai = 1, 12. Udowodnic, ze dla symetrycznego bladzenia przypadkowego na prostej i na
11"; jest miara stacjonal'na dla lancucha o macierzy przejscia p(i) = (Pjk), plaszczyznie wszystkie stany sa zerowe.
j,k E Si rozszerzonej na S przez przyjecie 11"i(S)= O dla s E S \ Si.
13. Niech lalicuch Markowa z prz.estrzenia stanów S = {O, 1, 2, ... } ma macierz
5. Niech S = {1, ... , m}, a P bedzie macierza podwójnie stochastyczna, tj.
przejscia postaci: POn = C· "1,,, IX > 1, n = 1,2, ... , C-l = 2:::::"=1nI",
macierza stochastyczna taka, ze 2:::::1 Pij = 1, j = 1, ... , m.. Udowodnic, =
i
ze rozklad 11"i == ;e., = 1, ... , m jest rozkladem stacjonarnym dla lallcucha
Pn,n-l
D1EL
jakich
1.
a laJlcuch sklada sie ze stanów powracajacych zerowych?
Markowa z ta macierza przejscia.
6. Niech S = {a, ... , k - 1}, a macierz P jest taka, ze jej wiersze sa cyldicz-
nymi perrnutacjami wiersza pierwszego, tj. PIJ = Pj > O, Pij = P(.i-i) (mod I,)
(ten lancuch opisuje bladzenie przypadkowe po okregu dyskretnym). Znalezc § 12.6. Dojscie do ustalonego zbioru stanów
granice lim,,_oo P(X" = -i).
7. Niech (Xn) bedzie laflcuchem okresowym o okresie d z rozkladem stacjonar- Teraz zajmiemy sie prawdopodobienstwami dojscia do ustalonego zbioru
i
nym 11". Jezeli E SI, jE S(l+m)(mod d), to lirn"._=lhj(nd + m) = Fijd11"j. stanÓw i srednim czasem dojscia do tego zbioru.

Rozpatrzmy teraz inna w;l.zna klasyfikacje stanów. Gdy Xo = i, niech Tu bedzie


i
Niech F C S niech pp(i) l..,:dzie prawdopodobienstwem dojscia do zbioru
P, gdy lancuch startuje ze stanu i, tzn.:
momentem pierwszego przybycia lancucha Markowa do stanu .i:

Tij ~ inf{n:Xn = j}, PF(-i) = P( f3n ~ O: Xn E F}IXo = i),

(zwrócmy uwage, ze TiJ = 00, gdy do takiej wizyty nigdy nie dojclzie). a mp('i) bedzie srednim czasem dojscia tego lancucha do zbioru F, tzn.: .

Definicja 16. Srednim czasem powrotu do stanu k nazwiemy wielkosc 'fTI'F(i) = E (inf{n ~ O: Xn E F} I Xo = i) ..

J1.k = ETkk = L
n=l
nfkk(n).
Wtedy zachodzi

Twierdzenie 1. Dla i E F, pp(i) l, 7np(i) = O. Dla i rf- F spelniony


Gdy k jest stanem chwilowym, to sredni czas powrotu jest niesk011czony, gdyz jest uklad TÓW'fi.a'li:
P(Tkk = oolXo = k) = 1 - Fkk > O.
PFU) = LPijPP(j), (l)
Definicja 17. Stan k nazywamy zerowym, gdy J1.k = 00, a niezerowym lub do- j

datnim, gdy J1.k < 00.


7np(i) = 1+ LPijmF(J). (2)
.i'l-F
8. Rozwazmy lancuch Markowa z dwoma stanami i macierza przejscia.

Ponadto pP(i) = O dla stanów i spelniajacych warunek Pij(n) = O dla


?=o l). dowolnych j E F, n E N; 'mF(i) = 00 dla stanów i spelniajacych PF(i) < 1.

Oba stany sa powracajace. Czy sa zerowe?


*9. VVnieprzywiedlnym lancuchu Markowa wszystkie stany sa zerowe lub wszyst- D o wód. Dla iEF równosci zachodza z definipji. Niech zatem i rf- F.
kie stany sa dodatnie. Wtedy -_1:' ~•

*10. Dla nieprzywiedlnego lancucha Markowa istnieje dokladnie jeden rozklad 00

stacjonarny
dodatni.
wtedy i"~lko wtedy, gdy lancuch Markowa jest powracajacy A = {3n>o: Xn E F} = {KjI1EI'F} U-U {Xl
71.=2
rf- F,' ... ,Xn-l rf:. F, X" E F}
300 Rozdzial 12. Lancuchy Markowa § 12.6. Dojscie do ustalonego zbioru stanów 301

Korzystajac z tego .rozbicia, wzoru na prawdopodobienstwo calkowite i z jego kapital bedzie wynosil 4 zl. A wiec chcemy obliczyc p{ 4}(l). Korzysta-
wlasnosci 12.1.8a, mamy jac z twierdzenia l i oznaczajac P{ 4} (i) = J;, ,yypisujemy uklad równosci:
. 1
PF(-i) = L P(AIXl = j, Xo = i)P(X1 = j!Xo = i) = h="2[fo+hJ
jES .

= I>ij[P(X1 E F!Xl = j, Xo = i) + h= ~[fr + hl


jES
00 fs = ~[h + f4]
+ L
n=2
P(X1 tf. F, ... ,Xn-1 tf. F,X" E FIXl = j,Xo = 'i))] = f4 = l
fo = o.
=L Pij + LPijPF(j) = LPijPF(j).
JEP j~F jES Rozwiazujac otrzymujemy fi = ±, i = 1,2,3. Stad prawdopodobienstwo,
ze .Jan wygra 3 zl jest równe l.
Gra sie skonczy, gdy lailCuch dojdzie do
Dla dowodu drugiego równania oznaczmy stanu () lub stanu 4. Zatem interesuje nas m{0,4}(1). Niech gi = m{o,4}(i),
i E S. Z twierdzenia 1 mamy go = g4 = 0, 91 = 1 + ~92, 92 = 1 + Hgl + 93],
y = inf{n;;;' O:Xn E F}, g3 = l + ~g2' Rozwiazujac otrzymujemy: gl = 93 = 3, g2 = 4. Zatem gdy
Jan ma 1 zl, sredni czas gry wynosi 3. _
ponadto dla ciagu (an) C S definiujemy f((an)) = inf{n: an E F}.
Teraz zajmiemy sie pochlaniajacymi lancuchami Markowa.
Wtedy Y = f(Xo, Xl,"') oraz dla {Xo = 'i}, 'i tf. F jest
Jaje juz wspominalismy w § 12.3, stan i nazywamy pochlaniajacym, gdy
f(Xo, Xl,"') = 1+ f(Xl, X2,·· .). Pii = 1. Lancuch Markowa nazywamy pochlaniajacym, gdy sklada sie
ze stanów chwilowych i pochlaniajacych. Jak wiemy, lancuch Markowa
Stad sklada sie ze stanów powracajacych i chwilowych, przy czym stany powraca-
jace tworza klasy nieprzywiedlne. Gdy klase nieprzywiedlna potraktujemy
mF(-i) = E (Y I Xo = i) = L E (y! Xo = 'i, Xl =.il P(Xl = j!Xo = i) = jako jednoelementowy stan pochlaniajacy, to lancuch Markowa stanie sie
jES lailcuchem pochlaniajaeyrn.
Twierdzenie l podaje w szczególnosci uklad równan, jaki spelniaja prawdo-
= LE(1+f(X1,X2, ... )!Xo =i,X1 =j)Pi.i =
j podobienstwa trafienia clo ustalonego stanu pochlaniajacego i srednie czasy
dojscia do tego stanu.
= 1+ Lj mF(j)pij = l+ L
j~P
mF{j)pij, Jesli lailcuch Markowa ma skonczona liczbe stanów, prawdopodobienstwa
pochloniecia mozna obliczyc przy pomocy macierzy otrzymanych z macie-
gdzie w przedostatniej równosci skorzystalismy z wlasnosci 12.1.8(1. Ostat- rzy przejscia. Dokladniej:
nia czesc twierdzenia jest oczywista. _ Rozpatrzmy lancuch Markowa o k stanach, przy czym stany 1,2, ... ,m sa
pochlaniajace. Wtedy macierz przejscia P ma postac:
Uwaga 2. Gdy S jest zbiorem skónczonym, to równania (1-2) maja jed-
I
noznaczne rozwiazanie. Dla S nieskonczonego

Przyklad 3. Jan i Piotr rzucaja moneta. Gdy wypadnie orzel, to Jan wy-
moze tak byc, ale nie musi.

Stwierdzenie 4. Macierz
p=
(;::-,
R Q. ~)O ..

grywa l zl od Piotra, gdy reszka, to na odwrót. Jakie jest prawdopodobieil-


stwo, ze Jan majac l zl wygra 3 zl? Jaka jest srednia dlugosc gry? A = (aij )iE{l, ...,k-m},jE{l, .. ,m},
Rozpatrzmy gre z punktu widzenia Jana. Jest to lancuch Markowa ze zbio- gdzie aij = p{j}(i + m) jest pmwdopodobienstwem, ze lancuch wychodzacy
rem stanów S = {O, ... , 4} i macierza przejscia o elementach: Poo = Pll = l, i
ze stanu chwilowego + m zatrzyma sie w stanie pochlaniajacym j, spelnia
i
P';,i+! = Pi,i-l = ~ dla = 1,2,3, pozostale Pij = O. Jan wygrywa 3 zl, gdy A = (I - Q)-lR.
§ 12.6. Dojscie do ustalonego zbioru stanów 303
:111" . Ro~,dzial 12. Lancuchy Markowa

I)II w ód. I~t,otllic, z twierdzenia l powyzej 2. Pchla porusza sie pomiedzy psem, kotem, czlowiekiem i podloga. Niezalez-
nie od tego, gdzie jest teraz, wybiera nastepne rpiejsce pobytu z równymi
k
prawdopodobierrstwami. Swoja wedrówke zaczyna od podlogi. Na psie i ko-
aij == P{j} (i + m) = Pi+m,j + L
l=m+l
Pi+m,IP{j} (l) = cie moze sie pozywic, na czlowieku ginie, a na podlodze gloduje.
Jaka jest. srednia. liczba p"siJków pchly przed smiercia?
m-k
= Pi+m,j i+ L1=1
Pi+m,l+malj, a.
Jakie jest. prawclopodobienst.wo, ze pchla zginie na czczo?
Udowodnic, ze jesli lancuch.Markowa rmljeden stan pochlaniajacy, a wszyst-
kie pozost.aJe komuniknja sie i nie tworza zbioru zamknietego, to sa one sta-
czyli A = R + QA. Poniewaz nami chwilowymi.

(I - Q)(I + Q + Q2 + .. ~+ Q"-l) = I _ Q",

Q" --; (stw. 12.3.6),' to det(I - Q")


O

- Q)
czyli det(I i
o. Zatem macierz I - Q jest
i O dla dosta.tecznie duzych n,
odwracalna i z równosci
A - QA = E. mamy A =(1 - Q)-1E.._

Przyklad 5. Zastosujmy powyzsze rozwazania do przykladu 3. Zmienimy


numeracje stanów, by doprowadzic do zgrupowania stanów pochlaniaja-
cych. Zamieniamy stan 1 z 4, wtedy:

Klasyfikacja stanów: podsumowanie.


1. Stan nazywamy nieistotnym, gdy z dodatnim prawdopodobieJ'lstwem mozna
z niego przejsc do stanu, z którego powrót jest; niemozliwy (§ 12.2). W przeciwnym
razie stan jest i8totny.
Zbiór stanów istotnych ]'ozpada sie na nieprzywiedlne klasy st.anów·, czyli za-
m./,niete klasy stanów wzo.jemn·ie komunikujacych s·ie. Kazda z tych klas sklada
sie ze sta.nów o tym samym ob'esie d (t.w. 12.4.2) i rozpada sie na d podklas
cyklicznych (tw. 12.4.4).
St.an tworzacy jednoelement;owy zamkniety zbiór st.anów nazywamy pochlaniaja-
CY'rl'i.
- 4'

A- ( l.)
-I

4' 2. Ze wzgledu na szanse powrotu stany dzielimy na


Otrzymalismy prawdopodobienstwa pochloniecia przy starcie z dowolnego a) chwilowe - szansa powrotu jest. mniejsza niz 1; do t.akiego stanu wraca sie
stanu - w szczególnosci to samo, co w przykladzie 3., 0.32 = ale inna l, tylko skoncz,enie wiele razy (def. 12.3.2, tw. 12.3.3);
metoda· _ b) powracajace - szansa powrotu jest. równa 1; do takiego stanu wraca sie nieskon-
czenie wiele razy (def. 12.3.2, t.w. 12.3.3); subtelniejsza klasyfikacja (def. 12.5.17)
dzieli stany powracajace na
Zadania
.- dodatnie (niezerowe ), dla których sredni czas powrotu jest skonczony
-- zeTowe, dla których sredni czas powrotu jest nieskonczony.
1. W grze planszowej prawdopodobienst.wa przejscia w pojedynczej grze pomie-
dzy t.rzema stanami zadane sa macierza Zbiór stanów lancucha Markowa mozna jednoznacznie rozbic na zbiór stanów
chwilowych i nieprzywiedlne zamkniete zbiory st.anów powracajacych (twierdzenie
12.3.11).
!! .
(103, O ) a. Kazdy stan nieistotny jest chwilowy. Jesli lancuch Markowa jest skonczony,
Ile srednio trzeba gier, ty przejsc ze stanu l do st.anu 2? równiez kazdy stan chwilowy jest nieistotny i oba zbiory stanów sa równe.
I'
§ 13.1. Definicja i konstrukcja 305

Smoluchowski zajmowal sie ruchami Browna od 1900 r. Zdawal sobie sprawe, ze


ma do czynienia z procesem stochastycznym, takim jak gra hazardowa (widac to
w stosowanej przez niego argumentacji). Wyrazano opinie3, ze "... w serii prac,
które Smoluchowski napisal w ciagu ostatnich pieciu lat zycia zostaly polozone
podstawy nowoczesnej teorii procesów stochastycznych".
Rozdzial 13 Smoluchowski opublikowal swoje prace dopieTo po uzyskaniu dobrej zgodnosci
z wynikami doswiadczen Feliksa Exnera, z którym pozostawal w kontakcie. Dla-
czego nie wczesniej? Prawdopodobnie przyczynila sie do tego nieprzychylna at-
mosfera wokól teorii kinetycznej.
Proces Wienera Proces WieneTa (zwany czasem ruchem Browna) jest postlllowanyn~ przez
kinetyczna teorie materii matematycznym modelem ruchu czasteczki zawie-
szonej w cieczy. Formalnie rzecz biorac, jest to rodzina zmiennych losowych
Wt, t ~ O, okreslonych na tej samej przestrzeni probabilistycznej (D,F,P).
§ 13.1. Definicja i konstrukcja Funkcje t H Wt(w) nazywamy trajektoria procesu. Trajektoria jest wiec
wyznaczona przez element w E n.
W 1827 roku angielski botanik BrownI opisal nieregularne ruchy, wyko-
nywane przez pylki kwiatowe zawieszone w cieczy. Zjawisko to zostalo Definicja 1. StandaTclowym pTocesem Wienem nazywamy pr-oces spelnia-
Typowa srednica w zadowalajacy sposób wyjasnione dopiero w 1905 roku niezaleznie i róz- jacy nastepujace wanm.k?::
ziarna pylku nymi metodami przez Einsteina i Smoluchowskiego na gruncie mechaniki
miesci sie w statystycznej2. Kazda czastka zawiesiny jest bombardowal;a ze wszystkich l.Wo = O.
l
przedziale od do
stTon przez czasteczki cieczy. Impulsy pochodzace od poszczególnych cza-
kjJkudziesieciu 2. PTZYTosty pr'ocesu sa niezalezne, czyli jesZ,i O < tI < ... < tn, to
/lm. Pylki wieksze steczek nie równowaza sie idealnie, tak jak nie równowaza sie liczby orlów zmienne losowe
od '1 /lm nie i reszek w serii TZlltów moneta. Wiemy jednak z twierdzenia cle Moivre'a-
poruszaja sie w -Laplace'a, ze przecietna wzgledno. nierównowaga jest tym wieksza, im krót-
dostrzegalny Wt" Wto - TYtl>···, Wt", - Wt"'_'
sposób. sza jest seria. Dlatego duza czastka, bombardowana wieloma czasteczkami
cieczy, raczej sie nie poruszy, dostatecznie mala zas ma na·to duze szanse. sa nieza.lezne.

Nie bedziemy rozwijac tego argumentu. Czytelnika zainteresowanego fizyczna 3. Dla wszystkich t, lt ~ O

Do czastki o strona zagadnienia odsylamy do Delty, 12/1997, gdzie znajdzie iycjorys Mariana
l
srednicy !lm Smoluchowskiego i omówienie jego prac, a takze cytowanych l:u pra.c Einst.eina. Wt+LL - Wu. ~N(O,/;).
moze sie dopchac Z kolei w numerach 4 i 5/1983 zamieszczono artykul Bogdana Cichoclciego po-
ok. 108 czasteczek swiecony historii odkrycia i wyjasnienia zjawiska ruchów Browna .. 4. Tm:iektoTie pTOcesu sa c'iagle.
wody. Zderzenia
z nimi nastepuja Na przelomie XIX i XX wieku kinetyczna teoria materii znajdowala sie w odwro-
co 10-20 S. cie, a wielkie sukcesy odnosila t.ermodynamika. William Ostwald napisal nawet Uwaga 2. Z warunków 1-3 wynika natychmiast postac funkcfi ko'Wa.Tiancji
podrecznik chemii, w którym ani razu nie uzyl slowa "atOm". Wydawalo sie, ze procesu:
po wyeliminowaniu z nauki niewidzialnych fluidów w rodzaju cieplika i flogistonu
przyszla kolej na atomy. 'Jednak ruchy Browna byly wyraznie sprzeczne z ter- KU, s) gJ cov(Wt, Ws) = min(t, I s).
modynamika, wedlug której powinny zaniknac po osiagnieciu przez uklad stanu Istotnie, jesli t ~ s, to
równowagi. Ale i wyjasnienia na podstawie teorii kinetycznej byly poddawane
(slusznej) krytyce. cov(Wt, Ws) = E [Ws + (Wt - Ws)Ws] = EW} + E(Wt - Ws)Ws =
lBrown byl pierwszym, który badal systematycznie to zjawisko. Pózniej okazalo sie, = s = rnin(t, s).
ze obserwowaloje wielu uczonych, w tym Leeuwenhoek w roku 1650.
2 A. Einstein, Annalen der Pbysik, 17 (549), 1905, O ruchu czastek zawiesiny, post1do- Nietrudno tez zobaczyc (zad. 1), ze rozklady skonczenie wymiaTowe procesu
wan-ym przez molek'ularno-kinetyczna teorie ciepla oraz ibid. 19 (391), 1906, p.rzyczynek
Wienera, czyli rozklady wektorów losowych (Wt1" .. , lIVt", ), sa normalne.
do teorii ruchów Browna. M. Smoluchowski, Zarys teorii kinetycznej 'ruchów Browna
i roztworów metnych, Rozprawy Wydz. Mat.-Przyr. AU, ser. A (257), 1906. 3S. Chandrasekhar, Rev. Mod. Phys. 15, 1 (1943).

304
I lirm Rozdzial 13, Proces Wienera § 13.1, Definicja i konstrukcja 307

Odwrotnie, jesli proces Wt, t ~ O, ma skonczenie wymiarowe rozklady nor- Istotnie, wystarczy w tym celu przedstawic zmienna losowa V\;'t - liVs (która
malne, to funkcja kowariancji K(t, s) = min(t, s), wyznacza jednoznacznie ma ten sam rozklad, co WI.-s) w postaci sumy p:zyrostów:
rozklady skonczenie wymiarowe procesu. Jesli wiadomo ponadto, ze T''\1o = O
i ze proces ma ciagle trajektorie, to jest procesem Wienera, Hlk2- •• - Hl., I,V(I";.1)2-" - H1A:2-n, ... , lil1t - Hl12-·n,

gdzie k = [s2"] + l, l = [1:2'11].


Pozostaje otwarta kwestia istnienia procesu spelniajacego podane w defi-
lllCji warunki4. Mamy' tu sytuacje typowa dla tej teorii: ua.lezy wykazac IN ceJu ;:.badania ciaglosci trajektorii na oclc:illku 10, T] wprowadzimy modul
istnienie procesu o danych rozkladach skonczenie wymiarowych (co zazwy' ciaglosci:
czaj wynika z ogólnego twierdzenia Kolmogorowa o istnieniu procesIl, tw. Tn,(6., '1~)= SU)) ITIVI:' - WII.
It-t.'1~6
C.4.2) i o dostatecznie regularnych trajektoriach. t;I;' EBn[n,7']

Zazwyczaj dowodzi si~ istnienia dostatecznie reg,1!larnej mody.fikac.ii s/;ocha- Jesli wykazemy, ze m(6., T) -,1 O dla 6. ..., O z pruwdojJodobicllstwem l, be-
stycznej wyjsciowego p\,ocesu Xt, czyli procesu Xt, spelniajacego warunek: dzie to mmaczac:, ze prawie wszystkie tn\jektorie. rozpatrywane w punktach
dwójkowo-wym iernydl, sa jednostajnie ciagle.
P(Xt =1=Xt) = O dla t E T.
Twierdzenie 4. Z p,"o.wdopodo/Jie'n.sl:wem 1 m(6., T) -; O dla 6. -+ O.
Istnienie procesu Hlt" t ~ O spelniajacego w,J,runki 1--3 definicji 1 wynik-
Sprawdzajac nie z tw. C.4.2, jesli tylko udowodnimy, ze rozklady skOl1czenie wymiarowe
D o w ód, Niech 6. == 2-'11 (dla prost.oty). Jesli rn( Ll, T) > c, t.o dla pewnego
zgodnosc rodziny sa zgodne (patrz def. w § C.4). Ale z zad,wia l wynika, i,e rozklad wek- k < 2"1'
rozkladów tora (Hlt" , .. , Wtn) jest normalny, o zerowej sredniej i macierzy kowarian-
badarn~' w istocie sup IVV1 - Wk61 > ~c,
njesprzecznosc
cji (min(ti, tj)h;;;i,j~n, co natychmiast daje zgodnosc: rodziny rozkladów 1Elk6,(k+l)6JnB -
definicji procesll skonczenie wymiarowych procesu Wt.
c:?'yli
ZH P<,WlOCa
l'ov,kl>l,d6w
W szczególnosci, istnieje proces Wt, t E [0,1], spelniajacy warunki 1-3. Wy-
fJkol'lCzcnie kazemy, ze istnieje jego modyfikacja stochastyczna Et, t E [O, l], o ciaglych {'m(6., T) , c} C { max sup IWt - W/,.61 > ~c} C
W'yIIIIIII'owydl, trajektoriach. W tym celu skorzystamy z kilku lematów. Pierwszy z nich ,'<2"'[' IElk6,(k+J")6JnB •
jest bezposrednim ~nioskiem z dowodu nierównosci Levy'ego-Ol'.tavianiego· (2"-1)7'
(7.3.1) i z samej nierównosci: C U {'/.E[k6,(k+J)6JnB
k=O
sup IHlt - TiV1:6 i > ~c}.

Lemat 3.
losowymi,
Niech XI, ... Xn beda niezaleznymi, symeiriJcznym:i
niech Sk = Xl + ... + Xk. Wtedy dla r > O:
zmiennyrni
Stad i ~,(3) ..
P',
lm
(A
1.:>:
l') > f..) r'
""
4.' 'y"
~
l'
.. "
P(T';
'\ 6 ".
,.....2'~) .
P(maxSk > r) o:::; 2P(S" > r)j (l)
k~n Poniewaz 1..'116 ma, ten sam rozklad, co \/XVY,\, to ostatecznie
P(max ISki> r) o:::; 4P(Sn > r). (2) ')11-2 2 P(WI > t) ~
k~" E I">

P(m(6., T) > !:) o:::; 4, 2"T . P(W] > 2\ f-)


6. O:::;,2n-·-1'c-·
, < -; O ~ e-t,2/2,

W dalszym ciagu B bedzie oznaczac zbiór liczb dwójkowo-wymiernych przy n -; 00, co kOllCZYdowód .•
(czyli postaci k2-m, k E Z, m E N), zas Bn - jego podzbiór, zlozony
z ulamków o mianownikach nie przekraczajacych 2n. Z twierdzenia 4 wynika teraz: i,e dla kazdego n 'E N istnieje taki zbiór
Z lematu 3 latwo wynika, ze ne.n C n, ze P(ne,n) = l i dla kazdego w E ne,'1 t.rajektoria Wt(w), -t E
E Bn[O, n] jest jednostajnie ciagla. Niech n" = n:'."=l ne,n. Wtedy P(ne) =
P( sup IW" - Wsi> r) = lim P( sup IW" - Wsi> r) o:::; = l i trajektoria liFt (w), t E B, w E l1e przedluza sie do funkcji ciaglej na
"EBn[s,tJ n~oo uEB"n[s:tJ przedziale [0,(0), definiujemy mianowicie "
o:::; 4P(Wt-s > r). (3)
t rf. B,l", E ne,
t u.., _ ~·eB s \
4Pierwszy sciSly dow6d poda! Wiener (1926). E (', ,) :!.! {1.ilIl.,~t
H'ti'..o-') H' IW) w p,p.
308 Rozdzial 13. Proces Wienera § 1:3.1. Definicja i konstrukcja 309

Okazuje sie teraz, ze dla t E B mamy po prostu Bt(w) = Wt(w) dla wszyst- Z tej nierównosci wynika, ze ogony rozkladu zmiennej losowej ~ zmierzaja
kich w E D. Jesli t ej B, to do zera na tyle szybko, ze [EP < 00 dla wszys!;kich p > O. Zeby to zoba-
czyc, zauwazmy najpierw, ze zmienne losowe ~rt = ~ /I. n takze spelniaja
P(Et = Wt) = PqiE} Ws = Wt) = 1, powyzsza nierównosc (jesli n ( 3'u, to P(~n > 371,) = O; w przeciwnym razie
"EB podstawienie ~n nie powoduje zadnych zmian).

bowiem po pierwsze wyjsciowy proces W jest stochasiyczn'ie c'iagly, co ozna- Mamy teraz dla kazdego r > O:

cza, ze gdy in --> t, to Wt" ~ WI, a po drugie - wystepujaca powyzej


granica w sensie zbieznosci (prawie) na pewno jest z prawdopodobienstwem
=p 1''''' 71,p-lp(~n >
l równa granicy wedlug prawdopodobienstwa. Tym samym stochastyczna
3-P[~~ 371,)d71,(

równowaznosc procesów W i B zostala udowodniona.


(p 100,up-l P(~n > 71,)P(ry > 71,/2)d71, =
Na zakonczenie tego paragrafu udowodnimy twierdzenie, które pozwoli jesz-
cze bardziej uproscic sprawdzanie, czy proces jest procesem Wienera .
=p ./0(00 71,p-1P((n > u)P(ry > 1')du +
Twierdzenie 5. Proces Xt, t ;? O jest procesem Wienem wtedy i tylko 1001LP-IP(~n
i
wtedy, gdy spelnione sa warunki 1, 2 4 z definicji 1 omz war'unk'i: +p > 1/)[P(ry > 1;/2) - P(ry > r)]du (

Nie ma tu nic
O rozkladzie 3'. [Xl = O, [X? = 1. ( per, > r)[~~ + p 12r up-ldu = P(ry > r)[~~ + (2r)p,
normalnym!
3". Je/;li t· (5, taXI - Xs ~ Xt--s· poniewaz clla u > 21' wyrazenie w nawiasie kwadratowym jest nie wieksze
od zera.
Dowód. I. Najpierw udowodnimy, ze z warunków 1, 2 i 4 wynika, ze dla Wybierajac tak duze r', by 3-P - P(ry >1') > O otrzymujemy oszacowanie
kazdego p ;? l i dla kazdego t > O jest [suPs,,;t IXslP < co.
Ustalmy t > O i nEN i oznaczmy (2r')P _.
[~~ ( 3-P - P(ry > r)'
Dk = Xktl2" .~ X(k-l)t/2n, Sk = Dl + ... + Dk = XktI2'"
a poniewaz ~n i E, to [~P < co, co konczy dowód kroku 1.
Zmienne losowe Dk, ,Q < k ( 2n sa niezalezne i z nierównosci Hoffmanua- II. Udowodnimy, ze z 1, 2 VI wynika, ze dla kazdego t > O zmienna losowa
-J0rgensena (zad. 7.3.11) wynika, ze Xt ma rozklad N (O, t).

Zauwazmy, ze funkcja m(t)== [Xt jest ciagla (poniewaz [suPs,:::t IXsl < co)
P( max
O<k";2"
ISki> 3u) (P( max
O<k,,;zn
IDkl > u) + i spelnia warunek met + s) = met) + mes), t, s';? O. Zatem r;;(t) = et, ale
+ P( O<k~2'~
max ISki> 'U)P( max IS2" - Ski> 1.• /2). poniewaz z zalozenia m(l) = O, to c:= O, wiec EXt = O,t ;? O.
O<k'2n
Podobnie, niech 'u(t) = 7)2Xt. Poniewaz Xt - X., ~ Xt-s dla O <t < s i
Gdy n -, co, to X .• = Xt + (Xs - Xtl, marny 'u(s) = v(t) + v(s - t). Funkcja v jest ponadto
ciagla, wiec musi byc liniowa i v(-t) := et, a poniewaz EX? := 1, to c := 1,
max
O<k";2n
ISki i ~= df
sup
O<s";t
IXsl, max
O<k~21'l
IS2n - Ski jry
df
= sup IXt - X.l,
zatem 7)2 Xt := i, t ;? O.
O<s:E;'t
Oznaczmy ~k,n = Xtkln - Xt(k-l)ln, k:= 1,2; ... n. Wtedy
podczas gdy na mocy jednostajnej ciaglosci trajektorii (por. tw. 4) n n

P( max IDkl > 'U) ( P(m(Tn) > u) --> O.


Xt = 2:
k=l
~k,n, E~k,n = O, 2: [~~,n
k=l'
:= EX;,
O<k";2"

Wobec tego a ponadto zmienne losowe ~k,n' k:= 1,2, ... n sa niezalezne. Aby wykazac,
ze zmienue losowe Xt maja rozklad normaluy, skorzystamy z CTG i spraw-
P(~ > 371,) (O + P(~ > u)P(T/ > u/2).
Rozdzial 13. Proces Wienera § ]3.2. Wlasnosci trajektorii 311

d~ill1.1',czy spclniony jest warunek Lindeberga. Mamy 6, Niech V;(n), t E [0,1] bedzie procesem WieneTa okreslonym na przestrzeni
probabilistycznej (n",.:7'"", Pn.), n = 1,2, .... Na przestrzeni produktowej n =
= nI x n2 x ... , F = FI @ F2 @ ... , p = Pl @ P2 @ ... definiujemy proces
I:: E (E~,1l1{I~k,nl><}) ~ E (I:: EL,)l{maxk<;n Iknl><) ~ Wt(w), gdzie I; E [0,(0), w == (Wl,W2, ... ), wzorem
k=l
n ( k=l
n ) Mozna tez
n dla I E [0,1], wykorzystac
- /. ""-+1)
~ E(z=an)2 P(max IEk,nl > e) -> O. Wt(W) - { Wn,(W)
v(l)(WJ) + 'r,~n (W"+l) dla t E [n, n + 1]. uwage 2.
k~n
k=l
Wykazac, ze proces W jest procesem Wienera. na przedziale lO,oo). "

Poniewaz zmienne losowe Ek,n sa niezalezne i EEk,n = O dla k ~ n, n E N, 7. Inny sposób przedluzenia procesu Wienera na [0,00). Wykazac, ze
na mocy kroku I: jf,sli WL, t E [0,1] jest procesem Wienera, to

= Exi < 00, lit. = ("I + t) .(Wt/(lH) l + I,


- _1,_W1) ,. I E [0,00)
,
E (n{; )2 ~ E ( {;n )4
E;,n Ek,n
jest procesem Wienera . . ,
a P(maxk>(;n IE",n I > c:) -> O na mocy jednosta.jnej ciaglosci trajektorii na 8. Prawo wielkich liczb ella procesu Wienera. Wykazac, ze
[O, t]. Dowód kroku II iJtwierdzenia zost.al zakOllczony. _ .. ! "

l -:!

lim -=0.
Wt.
t~oo t
Zadania
9. Wykazac, ze dla dowolnych dodatnich a i b

1. Udowodnic, ze rozklady skonczenie wymiarowe procesu '0lienera sa nor- P( {--o.l, < liliI. < lA; dla dostatecznie duzych t}) =1
malne.

2. Podac przyklad procesu o funkcji kowariancji K(t, s) = rnin(l, 5) i nie beda- Proces Wienera jako martyngaL .Jes.1izdefiniujemy ftltracje (Ft.lt;"o zalezno-
cego st.ochas!".ycznamodyfikacja procesu vVienera. scia FI = a(W.,: s ~ t), t,o otrzymamy martyngal z czasem ciaglym (Wt, :FI.).
3. Proces Ul. == WIo - tliV[, t E [0,1], gdzie W jest procesem \Vienera, nazywamy 10. Wykazac;, ze martynga.lami sa procesy a) W/.; b) wf - t,
Trwstem. BTOwrw. 'AT )'znaczyc jego funkcje kowariallcji.
11. Udowodnic, ze zbiór {SUP"<;I. Ws ~ e} jest zdarz,enJem (mimo ze na pierwszy
4. Wykazac, ze proces XI, t. ~ ° jest procesem Wienera wtedy i tylko wtedy, gdy rzut. oka jest. nieprzeliczf1lna suma zclc\rzeJl),
ma ciagle trajektorie, rozklady skonczenie wymiarowe nonnalne o sredniej
zero, i funkcje kowariancji min(l, s), t, s ~ O.
Istnieje jeszcze jedna, martyngalowa cha.rakteryzacja. procesu Wienera, pocho-
5, Niech IiV bedzie procesem Wienera, \Vykazac, ze procesy otrzymane za po- dzaca od P. Levy'ego: jesli proces X/., t ~ ° jest martyngalem o ciaglych trajek-
moca nastepujacych transformacji sa procesami Wienera:
toria.ch, a pOf1i1dtoxl - t jest martyngalem, to XI. jest. procesem Wienel'a,
a) Z/. = -liVI.;
b) Xi. = C-1/2VVr.1., c;) O;
§ 13.2. Wlasnosci trajektorii
c) y t == {tHl1/t
O dla t > O, .
dlat==O'
d) llf. == WT+t - WT dla T> o: Choc t.rajektorie procesu Wienera sa ciagle, typowa trajektoria jest bardzo
nieregularna, Udowodnimy, ze prawie wszystkie trajektorie sa nigdzie nie- Funkcja. ciagl~1
e) Et . = { 2WT
WI - Wt. ella tt, ~> T.
dla T,
rózniczkowalne, Nie jest wiec dziwne, ze pl'C\wie wszystkie trajektorie maja o ograniczonej
Uwaga. Jak zwykle, po zastapieniu T przez moment. Markowa T w dwóch wahanie niesk011c:ZOne. Z kolei waria.cja kwadratowa jest prawie na pewno pochodnej lub
ostat.nich punkt.ach mozna sie spodziewac': ciekawych t.wierdzen. Jedno z nich ogl'aniczonynl
niezerowa i - przy odpowiednich zalozeniach co do ciagu podzialów od- wahaniu ma
jm;!".udowodnione w § 13.4.. Drugie polecamy jako zadanie.
cinka. -- deterministyczna i rówrla. dlugosci odcinka, 11(1którym ja mierzymy zerowa wariacje
(zad. 1-3) .. kwadratowa.
Aby skonst.ruowac: pmces \Vienera dla t E lO,oc,) mozna ta.kze "sklejac" przeli-
cZil.lniewieI" uiezaleznych kopii procesów Wiellel'a okreslonych dla t E [0,1]. Oto Dzieki viynikowi zad. 13.1.5 brJ,oanie rózniczkowaln~sc.i trajektorii na [0,(0)
(.)r-} powiednie 7..aclanie.
mozna sprowadzic do: badania rózniczkowalnosci na' [O, l).
312 Rozdzial 13. Proces Wienera § 13.3. Zasada odbicia 313

Twierdzenie 1. Prawie wszystkie trajektorie pToces'u Wienera (WtltE[O,l] t2. Wykazac, ze warunek )'~~1 liPnil < 00 w poprzednim zadaniu da sie zasta-
sa funkcjami nigdzie nier·ózniczkowalnymi. pic slabszym:

Dowód. Jesli trajektoria Wt(w) jest rózniczkowalna w pewnym punkcie


L
n=l
exp(-a/IIPnlll < 00.
s E [O, l), to .
3. Udowodnic, ze prawie kazda trajektoria procesu Wienera ma nieograniczone
IWt(w) - Ws(w)1 ~ l(w)(t - s)
wahanie na dowolnym przedziale.
dla t dostatecznie bliskich s, t > s i pewnego l(w) > O, skad wynika, ze dla Uwaga. Wynika stad, ze calka Stieltjesa wzgledem trajektorii procesll Wie-
j = [ns] + l, [ns] +2i [ns] +3 oraz dostatecznie duzego n: nera nie ma sensu.

!Wj/n(w) - W(j-l)/n(w)1 ~ IWj/n(w) - Wsi + IW(j-l)/n(W) - Wsi ~


§ 13.3. Zasada odbicia
~ -:;;:
l(w)(lj I;:;: - s Iii-l
+ '-;;;:- - s I) ~
Jest intuicyjnie prawie oczywiste, ze jesli trajektoria procesu Wienera do-
~ 41(w) +31(w)
n n
= 71(w)
n trze do punktu 't > O, to ma równe szanse skierowania sie w góre i w dól.
Wynika stad nastepujace twierdzenie:
Wobec tego zdarzenie "rózniczkowalnosc w pewnym punkcie" zawiera sie
w zdarzeniu
Twierdzenie l (Zasada odbicia). Jesli (Wtlt;",o jest procesem WieneTa,

l~l
u U n~m
n .o<i~n+l
U n
TTt;;?;l i<j=S;i+3
{lVVj/n - W(j-l)/nl ~ 7l/n}.
to

P(sup W. > T) = 2P(Wt > T), T): O. (l)


Zatem wystarczy wykazac, ze dla dowolnych l, m E N zdarzenie s~t

Am,l = n U
n;?::'m O<i~n+l
n
i<j~'i+:3
{IWi/n - W(j-l)/nl ~ 711n} D o w ó d. Nierównosc

ma zerowe prawdopodobienstwo. Istotnie, P(sup Ws > 't) ~ 2P(Wt > T); T): O. (2)
s~l

P(Arn,l) ~ lim inf(n


n-,oo + 1)P(IW1/nl ~ 7l/nl wynika natychmiast z nierównosci Levy'ego 1~1.1.1. Wystarczy zatem udo-
= liminf(n+ l)P(lwt! ~ 71/.j7i)3 wodnic nierównosc przeciwna. Niech
n-~oo
wt,n = sup Ws.
~ li~(-n + 1) ( :n r= O.
sEBnn[O,t]

Ostatnia nierównosc wynika z elementarnego oszacowania P([W11 < 't) ~ Zadana nierównosc natychmiast wynika z le~atu 2. Zwrócmy uwage, ze
___ 2
'" 72'(;T .• w dowodzie wykorzystuje sie w istotny sposób ciaglosc trajektorii: jesli
w chwili k2--n proces przekroczy.! poziom T, to w chwili (k - 1)2-n byl juz
blisko tego poziomu.
Zadania
1. Niech Pn = {t~n),lin), ... , t~:l,}, n ::= 1,2 ... bedzie ciagiem podzialów od-
Lemat 2. Niech T ): O. Dla kazdego t > O i kazdego 8 > O istnieje takie
71,(8), ze dla n > n(8)
cinka [0., bJ, takich ze IIPnll-> O, gdzie Pn ~ SllPk It~n) -t(~ll (jest to srednica
podzialu). Wykazac, ze
p(wt,n ~ '1') ~ 2P(Wt ): T,+ 8) - 8.
rrtn

Bn = '\"" IW (n)
~ tk;
- W tk_1
(n) 12 ----+
'n"""'CO
b - a
D O wód lematu. Ustalmy dowolne 8 > O. Niech
k=l

W L2; jesli ponadto L::'=lIIPnll < 00, to Bn -; b - a p.n. T = inf{s E Bn n [O,t]: Ws): r}.
:11.1 Itc)7,dziaJJ3. Proces Wienera § 13.4. Mocna wiasl10sc Ma.rkowa 315

,JuAIi I k'2", Lo Wk2 " ~ T, a jesli dodatkowo zalozymy, ze m(2-") < b, jest p'f'Ocesem Wienem niezaleznym od Fr, czyli a-ciala a (T'Vr t ~ O) i Fr
1.0 Wk2-" < + 6. Dlatego mamy
1" sa niezalezne.
[2"t)

,P(Wt ~ r + b) ~ 2: P(Wt
k=O
- Wk2-" + Wk2-n ~ '( + b, m(2-n) < biT = kTn) x D o w ó d. 1. Zalózmy najpierw, ze T ma przeliczalny zbiór wartosci S. Wy-
kazemy, ze dla kaz,c!ego t ) O funkcja FVt jest zmienna losowa. Istotnie, dla.
XP(T = kT") + P(m(2-n) ~ b) ~ kazdego a E R.:
[2"tJ

~2: P(Wt - Wk2-n ~ OIT = k2-n)P(T = kTn) + {Ti\!t ~ a.} = U {W'-f-t - Wt ~ a.,T = s},
k=O sES

+ P(m(Tn) ~ ó) ~
gdzie po prawej stronie mamy przeliczalna sume ,zdarzen.

~ ~p(tvt·n ~ r) + P(m(2-n) ~ ó). Sprawdzimy niezaleznosc a(Wt:t ) O) i Fr. Niech B E B(Rn), A E Fr·
Wtedy
W ostatniej nierównosci skorzystalismy z niezaleznosci zdarzerl {T = k2-n}
i {li\!t - Wk2-" ) O}. Teza wynika teraz z tw. 13.1.4. Dowód lematu i tym P({(Hft~, ... , Hlt~,.) E B} n A) =
samym dowód twierdzenia 1 zostal zakonczony. _
~.= 2:P({(Wt~,.·., H~(~,)E B} n A n {T ~ s}) =
.ES ..' ..
Zadania
J' .
= 2:P( {(Wt1-f-s - ~1~,.;,
.. , Wtn-f-s - Ws) E B} )P(A n {T = s}) =
~'lES h. ,/ .
1. Wyznaczyc gestosc ziniennej losowej 1,Vt = maXa,;;",;;t liF". = P({(T,Vi}l"" WtJ E B})P(A).
2. Znalezc rozklad zmi~nnej losowej Ta = inf{t ;;;:O: Wt = a.}.
3. Udowodnic, ze dla dowolnego t >O Skorzystalismy kolejno z tego, ze A n {T = S} E F.., ze na zbiorze {T = S}

P (max Ws > O) = P(min W., < O) = 1.


.'l(.t s~t . (Wt~,· .. , Wt~J = (Wt1-f-S - W" ... , TiVt",-f-S- Ti\!s),
Oznacza to, ze proces vVienera w dowolnie malym odcinku czasu przebywa
a ten ostatni wektor jest niezalezny od Fs i ma ten sam rozklad, co
z lewej i prawej strony punktu startowego.

(Wt,,···,Wt,.).
§ 13.4. Mocna wlasnosc Markowa
Biorac A = [2 widzimy, ze proces TiVo ma te same rozklady skonczenie wy-
miarowe, co H1. W takim razie w ostatnim wierszu proces Ti\! mozna zastapic
Jesli zdefiniujemy a-ciala Ft ~ a(W.: s ~ t), przyjmiemy definicje mo-
mentu stopu T taka, jak w przypadku czasu dyskretnego, tj. sprowadza- przez WO, z czego wynika niezaleznosc a-cial 9tl, ....t" ~ a(Wt~,· .. , Wt~.)
jaca sie do warunku {T ~ t} E Ft, i zdefiniujemy a-cialo od Fr. Ze by zakonczyc dowód tego przypadku, wystarczy zauwazyc, ze ro-
dzina U 9tl, ....t.", gdzie sumowanie odbywa sie po, wszystkich skoilczonych
Fr = {B E F:Bn{T ~ t} E Ft,t) O}, podzbiorach [O, (0), jest 7i-ukladem, wobec tego na mocy lematu 5.8.12
o niezaleznych 7i-ukladach niezaleznosc przenosi sie na a (Ti\!t: t ~ O). Za-
to bedziemy mogli sformulowac mocna wlasnosc Markowa dla procesu Wie-
tem proces H1° jest lliezalezny od Fr; jp.st on procesem Wienera, bowiem
nera. Intuicyjnie oznacza ona, ze po dojsciu do momentu stopu T proces
ma ciagle trajekt.orie i, jak udowodnilismy przed chwila, te same rozklady
\iVienera zapomina o przeszlosci i start.uje od nowa.
skoI1czenie wymiarowe, co H' (.,mcl. 13.1.4).
Twierdzenie 1 (Dynkina-Hunta). Jesli T jest momentem stopu wzgle-
II. Teraz zakladamy, ze mOlllent stopu T jest dow~lny. Jesli zdefiniujemy
dem filtracji Ft = a(Ws: s ~ t); peT < O('J) = 1, to proces
__ [2"TL~
wt ~ Hfr-f-t - H!r, t) O, in - 2n
316 Rozdzial 13. Proces Wienera 317
§ 13.4. Mocna wlasnosc Markowa

to Tn sa momentami stopu i Tn l
T. Oznaczmy vv}nl = vVTn+t - WTn• Tozsamosci Walda dla procesu Wienera. Z tozsamosci Walda (tw. 11.1.10,
Wtedy na mocy wyniku kroku I dla kazdej funkcji ciaglej i ograniczonej zad. 11.2.3) mozna wyprowadzic analogiczne twierdzenia dla procesu Wienera W:
<p: Rn --'> R i A E :FT C :FTn mamy: jesli T jest momentem stopu wzgledem naturalnej filtracji, E T < (X)', to
EWT = O, (2)
= [<p (Wt(,n), (1)
[(<p(Wt<;), ... , Wtl)lA) ... , Wtl)P(A). EW; = ET. (3)

Ale Tn l
T, wiec z ciag-losci trajektorii wynika, ze Wt(n)(w) --'> WtO(w) dla 5. Udowodnic tozsamosci Walda (2) i (3).
wszystkich w poza zbiorem o zerowym prawdopodobieilstwie. Dlatego (1)
Funkcje Haara, W nastepnym paragrafie bedzie mowa o konstrukcji procesu
pozostaje w mocy dla procesu vVO. Zatem (por. uwaga po zad. 9.4.1) proces Wienera za pomoca ukladów ortonormalnych w L2[0, l]. Ponizej zamieszczamy
WO jest niezalezny od :FT• Ponadto ma ciagle trajektorie, zerowa srednia,
w formie zadan podstawowe fakty o pewnym szcz~gólnym ukladzie ortonormal-
normalne rozklady skonczenie wymiarowe i funkcje kowariancji K(t, s) = uym - funkcjach Haara.
= min(t, s), wiec jest procesem Wienera, co konczy dowód twierdzenia. _ Niech (n, F, P) bedzie' przestrzenia probabilistyczna. Rozpatrzmy filtracje (Fn),
gdzie Fn = O'(Ar', ... , A~+l)' gdzie {A~, ... , A~+d jest rozbiciem przestrzeni n
Uwaga 2. W teorii procesów z wielu wzgledów praeuje sie z prawostronnie na n + l zbiorów O dodatniej mierze.
ciaglymi rodzinami q--cial (spelniajacymi warunek n.>t:Fs = :Fd. Taka Z tej definicji wynika, ze Fo = {0, n}, i ze (n + 1)-s'ze rozbicie powstaje z n-tego
rodzine tworza u-ciala :Ft+ ~ ns>t :Fs· Definicje poprzedzajace twierdzenie przez podzial jednego ze zbiorów na dwie czesci, tj. istnieje taki wskaznik kn, ze
1 i sarno twierdzenie mozna sformulowac dla tej rodziny; dowód twierdzenia A[~,,, = A~+l U A~'+] (tu i dalej "nowe" zbiory numerujemy liczbami l i 2).

przebiega bez zmian. ' Mozemy teraz zdefiniowac funkcje Haara hn, n = O, l, 2, ... , wyznaczone przez
ciag rozbic o opisanych powyzej wlasnosciach. Niech ho == 1,.a dla n ~ 1:
dla w E Ai',
Zadania dla w E A2',
hn, =-c { ~n
an dla w g A~ U A~,
1. Wykazac, ze zmienna losowa Ta = inf {S ~ O: W, ~ a}, a > O,ma rozklad
1/2-stabilny, tj. jesli T~i) sa niezaleznymi kopiarni Ta, ella kazdego n E N przy czym liczby a", i bn sa dobrane tak, by Ehn = O, Eh~ = 1.
Funkcje .!'[aara sa zatem wyznaczone jednoznacznie z dokladnoscia do zmiany
T~]) + ' .. + T~n) ~ n2T". znaku.

Transformata Laplace'a a funkcja charakterystyczna. Transformata La- Przyklad 3. Funkcje Haara. na (0,1]. Sa one WYZnaczoneprzez ciag rozbic:
place'a zmiennej losowej X nazywamy funkcje L: R+ --+ R, zdefiniowana zalez-
noscia {0, (O,l]},
Lx(s) = [e-Sx, s ~ O. {(O, n (l, l]},
Jest ona dobrze okreslona, jesli X ~ O, ale czasem ma sens i bez tego zalozenia. {(rq],(l,~],( ,l]),
Jesli na przyklad X ~ N (O, 1), to Lx (A) = e'" /2 Podstawienie A = it daje {(O, (l,n n( ,~],
(~, l]},
natychmiast funkcje charakterystyczna zmiennej losowej X (przynajmniej w tym
przypadku; nie bedziemy formulowac ogólnych twierdzen). Taki sposób oblicza-
nia funkcji charakterystycznych kryje w sobie pewne pulapki, o czym mozna sie Ten wlasnie ciag pojawi sie w konstrukcji procesu Wienera. Ciag funkcji Haara
przekonac z nastepnego zadania. w tym przypadku dzieli sie w naturalny sposób na bloki, zlozone kolejno z l,
2, ... , 2k, ... funkcji, wobec tego rozsadnie jest przyjac nastepujaca definicje
2. Wyznaczyc a) transformate Laplace'a, b) funkcje charakterystyczna zmien- inumera.cje:
nej losowej Ta.
haU) = l, t E [O, l],
3. Rozpatrzmy dwuwymiarowy proces (U" v,), t ~ O, gdzie wspólrzedne sa nie-
zaleznymi procesami Wienera. Wyznaczyc gestosc rozkladu zmiennej losowej
V"'o, gdzie Ta jest chwila pierwszego dojscia procesu U do poziomu a. hn,k(t) = -2 n;-l dla k2-n ~ t < (k + 1)2-n,
{ O2 n;-' (k _ 1)2-n ~ t < kTn,
dlap.p.
w
4. Wyprowadzic zasade odbicia (tw. 13.3.1) z twierdzenia Dynkina-Hunta.
n ~ l, k < 2n, k nieparzyste
:IIH Rozdzial 13. Proces Wienera § 13.5. Konstrukcja procesu Wienera za pomoca ukladów ortonormalnych 319

Oczywiscie J~Ih~,k = l i J: hn,k = O, a ponadto z zewnatrz obszaru wierzdlOlkiem pewnego trójkata), to rozwiazanie zagadnienia
Diricbleta istnieje. Jest nim funkcja

11 h",khl,m = o, 1L(~;) = Eg(x + WT), x E G, (6)

o ile k '" l lub n '" m, co oznacza, ze ciag funkcji Haara tworzy uklad ort.onor- gdzie W = (W(I), W(2)) jest procesem Wienera opisanym wyzej, zas T chwila
mainy. Jest to na dodatek uklad ortonorrnalny zupelny, jesli bowiem .I;: .f h" .1, == O pierwszego kontaktu proc:e~],lJ; + WI. z brzegiem aG (jest to moment stoP]'I).
Okazuje siej, ;i,efunkcja '/I jest ha.rmoniczlla, skad juz wynika, ze spelnia (5).
dla wszystkich dopuszczalnych wskazników k, n, to J;,h f = O dla wszysj,kich 11., li
dwójkowo-wymiernych, skad wynika, ze / = O prawie wsze,bie. Za. cbwile udo-
wodnimy, ze wlasnosci te ma kazdy ciag funkcji flama. _ *11. Viiykazac, ze z,c1efiuiowanaw (6) fnnkcja. '11. jest harmoniczna. wG.

Zwrócmy uwa.ge, ze funkcja '/I zawsze spelnia (5). Nie zawsze natomiast. jest ciagla
6. Niech (h,,) bedzie ciagiem funkcji Haara, odpowiadajac:,'m Iilt.nl.cji (.Fu.). Wy-
kazac, ze ua brzef.iu DC. \7ITiaze sie (.0 z kryterium regnlarnosci, majacym w ist.ocie charakter
probabilistyczny.
a) hn jest F,,-mierzalna dla n = 1,2, ..
,I
I b) E (h" + 11 :F,,) = D.
Od tej chwili przyjmiemy, ze g = er(:Fo,:F] , ... ).
§ 13.5. Konstrukcja procesu Wienera za pomoca ukla-
dów ortonormalnych
7. Wyl<iizac, ze (h",) jest; ukladem ortollormalnym zupelnym w [,2(\2, Q, P).

Wynik zadania 6 da sie uogólnic. Istnieje wiele. konstrukcji procesu Wienera na, przedziale [0,1], z którymi
warto sie zapozna.c, zeby zobaczyc, jak dzialaja pewne twierdzenia o zbiez-
8. Wykazac, ze fUI1ljcje Haara tworza b(LZe Scha-urle-m w D', p ) .1.,czyJi dla nosci miar i pewne twierdzenia z a.nalizy funkcjonalnej.
kazdej funkcji.f G LP(\2,Q,P) istnieje ciag (ai) Laki, ze
Na proces \iVienera, czyli na rodzine zmiennych losowych (Hlt)tE[O.1j, mozna
patrzec jak na zmienlla lo:,?,Owao wartosciach. w C'[O, 1] (przestrzeni funkcji
f = 2:a,hi' ciaglych na odcinln1 [0,1] z norma sup). Rozklad prawdopodobiel1stwa tej
i=O
zmiennej losowej to miara \~Tjenera.
I I '/ ~(.

przy czym powyzszy szereg jest zbiezny w UJ(\2, g, P) i prawie wszedzie. Wspomnimy tu o konstrujccji za. pomoca lamanych losowych. Niech ~i beda
Martyngaly a funkcje harmoniczne. Jesli funkcja f: H.2 ~ R jest harmo- niezaleznymi zmiennymi losowymi o roz.lcladzi~ N (O, 1). Definiujemy
niczna (patrz uw. D.2.7), W(I) i W(2) sa niezaleznymi procesami 'Wienera. oraz . 1
:Ft = u(WP), W~2): S ~ t), to (f(WP), WP)),:Ftl jest l1larLyngalem.
B,,(t) = 6 + ... +'Ti~[,,!.](w) + (nt - [nt)) yn
r.::~lntJ+1(w)
9. Niech f bedzie funkcja harmoniczna, X - wehorem losowym o standardo-
wym rozkladzie ndrmalnym w R2. Wyk"lzac, ze dla t E [0,1]. Niech P" bedzie rozkladem B", traktowanej jako zmienna
losowa o wartosciach w C'[O, 1]; mozna pokazac, ze P" ~:!...P, gdzie P jest
[/(1.1 + eX) = f(tL).
rozkladem prawdopodobieilstwa na przest.rzeni funkcji ciaglych na odcinku
10. Wykazac, ze proces wF) w?) , t ) O jest martyngalem. [0,1], zadajacym proces \~Tienera.
Przeprowadzim:\; teraz kOD8trukcje procesu Wienera na odcinku [0,1] za
Metody Monte Carlo a zagadnienie Dirichleta. Niech G C R2 bedzie pomoca ukladów ort.onormalnych. Pochodzi ona od Ho i Nisio, zas (wcze-
otwarty i spójny; niech g: BG -. R. Rozwiazanie zagadnienia Dirichleta w obsza-
sniejszy) pomysl uzycia funkcji Haara - od Zbigniewa Ciesielskiego.
rze G polega na znalezieniu takiej funkcji ciaglej u: G -. R, zeby
Niech (ip");',"=1 bedzie dowolnym ukladem ortonormalnym zupelnym w prze-
u(x) = g(x), x E aG, (4) strzeni L2[0,1], a b")';',"=1 -- ciagiem niezale'znych zmiennych losowych
-+-.
02U
OX2
02U
&y2
=0.
, .
x E G. (5)
o rozkladzie N(O, 1). Wt.edy formalny szereg
00
M'etodarni probabilistycznymi mozna wykazac, ze jesli funkcja g jest. ciagla i ogra-
niczona, a brzeg obszaru G jest regularny (co oznacza, ze mozna go dotknac
2: r"CPn
,,=1
320 Rozdzial 13. Proces Wienera § 13.5. Konstrukcja procesu Wienera za pomoca ukladów ortonormalnych 321

pozornie nie ma wielkiego sensu: nie jest zbiezny w L2 [O, l], wiec nie defi- co daje zbieznosc jednostajna szeregu.
niuje tam miary gaussowskiej. Definiuje jedynie obiekt zwany miara cylin- Pozostaje do wykazania, ze rozklady sko11czenie' wymiarowe procesu yVt sa
dryczna. Jej obraz przy przeksztalceniu liniowym moze juz byc prawdziwa normalne. W tym celu zauwazmy, ze rozklad wektora losowego
miara. Nie bedziemy wykladac ogólnej teorii, a udowodnimy tylko, ze szereg

Wt = L00
n=1
"In lt ipn(s)ds
O
( ~~("./O
00 (tl ipn(U)du'~ln./o
00 t2 ipn(U)dU''''!~ln 00 ltmipn('u)du )
O

jest zbiezny prawie na pewno w przestrzeni G[O, l], i ze otrzymany proces jest normalny, o sredniej zero, jako granica w sensie slabej zbieznosci przy
Wt ma skonczenie wymiarowe rozklady normalne oraz funkcje kowarian- k -> 00 ciagu rozkla.dów normalnych o sredniej zero, odpowiadajacych wek-
cji EWt Ws = min( t, s). To ostatnie latwo wykazac dla dowolnego ukladu torom
ortonormalnego:
· Szereg L: an "in
jest zbiezny p.n.
wtedy i tylko EWtWs = E (2.::: In lt
t
<pn('U)du) (2.::: In
s
l <P"(U)d'U) ( ?;'n)o
k (, ip,,(u)dV"~I".Io
k t2 <Pn(U)dU'''''~ln)ok . tm<Pn(u)dv,)
l:wtedy, gdy
a; < 00;
wtedy jest on tez = 2.::: l <Pn(u)du·l <P"(u) d'll, = Zadania
zbiezny wedlug
l l
p-tych momentów
= Ll ( )0 l[o,tJ(u)<p,,(-u)du Ja( l[o,sJ(u)<p,,(u)du = W konstrukcji procesu Wie nera za pomoca ukladu' Haara moglismy wykazac
zbieznos{: szeregu losowego w przestrzeni G[0,1] dzieki temu, ze funkcje Haara
nale:f',ace do jednego "bloku" maja rozlaczne nosniki .. Jesli zastapimy uklad Ha-
= 11[O,t](lL)1[0,S](u)du = min(t, s). ara przez dowolny uklad ortollormalny zupelny w L2[0, 1], dowód zbieznosci od-
powiedniego szeregu bedzie znacznie trudniejszy. Ponizej przedstawiamy metode
Natomiast zbieznosc prawie na pewno w G[O, 1] dowodzi sie dosc prosto dla dowodu pochodzaca od Kwapienia5.
ukladu Haara (co do.innych ukladów ortonorrnalnych, patrz zadania 1-3).
Przestrzen C\[O, lJ, Tak bedziemy oznaczac przestrzen funkcji ciaglych f na
Poniewaz funkcja Schaudera H",k (t) = .J~hn,k(S )ds przyjmuje wartosci nie- odcinku [0,1], spelniajacych warunek I-Ióldera z wykladnikiem A i takich, ze
zerowe tylko na przedziale ((k - 1)2-n, (k + 1)2-n) (i ma tam maksimum f(O) = O. Norma w tej przestrzeni dana jest wzorem
równe 2- ~), a przedzia.ly takie sa rozlaczne dla ustalonego n i nieparzy-
dr. If(8) - f(t)1 -'
stych k < 2n, marny, oznaczaj ac przez e" (t) sume wyrazów bloku zawiera-
1IIlIA= suP{-I----IA-:
s - t s,t E [O, l], s =f- t}.
jacego n-ta serie funkcji Haara
Przestrzen G A [O, l] z tak okreslolla norma jest przestrzenia Banacha.
n,k n,k = 2-""'"' max h".xJ Operator R.iemanna-Liouville'a. Jest to operato,r calkowy, dany wzorem
tE[O,l]
sup le71(t) I = tE[O,l]
sup I
k
k<2n
2.:::
Uiepl\n,ygt.e
I H l -n+l k
k<2'f'l,
ni~ptwzystc

Wobec tego (RnJ)(s) ~ Ra) .f (s - t)"-Jf(t)dt, a> O.


(1)

P(bil > t) ~ P( sup len(t)1 > eJ2-nlog2") =


:;;;2e-t2/2 tE[O,I] Innymi slowy, l?,J = f * T", gdzie 'r,,(~;) = r(~1;"-llI0,oo)(x). Poniewaz 7'"* Tb
= Ta+b, mamy R,,+b = R"Rb.
= P( max hn,kl > 2l'feV2-nlog2n-):s;
k<2-n
k n iepa.rzyste 1. Udowodnic

:s; 2n-1p(hl > eyl2log2n) :s; 2"e-02tog2n = 2"(1-02) Lemat 1. Je.4li 1 < p < 00, ° < A < l, a = l/p + A, to Ra jest opemtor-em
Jesli e > l, to L: 2"(1-02) < 00, wiec na mocy lematu Borela-Cantelliego c'iaglym z UfO, lJ 'Ul GA[O, 1].

z prawdopodobienstwem l zachodzi tylko skonczenie wiele zdarzen


SPOI'. [KWA], § 2.5. Ogólniejsza teorie, w tym informacje o miarach cylindrycznych
mozna znalezc w: A. Pietsch, Operator- Ideals, VEB Deutscher Verlag der Wissenschaften,
sup len(t)1 > eJ2-n log2", Berlin 1978, § 25.6; istnieje przeklad rosyjski.
tE[O,l]
: l:.! ~~ Rozdzial 13. Proces Wiellera

Faktoryzacja operatora RI' Naszym celem jest wykazanie, ze szereg


00

2:: R1en/'n,
n=l

gdzie (en) jest dowolnym ukladem OJ.'tonormalnym zupelnym, a b1l) - eiagiem


niezaleznych zmiennych losowych o rozkladzie N (O, l), jest zbici,ny prawie na Dodatek A
pewno w przestrzeni C",[O, l]. Przy okazji otrzymujemy wniosek: prawie ws~ys~kie
trajektorie procesu Wiellera spelniaja warunek Hiildera z wykladnikiem A, gclzie
° < A < 1/2.
Usta.lmy A E (0,1/2). Wtedy dla pewnego
Niech a = l/p + A, b = l - l/p - A. Wtedy
p
et
E (2,00) jest ° < A < 1/2 - l/p.
+ b = 1, a E (0,1/2), b E (1/2,1),
Kilka faktów z analizy
i mamy nastepujaca faktoryzacje:

l
R,
L2[0, l] ----t C",[0,1]
§ A.I. Pozyteczne nierównosci
Rb id r Ha
C[O,l] ----t U[O, l]
1. c:" ~ x + e,,2, x E R.
Na mocy wyniku zadania l operator Ra jest ciagly z LP[O, 1.] w C",[O, 1). Poniewai
IIRbflloo ( Ilrb11211f112, to operator Rb jest ciagly z L2[0, 1] w C[O, l] C L/'[O, l];
DowÓd. Udowodnimy rÓwnowazna nierównosc: ex2-x + xe-x ~ 1. Jesli
ma jednak znacznie mocniejsza wlasnosc. x > O, to z (najbardziej chyba pozytecznej) nierównosci eX ~ 1+ x wynika,
ze
2. Wykazac, ze szereg
ex2-X + :te-X ~ 1+ x2 - X + x(l - x) =l (l)
2:: Rben/'n l
7'l.=1 Jesli :c ( O, Lo lewa strona (1) jest malejaca i przyjmuje w zerze wartosc 1,
jest zbiezny wedlug p-tych momentów w LP[O, 1]. bowiem jej pochodna

Z faktoryzacji opera.tora' 'Rl oraz zadan l i 2 wynika teraz zbieznosc wedlug [(1 - :e) + (2:e -- l)e,,2]e-X
p-tych momentów w C"'[O, l] szeregu I:~=l R1en/'n, który definiuje proces Wie-
nera. Konstrukcja zostala zakOllczona. jest. ujemna, co z kolei wynika z nierównosci
Nietrudno jednak udowo'dnic zbieznosc prawie na peWl10 powyzszego szeregu. ,.2
> --1 - J;
x < O.•
Wynika ona z ogólnego twi'erdzenia o szeregach niezaleznych zmiennych losowych. C"
""
>- l
1- 2x'
3. Niech I: Xi bed.zie azeregiem niezaleznych symetrycznych zmiennych loso-
wych o wartosciach w przestrzeni Banacha. Uogólnic nierównosc Levy'ego-
i
-Ottavianiego (7.2.1) za jej pomoca wykazac, ze zbieznosc szeregu wedlug 2. Ilog(l + z) - zl (lzI2, o ile z E C, Izl (~.
prawdopodobienstwa implikuje zbieznosc prawie na pewno.
D o wód. Istotnie, mamy

Ilog(l + z) - zl = I '2
Z2 (
1- '32z + 5-
2z2 + ... ) I
(2)

(z I 2[ (12+"f:3+2.25
l l.) + ... (z 1 12
. •

2a. Dla argumentów rzeczywistych ma miejsce nieco dokladniejsze oszaco-


wanie:
x
x> -1.
l +x ~ log(1 + x) ~ x,

323
324 Dodatek A. Kilka faktów z analizy § A.2. Funkcje gamma i beta 325

D o wód. Prawa nierównosc otrzymuje sie logarytmujac obie strony nierów- § A.2.Funkcje gamma,i beta
nosci eX ~ l + x; co do lewej, funkcja (l + :.I;) log(l + x) - x jest malejaca
na (-1,0] i rosnaca na [0,00), a dla x = O przyjmuje wartosc O .• Funkcja gamma jest zdefiniowana wzorem
2
3·1(1+z)log(1+z) - (z+ T)I:::; ~lzI3, o ile z E C,lzl:::;~· (1)
f(a) = 1= ta-1e-tdt, a > O.
D o wód. Wystarczy skorzystac z rozwiniecia w szereg Taylora i szacowac Calkowanie przez czesci prowadzi do wzoru rekurencyjnego
ta sama technika, co w nierównosci (2):
f(a) = (a - l)r(a - l), li > l, (2)

(l + z) log(l + z) =z + 1.2
Z2

- N
z3

+ 3.4
Z4

- ... •
a poniewaz f(1) = l, dla nEN
f(n)
mamy

= (n - l)!
4. Ponizsze trzy nierównosci Funkcja garrllna pojawia sie w naturalny sposób przy obliczaniu momentów
rozkladu normalnego. Jesli 'Y ~ N (O, l), to
(a) let - 11 :::; Iti, t E R;
Eh'IP = ----
') 100
'127f-" o
IWe-t2/2dt
.
= ~-
fi
')p/2 j'=
o
Isl(p-1)/2e-Sds =
(b) leit - l - iti :::; Itt, t E R;

= V1r
2lJ~f(P+l). 2
(c) leit-l-it+el:::;~, t.ER;
Podstawiajac p = O otrzymujemy pr;z;y okazji wartosc f(1/2) = fi.
sa szczególnymi przypadkarili nastepujacego oszacowania: Funkcje beta definiuje sie za pomoca calki:

= i·1ta-1(1- t)b-1dt, a,b>


Twierdzenie 1. Dla wszystkich t E R in = O, l, 2, ... zachodzi n'ier-ów-
B(a,b)
. o '
O.

nosc:
Okazuje sie, ze

B(a, b) = f(a)f(b) . (3)


L..- ki ""-Itinin . (3) f(a + b)'
leit _ ~k=O' (it)k I /
Zaleznosc te chyba najlatwiej otrzymac jako produkt uboczny z rachunków
w zadaniu 5.10.1, które powtórzymy tu w uproszczonej postaci. Niech 9a
D O wód. Za.stosujemy indukcje. Dla n = O mamy oczywista nierównosc
oznacza gestosc rozkladu 'Y\"l.Wtedy
leiii:::; 1. Przypuscmy, ze nierównosc jest spelniona dla pewnego n ~ O.
Wykazemy, ze jest spelniona dla n + 1.
Mozna bez zmniejszenia ogólnosci zakladac, ze t ~ O, bowiem zmiana znaku
(g
. a.
*g
. ()
)(t) = l
l"1(_\n{'/!\1
--=
j'=,(t _ x)a-1xb- ..:le-(t-X)e-x x

t powoduje pojawienie sie po lewej stronie (3) liczby zespolonej sprzezonej


do wyjsciowej. Mamy wtedy

e't - '"
I', L..- - k! =
Ij·t(,
e's - L..-
'" - k! ds
I"
,(
X

--, l__
], lt
l(o,CXl)(t - x)l(o,oo)

= r(a)r(/;)·e
'-I
O (t - X)
(x)d:1: =
a-l b-l
x, dx =

,(ltl
k=O
n (it)k'j ' O k=O (iS)k)
n-l = r(a)f(b) ta+b--2e-t j.t (l _
O! ~/t)a-1(x/t)b-1dx =

" o e is _ L
n-l
k=O' ki I dt" ,(
(is)k lt o Itln+!
~n.I ds -_ ( n l.
+ , )1' =
= B(a,
l
f(a)f(b) ta+b-lct

bl..ta+b-le-t
lofI (l _'u)a-lub-ldu =

Twierdzenie zostalo udowodnione. _ f(a)f(b)


nu Dodatek A. Kilka faktów z analizy § A.3. Wzór Stirlinga 327

y\Tystarczy teraz zauwazyc, ze splot gestosci ga i gb jest w dalszym ciagu W szczególnosci


gestoscia, zatem 2n
= ni' Vn o = (,!T.)n
11",1 ,- r(~ + 1)' •
_ (= r'(~\r'lh\t
l-lo B(a, b) a+b-l e-t dt-T'{~\T'{L\·r(Ct+Ii,
_ B(a, li) )

skad wynika wzór (3). § A.3. Wzór Stirlinga

Przyklad 1. Do funkcji beta sprowadzaja sie dobrze znane skadinad calki Udowodnimy, ze
o
n! = V27rnnn e-n+ffi, O < Bn < 1. (1)
In = sin n xdx = cosn .xdx.
I, 171'/2
O j.7r/2
O
Istnieje wiele dowodówl i alternatywnych postaci tego wzoru (por. zad.
Wiadomo, ze In = (n - l)/n . In-2, n;;:: 2, dlatego 10.2.18, a Lakz,e: [FEL], t. 1, s 56, [GKP], s, 531). Podamy dowód oparty
na. wzorze Wallisa.2 (por. [FICR], t. II, s. 319). ,
In
-;nn-.
(m-'i)!!
"2 dla m = 2k,
(4)
2k + 1.
=;=
{(m-l)!!
m!! 71'
dla m = Lemat 1. Dla kCtzrlego n E N zachodza nier'Ównosci

Y\Tynik ten mozna otrzymac za pomoca funkcji beta, zauwazajac, ze 1' l


( 1 +;:l)n+1
(2)
e < <e T12n(~~+1).
.

171'/2
o
sin n xdx = 11'o sn(1- S2)-1/2ds = _111
2 o
s(n-l)/2(1 _ S)-1/2ds =
D o wód. Z rozwiniecia
= ~B(n+l l) = ~. f(!l}!)r(!)
2 2' 2 2 f(~)
l-x
Jog -.
]+ - x 31 2 + -x
= 2x ( +;-x 3.51 4 + ... + "+1 x 2k + ... ),
'2-k 1
i korzystajac ze wzoru rekurencyjnego (2) .•
otrzymujemy, podstawiajac x = 1/(211.+1) i uwzgledniajac, ze ~ = l+~:
Przyklad 2. Obliczymy teraz za pomoca funkcji beta objetosc zbiorn

Sn,p = {(Xl, ... ,Xn) E Rn: !XI!P + ... + IXniP::;; l}, O < P < 00. log ( 1 + ~) = -2'17-, ;~d 1+ -3(-271-. ~-- '1r + -5(-21-1
~-l )-4+ .. .J.
Dla p = 1 jest to n-wymiarowy odpowiednik osmioscianu, dla p = 2 - knla Poniewaz
n-wymiarowa. Jesli p ;;:: 1, zbiór Sn,p jest kula jednostkowa w przestrzeni
unormowanej l~.
---~ ] + 5(2n 1
+ 1)4 + ... ::;;3l[ (2n 'l+ 1)2 + (2n +
1 1)4 + ... ] ::;;
Oznaczmy szukana objetosc przez V;"p. Mamy wtedy (prawie) oczywisty 1
zwiazek rekurencyjny:
l l
::;;-( n + 1)'
1211.

otrzymujemy
Vn,p = Vn-l,p' l-l
r (1 - tP)(n-l)/pdt = V;,-1,1' . 2 lor (1 - tp)(n-l)/Pdt.

Podstawienie
Ostatecznie
tP = s pokazllje, ze ostatnia calka jest równa * B( n+;-l , ~). 1< (n + ~) log (1 + ~) < 1 + ,n 1 ., ,

\.n
Tf. 'rl _- vn-loJ)
TT 2B(n+p-I l) z czego natychmiast wynika (2) .•
"p
• - , - •

>Y p p
lPierwszy w: James Stirling, Methodus diffe'"entialis, Londyn 1730.
Poniewaz VI,p = 2, wynika stad, ze 2 John Wallis, Arithmetica infi.nitorum, Oxford 1656. Metoda Wallisa odwoluje sie do
calek (wedlug wspólczesnej terminologii, bowiem wtedy mówiono o kwadraturach krzy-
2nrn(*) wych), które sprowadzaja sie do funkcji beta. Cytowana ksiazka w 75 lat pózniej wywarla
duzy wplyw na Eulera w jego badaniach nad funkcjami beta i gamma. Oryginalny dowód
Vn,p = pnf(7)' Wallisa mozna znalezc w [HIS], t. n.
328 Dodatek A. Kilka faktów z analizy § A.3. Wzór Stirlinga 329

Lemat 2. Istn'ieje taka stala a, ze Mozemy teraz wyznaczyc stala a z lematu 2. Zastosujemy lemat 2 do wy-
razenia
n! =a nn+1/2e-n+~, O < en < 1. (3) (2n)!! [(2n)!!j2 22n(n!)2

Dowód. Niech (2n -- 1)!! ~ (2n)!

a n _-- n!en Z (3) wynika zatem po elementarnych rachunkach, ze


nn+1/2' n = 1,2, ...
Wtedy
~ _ (1 + ~)n+1/2 (2nL
(2n-1)!! __ =a V2
f!ie(46n-e;J/2<Jn, Bn,e~ E (0,1),
an+1 - --'e-- wobec tego wzór Wallisa daje
i z lematu 1 wynika, ze (Li)

an _1 e1/12n 7r
_ = .
l11u
1 n,
a2. _ . e(1en-en)/Ln
' ?
= _0.2
1 < --
o.n+1
< e 12nt."f1.+1) == .
e1/L(n-H)
') .
2 n~oo 2n +1 2 4

Wobec tego ciag (o.n) jest malejacy i ogra,niczony z dolu przez O, zatem Oznacza to, ze a =)2;. Dowód wzoru Stirlinga zostal tym samym zakon-
jest zbiezny do granicy a. Z drugiej stroilY ciag o wyrazach «ne-1/12n jest czony.
rosnacy i zbiezny do tej samej granicy. Poniewaz dla kazdego n
o.ne-1/12n' < a < o.n, Wzór Stirlinga jest zadziwiajaco dokladny, a co wiecej, istnieja wersje jesz-
istnieje takie Bn E (0,1), ze cze dokladniejsze, na przyklad ([GKP], s. 531).:

o.n = ae-e,,/12n _ n! == v21rn nn e -n+ l~n - 3~~n3+ 12:~n~ , O < Bn < 1.


Stala a wyznaczymy ze wzoru Wallisa (ale mozna ja takze otrzymac jako Dziwne wspólczynniki w wykladniku wyrazaja sie przez liczby Bernoulliego
uboczny produkt z twierdzenia de Moivre'a-Laplace'a).
Bn (patrz [GKP] s. 317); wiaze sie to z faktem, ze
Wzór Wallisa byl
pierwszym Lemat 3 (Wzór Wallisa).
wzorem,
wyrazajacym 11"
-= hm -- --- . (4)
log J2; = 1 - L
k=l
00 B
2k =
jako granice ciagu 2
7r rHOO
. 2n 1+ 1 ( (2n(2n)!!
- 1)!I ) 2 1 1 1 1
liczb wymiernych.
Dowód. Jest oczywiste, ze = 1 - 12 + 360 - 1260 + 1680 - ...

W takiej tez postaci otrzymal stala a ze wzo~u (3) Abraham de Moivre


sin2n+1 :cclx < sin2n xdx < sin2n-1 xdx, (patrz tez przypis na str. 17(1).
111"
o /2 ' o /2
,1r'1I" ,Ir"ff() /2 .
Wiadomo tez (dowód nie jest latwy), ze dla:1; ~ O
zatem wzór (A.2.4) daje
(2n)!! (217. - l)!! 7r (2n -- 2)!!
f(x + 1) = ./2; xx-l-o;; 1 e _·x+1~.lllr"'" ~ds
(x+,)- ,
(~-+ l)!! < - (2n)!! - .. 2 < (2n-l)!!'
czyli gdzie <p( s) jest okresowym przedluzeniem (o okresie 1) funkcji

h(s) = s(1- s), s E [0,1].


l)!! ]2 2n
[ (2n(2n)l!
- 1+ 1 < 2<
7r (2n -
[(2n)II]2 1)!! 1
2n'

Skrajne wyrazy tej nierównosci róznia sie o

1 (2n)!! 1 7r
2n(2n + 1) [ (2n - l)!! ]2 < 217. . 2'
zatem maja wspólna granice równa 7r /2 .•
§ B.L Definicja i podstawowe wlasnosci 331

Dla Isl < l pierwsze dwie pochodne wynosza


00 00

g';;(s) = L,jpjSj-l, g';.;(s) = LHi - 1)P.iSi-2, (2)


j=l .i=2

a ogólnie II.
Dodatek B 00 '1

( )
g;' (s) =~ L D~
~
J::::..n...

n)!PjS
j-n '-.
I~'

Stad dla s = O mamy


Funkcje tworzace Pn = gx
(n)
(O)
\ .
n!

I
udowodnilismy zatem
I ''
W tym dodatku przyblizymy pojecie funkcji tworzacej. Nie pojawilo sie ono Twierdzenie 2. Ro;ddad pmiJJCZopodob'ienstwa zrntenne,j losowej o warto-
w zasadniczej czesci ksiazki, bowiem wprowadzilismy pojecie ogólniejsze - sciach calkowitych nie'l1jemnych. jest jednoznacznie wyznaczony pTzez funk-
funkcje charakterystyczna. Tym niemniej funkcje tworzace sa wygodnym c.ie twor·zaca·
narzedziem przy badaniu zmiennych losowych o wartosciach calkowitych
nieujemnych i warto poznac ich podstawowe wlasnosci. Powrócmy do wzoru (2). Jesli EX < 00, to szereg definiujacy pierwsza
pochodna jest zbiezny dla s = 1. Na mocy twierdzenia Abela mamy wtedy
Funkcje tworzace pierwszy badal de Moivre. Euler uzywal ich intensywnie 00
do badania problemów z teorii liczb.
!im g';;(s)
,.,.-tl- = ".iPj
~ = EX.
j=l

§ B.l. Definicja i podstawowe wlasnosci Jesli EX = 00, to szereg ~.iPj jest rozbiezny, ale i lims....,l- g';; (8) = 00. Tu
i w dalszym ciagu przyjmiemy dla funkcji tworzacych umowe, ze
Definicja 1. Funkc,ja tworzaca ciagu. liczbowego (P.i)~o nazywamy lu.nkc.ie g';; (1) = lim g';;(8),
s--+:J --
00
dopuszczajac wartosc 00. Otrzymamy wtedy po prostu
g(s) = I>jsj, s E (-0.,0.), (l)
j=O
EX = g'x (l). (3)
,jesli tylko powyzszy szereg potegowy ,jest zbiezny w niepustym pTzedziale Podobnie
(-0.,0.).
EX(X - l) = lk(1.). (4)
Gdy X jest zmiellila losowa o wartosciach calkowitych nieujemnych i o
Wprowadzimy teraz funkcje tworzaca dla ogonów rozkladu, czyli dla ciagu
rozkladzie P(X = .n = Pj,j = O, l, ... to funkcje tworzaca ciagu (P.i)~O
nazywamy funkcja tworzaca zmiennej losowej X i oznaczamy gx. Z definicji o wyrazach qj ~ P(X > j), dana wzorem
wynika natychmiast, ze gx(s) = Esx. Oczywiscie funkcja tworzaca zalezy Q(s) = iJo + qlS + q2s2 + ...
tylko od rozkladu prawdopodobienstwa zmiennej losowej.
'ii'iTspólczynniki w tym szeregu sa ograniczone przez 1, zatem jest on zbiezny
Fuilkcja tworzaca gx jest dobrze okreslona co najmniej dla Isl ,,;; l, bowiem
co najmniej na przedziale (-l, l).
z oszacowania.
00 00
Zgodnie z zad. 5.6.8 i umowa dotyczaca wartosci Q(l) mamy
I>jlslj,,;; I>j
j=O j=O
= l EX = iJo + iJI + iJ2 + ... = Q(l).
wynika wtedy bezwzgledna zbieznosc szeregu (1). Powyzsze fakty podsumowuje

330 1}

r
332 Dodatek B. Funkcje tworzace § B.2. Funkcja tworzaca sumy niezaleznych skladników 333

Twierdzenie 3. Dla 8 E (-1,1) zachodz'i WZÓT Dowód. Poniewaz Xl,X21 ... ,Xn sa niezaleznymi zmiennymi losowymi,
to zmienne losowe Sx" i
= 1,2, ... , n sa niezalezne i
Q(s) = 1-l-s
gx(s) (5) n

Ponadto
gXl+X2+"'+X,,(s) = [SX,+X2+ ..+x" = I1
i=l
[sx, .•

EX = Q(l) = g~'((1), (6) Przyklad 2. Kazda z n niezaleznych zmiennych losowych Xl, X2" .. , Xn
moze przyjac z jednakowym prawdopodobienstwem jedna z wartosci 1, 2,
EX(X -1) = 2Q'(1) = g~(J). (7)
... , m. Obliczyc prawdopodobiellsl:wo, ze suma Xl + X2 + ... + Xn bedzie

Dowód. Wspólczynnik przy sn w (1 - 8)Q(S) wynosi qn - qn-l = -p"


a) równa danej liczbie k, n~ k ~ mn,
gdy n ): 1 oraz qo = Pl + P2 + ... = 1 - Po dla n = O, zatem b) wieksza od danej liczby k, n~ k ~ mn.
Rozwiazanie. Marny

Z twierdzenia o wartosci
(l -
sredniej
8)Q(S)

Q(s)
= 1-
= g'x(t),
gx(s).

gdzie t E (s, l), zatem gXi(S) = f -~sj


j=o rn.
= ~
m
s(sm - 1)
s - 1 '
lim
s-l Q(s) = t-l
lim g'x(t) = [X wiec

Z (5) wynikaja zaleznosci


YX,+X2+' .+x,,(s) = -n
rn1 s-
[s(sm_1)]n1
g'x(8) = Q(s) - (l - s)Q'(s),
g~(s) = 2Q'(s) - (1- S)QI/(8),
=m-nsn[~ C) (_sm')l] [~(~n)(_S)I] =
zatem g~(l) = 2Q'(1) i otrzymujemy (7) .•

Proste rachunki daja = m-nsn [~ C) (_l)lsml] [~ (n: ~~ 1) sr]-


Wniosek 4. 'Jesli [X2 < 00, to a) Szukane prawdopodobienstwo jest równe wspólczynnikowi przy Sk, za-
tem na mocy de.finicji iloczynu szeregów jest równe sumie iloczynów wspól-
1)2 X = Q(l) + 2Q'(1) - [Q(lW = g'x(l) + g~ (1) - LIJ'x(1)]2 czynników po tych l, T, ~,e k = n + mi + 7', r.zyli po l = 0,1, ... , n i odpo-
wiednio T = k - n - mi, "fiec jest ono równe
Przyklad 5. Niech X ma rozklad geometryczny: P(X = j) = q.ip, gdzie
j = 0,1, .... Wtedy
ln-n O (kn -- lIn
[(n) - 1- 1) + (n)
l) _ (n) (k - 1'11. \2 (k - n-l
2m - . 1) _ ... ] =
00 . p

gx(s) = j=O
~p(qsF = 1- qs'
=m-n[~(-l/(~) (k-nr:l; 1)].
Stad g'x (1) = q/p = [X i 1)2 X = q/p2 •
b) Szukane prawdopodobieilstwo jest równe wspólczynnikowi przy Sk funk-
cji tworzacej ogonów
§ B.2. Funkcja tworzaca sumy niezaleznych skladników 1
Q(s) = - 9Xl+X2+"'+X,,(s)
1- s.' '
Wykorzystamy teraz zaleznosc gx(s) = [sx. Wynika z niej
i obliczajac jak wyzej otrzymujemy
Twierdzenie 1. Jesli Xl, X2, ... , Xn sa niezaleznym'i zmiennym'i losowy-
+ X2 + ... + Xn ma.
mi o funkcjach tworzacych gl, g2, ... , gn, to suma Xl
funkcje tworzaca TI7=1 gi· 1- m -n [~( _1)1 (~) e -nmi) ] .•

~
I,
:1:1-1 Dodatek B. Funkcje tworzace § B.2. Funkcja tworzaca sumy niezaleznych skla.dników 335

W tym przykladzie obliczylismy w szczególnosci prawdopodobienstwa zda- D o wód. Obliczymy h stosujac tw. l i odpowiednia wersje wzoru na praw-
rzell (ypu "uzyskanie sumy 444 oczekprzy stukrotnym rzucie kostka". Inne dopodobienstwo calkowite
metody bylyby tu niezwykle pracochlonne. ,00 00

h(8) = E8SN = 2::: E (S8N I N = k) P(N ='k) ,,= 2:::E8SkP(N = k) =


Twierdzenie 3. Jesli X, Y sa niezaleznymi zmiennymi losowymi o fl.mk- k=O k=O
00
cjach tworzacych 91,92, to P(X - y = k) .iest rÓwne wspólczynnikowi przy
Sk 'Wfunkcji gl (s )g2(1/ s). = 2:::gk(s)P(N = k) = f(9(S)),
x:=O

Dowód. Mamy Po drodz,c skorzystalismy z niezaleznosci N od (Xn), otrzymujac

E(s8NIN=k)=E(sSkIN=k),=EsS, •
( l '
91(8)92(1/s) = (~Pksk) (~bIS-I).
Gdy zalozymy dodatkowo, ("z,€,EXl < 00, EN <~~, to z (3) i tw. 5 otrzy-
Obliczmy wyraz z sk. Dla k ~ O ma on postac mamy:
00 00
EBN ==i.T'tg(l))· g'(1) = EN" EX1.

(por. tw. Walda 11.1.10).


2:::PkSk+lblS-l = sk 2::: P(X = k + I)P(Y = l) =
1=0 1=0 Przytoczylismy tylko kilka najwazniejszych wlasnosci funkcji tworzacej i po-
00
dalismy przyklady zastosowan do obliczen w zadaniach, ale funkcje two-
= sk 2::: P(X = k + l, y = l) = skp(X - y = k). rzaee maja takze rózne zastosowania teoretyezne, chociazby do badania
1=0
fluktuacji losowych przy rzutach moneta i laJlcuohów Markowa. Na zakon-
czenie wspomnimy o mozliwych sposobach uogólnienia. pojecia. funkcji two-
Dla k < O rachunki sa podobne .•
rzacej. Punktem wyjscia jest wzór

Przyklad 4. Obliczymy prawdopodobienstwo, ze liczba calkowita wyloso- 9x(s) = [sx


wana ze zbioru liczb od 000000 do 999999 bedzie miala sume pierwszych
trzech cyfr równa sumie ostatnich trzech cyfr. Liczbe s E (O, l] mozna przedstawic w postaci s = e-). gdzie A E [O, (0),
Jesli X = Xl + X2 + X3 bedzie suma pierwszych trzech cyfr, a Y = Y1 + a. wiec
+ Y2 + Y3 bedzie suma ostatnich trzech cyfi.- to
[sX = Ee-).x
To wyrazenie ma sens dla znacznie szerszej l):lasy zmiennych losowych: jest
9X(S)gy(1/s) = 10-6s-27(1- s10)6(1 - S)-6. zawsze skoIlczone dla zmiennych losowych o wartosciach nieujemnych (bo
wtedy e->'x ~ l) i na.zywamy je transforma.ta Laplace'a. Gdy -A zastapimy
Zatem wspólczynnik przy SO jest równy: przez it, t E R, otrzymamy wyrazenie EeitX, które ma sens zawsze - a wiec
dochodzimy do pojecia funkcji charakterystycznej.

[G~)- G) G~) + G) C:) ] 10-6 ~ 0,05525. •

Twierdzenie l daje sie uogólnic na sume losowej liczby skla.dników, co ma


zastosowanie w teorii procesów galazkowych.
Analogiczne
twierdzenie ma
Twierdzenie 5. Jesli (Xn) jest ciagiem niezaleznych zmiennych losowych
miejsce dla funkcji
charakterystycz- o tej samej funkcji tworzacej g, a N jest niezalezna od tego ciagu zmienna
nych. loso'Wa o .funkcji tworzacej f, to losowa suma Sil' = Xl + ... + XN ma
funkcje t'Worzaca h = f o 9.
§ C.l.. Twierdzenie o przedluzaniu miary 337

to P przedluza, s'ie jednaznacZ'n'ie do pmwdopodobienstwa na a-ciele gene-


mwanym przez A.

D o wód. Zaczniemy od dowodu równowaznosci (i) {:} (ii).


(i) => (ii). Jesli (An) jest rodzina zstepujaca o pustym przeciecili, to (A~) ..Iii
Dodatek C jest wstepujaca i ze wzorów de Morgana wynika, ze Un A~ = 0, zatem .

1 = limP(A~)
'fi,
= 1 -limP(An).
n

Teoria miary i calki, (-ii) => (i). Jesli (AJ jest rodzina wstepujaca, to zbiory Bn = A \An tworza
rodzine zstepujaca, nn Bn = 0, zatem
przestrzenie LP 0= limP(Bn) = P(A) -limP(An).
n n

Dowód wlasciwego twierdzenia przeprowadzimy w trzech krokach:


W tym dodatku wylozymy podstawy teorii miary i calki ograniczone do :r.Na wszystkich podzbiorach D zdefiniujemy funkcje P*, która jest nie-
przestrzeni probabilistycznych. Ale nawet w teorii prawdopodobienstwa nie ujemna, monotoniczna, subaddytywna i P* (D) = 1 (jest to tak zwana miara
da sie uniknac rozwazania ogólniejszych miar. Odpowiednikiem przestrzeni zewnetrzna) .
probabilistycznej w ogólnej teorii miary jest przestTze'n mie'l"zalna, czyli
II. Zdefiniujemy klase zbiorów mierzalnych w sensie Caratheodory'ego i po-
trójk.:1. (X, M, J.l), gdzie M jest a-cialem podzbiorów zbioru X, a p, jest
kazemy, jest ona a-cialem, a funkcja P* obcieta do niej jest przeliczalnie
przeliczalnie addytywna funkcja okreslona na M, o wartosciach w [0,00].
Nazywamy ja miara· Elementy M nazywamy zbiorami mierzalnymi. addytywna. ,
III. Wykazemy, ze P* jest (jedynym) rozszerze,niem P na klase zbiorów
Przykladami miar sa m'iam liczaca, okreslona na wszysl;kich podzbiorach
mierzalnych.
N wzorem J.l(A) = #A, oraz miara Lebesgue 'a, która jest uogólnieniem
pojecia objetosci (dlugosci, pola powierzchni). 1. Dla A C D definiujemy miare zewnetrzna P* wzorem
Obie te miary w pewnym sensie niewiele sie róznia od miar skonczonych, sa
mianowicie a-skonczone. Oznacza to, ze zbiór X daje siQ po:edsl;(.l.wic w po- P*(A) = inf I>'(An),
n
staci przeliczalnej sumy zbiorów o mierze skonczonej. Wiekszosc twierdzen
o miarach skonczonych przenosi sie za pomoca oczywistych rozUlnowa.1'l na gdllie kres dolny bierzemy po wszystkich ciagac,h zbiorów fl-t,A2"" E A
miary a-skonczone, stanowiacych pokrycie zbioru A, tj. takich, ze A. C U.n An.
Od tej chwili jednak ograniczamy sie do miar probabilistycznych. Jest oczywiste, ze p' (0) = O, i ze mia.ra zewnetrzna jest nieujemna i mo-
notoniczna. Jest ona takze snbaelclytywna.:
§ C.l. Twierdzenie o przedluzaniu miary
P*(UAn) ~ L:r(An).
n n
Twierdzenie l (O przedluzaniu miary). Jesli P jest sko'nczenie addy-
i
tYl1Jni/: nie1!jemna funkcja na pewnym ciele A podzbior-ów D, PTZY czym Istotnie, na mocy definicji P* ella dowolnego ustalonego > ° istnieja zbiory E:

i
P(D) = 1 spelniony jest jeden z r-ównowaznych wa7"(!7I.ków: Bnk E A takie, ze lin C Uk Bnk, I:k P(Bnd < P*(An)+E:/2n Wobec tego
u.n An C Un,k Bnk i
(i) jesli (An) jest wstep1!jaCa T"Odzina z/rioTó"Wnalezi/:cych do A i jesl'i
U:l Ai = A E A, to limn->oo P(An) = P(A),
r(UAn) ~ L:P(Bnk) < L:P*(An) +E:,
(ii) Jes~ (An) jest zstepujaca rodzina zb'ioró'W nalezacych do A i jesh n nIk n

n:l Ai = 0, to liIDn->oo P(An) = 0, co wobec dowolnosci c; daje subaddytywnosc.

336
:1:H~ Dodatek C. Teoria miary i calki, przestrzenie LP § C.l. Twierdzenie o przedlm"u:{iu miary 339

II. Zbiór A nazywamy P*-mierzalnym gdy dla. kazdego E C O spelniony Dla n = 1 równosc (3) jest oczywista, dalej dowodzimy indukcyjnie. Zakla-
jest warunek Caratheodory'ego: damy, ze (3) ma miejsce dla n i sprawdzamy ja dla n + 1.
P*(A n E) + P*(A' n E) = P*(E). P*(Cn+1 n E) = P*(Cn n Cn+1 n E) + P*(C;, n Cn+1 n E) =
Z subaddytywnosci wynika, ze ten warunek jest równowazny warunkowi = P*(Cl1 n E) + P*(An+1 n E) =
n . \
P*(A n E) + P*(A' n E) ~ P*(E). (1) = 2:
k=l
P*(Ak n E) + P*(A"t1 n E).
Klase zbiorów P*-mierzalnych oznaczymy przez M. Najpierw pokazemy,
ze M jest cialem i P* jest na nim skonczenie addytywna. Jasne, ze O E M Stad
i jesli A E M to A' E M. Wezmy A, B E M. Wówczas ella dowolnego E:
P*(E) = P*(E n Cn) + P*(E n c;,) =
n
P*(E) = P*(13 n E) + P*(B' n E) = (2)
= P*(A n B n E) + P*(A' n B n E) +
= 2: P*(Ak n E) + P*(.~ n C~) ~
k=] ,

+P*(AnB'nE)+P*(A'nB'nE) ~ n
.' (

~ P* (A f') 13 n E) + ~ 2:p*(AknE)+p*(EnA').
+ P*((A' n B n E) u (A n B' n E) u (A' n B' n E)) = k=:l, .I' l l

= P*((A\n B) n E) + P*((A n B)' n E), Biorac n -> 00 mamy


• lf'U
00
czyli zachodzi (1) dr~ A n B, zatem A nB E M i M jest cialem. Gdy
A,B E M, AnB = ';10., to P*(E) ~ 2: P*(Ak
1;=1
n E) + P*(E n A') ~ P*(E n A) + P*(E n A'),

P*(A U B) = P*(A n (A U B)) + P*(A' n (A U B)) = P"(A) + P*(B), czyli udowodnilismy (1).
skad przez indukcje otrzymujemy skonczona addytywnosc. III. Pokazemy, ze A C M i P* = P na A. Zatem P* jest rozszerzeniem P
P*jest przeliczalni e addytywna na elementach M, bo gdy zbiory A" E M, na er(A). Jednoznacznosc rozszerzenia wynika z lematu o 1[- i A,-ukladach.
n = 1,2, ... i sa parami rozlaczne, to ze skonczonej a.ddytywnosci rnono- i Wezmy A E A i dowolny zbiór E C n. Dla dowolnego ustalonego 6 > O
tonicznosci P* otrzymujemy wezmy zbiory 131;E A takie, ze E C Uk Bk' :S~=1 P(Bk) ~ P*(E) + 6.
k k 00 Wtedy EnA C Uk(13knA) i EnA' C Uk(BknA') oraz BknA, BknA' E A,
i
wiec z definicji P* z przeliczalnej addytywnosci ,p na A (co wynika z (i)
2:P*(An)
11.=1 = U
p*( n=l An) ~ p*( U
n=l An)' lub ('ii), patrz dowód tw. 1.1.7 o ciaglosci) marny,

zatem :S~=1 P*(A,;)


addytywnosci P*.
~ P*(U~=l An). Nierównosc przeciwna wynika z sub- P*(E n A) + P*(E n A') ~ 2: P(Bk
k
n A) + 2: P(Bk
/,
n A') =
Pozostaje do wykazania, ze M jest er-cialem. VI! tym celu udowodnimy, ze
= 2:P(Bk) ~ P*(E) + E,
jesli zbiory An E M, n = 1,2, ... sa parami rozlaczne, to U~=l An E M k

(gdyby nie byly rozlaczne, stosujemy standardowa procedure: jesli Bn E M,


n = 1,2, ... , to zbiory An = BnnB~_ln ... nB~ E M, sa parami rozlaczne czyli zachodzi (1) co oznacza, ze A E M, zatem A C M.
i U:'=l Bn = U::1 An E M). Wezmy A E A. Z -definicji p;' marny P* (A) ~ .E'(A). Gdy A C Un An'
Niech A = U~=l An. Musimy pokazac, ze dla zbioru A zachodzi (1). Niech An E A to korzystajac z subi:!Jdytywnosci i monotonicznosci P na A:
Cn = U~=l Ak, Mamy
n P(A) ~ Ln
P(An n A) ~ 2:
n
P(An),

P*(Cn n E) = 2: P*(Ak
k=1
n E). (3)
czyli P*(A) ~ P(A), co daje P* =P na A. •
341
340 Dodatek C. Teoria miary i calki, przestrzenie LP § C.2. Calka wzgledem miary probabilistycznej

§ C.~. Calka wzgledem miary probabilistycznej Twierdzenie 3. (a) Jesli O ,::; X ~ Y, to In X dP ,::; In y dP.
(b) Jesli X ): O, c jest stala to J~cX dP = c In XdP.
Definicja calki. Niech (D, F, P) bedzie przestrzenia probabilistyczna· Be-
dziemy zakladac, ze wszystkie funkcje sa F-mierzalne, czyli sa zmiennymi (c) Jdli x): o, A, B E F, A C B to 1.4 XdP'::; IE XdP,
losowymi.
(d) Jesli X ): O, A E F, 1.4 XdP = O, to X = O p.n. na A.

Definicja 1. Gdy X jest funkcja p'rosta, czyli p'rzyjml(jaca skonczenie wiele


Dowód. (a), (b) i (c) otrzymujemy bezposrednio z definicji. A \.
wartosci, to mozna ja zapisac w postaci
n
(d) Niech An = {w E A:X(w)): l/n},n = 1,2, .... Wtedy z (a) mamy
X = LXk1Fk' (1) I '.,.
k=l ~P(An)
n ,::;,j'.4" XdP,::; JA XdP
. =- O, .

gdzie Xl, ... , Xn sa róznymi waTtosciami przyjmowanymi przez X, za,ii Fk zatem P(An) = O. Poniewaz {w E A: X(w) > O} = U~=l An, to p(Af= O.•
{w: X (w) = xd E:F. Wtedy calke defini'ujemy wzorem:
Lemat 4. Jesli X ): O, to istnieje taki ciag funkcj'i p'rostych (Zn), ze

Jn XdP = tXkP(Fk)' (2) Z,.(w) l X(w) gdy n ---> 00.


k=l
D o wód. Definiujemy
Gdy X: D ---> [0,00], to przyjmujemy
n2" k 1
(3)
Zn L tjn
= "~-:::'-l[k-.1.
k=l ~
-;yn::

--
k )(X)
1'5'lT + nl[n l oo)(X),
r XdP
.fn = sup .fnr ZdP,
Oczywiscie Z jest mierzalna i jest funkcja prosta. Dla w E D, gdy n> X(w),
gdzie s'up'remum jest ,brane po wszystkich f1mkcjach pTostych Z ,::;X. to O ,::; Z.,,(w) - X(w) ,::; o,. Zatem gdy X jest ograniczona, to ciag Zn
zmierza do X jednostajnie. -
Wyrazenie In XdP nazywamy calka funkcji X wzgledem P. Gdy X jest
funkcja prosta, to supremum prawej strony (3) jest osiagane przez X, wiec Udowodnimy teraz twierdzenie o monotonicznym przechodzeniu do granicy
(3) daje te sama definicje calki, co (2). pod znakiem calki, zwane tez twierdzeniem o zbieznosci monotonicznej.
Jedno z dwóch
Nalezy zwrócic uwage, ze In X dP E [0,00]. Poniewaz dopuszczamy nie- Twierdzenie 5 (Lebesgue'a-Beppo Leviego). Jdli (Xn) jest niema- najczesciej
skonczone wartosci calek, przyjmiemy tez umowe, ze 00 . O = O . 00 = O.
Calke z X po zbiorze A definiujemy wzorem:
lejacym c'iag'iem n'ie'uje'm.nych funkc,ji mieTzalnych, czyli O'::; Xn(w) X(w) l uzywanych
twierdzen teorii
gdy n ---> 00, to cal ki.

lim /' XndP


n-co.lo = lo./' xdp.
/' XdP
,A = .fnr Xl.4.dP
D O w ó d. Z twierdzenia 3(a) wynika, ze ciag calek J~X" jest niemalejacy
Definicja 2. Calka z dowolnej mieTzalnej funkcji X nazywamy wielkos(;
i ograniczony z góry przez .J~lX dP. Zatem wystarczy udowodnic, ze

r XdP
.fn = .fnr X+dP r X-dP,
- .fn
1 (2 XdP,::; n-oc
lim 1 [2 Xn~P.
o ile choc jedna z calek In x+ dP, In x- dP jest skonczona. Wezmy funkcje prosta Z taka, ze O ,::; Z ,::; X i niech K < 00 bedzie
Mówimy, ze X jest calkowalna, gdy In IXldP < 00. stala ograniczajaca Z (taka stala istnieje, bo Z jest funkcja prosta)· Dla
dowolnego n i E > O mamy wtedy: '

Wlasnosci calki funkcji nieujemnej. Zaczniemy od najprostszych . Z- X." ,::; Kl{z;;,xn+e} + E,

•••
:\<1" Dodnl.ek C. Teoria miary i calki, przestrzenie LP § C.2. Calka wzgledem miary probabilistycznej 343

Hkad. Poniewaz na zbiorze Fk n Gj suma X +y przyjmuje tylko jedna wartosc,


to
r ZdP,;;; KP(Z
ln ~ Xn + e) + e + ./n
r X"dP'
Biorac n -> 00, ze zbieznosci p.n. Xn do X i z tego, ze Z ,;;;X otrzymujemy r (X + Y)dP = (Xk+ V.j)P(F'k n Gj) :=
lFknOj
= :ckP(Fk n Gj) + VjP(Fk n Gj) =
lnr ZdP,;;; e + hm r X"dP,
n~oo./n

a poniewaz e > O bylo dowolne, mamy


.tkno; XdP + ,l~,nG;YdP,
a na mocy lematu 6 powyzsza rÓwnosc zachodzj po podstawieniu n w miej-

.In.r Zr1P,;;; n-co.ln


lim r XndP.
sce Fk n Gi;
zatem (4) zachodzi ella funkcji prostych .
Dla. dowolnych X, Y ~ O istnieja na mocy lematu 4 ciagi funkcji prostych
I ostatecznie z (3) w defll1icji 1: ~~,V;, takie, ze O';;; Zn(W) T X(w) O ,;;; Vn(w) T Y(w). Wtedy i ..

O ~ Z" + v;., T X + y.
. lnr XdP lim r X"dP .•
~ n->oo./n
Korzysta.jac z twierdzenia o zbieznosci monotonic;z:nej mozemy teraz przejsc
Do dowodu nastepnegoj .' twierdzenia potrzebny bedzie z poz,oru dziwny do gra.nicy w równosci (4) prawdziwej dla Zn i Vn, otrzymujac w efekcie (4)
dla dowolnych X, Y ~ O. 111

Lemat 6, Je§li X ~"O jest funkcja prosta, to


8, Jesli Xn: n -> [0,00] oraz X :='L::"=l

i
Twierdzenie XnJ to
I'" 'l'

:iest skonczenie addytywna


v(A)

funkcja ·zbioru.
iM X dP

Iw :X,r1P = n=JJnl
~r
i
f XndP "

D o wód. Niech X = I:7=1 Xi IBi' A = Al U ... U A.'II gdzie Ai. sa rozlaczne. D o wód. Niech Ym = Xl + ... + Xrn. Z zasady indukcji zastosowanej do
Wtedy (4) mamy

kk"

v(A) = I: XiP(Bi n A) = I: :Ei'LP(Bi n Aj) =


;.=1 i=l .j=l
l~~=fl~~
n n=l n
(5)

n k n
Poniewaz Ym T X to korzystajac z twierdzenia o zbieznosci monotonicznej
= I:I:xiP(BinAj) = I://(Aj).- przechodzimy w (5) z rn do granicy j otrzymujemy teze. _
j=li=l j=l

Twierdzenie 7, Jesli X, Y ~ O, to
Twierdzenie 9 (Lemat Fatou), Jesli X" : n -l [0,00], to

(4) llimn-oo
.In inf X"dP ~ lim inf lnr XndP.
71.-00
r (X
./n + Y)dP = .lo./n
r XdP + r YdP.

Dowód, Niech Yn = infk?nXk' Wtedy Yn ~ Xn i Yn lliminfn->ooXn.


D 0'11' Ó d. Gdy X = Lk xk1Fk j y = Lj Yj IOj sa funkcjami prostymi, to Zatem z twierdzenia o zbieznosci monotonicznej ;
Nie ma gwarancji,
ze liczby Xk + Yj
beda rózne. Lemat X +y == I:(Xk + Yj)IFknGj'
6 umozliwia k,j lim inf ln
71.-+00 r XndP ~ lim inf .ln YndP
n __ o::> l = lim
71.---700 lnr YndP = lnr lim jnf X"dP'
n-~oo •
ominiecie tej
trudnosci.
344 Dodatek C. Teoria miary i calki, przestrzenie LP § C.:1. Miara produktowa i twierdzenie Fubiniego 345

Wlasnosci calki dla dowolnej funkcji X. Udowodnimy drugie z najcze- Twierdzenie 11 (Lebesgue'a o zbieznosci zmajoryzowanej). Jezeli
sciej uzywanych twierdzen z teorii calki, umozliwiajace przejscia graniczne dla pewnej f1Lnkcj-i calkowalnej Y zachodza nierównosci IXnl ( y, n E N,
pod znakiem calki··- twierdzenie Lebesgue'a o zbieznosci zmajoryzowanej to wszystkie funkcje Xn sa calkowalne, a jesli ponadto Xn ~ X, to X jest
(zdominowanej, ograniczonej). calkowalna i

Twierdzenie 10. Jesli funkcje X iY sa calkowalne, to: (6)


hm
n-~co lnr IXn -XldP:::: O
(a) X +y jest calkowalna i In(X + Y)dP = In XciP + In YelP. oraz
(bl Jesli c jest stala, to In cX elP = cIn X dP.
(c) .le.5li X ( y) to In X elP ( J~ YelP. ,,-~oo.ln
lim l,' XndP 1
= n XdP.
'
(7)

(d) IJ~XdPi ( In IXldP.


D o wód. X jest F-mierzalna jako granica funkcji F-mierzalnych, IX I ( Y,
(e) Jesli An E F sa parami rozlaczne i Un A" = D, to J~,XdP wiec X jest calkowalna. Dalej, IXn - XI ( 2Y, zatem z lematu Fatou
= Ln .f.4n XciP.
zastosowanego do 2Y - IX." - XI otrzymujemy
(f) Jesli IA XciP =O dla kazdego A E F, to X =O p.n. na O.

D O wód. (a) Dla X, Y ;;: O teza jest trescia twierdzenia 7. W ogólnym .lor 2YciP (liminf
n-rOO lnr (2Y -IX" - Xl)ciP =
przypadku korzystajac z twierdzenia 3(a) otrzymujemy calkowalnosc sumy
X+Y: r 2Y dP
= }n + liminf(
n-roo ,r IXn - XldP)
- lo. =

lnr IX + Ylci.P ( lor IXldP + lnr IYldP < 00. = r


.Jn n-co
2YelP - lim f IXn - X!elP.
sup lo.
Ponadto
Wobec tego lirnsup,,~oo In IXn -XldP ( o, có daje (6): granica górna ciagu
(X + Y)+ - (X + Y)- :::: X +y = X+ - X- + y+ - Y-, liczb nieujemnych, który nie jest zbiezny do zera, jest dodatnia. Wreszcie
a wiec (7) otrzymujemy z (6) i z twierdzenia 10(el) zastosowanego do Xn - X. III
(X + Y)+ + X- + Y- = (X + Y)- + X+ + Y+, Na zakonczenie uwaga o zapisywaniu calek: wszystkie podane nizej napisy
zatem z twierdzenia 7
oznaczaja te sarna calke·

lnl(X+Y)+dP+ lof X-ciP + lnf Y-dP=


,l
ln XdP = lrl.
r X(w)dP(w) l X(w)P(dw).
= lo.
= lor (X + Y)--dP + lnl X+dP + lnr Y+ciP
Przenoszac odpowiednie skladniki na strone przeciwna otrzymnjerny teze· § C.3. Miara produktowa i twierdzenie Fubiniego
(b) Korzystamy z twierdzenia 3(b) i z tego, ze (-a)+:::: a-o
Dane sa dwie przestrzenie probabilistyczne: (nI, FI, Pl) i (02, :h, P2)· Na
(c) Korzystamy z twierdzenia 3(0,) i z tego, ze X+ ( Y+ i X- ;;: Y-. produkcie D :::: nI x lt2 z u-cialem M, bedacym najmniejszym u-cialem
(d) X ( lXI, wiec teza oczywista z (c). zawierajacym prostokaty:ulierzalne, czyli zbiory postaci A x E, gdzie A E
(e) Gdy X ;;: O, to biorac Xn :::: XIAn otrzymujemy teze tw. 7 i stosujemy E F1, E E F2 ~deiiniujemy miare probabilistyczna P taka, ze
ja do X+ X-o i
U) Gdy A = {w: X(w) ;;: O}, to JA X+dP:::: JA XciP = O z zalozenia, wiec
P(A x E) = P1(A)P2(E).
z twierdzenia 3d) mamy x+ = O p.n. Podobnie dowodzimy, ze X- ::::O
p.n.1II
u-cialo M czesto oznaczamy symbolem F1 0]:2 i nazywamy u-cialem pro-
duktowym.
;1111 I )udlll,lIk C. 'J'()()l'in miary i calki, przestrzenie LP § C.3. Miara produktowa i twierdzenie Fubiniego 347
; 'III~
" II
111'r

i 'Iif::
I)la 7,bioni G E M zdefiniujemy jego przekroje: wl-przekrój (iv) Dowodzimy analogicznie jak ('iii).
, I"
GW1 =
df
{W2:(Wl,W2) E G},
(v) Gdy X = lAxB: g<.l7.ie A E FI: E E F2 to X(Wl:W2) = lA(wdlB(W2) i iW

;
!:[
I"
j'r

oraz w2-przekrój l 'Ii:'


,k2 XWJ (w2)P2(d~~) = lA(wIJ .102 lB(w~)P2(dW2)'
9,~2 gJ {Wl: (Wl,W2) E G}. II,

Zaczniemy od lematu o mierzalnosci: zatem calka J~1.,XW1 (w2)P:iC~wi),jest FI-mierzalna. Stad, gdy X jest funk-
cja prosta, to calka jest FI-mierzalna: a z twierdzenia o zbieznosci mono-
tonicznej i z tego, ze kazda .funkcja nieujemna jest granica funkcji prostych
Lemat 1. Jesli zbiór' G nalezy do M, to
wynika teza. _ l'
(i) dla kazdego Wl E nI .'lego wl-przekró,j CW] .jest F2-m·ie'/'zalny.
Twierdzenie 2 (O istnieniu miary produktowej). Pnnkcja P, zdefi-
(ii) dla kazdego W2 E n2 .'lego W2 -przekrój CW2jest FI -m.ieTzalny. niowana rw (l-ciele M wzor'em .

Niech jll,nkc.ja X: n -; R bedzie M-mie·/'zalna. Wtedy (1)


P(C) g,( l
Jn, [;1',
. n2 lCW1 (w2)P2(dw2)].P1(dwIl
(iii) dla kazdego Wl E nI przekTój XW1 zadany WZOTern
.'lest; jedyna· rniarq pTObabilistycznr} speln'iajaca 'warunek: dla A E FI, E E F2
XW,(W2) = X(Wl,W2)
P(A x E) = P1(A)P2(E). (2)
jest F2-mierzalny.
M arn.y I,a/;ze
(iv) dla kazdego W2 E n2 pTzekrój XW2 zadany wzorem.
(3)
XW2(Wl) = X(Wl,W2) P(G) = Jn2
r [ Jn,
r lCW2 (wIlP1(dwIl] P2(dw2).

jest FI -mierzalny.
Mia.n~ P nazywamy produktem miar Pl i P2. Czesto oznaczamy ja symbo-
( v) jesli ponadto X ~ O) to calka lem Pl ® P2·

Dowód. Z lematu 1 wynika, ze calka wewnetrzna we wzorze (1) jest


F] -mier7:alna, wiec P jest dobr7:e okreslona na (l-ciele M. Oczywiscie P ~ O
, Jn2
r XW] (W2)P2(dw2),
izachodzi (2). Zatem P(OI x r22) = 1. Gdy G(n) E M i sa parami rozlaczne,
i odpowiednio to

r
Jn, XW2(Wl)P1(dwl)
P(U n G(n») l I(U n c<n»Wl
= Jn1r [ JOz (w2)P2(dW2)] Pl (dWl) =
jest FI -mierzalna (odpowiednio F2 -mierzalna).

Dowód. (i) Niech Q bedzie klasa zbiorów z M dla których wl-przekrój


= JOl
r L[n r
J02 lC~,,)(w2)P2(dw2)]Pl(dwIl
l =
jest F2-mierzalny. Jest oczywiste, ze prostokaty
niewaz (C') Wl = (CWl' )' i dla G(n) E M mamy
mierzalne naleza clo Q. Po-
U 11. G(n)
Wl = (U tl G(n») WIl to
= L1
n 0., [llC~~)(W2)P2(dW2)]Pl(dWl)
no = LP(G(n)),
n
Q jest eT-cialem. Zatem Q = M.
wiec P jest miara probabilistyczna na (l-ciele M.
(ii) Dowodzimy analogicznie jak (i).
Jedynosc wynika z tego, ze prostokaty mierzalne tworza 1l'-uklad i z uwagi
(iii) Dla D E B(R) mamy, na mocy (i):
5.3.9. Gdy zdefiniujemy
(Xw,)-l(D) = {W2:'X(Wl:W2) E D} = {W2: (Wl,W2) E X-1(D)} =
= X-l(D)Wl E F2. Q(G) gJ t/2 [.10, lCW2 (Wl)P1(cU?/] P2(dw2),

rN~";; I

II"
348 Dodatek C. Teoria miary i calki, przestrzenie LP § C.3. Miara produktowa i twierdzenie rubiniego 349

to analogicznie sprawdzamy, ze jest to miara probabilistyczna na ()'-ciele a z definicji calki


M, spelniajaca waruf\ek Q(A x B) = Pl(A)P2(B), A E Fl, B E F2·
Korzystajac jeszcze raz z tego, ze prostokaty mierzalne tworza 7r-uklad i z
uwagi 5.3.9 otrzymujemy P = Q, czyli (3) .•
Pl ® P2(C) t
= J0.1xrh lC(wl,wz)pl @,f2(dwl,dw2)'
.

Zatem pierwsza czesc (4) zachodzi clla C E Fl ® F2, czy li zachodzi dla
Twierdzenie 3 (Fubiniego). Niech X bedzie funkcja F10F2-mierza.lna· funkcji prostych, a z twierdzenia o zbieznosci mOll0tonicznej otrzymujemy
ja dla X nieujemnych. Druga czesc (4) otrzymujemy w taki sam sposób.
(a) Jesli X ;;::O, to (b) Stosujemy punkt (a) do lXI·
(c) Z zalozenia

1 OJ Xn:2; X(Wl,W2) Pl ® P2(dwl, dW2) =


(4)
/'
Jo.1X\h X+(Wl,W2) Pl ®P2(dwl,dw2) < 00,

1[t
= n, lo.z X(Wl,W2)P2(dw2)]
. Pl (dWl) =
a l,alcze

/' X-(Wl,W2)P10P2(dwl,dw2) <00.


1 [1
= o.z n, X(Wl,W2)Pl(dwl)]P2(dw2).
Z punktu (0.)
Jo.,xo.z

(b) Jesli
.l/'n, [ .lo."
/' X+(Wl,W2)P2(dw2)] Pl (dWl) =
L, [Lz IX (Wl, W2) IP2(dW2)] Pl (dWl) < 00
= iO,!
/' X03 X+(Wl,W2)Pl ®P2(dwl,dw2) < 00.
lub
Zatem z wlasnosci calki Jo.2 X+(Wl,W2)P2(dw2).< 00 Pl -p.n. Analogicz-
Lo [L, IX(Wl,W2)IH(dwl)]P2(clw2) < 00, nie otrzymujemy taka wlasnosc dla X-, i dlatego
to X jest calkowalna wzgledem Pl ® P2.
PI({Wl: /'
JIl2 IX(wl,w2)IP2(dw2) <. oo}) = 1.
(c) Jesl·i X jest calko'walna 'wzgledem Pl ® P21 czyl-i.
Wobec I;ego poza zbiorem N zerowej miary Pl zachodzi równosc:

j'o.,xo.2 IX(Wl,W2)1 Pl ® P2(dwI,dw2) < 00, .1'2 X(Wl,W2)P2(dW2) = /~2X+(Wl1W2)P2(dw2) - .~z X-(Wl,W2)P2(dw2)'

to Przyjmujac, ze dla WI E N calki sa równe zeru rnamy

Pl({'~1:1IX(Wl,W2)IP2(dW2)
n2 < oo}) = l, (5)
j.n, [.l/' X ( Wl, W2) P2 ( dW2 ) ] Pl (dWl)
0.2 =

P2({W2:1IX(WI,W2)IPl(dwl)
0.1 < oo}) = l,
= Jrl1 l
/' [ .J~i2 X+(Wl,W2)P2(dw2)]PI(dwl) +

oraz zachodzi (4). - ,~~, [,( X-(WI,W2)P2(~W2)]Pl(dWl) =

Dowód. Z lematu l wynika, ze calki we wzorach (4) i (5) sa mierzalne. = j'nlXn2 X+(Wl,W2) Pl ® P2.(dWI,dw2) +
(a) Z definicji miary produktowej
- Jn,xnz
f X-(Wl,W2)Pl o P2(dwl,dW2)=
Pl ®P2(C) = n, 1 [11C(w"Wz)P2(dW2)]Pl(dWl),
0.2 = Jn,
/' xn2 X(WI, W2) Pl ® P2(dwl, dW2),
:350 Dodatek C. Teoria miary i calki, przestrzenie LP § C.4. Twierdzenie Kolmogorowa o rozkladach zgodnych :351

Analogicznie dowodzi sie, ze Zdefiniujmy P na cylindrach:

P(C(A)) ~ PL(A).
r X0.2X(Wl,W2)PI0P2(dwl,dw2)
Jo., = '/0.,
r [ ./0.2
r X(WI,W2)P2(dw2)]PI(dwl),
I. Najpierw wykazemy, ze definicja jest poprawna, czyli ze P(C(A)) nie
co kOl1czy dowód (4) .•
zalezy od sposobu przedstawienia. cylindra. Istotnie, jesli C(AL) = C(AL,),
Uogólnienie powyzszych rozwazan na przypadek produktu n miar jest oczy- gd~ie AL E B(RL), AL, E B,(11.L,), to biorac L'i tak.ie, ze L C L2, LI C L2
wiste. Odnotujmy jeszcze, ze prawd~iwe jest twierdzenie o istnieniu przeli- znajdujemy AL2 E B(RL2) tf,lkie, ze AL x RLz\L = ALz = AL, X RL2\Ll.

czalnego produktu mitr probabilistycznych, z którego jednak w tej ksiazce Wtedy korzystajac z war~lil{q5w zgodnosci ll1am~'
nie korzystamy.
PL" (AL,) =-; PLz(AL X RL2\L) = h(AL)

§ C.4. Twierdzenie Kolmogorowa o rozkladach zgod- i analogicznie


nych PLz(ALz) = PL, (AL,),'
zatem PL, (AL,) = P.L(AJ,).
Niech T bedzie zbiorem wskazników. Rozpatrzmy klase l:- skonczonych pod-
zbiorów T z naturalnym czesciowym porzadkiem zadanym przez relacje za- II. P jest skonczenie addytywna. Wezmy dwa rozlaczne zbiory cylindryczne
wierania. Zalózmy, ze dla kazdego L E l:- dana jest miara probabilistyc:;ma A] x R T\Ll, A2 X R 'I'\Lz. Wtedy biorac L = LI I,J L2 mamy
PL na (RL,B(RL). '
Mówimy, ze rodzina miar {PL} LEC jest zgodna, gdy dla dowolnych LI, L2 E P(A1 X RT\Ll U A2 X RT\LZ) =
E 1:-,LI C L2 i A E B(RL,) zachodzi = P((A] X U A2 X RL\L2) X RT\L)
RL\L, =
PL, (A) = h2(A x RLz\L1).
= P(AI X RL\L, U A2 X RL\L2) = PL(AI X RL\L,) + h(A2 x RL\L2) =
= P(A1 X RT\Ll) + P(A2 x RT\L2).
Zgodna rodzine miar tworza na przyklad rozklady brzegowe wektora loso-
wego o wartosciach w R". Do otrzymania niezgodnej rodziny miar wyst.ar-
III. P rozszerza sie jednoznacznie na B(117). Wykazemy, ze zachodzi wa-
czy T = {I, 2} - pozost.awiamy to jako proste cwiczenie.
runek (ii) z twierdzenia. C.1.1 (o przedluzaniu prawdopodobienstwa).
Podzbiór RT, który mozna przedstawic w postaci A x RT\L, gdzie L E 1:-,
Niech Bn bech:ie zstepuj(~cym ciagiem cylindrów. Pokazemy, ze jesli dla
A E B(RL) nazywamy zbiorem cylindrycznym (o podst.awie A). Niech
pewnego o > O zachodzi P(B,,) > o, n = 1,2, ... , to zbiór B = n~=1Bn
B(RT) oznacza u-cialo podzbiorów RT generowane przez zbiory cylin-
jest niepusty. To, ze B" jest zstepujacym ciagiem cylindrów oznacza, ze
dryczne.
przedstawienie BT/. = An x RT\Ln spelnia warunki Ln C Ln+1 i An+l n
nR L" C A", n = 1,2, .... Bez strat.y ogólnosci mozna zakladac, ze Ln =
Twierdzenie 1 (Kolmogorowa o zgodnosci). Jesli mdzina miar pro-
= {tl, ... ,tn}.
babilistycznych {Pd LEC jest zgodna, to na (R T, B(RT)) istnie.je dokladnie
jedna miara probabilistyczna P ta,ka, ze dla kazdego L E L, A E B(RL): Dla kazdego Al1 E B(RLu) istnieje zbiór zwarty K" taki, ze Kn C An,
PL" (An - K,,) < 0/2n (wynika to z regularnosci roz!dadów prawdopodo-
, P(A X RT\L) = h(A). bienstwa - patrz zad. 5.2.1). Dlat.ego l
D o w.ó d. Jak latwo sprawdzic, zbiory cylindryczne tworza cialo. Zdefiniu-
P(B" \ C(K,,)) = PLn(An \ Kn),< 0/2n.
jemy miare P na zbiorach cylindrycznych (cylindrach), a potem pokazemy, Rozpat.rzmy cylinder Dll = n~=1C(K,,) C Bn. Poniewaz
ze mozna ja rozszerzyc na cale B(RT). Dla A E B(R.L) niech C(A) oznacza
cylinder o podst.awie A, czyli zbiór "
B" \ D" C U (Bk \ C(Kn)),
C(A.) = A x RT\L. /;=1
353
352 Dodatek C. Teoria nilary i calki, przestrzenie LI' § C.5. Przestrzenie LI'

to

P(Bn \ Dn) :;;; L


k=l
P(Bk \ C(Kn)) :;;;5,
ilXllp ~ ( .lo
r IX1pdP. ) l/p '

a wiec P(Dn) ~ P(Bn) - 5> O. Zatem Dn fe- 0. zas przestrzen zmiennych losowych, których p-ta norma jest skonczona,
bedziemy oznaczac przez ]] (!1, F, P).
Dla kazdego n wezmy element x(n) E Dn.. Gdy n ~ k, to x(n) E Dk (bo
Mozna udowodnic, ze gdy p ---+ oc, to liXlip -, ess sup lXI, dlatego definiuje ess supx =
ciag Dn jest zstepujacy). Dlatego (x~~), ... , x~~») E Kk dla n ~ k. Dla = inf{ t: Fx (t) =
sie l}.
kazdegok ciag (x~~), x~~), ... ) jest ciagiem elementów z Kk. Stosujac metode df
przekatniowa (korzystamy ze zwartosci zbiorów Kk) mozna znalezc podciag liXlico = ess sup lXI,
ni taki, ze granica limi xtil istnieje dla kazdego k i jest równa Xtk' Wtedy i odpowiednio do tego LOO(!1,F,P).
(xtil, ... , x~~il) ---+ (Xt""" Xtk) E Kk, a to oznacza, ze dla kazdego k Funkcja 11·111' ma nastepujace wlasnosci:

E = {y E RT:Yt, = Xt"Yt2 = Xt2""} C C(I{k) C Dk'


(i) II/lip = O wtedy i tylko wtedy, gdy / = Op.n.,
Stad 0 fe- E C n::"=l Dn C B .•
(i'i) Ile/III' = Icl'II/llp, c E R., / E LP(!1,F,P),
Rozpatrzmy przestrzen probabilistyczna (R.T, B(R T), P). Dla kazdego t
okreslmy na niej odwzorowanie Zt wzorem (iii) Iii + gilI' ( IIIIII' + liglip, /,g E LP(!1,F, P), p ;;;, l (nierównosc
Minkowskiego) .
Zt(w) =w(t).
(iv) II/ + gll~ :;;;2P(iI.fII~+ Ilgll~), /,g ELP(!1,F, P), p > O.
Zt jest zmienna losowa i B(RT) = O'(Zt:t E T). Prcices stochastyczny
(Zt)tET nazywamy procesem kanonicznym. Mamy Warunki (i) i Ui) sa oczywiste; warunek (iv) wynika z elementarnej nie-
równosci: jesli x, y,p;;;' O, to (.T + y)p ( 2p-l (xl' + yp).
PdA) = P((Ztl"'" ZtoJ E A)
Z (ii) i Ul!) wynika, ze przestrzeli Lp(!1,F,P) jest przestrzenia liniowa·
dla L = {tl,"" tn}, A E B(R.L). Zatem z twierdzenia l otrzymujemy "Warunki (i)-(iii) poka:zuja, ze dla p ;;;, 1 jest to przestrzen unormowana,
natychmiast a 11·111' jest norma. Dokladniejsza analiza warunk'u (i) pokazuje, ze formalnie
rzecz biorac, elementarni tej przestrzeni sa nie zmienne losowe, ale klasy
równowaznosci zmiennych losowych: zmienne losowe X i Y naleza do tej
Twierdzenie 2 (Kolmogorowa o istnieniu procesu) . .lesl·l {Pr,} LEi:
jest zgodna rodzina miar pTObab'ilistycznych, to na pewnej p'f'zestTzeni pToba- samej klasy, gdy X = Y p.n ..
b'llistycznej 'istnieje p'roces stochastyczny (Xt)tET, którego rozkladami sko'n- Z nierównosci Minkowskiego (iii) (patrz zad. 5.'7.8) wynika takze, ze p-ta
czenie wymiaTowym.i sa 'rozklady {Pd LEi:· norma jest funkcja ciagla na, przestrzeni [)'(!1, F, P), jesli p ;;;, 1.

Twierdzenie 1. p.rzesh·ze·n LP(n, F, P) jest zupelna, dla 1 ,;;;p :;;;oc.


§ C.5. Przestrzenie LP

W twierdzeniach o zmiennych losowych czesto narzuca sie wa.runek istnie- Dowód. Zaczniemy od przypadku 1';;; P < oc.·Niech (Xn) bedzie ciagiem
nia wartosci oczekiwanej, drugiego czy tez (rzadziej) czwartego momentu. Callchy'ego w LP(!1, F, P). Wybierzmy z niego ta.ki podciag (Xnk), ze
Definiuje sie takze zbieznosc wedlug p-tego momentu. Wszystko to w na-
turalny sposób prowadzi do przestrzeni zmiennych losowych calkowa.lnych IIXnk+1 -Xnkllp:;;; 2-k, k'r 1,2, ...
w p-tej potedze. Warto znac ogólne wlasnosci takich przestrzeni.
Niech
Wszystkie rozpatrywane ponizej zmienne losowe beda okreslone na ustalo- k

nej przestrzeni probabilistycznej (!1, F, P).


Yk = LIXnk+1 - Xnkl, y = k-oo
lim Yk.
Dla O < P < oc zdefiniujemy p-ta norme zmiennej losowej X jako i=l
p- ta norma jest
prawdziwa norma
11). p.:i/"
:\()I\ Dodatek C. 1;'eoria miary i calki, przestrzenie LP § C.5. Przestrzenie Hilberta 355

Wtedy IIYkllp < 1 dla ,k = 1,2, .... Z lematu Fatou wynika, ze IIYllp ::::;1, Potrzebny nam bedzie fragment teorii przestrzeni Hilberta nad cialem liczb
a w szczególnosci Y < 00 p.n., skad wynika zbieznosc bezwzgledna p.n. rzeczywistych, zawierajacy twierdzenie o rzucie ortogonalnym, nierównosc
szeregu Bessela i równosc Parsevala. Ta ostatnia w kontekscie zespolonych prze-
00
strzeni Hilberta wystepuj f' i.,:llko raz w rozdziale o funkcjach charaktery-
Xn, + L(Xnk+1 - Xnk)
stycznych i jest zreszta udpwodniona bez odwolywCLnia sie do pojecia prze-
k=l
strzeni Hilberta ..
do zmiennej losowej X; zbieznosc sum czesciowych tego szeregu oznacza,
Iloczyn skalarny. Iloczynem skalarnym nazywamy funkcje, która kazdej
ze Xnk ----> X p.n.
parze elementów x, y przestrzeni liniowej pr<:ypisuje liczbe rzeczywista fI
Pozostaje do wykazania, ze Xn ~ X. Wybierzmy > O. Wtedy istnieje E: (x, y), przy czym spclnione sa nastepujace Wa1'11~lki:
takie N, ze dla m, n> 'N jest IIXn - Xmllv < E:. Stosujac lemat Fatou przy
ustalonym m otrzymujemy (i) (.7:, y) = (y,1:) dla ~;,Y E H,

[IX - Xmlv ::::;liminf


1.~OO
[IXni - XmiP ::::; E:P (ii) (a;x; -I- by, z) = a (:C,,21) +b IY, z) ella 1:, y, z E H, a, b E R,

Wynika stad, ze X - Xm E LP(n,:F, P), wiec i X = (X - Xm) -I- X", E


(i'ii) (x, x) ~ O dla ;x; E H; (;x;, ~:) = O wtedy i ty:ko wtedy, gdy x = O.
E LP(n,:F, P), i
ze liX - Xm.llv -t O dla m -t 00. Norme w przestrzeni Hilberta II definiujemy za pomoca iloczynu skalar-
Zeby udowodnic twierdzenie w Loo, wezmy ciag Cauchy'ego (Xn) i zdefi- nego:
niujmy zbiory Ilxll =
df V ~(.7;, x), x E H.
df Spl'awchenie wlasnosci normy z § C.S jest latwe. Latwo tez udowodnic nie-
Ak = {w E n: IXk(w)1 > liXkiloo}, równosc Scbwarza:
Bn,m ~ {w E n: IXm(w) - Xn(w)1 > IIXm - Xnlloo}·
I (x,y) I,;;; 11::r;[I'llyll, x,y E H,
Suma E tych zbiorów, gdy k = 1,2, ... ,00, m, n = 1,2, ... ,00 ma miare
zero, zas pozaE zmienne losowe Xn zmierzaja jednostajnie do ograniczonej badajac funkcje kwadratowa fet) = (:J; -+- ty, x -+- ty), t E R.
zmiennej losowej X, co konczy dowód .• Z nierównosci Schwarza wynika., ze i.loczyn skalaril)' jest ciagla funkcja obu
argumentów. I

Regula równolegloboku. Z wlasnosci iloczynu skalarnego wynika na-


§ C.6. Przestrzenie Hilberta tychmiast, ze

Szczególna pozycje wsród przestrzeni L1' (n, :F, P) zajmuje L2 (n, :F, P), bo- lix -I- yW -I- II;c - yl12 = 211~;112 -I- 211yW·
wiem norma jest w niej zadana przez iloczyn skalarny, zdefiniowany dla
X, y E L2(n,:F, P) wzorem Mozna udowodnic, ze jesli norma spelnia ten warunek, to jest zadana przez
iloczyn skalarny. I
Dopelnienie ortogonalne. Elementy x, y przestrzeni Hilberta H nazy-
(X, Y) ~ [XY = ./0r XYdP. warny ortogonalnymi (prostopadlymi), gdy (x, y) = O. Piszemy wtedy x1-y.
Wtedy Niech xl. ~ {y E H: y1-x}. Innymi slowy, 1;1. jest przeciwobrazem zera przy
IIXI12 = lex, X). odwzorowaniu liniowym i ciaglym y H (x: y), dlatego jest podprzestrzenia,
liniowa domknieta.
Przestrzen L2 (n,:F, P) jest zatem przestrzenia liniowa unitarna (czyli wy-
posazona w iloczyn skalarny) i zupelna. Takie przestrzenie nazywamy prze- Teraz dla dowolnej podprzestrzeni liniowej M C II mozemy zdefiniowac jej
strzeniami Hilberta. Dobrze znane przyklady przestrzeni Hilberta to prze- dopelnienie ortogonalne jako .
strzenie euklidesowe (R.n, (-, .)); ich bezposrednim
przestrzen ciagów (an) sumowalnych
uogólnieniem jest Z2 -
z kwadratem, gdzie (a, b) ~ L aibi. MJ· ~n xl..
xEM
MnM.L={O}.
C.G. Przestrzenie Hilberta 357
356 Dodatek C. Teoria miary i calki, przestrzenie U' §

Jest t0 oczywiscie domknieta podprzestrzen H, skladajaca sie z elementów (ii) Dla kazdego x E H jest x = Px + Qx.
ortogonalnych do kazdego x E NI.
OdwzoTOwania te maja ponadto nastepujace 'Wla,snosci:
Przypomnijmy, ze podzbiór C przestrzeni liniowej nazywamy wypuklym,
jesli wraz z punktami :Ii, y E C do C naleza wszystkie punkty postaci
(iii) Dla x E NI mamy Px = x, Qx = O;
tx + (l - t)y, t E (O, l). dla x E: M1. mamy Px = 0, Qx = X,

(iv) Px jest tym elementem NI, który jest najblizszy elemento'Wi x,


Lemat 1. Kazdy niepusty zbiór 'Wypukly i domkniety C przestrzeni 71J Hil-
berta H za'Wiera dokladnie jeden element o najmniejszej normie. (u) 11:.r:W = I1Pxl12 + IIQ:r;112,

Dowód. Jednoznacznosc wynika z reguly równolegloboku: niech x,y E C


(vi) P i Q sa l'in'io'Wei ciagle.
beda dwoma elementami o minimalnej normie, niech d = inf{llull:'(( E C}. Odwzorowania P i Q sa rzutami ortogonalnymi na podprzestrzenie NI i
Regula równolegloboku zastosowana do ~x i !y daje M..!.. Z twierdzenia wynika, ze p2 = P i Q2 = Q - jest to wlasnosc
charakteryzujaca rzut.
-lix - yll = -IIxii + -llyll - ..- (1) D o wód. Poniewaz dla kazdego x E H zbiór x + M = {x + y: y E M} jest
1
422 2 1 2 1 2 II x + 2y 112
wypukly i domkniety, zgodnie z lematem 1zawiera dokladnie jeden element
Z wypuklosci C wynika, ze!(x + y) E: C, zatem (1) daje o najrnniejsze normie: bedzie to Qx, w takim razie definiujemy Px = x-Qx.
Wtedy spelniony jest warunek (ii) . Zauwazrp.y, ze Qx E: x + lvI, zatem
lix - yl12 ~ 211xl12+ 211yl12- 4d2, (2) Px=x-Q:r:EM.
Wykazemy teraz, ze dla wszystkich y E M jest, (Qx, y) = O. Mozna zalozyc
wiec x = y, bowiem Ilxll = Ilyll = d. bez straty ogólnosci, ze Ilyll = 1. Wtedy, korzystajac z tego, ze Qx jest
Wezmy teraz ciag (Yn) taki, ze IIYnII -> d (taki ciag istnieje na mocy definicji elementem o minimalnej normie w NI + x, otrz:J;mujemy dla kazdego t E R:
liczby d). Podstawiajac Yon i Ym. do (2) widzimy, ze spelniony jest warunek
Cauchy'ego, i z zupelnosci przestrzeni H wynika., ze Yn -> 'Vo, a ponadto - (Qx, Qx) ~ IIQx - tyl12 = (Qx, Qx)+ e - 2t (Qx, y),

z domknietosci C - 'Vo E C. Jest to zadany element o minimalnej normie, zatem dla kazdego t E R
jako ze IIYnll-> II'Voll·•
t2 - 2t (Q:.r:,y) ~ O,
Uklady ortonormalne. Ukladem ortonormalnym w przestrzeni Hilberta
H nazywamy zbiór wektorów (es) sEJ, który spelnia nastepujacy warunek: skad wynika natychmiast (po podstawieniu t= (Qx, y)), ze (Qx, y) = O.
Udowodnilismy zatem, ze Q dziala z H w MJ'j tym samym dowód (i) zostal
zakoilczony.
(es, et) = {l O = t,t.
dla s f-
Wykazemy teraz, ze P, Q jest jedyna para od';"'zorowan spelniajacych Ci)

Kazdy uklad ortonormalny jest liniowo niezalezny, co wynika z prostej i (ii). Niech x = Xo +Xl, gdzie XQ E M, Xl E M..!.. Wtedy XQ -Px E M, ale
uwagi: jesli x = I::~l Ciesi, to IIxl12 = I:~~l
cZ· Wsród ukladów ort 0- XQ - Px = QJ; - Xl E !vI..!.. Poniewaz M n M..!.' = {O}, musi byc XQ = Px,
normalnych szczególna role odgrywaja uklady ortonormalne zupelne, czyli Xl = Qx.

takie, ze jesli (:1;, es) = O dla kazdego s E I, to x = O. Sa one odpowiednikiem 'len sarn pomysl daje dowód liniowosci P i Q. Piszac (ii) dla x, Y E II i dla
bazy w przestrzeni skonczenie wymiarowej (patrz uwaga 8). aJ; + by otrzymujemy

Twierdzenie 2 O rzucie ortogonalnym).


C Niech M bedzie domknieta P(ax + by) - apJ; - bPy = aQx + bQy - Q(ax +by),
podprzestrzenia przestrzen'i lin'io'UJejII. Wtedy istnieje dokladnie jedna pa.m
gdzie lewa strona nalezy do M, prawa do NI1., zatem obie musza byc zerowe.
odwzor'o'Wan P I Q o nastepujacych 'Wlasnosciach:
Dalej, (-iii) wynika z (i) j warunek (iv) posluzyl do zdefiniowania P; (v)
wynika z (i), bowiem (Px, Qx) = O.
Ci) P:H->M,Q:H->M.L,
:IIIH Dodatek C .. Teoria miary i calki, przestrzenie LP § C.5. Przestrzenie Hilberta 359

Dalej, (i'ii) wynika z (i); warunek (iv) posluzyl do zdefiniowania P; (11) ('i) (es)sEJ .jest ukladem. orl:ono7malnym zupelnym,
wynika z (i), bowiem (Px, Qx) = O.
('ii) Zb'ió7' S = [es: s E I]jesl; gesty w H,
Wreszcie z (v) wynika, ze liPxii ~ llxll. IIQxl1 ~ lixii, zatem np.
('i'ii) Dla, ka,zdego x E 1-1 ma:lny LsEJ (x, es)2 = IlxW·
IIPx - Pyli = IIP(x - y)ll ~ lix - vii,
('iv) Dla x, y E Ii ma,my LSEJ (x, es) (y, es) = (3;, y).
operatory P i Q sa wiec ciagle. _

Uwaga 3. Jesli M H, to istnieje niezerowy wektor


1= y E MJ.. (czyli D o wód. ('i) =? (-i'i). Oznaczmy M = S. Jesli S nie jest gesty w H, to
y_LM). W tym celu wystarczy wziac x tf. M i V = Q:r:. lvI 1= H, zatem M J" zawiera - na mocy uwagi 3 - niezerowy wektor, co
przeczy zupelnosci (es)sEJ'
Uwaga 4. Jesli wektory et, ... en tworza uklad ortononnalny, nmt orto- (-i'i) =? (i'ii). Ustalmy x E H ic > O. Istnieje wt.edy wektor
gonalny na podprzestrzen IvI = [er, ... , en] jest opisany wzorern
z = ale"l + ... + anesn,
Px = (x, er) er -+. '" + (::t:, en) en· (3)
dla którego llz - :cll < c. Tym bardziej IIPx - xii < c, gdzie P jest rzutem
Istotnie, wtedy (x, ei)'l = (Px, ei), i = 1,2, ... , n, zatem
ortogonalnym na. [eSl"'" es,.] (uwaga 4). Ja!j: 'latwo sprawdzic, IIPxW =
n 2
(x - Px, ar er + ... + anen) = O, Li=] (:1:, es.) , a. ponadto lixii:::; liPxli + c, dlatego
n
co oznacza, ze (x - Px)J.M.
(Il:cll - c)2 ~ Ilfxl12 = .z.= (x, es.)2 ~ .z.= (x, es)2 .
i=l sEJ
Uwaga 5. Nierówno.sc liPxii ~ Ilxll zastosowana do rzutu z poprzedniej
uwagi daje Poniewaz E > O bylo dowolne, ('iii) wynika zlpowyzszego i z nierównosci
n Bessela.
.z.= (x, ei)2 ~ Ilx112. (4) (-iii) =? (iv). Wystarczy podstawic do (iii) x + y.
i=l
(-iv) =? (i). Jesli ist.nif:je taki wektor x E H, ze x 1= o, ale (x, es) = O dla
Z ostatniej uwagi wynika. wszystkich s E I, to biorac x = y otrzymujemy l!xW = O ~ sprzecznosc. -

Twierdzenie 6 (Nierównosc Bessela). Jesli (es)sEl :iest 'u,kladem orto- Uwaga 8. Z tego twierdzenia wynika, ze jesli (en) jest przeliczalnym ukla-
normalnym w H, to dem ortonormalnym zupelnym - na przyklad rozwazanym w rozdz. 13
Bessela czy ukladem Haara w L210, 1] - to kazdy wektor ~ przedsta.wia sie w postaci:
Bessla, .z.= (x, es)2 ~ IIxW· (5)
00
Sztencela czy sEJ
Sztencla, x = .z.= (x, ei) ei·
Knastera czy Zwrócmy uwage, ze zbiór wskazników moze byc nieprzeliczalny, 11.=1
w zwiazku
Knastra,
z tym sume nieujemnych skladników po lewej stronie wzoru (5) nalezy
Nasera czy ... Krótko mówiac, ta.ki uklad ortonorma.lny zupelny jest baza Schaudera w H.
interpretowac jako kres górny sum po skOl\czonych podzbiorach I. Innymi
slowy, jest to calka wzgledem miary liczacej na J. Takie rozumienie sumy
Miara liczaca to pozwala rozpa.trywaC sumy skladników o dowolnych znakach.
taka, ze Oznaczmy przez [A] powloke liniowa, zbioru A, czyli czesc wspólna wszyst-
!kCAl = #A.
kich podprzestrzeni liniowych, zawierajacyc:h A. Nietrudno zoba.czyc, ze [A] I'
jest zbiorem skonczonych kombinacji liniowych elementów z A.

Twierdzenie 7. Dla ukladu ortono'T"ITJ.alnego(es)sEJ w przestrzeni Hilberta


'("
H nastepujacewar'unki sa, równowazne:
§ D.l. Funkcje holomorficzne
361

gdzie 't jest promieniem zbieznosci szeregu potegowego.


Natomiast n'ie jestholomorficl\na funkcja z. Istotnie, niech t E R. Wtedy
dla ustalonego z E C
. z+t-z
hm----=
t~O t 1,
Dodatek D ale
.
lun· z + d - z = --it = -1.
ha m

it it

Funkcje analityczne i metoda Iloraz róznicowy zalezy zatem od kierunku, z jakiego zmierzamy do zera. ~

residuów Nietrudno
czyli
otrzymac warunek konieczny i dostateczny rózniczkowalnosci,

Równania Cauchy'ego-Riemanna2• Z kazda funkcja f: C -:-t C mozna


zwiazac dwie funkcje 'U, 1): R2 --+ R2, tak, by ,
Czytelnik znajdzie ponizej informacje niezbedne do obliczania calek metoda
residuów: definicje funkcji holomorficznej i kilka podstawowych twierdze!l f(J.: + iy) = u(x, y) + iv(x, y), x, Y E R.
o takich funkcjachl.
}'unkcja f jest rózniczkowalna wtedy i tylko wtedy, gdy istniejajej pochodne
czastkowe 11", 1ty, v"' vy,i spelniaja równania Cauchy'ego-Riemanna:
§ D.l. Funkcje holomorficzne
11" = vy, uy = -V".
Rózniczkowanie. Niech 1 odwzorowuje zbiór otwarty G C C w C. Po-
chodna funkcji f w punkcie z definiuje sie standardowo: Zauwazmy jeszcze, ze jesli u i V maja ciagle pochodne drugiego rzedu, to
z powyzszych rówlllill wynika, ze
I elf. f(z + h) - f(z)
f (z) = hm ---------,
h-,O h z, z + h E G, h E C.
'U"" + 'Uyy = O, v"'''' + Vyy = 0,
Okazuje sie jednak, w przeciwieJlstwie do funkcji okreslonych na podzbio-
rach R, .ze funkcja, która ma pochodna w kazdym punkcie z E G, czyli czyli zarówno u, jak i v maja laplasjan równy zeru. Pózniej otrzymamy
funkcja holomorficzna w zbiorze G, musi byc tak regularna, ze ma pochodne ten wynik bez ograniczajacego zalozenia. Wystarczy bowiem, by u i v byly
dowolnie wysokiego rzedu i rozwija. sie w szereg potegowy w otoczeniu kaz- odpowiednio czescia rzeczywista i urojona funl~cji holomorficznej, która -
dego punktu z E G, czyli jest anal-ityczna. jak sie okaze - ma pochodne wszystkich rzedów.
Zbiór funkcji holomorficznych w zbiorze G bedziemy o7,naczac przez H (G). Powiemy, ze funkcja f: G --+ C rozwija sie w szeregi potegowe w G, jesli
dla kazdego kola D(a, T) C G istnieje szereg potegowy I:~=oan(z - a)n
Przyklad 1. Wszystkie wielomiany i funkcja eZ sa holomorficzne na C. zbiezny do f w D(a,T). Zwrócmy uwage, ze:
Sumy, iloczyny, ilorazy (jesli tylko mianownik jest rózny od zera) i zlozenia
funkcji holomorf1cznych sa holomorficzne. 1. Wymagamy tu istnienia odpowiedniego szeregu potegowego dla kaz-
Funkcja l/z jest holomorficzna na C \ {O}. Jesli 1(z) = I:~=oan(z - za)''' dego kola D(a, T) C G, jest to wiec wlasnosc nieco mocniejsza, niz
to f jest holomoriiczna w pewnym kole otwartym lokalna przedstawialnosc f w postaci szeregów potegowych.
D(zo,r) = {z E C: Iz - zol < r}, 2. Jesli f rozwija sie w G w szeregi potegowe, to jest holomorflczna,
l Systematyczny wyklad zawieraja na przyklad nastepujace podreczniki: Andrzej Bir- a ponadto, na mocy dobrze znanego z analizy twierdzenia o zbieznosci
khole, Analiza matematyczna - funkcje wielu zm'iennych, PWN, vVarszawa 1986 (raz. szeregów potegowych, f' takze rozwija sie w G w szeregi potegowe.
3); Franciszek Leja, Funkcje zespolone, PWN, Warszawa 1973, Jewgienij l3orysowicz
Szabat, Wstep do analizy zespolonej, PWN, Warszawa 1974. 2 Augustin Cauchy i Bernhard Riemann byli twórcami teorii funkcji analitycznych.

360
:111" Funkcje analityczne i metoda residuów § D.l. Funkcje holomorficz!1e 363

NnHl.lJJlllC t:wicnhcuie zawiera ogólna metode otrzymywania funkcji rozwijalnych Bedziemy calkowac funkcje zespolone po krzywych kawalkami gladkich.
w szcregi potegowe. W jego sformulowaniu wystepuja calki wzgledem miar o war- Krzywa kawal kam i gladka (klasy CI), dalej zwana krótko krzywa, nazwiemy
tosciach zespolonych. Teoria calki wzgledem takich miar rózni sie niewiele od zwy- odw7.,orowanie
klej teorii miary (patrz [RUD-l], rozdz. 6). Nalezy jedynie wiedziec, ze na mocy ')': [a, b] --l C,
samej definicji kazda miara !J. o wartosciach zespolonych na (n, F) ma skonczona
wariacje, czyli ciagle i przedzialami klasy CI, co oznacza, ze istnieja takie liczby al <
sup I:
1!J.(Ai)1 < 00, < IJ.2 < ... < 0.", nalc7.ace do [a., bj, ze I' ma cia;gla pochodna na przedzia-
lach (aj-l,lJ.j) i pochodne jednostronne w punktach aj_l,aj, gdzie j =
gdzie kres górny bierze sie po wszystkich przeliczalnych rozbiciach przestrzeni n
na zbiory z F. Okazuje sie, ze wariacja miary !J., zdefiniowana wzorem = 1,2, ... , n, 0.0 = a, a", = b.
Oznaczmy przez /* obraz odcinka
I!J.I(E) = sup I: I!J.(A n E)I, E E F, potoc,mym on wlasnie jest nazywany
[a., b] przy odwzorowaniu / (w jezyku
krll,ywa). 2\cJefiniujemy calke z funkcji
jest miara skonczona. Z twierdzenia R.adona-·Nilcodyma wynika wtedy, ze p. ciaglej f: ," -> C: a:
= hdP, gdzie h jest pewna (ograniczona) funkcja mierzalna o wartosciach zespo-
lonych, a P - zwykla miara probabilistyczna, równa 1!J.I/II-LI(n).
j.J J(z) dz ~ j'b
.Ja j(r(t)h'~tl) ,j dt
Twierdzenie 2. Niech bedzie miara o wartoscio.ch zespolonych na pT'ze-
J.L

str'zeni mierzalnej (n, F), <p: n ~ C -.- funkcja rnierzo.lnq, G - otwa·,.tym Definiujemy dlugosc krzywej "[:
podzbiorem C, przy czym G n <p(n) = 0. Wtedy funkc.ia

L(/)
i :M j'l' h'(t)1 dt.
; ~I ~(z) = inr \0(0dO
_ z'
J.L( z E G,
Wynika stad od razu, ze
rozw~ia sie w szeregi P?tegowe w G.
(l)
Dowód. Niech D(a,r). C G. Wtedy dla kazdego z E D(a,''') i (E n I ./ ,.. .f:(z) dzl ~ Sl~?
1 I.fl . L(r).

'I \O~-a
z - a
(r) I ~ --Iz -r al < l, Jesli h: [a', b'] -> [a, b] jest odwzorowaniom klasy ej i 11.(0.') '= a, h(b') = b,
to / o h jest krzywa, dla której
i dlatego szereg geometryczny

00 (z-at l ./.,. j(z) dz = j''Y0h f(z) dz.


~ (<p(O - a)n+l <p(O-z
Pozwal.a to na pewna swobode w wyborze parametryzacji. Zauwazmy jed-
jest zbiezny jednostajnie dla ( E n
przy ustalonym z E D(a, r'). Calkujac nak, ze gdyby h(a') = b, h(b') = a, znak calki po krzywej zmienilby sie na
obie strony wzgledem J.L otrzymujemy przeciwny.
00
Krzywa, nazywamy zamknieta, jesli /(0.) = ,(b). Dla takiej krzywej defi-
j(z) = I:
n=O
C",(z - at, z E D(a, r), niujemy indeks wzgledem punktu:

gdzie Twierdzenie 3. Jesli I' jest krzywa zamknieta, G = C \ /*, i zdefiniujemy


Jesli Czytelnik n= G ma dokladnie
wie, co to jest Cn = in j' (<p( ()11-( - dO
a.)n+1 '
O, 1,2, ....•
G, jedna skladowa
calka
krzywoliniowa, to
Ind,.(z) = l j' ( d(
271'i ./"1 - z'
z E
nieograniczona·
Calkowanie wzdluz krzywych. Czytelnik zechce zauwazyc, ze wprowa-
pewnie wie i cala
reszte· dzane ponizej definicje sa naturalnym przeformulowaniem definicji calki to funkcja Ind'Y przyjmu.ie wartosci calkowite, jest sto.la na kazdej skladowej
krzywoliniowej. i
zbioru G T'ówna sie zeru no. slcladowej nieogmn'iczonej.
365
364 Funkcje analityczne i metoda residuów § D.Z. Twierdzenie Cauchy'ego w zbiorze wypuklym

Intuicyjnie, indeks liczy tle razy punkt ~f(t) obrócil sie wokól z, gdy t zmienilo sie czyli
od a do b, jesli obroty zgodne z kierunkiem ruchu wska.zówek zegara uwazamy za <p'(t)(-y(t) - z) - ~/(t)'P(t) = O.
dodatnie3.
Inaczej mówiac, ['P / (')' - z)]' = O na [a, b] \ S, gdzie S jest zbiorem skonczo-
Zeby to zobaczyc, przypuscmy, ze z = O i" [0,271"] --+ C, O fi! 'y*. Wtedy nym. r'unkcja 'P/ (')' - z) jest ciagla, wiec jest stala na [a, b].
Ale 'P(a) = 1, czyli
j' "I d(
( = )'2n.
o "('(t)
"((t) dt.
'P( a) 1 'P( t)
"((a) - z ')'(0,) - z ~f(t) - z'
Niech A(s) = foS "I~~~t·
Oczywiscie A'(s) = ~i.:;·Z drugiej strony, "(t)

. eiacgz. = b(t)le'iarg("I(t), gdzie arga oznacza argument, zatem czyli (n(t) = 1'(1) -z t E [a , b]. Teraz
y "r.(o.)-z'
log"((t) = log h(t)1 +i arg(-y(t))

a po zrózniczkowaniu
'P(b) = ~f(b)
"(a)
-
_
z
z = 1,
I'(t)
bowiem ')'(0.) = ')'(b), jako ze krzywa jest zamknieta.
"(t) = [log h(t)l]' + i[arg(-y(t))]'.
Z tw. 2 wynika teraz, ze Ind"l E H (G). Poniewaz obraz ciagly zbioru spój-
W takim razie przyrost argumentu od O do s otrzymamy calkujac obie strony nego jest spójny, a Ind"l przyjmuje wartosci cq,lkowite, musi byc staly na
ostatniej równosci w granicach od O do s: skladowych G. Na dodatek 1Ind-t (z) I < 1 dla dostatecznie duzych 14 Dla-
= [log b(s)I-1Qg tego Ind,(z) = O na skladowej nieograniczonej. -
A(s)
••.. v
b(O)1] +i [arg(-y(s))
j '- v----'
- arg(I(O))!
II
.

Jesli krzywa jest zamknieta, to przyrost l


w granicach od' O do 271" jest zerowy; II § D.2. Twierdzenie Cauchy'ego w zbiorze wypuklym
daje 'i· (kat obrotu punktu ,,(t)). Ostatecznie
Udowodnimy teraz, ze calki z funkcji holom6rficznych po krzywych za-
mknietych sa równe zeru. Do naszych celów wystarczy wykazanie tego dla
r (
.l-I !!~= 'i . (kat obrotu punktu ,,(t)). krzywych zawartych zbiorze wypuklym, choc nie jest to naj ogólniejsza wer-
o co chodzilo. sja twierdzenia.

Nalezy jednak miec na uwadze, ze powyzsze rozumowanie .nie rna charakteru


Twierdzenie l (O funkcji pierwotnej). Jesli F jest funkcja holomoT-
formalnego,
sci argumentu,
chocby dlatego, ze nie przedyskutowalJsmy
Ograniczymy sie jedynie do stwierdzenia,
sprawy niejednoznaczno-
ze wszystko jest w po-
ficzna na G i ma c'iagZa pochodna P' na G, a. ')' jest kTzYWa zamkn'ieta,
"(* C G, to
rzadku, jesli tylko arg"U) zmienia sie w sposób ciagly. Na szczescie w dowodzie
twierdzenia :3 nie bedziemy w ogóle odwolywac sie do pojecia argmnentu.
j'P'(Z)dZ=O.
'''I l' '
D o w ó d twierdzenia 3. Poniewaz z /27ri jest liczba calkowita wtedy i tylko
wtedy, gdy eZ = 1, wystarczy wykazac, ze funkcja
Dowód. f"l P'(Z) dz = f: P'(')'(t)h/(t) dt = F(')'(b)) - F(-y(a)) = 0._

'P(t) = exp {It (')" )(s)


,o.')'s-·z ds, } Wniosek 2. lesl'l "( Jest kTZY'UJazamknieta,

n l- -1 (dla fi, = -2, -3, ... nalezy dodatkowo,


to I (z -
zalozyc,
"r
a)" dz =
ze a '/:.')'*).
O o 'ile

gdzie t E [a, b], przyjmuje w punkcie b wartosc 1. Po zrózniczkowaniu mamy


Twierdzenie 3 (Cauchy'ego dla trójkata)'. Niech 6. bedzie tTójkatem

'P I' (t) = exp {j'to."(s-z("(/(S)) ds· } ')'t-z


-(-)-
')'1 (t) ,
domknietym, zawaTtym w zbioTZe otwaTtym G/niech p E G niech f bedzie i
ciagla w G, f E H(G\ {p}). Wtedy .
86 oznacza brzeg

-
30statnio pojecie indeksu krzywej wzgledem punktu znalazlo zastosowanie w grafice
trójkata.
komputerowej, bowiem jego wlasnosci wymienione w twierdzeniu pozwalaja odróznic ob-

-
szar polozony wewnatrz krzywej zamknietej (czyli skladowe ograniczone) od zewnetrza. r fez) dz
)a6 = O ~.

.. ,..-....- .-...... •........•••. ~ -, ~ . l~


J ~, ,-- ,-.. ,I~ ••••
1,'11111(('.111
l\111\1I1,'yI'~II(' i ""IL(JlIIL 1'('Hicl'16w § D.2. Twierdzenie Cauchy'ego w zbiorze wypuklyrtl 367

,) II IV II d, 'l'wll'l'd1,(\lIiojoHL ("\(;zywi~r.:icprawdziwe ella trójkata zdegenerowa- 3. p E lnt 6. Wystarczy zastosowac wynik poprzedniego punktu do trój-
JI('/',(), I )n!(\j bQclziemy ,zatem za.kladac, ze trójkat nie jest zdegenerowany. katów wyznaczonych przez {a,b,p}, {b,c,p} i {c,a,p}._
.1.ozwazymy nastepujace przypadki: { ~.;i
Twierdzenie 4 (Cauchy,'ego dla zbioru wypuklego). Niech G bedzie

1. P rf- 6. Niech a, b, c oznaczaja wierzcholki trójkata, zas a', b' i c'


otwartym i
wYP1J,klym podzbiorem C, f - fun/',c,ia ciagla na G holomor- i
ficzna na G \ {p}. Wterly
- srodki odcinków [b, ej, [c, aj i [a, b]. Rozpatrzmy cztery trójkaty
wyznaczone przez uporzadkowane trójki punktów:
~ fez) dz = 0,
{a,c',b'}, {b,a',c'}, {c,b',a'}, {a',b',c/}. dla kazdp.j lr.Tzywe.iza:m.kniete.i l', gdz'ie 1* C G.

Oznaczmy I
= Ia6 fez) dz. Wtedy jest suma calek po powyzszych I D o w 6 d. USI',almy Q, E G i zdefiniujmy
czterech trójkatach, 'Wybieramy ten trójkat, na którym modul calki
jest najwiQkszy - musi on byc nie mniejszy niz I H W ten sposób
mozemy otrzymac. rekurencyjnie zbiór trójkatów 6 :J 61 :J 62", f 1(0 d(,
,,(~)= .Ira,z)
o nastepujacych wlasnosciach:
z E G. F jest dobrze okresluna, bo zbiór G jest wypukly, i jest funkcja
pierwotna dla f.
(i) n:16i = zo, Z twierdzenia Caur.:hy'ego dla trójkata wynika, ze
(ii) III ,,;;4nlJ~6:,f(z) dzl,
(iii) Obwód trójkata 6.." wynosi 2-71 L, gdzie L jest obwodem 6. .
F(z) - F(zo) = .Ilzo,z]
r f(O d(,
Poniewaz j jest rózniczkowalna w zo, dla ustalonego e > ° istnieje czyli
r > ° takie ze dla z E D(zo, ro):
F(z) z -- Zo
F(zo) _ f(zo) = _1_ f
z - Zo ./[zo.z] [J(() - f(zo)] d(,
If(z) - f(zo) --'-f'(zo)(z - zo)1 ,,;; elZ - zol·
i z ciaglosCi .f w Za wynika, ze clla ustalonego e > O istni(~je eJ > O, ze
Niech 6.71 bedzie trójkatem zawartym w D(zo, T). V,7tedy z wniosku 2 I.f(O - f(zu)1 < e, o ile I( - zul < (J. Dlalego dla dostatecznie malych
wynika, ze Iz - zol prawa strona nie przekracza e. Zatem F' = f i z twierdzenia 1
otrzymujemy teze. _

l
. 8611, j(z) dz = .86n l [fez) - f(za) - f'(Zo)(z - za)) dz. Twierdzenie 5 (Wzór calkowy Cauchy'ego w zbiorze wypuklym) .
Z oszacowal'i (ii), D.1(1) i nierównosci Iz - zol,,;; 2-nL dla z E
Niech, bedzie krzywa za.mknieta 'W otwar-tym i wYP71.klym zbioTze G C C,
6.." f E H(G). Wtedy ,
wynika, ze

4-71111,,;; li 8 L:::. n j(z)dzl";; e(Z-nL)2. .


f(z)· Ind-y(z) = -.1 j'l' -;--'
27l'2 f(O Z ':o - d(,
z E G, z rf- ,*
Stad III ,,;;cL2, zatem I = O. Dowód. Niech

2. P = (czyli jednemu z wierzcholków trójkata). Wybierzmy.T na boku


Q, j()- j(z)
dla ( E G, ( # z,
[0., b]i y na boku [b, c] blisko Q,. Wtedy IM f(z) dz jest suma calek g(() = {f'(;)z dla ( = z"
po brzegach trójkatów wyznaczonych przez trójki {a,x,y}, {x,b,y}
i {b, c, y}. Dwie ostatnie calki sa równe zeru, bo trójkaty nie zawie- Wtedy g spelnia warunki twierdzenia 4 (Cauchy'ego) i teza wynika stad, ze
raja punktu p. Pierwsza calka moze byc dowolnie mala, jesli tylko
wybierzemy odpowiednio x i y, bowiem j jest ograniczona. Dlatego
IM j(z) dz = O. l'-j
27fi -y g(() d( = O. •
368 Funkcje analityczne i metoda residuów § D.3. Zera i bieguny :369

Uwaga 6. Niech i{t) = a-\- reit, t E [0,27f] (jest to dodatnio zorientowany D (a, r) C G. Niech f (z) = L:=o Cn(z - a) n. Sa teraz dwie mozliwosci: albo
okrag o srodku a i promieniu 1'). Jesli D(a,r) C G, to dla 1 E H(G): wszystkie Cn = O i wtedy a lezy we wnetrzu A, albo jeden ze wspólczynników
o numerze 1,2 ... jest rózny od zera. Niech pierwszym tal<im wspólczynni-
kiem bedzie Cm· Definiujemy funkcje
I(z) l
= ~7f~ j "I -;---,
I(()
~ - d(
z z E D(a,r).
dla z 'f. a,
Stad i z tw. D.1.2 wynika, ze 1 rozwija sie w szeregi potegowe w G, jest za- g(z) = { ~: - al-m f(z), dla z = a.
tem rózniczkowalna nieskonczenie wiele razy. Wystarczy wziac D = [0,27f],
oczywiscie zachodzi wtedy (1). Poniewaz g(z) = Cm -\- Cm+l(Z - a) -\- ... ,
'P =" df-L(t) = Ib(t)),'(t) dt. Wspólczynniki szeregu zaleza tylko od a.
funkcja g jest holomorficzna na G. Poniewaz g(a) #- O, to a jest na mocy
(1) i ciaglosci g izolowanym punktem zerowym funkcji f.
Uwaga 7. Piszac powyzsza calke w postaci
Jesli a E A, musi zatem zachodzic pierwsza mozliwosc - a jest punktem we-
wnetrznym A, zatem zbiór A jest otwarty. Jedqoczesnie jest on domkniety,
I(a) = -.
1 1271-
27f~ o I(a 1'e
it'
-\- 1'eit)
'ire't dt
.
= --
1 .127f
27f ()
1(a -\-r'e,t) dt
.
(1) wiec ze spójnosci zbioru G wnioskujemy, ze A"" 0 lub A = G. To ostatnie
jest niemozliwe z zalozenia, wobec tego A = 0, wszystkie zera sa izolowane
otrzymujemy wlasnosc wartosci sredniej: wartosc funkcji holomorHcznej f i jest ich przeliczalnie wiele. _
w srodku okregu zawartego w G jest równa sredniej z jej wartosci na okregu.

Funkcje harmoniczne: Wlasnosc wartosci sredniej wiaze sie z funkcjami


Wniosek 2. Je§li I,g E H(G), gdzie G jest otwarty spójny, oraz I(z) i
harmonicznymi: 1 jest harmoniczna w zbiorze otwartym G, gdy jej czesc = g(z) na zb'ioTze, który ma p1mkt skupienia w G, to 1(z) = g(z) dla z E G.
Probabilistyczny
sposób produkcji rzeczywista i urojona spelnia tam równanie Oznacza to, ze funkcja holomorficzna w zbiorze otwartym i spoJnym G
funkcji
jest jednoznacznie wyznaczona przez swoje wartosci na ciagu o róznych
harmonicznych 1),,;,, -\- uy'Y O. =
mozna zobaczyc w wyrazach, zbieznym w G (jest to bowiem "minimalny" przyklad zbioru
roz. 13 z punktem skupienia).
Wszystkie funkcje holomorficzne w G sa takze harmoniczne, poniewaz funk-
(zagadnienie
Dirichleta). cja holomorficzna ma pochodne wszystkich rzedów i spelnia rówm:mia Cau- Zajmiemy sie teraz klasyfikacja osobliwosci. Twierdzenia 3 i 4 nie sa nie-
chy'ego-Riemanna (por. § D.l), Mozna udowodnic, ze jesli jest hanno- 1 zbedne do dowodu tw. D.4.2 o residuach, ale dzieki nim dowód jest krótszy,
niczna w G i a E G, to wlasnosc wartosci sredniej (1) jest spelniona dla Jesli funkcja 1
E jI(G\ {a}) da sie przedluzyc do funkcji holomorficznej na
wszystkich takich r > O, ze D(a,1') C G. Odwrotnie, jesli (1) zachodzi ella G, mówimy, ze osobliwosc w a jest usuwa.lna,
1
pewnego ciagu Tn -> O i jest ciagla w G, to jest harmoniczna.
W dalszym ciagu D' (a, 1') bedzie oznaczac sasiedztwo punktu a o promieniu
Uwagi 6 i 7 pokazuja glebokie konsekwencje rózniczkowalnosci w sensie r, Gzyli zbiór D(a.,r) \ {a},
zespolonym, w odróznieniu od róznic:zkowalnosci w sensie rzeczywistym,
Twierdzenie 3. Jezeli a E/i, f E H(G\ {a}), to za.chodzijeden z tTZech
przypadków: '
§ D.3. Zera i bieguny
(a.) osobliwo,sc W et jest 'us1t'IIJalna,
Lemat 1 (O zerach). Je#i zbióT G C C jest otwaTty 'i spójny, a E 1
E H( G), przy czym 1 jest Tózna od stalej zeTo'UJej,to zbióT Z zeT funkcji f (b) 'istnieja takie Gl, C2, .. ' ,cm, m > O, Cm =F O, ze funkcja
jest co naj1JJyzej przeliczalny i
nie ma punktu sk'ILpien'ia; wtedy dla kazdego m
a E Z istnieje m E N, m? l, tak'ie, ze
f(z) - :L cdz
k=l
- atk (2)

1(z) = (z - a)"", g(z), g E H(G),g(a) =F O. (1)


ma usuwalna osobliwosc 'W a,
Jesli zachodzi (1), mówimy, ze f ma w punkcie a E Z zero rzedu m.
(c) obraz kazdego zbioTu D' (a, 1') C G PTZY od11JzoTowaniu f jest gesty na
Albo zero D Ow ó d, Oznaczmy przez A zbiór punktów skupienia zbioru Z, nalezacych plaszczyznie,
m-krotne , dO G• N'lec h a E Z . Fun k'cJa 1 rOZW1JaSle
... w szereg w pewnym otoczelllU,
:1'(1 I 1'\IIIlI\l~.I11IIltlllll.,\'<:~"", l 111I11,1It111 IIIMltlllI\W !i [).:1. y,om, i i>iOgllll,\' ,171

,JoAli 1'.11.('110<1,,,i 1)J""'ypn<lok (b), 11l6willJY, ie f ma w punkcie a li'ieg'U.n r:!.edu Twierdzenie 5. Punkcja f ma 'w pwdr.cie a ti'i.Cf/n'll.1·Zerl'll. 11/, ~ I w/,{ulU
i tylko wtedy, gdy zaleznosc
Nn, pr,-yldf,d
f,,"keja U'/(·-1) am..
Jest<.:~~~<.:if1glówlJa
1'.
IRtotme osobhw:y.~~=I Ck(Z - al-k. Jesli ndlOdzi (c) mówimy, ze punkt

l'naoso IWY z = ._
pUbnl~{tiSl.otn]ie Do dowodu twierdzenia 3 potrzebne bedzie j(z) = fI(z)
(z - a)m

Twierdzenie 4 (Riemanna) . Jesli f E H (G \ {a}) i f jest ograniczona jest spelniona w pewnym sa,,siellztwie Dl (a, r), przy czym fI jest holomor-
w DI(a,r) dla pewnegd r
'J)
> O, to ma usuwalna, osobliwosc w a. ficzna w D(a,T) i fI(a) =I O.'

Dowód. Niech Dowód. =} Wynika to natychmiast z (2), bowiem istnieje taka funkcja
I,'
g E H(D(a,T)) (ella pewnego T > O), ze
dla z f/. a,
h(i). = { O(z - a)2 j(z) dla z = 0" m

Wtedy (z ograniczonosci) h'(a) = O, dlatego h E H(G), zatem


j(z) = g(z) + L q,(z - a)-k =
00

h(z) = Lcn(Z-at, z E D(a,1-). = [ g(z)(z -- a)m


/;:=1 ... + {;Ck(Z
"',.• - a)-h:+m ] (z ._ al-m,
n=2

Poniewaz f(z) = :s~=o Cn+2(Z - a)n, z E Dl (a, T), wystarczy rozszerzyc: f a stad h(z) = :S~=O r1,,(z - a)n dla z E D(a, r) i h(a) ':" do = Cm =I O.

kladac J(a) = C2· - {:= Wystarczy rozwinac h w szereg potegowy wokól punktu a. _
W zastosowaniach probabilistycznych (do obliczania funkcji charaktery-
D o w ó d twierdzenia 3 o klasyfikacji: Jesli (c) nie zachodzi, to istnieja w E stycznych) jest 99,9% szans na to, ze badana funl}cja j jest ilorazem funk-
E C, r > O i a > O takie, ze Ij(z) - wl > a na D'(a,T). Niech cji holomol'ficznych. Wtedy zera mianownika sa biegunami lub punktami
p07.ornie osobliwymi funkcji .f. \iVykluczone sa natomiast punkty istotnie
g(z) = rl,l Z E D'(a, T). (3) osobliwe.

Teraz g E H(DI(a, r)), a ponadto Ig[ < l/a. W takim razie osobliwosc jest Twierdzenie 6. JeSI'j.f = g/h, gdzie funkcje.9 'i. h SCJ: holomoTficzne w pew-
usuwalna i g E H(D(a, r)) . .Jesli g(a) to J jest ograniczona w pewnym nym kole D(a, '1') 'i h(z) =I O 'w D'(a, ''1'), z'o,s a jest m-krotnym zerem licznika
otoczeniu D(a, s), wiec za.chodzi (a).
=I O,
i n-lc1'otnYTn zerem m,i,anownika, to

Jesli g ma. zero rzedu m w punkcie a, to z lematu l o zerach wynika., ze Jesli gra) t" o, 1.0
(a) p'unkt a .jest (n - 'ITI.)-krotnym biegunem J, o ile m< n, mówimy, ze g ma
O-krotne zero w a.
g(z) = (z - a)'mgdz), gl E H(D(a,r)), (1)) lJUnkt a ,jest, pozoTn'ie osobliwy, o ile m~ n.

=
i 91 nie ma zer w DI(a,r). Niech h l/gl' Wtedy znów h E H(D(a,r')) i
Dowód. Jesli g(z) = (z - a)mg1(z), h(z) = (z - a)nhl(z), gdzie gl i hl sa
j(z) - w = (z - a)-mh(z) holomorficzne w D( a, r), 91 (a) =I O, hl (a) =I O, to ,

ale h(z) = :S~=O bn(z - a)n, bo f- O, z E D(a, T), czyli f(-)- h(z)
. ,'" - (z - a)n-rn'
00

j(z) - w = L
,,=0
b,,(z - a)"-m. gdzie
twierdzenia. _
h
E H(D(a,r')), 11(0.) =I O, i wystarczy skorzystac z poprzedniego

Otrzymalismy (b), gdzie Ck = bm_k, k = 1,2, ... , m. _


Przyklad 7. Niech t E R bedzie ustalone. Funkcja
Mozemy teraz sformulowac dwa twierdzenia, pozwalajace na rozpoznawanie eit•
biegunów i ich rzedów.' l+ z2
372 Funkcje analityczne i metoda residuów § D.4. Resiclua 373

ma bieguny jednokrotne w punktach i, -i. Funkcja Twierdzenie 3. Jesli a jest bieg'unem jednokrotnym funkcji f, to

eitz lles(fj a) = lim (z - a)f(z).


z.-:-a '
(2)
eZ + e-Z
Jesl'i funkcje f i g sa holomorficzne 'W otoczenill pltnktu a, g( a) = O, g' (a) :/=
ma bieguny jednokrotne w punktach ak = (2k + l)~ . i, k E Z. Funkcje te f o, to
pojawia sie jeszcze w dalszym ciagu tego paragrafu. _ f(a)
(3)
lles(f/g;a) = g'(a)'
§ DA. Residua D o wód. W pierwszym przypadku istnieje taka funkcja holomorficzna Q,
ze
Definicja 1. Jesli funkcja f ma w p'unkC'ie a bieg'un z czescia glówna
m
::--0. = z_a + ~]
Z - a = =
Q(z) = L
k=l
Ck(Z - a)-k,
vV drugim
lim(z - a)f(z) lim(z - a) [Q(z)

przypadku stwierdzamy, ze na mocy tw. D.3.') biegun w punkcie


CI Res(f; a).

a jest jednokrotny i korzystamy ze wzoru (2):


to wspólczynnik CI nazywamy resid'u'Um funkcji f w p'UnkC'iea i oznaczanlY
Res(f; a).
lim (z _ a)t0.2
=-·a gez)
= lim fez)
z-a (g(z) - g(a))/(z - a)
= g/(a)
f(a) .•

"Residuum" znaczy po lacinie "pozostalosc". Z wniosku D.2.2 tw. D.2.4 i Uwaga 4. Mozna wykazac, ze jesli a jest biegunem rzedu k, to
wynika, ze po scalkowaniu funkcji po dodatnio zorientowanym okregu obie-
gajacym biegun "pozostaloscia" jest wspólczynnik Cl z czesci glównej. A.do-
kladniej, mamy: Res(f;a) = _1_ !im f(k-l)(z).
(k - l)! z~a
Twierdzenie 2 (O residuach). Niech G bedzie wYP1/,kly otwarty, niech i Obliczanie calek za pomoca residuów zilustrujemy za pomoca funkcji z przy-
f E H (G \ {al, ... a,,} ) / gdzie ai sa 'róznymi p'Unktami z G, w których f ma khl.clu D.3.7. '.
bieguny.
Niech "Y bedzie krzywa zamknieta, "Y' C G, i niech "Y' n {a l, ... a,,} = 0. Przyklad 5 (F. ch. rozkladu Cauchy'ego). Najpierw obliczymy calke

Wtedy
t>O
(p(t)-
, _ 7r~ ./'00 '2'
-00 eilz+ clz
z l
27ri l j'1f(z)dz ~ Ln Res(fj
k=l ak) . Ind,(ak)'
(l)
W tym celu obliczymy calke po krzywej zl~zonej z przedzialu [-R, R] i
"Y,

pólokregu Re'i .•, s E [0,71'], 'Latwo stwierdzic, zel dla ustalonego t > calka °
Dowód. Funkcja f - (QI + ... +Qk), gdzie Qk jest czescia glówn"l bieguna z funkcji fez) = eitz /(1 + z2) po pólokregu jest równa
w ak, ma w punktach al,'" ak osobliwosci usuwalne. Wobec tego na mocy
tw. Cauchy'ego D.2.4
1+ 8e-tRsiIl.<;
Ja{7f e'il:Rcos R2e2i .• iReisds,
.

i f(z)clz = i (QI + ... + Qk)dz, zatem jej modul nie przekracza


zmierza do zera przy R -+ 00, zatem J,/(z)dz
R/(R2
-+ J~oof(x)dx.
- l), ,o ile R > 1, a to wyrazenie

i ostatnia calka pokrywa sie - na mocy wniosku D.2.2 i tw. D.1.:3 - z prawa Funkcja pbdcalkowa f ma w gól'nej pólplaszczyznie jedno residuum w
strona wzoru (l). _ punkcie ij Res(f; i) = e-t /2'i, skad 'P(t) = e-t, t > 0, a korzystajac z syme-
Twierdzenie to pozw"la obliczac calki, które w inny sposób bardzo trudno trii rozkladu otrzymujemy ostatecznie:
byloby uzyskac. Praktyczne metody obliczania residuów zawiera nastepne
twierdzenie. 'P(t) = e-Iti. _
374 Funkcje analityczne i metoda residuów

Przyklad 6 (F. ch. rozkladu cosinusa hiperbolicznego). Obliczymy


calke
t> O.
<pet) = ;: 100
-00 :itz d~.,

Teraz bedziemy calkowac funkcje fez) = eitz j(eZ + e-Z) po prostokacie


o wierzcholkach -R, 'R, R + iR, -R + iR. Oszacujemy kres górny Ifl na Dodatek E
trzech bolcach:
"

1. Na [R, R + iR] mamy dla R ~ 1:


Funkcja twÓrzaca momenty
INI
:R + is =
)I
--o -.----,-- (---.
+ e-Re-ts (transfor~~ta Lapl~.ce'a)
I eRe"etRe-ts eR - I 1 1
To samo oszacowanie dostajemy na [-R, -R + ·iR].
+ iR, =
2. Na [-R r -l~iR] mamy, jesli tylko R
e-1:tse-
2mT, n E N:
e
§ E.l. Definicja i przyklady
IJ(R + is)1 = I eiRe-'s + e-iRes
Rt I (-2-'
-RI. Zamieszczamy tu podstawowe informacje o funkcjach tworzacych momenty,
które stosuje sie w wielu zagadnieniach praktycznych, szczególnie tam, gdzie
Zeby otrzymac zbieznosc do zera calek po rozpatrywanych hokach wyst.ar- wystepuja nieujemne zmienne losowe. Przyklady takich zastosowan, m.in.
czy wziac t > O i R = 2m;-, n E N. Stad wniosek, ze calka do teorii odnowienia, teorii ryzyka, zagadnienia ruiny w zlozonym procesie
Poi ss ona mozna znalezc w [FELL], t. II, raz. XIII-XIV. My pokazemy dwa

100 ---dz
+ e-Z
-00 eZ eitz '
t>O zastosowania teoretyczne: do dowodu centralnego twierdzenia granicznego
-(tw. 12) i do oszacowania szybkosci zbieznosci w mocnym prawie wielkich
liczb (§ E.2).
jest równa sumie residuów funkcji f w górnej pólplaszczyznie, pomnozonej
przez 21ri. ,Jesli X jest zmienna losowa, a /-I.x jej rozldadem pra:wdopodobiellStwa, to
definiujemy funkc,je tWOTZaCamomenty zmiennej losowej X (rozkladu /-Lx)
Funkcja podcalkowa .f ma bieguny rzedu 1 w punktach ak = (21.;+ 1Hi, jako
k E Z (jest to zbiór rozwiazalI równania e2z = -l). Marny teraz

ResU; ak) =
eitak
eak _ e-a" =
e-7I't(k+l/2)
e(k+I/2)7I'i _ e-(k-l-l/2)7I'i
Mx(t) = EetX = l: etS/-Lx(ds).
Funkcja tworzaca momenty jest okreslona dla tych t, dla których
(l)
istnieje
powyzsza wartosc oczekiwana (czyli calka po prawej stronie).
(_l)k
=2ie -7I't(k+1/2)
. Jesli X przyjmuje wartosci calkowite nieujemne, funkcja Mx jest zwiazana
z opisana w dodatku B funkcja tworzaca 9x w nastepujacy sposób:
Obliczamy sume residuów w górnej pólplaszczyznie pomnozona przez 21ri:
Jak kto woli,
9X(S) = Esx = E [(e1ogs)X] = Mx(logs), SE(O,l]. Mx(t) = 9x(e')
2 . ~I:> (J' )_ -t7l'/2 ~( -7I't)k _ 7re-t7l'/2 _ 7r Funkcja tworzaca momenty jest okreslona na przedziale zawierajacym zero,
7rt k=O
~ :"es ,ak - 7re ~ -e
k=O - -1-+--e--7I'-t
- -co-s-'h-(t-;7r-j-2-r
który poza tym moze byc dowolny, jak pokazuja przyklady 2 i 5.
Ostatecznie otrzymujemy funkcje charakterystyczna Jesli przedzial ten zawiera otoczenie zera o dodatniej dlugosci, to funkcja
!lIx wyznacza momenty zmiennej losowej X. Dokladniej, mamy
l •
<pet) = cosh(t7rj2)' Twierdzenie 1. Jesli Junkc,ja twor·zqca momenty Mx(t) zmiennej losowe,j
X ,jest okreslona dla. t E (-to, to), to > O, to

! 375
I
376 Dodatek E. Funkcja tworzaca momenty (transformata Laplace'a) § E.I. Definicja i przyklady. 377

(i) Istnieja wszystkie momenty zmiennej losowej X, czyli EIXIX: < 00 dla Przyklad 5. Oto funkcje tworzace momenty dla kilku rozkladów.
k=1,2, .... 1. Rozklad N (0,1):
C<) tX:EXX:

(i'i) Mx(t) I:
= x:=o -kl-' Iti < to·
lV!x(t) = .j'C<)
-ex) V ;-211' etx-x2/2 = et212, t E (-00,00),

( Ut '1' (k)(O)
.... ) 1VJx -(u'\.
- cyk , -.L, 2 , ....
k -' a stad otrzymujemy hurtem parzyste momenty, bowiem

D owód. (i) Z nierównosci eltl ~ et +e-t wynika, ze EetlXI < 00 dla t < to·
Oczywiste oszacowanie: . e(2/2 = .L...,
'\' 2-
C<) k! '(
~22)k = '\'
.L..., 1 . 3 .... , n'j2k:
C<) " - 11t,2k
X:=O X:=O

n ki Ik
'\'~,;:: o < t < to, (2) wobec tego Ex2k = 1 ·3· .... (2k - 1) = (2k - l)!!,
.L..., ki '" e tlXI ,
k=O
2. Rozklad wykladniczy:
gwarantuje teraz istnienie wszystkich momentów .
.00 ~ 00 ~
(i'i) Dzieki oszacowaniu (2) mozna zastosowac twierdzenie Lebesgue'a o t < /\.
zbieznosci monotonicznej: Mx(t) = .lo/ etx /\e->'·'/; dx = ~ _ t = k=O I: ~X:'

ki k! e < 00, O < t < to . (3) zatem EXk = ;k.


.L...,
E (~tkIXlk)
k=O
.L...,
= k=O
~ tkEIXlk = (,.c,(!XI 3. Rozklad Poissona:
W efekcie twierdzenie Lebesgue'a o zbieznosci zmajoryzowanej pozwala na
C<) kt\K- C<) (\ t)k
usprawiedliwienie ponizszych przejsc granicznych: "1
lV1X ()t -.L...,
_ '\' ~ k! e ->. -.L...,
_ '\' _/\_ek! _ e ->. -_ e >.(e'-l) ,
t E (-00, (0).
k=O k=O

Iti < to·


1'vlx(t) =E (fk=O tk~k)
k. = ftkEXk
k=,O k! '
('1)
Stad juz nieco trudniej wyznaczac momenty.
posrednio EX(X - 1)· ... · (X - k + 1) ..
Wygodniej jest obliczyc bez-

(iii) Wystarczy obliczyc pochodne szeregu potegowego po prawej stronie Za pomoca gestosci postaci cl[1,(0)X-2, c1[1,(0)X-2e-ax oraz wykladniczych
(4) .• i normalnych mozna skonstruowac przyklady funkcji tworzacych okreslo-
nych w dowolnym przedziale (lewo-/prawostronnie domknietym/otwartym)
Przyklad 2. Zmienna losowa o gestosci Ce-13'I'/2 ma wszystkie momenty, zawierajacym zero. II
ale jej funkcja tworzaca momenty jest okreslona tyllw w zerze. II
Przy wykonywaniu dzialali na zmiennych IO[iowych funkcje tworzace mo-
Uwaga 3. Czasami w literaturze mozna sie spotkac z nieco innym nazew-
menty zachowuja sie analogicznie do funkcji charakterystycznych. Zachodzi
nictwem, mianowicie.funkcje tworzaca momenty nazywa sie (dwustronna) równosc
transformata Laplace'a. lVIy nazwalismy transformata Laplace'a (por. zad.
1.:3.4.2) funkcje MaX+b(t) = ebt Mx(at), ,a, b E R.
Prawdziwe jest takze podstawowe
L(A) = Ee-'\X, gdzie X ~ O, A ~ O. II
Uwaga 4. Twierdzenie Kaca (zad. 9.4.1), zawierajace kryterium niezalez- Twierdzenie 6 (O mnozeniu). Jesli zmienne losowe X Y sa nieza- i
nosci ograniczonych 'zmiennych losowych, da sie nieco wzmocnic, a miano- lezne, a ich funkcje tworzace momenty lVlx My sa okreslone w pewnym i
wicie: jesli zmienne losowe X i Y maja funkcje tworzace momenty okreslone otoczeniu um (-to, to), to > 0, to w tym samym otoczeniu zera istnieje
w pewnym otoczeniu zera, oraz EXkyl = EXkEyl dla k, l E N, to X i Y funkcja tworzaca momenty sumy, lVlx+y, oraj;
sa niezalezne. Dowód wymaga oczywistej adaptacji argumentu podanego
w rozwiazaniu za.dania. _ Mx+y(t) = Mx (t)1vIy (t), t E (-to, to), to> O.
II 11",1,1( iii, II: 11'11111(1'.111 I.W(II'~ll(,1I 'lIlOlllon'LY (tnLIJsformata Laplace'a) § KI. Definicja i przyklady 379

IlIIWI,ld, (; ( I.Q,to), to zmienna losowa et(x+y) = etXetY jest


,)1'1111I Uwaga 9. Jesli rozklad prawdopodobiellstwa ~~ma. wszystkie momenty,
(',\lIWWII.11l1t jn,ko iloczyn niezaleznych i calkowalnych zmiennych losowych a jego funkcja tworzaca moment;y istnieje w pewnym otoczeniu zera o do-
(1IW/1l!?t c po tw. 5.8.15); z samego tw. 5.8.15 wynika, ze datniej dlugosci, to nie istnieje inny rozklad prawdopodobienstwa o tych
samych momentach (wynik(),to z (3) i powyzszego twierdzenia).
Mx+y(t) = cet(x+y) = cetX cetY = Mx(t)My(t). _ Mówi sie wtedy, ze rozklad .i~st.wyznaczony przez swoje momenty. Podamy
teraz przyklad sytuacji przeciwnej - dwóch rÓznych rozkladów o tych sa-
Twierdzenie 7. lesliJunkcje tworzace momenty zmiennych losowych X mych momentach.
i Y sa równe na przedziale (-to, to), to> O, i
to X Y mada I;en sam 'rozklad. Oznac:tmy przez f gestosc rozkladu logarytmicznie-normalnego:

D owód. Na mocy tw.:l obie zmienne losowe maja te same momenty. Wy- .f'( x.) = .---··e-
1 1 (101;:C)-/21
" (x).
~:r; (Q,oo)
kazemy, ze ich funkcje charakterystyczne sa równe. h'
,lJ,l

Z tw. A.1.1 wynika, ze Wtedy

t, h E R.
,o i'DO.f(:c) sin(27r log x) dx =
:r;I' O, k = 0,1,2, ... ,

leitx (e;''''''-
L-.t
~
k=O' (ihX)k)
ki I
~ ----
+ I)!'
Ihxl"+1
(n gdyz podstawienie log x'bo "r':.9 ~I-k przeksztalca t{calke do postaci

sin 27rs ds,


Stad
l
--=ek2/2
v'27i' -00
}'OO
e-52/2
..

która jest równa zeru, jako ze funkcja podcalkowa jest nieparzysta.W takim
I'Px (t + h) L-.t
- ~ ki
k=O (ih)k E (XkeitX) '" (n
I,;:: + I)! EIXI",+1 "" t h ER
111.1"+1 ra.zie funkcje f(:r;) oraz .f (.1; )[1+sin(27r log x)] sa para róznych gestosci o tych
samych momentach.
gdzie prawa strona zmierza do zera zgodnie z (3). Ze wzoru na pochodne
funkcji charakterystycznej (tw. g.1. 7) otrzymujemy: Twierdzenie 10. Niech X, Xl, X2,.·· bedzie ciagiem zmiennych losowych,
IctÓl'ych funlcde two'rutce m.omenty, Mx MXk' k = 1,2, ... sa; okreslone i
no. przedzia.le (-to, to), 1.0 > O ..
'Px(t + h) = ~L-.t (ih)k
ki'Px (k) (t), Ihl < to·
k=O Jesli Mx,,(t)·-----;
11.--00
Mx(I.) dla t E (-to,to), 1.0 Xn ~ X.
Te sama równosc spelnia 'PY·
D o wód. Jedrnosc ciagu rozkladów zmiennych losowych X", mozna otrzy-
Niech teraz t = O. Wtedy 'P~)(O) = ikcXk = 'ikEYIo = 'P~~)(O) dla k mac z wykladniczej nierównosci Czebyszewa 5.7.6(c) i ze zbieznosci ciagu
= 0,1,2 ... , zatem obie funkcje charakterystyczne pokrywaja sie na prze- funkcji tworzacych momenty:
dziale (-to, to)·
Powtarzajac to rozumowanie z punktami startowymi t = ±to/2 otrzymu-
P(lX",l > a) ~ C (etIXnl) e-at -;;:-;; Mx(t)e-at, Iti < to.
jemy równosc 'PX = 'PY na przedziale (-~to, ~to), etc. -- a wiec wszedzie.
Stad X i Y musza miec ten sam rozklad. _ DalszcJrozumowanie przebiega tak, jak w dowodzie twierdzenia Levy'ego-
-Cramem o ciaglosci - po wyborze podciagu zbieznego wedlug rozkladu
Uwaga 8. W powyzszym dowodzie nie odwolywalismy sie do teorii funkcji dowodzimy, korzystajac z poprzedniego twierdzenia o jednoznacznosci, ze
analitycznych. Mozna jednak po prostu zauwazyc, ze funkcje rozkladem granicznym jest !J.x i ze caly ciag jest slabo zbiezny do tego
rozkladu prawdopodobienstwa. II
Mx(z) = cezx, My(z) = cezY,
sa holomorficzne w pasie -to < Re z < to i sa równe na odcinku (-to, to), Uwaga 11. Przy zalozeniach tw. 10 nietrudno otrzymac zbieznosc mo-
mentów:
czyli na mocy tw. D.3.2 - wszedzie, co daje równosc funkcji charaktery-
stycznych, bowiem Mx(it) = 'Px(t), t E R. EX~ --->
11-00
cXk, k = O, l, 2, ....
II'
,f'
:1

"
il:
380
i!' Dodatek E, Funkcja tworzaca momenty (transforrnata Laplace'a) § E,2. Transformata er:,,, / m. Szybkosc zbieznosci w MPWL 381

il!
,I,
Istotnie, wynika to z kryterium z zad. 8.3.9, bowiem dla kazdego k = i otrzymamy nierównosci maksymalne, dajace oszacowanie szybkosci zbiez-
I'
II',
= 1,2, ... : nosci w prawie wielkich,liczb.
ki ki . Zalózmy, ze zmienna losowa X spelnia warunek Gmmem: istnieje takie
l,
'l!i
sup
n EIXnlk <: k
a sup
n Eealxnl <: a sup[Mxn
n (a) -i + iVIx" (-a)], lal < to, A > O, ze EeA1xl < co. Wtedy oczywiscie jej funkcja tworzaca momenty,
Mx, jest okreslona co najmniej na przedziale [-A, AJ.
11 a wyrazenie w nawiasie kwadratowym po prawej stronie jest ograniczone, Warunek Cramera jest równowazny z tym, ze ogon rozkladu zmiennej loso-
li poniewaz zawiera wyrazy ciagu zbieznego. wej X maleje wykladniczo: P(IXI > t) <: e-at dla pewnego a > O i wszyst-
'II
Odwrotnie, w zad. 8.3.8 udowodnilismy, ze jesli rozklad X jest okreslony kich t > O. Jest on spelniony przez wszystkie ograniczone zmienne losowe,
Iii
przez swoje momenty i zachodzi zbieznosc momentów, to Xn ~ X. Dla- a takze przez zmienne losowe o rozkladach: geometrycznym, wykladniczym,
tego tez mówi sie o dowodzie CTG metoda momentów. Poissona i normalnym.
Niech teraz
Udowodnimy teraz najprostsza wersje centralnego twierdzenia granicznego: A = {t E R: Mx(t) < co}.
:1i

Twierdzenie 12. Niech X, Xl, X2, ... beda Triezaleznymi zmiennymi loso- Zbiór A zawiera otoczenie zera" Definiujemy funkcje
ii wym'i o tym samym 'rOzkladz'ie, EX = O, V2 X = 1, ,i niech Nfx(t) bedz'ie
"
li okreslona na przedziale 1= (-to, to) o dodatn'iej dl'u,gosci, Wtedy
'if}(t) = log Mx(t), t E A, (1)
il
Punkcja jp jest wypukla (i scisle wypukla, jesli X nie jest z prawdopodo-
Xl -I- ... + Xn .!?-. N (O, l) . bieilstwem'l stala), Istotnie, dla O <: a < 1 otrzymujemy z nierównosci
II .jTi
il Hi:ildera z wykladnikami p = l/a i q = 1/(1- a):
II
D o w ód, o Wystarczy udowodnic zbieznosc funkcji tworzacych momenty do
funkcji et-/2 co najmniej na przedziale I, Ze wzoru (4) otrzymujemy 'i/J(at + (1- a)s) = 10gE (eatX ,e(1-a)sx) ,
I
t2 <: log
( EeatX'(l/a) )a ( Ee(1-a)sX.(l/(l-a»
, =
) l-a
I Mx(t) = 1+ -i + o(t2),
= a' log EeLX -I- (1- a), log Eesx = a'i/J(t) + (1- a)'lfJ(s) ,
Z twierdzenia o rrmozeniu wynika, ze funkcja tworzaca momenty po lewej
~ stronie jest okreslona co najmniej na przedziale (-;ntn, ,.jTitn), oraz: Mamy '1/)(0) = O, 'Ipl (O) = EX = m,j/l' (t) ~ Q, jako ze funkcja 'i/J jest wypukla
i dwukrotnie rózniczkowalna.

M .:!l..:t.+Xn (t) = [l + ~ Przedluzymy 7P na caly zbiór liczb rzeczywistych, kladac jp(t) = co dla
f ..,In 2 -I- o (.2)]"
2n n t:..- -----;
'n-OO eL2/2
t '1- 1\..
I l Jestesmy teraz gotowi do zdefiniowaniatmnsJormaty Gmmera:
Zbieznosc ma miejsce faktycznie dla kazdego t ER..
,:1,.1
,
i Powyzszy dowód stosuje sie w szczególnosci do ograniczonych zmiennych
Definicja 1. Trans}'armata Gmmem 'rOzkladu!-tx zmiennej losowej X na-
Przypornina to co losowych. Mozna otrzymac z niego dowód twierdzenia Lindeberga-Levy'ego
prawda wyscigi 10.2.1 metoda ucinania (której zastosowanie widzielismy w dowodzie moc- zywam.y funkcje
\
I w workach,
nego prawa wielkich liczb). H(a) = sup[at - 'Ip(t)],
tER
i
li:

gdzie funkcja zostala zdefiniowana Tównoscia (1),


l
'i/J
§ E.2. Transformata Ctamera. Oszacowanie szybkosci
"

;, zbieznosci w mocnym prawie wielkich liczb Punkcja H jest wypukla. Istotnie, niech A + = l, t, s
!-t ~ O. Wtedy
t

~
Oszacowanie odchyle1'l od sredniej w nierównosci Bernsteina (7,4.2) zawdzie- H(/\a -I- !-tb) = sup[(Aa -I- !-tb)t - A'lfJ(t) - f.t'lfJ(t)] <:
czamy temu, ze funkcja tworzaca momenty liczby sukcesów Sn w schemacie tER
Bernoulliego istnieje w przedziale o dodatniej dlugosci. Rozwiniemy te idee <: Asup[at - 'lfJ(t)] + !-tsup[bt -- 'lfJ(t)] = AH(a) -I- !-tH(b).
tER tER
,lilii 1111.1'11111; I'i, 11'llIlhl'.I11. I,Wtll~,l~(:I\ JlIOll1ClIILy (transformata Laplace'a) § E.2. Transformata Crarnera. Szybkosc zbieznosci w MPWL 383

1'1111/1111,(1 1/ jllHI. UhJiljelll1lH., bowiem 1,b(0) = O, i wreszcie H(a) = ° wtedy Ponadto E Zk = l, k = 1,2, ....
I I.ylk() wt,ecly, gdy a = 1,b1(0) = m. Z nierównosci maksymalnej HAl otrzymujemy, przy spelnieniu (2),
lsl.ol.nie, 1,b(0) = O, z wypuklosci wynika, ze prosta o równaniu y = ax
przecina wykres funkcji w zerze i jeszcze jednym punkcie. D la a # m zawsze
istnieje takie x, ze ax > 1,b(X) , ajesli a = 1,b1(0) , to prosta y = a:r; jest styczna P ( k~n
sUP, Sk k >a ) :( P (sup
k~n eMh-k log M()') ). en(),a-Iog M()'»). :(
do wykresu 1,b w punkcie O, wiec lezy cala pod wykresem 1,b H(rn) = O. i :( e-n(),o-logM(),»

a> 1,b1(0) => H(a) = sup[at -1/;(t)],


t>O Jesli a > 'm, funkcja f(A) = /\0. -logM(A) spe'lnia nastepujace warunki:
I(O) = O, fi (O) = a - m > o, zatem istnieje takie A > O, ze spelniony jest
a < 1//(0) => H(a) = sup[at
t<O
-1/;(t)], warunek (2). Zatem dla a > m marny

Oszacujemy teraz szybkosc zbieznosci w MP\"rL.


P (sup
k-;'n Sk
k > a) :( e-nsllp.\>ol),o,-Iog M()')] = e -n,H(a) .
Twierdzenie 2. Niec!t X, Xl, X21 ... beda niezaleznymi zmiennymi Loso-
wymi o tym samym rozkLadzie, spelniajacymi wanmek Orarrlli.ra. Wtedy Zupelnie ana.logicznie dla. a < 'In marny

Ul: - < a 1:( e-n,sup),<o ),a-logM()')] _ -nH(a)


P (.k-;'nj' S'k)
k. [ - e .
p (sup
k-;'n, I Sk
k" - mi > e) "",,:::2e-n,min(H(m+e),H(m-e)). '
\~ . It ',-'
Ostatecznie
gdzie m = EX I a H jest transformata Cmme.m zmiennej loso'wej X . .1
D o wód. Niech a, A spelniaja warunek P I,,~n I:~'
(~up - mi> e) ""
/" F'' (',
sup Sk
\k-;'n • k > m -I- e ) -I- 111
P (. k-;'n -
k
f' S'k
<m - e ) ""
/"
:( 2e-nmin(FJ(m+e),H(m-e)\\.
Aa - log M(A) ;-;, O. (2)

Ustalmy n ;-;, 1. Niech'T = inf{k ;-;, n: Skik> a} (zwrócmy uwage, ze Przyklad 3. Jesli X,X1,X2,· .. jest ciagiem Bernoulliego, to JvIx(t) =
T = 00, gdy zawsze Skik < a). Mamy = cos11t i nietrudno obliczyc, ze funkeja at-log cosh t przyjmuje maksimum
dla t = ar tgha = ~ log i:::~,o ile lal < l, a jesli 10.1;-;, l, jej kresem górnym
jest 00, W takim razie
P sup -=- > a
k
( k-;'n Sk ) = P: (~ > a,T < 00) = P(e),S' > e),or, T < 00) =
= P( e),S' -T log M()') > e),aT-T log M()') , T < 00) :( H(a) = { 00
~[(1 -I- a) log(l -I- a) -I- (l - a) log(l. - a)] dla lal < l
wp.p.
< P(e),ST-TIOgM(),) > en,(),a-logM(),)),T < 00):(
:( P(supe),Sk-klogM(),) > en(),a-logM(),)),T < 00). Rozwijajac logarytm w szereg potegowy widzimy, ze H(a) ;-;,~a2 Wobec
k~n tego

Oznaczmy Zk = e),Sk-klogM(),) i niech:Fk = a(X1, ... ,Xk)' Wtedy ciag


(Zk, :Fk) jest nieujemnym martyngalem, co nietrudno sprawdzic. Poniewaz p k-;'n I S.k
(sup k I > e) :( 2e-nH(e) :( {2e-~"e2'
O dla.
dla ° :( lc:.•<
c: ;;;. l

Zk = Zk-I e),xk-1og M()'),

mamy

E (Zk I :Fk-1) = Zk-1E (e),x,.-IOg M()') I :Fk-I) = Zk_1Ee),x,-log JvI()') =


= Zk-l . M(A)' e-1ogM(),) = Zk-l.

I
§ F.l. Rozklad Dooba nadmar1,yngalów 385

Pozostala do wykazania jednoznacznosc. Niedi' (M~), (A~) stanowia inna


pare procesów spelniajacych warunki z tw. 1. Wtedy Mn - A" = M~ - A~,
n;;;' O, i gdy Xn = M" - M:" to

Xn = Mn -1\1I~ = An - A~, n;;;' O.

Dodatek,F Z pierwszej równosci wynika, ze proces (.Xn) jest martyngalem, z drugiej


-- ze jest prognozowalny, co daje kolejno równosci ponizej:

Xn = [(Xn+11 F,,) = XnH, n;;;' O,

Teoria optymalnego a poniewaz Xo = O, to Xn = O dla n = 1,2, ... , czyli Mn j\;I~ oraz


=
stopowania An A;, .•

Niech teraz (Un);;"=o be(hie podmartyngalem. Z poprzedniego twierdzenia


zastosowanego do nadmartyngalu (--Un);:<'=o otrzymujemy natychmiast

Wniosek 2. Kazdy podmartyngal (U,,);:<'=o ma dokladn'ie jedno przedsta-


§ F.l. Rozklad Dooba nadmartyngalów
w'iwie Un = Mn + An, gdzie (Mn);:<'=o jest martyngalem, zas (A,,);:<'=o nie-
malejacym ciqg'iem prognozowalnym, takim, ze Ao = O.
W tym paragrafie bedziemy rozpatrywac nadmartyngaly, poclmartyngaly
i procesy prognozowalne wzgledem ustalonej filtracji (Fn);;"=o·
Uwaga 3. Dowolny ciag (Xn) adaptowanych i calkowalnych zmiennych.lo-
sowych mozna przedstawic w postaci X" = Mn + A", gdzie (Mn) jest mar-
Twierdzenie 1 (O rozkladzie Dooha). Kazdy nll,dmartyngal (U,,);:<'=O
tyngalem, zas (An) - procesem prognozowalnym, niekoniecznie rosnacym,
ma jednoznaczne z dokladnosc'ia do r'ó'Wnosc?:p.n. przedstawienie
Widac to z dowodu tw. 1. .Dopiero zalozenie, ze (X,,) jest nadmartyngalem
Un = NIn - A", (l) lub podmartyngalem, zapewnia monol;onicznos'c procesu (An)·

gdz'ie (Mn);:<'=o jest martyngalem, (A,,);:<'=o - niemalejacym procesem. p'ro- Uwaga 4. Proces (An);;"=o jest niem alej acy, wiec ma granice w szerszym
gnozowalnym, Ao = O. sensie, czyli istnieje Ac"" = lim,,_oo A",. Jest to na ogól niewlasciwa zmienna
losowa, bowiem moze przyjmowac wartosc 00 .•
Dowód. Najpierw zdefiniujemy proces (A",). Niech Ao =O i ella n;;;' l: Proces (An)~=() nazywamy kompensatorem procesu (Un);:<'=o, gdyz kom-
",-1 pensuje on (U",);:<'=o do rrlartyngall.l.

An = I:[Uk - [; (Uk-l·ll Fk)]' Rozklad Dooba odgrywa szczególna role przy badaniu martynga.lów (Xn)
k=l
calkowalnych z· kwadratem (takich, ze EX;;. < 00, n = O, l, 2, ... ). Wtedy
Oczywiscie zmienna losowa A", jest .Tn_1-mierzalna. Proces (A,,) jest nie- ciag (X;;) jest podmartyngalem i na mocy wniosku 2 ma rozklad Dooba:
malejacy, bowiem wyrazy sumy po prawej stronie sa nieujemne, jako ze X;; = !VIn + An. Niemalejacy proces A oznaczamy przez (X) i nazywamy
(Un) jest nadmartyngalem. potocznie nawiasem skosnym martyngalu X. Wiele wlasnosci martyngalu
Teraz nie mamy juz wyboru - NIo = Uo i Mn = Un + f t". Jest oczywiste, (Xn) da sie zbadac za pomoca nawiasu skosnego (X), co zobaczymy na
ze zmienna losowa .M", jest .Tn-mierzalna, ponadto kilku przykladach.
Zaczniemy od najprostszych:
NInH - NIn = .un+1 - Un + AnH - An = Un+1 - E (UnHI .Tn) ,

Stwierdzenie 5. Niech (X,,);;"=o bedz'ie martyngalem. Wtedy


i po wzieciu warunkowej wartosci oczekiwanej obu stron widac, ze (Mn)
jest martyngalem:
(a) Jesl'i dla pewnego p > 1 'w rozkladzie Dooba IX"IP = Mn + An mamy
E (MMI - M" I .Tn) = E (Un+l - E (U,,+l I .T,,) I .Tn) = O.• EAoo < 00/ to ciag (Xn) .jest zbiezny w LP.

384
§ F.l. Rozklad Dooba nadmartyngalów 387

(b) (Xn) jest ogmn'iczony w L2 (czyli sUPn X~ < 00) wtedy i tylko wtedy, Twierdzenie 7. Niech (Xn) bedzie nieujemnYrT). podrnar·tyngalem, Xo = O,
gdy E(X)oo < 00. 1: niech Xn = Mn + An bedzie jego mzkladem Dooba. Wtedy

Dowód. (a) wynika i tw. 11.5.6, bowiem {Aoo < oo} C· {(Xn) zbiezny p.n.} C {supX" < oo}.
n
\ I~• f ,I
EIX"IP = EM" + EA" = EMo + EAn, "Zbiezny p.n." oznacza dolda.dniej "zbiezny p.n. do granicy SkOllczonej".
'1
Talea umowe przyjmujemy tez dalej.
i dalej:
supEjXn!P
n
= EMo + supEA"
n
(EMo + EAoo < 00. D o wód. Prawa inkluzja jest. oczywista, dow<j>dzimylewa. Niech a > O
i Ta = inf{ n;;;' 1: An+l > a}. Jest. to moment stopu (który moze przyjmowac
(b). Koniecznosc: wynika z (a) dla p = 2. Dostatecznosc: wartosc 00, bowiem inf0 = 00), co wynika z prognozowalnosci A.

E(X)oo = supE(X)n = supE (X~ - X6) < 00.


Z twierdzenia Dooba. 11.2.8 zastosowanego do martyngalu M (Mo = O) iz
n n definicji Ta wynilm, ze

EXnl\Tu = EN/nI\Tu + EAnl\Tu = 0+ EAnl\To ( EATo ( a.


Otrzymamy teraz pewna pozyteczna reprezenta.cje nawiasu skosnego. Po-
niewaz (Xn) jest martyngalem, to dla k ;;;. l Niech y~' = Xnl\Tu' Jest to na mocy twierdzenia Dooba (nieujemny ) pod-
rnartyngal, ponadto sup" EYr;J·· .;:;; a < 00, wiec na mocy twierdzenia o zbiez-
E ((Xk - Xd21 FI) = E (X~ - 2XkXI + X? I FI) = nosci podrnartyngalów (Y;'L) jcst zbiezny p.n. Dlatego
= E (X~ I FI) - 2XIE (Xk I :FI) + Xl2 =
{Aoo .;:;;a.} = {Ta = oo} C {(Xn) z~liezny p.n.},
=E (X~ - Xl21 FI) =
= E (Mk + (Xh - M- (X)II FI) = poniewaz, na 7,biorze {Ta = oo} jest Xn = Xnl\oo' = 1~~.Stad
00 00
= E ((Xh - (X)ll FI)'
{Aoo < oo} = U{Aoo';:;; a.} = U {Ta = oo} C {(X,,) zbiezny p.n.},
Oznaczajac !:lXk = Xk- Xk-l i kladac l = k ~ 1 otrzymujemy stad a=] a=l

co kortczy dowód .•
E ((!lXk)21 Fk-l) = (Xh - (X)k-l,

a to daje n Twierdzenie 8. Niech (X,,) bedzie mar·tyngalem calkowalnym z kwadra-


te·m.. Wtedy
(X)" = LE ((!lXj)21 Fj_-l). (2)
j=l
(a) {(X)oo < oo} C {(X./t) zbiezny p.n.}.
Przyklad 6. Jesli 6,6, ... jest ciagiem niezaleznych zmiennych losowych, (b) Jesi'i ponadto (Xn) ma. pTZyrosty wspólnie ogmniczone, tj. I!lXnl ( K
E~i = O, Eet < 00, i = 1,2, X" = 6 + ... + ~n, Xo = O, Fa = {0, n},
... ,
p.n. dla n = 1,2, ... , to (X)oo(w) < 00 p.n, na zbiorze
F" = a(6, ... ,~n) dla n;;;:' 1, to ciag (X~,F,,):;o=o jest podmartyngalem i ,
n n {(X,,) zbiezny p.n.}.
(X)n = LE (~;I Fj-l) = LV2Ej,
j=l j=l D ow Ó d. (a). Proces (X;;.ljest nieujemnym podmartyngalem, wiec z tw. 7
wynika, ze j.
zatem nawias skosny jest procesem deterministycznym (nielosowym). - {(X)oo < oo} C {(X;) zbiezny. p.n.} .

Wiadomo (tw. 7.3.2), ze zbieznosc szeregu ~;l V2~j pociaga za. soba
Proces (Xn +1)2 jest takze nieujemnym podma.rtyngalem i (X +l)n = (X)"
(por. (2)). Dlatego
zbieznosc p.n. szeregu ~;l ~j. Jesli ponadto I~il.;:;;
C p.n. dla = 1,2, ... , i
to zachodzi równiez wynikanie odwrotne. {(X)oo < oo} C {(X~) ~l:li~znyp.n.} n {((Xn + 1)2) zbiezny p.n.} =
Ostatnia uwage mozna uogólnic (patrz tw. 8). Przedtem udowodnimy = {(Xn) z~i~~ny p.n.}.
,i!(

r
Dodatek F. Teoria optymalnego stopowania § F.2. Zagadnienie optymalnego stopowania 389
388

(b). Zdefiniujemy mOlTlentstopu IC = inf{n: IXnl > c}. Wtedy Podsumowujac: Za, Zl, Z2, ... , ZT jest ciagiemikolejnych wyplat VI pewnej
grze, w chwilach O, l, 2,... T. Zakladamy, ze ciag (Zt)t(;T jest ada:ptowany
E (X~i\l'c - (X)ni\I'J = O. do pewnej filtracji (Fdt(;T, przy czym Fa = {0, \1}. Ponadto zakladamy,
ze Zt ;;:, O dla t = O, 1,2, ... ,T ..
Poniewaz
Sprecyzujemy jeszcze cel gracza: chce on wycofac sie z gry w takiej chwili,
IX~c I ,,;; IX'~:"ll + IX~c- X~:"ll ,,;;C + K,
by jego srednia wyplata byla jak najwieksza. Stad nastepujaca definicja.
to
E(X)ni\l'c = EX~i\l'c ,,;; (c+ K)2 (3) Definicja 1. Moment stop'u /.I nazywamy optymalnym dla ciagu (Zt)t(;T,
Gdyby teraz P((X)oo = oo,suPn IXnl < (0) > O, to istnialaby taka stala gdy
c> O, ze P(,c = 00, (X)oo = (0) > O, a to stoi w sprzecznosci z (3) .• EZ,/ = sup EZT,
TE8

Wniosek 9. Jesli Xn = 6 + ... + ~n, ~n ;;:, O, EEn < 00 dla n = 1,2, ... , gdzie e jest zbiorem momentów stoP?! o wo:rtosr,:iach w zbior'ze {O, l, ... ,T}.
a ponadto cigg (~n) jest adaptowany do .filtracj'i (F,,), to
Naszym celem jest podanie regul pozwalajacych znajdowac momenty opty-
malne. Wprowadzimy pomocniczy proces - obwiednie Snella (Ud ciagu
(Ztlt.';;T, zdefiniowana w nastepujacy sposób:
{~E(~n I Fn-l) < 00 } C {(Xn) zbiezny p.n.}.
Ut = miL"X(Zt, E (UtHI Ft)), . t,,;; T-I,
D o wód. Wystarczy zastosowac tw. 7 do nieujernnego podmartyngalu (Xn) UT = ZT·
i zauwaZYl;,ze (patrz dowód tw. 1):
n-l Z definicji widac, ze Zt ,;;; Ut dla O ,;;; t ,;;;T, czyli (Ut) dominuje (Zt).

An = 2: E (~k+ll h).
k=O
• Stwierdzenie 2. Obwiednia Snella (Ut) jest nadmartyngalem. Jest to naj-
mnie.iszy narlrna'rtyngal dom,inu,iacy wyj§ciowy ciag (Zt), czyli gdy (Xt) jest
Uwaga 10. Wniosek 9 jest warunkowa wersja pierwszej czesci lemal;u Bo- nadmartyngalcmi Xt ;;:, Zt dla O ,,;; t ,;;; T, to Tówn'iez Xt ;;:, Ut dla
rela-Cantelliego. Zeby to zobaczyc, wystarczy wziac en = lB" / gdzie (Bn) O,,;; t,,;; T.
jest ciagiem zdarzen.
Dowód. Oczywiscie Ut ;;:, Zt, O ,;;; t ,,;;T. Sprawdzimy, ze (Ut) jest nad-
martyngalem. Istotnie, marny
§ F .2. Zagadnienie optymalnego stopowania
UH = maXCZt-l, [; (Ut 1Ft-l)) ;; E (Ut 1Ft-l).
Przedstawimy zagadnienie optymalnego stopowania w najprostszej sytu-
acji. W pewnej grze' w kolejnych chwili:ch t = O, l, 2, ... , T wyplaca sie Pozostaje wykazac, ze (Ut) jest najmniejszym nadmartyngalem dominuja-
kwote Zt, która jest nieujemna wielkoscia losowa. Gracz moze w kazdej cym (Ztl. Niech zatem (Id bedzie innym nadnlartyngalem o tej wlasnosci.
chwili t wycofac sie z gry, inkasujac kwote Zt, moze tez odrzucic te propo- Wtedy f.r ;;:, ZT = UT, a gdy It ;;:, Ut, to
zycje i czekac na leps~y kasek. Decyzje podejmuje na podstawie dotychcza-
sowego przebiegu gry. It-l ;;:,E (It 1Ft-l) ;;:,[; (Ut 1Ft-l),
Jaka strategie powinien przyjac gracz, by zoptymalizowac swoja wyplate? wobec tego
Jesli przez (Ft) oznaczymy O'-ciato zdarzerl, które mozemy zaobserwowac 1t-l ;;:, max(Zt'-l' E (Ut 1Ft-l)) = Ut-l,
do chwili t, to ciag (Ft)t(;T jest filtracja, a proces (Zdt(;T jest adaptowany
do tej filtracji. Strategia, czyli moment wycofania sie z gry, jest zmienna gdzie równosc wynika z definicji Ut-l'
losowa T, przy czym {T = t} E FI> bowiem zdarzenie to powinno zalezec Indukcja wsteczna pokazuje teraz, ze dla kazdego t E {I, ... T} zachodzi
tylko od obserwacji procesu (Zt) do chwili t. Krótko mówiac, T powinna byc nierównosc It ;;:, Ut, wiec (Ut) jest najmniejszym nadmartyngalem dominu-
momentem stopu wzgledem filtracji (Ft); odwrotnie, kazdy taki moment jacym (Zt)· • '
stopu jest dajaca sie zrealizowac strategia·
:JDO Dodatek F. Teoria optymalnego stopowania § F.2. Zagadnienie optymalnego stopowania 391

Twierdzenie 3. lIo = min{t ~ O: Ut = Zd jest optymalnym momentem czyli [Uli = [ZII, co daje Zv = UJ' (z dominacji wiemy juz, ze Zv ~ Uli)'
stopu, czyli Udowodnilismy O) ..
Uo = [Zf/O = sup
TE8
[Z-,.. Zeby udowodnic (ii), skorzystamy z tego, ze (UnU~,T jest nadmartyngalem.
Mamy kolejno

Dowód. Zdarzenie {I/o ~.i} = {lIo ~ j -l}' E f:j-l, oraz U"M ';;N (UIIAT I Ft;) =[ (Uli I Fil , (l)

[(1{1I0;;'j}(Uj" - Uj~t)I FH) = [(l{lIo;;,n(Uj - [(Uj I Fj-l) I Fj_l) = . I


EU,'! = Uo ~ [U'/M ~ EU",
t. = 1{1I0;;'j}[ ((Uj - [(Ui I ~H) l Fj-l) = o,
stad
tak wiec ciag o 'AryraZH:ch
[U"M.= EUII = E (E (Uli 'I'Ft)),
t

Uf/o
t - U 1.1\>'0 = Uo + '"D l{II(J;;'j) (UVO
.i -- [1"0)
:j-J
co raz.em z (l) daje Uli 1\ =' I. t (U" I Ft), wiec ciag (UlIl\t)t~T jest martynga-
.i=l lem, co konczy dowód (i·i) .
~ Z (-i'i) i (-i) mamy kolejno Uo = [Uli = [Z';. Dla dowolnego momentu
jest martyngalem. Poniewaz moment stopu 1/0 ~ T, wiec stopu T E e ciag (U~),.. jest nadmartyngalem, wiec

Uo = U~o = [U:;o = EUIIO = [Z"o' Uo ~ [UT ~ EZT;

Jesli teraz wezmlemy dowolny moment stopu li E e, to ciag (U:',) jest


ostatnia nierównosc wynika z tego, ze U dominuje Z. Zatem
nadmartyngalem i
Uo~ [Uli ~ EZ" .•
[Z" = Uo = sup EZT· •
TE8
Wbrew pozorom, metode otrzymywania optymalnego momentu stopu za po-
moca obwiedni Snella mozna postarac sie zrozumiec intuicyjnie. W tym celu Przyklad 5. Na pewien egzamin, do którego przystepuje n studentów,
rozpatrzmy (kompletnie bezsensowna dla obu stron) gre, w której wypla.ty sa przygotowano n zestawów pytcU1. Wchodzacy losuje jeden zestaw, który nie
nielosowe: zmienne losowe Zt sa stalymi z,. Wtedy obwiednia Snella jest naj- jest juz wykorzystywany powtórnie. Pawel nauczyl sie odpowiedzi na k ze-
mniejszym ciagiem nierosnacym (Ut) dominujacym ciag (z,), a optymalny mo- stawów i teraz obserwuje, które zestawy juz sie pojawily, by zdecydowac,
ment stopu z twierdzenia 3 jest takim (nielosowym) wskaznikiem 1/, ella którego kiedy wejsc na egzamin. Jaka powinien wybrac strategie, by zmaksymali-
Uo = z/) = maxt.~T Zt_ zowac ,srednia szanse zdania egzaminu?
Podamy teraz charakteryzacje momentów optymalnych. \IIhdac z niej, ze I/O Zdarzeniami elementarnymi sa ciagi zero-jedynkowe w = (al,' .. ,a,..), gdzie
jest minimalnym momentem optymai'nym. 2:;~1 ai = Ie, przy
czym ai = l, gdy Pawel zna odpowiedz na i-te pytanie.
Zdarzenia elementarne sa jednakowo prawdopodobne. Niech Xi(w) = ai,
Twierdzenie 4. Moment stopu 1/ jest optymaLny dLa ciagu. (Zt) wtedy i = 1,2, ... n. Obserwujac egzamin do chwili l Pawel zna Xl, X2"'" Xl
itylko wtedy, gdy spelnione sa dwa war'Unlei: i na podstawie tej wiedzy decyduje, czy w nastepnej chwili ma sie wycofac
-- czyli zakonczyc gre wchodzac na egzamin. Innymi slowy, chwila wyco-
(i) ZII = Uli; fania sie jest momentem stopu wzgledem filtracji (Fi), gdzie Fa = {0, D},
Fi = U(Xl1 .. · ,Xi), = 1,2, ... 71,.i
('ii) ciag (Unt~T jest martyngalem. Jesli przez 1~ oznaczymy szanse zdania egzaminu przy wejsciu w chwili
l + l, l = 0,1, ... , 71,- 1, to zadanie Pawla sprowadzi sie do optymalnego
Dowód. =? Jesli v jest optymalny, to EZII = Uo, a poniewaz (Unt~T jest zastopowania ciagu Yo, Yl, ... , y",-l· Jest oczywiste, ze Yo = kin i
nadrnartyngalem i U dominuje Z, to

d. [U" ~ Uo = [ZII ~ EU", Yl


k - 2:;=1 Xi
= --;;-_ -l --,
l = 1, ... n-1.
393
Dodatek F. Teoria optymalnego stopowania § F.3. Opcje amerykanskie
392

Wtedy mozemy utozsamic opcje z ciagiem (Zt)te;;;T nieujemnych zmiennych


Wyznaczymy obwiednie Snella (Ui) ciagu (Vi)· Jak zwykle, Un-l = 1"n-l, losowych, adaptowanym do filtracji (:Ft)te;;;T. Przykladami moga byc ame-
Un-2 = max(1"n-2' E.(1"n-ll :Fn-2))' Zachodzi równosc: rykanskie opcje kupna (sprzedazy) z cena vrykonania K na akcje o cenie
opisanej przez proces S: Zt = (St - K)+ (odp. Zt = (K - St)+)·
E. (V, n-l I:Fn-2 ) = E (k - n-(n-1)
(Xl + ... + Xn-l) \ :Fn-2 ) = Podamy sposób vryceny takiej opcji. Ograniczymy sie do opisanego w § n.8
modelu Coxa-·Rossa-Rubinsteina (CRB.), choc idea przenosi sie na przypa-
=k - (Xl + ... + Xn-2) - [, (Xn-'l I .1'n-2) .
dek ogólny.
Zeby vryznaczyc ostatnie wyrazenie, obliczymy (nieco ogólniej) [; (XI+l I :FI) Przedtem kilka slów o tym, ile powinna w chwili t kosztowac wyplata X,
dla l = 0,1, ... n -1. Poniewaz er-cialo :FI jest skonczone, zatem generowane która nastapi w momencie T. W tw. 11.8.2 wykazalismy, ze wyplata X
przez atomy, dla w E {Xl = al,"" Xl = al} = A, oznaczajac j = 2::=1 ai, jest replikowana za pomoca jednoznacznie okreslonego portfela, i gdy Vt
marny jest procesem wartosci tego portfela, to vVt = Vt! Bt jest martyngalem
wzgledem miary P (zwanej miara mart yngalowa) , a vVo = Vo jest cena Et = (1 +r)'
w chwili O za vryplate X w chwili T. Zatem wyplata X jest w chwili t warta
E (Xl+11 :Fz) (w) = P(A).
_1_ j'A X 1+1 dP -_ P(A n {Xl+1 = l})
(n-(I+l))
k-(j+l) _ !:_.-j _ k-(Xl+ ... +Xl) Vt = BtE (~ \ :Ft) ,
(n-l)
k-j - n_ l - ---.---' n-I = }Ii. bowiem

Stad
it = Wt = E. (WT I :Ftl = E. (~ \ Ft) = E (:1' \ Ft) .

'-'
C' (V1".-1
. I "n-2
'fe -1',,-
) _) .. .l\.1+ ... +.I'-n-2
(V V) k - (Xl. + ... + X,,-2) =y,,_2· Wracamy teraz do kwestii vryceny opcji amerykanskich. W chwili T jej
wartoscia jest Uf' = z,r. W chwili T - l wystawca opcji musi miec tyle, by
VV takim razie Un-2 = 1"n-2· zabezpieczyc wyplate ZT-l w momencie T - l lub ZT w momencie T. Ta
ostatnia wyplata jest w chwili T - l warta
Mozna podejrzewac, ze ciag (Vi) jest martyngalem i w konsekwencji Ui = 1"i
i
dla = O, ... , n. Istotnie,
BT-1E FT-l ) .
(ZTBT \

E (1"1+11 :FI) = E. (Ii; - (Xl ~.·~·l· + Xl+l \ FI) = Tyle tTzeba miec, by zabezpieczyc wyplate ZT w chwili T. Dlatego cena
opcji amerykarlskiej w chwili T - l jest równa
~~ (Xl'±":"':-' +
Xl). _ 1. Yl =
n - (l + l) n- (I + l) .
UT--l = max (ZT-l, BT-IE (~:. \ FT-l))'
= Yl (I + 1)
( n _n-l - n- l).+ l)
(I = yt. Cene opcji dla t= 1,2, ... , T definiujemy indukcyjnie wzorem

Z twierdzenia Dooba wynika wiec, ze dla kazdego momentu stopu T )est


Ut-l = max (Zt-l,Bt-l~'(~: \ Ft-l))'
k Zt/Bt
E1"r = 1"0 =-,n Dzielac obie strony przez Bt-l i oznaczajac U; = Ut! Bt, Z;
otrzymujemy:
zatem,kazda regula stopu jest jednakowo dobra. - U;_l = max(Zt-l' [; (U; 1Ft-l)), t « T;
UT = Z:;,.
§ F .3. Opcje amerykanskie Okazalo sie, ze ciag zdyskontowanych cen opcji ameTykanskich (Un jest
obwiednia Snella ciagu Z; zdyskontowanych vryplat, czyli (Ut) jest naj-
Rozwazmy rynek finansovry opisany w § n.8. Istnieja na nim takze opcje mniejszym nadmartyngalem dominujacym (Z;). Wobec tego otrzymujemy
typu amerykanskiego, czyli takie, które mozna realizowac w dowolnej chwili jako wniosek z wyników § E.2
t E {O, l, ... , T}. Oznaczmy przez Zt zysk z realizacji opcji w chwili t.
§ F.3, Opcje amerykanskie 395
3tlll Dodatelc F: Teoria optymalnego stopowania

Twierdzenie 1. Cena opcji amerykanskiej w chwili ° .jest r'óuma bo skladniki sumy po prawej stronie sa nieujemne, i przynajmniej jeden
z nich jest dodatni.
Uo = Uo = TE8
supEZ;,
Stwierdzenie 2. Niech (Ct,) bedzie pmcesem waTtosci opcji ameTykanskiej
a ponadto Uo = E Z"' gdzie v = min {t: Ur. = Zd. op'isaTl,e.ipr'zez ciag ado,ptowany (Zd t~T, a (Ct) -, opcji eU1'Opejskiej, zdefi-
niowanej przez zmiennq losowa h = ZT" ]Viedy Ct ); Ct·
Jak wystawca opcji powinien zabezpieczyc wyplate? Poniewaz U· Pona.dto, jdli Ct ); Zt dla. kazdego t E {O, 1, ... ,T}, to Ct = Ct dla kazdego
jest nadmartyngalem, to ma. rozklad Dooba Ut = NIi - At.· Istnieje
taki
tE {O,l, ... ,T}.
portfel <I>, ze VT' = VT'(<I» = BT'M'l' (tw. 11.8.2). Z kolei ciag o wyrazach
Ult = 1~/Bt jest martyngalem, wiec
, Uwaga 3. Nierównosci Ct ); Ct naJezalo sie spodziewac, bowiem opcje
Wi = E (WT 1Ft,) = E (MT 1Ft) = MI.· amerykal'1skie daja posiadaczowi wiecej praw niz europejskie.

Zatem Ut = 111ft.- At, tzn. Ut = Vt - AtBt·


D o wód. Poniewaz Ct je~t n~.dmartyngalem wzgledem miary martyngalo-
Dlatego "rystawca opcji moze zabezpieczyc sie w sposób doskonal y: gdy
wcj p i CT = Z:r = (;1", ~o ."
otrzyma zaplate Uo = Vo (<I», to za pomoca portfela <I> generuje bogactwo
Vt = Vt(<I», które w chwili t jest nie mniejsze niz Ut, zatem nie mniejsze Ct ~ E (Gr I Ftl = E (cT I Ft) = c; .
niz Zt. !

Udowodnilismy pierwsza, czesc stwierdzenia. Jesli teraz Ct ~ Zt dla kazdego


Kiedy zrealizowac opcje? t, to c~ ~ Z;, a poniewaz (cn jest martyngalem, wiec tym bardziej nad-
A. Z punktu widzenia nabywcy nie ma sensu realizacja w chwili t, jesli rnartyngalern, to C; ,;;;c~, bowiem Ct jest najmniejszym nadmartyngalem
Ut >
Zt, bo za walor wart Ut otrzymamy tylko Zt; lepiej wtedy sprzedac dominujacym (Zt). Stad wynika równosc Ct = c~ .•
opcje za Ut na rynku. Optymalny moment realizacji T spelnia równanie
UT = ZT (poniewaz Ut ); Zt i UT = ZT), wiec U; = Z;. Przyklad 4. Ceny opcji kupna europejskiej i amerykanskiej sa, równe.
Nie ma tez sensu realizacja opcji po chwili Przypomnijmy, ze Et = (1 + r)t, Zi = (SI. - J{)+ Oznaczmy przez Ct odp. i
Ct: ceny europejskiej i odp. amerykanskiej opcji kupna: z terminem T i cena
v = min{j: Aj+! # O}, wykonania K. Wtedy
x
bowiem sprzedaz w chwili 1/ daje U" = 11,,(<I» i gdy od tej chwili korzystamy
z portfela <I>, to mamy wiecej niz wartosc opcji w chwilach 1/ + 1, ... , T, c;' = (1:r)TE((ST-J()+!Ft) ~
jako ze Ut = Vt(<I» - AtBt i At > dla t> 1/. °
); E (S.j. - K(1 + r)-T 1Ft) = S; - K(l + r)-T.
Zatem T ,;;; v, co pozwala stwierdzic, ze U·'" jest martyngalem:
Ostatnia. równosc wynika. z faktu, ze (Sn jest ma.rtyngalem. Stad
U;l\n = AI"'l\n - ATl\n = MTl\n,

poniewaz T 1\ n ,;;;v i w efekcie ATl\n = O. CI. ~ SI. - K(l + r·)-TH ); SI. - K.


Podsumowujac, najlepszy moment realizacji opcji jest optymalnym momen- Poniewaz Ct ); 0, mamy Ct. ); (St - K)+ = Zt i ze stw. 1 wynika, ze
tem stopu dla cia,gu zdyskontowanych wyplat (Zt), bowiem spelnione sa Ct = Ct .•
warunki (i) i (ii) twierdzenia F.2.4.

B. Z punktu widzen'ia wystawcy opcji: wystawca korzysta z portfela <I>, a jesli VlTinnych przypadkach (np. opcji sprzedazy, opcji kupna na aktywa przy-
nabywca opcji zrealizuje ja w momencie T innym niz optymalny, to U; > Z; noszace dywidendy) równosc nie zachodzi.
°
lub AT > (jesli AT = 0, to (U;l\t) jest martyngalem; jesli ponadto U; =
Z;, to T jest momentem optymalnym). Zatem w innym, nieoptymalnym
momencie T wystawca opcji ma dodatni zysk

VT(<I» - ZT = (UT + ATBT) - ZT = BT(U; - Z;) + A.,.ET > 0,


do rozdzialu 1 397

13. Rozw. Z poprzedniego zadania

[-1, 2] ~ U(U + 'UJi) ~ [0,1].


i=l

Wobec tego
Odpowiedzi i wskazówki
3;: :Z'::>(U + Wij;: 1.
i=l
To jest jednak niemozliwe: zbiory U +Wi sa rozlaczne na mocy wyniku zada-
1. Opis doswiadczenia losowego nia 11 i maja jednakowe miary, bowiem miara jest przesuwalna. Sprzecz-
J.1

nosc konczy dowód.


1.1. Przyklady. Aksjomaty teorii prawdopocjobienstwa

1. Odp. a) (A n BI n CI) u (Al n B n C') u (Al n B' n C).


b) (A n B n CI) u (A n B' n C) u (A' n B n C). 1.2. Przeliczalny zbiór zdarzen elementarnych
c) suma zdarzenia z poprzedniego punktu i A n B n C.
1. Odp. 2:;;"=1 T"''' = (2m - 1)-1.
2. Wsk. Nalezy skorzystac z tw. 5, W7 i zasady induktji, a ella przeliczalnie
wielu skladników takze z tw. 7. 2. Rozw. Paradoks wynika z faktu, ze nie istnieje rozklad prawdopodobienstwa,
3. Wsk. Patrz tw. 5, W7. który przypisuje kazdej liczbie naturalnej to Samo prawdopodobienstwo (dla-
czego?). Natomiast gdyby ograniczyc zbiór' liczb, z których maszyna losuje,
4. Rozw. P(B) = P(A U B) + P(A n B) - P(A) = ~,stad P(B') = ~. do zbioru SkoIlczonego, to rozumowanie graczy prowadzace do paradoksu
P(A n BI) = P(A \ A n B) = P(A) - P(A n B) = f2. byloby falszywe.
P(B \ A) = P(B \ A n B) = O.
3. Rozw. Niech B bedzie zbiorem liczb parzystych, i niech C sklada sie z liczb
5. Rozw. P(A U E) = P(A \ B) + P(B \ A) + P(A n B), stad P(A \ B) '=
parzystych z przedzialów postaci [22",22"+1 J., n ;: O, i liczb nieparzystych
= P(B\A) = g, z przedzialów postaci [22"+1,22"+2], n ;: O. Wtedy B, C E g, ale B U Cif. g.
P(A) = P(A \ B) + P(A n B) = ~.
6. Rozw. P(B) = P(AUB)+p(AnB)-p(A) = ft+l-~ = f2 (skorzystalismy
ze wzoru de Morga.na). 1.3. Prawdopodobi011stwo geometryczne
P(AI n B) = P(B) - P(A n B) = ~.
7. Rozw. P(A U B) = P(A) + P(B) = l, poza tym A' U B A' i A U E' = B'.
=--;
1. Odp. Wszystkie funkcje sa rówlle zeru dla a ~ O i 1 dla a ;: 1. Natomiast na
Rozw. l ;: P(BUC) = P(B)+P(C)-p(BnC)
odcinku (O, J.) marny:
8. ;: 5P(A)-·p(AnB) ;: 4P(fI).
I ograniczenie dolne: l = P(D) = P(A U 13U C) ~ 6P(A). 1
9. Rozw. Zdarzenie "reszka pojawi sie najpózniej w n-tym rzucie" sklada sie z n dla a ~ l'
ira) = {[I1 dla >,
dla aa ~, g (a) ~ {Oa dla a > 3'
zdarzen elementarnych i ma zerowe prawdopodobienstwo. Z drugiej strony,
dopelnieniem zdarzenia "reszka pojawi sie w skonczonej liczbie rzutów" jest h(a)=2a-a2, k(a)=a2•
zdarzenie jednoelementowe, ktÓre znów ma prawdopodobieilStwo rÓwne zeru,
zatem szansa, ze reszka pojawi sie w SkoIlczonej liczl:J'ierzutów wynosi 1.
Przeczy to przeliczalnej addytywnosci i zdrowemu rozsadkowi. 2. Odp. a) ~, b) ~.

11. Rozw. Istotnie, jesli x E U + u i x E U + w, to x = Ul + 1/.= 'U2 + w, gdzie 3. Odp. ~ (jak otrzymac ten wynik bez obliczen?).
ul,112 E U. Ale Ul = 'U2 + (w - U) oznacza, ze Ul ~ 'U2, co stoi w sprzecznosci
z definicja zbioru U. 4. Odp. l.
12. Rozw. Niech x E [O, l]. Rozpatrzmy klase abstrakcji [x]. Wtedy Un[x] = {xo}, 5. Rozw. Poniewaz jest wszystko jedno, w którym kwadracie znajdzie sie srodek
gdzie Xo E [O, l]. Oznacza to, ze Xo - x jest liczba wymierna Wj z przedzialu monety, przyjmiemy, ze !1 = [O, a] X [O, aj i P(A) = ~. Reszte wyjasnia
[-1,1], czyli x E U + Wj. rysunek.
(
396
:l\IH Odpowiedzi i wskazówki do rozdzialu 2 399

tym, ze prosta przecinaja boki .j i j, zas przez P'i.i jego prawdopodobienstwo.


te Niech A = UI~'<j"n Aij. Poniewaz zdarzenia 'Ai) wykluczaja sie, mamy

P(A) =
]~1:
L
<j~n
Pi.i (P12 + PI:J + ... + ]Jln) +
a
+ (P2:J + P24 + '" + P2~,) + ... + Pn-l,n.
Zdarzenie Ai = Ui
Ai,i polega na tym, ze i-ty bok przecina prosta. Jesli
jego dlugosc oznaczymy przez li (li < l, ponie.waz srednica wielokata jest
mniejsza od l), t.o z poprzedniego zadania manlY P(Ai) = 2li/7r. Z drugiej
strony P(Ai.) = I:;~l Pij, gdzie przyjmujemy Pii = O. Poniewaz Pij = Pji, to
"'" ' 2
Szukane prawdopodobienstwo
:2
lt2 2
wynosi ~2d)
} ') (A) -- l L':"
- ..
p,.J -
- -l L" -2li -.
--
-
l Ln --
l,. - S.
6. Odp. a) (a:;,') ; b) ca ::r ). 2
i=l .1=1
I.:" 2
t.=l
7f 7f'7f
i=l
7. Rozw. W bardziej abstrakcyjnym sformulowaniu zamiast. podlogi wystepuje
nieskonczona plaszczyzna i zbiór równoleglych prostych, przy czym odleglosc Jak widac, prawdopodobieJ'lstwo zalezy wylacznie od obwodu S wielokata,
miedzy sasiednimi prostymi wynosi a. Zeby wiedziec, czy igla przetnie któ- a nie od liczby boków fi icJJ,dlugosci. Dlatego wynik przenosi sie na wypukle
rakolwiek prosta, t{'z~ba znac odleglosc d srodka igly od najblizszej prostej krzywe zamkniete: kazda taka krzywa jest granica wielokatów wypuklych.
l
u dolu (O :( d < a) kat a, jaki tworzy prosta z igla (O :( a < 7f, poniewaz 10. Odp. 1/3.
nie rozrózniamy konCów igly). Przyjmiemy w takim razie S1 = [0,7f) X [0,0.) *11. Rozw. Niech l bedzie ustalonym podprzedzialem o dlugosci e. Wtedy
i
P(A) = Ai:).
P(1 nie zawiera zadnego punktu):( ,
:( P(I nie zawiera n pierwszych punktów) :( (1- er -> O,

gdy n -> 00. Dalej nalezy rozwazyc wszystkie przedzialy o koncach wymier-
nych.

1/2 --j

O
/'
........••..... ~ -' ~-
re
2. Klasyczna definicja prawdopodobienstwa
2.2. Typowe

1. Odp. 221
bledy

1,124 . 1021 Osobom o zacieciu sportowym proponujemy wyzna-


~

czenie wszystkich cyfr tej liczby przy uzyciu np. wzoru Stirlinga (dodatek A)
Igla nie przecina prostej wtedy i tylko wtedy, gdy spelniony jest uklad nie- i kalkulatora z wyswietlaczem ID-cyfrowym.
równosci
2. Odp. a) 2·5· 8!/10! = 1/9; b) 8· 3! ·7!/101.
-- t~
{d d + a>
s~na
S111 < O.
a. 3. Odp. m (~)/m· W 2a widac t.eraz,
ze rachunki byly
Odpowiedni podzbiór S1 zost.al na rysunku pomalowany na szaro; jest to 4. Odp. b.
niepotrzebne.
zdarzenie przeciwne do podanego w zadaniu. R.ysunek odpowiada sytuacji, 5. Odp. Lat.wo obliczyc prawdopodobienstwo P, ze beda same czerwone kart.y:
gdy l :( a. Wtedy latwo obliczyc pole obszaru, który nie zostal pomalowany p = C66) / (~2). Szukane prawdopodobienstwo to 1,-- 2p.
na szaro:
S =2 - sin ada = 2l. 6. Odp. 41:J/(~;).
1"l2
o
7. Odp. a) p = C53) (~3) C33W1:J) / (~~); b) 24p; c) 12 . (:;W}) 2 C2:J)/ CD;
Zatem szukane prawdopodobienstwo wynosi ~.
d) 4 . C4:J):J(\:J) / (~~).
*9. Rozw. Zalózmy, ze wielokat przecina jedna z prostych. \~Ttedy prosta prze-
cinaja dokladnie dwa' boki, co wynika z wypuklosci i z faktu, ze srednica 8. Odp. 9~~?!.
wielokata nie przekracza L Oznaczymy przez Aij zdarzenie, polegajace na 9. Odp. Tyle, ile konfiguracji n nierozróznialnych kul w 6 komórkach.
400 Odpowiedzi i wskazówki do rozdzialu 3 401

10. Odp. Tyle, ile wszystkich podzialów a) 8; b) 4 paczków pomiedzy 4 osoby. Obiekty makroskopowe w naturze sa rozróznialne. Kostki zachowuja sie tak,
jakby byly pomalowane na rózne kolory.
11.
Odp. (n+~-l).
12. Odp. a) (~~); b) G~).
21. Odp. 1- (1- 3i5 r', gdzie n - liczba osób. Prawdopodobienstwo to przekracza
13. ~ dla n) 253.
Odp. Zdrowy rozsadek wskazuje, ze próbka 100 ryb, zawierajaca 8 ryb ozna-
22. Oc/p. Szanse co najmniej jednej koincydencji, czyli l - Po, mozna wyznaczyc
kowanych, jest miniatura calej populacji. Zatem ryb jest mniej wiecej n =
ze wzoru wl.aczen i wylaczen. Dalej, obliczanie Pk mozna sprowadzic do obli-
= 200· l~O = 2500. Mozna udowodnic, ze dla takiego n szansa otrzymania
8 oznakowanych ryb w próbce 100 ryb jest najwieksza. czania Po· Ostatecznie Pk = h [1-1 + tr - ... ± ("~k)!] i limn_oo Pl; = he-l.
4' ola! 23. Odp. a) 4· Ci) en; b) niech Pl oznacza szanse otrzymania 6 pików, a pz-
14.
Odp. a) .(131)
(g,':' . b) Nalezy obliczyc prawdopodobienstwa, ze ustalony
. gracz 6 pików i 6 trefli. Wtedy szukane prawdopodobienstwo jest rÓWIle4Pl - 6pz
nie ma pików, ze ustaleni dwaj (trzej) gracze nie maja pików, a nastepnie na mocy wzoru wlaczen i wylaczen.
skorzystac ze wzoru wlaczen i wylaczen. c) Patrz b. 24. Oc/p. Wszystkich rozmieszczen jest (~) . 6!; wolny pokój dwuosobowy mozna
15. Odp. Wszystkich zdarzen elementarnych jest C;l), a oto liczba zdarzerl sprzy- otrzymac na 7· 6! sposobów, a trzyosobowy na 6! sposobów.
jajacych dla poszczególnych konfiguracji: para - 6· (~) (D· 4'; dwie pary- 25. Odp. (1+x)" = L~=o (z)xk, zatem po zrózniczlwwaIliu mamyn(l+x)n-1 =
m@z.16;straight-2(45-4); trójka- 6· C)· m ·42; full- 6· m ·5· (~). = L~=l k (Z) Xk-1 Jesli n > 1, to wzór ma sens dla x = -l i jest to zadana
kareta - 6·20 = 120, kolor - 4·4 = 16, poker - 4·2 = 8. tozsamosc.
16. Odp. (~4)/ (~9). Zeby otrzymac ten wynik, wyobrazmy sobie, ze kule z wylo- 26. Odp. Zastanowic sie, ile komisji z przewodniczacym (i ew. zastepca) mozna
sowanymi liczbami pomalowano na czarno, a reszta kul jest biala. Ustawiamy wybrac sposród n osób. W (l) otrzymujemy n2"-" w (2) n(n - 1)2"-z.
w rzad 43 biale kule i wybieramy 6 z 44 luk (42 pomiedzy nimi, dwie przed
27. Oc/p. C:). Tyle samo jest podzialów zbioru n kul bialych i n kul czerwonych
i za), w których umieszczamy czarne kule..
na dwie równe czesci ..
17. Odp. Zbiór n-elementowy mozna rozbic na k zbiorów, których liczba elemen-
tów wynosi Tl, TZ, .•. , Tk, na
n! 3. Prawdopodobieiistwo warunkowe
TI!rZ!'" Tk!
3.1. Definicja i przyklady
sposobów (patrz przyklad 11). Konfiguracje wymieniona w zadaniu mozna.
2. Odp. 1/2.
otrzymac na
---.---
lO!
2!6!111! 312!1!1!
7! 3. Odp. Trzeba pokazac, ze

sposobów. Stosujemy tu wzór z przykladu 11 dwukrotnie: po raz pierwszy, P(AID) > P(A), P(BID) > P(B), P(A n BID) < P(A n B).
dzielac pietra mi. cztery kategorie ze wzgledu na liczbe pasazerów, i po raz
drugi - dzielac pasazerów pomiedzy pietra. Wszystkich zdarzeil elementar- Przykladem ta.kiej sytuacji .moze byc doswiadczenie polegajace na wycia-
nych jest oczywiscie 107. gnieciu jednej karty z talii 52 kart. Niech zdarzenie A polega na wyciagnieciu
pika lub kiera, zdarzenie B - trefla lub kiera, nal;omiast zdarzeniu D sprzyja
Konfiguracje pod}~nego typu mozna bez trudu wypisac (jest ich 15).
wyciagniecie ,).:;a,lub króla kier, lub trefla nie bedacego asem, lub pika nie
18. Oc/p. W pierwszym przypadku prawdopodobienstwo wynosi 1 - (l - i)4 ;:::, bedacego asem.
;:::,.0,5177, w drugim -- 1 - (l - :k )2<1 ;:::, 0,4914. Obie liczby sa wyrazami
5. Oc/p. Niech p oznacza prawdopodobieilstwo nadania chlopcu drugiego imienia
znanego ciagu, przyblizajacego liczbe 1-e-~. Warto sie zastanowic, dlaczego
Pranek. Wtedy szukane prawdopodobienstwo wynosi ~. Zauwazmy, ze dla
de Mere mógl uwazac oba prawdopodobienstwa za równe.
p:=, l otrzymujemy 1/3, czyli odpowiedz z przyldadu :l.
19. Odp. Prawdopodobienstwo w pierwszym przypadku jest równe l -~. ;:::, 6. Odp. a ~ 1/2.
;:::,0,665, w drugim - 1- 512
[GIT + 12 . 5.11
GIT] ;:::, 0,619, w trzecim
_ - l - [518
(;TS' + 7. Oclp. a) 3/11, b) 5/13, c) 3/7
+ 18 . 6TIf
517 +(18)
z ij1lf];:::'
510 0,5838.
20 . Oc/p.Gdyby kostki zachowywaly sie jak obiekty nierozróznialne, oba praw- 8
.
Odp
..
P(AIB)
...
- (~)(;")
- (.~2H~8)'
P(AIC) -
-
(~W;)
('52)-('5°)'
P(AID) -
-
men
c-:;r)'
dopodobienstwa bylyby równe 6/56. Dla kostek rozróznialnych
Wystarczy im 9. Oclp. ('~o)/ ("1,,1).

teoretyczna
mozliwosc
P(
"II") = 216
27 > 216
25 = P(''')
,,12. 10. Odp. a) (;) (~~)/ (~;), b) (~;) / (~;).
pomalowania? "
-----. .......• .....-:: -- .. ~ ••• •••• •••
III' Odpowiedzi i wskazówki do rozdzialu 4 403

I I, I ),111 II,) C~:)/ ((~;) - C~)) = G~)/ (~;); b) (~~) / ((iD - G~)); n. Odp. Wydaje sie to byc sprzeczne z intuicja, gdyz na mocy wzoru na praw-
Hi hl1lllllt, .lt~tjl,
e) G~)/W~) - (~8)). dopodobieJlstwo calkowite P(AIB) jest srednia z P(AIB n C) i P(AIB n C'),
l,ntl NI\.Ill:
W,j~111d1!ll\
a P(AIB') jest srednia z P(A.IB' n C) i P(AIB' n C'). Ale odpowiednie wagi
lIcznikIl Il1l100Y
IV
ilosc ukll1d6~ b~z 12. Odp. 1- 3[(~;)/(~~)
- G;)GD/G~)G~)]· moga byc rózne i w rezultacie (1) i (2) moga zachodzic jednoczesnie. Gdy
asa) w 13. zdarzenia B i C sa niezalezne, to para.doks nie moze zajsc.
Rozw. Zle konstruuje model, wybierajac zdarzenia elementarne. Nie bierze
mianowniku
pod uwage wariantów odpowiedzi straznika. Straznik mówi, ze zostaje B
12. Odp. Mozna to udowodnic indukcyjnie, lub wykorzystujac symetrie zauwa-
wykluczamy
z prawdopodobienstwem 1, gdy zostaja A i B, a z prawdopodobioilstwem zyc, i,e prawdopodobieJlstwo wyciagniecia za. n-tym razem kuli czarnej, gdy
uklady a) z asem
pik; b) z dwoma 1/2, gdy zostaja B i C. Analogicznie, straznilc mówi, ze zostaje C z praw- nie znamy wyników poprzednich losowa!'l, jest równe prawdopodobiellstwu
czarnymi asanli; dopodobienstwem 1, gdy zostaja A i C, a z prawdopodobieilstwem 1/2, gdy wyciagniecia za pierwszym razem kuli czarnej!'
c) z czterema zostaja B i C. Stad prawdopodobienstwo warunkowe, ze wyjdzie A, gdy zna 13. (-';!d)(-;;"!~)
asami. odpowiedz straznika, jest równe = (-(c~b)ld)

1/2·1/3 . Uwaga. Dla a, E Il. definiujemy (~) = "Ca-.l)'i;;,,-k+l).


1/2· 1/3 + ° + l . 1/3 = 1/3, 14. Odp. Korzyst.ajac ze wzoru na prawdopodobie!\stwo calkowite nalezy napisac
równauia rekurencyjne na q"" a. = O, 1,2, ... , c.~Gdy p = 1/2, to prawdopo-
a nie 1/2, jak sadzil A (skorzystalismy z definicji prawdopodobieilstwa wa- dobiei1stwo CI" ruiny gracza A jest równe qa = 1 - a./c, gdy p ~ 1/2 to
runkowego i ze wzoru na prawdopodobienstwo calkowite). Tego nalezalo sie
spodziewac, gdyz informacja straznika z punktu widzenia A nic nie wnosi. (q/p)'" - (q/p)"
Wiadomo, ze co najmniej jeden z wiezniów B C zostaje. i q", = 1- (q/p)C
Warto zastanowic sie nad uogólnieniem tego zadania: straznik moze loso- gdzie q = l - p,-
wac odpowiedzi z prawdopodobienstwami róznymi od 1/2 albo w ogóle nie
Zaskakujace sa 'wyniki liczbowe np. gdy a. = 500, c = 550, to dla p = 1/2,
lo~owac, tylko np. 'wybierac alfabetyczniel. q". = 1/11, a dla p = il'S';38 (ruletka amerykanska) qa ~ 0,99485.

15. Odp. Mozna skorzystac,z poprzedniego zadania; nalezy jedynie uzasadnic


3.2. Wzór na prawdopodobienstwo calkowite i wzór Bayesa przejscie grauiczne przy"c -, 00 -- patrz przyklad 11.2.l6B.
Niech q = 1.- p. Gdy p ;?: q to prawdopodobienstwo .P(V\f) wygranej gracza
fO x11t(l_x)n-m dx . b
A jest równe P(W) = 1, a gdy p < q.LO P(W) = (P.)
q
np. w ruletce ame-
1. Odp. Ja Bayes próbowal udowodnic, ze sa duze szanse na
r"l xPn(l_x)n.-"", .' dx
to, ze p jest bliskie mln i podal metode obliczania prawdopodobienstwa, ze rylca.nskiej (p= 18/38) prawdopodobiCl1stwo wygrania 50 zl przez gracza A
p E [a, b] przy znanej liczbie sukcesów porazek. i jest równe (O, 9)50 ~ 0,00515.

2. Odp. 0,76. 15a. Odp. 1/8. Jest to szczególny przypadek poprzedniego zadania.

3. Odp. 7/15.
16. Odp. 1/2,.-1
_ . 1+(1-21lr1-l
4. Odp.3/5. 17. Odp. (1 - p) 1+(1-2p)"

5. Odp. 2k/(3n - kl. 18. Odp. Psychologowie (D. Kahneman, A. Tversky) stwierdzili, ze typowa od-
powiedz oscyluje w poblizu 80%; faktycznie szansa wynosi ok. 41%.
6. Wsk. Patrz przyklad 8. Odp. 1/2.
19. Odp. Okolo polowy respondentów twierdzi, ze 95%. Mniej niz jedna piata
7. Odp. Po wylosowaniu kuli bialej nalezy losowac z tej samej urny, po wyloso- udzielila prawidIowej odpowiedzi: 2%.
waniu czarnej - z drugiej urny.
8. Odp. 4/15. 4. Niezaleznosc zdarzen
9. Odp. Lepiej posluchac Pawla: prawdopodobienstwo,
wiedz jest równe 5/8.
ze poda dobra odpo-
4.1. Definicja i przyklady
10. Odp. 2/3. 3. Odp. a), b) nie.
4. Odp. lOp(l _ p)9.
l Obszerna dyskusje dylematu wieznia mozna znalezc w: Jerzy Lukaszewicz, Problem
SerbeZlani, czyli O warunkowym prawdopodobienstwie ulaskawienia skazanca, \>Viadorno- 5. Odp. a) pn, b) (1- p)n, c) np(1- p)"-l.
sci Matematyczne, XXIX.2 (1992), ss. 179-187. 6. Odp. 4/7, 2/7, 1/7
404 Odpowiedzi i wskazówki do rozdzialu 5 405

7. Odp. Lepszy - slabszy - lepszy. Rozsadnie byloby podzielic stawke proporcjonalnie do prawdopodobienstw
wygranej, czyli w stosUl~lm T : l - T, bowiem wtedy, jak pisano juz w XVII
8. Odp. 7~3;~!(~rm3m4 "" 0,0027. wieku, "nadzieja moralna" , równa wysokosci ~,tawki pomnozonej przez szanse
9. Odp. Niech q = 1;- p. a) q2[q -\- q2 -l],
b) (1- p2)p(1 _ p3). jej wygrania, jest dla obu graczy równa. Analiza takich zagadnien doprowa-
10. Wsk. Dowód niewprost. Gdyby istniala taka dyskretna przestrzel} probabili- dzila do pojecia wartosci oczekiwanej (patrz rozdz. 5).
styczna, to dla kazdej w E llmielibysmy P(w) = O. 8 . Od' p. 151'+1
l dl a p --' q l -, -1=-;IT
1 dl a p --I-
r q, g d'zle z -- l=g,
l..•pz --r=-z- l-p'
11. Od p. -!!-e
(pA)' -pA l l -- ° ) l )'"
9. Odp_ 5/11.
12. Odp_ a.
13. Odp. Jest to efekt losowania. Pojawienie sie wypadku nie ma wplywu na 4.3. Lemat Borela-Cantelliego
prawdopodobienstwo, ale jest wskazówka, ze wybrana losowo osoba ma wiek-
sza sklorinosc do wypadków. 1. Odp_ O, chyba ze P(Ai) = ° dla i= 1,2,. _. -- wtedy 1.
14. Odp. 0,0165. *2. Odp. Szk?:c TOzw·iazo.n:ia. Niech Bk = Ui, <i,< ...<i" (Ai1 n ... n Ak)' Wtedy
n:=1 Bk = limsupA,,; Bk jest zstepujacym,ciagiem zdarzen, wiec
4.2. Schemat Bernoulliego

1. Odp. a) l - mlD, b) (30)m3(~)7. p(nBk) lim P(Bk).


= k-oo
k=1
2. Odp. C:);jk. Niech Cn bedzie zdarzeniem polegajacym na tym, ze w ciagu prób Bernoul-
3. Odp. a)fo, b) ~. liego liczba reszek jest równa liczbie orlów po raz pierwszy w n-tym kroku
4. Odp. 1-l-(1;2P)n i niech C = U:'=1 Cn. Zatem wystarczy pokazac, ze
a) P(Bk) = [p(C)]k dla k = 1,2,. _.
*5. Odp. Niech So = :z:::r~gl e"k)' i niech SI i S2 beda sumami wyrazów po-
b) P(C2n+tl = O, P(C2n) = 2Ll (2n,,-I) . 22L"
staci odpowiednio ekn~l) i (3~~2)' tak by So -\- SI -\- 092= 2". Dalej, niech
wiec P(C) = :Z::::'=lP(Cn) = l, bo P(C2n) jest równe wspólczynnikowi przy
i
'el = cos ~ -\- sin ~ oraz e2 = er = cos T -\- sin T beda zespolonymi i s2n w rozwinieciu Taylora funkcji f(8) = l - (l - 82) l.
pierwiastkami trzeciego stopnia z jednosci. Wtedy (2p)n

So -\- elSl -\-e2S2 = (l -\- etJn 3. Odp. Jesli p < ~, to P(A,,) < a gdy p ;:, ~, to P(A,,) ;:, l - e-n-
2"pn,
i korzystamy z lemat.u J3orela- Cantelliego.
So -\- e2S1 -\- el82 = (l -\-e2)'"
4. Odp. 0= 1- P(U::"=1,4n) = lim,,_.oo rr=1 (1 - Pi), a stad :Z::::l Pi = 00, i
Stad mozna wyznaczyc korzystamy z lematu Borela-Cantelliego.

5. Zmienne losowe
80 = ~(n)3k
~ = 1('"
'3 2 -/-2 cos 3'"1'/.'1[') .
5.1. Definicja; .rozklad zmiennej losowej
Podobnie,
[';fI l. Raz'W. Oto przyklad. Niech B C R bedzie zbiorem niemierzalnym. Niech
=-2-\-2'cos-. X,,(w) = l{al (w) dla a E B = A. Wtedy sUPaEB X", = lB·
I::
k=O (n)
4k 41 [ " !l;12 Li
'f!?1']
2. Rozw. Niech X ma rozklad jednostajny na (O, l). Wystarczy wziac cp(x) =
Juz w przedszkolu
wiedza, ze a-cialo
Jesli n -> 00, szansa otrzymania liczby sukcesów podzielnej przez k zmierza = lA(:u), gdzie A jest mierzalny w sensie Lebesgue'a, ale nie jest zbiorem borelowskie jest
borelowskim.
do lik, co widac z powyzszych wzorów ella k = 3,4. W ogólnym przypadku mniejsze od klasy
zbiorów
tez tak bedzie, jednak wyprowadzenie odpowiednich wzorów nie jest latwe. 3. Odp. '* Rzut
?1'i:Rn R, zdefiniowany zaleznoscia ?1'i(Xl,... xn) = Xi, jest
---->
mierzalnych
funkcja borelowska. w sensie
6 . Od p. (2m.- l ...•k·
m k) 22n~
~ Wystarczy zauwazy":, ie <:biory postaci El x ... x Bn, gdzie Bi E B(R), Lebesgue'a.
7. Odp. Gdyby kontynuowano gre, szansa wygranej gracza A wynioslaby
generuja B(Rn) ..
4. Odp. a) o-(X) = {{2,4,6},{1,3,5},0,O}.
r= I:: k-l P "-1(1 -p )k-a p.
a+b-l
k=a ( a-l ) b) o-(X) - klasa pierscieni o srodku w punkcie a.
lUli Odpowiuu\\i i wskazówki do rozdzialu 5 407

tl, (id/l I'(X 1.:) = ;U(l p)k I, k = 1,2, .... Poniewaz Y = X-l, to 17. Odp. Przy losowaniu z rocznika statystycznego (ale juz nie z tablic mate-
I'(\' = k) "" 1'(1- p)k, k = 0,1,2, ..... matyczno-fizycznych) najczestsza pierwsza cyfra znaczaca jest 1. (ok. 30%
6. Odp. P(Xn > t) = ~n - Ajn)lntj n-ex:> --. e-At, gdzie t:) O, ). > O. Stad natych- próbki). Teoretycznie szansa pojawienia sie k jako pierwszej cyfry znaczacej
wynosi 10glO(k-I- 1) - IOglOk. Oto szkic wyjasnienia: niech zmienna losowa
miast wyznaczamy dystrybuante graniczna. Jest to dystrybuanta mzkladu
X reprezent.uje liczbe z rocznika. Pierwsza cyfra znaczaca bedzie k, gdy dhL
wykladniczego, któiego gestoscia jest
pewnego calkowitego n
f(t) = ).e-A1l\o,oo)(t), ). > O.
k· 10" :::;X < (k -I-1) . 10",
7. Razw. Niech AT,. = {x:j.L({:r}) :) ~}. Wtedy #AT,:::; n i U:7'=1 A" jest zbiorem
czyli
punktów skokowych.
10gIOk + n:::; loglO X < 10glO(k -I-1) -I-n,
8. Odp. Rozklad ma nieciagla dystrybuant;e, zat.em nie moze byc ciagly. Jed-
j.L

co sprowadza sie do warunku Y = 10glOX(mod 1) E [lOglOk, 10glO(k-I-1)).


noczesnie ma tylko jeden punkt skokowy (O), ale skok dyst.rybmmty w tym
punkcie jest równy 1/2, rozklad nie moze byc zatem dyskretny. Ale mozna sie spodziewac, ze zmienna losowa loglo X ma gestosc g rózna od
zera na cllugirn przedziale i niewielkie maksimum. Dlatego gestosc zmiennej
10. Raz'W. '* Wystarczy zauwazyc, ze jesli rozklad I~ jest skupiony na zbiorze
losowej Y, wyrazajaca sie wzorem
przeliczalnym S, to j.Lj jest skupiony na 'Trj (S), gdzie 'Trj oznacza rzut na .i-ta
wspólrzedna·
{= Jesli rozklad brzegowy Pi jest skupiony na przeliczalnym zbiorze Si, .i =
1,2, ... n, to IJ,(S1 x ... X Sn) = 1, czyli rozklad p. jest skupiony na podzbiorze
9Y(X) = L
k=-oo
g(x -I- k)

zbioru przeliczalnego. rózni sie niewiele od gestosci rozkladu jednostajnego (podobne zjawisko wy-
11. Rozw. Skorzystac z twierdzenia Fubiniego. stepuje w ruletGe: liczba obrotów kola zredukowana modulo 2'Tr powinna miec
12, Rozw. Niech bedzie miara Lebesgue'a skoncentrowana na przekatnej kwa-
j.L
rozklad jednostajny).
dratu jednostkowego'.
13. Razw. Niech E: E [O, l]. Z tabeli widac, ze rozklad laczny zalezy od E:, a roz- 5.2. Wlasnosci dystrybuanty rozkladu na R
klady brzegowe nie.
1. Raz'W. Nalezy rH1Jpwrw sprawdzic, ze definicja. jJ jest poprawna. Istotnie,
-
--32-Jl'll O]lE:~-I-E:
X=- t-=--
~ E: ~-'-- O :;
lcazdy niepllsty zbiór z A przedsta.wia sie jednoznacznie w postaci sumy nie-
Y=l 3 8l' :2 i-E:
pustych przedzialów pólotwartych o rozlacznych domknieciach. Zeby to zo-
Y=O baczyc, rozpatrzmy niepusty zbiór A, który ma dwa rózne przedstawienia:

A = U(ai,bi] = U(cj,dj],
-i=1 j==l

Proponujemy kolejne zadanie: znalezc rozklad, którego rozklady brzegowe sa gdzie


jednostajne na [O, l], ale sam nie jest rozkladem jednostajnym na kwadracie. al < bl < ... a" < bn., CI < ch < ... c., < dn.,
Wskazówka - rozklad jednostajny na brzegu odpowiedniego prostokata.
a suma m +n jest dla tego zbioru minimalna. 'Wobec tego przedzialy (a", bn]
14. Odp. Jednostajny na. sferze jednostkowej (por. wlasnosc pasa. wycietego ze i (Cm, dm] sa rózne. Gdyby bowiem byly równe, mozna by bylo je usunac,
sfery w zadaniu o grubej monecie). zachowujac równosc: otrzymalibysmy wtedy zbiór B, dla którego m + n jest
16. Wsk. Jesli rozklad ciagly o dystrybuancie F ma. wlasnosc braku pamieci, t.o mniejsze, co przeczyloby rninimalnosci zbioru A.
ogon rozkladu, czyli funkcja G(t) = l - F(t), spelnia równanie Poniewaz bn E A, dla pewnego j :::; n mamy dj :) b". Analogicznie bi :) dm.
Zatem
G(t + s) = G(t)G(s).
bi ~ dm :) dj ~ bn,
Poniewaz G jest ciagla, musi byc postaci G(t) = eet. Zalozenie o ciaglosci i
a stad j = m, = n, bn = dm. Vlobec tego lewe konce odcinków (an, bnJ
mozna oslabic, trzeba jednak VI' tym celu wiedziec, ze jedynym mierzalnym i (Cm, dm] musza byc rózne. Niech, dla ustalenia uwagi, Cm < ano 'Wtedy
w sensie Lebesgue'a r",zwiazaniem równania funkcyjnego jednak bn-l < a", i element x E (max(bn-l, ~Tn)' a,,] jednoczesnie nalezy
f(x -I- y) = f(x) -I- f(y)
i nie najezy do A - sprzecznosc.
Poniewaz F jest niemaleja~a, ze I~ jest poprawnie zdefiniowana nieujemna
jest funkcja liniowa. miara na ciele A. Zeby móc skorzystac z twierdzenia. 1.1.8 o przedluzaniu
408 Odpowiedzi i wskazówki do rozdzialu 5 409

miary i przedluzyc na u-cialo generowane przez skonczone sumy odcinków, 8. Odp. Oto dystrybuanty:
czyli u-cialo zbiorów borelowskich, musimy wykazac, ze jesli (An) jest zste-
pujacym ciagiem zbiorów z A i n:1 Ai
to ,urAn) -----> = 0,
n_oo O. Idea dowodu
dla t < l,
jest prosta: ustalamy dodatnia liczbe ó i do kazdego An dobieramy taki zbiór F (t) = (1/2).,fi dla ° ~ t < 1,
dla l ~ t < 2,
dla l~
t < 2,
zwarty Kn, zeby Kn C An, An \ Kn C Bn, gdzie ,u(Bn) < óTn. Mozli-
y
{O
t/2
l dla t ) 2,
dlat<O,
Fz(t) = { ~/2 dla t)
2.

wosc takiej konstrukcji wynika z prawostronnej ciaglosci funkcji F, i jesli


A = U~=1(ai,bi], to Kn = U::'1[ai +ci,bi] dla odpowiednio dobranych ci· 5.3. Wlasnosci dystrybuanty rozkladu na Rn
Rodzina (Kn) nie jest na ogól zstepujaca, ale jesli ella n = 1,2, ... zdefiniu-
jemy Hn = ](1 n ... n Kn, to (Hn) bedzie juz zstepujaca rodzina zbiorów 1. Wsk. Skorzystac z lematu o 1[- i A-ukladach.
zwartych o pustym przecieciu, zatem dla pewnego m mamy H1n ... nHm = 0, 2. Rozw. Przykladem jest funkcja
skad K1 n ... n Km = 0. Jest oczywiste, ze Am = Al n ... n Am niewiele
rózni sie od zbioru pustego, a dokladniej:
..F(-' l.,y )={1 ° dlax.+y>O
W p.p.
Jest ona monotoniczna ze wzgledu na kazda ze wSj2ólrzednych, jednak dla
Am C n[(Ai \ Je) U K;] C n[Bi U Kil C J;1 -1, X2 = Y2 = 2 nie zachodzi (1).
= Yl =
i=l i=l (mQlC; ) U (Ul
.~Bi ) .
3. Rozw. Niech g bedzie jednoczesnie 1[- i A-ukladem. Rodzina 9 jest niepusta
Wynika stad, ze (war. (i) z def. 4). Jesli A E 9, to A' = II \ A E 9 na mocy war. (i) i (ii)
,u(Am) ~ ó. z def. 4. Wobec tego jesli A,B E g, to A U B = (A' n B')' E 9. Wynika
stad, ze rodzina g jest zamknieta ze wzgledu na skonczone sumy. Niech teraz
Udowodnilismy zatem, ze dla kazdej liczby dodatniej ó istnieje takie m, ze
A; E 9 dla i = 1,2, .... Mamy Bn = U~=lA; E 9 i z war. (iii) (o rodzinie
,urAn) < ó dla n > m. Innymi slowy, lirn.,,_ •.>O J.i(An) = 0, czego nalezalo wstepujacej) U:l A; = U:l
Bi E g..
dowiesc.
Tym samym udowodnilismy, ze J.L przedluza sie na u-cialo borelowskie. Po-
niewaz 5.4. Dystl'ybuanta a gestosc

,u«-oo,t]) = PU) - 1"(-00) = F(t), lim F(t)


(-00
= 1, 1. Rozw. a) W swietle zad. 5.4.1 wystarczy wykazac, ze

widac, ze IJ(R) =1i F jest clystrybuanta /.I..

2. Rozw. Pouczajace jest wykonanie wykresu f, jesli F ma odcinki stalosci


FCt) = loo g(s)ds, ER.
i skoki. Wystarczy wykazac, ze fes) ~ t wtedy i tylko wtedy, gdy s ~ P(t). Niech g" = gl(-n,oo)' 'Wtedy
a) jesli j(s) ~ t, to Sllp{U:P(v.) < s} ~t, wiec 1> > t implikuje PCu);:' s, co
na mocy prawostronnej ciaglosci daje przy 'u t nierównosc F(t) ) s. i j.,.
b) jesli pet) ) s, to gdyby sup{1L: FCu) < s} = Hc > t, mielibysmy 'Un l t+e . -00 g(s)r1s = 7/,-00
lim j'"-00 gn(s)ds =
i P(v.n) < s, a poniewa.z F jest niemalejaca, byloby PCt) < 8- sprzecznosc.
= l;m j'i-H g(s)ds
n-'~oo = n-oo
li~ (F(t) - F(-n» = F(t).

3. Rozw. ~(( -00, x» = J.L ( U::'=I (-00, X - ~] ) = Jirnn .z;;.(" - ;\} Skorzystalismy z tw. Lebcsgue'a-Leviego o zbieznosci monotonicznej i z pod-
4. Odp. 0,3; 0,9; 0,85. stawowego twierdzenia rachunku calkowego (patrz np. [RUD-2], tw. 6.16; ta
wersja pokazuje zreszta, ze zamiast ciaglosci g wystarczy calkowalnosc w sen-
6. Roz11J. Wystarczy wyznaczyc clystrybuante. sie Rjemanna na przeclr.ialach ograniczonych).

dla t ~ -5, b) Z jest przeliczalny, %ntem R. \ Z = U:-oo (ai, bi), przy czym przedzialy

Fy(t) = 1"x -a-


(t+5) = {O:I. _ e- <>\'i5) c1la I; > -5.
(ai,bi) sa niepuste i rozlaczne.
[a, b] C (ai, bil,
Rozumowanie
to F(b)
z punktu a) pokazuje, ze jesli
- 1"(0.) = J: g(t),~J.t. Wystarczy teraz skorzystac
z ciaglosci F.
7. Roz11J. Ustawiamy zbiór liczb wymiernych w ciag rn i definiujemy

f
2. Wsk. Zamiast podstawowego twierdzenia rachunku calkowego uzyc tw. 8.21
z [RUD-l]: jesli F jest rózniczkowalna wszedzie na [a, b] i F' jest calkowalna,
F(x) =
n=l
2~' l(_oo,"J(r,,) = L
{n:7'.rt::;;X}
2" to F(x) - F(a.) =
Calkowalnosc
J:
F' Ct)dt dla x E [a, b].
F' w naszej sytuacji wynika natychmia..~t z lematu 1.
:IIi I Odpowiedzi i wskazówki do rozdzialu 5 411

Ud" "V.lIIH'~.'~d'y~I.l'ybllll)It.Qstandardowego rozkladu normalnego.


11'(1)
:1.
:S; I>S [Xl{k';;X<k+ll] = EX :S;
II.) (I.) •• 1l'(Jug /.) dla t ~ O. Dystrybuanta jest rózniczkowalna wsz·edzie
,.\. k.=O
puu~i = O; rózniczkujac otrzymujemy 00

dla t> O,
:S; LE [(k -\- l)l{)",;;x<k+l}]
',=0
g~(t) = {ó~e-(IOgt)2/2 dla t:S; O. 00 j •
~
= I:U~+'·l~P(I;:S; X <k -\- 1) =
b) Fy(t) = 2<I>(v't) - 1, t ~ O, gy(t) = '~e-t/2 ),=0

4. Odp. Z nie ma gest;psci. Z tw. 3 mozna otrzymac gestosc Y, dana wzorem


00 j
Il •l ' 00
,
dla t if. (0,2),
= L
n=l
P(X ~ n) + L
k=O
P(k :S; X < k + 1) =
g;,(t) = (1/6)r2/3 dla t E (O, l), 00

. {O1/2 dlatE["I,2).
= L
n=l
P(:c ~ n) -\- l. II
5.5. Gestosc a odwzorowania gladkie
3. Wsk. Skorzystac ze stwiol'cl1.enia 11 i zauwazyc, ze P(Xr > t) = P(X > t'/r).
1. Rozw. Np. X ma rozklad jednostajny na (O, l), cp(x) = 1(~,,)(3;). 4. Wsk. Uogólnic metode rozwiaza.nia poprzedniega zadania.
2. Rozw. Calka jest fllnlq::ja ciagla jako funkcja górnej granicy calkowania. 5. Rozw. Na rysunku widac standardowy sposób, stosowany przez hydrologów.
1 VVrzeczywistosci z tabeli odczytujemy cos w rodzaju ogona rozkladu, wobec
3. Rozw. gry) = ae-". 'l? ·l(o.oo)(Y)· tego stosujemy odpowiednik wzoru ze stw. 11 i calkujemy funkcje przedsta-
4. Wsk. Nalezy powtórzyc rozumowanie z dowodu stwierdzenia l na kazdym h wiona na rysunku.
z osobna.
6
\ i'

l
5. Rozw. Skorzystac z wielowymiarowej wersji twierdzenia o calkowaniu przez f'..-

podstawienie. ) 1"-
.'\~ "" i\.
6. Odp. a) JY(Yl,Y2)
~ ~~
)
)
5 )

\r\.
"-""
~ exp [- f6 (5yr -\- 5y~ + 6Y1Y2) b) gestosc jest taka
sama, jak wyjsciowa. 4

5.6. Parametry rozkladów Pole (km2)


3
1. Rozw. Pret podparty w srodku ciezkosci powinien pozostawac w równowadze,
zatem laczny moment sily powinien byc zerowy. Daje to warunek
2
L(Xi - m)pig = O,
i=l
10
gdzie m jest wspólrzedna srodka ciezkosci, a g przyspieszeniem w jedno-
rodnym polu grawitacyjnym. Stad rn = =:,
XiPi. Moment bezwladnosci
ukladu wzgledem punktu rn wynosi (Xi - m)2Pi. =:, o 20 4D 60m
2. Rozw. (4) W swietle stw. 11 wystarczy wykazac, ze ft;'" P(X = t)dt = 0, a to g+ebokosc
jest oczywiste, poniewaz funkcja podcalkowa jest rózna od zera na zbiorze
co najwyzej przeliczalnym. Objetosc jest równa zakreskowanej powierzchni, przy czym 1 mm2 odpowiada
(5) Zamiana kolejnosci sumowania w ponizszych rachunkach jest mozliwa, 0,001 km3. Otrzymujemy wtedy 1,5613 km3.
bowiem skladniki sa nieujemne (jest to wniosek z twierdzenia Fubiniego); 6. Wsk. cp jest funkcja kwadratowa.
00 7. Rozw. Zdefiniujemy funkcje
L
Tl,=l
P(X ~ n) = LL
11.=1k=n
P(k :S;X < k + 1) = L
k=l
kP(k :S;X < k + 1) :S; r(t) = 1)2X, = t21)2 Xo + (1 - t)21)2 X, + 2t(1 - t)p(Xo, X,))1)2Xo1)2X,.
412 Odpowiedzi i wskazówki do rozdzialu 5 413

Jest to funkcja kwadratowa, osiagajaca minimum dla 8. Rozw.


k

tmin = ------"-------=====.
'])2Xl - p(Xo, XrlJ152XO'])2 Xl
'])2Xl + '])2X2 - 2p(Xo, Xr)V'])2XO'])2 Xl EX = LkP(X = k) = LLP(X = k) =
k=O k=l n=l

W naszym przypadku troin = 6/7 ijI52.Ytmin "" 0,01.55. VV odniesieniu

do papierów wartosciowych oznacza to, ze portfel zLozony z papierów obu = LLP(X = k) = LP(X;?: n).
rodzajów w proporcji 6 : 1 ma ryzyko nizsze, niz kazdy z papierów. Jego n=lk=n n=l
stopa zwrotu bedzie równa EXtmin ~ 0,0271. Widac, ze taki portfel jest
lepszy niz papier opisywany przez zmienna losowa Xo, ma bowiem wyzsza 9. Odp. EX = l/p.
stope zwrotu i nizsze ryzyko. Nie da sie go natomiast porównac z papierem 10. Rozw. Jesli X jest liczba rzutów, to X = Xl +X2+ ... +X6, gdzie Xl = 1, zas
opisywanym przez Xl, dopóki nie zdecydujemy, jak duze ryzyko oplaca sie Xi, i = 2, ... 6 jest czasem oczekiwania na i-ty wynik rózny od pierwszych
poniesc w zamian za wyzsza stope zwrotu. (i - 1) wyników i ma rozklad geometryczny z parametrem (7 - i)/6. EX =
Pouczajace jest wykonanie wykresu ryzyko/zysk dla rozmaitych wspólczyn- = 14,7.
ników korelacji. 11. Odp. Nie. Oto pr?,yklad: fl = {a, b, c}, zdarzenia elementarne sa jednakowo
prawdopodobne, X(a) = 2, X(b) = l, X(c) = O; Y(a) = 0, Y(b) = 2,
Y(c) = 1. Wtedy E (x~y) = ~, E (x:y) = ~.
12. Rozw. a) "rozpisujemy" wzory po wspólrzednych i korzystamy z definicji
wartosci oczekiwanej wektora,
~B
b) wynika z definicji macierzy kowariancji i punktu a).
~ ~/////

V ~7/
...• ,
13. Rozw. Nalezy zmierzyc sume dlugosci pretów, skladajac je razem, a potem-
róznice, ukladajac je obok siebie. Wynikami pomiarów beda zmienne losowe
Stopa zwrotu
(zysk) z~ / // 8=x+y+U, D=x-y+V,

gdzie 1: i y to dlugosci pretów, zas U i V - bledy pomiarów. Jako oszacowanie


1: przyjmiemy
8+D U+V
-2-=x+-2-,
A a jako oszacowanie y:
8--D
[J··-V
=y+ -2- -2-"
Jak widac, wariancje bledów sa dwukrotnie mniejsze niz przy zwyklym spo-
Ryzyko sobie mierzenia.

Punkty A i B odpowiadaja rozpatrywanym papierom wartosciowym. Oclci- 14. Odp. 2.


nek AB reprezentuje przypadek doskonalej korelacji dodatniej (p(Xo, Xtl = 15. Odp. a) -~, b) 0, c) 6
= l). Lamana AZB - doskonalej korelacji ujemnej (p(Xo,Xj) = -l). Wi-
dzimy, ze przy odpowiednio dobranym skladz'ie portfela ryzyko jest zerowe
16. Odp. a = cov(X, Y)/'])"X, b = EY - aEX.
(punkt Z). Wreszcie krzywa AC B reprezentuje przypadek podobny do rozpa- 19. Roz'W. Liczebnosci czastek w kolejnych pokoleniach mozna przedstawic za
trywanego w zada'uiu. Punkt C odpowiada portfelowi o minimalnym ryzyku. pomoca nastepujacych zmiennych losowych:
Widac takze, ze nie ma sensu brac pod uwage portfeli z luku AC, bowiem
dla kazdego takiego portfela znajdziemy na luku CB portfel o tym samym
Zo =1
ryzyku, :lle Z wieksza stopa zwrotu. W zwiazku z tym portfele z luku CB v(1) _ v(l)
Z 1 -- ./\ Za - 1 -"l.. '
nazywa sie portfelami efektywnymi. " (2) '. (2)
Z2 = Xl + ... + XZ"
Analize przypadku wiecej niz dwóch papierów wartosci.owych mozna znalezc
na przyklad w ksiazce K. i T. Jajugi, Jak 'inwestowac w pap'iwry wartosciowe,
PWN, Warszawa 1994, i w wiel\! innych dostepnych na rynku ksiazkach, Zn = xin) + ... + Xz~n)n-l ,
poswieconych analizie portfelowej.
11,1 (Idpowlud:ti i wska.z6wki do rozdzialu 5 415

1\111,111
(.\ !,,,) )::':1 ., Jt'HI, dl!,glulII podw6jnym niezaleznych zmiennych losowych, Aby obliczyc to prawdopodobienstwo, musielismy skorzystac z rozkladu lacz-
pJ'1,Y.l1l1l0J1.('yeli wo,rl.osci m i O z prawdopodobienstwami p i q. Poniewaz nego (X, Y).
IIJlIiunne losowe ciagu (Xk"))~J. nie zaleza od Zn-J., mamy 4. Rozw. Si = {Ad - n-uklad. Si niezalezne, wiec z twierdzenia 12 wynika, ze
er(Si) = a(A;), 'i E I sa niezalezne.
5. Rozw. Wezmy 10 C I, 10 -- skoiJ.czony, i dowolne Ai. E Si dla E 10. Ai sa i
EZn = ~Xt)_, = l;E'
oc ( l{Zn_l=k} k)
{;xi") postaci A; = Bt, n ... n BL,;. Z niezaleznosci er-cial F, otrzymujemy

= "'\"W kP(Zn-J.
~ = k)EXJ.••(n) = p(n A;)= p(n nB~) = I1I1'P(B;) = I1 P(Ai).
Ic=l
iEJo 1E" lo j iEJo

= E'xin) . EZ,,_J = prn.' EZn-1 = (pm)".


6. Odp. a) np. Xl ~ N(O, il), Xz = Xli b) jesli X ma roiklad jednostajny na
5.7. Nierównosci zwiai.ane z momentami [O,l] j fn(~;) = sgnsin2nn:r" to (fn(X)) jest ciagiem Bernoulliego. Otrzyma- Funkcje fn
'I lismy caly ciag niezaleznych zmiennych losowy~h. rozpatrywane na
[O,lJ nazywamy
1. Wsk. Wtedy P(X =. O) = 1. 7. Wsk. 'AT celu otrzymania gestosci zastosowac indukcje wzór na splot. Praw- i funkcjami
2. Wsk. Sprawdzic, kiecly zachodzi równosc w nierównosci Younga (4). dziwosc wzoru na G,.,. spra.wdzic przez rózniczkowanie. Rademachera.
3. Wsk. Skorzystac z nierównosci HCildera. 8. Roz·w. Niech X (odp. Y) przyjmuje wartosci w Rm (odp. Rk)
4. Rozw. Niech A = {X,> AEX}. Wtedy

EX = E(XIA) + E(XIA') ::;; [EX2 . P(A)]~ + AEX. P(X E A, (X, Y) E E) = Lm"'." lB(~;,y)lA~Rk(X,Y)/-l(x,y)(dx,dy) =

6. Rozw. 1 = E ( VX . Jx) ::;;(EX. E (i-)) ~. /~ [.J~"lBd/-lY] d/-lx.


7. Rozw. Dowód uzyskujemy natychmiast z nierównosci Czebyszewa.
8. Rozw. Dla p = l nierównosc jest oczywista. Jesli p > l, niech q-l = .1.__p-l. 9. Wsk. Byc mozo nieco wygodniej jest. operowac zmiennymi losowymi Xn =
Bez straty ogólnosci mozna zakladac, ze X, y ~ O. Z nierównosci I-lOldera = (Un + 1)/2 zamia.st u." i obliczyc P(X ::;;t) dla dwójkowo-wymiernych t.
mamy 10 .. Wsk. Skorzystac z zadatl 5..2.2 i 9. Ciag Bernoulliego (U,,) mozna. przenume-
E:X(X + y)p-1 ::;; (EXP)J./P. (E (X + y)(P-l)q)l/q rowac tak, by otrzymac tablice (Un,k), n = 1,2, ... , k = 1,2, .... Wystarczy
i podobna nierównosc ze zmiennymi X, Y zamienionymi rolami. Po dodaniu dl11odpowiednio dobranych funkcji F" zdefiniowac zmienne losowe
stronami obydwu nierównosci otrzymujemy
E(X + y)P ::;; [(EX1')1/P + (EyP)1/P].
Zauwazmy, ze (p - l)q = p, wobec t.ego po podzieleniu obu stron przez
(E (X + Y)(P-l)q)l/q. K" = F" (fk=1 TkUn,~).

drugi czynnik po prawej stronie otrzymujemy zadana nierównosc. Gdyby ten n. Odp. Gestosc jest dana wzorem
czynnik byl równy zeru, to i lewa strona bylaby zerowa i nierównosc bylaby
automatycznie spelniona . dla O::;; x ~ l,
dla l < x ::;; 2,
.q(x).. __
_ :- (2-x)' ( x_l)'
5.8. Niezalezne zmienne losowe (3-",)" 2 -2~ dla 2 < x ~ 3,
-0-
{ O 2 - dla x ~ [0,3].
2. Rozw. Powtórzyc rozumowanie z twierdzenia 7.
3. Rozw. a) Jest to zmienna losowa min (X, Y) o rozkladzie wykladniczym z pa- 12. Wsk. Zdefiniowac splot gestosci z dowolna miara:
rametrem oc + /-l; patrz przykl. 5.S.4.
b) Mamy
(g * J.1.)(t) = r
dr JR g(t - x)J.1.(d:c).

P(X < Y) = /-l(x.y)({(x,y) x < y}) = J 1 o<x<v 91 (x)g2(y)dxdy = *13. Rozw. Z = X + Y, gdzie X =
i Y sa niezalezne ..
L:'=l. U2n /2" ma rozklad jednost.ajny, a X

=J 1 o<",<v Oi.e-a"'/-le-P.Ydxdy = ~.+ o:


/-l
14. Odp. Gestosc: (A/2)e->'ltl.
416 Odpowiedzi i wskazówki do rozdzialu 5 417

15. Wsk. U ma rozklad wykladniczy z par. 2A, V = IX - YI, wiec ma rozklad 20. Wsk. Niech X ~ N (0,1). Zdefiniujmy
wykladniczy z par. A (korzystamy z zad. 14). Wykazac, calkujac gestosc
(X, Y) po odpowiednim obszarze, ze F(u,v)(s, t) = Fu(t)Fv(s), (X, Y) = (X, -X)l{x!!'[-a,aJ} + (X,X)lp.:E[-a,aJ}.
16. Wsk, Jesli A E Rn, i O' jest: permutacja zbioru {l, 2, ... , n}, zdefiniujmy
Dla duzych a kowariancja zmiennych losowych X i Y jest dodatnia, dla
arA) = {(Xl, .. ',xn) E R": (XO'(l)"" ,XO'(n» E A} oraz fi' = UO'EBa(A),
malych a jest ujemna, wiec dla pewnego a jest zerem.
gdzie sumowanie odbywa sie po zbiorze wszystkich permutasii B. Jasne jest,
ze dla A C 6.n zbiory arA) sa (prawie) rozlaczne, zatem A(A) = n!A(A). 21. Odp. Niech zdarzenia A, E, G beda parami niezalezne, ale nie wzajemnie
Zatem P((U(I),"" U(n» E A) = P«(Ul, ... , Un) E .4) = n!A(A), A C 6.n. niezalezne. Kontrprzyklad tworza rodziny {A,B} i {G},
Nie jest trudno wyznaczyc dystrybuanty statystyk pozycyjnych i obliczyc, ze *22. Raz'W. Niech A > O. Wtedy funkcja e.\x jest rosnaca i mamy
EX(k) = k/(n + l).
Numery trzech taksówek w Grybowie zostaly wybrane losowo ze zbioru
1,2 ... , n. Doswiadczenie to przypomina losowy i niezalezny wybór trzech = P( e >'8". > e .h';:;;):>::-...;:e-.\r';:;;E :e.\8,. =
punktów z odcinka [O, l]. Srednio podziela go one na cztery równe cze-
p( JTi
S" » 'l' == e -Ar';:;;(," L-e)AU,\"

sci. Dlatego mozna argumentowac, ze taksówek jest: najprawdopodobniej


~ max{27, 11, 3} = 36. Dokladniejsze rachunki, uwzgledniajace dyskretny = e-!.·'·y'n(Ae -~e_A)n
_ ::;;e-A,;';:;;+A2n/2
charakter zagadnienia, daja nieco inny wynik.
17. Wsk. Zalózmy dla uproszczenia, ze A = 1. Zeby sie nie zaplatac w rachun- Skorzystalismy z wykladniczej nierównosci Czebyszewa, niezaleznosci2 zmien-
kach, warto zauwazyc, ze gestosc rozkladu wektora (Xl, ... , X" + 1.) jest równa nych losowych eAUi oraz elementarnej nierównosci! (eA + e -A) ::;; e'\ /2 Wy-
e-(X\ + ... +X,,+l) na zbiorze wyznaczonym nierównosciami bieramy teraz A =r / Jii" co minimalizuje ostatnie wyrazenie po prawej stro-
nie i daje zadane oszacowanie.
Xl ~ O, ... X"+l ~ O.
Z symetrii zmiennych losowych Un wynika, ze P(lSn/fti > r) ::;; 2e-r2/2
Wobec tego gestosc rozkladu wektora (Sl, ... , S.,,+1) jest równa 0'-"""+1 na
zbiorze 6. wyznaczonym przez nierównosci ° ::;;Xl ::;;X2 ::;; ... ::;; X.,,+l.
23. RaZ1/). Niech <: > O. Wtedy
Niecb teraz A C 6.". Mamy 00

P((Sl/Sn+1, ... , S,,/Sn+d E A) = JA: e-Xn·'·'c!.1;l ... dXn+l =


p
(
_
-j2n8"
--=>1+<:
[Ogn ) ::;;
L n=l
n _(1+.)2 < 00,

zatem na mocy lematu Borela-Cantelliego z prawdopodobienstwem l zacho-


== 100tA(A)e-'dt = A(A). dzi tylko skonczenie wiele zdarzell {(S,,/-j2n'lógn) > 1+ t'}.
gdzie A jest stozkiem wyznaczonym przez A, o wierzcholku w (O, ... , O). t24. Wsk. Rozwazyc krzywa Pcano, przeksztalcajaca odcinek [0,1] w sposób cia-
Wszystkie przeki'oje stozka, tj. zbiory A n {Xlt+l == c} sa podobne, gestosc gly na kwadrat.
jest stala na zbiol'ach {Xn.l-1. = c}, wiec wynik calkowania musi byc propor-
25. RaZ1/). Niech Xl, X2 oznaczaja wylosowane liczby; pierwsza z nich znamy.
cjonalny do A(A) - miary Lebesgue'a zbioru A, czego nalezalo dowiesc.
Zgodnie z warunkami zadania sa to niezalezne zmienne losowe o tym sa-
18. Wsk. Nalezy rozumowac podobnie, jak w zad. 17.. mym rozkladzie z ciagla clysLrybuanta (i dlatego nie musimy sie przejmowac Rozklad z ciagla
19. Raz'W. Skorzystamy z intuicyjnie oczywistego argumentu, którego scisle uza- zdarzeniem Xl = X2, które ma zerowe prawdopodobieilstwo). dystl'ybuanta
sadnienie mozna. znalezc w rozdziale 6 (jako uogólnienie wzoru na prawdo- spleciony z
Zeby zwiekszyc szanse wygranej, nalezy urzadzic sobie prywatne losowanie, dowolnym innym
podobienstwo calkowite). generujac zmienna losow,~ o rosnacej dystrybuancie. Oznaczmy wynik loso- ma ciagla
Jesli wiadomo, ze do chwili to pojawilo sie k autobusów, to zgodnie z zad. wania przez Z. Decyzje podejmujemy taje: jesli Xl > Z, uznajemy, ze Xl jest dystl'ybuante·
18 sredni czas, jaki uplynal od chwili przyjazdu ostatniego autobusu wy- wieksza; w przeciwnym razie uznajemy, ze jest mniejsza. Latwo zobaczyc, ze
nosi to/(k + l). Szansa na pojawienie sie k autobusów wynosi 01qi.e-Ato szansa wygranej minus szansa przegranej jest wtedy równa
Ostatecznie sredni czas od przyjazdu ostatniego autobusu jest równy
P(Z E (min(Xl,X2),max(Xl,X2)) > O, (l)
00 ()k 00 k+l
"L.. ~k + l . ~ k! e -Ato = ~Ae -Ato"L.. ~(k + 1)! = ~Ae -.\to ( e .\to _ l) =
k=O k=O mozemy wiec wygrac z prawdopodobienstwem wiekszym niz 1/2. Istotnie,
l - e-Ato oto wszystkie mozliwe uporzadkowania Xl, x2, Z. Plus oznacza wygrana,
minus przegrana.
A
11M Odpowiedzi i wskazówki do rozdzialu 5 419

1 Xl
Z <Xl
X2 <<X2
Z <<X2
Xl
X2 Xl
X2-
Z+ - Dalej,
36542

EX =~ D 3' = D;l:
1-=1
~2EUi=~
2' ,t=l
2,.
.'

gdzie zmienne losowe po prawej sa niezalezne, P(Ui = 1) = P(Ui = O) = ~,


i= 1,2, .... Wymaga to .iednak uzasadnienia; l?wsciej zauwazyc, ze
Uporzadkowania 1 i 5, 2 i 4, oraz 3 i 6 maja równe prawdopodobiellstwa,
skad wynika wzór (1). X ~ -2·U
3
l +.-:j"
IX

Jesli wszystkie trzy zmienne losowe maja ten sam rozklad, szansa wygranej
wynosi 2/3 .• ; gdzie fh jest niezalezna od X. Stad otrzymtij'emy nie tylko EX = ~, ale
i V2 X = ~, bowiem V2 X = ~V2Ul + ~'D2 X. ,.
1.1

5.9. R.ózne rodzaje zbieznosci zmiennych losowych 12. Roz11!. Gdy teza nic zachodzi, to istnieje a oj; EY i podciag (nk) taki, ze

EX,,. _ol a. WYbierajar,:,JIQdciagi mozemy bez straty ogólnosci zalozyc, ze


L Wsk. Skorzystac z tego, ze granica funkcji mierzalnych jest mierzaJna lub Xn!~ ~~ .X:, l~l.}." ~ l~.i ZnJ.,: ~~t Z. Z lematu Yatou
wprost I
DO DO DO E (Y - X) :,;;Jim inf E (X,,, - Xnk) = lim inf EYn,<, - EX
• 1['
{w:li,:nX~(w) = X (w)} = k=l N=l nu n n=N
{!Xn - XI:,;; lik}. tzn. EY :,;; lim inf EY;,. Podobnie E (Z ..- Y) :,;;E Z -lim inf [)";,,,, zatem EY ~
~ !im iuf [)~, .. Czyli EY = lim inf EY" = a, sp~ozecznosc.
3. Wsk. Zastosowac lemat Borela-Cantelliego. 13. Roz'W. Z zalozenia ,;x;; ~ Y. Niech X = y2.' Z nierównosci Schwarza
4. Wsk. P(IXn - XI :,;; s) ~ p(n;;=n {IXk - XI :,;;s}).
5. Rozu>.Jesli Xn ~ X, Xn ~ Y, to dla kazdego s > O
EIX" - XI :,;;(EI,;x;; - VXI2) 1(E (VXn + VX)2) 1 --->
n-co O,

P(IX - YI > s) :,;;P(IXn - XI> s/2) + P(IY - X"I > s/2) '---7 O. bo E (,IX" + Ix) 2 :,;; f( < 00.
14. Rozw. 'Wystarczy pokazac, ze ella dowolnego s >.0
Wobec tego P(!X - YI > O) = O.
9. Wsk. Skorzystac z twierdzenia 8. lim P(max
n i~n
lXii ~ en) = O.
11. Rozw. Jesli w pierwszym rzucie wypadl orzel, laczna. wygrana wyniesie co
Faktycznie,
najmniej 2/3, jesli wypadnie reszka - co najwyzej 1/3. Wobec tego dystrybu-
anta Fx przyjmuje na przedziale (1/3,2/3) wartosc 1/2. Rozpatrujac drugi,
trzeci i dalsze rzuty widzimy, ze dystrybuanta jest stala na wszystkich prze-
dzialach wylaczonych podczas konstrukcji zbioru Cantora. Poniewaz laczna z(n IX;! ~ en) :,;;
P(max Li=l
P(IXij :,;; en) = .nP(IX11 ~ en) :,;;

miara tych przedzialów jest równa 1, dystrybuanta rosnie na zbiorze miary


zero i nie istnieje gestosc. ~E (IXlI1{IX11)w})
:,;; E:. --->
n-co o,
Zeby wyznaczyc dystrybuante w pozostalych punktach, czyli na zbiorze Can-
tora C, przypomnimy znana funkcje <p przeksztalcajaca C na odcinek [O, l]: bo EIXll < 00.
jesli t E C i t = >::1 ~, gdzie Ui = O lu b Ui = 1, = 1, 2, ... , to i 15. Roz'W. SUPt E (IXtI1{IXtl>C}) :,;; E (Y1{y>C}) -> O,gdy C -, 00 (z twierdze-
nia Lebesgue'a o zbieznosci zmajoryzowanej).

<p(t) = '"
D')i'~ 16. Rozw. Niech f> O. Wezmy C takie, by dla z ~ C zachodzilo
1.=1 ...,

Tak zdefiniowana funkcja jest jednostajnie ciagla i rosnaca na C. Mamy teraz


-~-, f
G(z)
z
M

P(X ~ t) = P(<p(X) :,;;<p(t)) = <p(t), tzn. z ~ E:M-lG(z). Wtedy

poniewaz <p(X) ma rozklad jednostajny na [0,1]. E (jXtI1{1xtl>CJ) :,;; sM-lE (G(Xtl-lIXtl>C})) :,;; s.
do rozdzialu 6 421
420 Odpowiedzi i wskazówki

17. Rozw. => (ii) wynika z nierównosci 4. Wsk. Wykazac, ze jesli wektor losowy (Z1, Z2) ma standardowy rozklad nor-
malny w R 2, to promien R = fif
-I- z1 ma ten sam rozklad, co y' - 2 log X
[(IX,!lA) :( CP(A) -I- E (IXtI1{!x,I>C}) . (por. zad. 1 i 2), zas kat e, jaki tworzy wektor (Z1, Z2) z osia DX ma rozklad
jednostajny na przedziale [0,2r.] i jest niezalezny od promienia.
Z tej nierównosci, piorac A = ni C dostatecznie duze otrzymujemy (·i). Wynika stad, ze wektory losowe (R, e) i (..,;=2log X, 2r.Y) maja ten sam
<;= Wezmy dowolne c > O. Dobierzmy ii z punktu (ii). Z nierównosci Czeby- rozklad: jest on wyznaczony jednoznacznie przez rozklady wspólrzednych,
szewa i z (i) dla t E J P(!X,[ > C) :( C-l sup, [IX,I :( 1) dla dostatecznie bowiem na mocy niezaleznosci jest ich produktem.
duzych C, zatem (ii) daje [(IXt!l(IX<l>C}) :( c dla t E J. W konsekwencji: i
zmienne losowe h(.R, e) h( ';~--2-I-o-g-X~,21T Y) maja ten sam
rozklad, zalezny juz tylko od h. Biorac h(r-, <p) = (r- cos <p, r sin <p) widzimy, ze
18. Wsk. => (i) oczywiste z nierównosci Czebyszewa; (ii) sa spelnione warunki
(Z1, Z2) = (R cos O, Rsin fJ) i (U, V) maja ten sam rozklad, i jest to standar-
zadania 17, korzystamy z tego, ze [(lAIX" - XIP) :( [(IX" - XfP).
dowy rozklad normalny w R2•
<;= Skorzystac z zadania 16 i oszacowania
5. Roz'W. Udowodnimy to dla standardowej wersji rozkladu Cauchy'ego, o ge-

[(IX" - X[P) :( CP -I- [ (IXn -- XIP1{1x,,-xl;;'C}) :( stosci ~ . 1-=t~:

::::;CP -I- ((!XnIP -I- IXIP) l{IXn-XI;;'c})·


2P-1[
r. •j'OOIX!dX?
.!:. -co 1 -I- x- ? r. )'00
l
.!:. x
dx = co.
5.10. Przeglad wazniejszych rozkladów 6. Warunkowa wartosc oczekiwana
1. Rozw. Wystarczy wykazac, ze X2(1) jest rozkladem 11/2.1/2 i udowodnic rów- 6.2. Warunkowa wartosc oczekiwana wzgledem rozbicia przeliczalnego
nosc (1), §5.10:
1. Odp. P(X = 1, Y= 2) = 0,1, [X = 2,4, i wreszcie

1(t},b*,a2,oU) = )'00 rof_ \ •• / __ ,(t_xrQ--lx(L2-1e-bU-·'t)e-·bX x


-00 b'" +ao [(X I a(Y)) = {2,2
2,6 dl.a
dla Y = 2_
O,
x 1(0.00) (t - x)l(o.oo) (x)d:r = 2. Odp. a)
dla w E [O, ~),
=:r( al· )1'( a2 )e-bt
. ba,+a, .[t (t_xtl-.l:ra2-1d~;=
o }".:)I F) = {~ dla tV to [~, 1] .

= -,----t'"
I (a1)r(a2)
bal+a2
+"2-2e-b'
.j.tIJ
(1 - J;/t)"] -] (:U/tt2-1dx' = b)
. -.(; dla I;) E [O, -l),

= -_t"1+"2-1e-bt (1- ut] -luo'2-1du = EUI F)


. = {1=r dla:;) E [1'~)'
dla li! E [2,1].
b",+a<, [l'
. o
4

Markowa
a. Odp. a) ~ -I- 1~'" b) ~ -I- -;x -I- 1~P· W rozdziale o laJlcuchach
= '1"'+"2B()
) al,0'2 tQ.l+a2-1e-IJt = 6",-I-M
-__(),L+a2-1e-u't, udowodnimy ogólne twierdzenie na ten temat (zad. 12.1.14-17).
r(a1)r(a2) r(01 -I- 02)
4. Odp. "31(1+~).
2. Rozw. Niech C bedzie macierza ortonormalna o wszystkich elementach pierw- 5. Wsk_ Zauwazyc, ze (stw .. 5.6.11)
szego wiersza równych l/Vii. Oznaczmy X = (Xl, ... X,,), Y = CX. Wtedy
YI = Viii, zas [(XI X> t) = Oi} "J (X1{x>,}) =

ns"2 = "\"'0 Xi 2 - nx_2 =0


"\"' Yi2 - Y12 = Y22 = .-. -I- 1";,
2. = 1 [tP(X>t)+ l"'p(X> S)dS]
1.=1 i=l

Przedostatnia równosc wynika stad, ze przeksztalcenie ortonormalne zacho- =t-l- ~1,,1 (= P(X>s)ds
.lt .
wuje dlugosc wektora.
Oznaczajac P(X > s) = 1'(8) otrzymujemy równanie
Widac teraz, ze x i s; sa niezalezne jako funkcje od niezaleznych zmiennych
losowych, a ponadto ns; ma rozklad X~-l·
3. Wsk. Zrózniczkowac wszystkie trzy wyrazenia . /00 u(s)ds = cu(t), c> O,u(O) = 1.

• 0 ~
Odpowiedzi j wskazówki do rozdzialu 6 423

I ,l!wa ~tr(Jl1ajest rMuiczkowalna, jako calka z funkcji ciaglej, mozemy zatem mianowicie prod uh dwóch egzemplarzy tego samego rozkladu - poniewaz X
zrózniczkowac obie strony, otrzymujac dobrze znane równanie j Y sa niezalezne i maja ten sam rozklad. Jak widac, zalozenie o niezaleznosci
pelni tu kluczowa role.
-u(t) = cu: (t), u(O) = l, Tnne, byc moze bardziej naturalne rozwiazanie polega na przetransportowa-
którego rozwiazaniem jest funkcja. u.(t) = e-et, gdzje c > o. niu zadania do R2. Wtedy ualezy udowodnic równosc

6.3. Definicja ogólna r xp.(rl:c)iJ.(dy) = j{:c+!JEBl


l' ) yp.(dx)p.(dy).
.I{<c+·YEB}

1. Wsk. Skorzystac z twierdzenia 6.3.4(e), a dokladniej - powtórzyc rozumo-


wanie prowa.dzace do otrzymania lematu Fat.ol.l z twierdzenia o zbieznosci 10. Odr'. [(XII XJ + .... + X,,) = ~.()(d" .. + X,,). Dowód jest analogiczny do
monotonicznej. dowodu w przypadku n = 2.
2. Wsk. Skorzystac z za.dania l. 11. Wsk. Nic Ina co liczyc na wynik podobny do zad. 9.
5. Rozw. Mozemy zalozyc, ze X ~ O. Jesli G E 9, F E F, to 12. Odp. a) ~, b) 0, c) ~y
13. Raz'W. F" = u(S", X,,+·] , X"+2, ... ), wiQc korzystajac kolejno z zadania 5
rpnc (u(X!, 8,,) jest niezalezne od O'(X""I'!' Xn+2, .. ,l) i 10 otrzymujemy:
l'
jpnc [(Xlu(Q,F)~dP= !.I XdP=E((XIF)lc)=E(XIF)P(C)=

= E (1Ft: (X I F)) P(G) = .j'pnG E (X l F) dP.


t: (XII F,,) = E (X,i S'n) = ~~ = t: (taixi
, t=l I Sn) .
Zbiory postaci F n G tworza 1!'-uklad generujacy u(F,9), zatem miary na
u(F, G) zdefiniowane dla H E u(F, Q) wzorami

l
6.4. Prawdopodobiei!stwo warunkowe - uogólnienie

v(H) = E (X IO'(F, E)) dP, p.(H) = r E (X I F) dP, 1. Odp. a).N (i/2, 0'2/2), b)U[O, t], c) B(t, 1/2) d).a t E N U {O};
.III

d) l_c-AL.
"1=e-2>.l l' e) e-A1'_e-2.\1..
l_(!-:lrr \
sa równe.

6. Wsk. Niech B E B(R). Obliczyc J{YEB} f(X, Y)dP przenoszac calkowanie


E) N (tA2/(A2 + IJ2), A2 /(A2 + f.i?)); g) gestosc g(x) == e-~'~~')"(1-e-('\'-"''')1[0,tl;
do R2 . h) B(t, A/(A + I") ella t. E N U {O} .• '.

7. Odp. E (XI Y) = Y + 3. v1
2. Odp. fXIY(yll) ,= ~Yl(0.1)(Y)' t: (y I X = ~) = 10 '2 h2dy = ~.
8. Wsk. '02 X = E (t: [X - E (X I F) + [(X I F) - Exf I F)
3. Odp. P(A) = E (P(AIX)) = -1 + 2 log 2, gdzie X jest wspólrzedna pierw-
9. Rozw. Symetria i fakt, ze t: (X I X + Y) musi byc funkcja zmiennej losowej szego zlamania.
X + Y sugeruja, ze E(X I X + Y) = ~(X + Y). Wystarczy teraz sprawdzic,
ze dla kazdego A E u(X + Y) 4. Odp. a) E (U I 'I) = f, E (V I U) = l~U, b) cosJ;~:::~lsU
5. Wsk. (X, Y) jest obrazem liniowym (U, V) ~ N (O, I). Obliczyc E (U l aU + bV).
j.A Xd; = .lA
r ~(X + Y)dP, 6. Odp. Ujemny rozklad dwumianowy z parametrami a, b/(b + 1).
czyli 7. Odp. E (Al X = n) = (a + n)/(b + 1); rozkladem warunkowym jest rozklad
gamma z parametrami a + n, b + 1.
1 XdP=
Zbiór A musi byc postaci {X + Y E B} dla pewnego B E B(R), zatem
1 YdP. 8. Odp. Prognoza dla X,.,+l jest zmienna losowa

8n nu2 v2
powyzsza równosc mozna przepisac w postaci
--;:;: n'U2 + v2 + rn nu2 + v2 .
E (X . l{x+YEB}) = t: (y. lp,+YEB}) . Widac tu wplyw sredniej dla calej populacji klieptów, czyli m, oraz sredniej
Równosc wynika stad, ze t:<p(X, Y) zalezy tylko od lacznego rozkladu pary wartosci roszczen dla obserwowanego klienta, cz~li S,,/n.
(X, Y). W naszym przypadku pary (X, Y) i (Y, X) maja ten sam rozklad- 9. vVsk. Odpowiedz powinna byc ta sama, co w zad. 8, z uwagi na przyklad 6.

;1:!!II'~'I"II'II"'I'I'1 " I" 1111 , , l --"", •• =••••••••••


,••••
"",,,,
•.••••••••••••
"
424 Odpowiedzi i wska.zówki do rozdzialu 7 425

10. Rozw. Ze wzoru Bayesa i z tego, ze p.x jest rozkladem dyskretnym mamy: bowiem {w} E B. Poniewaz dla B E B mamy ~

E (g(X) I B)= t
i=l g(Oi)PB(Ai)

*11. Nalezy postepowac podobnie, jak w dowodzie tw. 3.


= P(~) t i=l g(oi)Ps(A,)P(Ai). L P(A!B)P(dw) =

wiec Pa(w, A) = P(.'II G) = 1 P-p.n Analogicznie P(A'IB) =


1"(A n E) =~1"(B) = j~ ~dP,

~ P-p.n. Stad,
12. Rozw. Trzeba pokazac, ze dla dowolnego A E C;; mamy gdy w E A, to Pa (w, {(v}) ~ 1"a(w,A) =~, a gdy w E A', to
,; l
r
.JA XZdP = j'A EQ (X I C;;) Ep (Z I CJ) dP.
Pa(w, {w}) ~ Pa(w,A) = 2'
Ale Sprzecznosc z (2).

1 XZdP = 1 1 XdQ = EQ (X 19) dQ = j~ EQ (X 19) ZdP = 7. Sumy niezaleznych zmiennych losowych


7.2. Prawo zero-jedynkowe KolmogOI'owa
= JAr Ep (EQ (X I 9) Z I C;;) dP = .l'A EQ (X I CJ) Ep (Z I C;;) dP.
2. Wsk. Zbadac dystrybuante.
6.5. Regularne rozklady warunkowe 3. Wsk. Skorzystac z zadania 2.
*1. Wsk. Niech dla rwymiernego P,.(w) "" P(X ~ -rIF)(w). Pokazac, ze istnieje *7. Szk-ic dowodu. Z zadania 6 dobieramy takie Ak, by P(A6Ak) -~'. O. Biorac
zbiór A miary zero, taki ze F(x,w) ~ limr!xFr(w) dla w if- A F(J:,w) = i permutacje
k~oo

= G(x) dla w E A, gdzie G - dowolna ustalona dyst.l'ybuanta, ma wlasnosci:


7r n: 1T'n(Xl j .1:2, ... ) == (Xn+l j Xn+2, ... , X2n, Xl, ... ,Xn, X2n+l, X2n+2, ... )
(i) dla kazdego w E \1, F(-, w) jest dystrybuanta,
(-ii) dla kazdego x E R., F(J:,w) = P(X ~ xIF)(w) otrzymujemy niezc,leznosc A", i 11"n(An), wiec

Nastepnie pokazac, ze PXI:F(B,w) ~ .J~F(dx,w), gdzie calke rozumiemy P(A" n 11"",(,1,,)) = P(A,,)1"(11",,(An)).
jako ca.lke Lebesgue'<\-Stieltjesa, spelnia warunki twierdzenia.
*2. Rozw. Niech \1= [O, l], B = B([O, l]), ,X- miara Lebesgue'a. Niech A C [0,11
Przechodzac z n do .nieskonczonosci otrzymujemy 1"(A) p2 (A) (korzy-
bedzie zbiorem niemierzalnym ta.kim, ze stamy z zad. 8).

'x'(A) = inf{'x(E):B:JA}=l
SEa
i 'x.(A) = sup{A(E):BcA}
BEa
=0.
7.3. Zbieznosc szeregów niezaleznych zmiennych losowych
Istnienie takiego zbioru wymaga oczywiscie osobnego dowodu. l. Odp. a) zbiezny p.n., b) rozbiezny p.n.
Niech F = O"(B, A). Nietrudno zobaczyc, ze F jest rodzina zbiorów postaci
(Bl n A) u (B2 nAl), gdzie Bl, B2 E B, Bl C A, B2 C Al ZdeHnil.ljemy teraz
2. Odp. Istnieje takie e > 0, ze P(!X11 > e) > O, a wtedy I: 1"(IX,,1 > e) = 00.
p na F wzorem 4. Wsk. Skorzystac z lematu Borela-Cantelliego.

5. Niech A. = {maxl"!',,n lXI + ... + Xkl ;?: .,.}. Zdarzenie to mozna podzielic
P((E] n A) u (B2 n A.I)) = ~('x(BI.) + ,X(E2)) na kawalki, zaleznie od tego, dla jakiego wskaznika k po raz pierwszy ma
ella E], B2 E B. Oczywiscie P(E) = ,\(E) dla E E B i miejsce nierównosc lXI + ... + Xkl ;::::r). Wprowadzmy w tym celu zmienna
l losowa (niewlasciwa, bo przekroczenia wartosci r mozemy sie nie doczekac):
P(.4.) == p((n n A) u (0 n A')) = 2' r = inf{k: IX\ + ... + Xkl i r, 1~ k ~ n}.
Wykazemy nie wprost, ze nie istnieje regularny rozklad warunkowy Pa(-,')
na n x F wzgledem B. Zalózmy, ze Pa(-,') istnieje. Dla E E B zachodzi Jednak na zbiorze A zmienna losowa r przyjrr!uje wartosci 1,2, ... , n. Mamy
teraz, oznaczajac
P(BIB) = lB, wiec

Pa (w, {w}) = l{w}(w) = l, (2) Sk = Xl + ... + Xk,. Rk = Xk+l + ... t Xk, Ak = A n {r = k},
1;'11 Odpowiedzi i wskazówki do rozdzialu 7 427

llastepujace oszacowanie: 7. Wsk. Wykorzystac zasade symetryzacji: rozwazyc ciag niezaleznych zmien-
nych losowych (y;,.) takich, ze ciagi (Xn)n i (Yr,)n sa niezalezne oraz Xn ~ Yn,
E (S~lAk) = E ((Sk + Rk)21A',) = (3)
n = J., 2, .... Wtedy 2::'=1 y;, tez jest zbiezny p.n., a wiec 2::::'=1(Xn - Yn) jest
= E (ShA,J + E (RhAk) + 2E (SkRklA,J ) zbiezny p.ll., E (Xn - Yn) = O i P(IXn-}~,1 ~ 2c) = l, n = J., 2, .... Z zadania

) E ( SklAk ) r 2 . P(Ak), 6 wynika, ze 2::::'~1 '02 (X,., - y;,) < 00, zatem 2::::'=1 '02 Xn < 00. Z twierdze-
2 )
nia 2 wynika, ze L:::'=I (Xn - EXn) jest zbiezny p.n., a wiec L:::'=I EXn < 00.
gdzie przedostatnia nierównosc wynika stad, ze E (R~ lA,,) ) O, zas zmienne 8. Szkic T'Ozwiaza:n·ia. Ze zbieznosci L:::'=l Xn wynika, ze Xn -, O p.n., wiec
losowe SklAk i
Rk sa niezalezne, jako ze pierwsza z nich zalezy tylko od Z P(IXnl > e) < 00 dla kazdego c > O, zatem Xn(W) = X;~(w) dla n) n(w)
Xl ... ,Xk, druga - od Xk-H, ... , Xk. W takim razie (korzystamy dwa razy z lematu Borcla·CanteJliego). Stad wynika, ze ZX~
jest. zbiezny p.n. i korzystamy z ~mdanja 7.
E (SklAk . Rk) = E (SklAk)' ERk = O.
9. Odp.(JE(~,l].
Wystarczy teraz dodac stronami nierównosci (3) dla k = J., 2, . _. , n, zeby
otrzymac teze: ID. Raz'W. Wynika to na.tychmiast z twierdzenia o trzech szeregach.

11. Zdefiniujmy r jak w dowodzie nierównosci Kolni.ogorowa, tzn.


= ""L.- ES"lAk
2 L.-T' ? P(Ak')
) "" = T'? P(A).
= inf{k) 1: ISki> 9-
ES~ ) E [s~(~lAk ) ] k=1 k=1. T

Druga czesc twierdzenia dowodzimy biorac A jak wyzej i Niech Ak = {r = kj, BI., = {maXk<j<,;n ISj - Slo!> r}, C = {maxj<';n IXj! ~
~ s}, Dk = Ak n Bk n C, k = J., ... ,n. Wtedy rnamy
Ak = {ISil ~ e,i = 1,2, ... ,k ·-1, ISki> c}.

Wtedy I E = {m.§\xIShl
k:::::;n,
'> s + t + r} n Q.c U Dk.
k=1
E (S~lA) ) ES~ - e2 P(A') = ES~ - e2 + e2P(A). (4)

Poniewaz ISki:>:; ISk-d + IXkl ~ c + C na A.k, to lstotnil~, na Ak n C zachodza nierównosci ISki> t, ISk-II ~ t,IXkl < s, a
wiec ISki ~ t + s, a dla. w E E n Ak, marny dla pewnego l = l(w):

ES~lA = LE (S~lAk) + LE [lAk(Sn - Sk)2] ~


(5) s+t+T < lSd ~ ISki -I- 181 - 81,1 ~ t + s + ISl - SkI,
k=l k=l
wiec maxk<j<;n l5'j - 5',.,1 > 7', tzn. w E Bk i stad.
:>:; (c + C)2 L P(Ak) +L P(Ak)E (Sn - Sk)2 ~
},=I k=l
B=Bn(UAh)c UDh.
k=1 10=1

~ [(c + C)2 + ~EX;'] P(A). Z niezaleznosci Ak i Bk ''''ynika, ze


Z (4) i (5) otrzymujemy P(D~) ~ P(A" n Bk) = P(Ak)P(Bk) ~ P(Ak) max P(Bk).
Ostatnia k:::;;n

ES2 _ .2
nierównosc chyba
najlepiej P(A)) (e+C)2n+E~a -e2
) 1- (c ESa
-I- C)2
A poniewaz maxk<';n P(Bh) ~ P({m~tXh,j ISj - Ski> r}) to
sprawdzic
bruta1nie mnozac 6. Szkic dowodu. Z zaloz'ania dla kazdego c > O istnieje takie N, ze
'lna krzyzll. 1 P(max
ks;,n ISki> 8 + t + r) :>:;
k~n IXkl
P(max > s) + P( U
k=l
Dk) ~
P(max
i)O ISN+i - SNI > c) < ?•... (6)
~ P(max
k~n
IXkl > s) +
Z drugiej strony, z tw. 6
(c + C)2 + P({maxlS'j -'Ski> r}) L.-
"" P(Ak),
k,]
k=1.
max ISN+i - SNI
P( l~t::::;:n > c) ) J. - 0t=N,l EX;
"N+n,

Zatem gdyby szereg Z:::'=1. EX'; byl rozbiezny, otrzymalibysmy sprzecznosc co daje pierwsza nierównosc tezy, bo {maxk<,;n ISI.I > t} = U~=l Ak. Druga
z (6). wynika z tego, ze {ISj - .5\1 > r} C {ISn - Ski> r/2} U {ISn - Sjl > r/2} .•
428 Odpowiedzi i wskazówki do rozdzialu 7 429

7.4. Prawa wielkich liczb *14. ROZ1U. Mozna zalozyc dla l ':s; p < 2, ze EXl ~" O. Trzeba udowodnic, ze

2. Rozw. L:'=l P(I ~ - pl ;;?:~) :s; 2 L:'=l e- n~2 < 00.


1 n
p.n.
nl/p ~Xi -> O

3. Rozw.""'oo
L....-n=l n
Xn-p J'est zbiezny p.n. l bo E (Xn-P)
n = O J L--n
"'" n
V2(EIc.l!.) = i:::l

= pq Ln ~ < 00. Skorzystac z lematu 6 (Kroneckera).


Niech Yn = Xnl{!Xn!(n1IP)' vVtedy
4. ROZ1U.P( !Sn-nSSn!' ;;?:c) :s; ~~;;.yco dowodzi pkt. a), a przy zalozeniu punktu
b) mamy V2 Sn :s; n . const. ~P(Xn =I- Y;,) = ~P(lXlIP > n):S; EIXIIP < 00.
5. Rozw. V2 Sn :s; 3nC i skorzystac z twierdzenia 4. 11.=1 11.=1

6. Rozw. Ve > O OjN 1",(Xi, Xj)1 < c, o ile li - jl > N. Dla n dostatecznie Zatem na mocy lematu Borela-Cantelliego i lematu Kroneckera wystarczy
duzych V2Sn :s; Kn + 2Cn2c:, gdzie K jest stala zalezna tylko od N i C. udowodnic, ze szereg Ln n - l/py;, jest zbiezny p.n. Dla p < 1 korzystajac
z twierdzenia Fubiniego marny:
7. Rozw. Korzystamy z zadania 5.6.1 i definiujemy Yn jak w dowodzie MPWL.
Pokazujemy, ze limn VOCY1 :2q+ V".l = O i korzystamy z twierdzenia 'L
8. Rozw. Niech Xn beda takie, ze
2
P ("Yn = n'l) = P (Xn = -n 'I) = -2
n1 ' 1- P(X" = O) = 1- o'
n-

Wtedy V2 Xn = 2n6 i""'.


~n._00_1 Xn jest zbiezny p.n. (lemat Borela-Cantelliego). Dla p = 1 korzystamy z lvlPWL.
9. Rozw. Jedyne ograniczenie to pn E [O,~], by rozklad prawdopodobienstwa Rozwazmy teraz przypadek 1 < P < 2. Na mocy tw. o dwóch szeregach wy-
byl dobrze zdefiniowany. starczy udowodn.ic, ze sa zbiezne szeregi Ln E (n-l/PYn) i Ln V2(n-'/PY;,).
Poniewaz EX" = O, to EYn = -I:: (X,,1{IXn!:o,.n1/p}), zatem
10. Roz'w. Zachodzi SPWL, bowiem limn v:'fn = O; ale L:~l P(IX"I > n) = 00,
wiec P(lim ~ = O) = O, czyli nie moze zachodzic MPWL.
11. Rozw. Skorzystac z MPWL, ~n n -1/PIEYnl :s; lOO
O 1;-1/7) E (IXlI1(!Xll>tl/P}) dt :s; CEIXllP < 00.

12. Rozw. Dla c > O niech Podobnie

s~= i=l L 1p:i<:;C}Xi,


~V2(n-J/Py;,):s; ~n-2IPI:: (X;l{!X,I<:;n'/p}):S;
Wtedy

. f -8"
l·lrnm'
n-oo n ~:? l'HnlTl oc) -S;;
'I'
n ......•. n = cc' l
(X :1 {X,(c} ) p.n. :s; C ./0/00 C2/PE (X;1{!X;!<:;t1/p}) clt:s; G\EIXIIP < 00.
oraz
15. Wsk. Patrz przyklad 18.
lim
c-oo E [Xll(Xl<:;c}] = 00, Odp. a) A, b) f(~), c) f(~).
wiec P(lim" ~ = 00) = 1. 16. ROZ1U. Oznaczmy K = P(U :s; f(Y)/Cg(Y)).

13, Roz1JJ. Oznaczmy V2X1 = a2 Wtedy E (L~l Xi)4 = 6(;)a" -/-nc :;:;;an2 P(X :s; t) = P(Y :s; tiU :s; f(Y)/C'g(Y)) =
i
dla wszystkich n pewnej stalej a. Z nierównosci Markowa (5.7.6) .!::'oo P(Y :s; t, U :s; f(y)/Cg(Y)IY = y)g(y) dy
P(U :s; f(Y)/Cg(Y))
p (I -:;;:
Sn I >c: ) :s; an2
(cn)4'
,f,'-00 jJJLL
Cg(y)
g(y) dy __
f·t.
. -_00 f(y) dy
_
-. K - KC'
i poniewaz szereg :L (;.~~.. jest zbiezny, na mocy lematu Borela--Cantelliego
z prawdopodobienstwem 1 zachodzi tylko SkoIlczenie wiele zdarzen w nawia- Biorac t -.00, otrzymuj:cmy K = t;, a zatem'p(X :s; t) = foo f(y) dy.
sie, co oznacza, ze ~ L:~l Xi --->n-oo O. 17. Odp. Tak, wezmy np. g(x) = l(O,l)(X), wtedy:p = ;:;.
do rozdzialu 7 431
. lilii OJl'owlou~i i wskazówki

3. Rozw. Oznaczmy przez p i T szanse zauwazenia: bledu przez pierwszego i dru-


H,. Rozw. Mamy
giego korektora. Jesli ri' oz;{acza liczbe bledów,' to srednio pierwszy korektor
zauwazy np bledów, drugi -- nT, a bledów zauwazonych przez obu bedzie
i
E (f(XI)
m(X1) ) =~
f::. m(i)
fU) . ~n = ~.
n npr. Z za]eznosci
Zatem z MPWL
k f(X;)
np = 91
I::i.=l m(X'i) ~ W p.n.
n· kk_co nr = 53
19. Rozw. Mamy np'" = 39

EZI = P(.f(XI) > Y1) = ff (f(",»v} l[O,l](x)l[o,lJ(y)dydx = t


.lo f(x) dx
wyliczamy p = ~ ~ 0,74 i .,. = ilt ~ 0,4.3. Zwolnienie z pracy wyglada na
usprawiedliwione, szczególnie w drugim przypadku. Sami stracilismy
szanse ustalenia,
i korzystamy z MPWL. 4. Odp. Niestety, az log 100 ~ 4,605. ile naprawde
20. Rozw. Patrz przyklad 17. 5. Odp. e-l. bledów zawieralo
pierwsze wydanie,
*21. Rozw. Poniewaz X,;,;i Xr-; spelniaja zalozenia twierdzenia, to wystarczy je bo nie
udowodnic dla X" ~ O. Niech Yi = Xi1{x,";i}, B;' = 2:~=1 Y; i k" = [a"] dla skorzystalismy
a>1. 7.6. Twierdzenie cle Moivrl3'a-Laplace'a
z tej recepty.
V/tedy nalezy kolejno udowodnic, ze Odpowiedzi do zadarl podano zgodnie z naj prostsza wersja przyblizenia de Mo-
S* -&S*
1°2:::"=lP(1 k"kn k",·1 >E:) (GEX1 <00 .. ivrc'a-Laplace'a, czyli wzorem 7.6(10), bez poprawki z 7.6(9).

2°EX1 = lim" T::- p.n. (z lematu Borela-Cantelliego) 1. Wsk. Dowody obu za,]eznosci sa prawie identyczne. Trzeba uzasadnic za-
3°,\,00_1
~n_ P(Xn "I y,,) ( EX1 < 00, wiec lim" ~k~n = EXl p.n. miane kolejnosci przejsc gn1.11icznychwzgledem n i b, co mozna zrobic np.
zauwazajac, ze
4.°Gdy l(n) jest takie, ze kle,,) ( n < kl(n)+!, to z monotonicznosci S,,:

l T •• ,'hien) kl(,,) .. Bn. Bn T P(S~ ~ u) = P(S',~ ~ a, S,·, E [-b, bl) + P(B~ ~ a, B~. tj. [-b, bl).
a
-EX1 n
(lImmf -k l ( n) . kZ(,,)+l
--- "n -
(hmmf "n -
(hmsnp (a:EX1
Nalezy teraz wybrac tak duze b, by drugi skladnik po prawej stronie byl
i biorac a ~ l otrzymujemy teze. dostatecznie maly i skorzystac z tw. de Moivre'a-Laplace'a.
*22. Wsk. Patrz zad. 9.1.14.
2. Odp. Okolo 1·-· <:li (2,582) = 0,005.
3. Odp. Szansa, ze zabraknie miejsc: 2[1 - !f>(2,83)]~ 0,0023. Zeby zredukowac
7.5. Twierdzenie Poissona
t.o prawdopodobienstwo do 0,001, nalezaloby przygotowac po 124 miejsca.
1. Odp. Mozna badac proporcje liczby "szóstek" do "piatek", "czwórek", etc. 4. Odp. Jesli p jest szansa pokonania Bolka w pojedynczej serii, srednia liczba
Jesli na przykla.d gracze unikaja skreslania liczb na brzegu kwadratu, be- serii wynosi l/p. Przyblizenie de Moivre'a-Laplace'a daje p ~ l - iI>(5,4)(
dziemy mieli do czynienia z wyborem 6 liczb z 22 i proporcje szans otrzyma- 4.10-8, na mocy oszacowania (2) z § 5.10. Ale oszacowanie (12) z § 7.6 nie jest
nia obu rodzajów wygranych beda inne niz przy wyborze 6 z 49. Oczywiscie zbyt dobre: pokazuje tylko, ze blad przyblizenia nie przekracza 0,1. Mozna
gracze nie zachowuja sie az tak prosto, ale podany test dziala. zatem podejrzewac, ze przyblizenie l/p na tej podstawie bedzje obarczone
2. Rozw. Zgodnie ze wzorem P(A n B n G) = P(GIA n B)P(B[A)P(A) szansa, duzym bledem. Z kolei nierównosc Bernsteina 7.4.2 daje p ( 0,162. Pozosta-
ze ustalony znak bedzie bledny wynosi wiamy Czytelnikowi zastosowanie nierównosci Bernsteina 7.6.4.

0,001 ·0,1 . 0,5 = 5 . 10-5 = p. 5. Odp. Tw. de Moivre'a-Laplace'a daje dla n = 10 ok. 1 - iI>(0,63) = 0,264;
dla n = 100: ok. 1 - iI>(2) = 0,023; dla n = 1000: ok. l - !f>(6,32), co jest
wobec tego liczba bledów ma rozklad zblizony do rozkladu Poissona z para- praktycznie zerem.
metrem A = np = 5. Szukane prawdopodobiellstwo wynosi
6. Rozw. a) Szansa, ze dany uzytkownik w danej chwili chce skorzystac z poczty
3 k wynosi p = 9/1440 = 1/160 Liczba takich uzytkowników jest zmienna losowa
L
k=O
~! e-A = 0,26503 ± 0,00025, X o rozkladzie (z grubsza) Poissona z parametrem A = np = 320/160 = 2.
Nalezy teraz wyznaczyc (metoda prób i bledów), najrrmiejsze takie k, zeby
gdzie oszacowanie bledu wynika z twierdzenia 2. P(X < k) ~ 0,95. Jest to k = 5 ..
432 Odpowiedzi i wskazówki do rozdzialu 8 433

b) Ma byc P(S" < k) ~ 0,95, gdzie Sn ma rozklad Bernoulliego z par. Przyblizenie de Moivre'a-Laplace'a daje wartosc praktycznie równa zeru.
n= 320, P = 1/160. Poniewaz <I>(1,65) = 0,95, powinno byc Oczywiscie nie wiemy na razie nic o bledzie p'rzyblizenia, ale zastosowanie
jednego ze znanych oszacowal1 (nierównosc Bernsteina, tw. Berry-Esseena)
k-np
--- ~ 1,65, prowadzi do wniosku, ze szukane prawdopodobienstwo jest male.
.jnpq
'vV wielu zadaniach przyjmuje sie, ze prawdopodobienstwo urodzenia chlopca
skad k ~ 4,33 i nalezy przyjac k = 5. wynosi 1/2 i nie popelnia sie wielkiego bledu, jesli tylko liczba "prób" jest
niewielka. Ale nie tu. Gdyby szansa urodzenia chlopca byla równa dokladnie
7. Rozw. a) Jesli X oznacza liczbe dzwoniacych w danej chwili, to ma byc
1/2, prawdopodobierlstwo, ze urodzi sie nie wiecej chlopców niz dziewczat·
P(X ~ 2) = ~. Zakladamy, ze X ma (w przyblizeniu) rozklad Pois(/\),
byloby bliskie 1/2, a nie zeru. Jak widac, czasem dokladne okreslelliepraw-
zatem
,,\2 3 dopodobienstwa zdarzenia jest istotne.
1 +,,\+ 2 = 4e'\
Rozwiazanie najszybciej znajduje sie metoda prób i bledów: >. "" 1,7273. 8. Zbieznosc rozkladów
Zatem kazdy kor:zysta z polaczenia srednio przez 1440p = 1440(>./n) = 12,44
minuty dziennie. 8.1. Przyklady i definicja
b) Poniewaz <I>(0,68) = 0,75, podobnie jak w rozwiazaniu poprzedn.iego za-
1. Roz·w. Dowód nie wprost: gdyby dla pewnej funkcji f ciaglej i ograniczonej
dania mamy
na E istnial taki podciag nk, ze infk IEf(XnJ - EI(X)I > 0, to poniewaz
k - np = ° 68
.;npq " Xn •. .!..., X, mozna by bylo wybrac z niego podciag nk" taki ze Xnc, ~ X
(patrz tw. 5.9.8). Stosujac twierdzenie Lebesgue'a o zbieznosci zmajoryzowa-
przy czym k = 2; ~ozwiazujac równanie kwadratowe otrzymujemy p = 0,0062
nej otrzymujemy sprzecznosc.
i P = 0,01604; ten ostatni pierwiastek daje sredni czas korzystania z pola-
czenia ok. 23 minuty na dobe. Dokladnosc jest pr.obiematyczna. 2. Wsk. Wykorzystac fakt, ze istnieja rózne zmienne losowe o tym samym roz-
kladzie.
8. Odp. Przy standardowych oznaczeniach ze schematu Berno(llliego: wiemy,
ze p ~ 0,005, naszym oszacowaniem ulamka chorych bedzie 8,;/n, powinno :3. Roz'W. Jesli zdefiniujemy funkcje f(x) = Q(x, c) A l, to
zatem byc
E [Q(.:(", c) f\ l] --: E [Q(c, c) A l] = 0,
p (I~n_ pl ~ 0,001) ~ 0,95.
Po przeksztalceniach otrzymujemy stad, jesli O < <
ó' l, co nie zmniejsza ogólnosci, mamy:

P(o(X", c) > P(g(Xn, e) !\ l > c!\ l) =


= ~
E) ~

p (I Snvnpq
- np I 0,001 J"7:)
pq
- ~ 0,9u." _ P(
- .. Q (v.)
j\.n, C /\ ]. ~
./ C ) ~
/' ~Jo(X",e)!\ l] _ ~ °l
. C n-·'oo

Poniewaz <I>(1,96) = 0,975 (wtedy bowiem <I>(1,96) -<[>( -1,96) = 0,95), li<.:zba
n powinna spelniac warunek czyli X,,~. X.

Vii ~ 1,96· 1000JPi].


4.Ii~oz'W. Wezmy I eiagla i ograniczona na E, wtedy h(x) = I(ax+b) jest takze
ciagla j ograniczona, wobec tego
1.'
Ale p ~ 0,005, zatem iloczyn p(l-p) jest najwiekszy dla p = 0,n05. Ostatecz-
nie n ~ 19112. Gdybysmy nie mieli dodatkowej informacj.i o p, trzeba by bylo
Ef(aX" + b) = Eh(Xn) -> Eh(X) = EI(aX + b).
skorzystac z nierÓwnosci p(l- p) ~ ~, °~p ~ l, co znacznie pogorszyloby
oszacowanie liczby n. 5. Wsk. Wykorzysta.c funkcje gn(X) = 1+ cos 27f'~x.
G. Roz'W. Koniecznosc -- patrz rozw. zad. 9b ..
9. Wsk. Zastosowac metode z poprzedniego zadania.
Dostatecznosc: nalezy rozumowac tak, jak w przykladzie 4 j zauwazyc, ze dla
10. Rozw. Niech
worodek
~i bedzie
jest chlopcem,
zmienna losowa, przyjmujaca
i ° w przeciwnym
wartosc
razie. Wtedy
l, gdy 'i-ty no- ustalonych c > ° i m dosta.tecznie i duzych n sumy I:Z~1 Pk i 2::::=1P",k sa
wieksze od l - c, wiec odpowiednie "ogony" nie przekraczaja e.
7. Roz·w. Dla. dowolnego A:
P(6 + ... + ~lOOOO ~ 5000) = 49,87
P (_S_10_0_00_-_5_1_7_0 ~ - 49,87
_1_70_) "" <I>
( -:3,40) =
= 0,0004 .
ll/(A) - 1/,,(A)1 ~ j' .4 II- !"ldfJ. ~ .ln r II- fnldfJ..

d. r fi
(IJl(IIVll'll~1 j w~kaz6wki do rozdzialu 8 435

N 1111 II II••
/'
. 11 !I •.I ,1/1
.I

• (J
/ •.. Wt.udy
z t.}'1.Lobesgue'a.
g;! ....• O J.L-p.J1.,0:(
Ponadto
g;; :( f, f jest calkowalna, wiec
In g;; dJ.L- In g;; dJ.L= In g".dJ.L= O.
3. Wsk. Z zadania 8.1.4 ~" +c L X + c, Y;, - c L O i teza wynika z zad. 2.

laLego
4. Wsk. Mozna np. skorzystac z tego, ze istnieja rózne zmienne losowe o tym
samym rozkla.dzie.

r
Jn IgnldJ.L= r g~ dJ.L+ Jn
Jn r g;: dJ.L= 2 .In
r g~ dJ.L....•O. 5. Roz7JJ. P(IX".Y,,1 > e) ~ P(IX,,1 > A) + P(IY"I > c/A) dla. dowolnego A.
8. Wsk. Zastosowac tw. Scheffe'go dla miary Lebesgue'a . 6. Roz'Ul. X"Y" = X,,(Y~' ~·a.) + aX".
9. Wsk. a) Zastosowac tw. Scheffe'go do miary liczacej J.L lub przeformulowac 7. Wsk. Niech g(x) = f(:c •') ;I.- f(O)
':/1
- f I (O ) ~;. WteQY
argument z zadanif18; b) dla punktu Xo wziac takie jego ot.oczenie o promie-
niu e, w którym nie ma innych punktów zbioru S i rozpatrzyc calki z fi.mkcji X".(.f(Y,,) - .f(0)) = .f'(O)X"Y" + X"g(Y,,).
f(x) = <pc ~e(x, xo)), gdzie <p jest zdefiniowana wzorem 8.1(2).
10. Wsk. <= spelnione sa zalozenia przykladu 6, => nie wprost. *8. Wsk. Udowodnic, ze sreJniony jost warurlOk (-iv) twierdzenia 1. Niech G
bedzic zbiorcrn otwart.yrrl w P. Wtedy
11. Roz'Ul. a) Wezmy óowolne u > O. Niech .f(x) = <p(7J. -. lxI), gdzie funkcja <p
jest zdefiniowana wzorem 8.1(2). Wl;edy
h-~..(G) n A c Int(U n
h~n:'
h;;-1(G)).
lirnsupP(IX".I. > u) :( limEf(Xn) = E/(X) :( P(IXI > 1! -]) .••.•• O,
171

9. Rozu!. Oznaczmy p = 1·- q. Skorzystamy z poprzedniego zadania o owadzie


gdy 'li .••.••00.
(4.1.1]) i z faktu, ze splot rozkladów Poissona jest rozkladem Poissona z pa-
b) Wystarczy wziac f(x) = <p(u-\Ixll)' gdzie 11·11oznacza norme euklidesowa
w FLn .. rametrem równym sumie wyjsciowych parametrów, czyli POis(a) * Pois(b) =
= POis(o. + b), otrzymujemy rozklady liczebnosci jaj w kolejnych krokach:
12. Rachunki z przykladu A.2.2 pokazuja, ze Xn rria gestosc
• POis(a),
On· (1- x2)(n-ll/211_1.lJ(X).
• Pois(ap) * Pois(a.), czyli POis(a(l + p)),
Wobec tego
• POis(a(l + p)p) * Pois(a), czyli Pois(a(1 + p+ p2)), etc.

= Cn ( 1- y2;e Rozkladem granicznym jest. Pois(a./l - p) = pois(a/q). Zeby t.o zobaczyc,


9.fii.xn (x) 2n
x2) (n-1)/2 11-.fii...fii.J(x) -;:~ 1 -x'/2 ,
trzeba udowodnic, ze jesli a" -., a., to Pois(a,,)' ~ Pois(a). Mozna to zrobic
i za.stosowanie wyniku zad. 8 konczy dowód.
korzyst~jac z wyników tego rozdzialu, ale naj wygodniej jest uzyc funkcji
Jesli rozklady jednostajne na kuli zastapimy rozkladami jednostajnymi na charakterystycznych.
sferze, wynik bedzie ten sam. Mozna przeprowadzic rachunki ana.logiczne do
pokazanych wyzej, mozna tez skorzystac z faktu, ze dla duzych n praktycznie
8.3. Zbieznosc rozkladów a zbieznosc dystrybuant
cala objetosc kuli n-wymiarowej jest skupiona blisko jej powierzchni.

8.2. Charakteryzacje slabej zbieznosci rozkladów


1. Roz'Ul. Niech Vn g X" + (a. - a.n). Wtedy y" L X (zad. 8.2.2) i

P(Xn :( an) = P(Yn :( a) .....•P(X :( a).


1.Wsk. Patrz przyklad 8.1.I.
2. Rozw. Pokazemy, ze zachodzi warunek (ii) twierdzenia 1. Wezmy funkcje Mozna tez skorzystac z zadania 8.2.5.
jednostajnie ciagla f, ograniczona przez lvI. Na. mocy jednostajnej ciaglosci 2. Wsk. Niech c = l/m i niech P(ak) = klm, k = 1,2, ... m -l. Dla dostatecz-
dla dowolnego e> O istnieje ó > O taka, ze jesli Ix-yl < ó to If(~;)-f(y)1 < e. nie duzych on wszystkie liezby 11<;,(ak) ~ F(ak)1 sa mniejsze niz c. Wystarczy
Wtedy teraz skorzystac z monotoniczllosci, zeby oLrzyr;nac odpowiednie oszacowanie
na calej prostej.
IEf(Xn + y".) - El(X".)1 :( ePCI/(Xn +Y,,) - l(X"')1 < e) +
+ 2MP(I/(X" + Y".) - f(Xn)1 ~ e) :(
3. Wsk. Jesli d(Pn, P) .....•O x jest punktemi ciaglosci P, wybieramy c > 0, dla
którego P(x) - P(x - tO) < e i P(x + e) -- P(x) <::; e. Dla dosta.tecznie duzych
:( e + 2M P(IYnl ~ ó). n mamy
P(IYnl
mamy:
> ó) -----t
n_= O, jako ze Y". ~ O (zad. 8.1.3). Poniewaz Xn L X,
Dowód twierdzenia
P(:c - E) - e:( F" (x) :( P(x+ e) + e.
odwrotnego mozna uzyskac adaptujac dowód tw. 1.
limEf(X" + Yn) = limEf(Xn) = E/(X), Niezlym kandydatem na przeliczalny zbiór gesty jest zbiór miar postaci
n n
L aiów" gdzie sumy sa SkOllczone, a liczby Wi i ai. - wymierne.
iii
l~l
1~ do rozdzialu 9 437
436 Odpowiedzi i wskazówki
'.
i~
il:!I.

4. Wsk. Jesli f.L i Iv sa rozkladami prawdopodobienstwa na (E, B(E)), to defi- Relacja mniej.szosci "tlumaczy" sie nastqpujaco: jesli u (Ul",,'Uk),V =
l~
1'.1.1'.'.' niujemy (Vl, ... 'Uk), to "U < lJ oznacza; ze 'lii < Vi,..i = 1,2, ... k.
t~
d(p, v) = inf{E: 'v' FCE,F domkniety I-l(1") :( v(1"") -I- E, v(1") :( p(J<~) -I- E}. *11. Wsk. Przestrzen metryczna, osrodkowa i zupelna da sie zanurzyc homeomor-
ficznie w R =.

I
li'}

!~
Ustalmy E

l~n(F) :S IL(F,,)
Jesli z kolei pn ~
przy ustalonym E
> O.

-I-
Jesli
f.

>
d(f.Ln,

Wystarczy
f.L)

p i P jest domkniety,
Odla dostatecznie
--7 O, to
teraz
to limsup
duzych n
dla dostatecznie
wziac granice górna
/"n(P)
duzych
obu stron
n mamy
i
:( 1~(1"), zatem
E ~ O. 12. Rozw. Dla t ;?: O

1"y" (t)
mamy:

= P(Yn :( t) =1- P(min(X1, ... , Xn) > t/n) =


!~i.
(
iWi.11

pn(1") :( 1-'(1") -I- E :( f.l(P,,) -I- c'


i~1 =1- 1.-f; --71.-e-',
)""
t~i
l!~' Mamy tez liminff.Ln(1",,) ;?: I-L(1".), czyli dla dost, duzych n jest I-,,,(.F,) ;?:

I
;?: p(1",,) - E, skad
zatem ciag (y,,) jest zbiezny wedlug rozkladu do zmiennej losowej o rozkla-
1.1,(1") :( f.L(1",,) :( I-LnU"c) -I- E.
dzie wykladniczym,
Przeliczalny zbiór gesty w metryce d mozna otrzymac, wybierajac przeli-
i@:
czalny zbiór gesty S C E i rozpatrujac takie rniary probabilistyczne I·' o no-
~jn!i
snikach skonczonych, zawartych w S, ze 1"({a}) E Q dla a E 8. 9. Funkcje charakterystyczne
~:(ri

5. Roz'W. Wykorzystamy konstrukcje uogólnionej funkcji odwrotnej do dystry-


.~.i buanty (zad. 5.2.2): niech X,X1,X2, ... beda takimi fLmkcjami dla, clystry- 9.1. Definicja i przyklady
buant F, F\., F2, ... miar /",1.1,1,1-'2, .... Wylmzemy, ze X,,(w) ~, .X(w), jesli w
~ jest punktem ciaglosci ){'. 1. Rozw. b) Mamy U = cos tX-I-i sin tX, EU = E costX -I-iE sintX. Korzystajac
I·l Nie zaszkodzi Ustalmy w E (O, J.). Niech E > O. Wybierzmy takie 1;, zeby p( {x}) = O z analogicznego zwiazku dla V i Y i niezaleznosci par zmiennych losowych
:~
.:im~:

przypomniec
sobie, ze
i X(w) - E < X < X(w). Wtedy 1"(~I;) < w i ze zbieznosci Fn(x) do F(:c) cos tX i
cos tY oraz sin tX i sin tY otrzymujemy
II w ~ F(x) **
wynika, ze dla dosta.tecznie duzych n mamy P,,(:c) < w, a stad X(w) - E <
X(w) ~ x, < x < X,,(w). Zatem liminf Xn(w) ;?: X(w). EUV=
Niech w < Wf, E > O. Wybieramy < "t < X(w')-I-
.W.i

~I 'LI., dla. którego X((v')


ri = [(cos tX cos tY - sin tX sin tY) 'i[(cos tX sin tY - sin tX cos tY) =
i f.l({1'}) = O, Marny w < Wf :( P(X(wf))
--I-'
-1-6' :( F'(u), wobec tego w :(
:( F'n(-u) dla dostatecznie duzych n, a stad X,,(w) :( 1/, :;:;: X(wf) -I- E. Dlatego = [costXE costY - [sin tX[ sin tY -I- i(E costX[sin tY - E sintX[ costY) =
·1
limsupX,,(w) :( X(w), jesli X jest ciagla w punkcie w. = EUEV
H
H·.I

Wystarczy teraz zau~azyc, ze X ma zbiór punktów nieciagJosci co I1i\jwyzej


1:1
~ J
przeliczalny i polozyc na nim X Ol" Xn =0. Nie zmienia 1;0 rozkladu zrnifi)n-
1:1
'l~'"'.!'
.. nych losowych X, Xl., X2, ... , a daje zbieznosc ciagu (Xn) do X na calym 2. Roz'W. a) EeitXY ,"" E (E (eitXY y)) = te _,~\'2 = .JI~l-t2 (skorzystalismy
l'i I

II
i I 6.
przedziale
W8k. Zastosowac
(O, l).
lemat Fatou i wynik z poprzedniego zadania.
tu z faktu, ze Eeu" =
Ef(X,t) dla nieza.leznych
h" dla. li < ~, i z tego, ze E (f(X,
X i Y; patrz za~l. 6.3.6).
Y) I Y = t) =

7. W8k. Skorzyst,"c z twierdzenia. Skorochocla (zad. 5) i zad. o. b) ::;'~2ii:' Pojawia sie oczywiscie problem, ktÓry pierwiastek z liczby zespo-
1'1
li 8. Roz'W. P(iX" I > E) :( E-2 SUPn EX~, zatem ciag (X,,) jest jedrny i dowolny jonej wybrac. Wiern'y, ze funkcja charakt-erystyczna jest ciagla przyjmuje i
podciag zawiera podciag (X"k!) slabo zbiezny, powiedzmy do Y. Wtedy (zad. w zerze wartosc 1.. ,Obie te wlasnosci zostana zachowane, gdy wybierzemy
li
[.,
7) EX~", dazy do EY", r = 1,2, ... , bo dla kazdego 'f' X;; sa jednostajnie pierwiastek o dodatniej czesci rzeczywistej (pOl'. zad. 13.4.2). Formalne uza-
--7 [.X'·, wiec EX" = [y" i z zalozenia
t; sadnienie takiego wyboru uzyskamy, gdy uogólnimy wzór wykorzystany w a)
" calkowalne (zad. 5.9.16). Ale [X~k
1,1
X~Y. I na zespolone wartosci A. VV tym celu wys,tarczy udowodnil~, ze
II ,
9. Rozw. IX"IP sa jednostajnie cal kowalne (por, 'lad. 5.9.16), IX lXI",
L
.-E.. ..,

;III
./i,
-uz' 1. ~

II
jl
X;: XP
10. Wsk. Oto ogólna. wskazówka:
(2)\ tw. 8.2.4) i skorzystac
na.lezy nasladowac dowody dla przypadku
z zadania 7.
rze-
1= o e " dx= ~.
czywistego, odpowiednio interpretujac oznaczenia .. Zamiast przedzialów na-
~ [ lezy rozwazac ich k-wymiarowe odpowiedniki, tj. zbiory postaci jesli Re u> O ilU oznacza taka liczbe ze,gpolona w, ze 'li? =ui R.e w > O.

~~\·.I
Niech l' = R2e2is.
(al, bl] x ... x (ak, bk].

, l
~ffl !
II
.~.r.lli

1IIIIIIIIiiili
nilllllll'lp(~,11 wHlm:t6wki do rozdzialu 9 439

Otrzymalismy funkcje charakterystyczna rozkladu Cauchy'ego (równa e-Iti


- por. dodatek D).
d) Rozklad
losowe (X, Y)
niczosci gestosci
i (~*,
tej zmiennej
x:;{)
gaussowskiej
losowej jest taki sarn, jak w a), poniewaz
maj'-l ten sam rozldad. Wynika to z niezmien-
ze wzgledu na obroty (zac!. 5.6.6).
wektory

~\-

e) z a) i tw. 9 wynika, 7.C funkcja cJlarakt.erystyczna


-- dwustronny wyklach\.i'cz,l' (por. tabela 2).
jest Ib, a rozkladem
~ ,,!~ l.

R
3. Odp. <Pl' (t) = (1_12;.()' ; ..,"
.I
Parametryzacje f'3 i 1'2: 5. Rozw. ('i)=:- (iii). Z (i) wynika, ze ./"::'00(1. - coss~I;)~i(dx) = O, a poniewaz
1. .-cos sx ~ O, mia.ra l' musi b,l'c skoncent.rowana tam, gdzie l - cos sx = O,
'13: [0,11.] -) ['3, '13 (t) = (11. _t)ei', 'Y~(t) = _ei"; czyli sx = 27rk, gdzie k jest calkowite. To daje ('i·ii).
(ii'i)=} (-ii). Jesli zachodzi (i'i'i), to <p(I,)= :[Pn~2'd"il', czyli ma okres s.
'12: [O, s] -> 1'2, '12 (t) = 11.eit,'Y;(t) = i11.eiL;
(ii)=} (i). n·ywiiJlne.
Wtedy.
to
J' I' e-z 2 dz = O = JI',
r e-z 2 dz+ J'1'2 e-z , dz+ Jf'"
r e-z 2 dz. Jesli FI -> 00, 6. Wsk. Jesli 1<p(s)1 = l, to dla pewnego b mamy <p(t) = eiib i mozna zastosowac
t.wim·dzenie z zadania 5 do funkcji charakterystycznej ep(t)e-m.

lI',
f' e-z' dz -> 100
o e-X' dx; 7. Wsk. do a) SposÓb I. Rózniczkujac pod znakiem calki i calkujac przez czesci
otrzymujemy <p'(t) = -tep(t); poniewaz ep(O) = l, t.o !ogep(t) = _~t2
SposÓb .fI. Wyka:tac (indukcyjnie lub za pomoca funkcji gamma), ze moment.
=- =- . e _t2e~;:l e is dl: =
11'3
e _z2 dz
.lR.
o
e _(R_t)2e2i.Q. e is dt
lR.
o
rZQdu 2n rozkladu
nastepnie
IV (O, l) jest
skorzyst11.c z tego, ze Eei'x
równy (2n - l)!! = l . 3 .....
= :[~=o E(i~;~()n.
(2n - l), a

2 2 " l 2 2
= -y'U e-ut dt _.- _Y'U e-ui dtj do b) e"""-," , .
lR.
o R-oo )'00
o
Oclp.

8. Odp. VilysLarcza dwie niezalezne zmienne losowe X i Y o rozkladzie Cau-


Natomiast chy'ego. Wtedy 2X ~ X + Y.
9, Wsk. Wszystlde te funkcje sa funkcjami charakt.erystycznymi. Odpowiednie
II, e-Z' dzl, ~ l'/e-R.'e2it . 11.ie't/ dt = 11..ls le-RO(CO.2i+iSin 21.)/ dt = rozklady mozna wyznaczyc: przedstawiajac funkcje w postaci sum :[Pkeiak'.
10. Wsk. Jesli I.q, ... , l'" sa wyjsciowymi rozkladami, wystarczy rozwazyc roz-
= 11..Jof's e-n' co.21 dt ~ Rse-R'8 klad prawdopodobienstwa Pl/l'l + ... + p"Mn .

11. Odp. e",(",(I.)-I)


Poniewaz O < s < ~, wiec cos 2t > cos 2s > Ó > O, i ostatnia calka zmierza
12. Odp. a) Tak, jest Lo Lch. I~* M;
do zera, gdy R ---> 00.
b) Tak, wystarczy wykorzystac wynik zad. 10 i to, ze Rez = ~(z + z).
Ostatecznie J~ooe'-x' dx = y'U. 1000 e-U" dt.
A bardziej pogladowo: wyobrazmy sobie "maszynke do losowania" zlozona
c) vVystarczy obliczyc nastepujaca. calke, stosujac podstawienie biegunowe:
z symetrycznej monety i zmiennych losowych X i - X. Rzucamy moneta
i jesli wypadnie orzel, wybieramy X, w przeciwnym razie wybieramy -X.
EeitXIY ,txlv -" 7,y d d
= 27r
1. 100 -00 e
-o;) j'OO e 2" , x y = Czytelnik zechce opisac otrzymany rozklad. '
c) Tak, jesli Xl i X2 sa dwiema nieza!eznymi zmiennymi losowymi o rozkla-
- e it ctg - "- d d
'" re2rep= dzie M, to lepl2 jest. funkcja charakterystyczna Xl - X2.
l
27r . o l2"1°O
o , d) Niekoniecznie. Jak sie wydaje, wystarczy wziecie pierwszej z brzegu funk- Z wyjatkiem
symetrycznej
cji charakt.erystycznej. Prosty dowód ot.rzymujemy na przyklad w t.akiej sy-
=
-
27r
1. 12"
o
e itctg"'d ep
1'00'
o
re"-!;,-.d r = -l
7r l"
o
e i'ctg"'d <p
tuacji: niech P(X
Przypuscmy teraz,
= O)
ze lepx(t)!
= ~, P(X
= epy(t).
= l) =
Wtedy
~. Wtedy epx(t) = ~+ %ei'.
stabilnej (def.
9.2.6). Chodzi
o to, by
-7rl I<pxl # <px·
100
-00 -1--2du.
+u
ei'U tp~(t) = epx (t)epx (-t) = 'Px (t)<p-x (t).
!l!

440 Odpowiedzi i wskazówki do rozdzialu 9 441

Stad, oznaczajac przez Y1, '\'2 (odp, Xl, X2) niezalezne kopie zmiennej loso- to
wej y (odp, X) otrzymujemy lim l<p(h) - 11
h-O h- "= O,
Yl + Y2 ~ Xl - X2'
wiec <p' (O) = O,

Rozklad Xt- X2 jest skupiony na zbiorze {-l, O, l}, skad wynika, ze rozklad
15. Roz11i, <px(t) = :L'EZ eilsp(X = s), Mnozymy obie strony przez e-ikt/2n:
Y; musi byc skupiony na zbiorze {,-~, n, Niech a == P(Y; = ~), = l: 2, i i calkujemy na przedziale [-n:,r.-J- Teza wynika z faktu, ze (e-'kth jest ukla-
Wtedy
dem ortonormalnym na przedziale [-rr, n:] z miara A/2n:, gdzie A oznacza
') miare Lebesgue'a,
prY! + Y2 = l) = a2 = P(X1 - X2 = 1) = §'
,2 ' 2
16. Roz'W, Niech f bedzie gestoscia rozkladu X, Dla c > O istnieje funkcja
P(Yl + Y2= -l) = (1- o,) = P(X1 .- X2 = -l) = 9" ' schodkowa h = :L~=lak1(akhl taka, ze }::'oo If(x) - h(:r:)!dx < E, Wtedy
l<px(t) - )'::'00 h(:r:)e"Xdxl < c, a poniewaz
Stad a2 = (1- a)2, czyli a =~, a jednoczesnie 0.2 =~, Otrzymana sprzecz-
nosc dowodzi, ze zmienna losowa Y o postulowanych wlasnosciach :nie ist-

13.
nieje,
Odp, ZalÓzmy, ze istnieje pochodna. <p(2) (O), Ma.my I ,j"X>
-oc h(x)e' "I "dx = 8
I ~ L~k eitbe -il eitak I ~ t
2 8n ak -; O,

gdy Iti -+ 00, to l<Px(t)1 < 2e: dla duzych Iti.


<p
(2)
(O) = h-O
hm·
,<p(h) h
- 2<p(0)
2
+ <pc-h) = h-O
11m
, .[OC
-co
----,,--I.IX(dx)
e'ihx h"+ e-'ih,~
- 2,
==

9.2. Twierdzenie Levy'ego-Cramera o ciaglosci


= -.21'h::'~).f'oc
--00 --h2---PX
l - cos 11.:1; (
dx ) '
1. Wsk. Skorzystac z tw. 3.
Z drugiej strony, z lematu Fatou otrzymujemy
2. Wsk. Skorzystac
8.3.5.
z poprzedniej wskazówki i jedrnosci ciagu (Xn) lub zad.
x p,x dor: =2 hm ---;;--- f-LX c,~: ~
]00
-00 2 () -00 h-·O l - h-
';'00. cos h:r: (l) 3. Roz'W,

, ..
~ 2 luD.
h--·Omi ,;'00 --I,-2-I1,x(d:t:) = -<p
l
, -00 l - cos hx, (2)
(O), <PX"-I-}~,, (1.) ~ 'px." (t)<py" (1.) -; <pxo (t) <PYi)(-t) = <pxo+Yo (t),

czyli EX2 < 00. w równosciach korzystalismy z niezaleznosci.


14. Odp. Wartosc oczekiwana nie istnieje. Wykazemy istnienie pochodnej funkcji Bez nieza.leznosci twierdzenie nie jest prawdziwe (Zfld. 8.2.4). Gdyby bylo,
charakterystycznej 'p w zerze. Poniewaz 11 - cos J;I ~ min(:r:2, 2), to oznaczaloby to w szczególnosci, ze X ~ Xo' i y ~ Ya pociaga za soba iden-
tycznosc rozldadów uniennych losowych X + i Xo + Ya. Tak nie jest: niech y
na przyldad (X, Y) mi" rozkhlc1 jednostajny na kwadracie jednostkowym, a
l<p(h) - 11 = I.L:(cos h:r; - l)f(:r;)d:r:1 ::;; (Xa, Ya) - rozklad jednostajny na jego przekatnej.

~ 2 (Xh)2 f(x)dx +2 2f(:r:)dx = h + [2. 4. Rozw. <px" (t) -, 0, cna kazdego t E R


j'2/h
a f'''''
2/h
t5. Jesli C< E (O, ~), rozkladjest osobliwy. Dla C~ E (~, l) zmienna losowa Xc<
Tentz dla () ::;; h ~ 2/e moze nie miec rozkladll ciaglego, a.le dla prawie wszystkich C< z tego prze- Bylismy
dzialu rozklad jest ciag/y. przekonani, ze jest
to problem Haara!
Problem ten zostal rozwiazany przez specjaliste od ukladów dynamicznych,
h'j.e
~ 2h2 a x2 f(:I;)rlx + h· 2Cjh J (2/h
e -~,
d
log:r, Borisa Solomyal«'1?' .

2W: On the mendom ser-ies ±).i (an Erdos problem,), Anna!s ofMath., 142 (1995), ss.
h '"~ 2C __ 1 --100 ~
log(2/h) 2/1. X2 --- --~-
log(2jh)· 611-625. Prostszy dowód: Y. Peres, B, S., Absolute cont-in'u-ity oj Bernoulli convolut'ions,
a s-imple prooj, Math. Res, Letters 3 (1996), ss. 231-239. Uogólnienie w: Duke Math. J.
A poniewaz 102 (2000), ss. 193-251. Artykul przegladowy: Y. Peres, W. Schlag, B. S., Sixty years oj
Bernoull-i con'llolutio71.s,})-actals and Stocl1astics n, Progress in Probability 46, ss. 39-65,
l
y.le r dx x
log ~=:: O,
Birkhiillser, 2000.
II _ lr-:r::--rnr.

( 11111"\\"1,01'1,\ I w/lilll/,IIwld
do rozdzialu 9 443

Ild 0I,,~,
"liWII'" 1'.\'111 ~1I1\1I11 dl/\l'I\ldur.Yl.acja zbioru S tych a, dla których 14. Odp. Niech <poznacza funkcje chm'akterystyczna sily g,Tawitacji pochodzacej
dllll'/l.kLurytiLycwEi, Xc< zmierza do zera w nieskOllczonosci
11111111'.1/\ (w swietle od pojedynczej gwiazdy. Wtedy
1,11', WCJllflJIJ1a-Lebesgue'a (zad. 9.1.16) jest to warunek konieczny na cia-
glosc rozkladu). Mianowicie, a E S wtedy i tylko wtedy, gdy l/a' jesL liczba . _ ,i"'/lrl13+1 _ .L.. _~ ," ~ '_
algebraiczna calkowita, której sprzezone (oprócz niej samej) maja modul
<pU) - Ee - . j'"_n ('cos Ir'lfHl + t sm Ir'II3+1 ) ch-
2n.
mniejszy od jednosci.
=- cos h,-f;! dr' =l +- (cos t-;.-i3 - l)dr' =
6, Rozw. X = 1"1 + 1'2 +'" + 1"n, gdzie Yi sa niezaleznyrrli zmieunymi losowymi 1 fn
n,o 1 fn
n.o
o rozkladzie geometrycznym. Stad
= .1 + n-/3
1 ./.'00
n-13 cos 1+1/19
I.u - i1. 1 du..
;'~ I

<P2Xp(t) = <px
, 1- (.)
(2pt) = (pe2Pil. l-peT" 2t) n -, (1 -. 2it)-n, Podstawiajac v = Iti U ota'zymujerny
{'
gdy p .....•O, a wiec 2Xp zmierza do zmiennej losowej o rozkladzie gamma.
'p(L) = l + --.a: . ,...
n,:, j"=
IW/fi Itln-~ v ,
cos'v-l ." dv =
*7. Wsk. Niech (Un) bjedzie ciagiem Bernolllliego. Gdy X = 2:::::"=1 !.:~g;w, to
,HJ" (

<px(t) = m::"=l cos ~ Je''''

*8. Rozw. Dla pewnegd :a > O mamy Eea(Y+Z)2 < 00, wiec z twierdzenia Fu- _- .1+ ~'II/19J1(l=
ntJ
~ o v'+J./13 dv
:os'V -,2 __j'l<ln-P
o ~sv -l
1)1+1/13 dv
).
biniego wynika, ze dla pewnego e E R jest Ee,,(Y+c)2 < 00, zatem funkcja. Pierwsza calka. jest ~bje~na, gdy 1//3 > O (co gwarantuje zbieznosc w nie-
charakterystyczna zmiennej losowej Y + c na mocy lematu 9.2.4 jest calko- skoilczonosci) i gdy J./(3 < 2 (istotnie, w otoczeniu zera cosv - 1= 0(v2),
wita. To samo odnosi sie do Y, wiec i
do Z, Poniewaz <Py<pz = <px, funkcje musi wiec byc 2 - (1 + 1/(3) > -1, czyli 1//3 <,2).
charakterystyczne zmiennych losowych Y i Z nie maja zer, a zatem obie te Z powyzszego wynika, ze gdy O < 1./ /3 < 2, druga calka zmierza do zera, gdy
zmienne losowe maja rozklady normalne.
n --t ,00. N"I
lec] C(f.l)
I' = (j.Jo
l r= "Hl II' d.v. Wt ;ecJ y
<0""-]
9. Rozw., Mamy
2 1+ e-x2 _.x2
l
=e <pet) = 1+ n
C(/3)IW/,(J n
+ o (L) l O < ~ < 2.
1+ eX2 . 2
Przypuscmy, ze <p jest; funkcja charakterystyczna. Drugi ezynnik iloczym\ po Osta.t.ecznie, funkcja cba.ralcterystyczna <pn sily grawitacji pochodzacej od n
lewej jest takze f. ch., a to oznacza, ze f. ch. rozkladu normalnego rozklada siQ gwiazd da siQ zapisac jako "
na iloczyn niegaussowskich funkcji charakterystycznych, co jest niemozliwe
na mocy zad. 8.
<Pn(t) = [l + ?(~)ltl'/13
n + o(L)]n n ----t00
n.......,.
e-C(i3lltIIIP.
10. Wsk. <p" (O) = O. Jaka jest wariancja odpowiedniej zmiennej losowej?
VlTystarczy teraz zmienic p~.rametr skali i skorzystac z twierdzenia Levy'ego,
11. Wsk. Z tabeli 2, § 9.1, wiadomo, ze funkcja <p" (t) = a-l (l-lxi/a)
l[_c",,,) (~r), by zoba,czyc, ze e"It.I" jest funkcja charakterystyczna dla O < a < 2.
gdzie a > O, jest funkcja charakterystyczna i spelnia. warunki zadania (jej
wykres ma ksztalt trójkata). Wykazac, ze kazda funkcja spelniajaca warunki
15, Odp, Poniewaz <px(t) = 1 + oU),
zadania jest postaci
Pl <pal (t) + .,. + Pn'Pa" (t),

gdzie p, > O, i = 1,2, ... ,n, 2::: Pi = 1. <PX1+u+X,,(t) = [l+O(~)]n----t1.


12. Wsk. Kazda taka funkcja jest granica funkcji charakterystycznych z poprzed· Rozklad graniczny jest zatem skupiony w zerze, a z zad. 8,1.3 wynika, ze ma
niego zadania. miejsce równiez zbieznosc wedlug prawdopodobienstwa,

13. Odp. 16. Odp. Poniewaz <px(t) = 1- ~ + o(t2),

dla O ~ Iti ~ ~, = + O (t2-'n )] ---t e-t 2 /2.


'P2(t) = (1 - Itl)ll-I,I)(t). <PX, +u.:-+Xn
vn (t) 1 - -2n
<P1(t) = {lI-Iti
41'1 dla Iti ~~,
[ t2 n

Rozkladem granicznym jest N (O, l).


3J._p. Kahane, R. Salem, Sur la convolution d'une infinite de distributions de Ber-
17. Wsk. Rozwa.zyc zmienne losowe Xn (Un - p)/-jPri, gdzie Un jest liczba
noulli. Colloquium Math. 6 (1958), ss. 193-202, R. Salem, Sets oj uniqueness and sets
oj multiplicity, 'Irans. Amer. Math. Soc. 54 (1943), ss. 218-228. sukcesów w n-tym doswiadczeniu.
:1{t
hl;

..444 Odpowiedzi i wskazówki do rozdzialu 9 445

9.3. Twierdzenie Bochnera i wzory na odwrócenie to stosujac lemat 4 do funkcji hj(lt) = eis j la; (u), otrzymujemy

1. RazU!. Z tozsamosci Parsevala zastosowanej do pary rozkladów 11, U( -a, a)


i ich funkcji charakterystycznych: 'P i 1/J(X) = sinax/a:E (dla x = O oczywiscie EeiSjN(B;) = e.\IE;I(e1.<;-I).
1f;(O) = l) otrzymujemy
Iloczyn hl . h2 .... hn tez spelnia zalozenia
,
lqmatu, a poniewaz

l
-- e
j.a-a -ics (
'P s (.05 =
100 -----f./,e)) ex . hl. . h2 . . hn - l = (h, - l) + ... + (hn - l),
2a ).1 -00 sin(a(x-
a(x -- e) (l )

Funkcja podcalkowa po prawej stronie jest ograniczona co do modulu przez to

II
n
1 i gdy a --t 00, zmierza do zera dla :r: f- c. Zeby zakOlJczy(: dowód, wystarczy
zastosowac twierdz'enie Lebesgue'a o zbieznosci zmajoryzowanej . EeislN(Bll+it,N(B,)+ .. is"N(Bn» =~ e.\IBjl(e'''.; -1)
.1=1
2 .. Razw. Na mocy zadania 1 szukana granica jest atom w zerze sy,rnctryzacji
i twierdzenie 2 daje tezQ. II
rozkladu 11 (jest to o fi. = fi. * jj, gdzie ii(A) = f.t( -A), A E B(R)). Wystarczy
teraz zauwazyc, ze jesli f.t ma atomy c" C2, ... , to o f.' ma w zerze ato.m o masie Dowód lemal:114. Poniewaz SI; -+ co p.n. (pai,rzzad. 7.3.2), toh(Sk) = 1 dla
Lk c%. W szczególnosci, dla rozkladu bezatomowego szukana granic" jest wszysl:kich k od pewnego miejsca, wiec Y jest dobrze okreslone oraz IYI :::; 1.
równa zeru.
Wystarczy udowodnic, ze
3. Razw. Patrz zad. 2.

'1'4. Wsk:. Mozna skorzystac z doclatniej okreslonosci funkcji min (x, y) (por. z r.
kowariancji procesu Wienera, rozdz. 13). lim E [fr
"=1 h(SdlJ = e.\ Ir,0(h(U)-1)dU.
Otóz
9.4. 'Wielowymiarowe funkcje charakterystyczne
1. Razw. Zmienne losowe X, Y sa ograniczone, wiec z nierównosci .1\ .. 1.'1 wynika,

. 'Px (I)
ze .; = k!'" cXk
L,k=O f.it.t.
\.~oo ( to sarno zac lJ.OCI'Zl c[l a. 'j')
... P OJllewaz
... ,. Ir" 'C""'1(
G_'. = [ [!]h(Sk)]
= [(xkyl), k,l E N, mamy:
Wszystkie szeregi
sa bezwzglednie
-1
-

R.'~;
h('"
...ul ....•
)I'I(~'
~l ·'-'2
..1- 'P.).
....
·J·I(X·
L r···
_L
..I~71 /\
+". ).\ne-A(Xl+'''+Xn)dx
l· ..
dx-
n-

zbiezne, wiec
'P(_X,Y) ,"" L..- L..- =
sumy podwójne • (t 0) = " (eitXe'i'Y) = "C (~ k=O
k!""
(it)k yk
l!
. ~1=0 ii-.:.Ly/)
.
= I
= JO~Ul~l.l.2 "~Un h(Uj)h(1t2)'
. h(un)A ne-·\un dl'l ... d'ltn
maja sens i mozna
zmieniac kolejnosc
surnowania.
W istocie
L..-
= [(~ k,I=O kil!
~it)k('is)IXkYI)
. L..-
= k,I=O
~ kil! ""
Sit)k(~~L.C(Xkyl)
.
= _')!.1.'.
=, -t,n X" ;'00
o .i''''"
o ... j''''''
o h(-IL1)h(U2)· ... · h(ttn-J)dUl ... dUn_lh(l'n)e-.\Undun =
korzystamy z
wersji tw.
Fubiniego.
00
~ ~_~EXkEyl
L..-
k,I=O
kil!
('I)k(')l
= L..-
~
k=O
00 ('t)kcvk
..3::._,,_",_'
k! ~ ..3:~_
L..- l!
00

1=0
(' )'Cj,l
= = (n ~nl)1 .t'" (1" h(s);ls r-l h('U)e-A"dt, = In.
= 'Px (t}py (s), Najpierw skorzystalismy z tego, ze X'i sa niezalez.ne o rozkladzie wykladni-
czym, pózniej zamienilismy zmienne na
zatem X iY sa niezalezne. Mozliwe jest uogólnienie tego twierdzeni", por.
tw. Kl.l, uw. E.lA i
dowód tw. E.1.7. 'Ul = :El, tt2 = 1;1 + X2, ... , ·Un. = XI + ... + Xn
*2. Razw. Poniewaz Nt - N. = N((s,t]), to ze stwierdzenia 5 wynika nieza-
(jakobian tego przeksztalc:enia jest równy 1). Aby otrzymac trzecia rów-
leznosc przyrostów procesu Poissona i to, ze Nt - N •. ma rozkla.d Poissona
nosc wystarczy zauwazyc, ze funkcja podcalkowa. jest symetryczna wzgledem
z parametrem '\(t - s). zmiennych 'Uj, lt2, ... , ·/1n.
D o w ó d stwierdzenia 5. Poniewaz
Gdy A. = .f~oo(h(u) -1)du, to dla. u ) Uo mamy

100
o (hj(u) -l)du = 1 Ej (eiSj -l)du = IBjl(ei8j -1),
luo h(s)ds = .lo(" ((h(s) - 1) + l)ds = 'u + 1" o (h(s) - l)ds = u + A.
do rozdzialu 10 447
III Odpowiedzi i wskazówki

6. Odp. Mozna wyliczyc, jaka jest w obu przypadkach szansa uzyskania jeszcze
Niuch CJ ~
. .f~'O+A sn-1e->,sds i Cz = Jo"o ()"-1
Ja" h(s)ds h(u)e->'''d1L. Po- lepszego (czyli bardziej oddalonego od teoretycznej sredniej) wyniku. Dla
niewaz Jasia jest to ok. 1- \1>(8,]9), ella Stasia ok. 'l - 91(3). Wieksze zdolnosci
telekinetyczne ma Jas ..
100(u + A)"'-le->'''du
UD = 100
uo+A Sn-le->.(s-A)ds = 7. Odp. Pra:wdopoclobiefJstwa otrzymania obu ukladów kosci wyn.osza Pl =
= 0,51.77 i P2 = 0,491.4.. Naturalny pomysl pol'ega na wykonaniu n razy obu
doswiadczell. Podejrzcl,nie duza róznica czestosci wystepowania obu ukladów
= e>'A [100s"'-le->"cls - Cl]' jest argumentem za. tym, ze Pl t= Pz, a.1ejesli na.wet Pl = pz, to duza. róznica
to czestosci moze pojawic; sie przypadkiem. ,Jak wybierac krytyczna wartosc dla
róznicy cZQsLosci?Mozna zauwazyc, ze jesli Pl = pz =]J, to (Sn - T",)/2ynpq
ma dla duzych n rozklad bliski N (O, l) (8" i T" oznacza liczby sukcesów
In= An
(n-l)! [ Cz-e >'A])'A
CI +e An
(71.-l)!./o {CO s n-l e_>..' ds= A"C:!
(71._l)!+e >'A. w obu seriach doswiadczen). Wobec tego z prawdopodobienstwem 0,99 (ta
liczba zostala wybrana zupelnie dowolnie; w podrQcznikach statystyki po-
Ostatnia równosc wynika z tego, ze (n-l)! = r(n) = Jooc,s,.,-le-sds. Zatem jawiaja sie w takiej sytu a.cji zwycz.ajowo wartosci 0,9, 0,95 i 0,99) liczba
ISn - Tnl nic przekroczy tn. = 5,16· .,ji'ijXj. Jesli te ostatnia liczbe uznamy za
lim
n-oo
In = e>' Jo"" (h(n)-l.)cl"U
• krytyczna, to w sytuacji, gdy IJJ = pz szansa popelnienia bledu wyniesie ok.
0,01. Mozna teraz przypomniec sobie zadanie o noworodkach (7.6.10), gdzie
zresztf! jlf'<wvdopodobieÓstwourodzenia chlopca bylo bliskie Pl, by zauwazyc,
10. Centralne twierdzenie graniczne ze np. dla n = 10000 szansa otrzymania róznicy czestosci przekraczajacej
wartosc krytyczna jest praktycznie równa 1. 'Wystarczy zatem 10000 partii,
10.1. Wprowadzenie
co dla nalogowego hazardzisty nie jest problemem.
2. Wsk. Wykazac, ze suma w warunku Lindeberga jest równa. [(X21{!XI>.,.,m») 8. Wsk. Wykazac, ze spelniony jest warunek Lapunowa.
i skorzystac z twierdzenia Lebesgue'a o zbieznosci zmajoryzowanej.
9. Od)!. a) war. L. jest spelniony; h) war. L. nie jest spelniony, poniewaz ciag
3. Wsk. Jesli lXI> E:, to IXló > E:ó, i (s,,) jest ograniczony (por. zad. 10.1.4). Jesli ialozymy, ze 2:: a~ = l, to
rozkhl,dem granic?,nym jest rozklad sumy szeregu 2:: akUk, gdzie zmienne
[(IXlz1{I.Ji"I>e}) ~ ~[(IXI2+Ó1{lxl>e}) ~ ?EIXlz-1-b losowe lh Si! niezalezne i I'fJaja ten sam rozklad jednostajny na [..-l, l}. Nie
jest. to rozklad normalny, ho jego funkcja charal(t.erystyczna ma zera.
4. Rozw. IX",I ~ K, sit -+ 00, wi.ec dla kazdego k, \Xk -.. EXhl < TS" dla. n
10. Odp. Niech U", = 7'1 + ... + '1'", gdzie (Ti) jest ciagiem Bernoulliego. Z le-
dostatecznie duzych.
matu BoreJa-Cantelliego wynika, ze ciagi (Un/ vn) i
(8,,/ vn) z prawdo-
podobienstwem l sa od pewnego miejsca (losowego!) identyczne. Dlatego
10.2. Twierdzenie Lindeberga-Levy'ego S,,/vn ~ N (O, l). Co ciekawe, V2(8n/vn) -> 2.
1. Odp. Szansa uzyskania takiego wyniku w pojedynczej serii wynosi ok. l - 11. Wsk. Rozkladem granicznym jest N (O, l). Vit)'starczy zbadac funkcje cha-
iJ!(2,93):::;0,0017, a sredni czas oczekiwania jest równy odwrotnosci tej liczby. rakterystyczna· ,." .'
Jesli
..;VZ X =
100, co
2. Odp. Jesli a oznacza zawartosc kasy rano, to powinno byc *12. Wsk. Skorzystac z wyniku zadania n. Rozwiazanie czysto analityczne ist-
mozna powiedziec iJ!(-a/uvn) ~ 0,01, nieje, ale rachunki sa trud~1e.
o srednim .f 13. Wsk. Zadanie jest latwe. Mozna sie zastanawiac, który sposób jest szybszy:
dziennym obrocie, czyli iJ!(a/uvn) ~ 0,99, gdzie u = 100, n = 100. Okazuje sie, ze a :::;2330.
czyli [lXI? skorzystanie z CTC, czy obliczenie funkcji char8ktel'ystycznej.
Jest to z grubsza 2% sredniego dziennego obrotu. Vi przypadku 100 urzedów
14. vVsk. Un = X l +.;,,+x"
pocztowych wystarczy wziac n = 10000. 'Wtedy a wzrosnie tylko dziesiecio- n. V2+'
Al'" "'+ .•...•.
,-2'
n Pierwszy czynnik zmierza wedlug 1'01.-
krotnie. kladu do}v (0,1), drugi -" wedlug prawdopodobienstwa do 1. Iloczyn (por.
zad. 8.2.6) zmierza wedlu g rozkladu do N (O, l), Podobnie mgZ1rta. postapic
3. Odp. iJ!(1,67)- iJ!(-1,67) = 2iJ!(1,67)-l:::; 0,9.
w przypadku V".
4. Odp. Dla a < ° granica
jest równa 1. Gdy a ~ O, granica jest równa l dla
*15. Wsk. Skorzystac z twierdzenia l.
Q Q = ~,O dla Q > ~.
< ~, 2(1- iJ!(a/u)) dla
5. Odp. Dla l grosza zagrozenie jest powazne: szansa wynosi l-iJ!(0,496) :::;0,31. a) Pokazac, ze zmienne losowe X",k - liczba inwersji elementu k, k =
Dla 3 groszy spada do ok 7%. = l, ... , n, sa niezalezne i maja rozklady P(X".k = j) = lik, j = 0, ... , k-1.
448 Odpowiedzi i wskazówki do rozdzialu 11 449

b) Jesli X".dw) = l, gdy k-ty element przedstawienia cyklicznego permu- 6. Razw. a) Niech.4 E Fr. Wtedy A' n {T (t} = {T:( t} \ (An {T ~ t}) E Ft,
tacji w' kOllCZY cykl, X",dw) = O w p.p., to X",l"'" X",,, sa niezalezne zatem A' E Fr. Z kolei jesli Ai E Fr dla = 1,2, ... , to mamy i
o rozkladzie P(X",{ = l) = ••-%+1'
16. Wsk. Zbadac log Z". Odp. Granica
17. Wsk. Niech Q becJzje macierza
jest eY, gdzie Y ~ /Ii (O, log2 a).
kowariancji wektora losowego X, zas U -
(Q Ai) n {T (t} = Q(Ai n {T:( t}) E h
wektorem losowym o rozkladzie /Ii (O, Q). Wystarczy z<\uwazyc, i,e zatem U:1 Ai E Fr.
b) Jesli T == t, warunek z clefinicji Fr przybiera postac:
'P Z" (t) = Eei(t,Xl+"'+Xn/..rn) -> e-~e(t,X)o = e-~(Qt,t)
- ,

A E Fr <=} Vs E T A n {t ~ s} E Fs,
zatem rozkladem granicznym jest rozklad wektora losowego U. W zasadzie
tak samo rozumuje sie, stosujac metode Crarnóra-Wolda z tw. 9.4.3. jednak zbiór {t ~ s} jest albo pusty, albo równy [2, dlatego warunek po
prawej stronie jest rw\wnowazny temu, ze A E Ft.
18. Wsk. W (ii) skorzystac z zadania 11, a w (i'ii) z zad. 8.3.9.
19. Razw. V2' EX = EY + EZ, a stad EX = V2EX, <:atern EX = O. lterujac
7. Rozw. a) R.ozumowanie jest identyczne jak w dowodzie lematu 5;

warunek (ii) otrzymujemy b) Wystarczy udowodnic twierdzenie dla {T = oj i {T > O'}.


l° {T = a} n {T = t} = {r = t} n {O' = t} E F" zatem {T = O'} E Fr
i
X ~ Xl
5
+ x2 + ... + x"·,, {T

2" {T>
= O'}
O'}
E Fu
n {T = t} = Us<,{o- = s} n {T = t} E F,.
gdzie X" i = 1,2, ... sa niezaleznymi kopiami X. Z centralnego twierdzenia 8. Rozw. Niech A E Frl' Wtedy An {T2 :( t} = (An {Tl :( t}) n {T2 (t}E Ft.
granicznego wynika, ze prawa st;rona zmierza wedlug rozldadu do /Ii (0,0'2), .
9. Razw. Na rysunku polcazano 3 generatory o--ciala Fr (które wobec tego ma
zatem X ~ /Ii (0,0'2). 2'3 elementów) ..

20. Raz'W. Z CTG


i Y".
;ny" ~ /Ii (0,0-2) j zastosowac zad. 8.2.7 ella X" = fi

11. Martyngaly
11.1. Momenty stopu

1. Odp. a) tak; b) nie; c) tak.


aznclczono, jakie sa wartosci zmiennych losowych Xl i X2 na poszczególnych
2. Rozw. Zbiór {T :( t} jest albo pusty, alho równy zbiorach. Bezposrednio wida.c, ze kazdy zbiór A, bedacy generatorem Fr
3. Rozw. {Tl /\ T2 ( t} = {T1 ~ t} U {T2 :( n· Odwraco.jac tiymbole ,,/\" j u" spelnia warunek
otrzymujemy dowód drugiego stwierdzenia.
An{T~l}EFl A n {T :( 2} E F2.
<l. Rozw. a) Niech O' ~ inf {n: n > T, Xn E B}. Wyka.z.emy, ze O' jest momentem
stOpl\. Mamy Zbiór {T :( l} (który tu przypadkiem pokrywa sie z {T ( 2}) zostal poma-
lowa.ny na szaro.
Mozna tez zobaczyc, ze zdarzenia uwidocznione na rysunku maja nastepujaca
{o- = t} = U{T = s} n {X,.. r:f. B' dla s < u < t, X, E B} E :F"
s<l. wlasnosc: wiadomo, czy zaszly, czy nie, jesli obserwowac proces do chwili T.
10. Roz1JJ.Wystarczy wziac jako T moment stopu z poprzedniego zadania.
co konczy dowód.
11. Przypuscmy, ze warunek jest spelniony i rozpatrzmy zbiór
'b) Tk ~ inf{ n: n > h-l, X" E B}. To, ze Tk jest momentem stopu, wynika.
Roz1IJ.

natychmiast z punktu a.
B = {~l = l, .. ,E,7 = 1,E,8 = -l,E,g = '-l,~lO = -l} E FlQ.
5. Rozw. P(T > n) = P(X1 + ... + X" < l) = rh, skad ET = e. Druga równosc
wyraza fakt, ze objetosc n-wymiarowego sympleksu, rozpietego na wektorach Wtedy
jednostkowych, jest równa rh· A = {0-7 ( lO} nB E FlO.
r

I 1.11'11\\'111.1 •.•1 I WHIUl~,IJWkl do rozdzialu 11 451

",1,11" :\.1111111 ".1',\ 1IIllJJ1IHLy, bowiem zawiera podzbiór Pozostaje wiec do udowodnienja nierównosc (8); która sprowadza sie do nie-
równosci
{Et = ... = 6 = l, -l = (s = (9 = ... }. E (S~l(.,.>,,}) (E (S;l{,>n))'
Ale jedynym niepustym podzbiorem zbioru B, nalezacym do FlO jest on sam, Do zachodzenia tej ostatniej wystarczy, by
zatem {0-7 ( la} ::)B. St.oi to w sprzecznosci z faktem, ze zbiór
IBnll!',.>n} ::;; [. (IS,II Fn) l{,>n}, (9)
{6 = 1, ... ;6 = 1,(s = -1,(9 = -1,60 = -1,(11 = 1,(12 = 1,(13 = l},
bowiem na zbiorze {T > n} zachodza wtedy nierównosci
bedacy podzbiorem B, nie jest podzbiorem zbioru {0-7 ( lO}.
12. Rozw. P(T < 00) = l, wiec P(S, = l) = 1.i ES, = 1.. Gdyby ET < 00, 1;0 S~ ( lE (IS,II Fn)J2 (E (s; 1 Fn) ;
z tozsamosci Walda wynikaloby, ze l = E:S.,.= EX1ET.= O, sprzecznosc.
druga z nich jest nierÓwnoscia Jensena (j.3.B. VV konsekwencji
13. Rozw. Niech X" bedzie wynikiem n-tego rzutu, a o- liczba rzutów. Wtedy o-
jest momentem stopu i z tozsamosci Walda otrzymujemy ES" = EX1Eo- = E (S;,1.(on)) (E [E: (8; I Fn) l{.,.>n}] = E (S;l{,>n}).
3,5· 14,7 = 51,45.
Pozostaje wiec dowÓd (9). Ustalmy A E Fn i m, > n. Wtedy n ( T f\ m na
zbiorze {T > n}. Skorzystamy takze z tego, ze ciag (lSnl) jest podmartynga-
11.2. Martyngaly, nadmartyngaly, podmartyngaly lem (por. zad. 7 i 8). Mamy .
1. Rozw. Calkowalnosc wynika z równosci EIZn+1Znl = EIZn+1IEIZnl; dalej,

. E:(X,,+l - X" 1

2. Rozw. ViTystarczy sprawdzic,


Zn = Sn - nEX1. Wtedy

E (lZn+1 -
Fn)

Znll
=;;

F,,)
E:(Z"+lZn 1

ze spelnione

= E (lXn+1
Fn) =

- EXJ.!
ZnE: (Zn+ll

sa zalozenia

I Fn)
Fn)

= EIXn+J
= Z"EZn+l

tw. 15: niech Zo

- EX11 (
= O.
= O,
j'An('>n) IS,ddP ( .j';ln{ .,.>n} IS,/\mldP

::;:,'i
tAn{n.;::7'>1'l.}

Wida.c teraz, ze pierwszy skladnik zmierza. do .rA~{.,.>n} IS.,.ldP


IS.,.ldP+'
( :.

!
" An{r>m}
IS.,./\mldP.

na mocy tw.
Lebesgue'a, drugi zmierza do zera"
( 2EIX11 < 00. Zeby to zobaczyc, skorzystamy z.oszacowania w stylu nierównosci Czeby-
Wtedy z tw. 15 otrzymujemy EZ, = 0, czyli tozsamosc Walda. szewa. JesLi B = {!8.,./\",., I > CI.}, to na. n jest ~S;/\m > 18.,./\",1, dlatego
szacujac osobno calki po zbiorach A n {T > ''I'I1} n B i A n {T > m} n n'

!
3. Rozw. Z tw. Dooba wynika, ze
otrzYlnujemy
ES;/\n=E(Tf\n)EX~, n=1,2, ...
:; [SrAm.
1S''''Mnld1 ( --- + a) ::l
(T > m).
VlTszczególnosci , An{T>""} a2 1

,
supES;/\n < 00. (7) Ustalmy c> O. Z (7) wynika., ze licznik pierwszego, skladnika jest ograniczony
przez stala. Wystarczy teraz wybrac dostatecznie duze a, wtedy dla duzych
m prawa strona bedzie mniejsza niz c. Konczy to dowód wzoru (9) i calego
Jesli teraz udowodniII}Y, ze twierdzenia.
ES;/\n (ES;, (8) Dowód wzoru (8) moze wydawac sie malo intuir;yjny. Naturalny dowÓd tej
wersji tozsamosci ViTalda mÓZJ1a otrzymac z nierównosci Dooba (zad. 11.4.4).
to z lematu Fatou otrzymamy
4. ROZ1U. \iVykorzystac tozsamosc Walda z poprzedniego zadania.
liminf
n E (T I>~)'
',' EX; = liminf
n
ES;/\n (ES; = 5. Rozw. Zastosowac wynik z przykladu 5. J

= E limninf S;/\n ( liminf


n
ES;/\" =
6. ROZ1U. Poniewaz [D." = O, n = O, l, ... , wystarczy wykazac, ze EDmDn 7i
= lim}nf E (T f\ n) . EX~, calkowalne z j..-wadratem i IDm]).,.1 ( ~(D~ + D;). Dalej,
dla l ( m < n. Ta wartosc srednia istnieje, bo\viem przyrosty sla t'akze
i teza wyniknie natychmiast stad, ze lim infn E (T f\ n) = ET. E:DmDn = E:(E:(DmDn I F"-l)) = E:(D""E: (Dn I Fn-J.)) = O.
452 Odpowiedzi i wskazówki do rozdzialu 11 453

7. Rozw. Niech <p bedzie taka funkcja wypukla, ze zmienne losowe <p(Xn) sa 11.3. Twierdzenie o zbie'i,nosci nadmartyngalów
calkowalne. Zalózmy najpierw, ze (Xn, Fn) jest martyngalem. Wtedy z nie- 1. Rozw. Calkowalnosc je~t oczywista, a poniewaz
równosci Jensena (6.3.6)
Zn+l = Zn ' eaun+t -la2 7 Zn . Vn+l1
E (<p(Xn-f-l) I Fn) ~ <p(E (Xn+11 Fn)) = <p(Xn).
wystarczy wykazac, ze EVn+1 ~ l, co sprowadza sie do nierównosci
Jesli (Xn, :Fn) jest podmartyngalem, a <p jest dodatkowo malejaca, równosc
w powyzszym wzorze mozna zamienic na nierównosc. e<L+e-a ~ la2
2 " e
8. Odp. a) podmartyngal; b) nadmartyngal; c) podmartyngal.
która latwo udowodnic rozwijajac funkcje wykladnicza w szereg Taylora.
9. Rozw, Poniewaz Zn = Xnl{r>,,} + Y"l{r~"}' widac, ze zmienna losowa Zn
jest F,,-mierzalna,'a ponadto E[Z"I ~ EIX"I + EIYnl, jestwiec calkowalna. Dla a 1= O mamy O < EVn =q < l, stad EZ" = q" ----->
n---oo
O, tj. Zn ~ O.

Dalej, Ciag (Zn) jest zbiezny p.n. jako nieujemny nadmartyngal. Jesli a = O, to
Zn == l, n = 1,2, .... Dla a 1= O jest limsup Vn 1= l lubliminfVn 1= l,
E (Zn+11 Fn) = l{r>n}E (Xn+l I F,,) + l{r~n}E (Y,.'+I I F,,) +
dlatego tez lim Zn = O, bowiem np. lim sup Zn+l = lim Zn lim sup Vn+1.
+ E ((y",+J - Xn+I)l{r=n-l·l} I Fn) = Zn, 2. Rozw. Niech Z" = Xl +. ,+Xn i F" = a(Xl"" ,X,,). Wtedy (Z",Fn):'=1
jest martyngalem, ponadto
poniewaz ostatni skladnik sumy jest równy zeru, jako ze Xr = Yr.
10. Rozw. Niech T bedzie jednym z momentów stopu Ti. Ustalmy E: > O do- i
bierzmy 5 z warunków równowaznych jednostajnej calkowalnosci (zad. 5.9.17, EIZnl ~ EIZnl2 +1=l + L
.k=1
EX;.
warunek (-ii)). Poniewaz T jest p.n. ograniczony, to dla dostatecznie du-
zych n mamy P(T > n) <: 5, wobec tego dla dostatecznie duzych n jest Wobec tego sUPn EIZ."I < 00 i twiel'dzenie wynika z twiel'dzenia o zbieznosci
E (IX"ll{r>,,}) < c, co konczy dowód wal'llnku (3). rriartyngalów.
3. Rozw. Wybierzmy A E F". Poniewaz Yn" jest nadmartyngalem, mamy
Zeby udowodnic (2), okreslmy X~ ~ 2:~=lIXil. Wtcdy IXrl ::;; X~. Ponie-
i
waz X~I\" X~ p.n., wystarczy wykazac, ze wartosci oczekiwane EX~l\n sa
ograniczone, a nastepnie skorzystac z tw. Lebesgue'a. I l'zeczywiscie, z jed-
nostajnej calkowalnosci ciagu (X,,) wynika, ze sUPn EIX,,1 < 00. Mamy teraz
j.A '/'00
--co
Y,~+ldc,dP =
j'co
-co j' A
Y'~+ldPda ::;;
100
-00 1 A
Y';:dPda =

= Y,,"'dadP.
/. )'00
·A -00
EX;l\n = J{r=l}
r' IXlldP + ... + J{T'~"}
r IXnldP ~
Funkcja podcalkowa jest nieujemna, dzieki czemu moglismy skorzystac z tw.
Fubiniego.
~ J{r(n}
r IXnldP ~ supEIXnl.
n 4. Roz'W. Oznaczmy Jim,,~_oo EXn = a < 00 (rosnacy ciag (EX")"E_N jest
zbiezny uo granicy, byc moze nieskonczonej). Mozna zakladac, ze Xn ~ O
Skorzystalismy z tego, ze (IXn!) jest podrnartyngalern, wiec dla A E Fk dla n E --N, co wynika z równosci
i k ~ n mamy .f~ IXk!dP ~ JA IX"ldI-'. Warunek (3) zostal udowodniony.
11. Roz'UJ. Biorac T = n otrzymujemy calkowalnosc x.,.. Niech .s < t, A E F •. X" = E (Xo I Fn) + (X" - E (Xo I Fn)).
Zdefiniujmy Istotnie, ciag (E (Xo I F,,)) jest jednostajnie calkowalnY'i wystarczy udowod-
UA - nic jednostajna calkowalnosc drugiego.
- { T
7.1. dla w rj.E A,
A.
Dzieki nieujemnosci zmiennych losowych X", wystarczy przy sprawdzaniu

!
UA jest momentem stopu dla u ~ .s. Ponadto dla 7., ;:: S mamy jednostajnej calkowalnosci z def. 5.9.13 rozpatrywac calki po zbiorach postaci
{X" > T} (zamiast {1X.,,1 > T}). Z definicji nadmartyngalu mamy dla n ~ k,
. A X"dP 1
= n X"AdP -1 n-A XTdP = - Jn-A
/' XTdP.
n,k E-N

1 -1
!
W ostatniej równosci skorzystalismy z zalozenia EX, = O dla dowolnego = EXn r =
{Xn>,.),X"dP {X,,~r} ,XndP ~ EXn - J{Xn~r} XkdP
momentu stopu przyjmujacego dwie wartosci. Zatem biorac najpierw 'U = t,
potem u = .s marny E (X,lA) = - JI1\A XTdP = E (X.lA). A E Fs bylo
dowolne, wiec E (X, I F.) = X~ . = E.~n
. . - EXk +. {Xn>r} ,XkdP. (10)

- 1-
""'\\'I"oI~1 I \\"III,,,,.ill'lIl do rozdzialu 11 455

!!~llIli"\'li'Ii' III wII.I"'/"'.\'


.. \.lIhl WUIUlWII\ J.: (. .-N, ze Biorac k ...• 00 i
korz);;'tiL]ac z ciaglosci warunkowej wartosci oczekiwanej
jako operatora z Ll. w Ll (w zasadzie jest to inne sformulowanie wlasnosci
, 'X" - EXk = lEX" - EXkl ::;; E:/2 (11) 6.:1.4(c)) otrzymujemy:

dla w~zystkich n < k.


Z nierównosci Czebyszewa P(X" > r) ::;;EX,,/r ::;;a/r dla wszystkich n E X =E (X 1,0/-") = E (xo 1,00 F-n) ,
E -N, i po zastosowaniu kryterium jednostajnej calkowalnosci z zad. 5.9.17
do jednoelementowej rodziny {Xd wnioskujemy, ze gdzie pierwsza równosc wynika z mierzalnosci.x wzgledem n::,,=o F -n (fak-
tycznie, X_lo, X_(k_l),' .. sfl mierzalne -- wraz ze swoja granica X - wzgle-
dem Y_I,). KOllCZY to dowód twierdzenia.
nE-N r
sup_ .I{x,,>r} XkdP < E:/2 ..
:1.1.4 .. Nierównosci martyngalowe
dla dostatecznie duzych r. Na mocy (10) i (11)
\
1. Rozw. Drllgi:L nierównosc wynika. stad, ze Xn ::;; X;~. Udowodnimy teraz
pierwsza nierównosc: niech T = inf{Ir.: Xk ::;; -r}. Z tw. Dooba dla ogra-
sup J('{Xn>r}
n<k XnrlP < E: nicz,onych momentów StOpli:
,
EXo::;; EX7'An,
dla dostatecznie duzych r. Oznacza to, ze rodzina {Xk-l, Xk-2, ... } jest
jednostajnie calkowalna i pozostaje taka po dolaczeniu skonczonej rodziny a Lo oznacza., ze
{Xo, X-l", ., X_I'}'
5. Rozw.
i U:[mJ
Rozumowanie jest takie, jak w dowodzie tw. 1: zmienne losowe U~
oznaczaja teraz liczbe przejsc w góre przez przedzial [a, b] odpowied-
[Xo::;; r
J{r>n} X"ilP+ j {r"n} XrdP::;; .
nio ciagu nieskonczonego (Xn)"E_N i skonczonego X-m, X-m+l, ... Xl, XO.
Z lematu 3 zastosowl1-nego do nadmartyngalu (Xn,Fn)~'=_m i oczywistego =1{min b,;;: n XI,.>-r} h~+/ J{rnin/.:..;n Xk~-r} h~::;;
przejscia granicznego wynika, ze
::;; E (Xn1{miu"~,, x,,>-,.)) "~n Xi; ::;; -T),
-.- TP(lknJn

EUZ ::;; -b -a
1 E (Xo - ar . co po uporzadkowaniu daje pierwsza nierównosc.
2. liVsk. Skorzysta,c z tw. l i zad. ].
Stad otrzymujemy zbieznosc p.n. ciagu (X-n)nEN do granicy X, byc moze
nieskonczonej. Ale z zalozenia i z lematu udowodnionego w zad. 4. wynika 3. Razw. Dowód analogiczny do dowodu tw. l i zadan 1,2.
.jednostajna calkowalnosc powyzszego ciagu, zatem 4. RozUJ. Niech Z. = SllPk"n IXI;I i q = ~. Gdy EJX"IP < 00, to z nierównosci
Jensena EIXkj1' < 00 dla k ::;; n i wtedy O < [y t
< 00. Korzystajac z zadania
EIXI ::;; lim inf EIX-nl::;; sup EIXnl < 00. 5.6.3, tw. 1, a na zakonczenie z nierównosci Hóldera otrzymujemy
t
11.-00 nE-N

Zbieznosc w Ll wynika z jednostajnej calkowalnosci i zbieznosci p.n. (zad. EY~' = p .lo{'co tp-1 P(Yn ~ I.)rlt::;; pICO
o tp-21'{Y" :;'t.} IX"ldPdt =
5.9.18).
Pozostaje do udowodnienia "nowa" czesc twierdzenia. Niech (Xn,Fn)nE_N = P .Inr IX"I Jo(" tp-2dirlP = qE ((IXnl1/':-I) ::;;q(EIXnIP)l/P(Ey:)I/a.
bedzie martyngalem. Poniewaz
Stad teza.
:--; Xk = E (Xo I h), k E --N,
11.5. Zbieznosc martyngalów w LP
to po wzieciu warunkowej wartosci oczekiwanej wzgledem n::,,=o F-n' i sko-
rzystaniu z zawierania Fk :J n::,,=o F-n otrzymujemy 1. RozUJ. Gdy Y jest inna zmienna losowa mierzalna wzgledem U(Fl,F2"")
dla której Xn = E (Y I }ff,h t(1).dla dowolnego A E Fn, n E N mamy

E ( Xk I Q F-n) =E ( Xo 100 F-n) l5'fdP = [ X"dP = l XdP.


456 Odpowiedzi i wskazówki do rozdzialu 11 457
'I

Klasa zbiorów dla których JA y dP = J~X dP jest A-ukladem, a poniewaz sie udowodnic, ze 1.: = O prawie wszedzie (zwrócmy uwage, ze rosnie tylko f.
równo.';c zachodzi i=lla zbiorów z klasy Un Fn, która jest 7r-ukladem, wiec na zbiorze 8 o zerowej mierze Lebesgue'a), zas f~(t) = g(t) p.w.
z lematu o 7r- i ,\-ukladach X = Y p.n. Uwaga. :Funkcje g: [a, b] -t R nazywamy absolutnie ciq,gla na przedziale
[a, b], gdy dla kazdego c > O istnieje ó > o nastepujacej wlasnosci: jesli
2. Rozw. Gdy Fn = a([x;n), x;~\),j = l, ... , k" - l) to (Xn, F"),, jest martyn-
O

I::':, (bi - ai) < Ó, to I::':, Ig(ai) - g(bi)1 < c, o ile przedzialy lai, bil sa
galem takim, ze EIXnl ::::; J~'f(z)dz < 00. Teraz skorzystac z twierdzenia 2 rozlaczne i zawieraja sie w [a, b].
i zadania l (Xn = E (J I F,,)) i z tego, ze E (J I a(Un Fn)) = f.
3. Rozw. (i)=>(ii) Z nierównosci Dooba (zad. 11.4.4) marny Esup" IXnlP < 00. 11.7. Miary produktowe i zastosowania w statystyce
Wobec tego ciag zmiennych losowych (IX"IP)n jest jednostajnie calkowalny
na mocy wyniku zad. 5.9.15. 1. Roz'W. Gestoscia warunkowa zmiennej losowej X"+1 przy danych X" ... X"
(ii)=> (ii'i) Z nierównosci H61dera i jednostajnej calkowalnosci ciagu (lX"IP)" jest Pn+1/Pn, zatem
mamy:
supEIX,,1 ::::;sup (EIX"n'/p < oc,
E (A"+l 1 X, = X" ... X" = xn) =
dlatego martyngal (X,,) jest zbiezny p.n., wiec tym bardziej wedlug praw- .j.ex>,
-co An+lXl,·.·,Xn,y
( Pn ( Xl, .. · l Xn
)P"+~(Xl"'" X", ) y) d y=
dopodobienstwa, co w polaczeniu 'z jednostajna calkowalnoscia (patrz zad.
5.9.18) daje (iii).
.lex>
-------Y=
-00 a,,+I(Xl""'X"'Y)d
Pn(Xll ... ,Xn)
(iii)=> (iv) Poniewaz E (Xn+m I F,,) = X" dla m, n E N, wystarczy wziac
rn -t 00 i skorzystac z ciaglosci warunkowej wartosci oczekiwanej jako ope- qn(Xl,'" ,Xn)

ratora z LP w LP, co jest oczywistym wnioskiem z nierównosci Jcnsena' dla Pn(Xll .n~. ,::r:n) ,
<pet) = IW. zatem E (A"+ll Xl,.'" X,,) = A". Teraz
(iv)=>(i) Korzystajac jeszcze raz z nierównosci Jensena otrzymujemy
t: (A"+11 A" ... , An) = E (E (A~+l I X" ... , Xn) I Al, ... , An) =
EIX"IP = ElE (Y I J-'".,,) IP ::::;E (t: (lYIP I F,,)) = EIYIP < 00,
= E (A" I A" ... , X,,) = A",
czyli (i).
poniewaz a(Al, ... , X,,) C a(X" ... , Xn).
Zalózmy teraz, ze spelnione sa warunld (i)-(iv). Udowodnilismy, ze wtedy
Udowodnilismy zatem, ze (Xn,a(Al, ... ,A,,)) jest martyngalem; jako mar-
ciag (Xn) jest zbiezny p.n. i w LP do zmiennej losowej X E LI', przy czym
tyngal nieujemny jest on zbiezny p.ll., przy czym
X" = E (X I Fn), n = 1,2, .... Zeby zobac:zyc, ze .x jest jedyna zmienna
losowa mierzalna wzgledem a(Fo, F" ... ), dla której ta równosc zachodzi,
wystarczy skorzystac z zad. 1. E C!~~An) ::::;"I~r.~E'\n = l.
4. Rozw. (i'i)=>(ii'i): jest: to tw. 2(i). 2. Roz'/ll. Jest to zagadnienie dyskryminacji z przykladu 4, przy czym ze wzgledu
(i'ii)=>(iv): To samo rozumowanie, co w zad. 3. na symetrie 'zalozen a = b. Dlatego regula decyzyjna jest prosta: czaszka
(oi'u )=>('ii): jest to lemat 1. o obwodzie l jest kwalifikowana jako meska, jesli fel) ;:. g(l), gdzie f,g sa odp.
Pozostala czesc twierdzenia to jeszcze raz tw. 2 i wynik zad. 1. gestosciami rozkladów N (57,42) i N (54,32). R.achunki sprowadzaja sie do
rozwiazania nierównosci kwadratowej i okazuje sie, ze warunek f(l) ;:. g(l)
jest równowazny z l rf: (44,52; 55,76). Interesujace, ze czaszka o obwodzie 44
11.6. Twierdzenie Radona..-Nikodyrna cm zostanie uznana za meska. Prawdopodobienstwo uznania czaszki meskiej
za kobieca wynosi 0,377, kobiecej za meska '- 0,280. Wobec tego szansa
1. Wsk. Bez zmniejszenia ogólnosci mozna zakladac, ze f jest okreslona na
przedziale [O, l], 1(0) = O, fel) = 1. W takim razie f l'Ozsz,erza sie do dystry- popelnienia bledu jest r?wna 0,3285 ..
buanty pewnego rozkladu prawdopodobienstwa J.l, skupionego na [0,1] (zad. 3. Rozw. Znów mamy do c:zynienia z zagadnieniem dyskryminacji. Niech n =
5.2.1 lub 2). Zgodnie z tw. 11.6.1 istnieje taki zbiór S C [0,1] o zerowej mierze = {O, R}". Na przestrzeni n dane sa dwa rozklady prawdopodobienstwa:
Lebesgue'a oraz calkowalna flmkcja borelowska g: [O, l] --+ R, ze p odpowiada monecie symetrycznej i przypisuje kazdemu punktowi miare
2-", Q - monecie niesymetryczneji jesli ciag w = (Wl"'" w,,) zawiera k
orlów i n- k reszek, t'o Q({w}) = pka"-k. Regule dec:yzyjna otrzymamy
fet) = /1([0, t]) =~ /1([0, t] n 8) + ,[ g(s)ds = f.(t) + fc(t), O::::; t ::::;1. l'O'zwiazujac równanie ~~ ): l, czyli
W ten sposób uzyskalismy rozklad funkcji f na czesc osobliwa f. i absolutnie k n-k

ciagla fe. Metoda~i analitycznymi (por. [BILL), roz. 6, [RUD-l], roz. 9) da


~;:'l,
2-n
IMI Odpowiedzi i wskazówki do rozdzialu 12 459

Bkad 2. Wsk. Przyjac, ze (Un) jest ciagiem niezaleznych zmiennych losowych o roz-
pkqn-k '"
>- 2-n , kla.dzie U(O, l). Przy odpowiednim wyborze funkcji cpn otrzymamy wyst.ar-
czajaco uniwersalna "maszynk~ do losowania", nalezy mianowicie zdefiniowac
i dalej
k log P + (n - k) log q ~ -n log2.
CPn(Sk,~).= SI, jesli tE [~kLn,l)kl"),
Poniewaz p = 3/4, otrzymujemy ostatecznie l·· "

lod +1~g2 .. gdzie odcinki [akl." , bkLn) ~;9~inny byc dla ustalonych n i k rozlaczne miec i
odpowiednie dlugosci, wyznaczone przez prawdoj}odobiellstwa przejscia.
,i
k ~ n log3 "'"36,9]. ,
\., ..
Mozna tez nasladowac dowód t.wierdzenia o ist.nieniu przestrzeni probabili-
Regula jest zdroworozsadkowa: mniej niz 37 orlów swiadczy o asymetrii mo-
stycznej dla nieskollczoneg'o ciagu prób Bernoulliego (przyklad 4.2.2) i po-
nety. Byc moze teraz lepiej widac, dlaczego regula odwolujaca sie np. do
dzielic pr:r.edzia.l [O, l] na przelicz<llnie wiele rozlacznych przedzialów o dlu-
parzystosci liczby orlów jest nonsensowna.
gosciach Pi = P(Xo = i), 'i =1,2, ... , a nast.epnie podzielic i-ty przedzial na

11.8. Zastosowania w matematyce finansowej


rozlaczne podprzedzialy o (~Iugosciach Pi' Pij, {= 1,2, ... , itd.
3. Od]). a) Tak, b) Nic.
1. Szkic roZ7U. Z (3), § 11.8 wynika, ze !p, ~ ° wt.edy i tylko wtedy, gdy zachodzi
równowaznosc: 4. Wsk. Rozwazyc niesymetryczne bladzenie przypadkowe (Xn) na Z, gdzie
Xo = l, Xn+l = X" + Un, zas (Un) jest ciagiem niezaleznych zmiennych
Yi.+1 - Y, ~ O e} Zt+1 - Z, ~ 0,
losowych, 1'(U" = --l) = p f- ~, P(Un = l) = l-p. Wtedy (X~) nie jest
bowiem W', = Yi.. Poniewaz 1811cuchemMarkowa.
,
Zt+1 - Z, ~ O e} Rt+1 = b e} S'+l = (l + b)S" 6. Odp. a ) Pi.i+1 = pi+l.J.qi+l
P'+a' oraz POI = l.. Pi,i-l = l - Pi.i+1, dla 2 ~ l.
to t.rzeba udowodnic, ze na zbiorze {R'+1 = b} zachodzi b) Poo = P, p(n = q; pi.i+1 = q. Pi.i-1 = P dla i ~).

[; ((ST - K)+ 1 Ft+1) ~ [; ((ST - K)+ I F,) , 7. Odp. Nie, np. wystarczy wziac X i Z z poprzedniego zadania.
a na zbiorze {RH1 = a.} zachodzi nierównosc przeciwna. 8. Raz'W. Macierz przejscia:
l
Niech W, = 1+ Rt. Wtedy W, sa niezalezne i SI. = 11~=1Wl. Za.t.em korzy- '2
O
stajac z zadania 6.3.6 mamy
(1 1
'2 D·
Jesli P,,,, qn i T" oznaczaja prawdopodobienstwa znalezienia sie w pierwszym,
[; ((ST - K)+ I :Ft) = [; ((x fI
L=t+1 \!Tll) - K) + 1,,=51,' drugim i trzecim wierzcholku. w chwili n, t.o

a. to pozwala juz uzyskac zadane nierównosci na zbiorach {RH-1 b} i l l l


{Rt+1 = a}. pn-,.! = 2 (q" + r-,,), qn+l = 2 (Pn + T,,), r"+l = 2"(Pn + q,,),
wobec tego np.
12. Lancuchy Markowa l·
Pn+l - q"+1 = 2(q" - Pn.)'
12.1. Definicja i przyklady
Przy zalozeniu, i.e Po = l, wynika stad natychmiast, ze
1. Roz7U. Poniewaz Xn i Un sa niezalezne, marny
P(Xn+1 = Sn+1IXn = Sn) = P(cpn(Sn, Un) = Sn+11Xn = Sn) = n--+-
= P(cpn(Sn, Un) = Sn-I-1)' p" = ~+ ~ c-~r q" = r _ 3
l ' 3-2
2 ( l) n+1

Jednak z podobnych powodów (niezaleznosc Un od Xn, Xn-1, ... ) mamy 9. Wsk. Obliczyc bezposrednio lub skorzystac z twierdzenia 81.1.
równiez
11- Od p. 12 - 1(
2 P _ q )n. , r(1+(p~.
'+(2"-1)(p-,,)'" P(X n -- l) -- 12 + l(
2 P - q )"(2r- -l) .
P(Xn+1 = sn+1lXn '= Sn, Xn-1 = Sn-1,··· Xo = sol = P(CPn(Sn, Un) =
= Sn+l), 12. Odp. Pii = 2i(~:;i), Pi,i+l = (kki) 2 dla i ~n - l', pi,i-1 =~ dla i ~l oraz
co konczy dowód. Pij =O dla pozost.alych j.
'''11

460 Odpowiedzi i wskazówki do rozdzialu 12 461

13. Rozw. *15. Wsk. Wykazac, ze

P(Xn+1 = h,1'n+1 = klXn = i, Y" = j) = PA' A: A + Pa' B: A = PB . B: B + PA' A: B,


P(Xn+l = h, 1'n+l = k, X" =i, Y" = j) gdzie PA oznacza szanse wygranej dla wzorca A. W tym celu mozna zasto-
P(Xn = i, 1'n = j) sowac metode uzyta w poprzednim zadaniu, a mianowicie rozwazyc zbiór
P(Xn+l = h, Xn = i) P(1'n+l = k, Y" = j) ciagów o dlugosci n, w których nie wystepuje ani A, ani E, a nastepnie dopi-
P(Xn = i) P(Y" = j) = Pi/,pjk, sac na koncu kazdego ciagu wzorzec A (odp. E). W ten sposób da sie obliczyc
gdzie w przedostatniej równosci skorzystalismy z niezaleznosci X, Y. dwoma sposobami E rnin( TA, Ta), skad wyniknie wzór Conwaya.

*14. Rozw. Sposób 1. Niech TA oznacza


chwile pierwszego pojawienia sie wzorca
*16. Rozw. Patrz: L . .J. Guibas, A. M. Odlyzko, op. cit.
A o dlugosci k w ciagu rzutów moneta1 i niech f(n) oznacza liczbe ciagów *17. W~k. Patrz [GKP), § 8.4.
o dlugosci n bez wzorca A na koncu, zas .fA (n) - liczbe ci<~gów o dlugosci n 19. Wsk. Martyngal z zadania 18 jest juz znany.
z wzorcem A na koncu. Rozpatrzmy zbiór ciagów n-elementowych bez wz,orcn. 20. Wsk. Nalezy uwzglednic fakt, ze nie wszystkie prawdopodobienstwa warull-
A na koncu i dopiszmy do kazdego ciagu ten wzorzec. Teraz podzielimy kowe musza byc dobrze okreslone.
otrzymane ciagi na k klas ze wzgledu na pierwsze wystapienie .4, które moze
nastapic w chwili n + l, n + 2, ... , n + k.
Zauwazmy, ze jesli wzorzec wystapil przed chwila n + k, oznacza to, ze pu-
12.2. Klasyfikacja stanów

krywa sie on ze swoim przesunieciem w lewo. Oto przyklad: 1. Dr/p. O.


. Niech A = OROR, n = 6. W ciagu RORROROROR wzorzec A pojawia sie 2. Roz'W. => Wziac Uo = Xo, Un = Xn - Xn-l dla n:;:: 1.
po raz pierwszy w chwili 8; w chwili 10 pojawia sie po raz drugi.
{= Korzystajac z zadania 12.1.1 otrzymujemy, ze Xn jest lancuchem M,\r-
Mamy w zwiazku z tym, piszac Sk zamiast <lk(fl, A):
kowa, a proste rachunki pokazuja, ze Pi,i+k = Pk.
f(n) = jA(n + l)OI~-1 + fA (n + 2)Ó2T2 + ... + jli(n + k)okTk. 3. Rozw. => Oczywiste.
Mnozymy obie strony przez 2-", otrzymujac {= Niewprost. Istnieja k,j takie, ze ---.(j -- kl. Wtedy C = {l:j -; l} jest
z,\mknietym zbiorem stanów i k ~ C.
f(n)·2-n = fA (n+1)0IT(n+1)+ jA (n+2)S2T(n+2) +. .. I~(n+k)SkT(n'l-k),
-1-
4. Dr/p. a) 1 - stan pochlaniajacy, 4 --- nieistotny; B, {2,3} zbiory stanów
czyli zamknietych,
b) 4 - stan pochlaniajacy, 1,2,3 -- stany nieis~otne,
P(TA > n) = P(TA = n+ l)Sl +P(TA = n+2)02 + ... + P(TA = n+ k)ok.
c) lancuch nieprzywiedlny.
Sumujac ostatnia równosc dla wszystkich n ~ O otrzymujemy korzystajac ze
wzoru na ETA z zad. 5.6.8 i z tego, ze P(TA = 'i) = Odla 'i = O,l, ... ,k - 1: 12.3. Stany chwilowe i powl'acajace
[T,\ = SI + .. , + Sk = A : A.
1. Rozw. Dla l > n zdarzenia {X" = j} i
{T = l}~ gdzie T jest momentem

Sposób II. Podamy teraz metode odwolujaca sie do teorii rnartyngatóws.


pierwszego dojscia lancucha Markowa do stanu j
sa rozlaczne, stad

Formalizacje
Przypuscmy,
pozostawimy Czytelnikowi.
ze w kasynie rzuca sie moneta az do chwili otrzymania wwrca Pkj(n) I:
':"
1n=l
P(Xf~ = jlT = m,Xo = k)P(T = rn!Xo = k) =
D RO R. Przed kazdym rzutem jeden z graczy stawia. :I zl na to, ze wzorzec po-
n n-l
jawi sie w najblizszych czterech rzutach. Jesli w najblizszym rzucie pojawi sie
orzel, gracz wygrywa 2 zl i stawia je na reszke w drugim rzucie, itd., az do = I: ikj(m)pjj(n - rn) = I: Aj(n - m)pjj(m).
pierwszej przegranej lub otrzymania wzorca - wtedy gracz zatrzymuje wy- m=l m=O I

grana. Poniewaz gracze rozgrywaja gre sprawiedliwa, w kazdej chwili sredni 2. Ddp. Otrzymujemy takie same wyniki, jak dla bladzenia opisanego w przy-
zysk kasyna jest zerowy. Srednio wplaty graczy wynosza ETorwR, natomiast kladzie 7.
suma wyplat po zakonczeniu gry wynosi 16+4=20 (wygraja gracze pierwszy
3. Wsk_ Wykazac, ze funkcje tworzace (dodatek B) ciagów (pjj(n))~=I: Pj(z)
i trzeci). Stad EToROR = 20.
~:=IPjj(n)z" i ciagu (Jjj(n))~=I: Fjj(z) spelniaja zaleznosc
·Za: L. J. Guibas, A. M. Odlyzko, String Over-la.ps, Pa.ttem Ma.tching, a.nd Non-
-transitive Games, Journal of Combinatorial Theory, ser. A, vol. 30 (1981), ss. 183-208.
SZa: S.-Y. R. Li, A Ma.Ttinga.le Approa.ch to the Study oj Occurrence oj Sequence Fjj ( z ) = 1+Pj(z)p 'z( )
Pa.ttems in Repea.ted Experiments, Annals of Probability, 8 (1980), ss. 1171-1176. ---l
i wziac z -- 1.
l'If,I,I""f~,~ iII 1I1\7Jt'"tl"I/~,',/JMli"It1'11I", 1\11111,1,,111' 1"'IJI>"IJIIIi,y, H (IUHlJ), ~~. 11'(1. II'((J. i wziac z -~ 1.

III' l Odpowied:6i i wskaz6wki do rozdzialu 12 4G:J

4. Rozw. Z dowodu stwierdzenia 6 wynika, ze 2::'=1 Pij (n) = Fij Pi, a z zalozen 12.5. Rozklady stacjonarne i twierdzenia ergodyczne
Fij > O, Pj = 00.
1. Odp. T6.
5. i
Wsk. Wykazac, ze jesli i- j, to funkcje tworzace Fij(z) ciagu (Pij(n»;?,"=l
i Fij(z) ciagu (fij(n»;?,"=l spelniaja 2. Odp. 7r = (X( -A, !l, 0, O) + (1 - a)(O, O,~, ~), (X.E [0,1].

Pij (z) = Fij(z)(Pj(z) + 1). 3. Roz'W. Jesli j - stan chwilowy, to ~ 2::=lP;j(m) o. (stw. 12.3.6) -=
6. Rozw. Jesli .1 jest stanem powracajacym zerowym, to jak wierny z tw. 12,
I.
II
00 00

Fjj = ~.
'"" fij (k):= (1 - Po) + '""
~ Po ... Pk-1 (1 - Pk) = 1 -- m-oo
!im Pk. ~ tE (l{j}(Xl) I Xo = i)
k=l k=l k=O 1=1

Zatem Fjj = 1 wtedy i tylko wtedy, gdy n;:=l Pk = O. dazy do zera, czy!i ~ .~~"=l Pij (m) -+n O. Jesli 7r jest rozkladem stacjonar-
nyrn, to dla kazdego>7i .
7. Rozw. Gdy S = {1,2, ... ,k}, to 2:;=lPij(n) = 1, wiec istnieje takie j, ze
Pij (n) J' O, czyli.i jest stanem powracajacym .. 7rj = L7riPij(n~.
"l;;
Gdy S = {l, 2, .. .'}, to prawdopodobienstwa Pi,i-j-l = 1 okreslaja laJlcuch
Markowa o samych stanach chwilowych.
8. Rozw. {oc (patrz uwaga 12.3.4b)
=} Niewprost. Niech stan j komunikuje sie ze stanami kl, k2, ..• , kI i tworzy
z nimi lancuch nieprzywiedlny. Z zadania 7 wynika, ze jeden ze stanÓw jest
Stad

Z
7rj = n
~ t
m=l
7ri' ~n

twierdzenia Lebesgue'a, co konczy dowód.


L
iES m=l
7riPij(m)
Pij (n) = L
iES
t --->
n_DO O

powracajacy, wiec wszystkie stany j, kl, k2, .•. , kl sa powracajace, zatem .1


jest powracajacy. Sprzecznosc. 4. Rozw. Na mocy twierdzenia 5 istnieje jedyny rozklad 7ritaki, ze 7ri = 7riP(i) .
Gdy S = {l, 2, ... }, to istnieje lancuch nieprzywiedlny o samych stanach Oczywiscie kombinacja wypukla miar (7ri) jest miara stacjonarna. Gdy 7r
chwilowych, które nie sa nieistotne (np. patrz zad. 6).
9. Rozw. Stan j jest powracajacy, wiec P(limsuPn{Xn = j}IXo =.j) = 1. Stad wzorem 7[i(.i) =
na. Si oraz 7f == 2::Ef ai1ri.
*
jest miara stacjonarna, to jesli ai = 2:jE8; 7r(j) > O, ni na Si zdefiniowane
spelnia iriP(i) = ni, wiec 7ri = ni jest miara stacjonarna

pji(m) = P( {X", = i} n limsup{Xn = j}IXo = .1) ::;:

5. Rozw. 'Trj = ~~;== :Z=:l::::;l ~l:J?·i..i == E;j~l 1rip.;,).

::;:L
n>m.
P(Xm = i, Xm+~ i- j, ... , Xn-1 i-,j, Xn = jlXo = .i) = 6. Roz'W. Kolumny macierzy "umuja sie do jeclnosci, wiec 7ri = jest rozkladem t
stacjonarnym. Zatem z twierdzenia ergodycznego Iirnn~DOP(X" = i) = -);.
= LPji(rn)fij(n - m) = pji(m)Fij. 7. Roz'W. Ten fakt zastal udowodniony w twierdzeniu 12.5.15.
n>m
8. Raz'w. Wielkosci loo(n) obliczylismy w przyklad7Jie 12.3.1. Korzystajac z tego
Poniewaz istnieje takie m, ze pji(m) > O to Fij = 1. mamy
10. Rozw. (X;:,X,~.) jest symetrycznym bladzeniem przypadkowym po Z2, za-
tem jest powracajacym lancuchem Markowa, wiec dotrze do kazdego punktu /1-0 =L nfoo(T1,) = 3,
(c, c), c E Z z prawdopodobienstwem 1. n=l
3
12.4. Lancuchy okresowe /1-1 = 2'
1. Odp. a) tak, b) nie, 0(2) = 1. A wiec oba stany sa niezerowe.
2. Rozw. Istnieje stan i
oraz n, m takie, ze Pij (n) > O, pji(m) > O, z czego *9. Roz11l. Pokazemy, ze jesli i
jest stanem dodatnial i .j --; .1, to .1 jest stanem
wynika, ze pjj(n+m) > O. Takze pjj(n+m+ 1) > O. Liczby n+m, n+m+ 1 dodatnim. Istnieja rnl,m2 ta.kie, ze Pi.j(m1) > Gl, pji(m2) > O. Wtedy dla
sa wzglednie pierwsze, wiec j jest stanem nieokresowym, zatem z nieprzy- c = Pij (ml)pji(m2) > O mamy PJ.j(ml + m2 + n) ): CPii(n). Zatem
wiedInosci caly lancuch jest taki.

l.
3. Rozw. Nie, na przyklad:
n1 LnJJJJ.. (rnl + rTI2 +'rTI ) -_ Gmdm,+n(j,j)t
- -----
Gn'1+m,(j,j) -;::.
'-
"m· = l

~ O
G" (i, i) Gm] +m2 (j, .1)
(O ± ~
.10 O
~)

): C--n- - --'--n-'--- .
464 Odpowiedzi i wskazówki do rozdzialu 1:3 465

Biorac n --t 00 otrzymujemy z twierdzenia 12 zbieznosc lewej strony do p:; l , dla i, j,


k E S. Niech P' bedzie punktem skupienia ciagu (pn)n w przestrzeni
a prawej do C/-L~'!> O, czyli /-Lj > O. [O, l]oo<co. Istnieje ciag (nk) taki, ze pnk zmierza do P* dla kazdej wspól-
*10. Rozw. => Jest to tresc twierdze!'l 5 i 15. rzednej. Z (14) wnioskujemy, ze wszystkie wiersze P* sa identyczne, a stad
PP' = P'. Dalej pnk+! = ppnk --t PP' = p' (z twierdzenia Lebesgue'a o
~ Udowodnimy, ze 71'i = /-Lii dla E S definiuje rozklad stacjonarny. i Za- zbieznosci zmajoryzowanej), wiec z lematu Fatou
czniemy od przypadku, gdy 5' jest zbiorem skonczonym. Poniewaz
PP*=(lim
k-oo pnk)P~!im k--oo pnkP='p*,
;L Gn(-i,j) = l,
to z twierdzenia 12 otrzymujemy
JES
dzie wierszem r
gdzie nierównosc rozumiemy jako nierównosc wspólrzednych.
i niech (j = Lip(i) :>; l (z lematu
Vi = p(i)/o jest rozkladem prawdopodobienstw:a
Niech p(i) be-
Fatou). Gdyby Ó > 0, to
na S oraz vP :>; v. Poniewaz

l·lIn -n1 ~""G n (")


l = n-~ t,) = L l' lm ---
G,,(i,j) =D
"" -,
l
Li Lj V'iPi) = LiVi, to 'UP = 'U, a wiec 'U jes~ rozkladem stacjonarnym dla
n-oo n ~tj (X,,), sprzecznosc bo (Xn) jest powracajacy z~rowy (patrz zad. 10). Zatem
JES JEB JEB Ó =O tzn. lim,,_co Pij (n) = p(j) = O dla kazdy.ch i, j.
czyli 71'jest rozkladem prawdopodobienstwa. 71'jest rozkladem stacjonarnym, 12. Rozw. limn_co poo(n) =O i skorzystac z poprzednich zadan.
bo 13. Odp. Stan O powracajacy:

71'j l' --n--


= -l = n:'~
J.L.i G,,(i,j) r ""Gn(i,k)Pkj
= n!.~ L... n kES
= (12)
fnfoo(n)
n=l
= fn.
n=l
PO.n-l = ef
n==2
1_ h,,~ = 00 {o} ex E (1,2].

= L·
"""
kEB
l"lm -----
n_co Gn('i,. nk)pkj = L
!'EB
J.Lk
-1Pkj = L
kES
71'kPkj· Lancuch jest nieprzywiedlny, wiec wszystkie stany sa tego samego typu.

Gdy S jest zbiorem nieskonczonym, to biorac zbiór skonczony F C S ml:lmy 12,6, Lal1cuchy pochlaniajace
'\" -1 '"./ 1 ( przec h O'd zimy
.' . ó wno,. sCI. ~jE
z n --t 00 W Dler '\" On(-i 'il "'.,
./ 'J)
~kEF l.Lk F' -,,-'-'
l. Rozw. Skorzystac z twierdzenia 1. m2(1) = 17/6.
a stad LkEs J.Lk1 = C-l :>; 1. Postepujac podobnie jak w dowodzie (12)
2, Rozw. Dobrac odpowiedni lallcuch Markowa i skorzystac z twierdzenia 1
otrzymujemy dla j E S: LkEI" J.!7;lpkj :>; J.Lj\ a stad (oczywiscie mozna to zadanie rozwiazac nie korzystajac z teorii lancuchów
Markowa). Srednia liczba posilków pchly przed smiercia jest równa 4. Praw-
"" J.Lk
L... -l Pkj '"./-lJ.Lj . (13)
dopodobienstwo, ze pchla 'zginie na czczo jest równe 1/3.
kES
3. Roz1/!. Niech 1 bedzie stanem pochlani<\jacym. Gdy A.i jest zdarzeniem po-
Sumujemy po j: LjES J.Lkl :>; ~kEF' J.L;;l, wiec w (13) zachodzi równosc. legajacym na tym, ze lallcllch nie wraca do stanu i, 2, to i~
Zatem 71"i = cf;.i l dla E 5' definiuje rozklad stac:jonarny. iMusimy jeszcze P(AiIXo = i) ~ P(3n:X" = 11Xo = i) ~ Pil(ni) > O,
pokazac, ze c = 1. Jesli, jest rozkladem stacjonarnym, to , = ,Cn/n, gdzie
Gn jest macierza Gn = (G,,(i,j))i.jES i jak wiemy Cn;,i,j) --+ I~' a zatem
gdzie ni = rnin{n:Pil(n) > O}.

,j= -L,
1', czyli c musi byc równe 1.
13, Proces Wienera
*11. Rozw. <= Stan powracajacy moze byc dodatni lub zerowy. Gdyby byl dodi:ltni,
to wszystkie stany bylyby dodatnie i Jirn,,_oo P:i.1 (n) = 71') > O, sprzecznosc. 13,1. Definicja i konstrukcja
=? Bez stratyogólnosci moz~la zalozyc, ze (Xn) jest nieprzywiedlnym nieolae-
sowym lancuchem Markowa. Niech .7 bedzie stanem powracajacym zerowym. 1. RozU!. Niech O < t1 < t2 < ... < in. Wektor U = (Wit, W'2"'.' W'n) jest
Wtedy Z" = (Xn, Yn) jest nieprzywiedlnym i nieokresowym tancuchem Mar- obrazem wektora V = (\tV", W'2-\tV", ... IV,,, -W',,_l) przy przeksztalceniu
kowa, Gdy (j,j) jest stanem chwilowym, to liniowym 'T: Rn -, R", gdzie

P(Zn= (j,j)IZo = (j,j)) = pJj(n) -,n-co O,


T(x!, ... ,x, .•) = (Xl,Xl + X2, .. ·.. ,Xl + ... +xn).

'Wektor V ma, na mocy niezaleznosci przyrostów, rozktad normalny z gesto-


ze stwierdzenia 12.3.6. Gdy (.7, j) jest stanem powracajacym, to z dowodu scia
twierdzenia 5 punkt (ii) mamy:
gv(x!, ... ,Xn)= l
Ipij(n) - Pkj(n)l--t O gdy n --t 00 (14) t-l
( vi:271")" TI"- Y t _ i.t-l
't e - 2'l ,\"n
~i=' Xi/("-'i-tl
?

l 1;lllIli~iitllj1,"I1;,.,"NI ••••• _ •• __ •• _ •••• __ •••••••••• ••••••••• •••• =...•


__.•..
••.•••.• ~ ~__~. --_.~~-~-----------~----
l hlp\lWI\'d\':1 l wskazówki do rozdzialu 13 467

I'olllownz deLT = 1, zgodnie z zad. 5.5.5 gu(x) = gv(y-lx)·1 dety-ll, tj. 3. Rozw. Niech V bedzie wahaniem tra.jektorii procesu Wienera na [a, b]. Jest
to nieujemna niewl<lSciwa zmienna losowa (dopuszczamy wartosci nieskon-
1 e -~~ '\'''
Di,;:::::.l (x;-x;_tl2/(t;.-I.;_,).
czone); oznaczmy A = {w E O: V(w) < oo} i przypuscmy, ze P(A) > O.
gv (Xl, ... , Xn) = n-=rr=:-l-...;-':t=i=-=t=i-=l
-( v'21r~2=7r=-) ·Wt.edy marny
2. Wsk. Rozwazyc proces Poissona.
3. Odp. K(t, s) = min(t, s) - ts. (k:k2-"
L Ela.I,])
IWh2-n(W) - H'(h_l)2- •• (w)12 ~

4. Rozw. => zad. 1. ::;; Il(,,)) sup IVI/k2-" (w) - W(h_l)2-,,(w)l.


{k:k2-" Ela,bJ}
Obraz liniowy .;= EXg tego Xo = ° p.n. Poniewaz wektor (X,.], ... ,X,,,) ma roz-
= 0, wobec
wektora
klad normalny o sredniej zero i macierzy kowariancji (t.;. At; lI';;i,j';;", to argu- Dla w E A prawa strona zrnierza do z.era, gdy n .......•
00, poniewaz trajektorie
gaussowskiego jest
gaussowski.
ment podobny do tego z zad. 1 pokazuje, ze (Xil, X/'2 -Xl), ... , Xi" -'X1.,,_]) sa jednostajnie ciagle na [a, b]. Lewa strona zmierza p.n. do (b -- a) na mocy
ma rozklad normalny o diagonalnej macierzy kowariancji, skad otrzymujemy wyniku zad,l1lio l -- spr<;eczl1osc.
(przyklad 5.8.8c) niezaleznosc przyrostów. Inny sposób: jesli funkcja. ma wahanie skonczone, to jest rózniczkowalna pra-
5. Wsk. Wszystkie procesy maja ciagle t.rajektorie i skoI1czenie wymiarowe roz- wie ws\':qd:de..
klady normalne o sredniej zero. Wystarczy zatem oblic:.:oy6funkcje kowarian-
cji. W przypadku Y wykazac, ze z prawdopodobienstwem 1 suPo<s« Ys ~ O, 13.3. Zasada odbicia
gdy t -t O, skad wyniknie, ze prawie wszystkie trajektorie sa ciagle w zerze.
6. Wsk. Proces W ma ciagle trajektorie; sprawdzic niezaleznosc przyrostów i
1. Odp. f(x) = i2/(7rI;) e-Q" /2'110,00) (X).

pokazac, ze Wt+u - Wu ~ N (O, t), t, u ~ O. 2. Ws/;;. Dla a > O skorzysLac z zasady odbicia:.

7. Wsk. Skorzystac z wyp.iku zad. 3. P(ra::;; t) = 2P(H/, > a) = 2P(VtVVl > a) = 2(1- iJi(a./Vt)), t ~ O.
8. Wsk. Wynika to natychmiast z zad. 5c.
R.ózniczkujac prawa strone otrzymujemy gest.oSc:
9. Wsk. Wynika to natychmiast z zadania 8 .
. a -0/2 '_0." /21
11. Rozw. Kres górny ciaglej trajektorii na odcinku [O, t] jest równy jej kresowi g,,(lJ7 ~t e 1[0.00)(1.).
górnemu na zbiorze przeliczalnym [O,t] n E, zatem
W' ogólnym przypa.dku wySr.MCZYzastapic a'prze,; [al.

{sup Hls ::;; ct=


s';;t
{ sup
10,ilnB
Ws::;; c} = n· {W, ::;;c} E
sElo.I}nB
:F,. :~. Wsk. Skorzysta.c fi, zadania. ~.

13.4. ]\I[ocna wlasnosc Markowa


13.2. Wlasnosci trajektorii
1. Rozw. Z twierdz:enia Dynki·tra--Hunta wynika, ze proces VlTienerapo dojsciu
1. Rozw. Niech Z ~ N (0,1). Wtedy clo a rozpoczyna sie od nowa,i!,iest w szczególnosci niezalezny od Ta. Dlatego
dla kazdego n E N
m" "bl
la + ... + ret(n) rv 'Tna· ol

E (Sn - (6.~ 0.))2 = E(z2 - 1)2 L(ti") - t~r~1)2 ~ Z drugiej strony


k=l

::;; E(Z2 - 1)2111-',,11' (6 - a) -t O, PeTa ~ t) = 2P(Hli ~ a) = 2P(VtWl ~ a) =


poniewaz I I 1-'n I I -t O. = 2P(Wj ~ a/Vt) = P(Ta/Vt ::;;ir) = P(tTa/Vt ::;;t).
Druga czesc wynika z lematu Borela-Cantelliego i oszacowania Udowodnilismy wiec, ze Ta ~ tTa/Vt, a w szczególnosci Tna ~ n2TQ., co konczy

f
dowód.
2. Odp. Gestosc Ta jest równa (zad. 13.3.2)
fP(ISn - (b - 0.)1> e) ~ E(Z2 --~:. (b - a) liPnil.
n=l . n=1

p. Wsk. Zamiast kwadratowej nierównosci Czebyszewa, jak w zad. l, uzyc wy-


V ='
_a_t-3/2
27r e
_,,2/2i1
[0.00)'
(t)

kladniczej. Poniewaz Ta. ~ a2Tl' ograniczymy sie do tej ostatniej zmiennej losowej.
468 Odpowiedzi i wskazówki do rozdzialu 13 469

a) .W celu obliczenia trans format y Laplace'a skorzystamy z interesujacego W takim razie nalezy przeprowadzic bezposrednie rachunki;
spostrzezenia ([FICH], t. II, raz. XIII, s. 524);
P(Vr• :::;s) = j'=
o .
P(1/t :::;s) y~C3/2e-a2/2'dt
2K =

l'" f [(ax - ~) 2] dx = ~ 1= f(u2)du, a,b> o, = 1=


o J- t 00 y'2;
Cl/2~e-,,2/2L~C3/2e-a2/2tdxdt
v'27r =
przy zalozeniu, ze jedna z calek jest zbiezna .
Mamy teraz (podstawiajac x2 = 1/(2t));
f" + x2)
• -00 ;(a2adx .

4. Roz71J. Niech l' = inf{s ;:::O; W. ;:::ro}, r ;::: O, 'T/ = (t - 1') V O. Wtedy

L Tl ()S -- _1_ r= e-·tt-3/2 e,-1/2t


v'21f Jo d·t -- ~ fi 1""o e. _(,.2+./(2"")) ,," -
do,-
P(sup \IV. ;:::,.)
.'J(t
= P(+::::; t) = P(1' :::; t, \lVt ,<:;: T) + P(1' :::;t, W, ;:::T) =
= e-g; - 2 = e -v'2; - 2 = 2P(Wt
V1f 1=e -(x- y °l'
o
r.J2 . .l.)2d
x X

.fi.)'00
o
e -u2d u =
poniewaz {W" ;::: T} C {r :::;t} oraz
;::: r'),

= e-g;.
P(1' :::; t, !tVt:::; r) = P(1' :::; t, Wt ;::: T).

b) Podstawienie s = 'i't powoduje klopot w wyborem jednego z dwóch pier- Ostatnia równosc wynika stad, ze \tV, = WT ;- Bry = T + Bry, gdzie B jest
wiastków z liczby zespolonej. Wobec tego obliczymy czesc rzeczywista i uro- procesem Wienora niezaleznym od Fr ..
jona funkcji charakterystycznej. Skorzystamy z nastepujacych tozsamosci; 5. Wsk. Niech 1'n = ([2nT] + 1)/2n. Wtedy ze znanej juz tozsamosci Walda
zastosowanej do martyngalu (Wj/2" li- wynika, ze EWrn = O. Ale
x2 2 2 V 2
1=
1T .

o e- cos(c /x )dx G'


= Te-c-l2cos(cv2), c> O,
Wr" =Wr + (\tVTn - Wr) = WT -+ Uno

Nalezy wylutzac, ze EU" -> O. Ale z tw. Dynkina-Hunta Un = B"n' gdzie B


Jo(00 e-x2 sin(c2
. /X2) dx = v::
- e-cV2 sin(cv2), c> O. jest. innym procesem Wienera i O :::; 'T/n :::; 2-", zatem lUn I :::; sUP.~1IW.1 E
E LI, n = 1,2, .... Podobny argument stosuje sie do drugiej tozsamosci.
Mozna je otrzymac przez dwukrotne zrózniczkowanie wzgledem c obu calek 6. Roz71J. a) jest; oczywiste, b) równiez, bowiem dla kazdego zbioru A E Fn
i rozwiazanie otrzymanego równania rózniczkowego ([FICI-I], t. II, roz. XIV, marny f/l hn+1dP = O.
s. 626). Od tej chwili przyjmiemy, ze g = a(Fo, FI, ... ).
Niech s > O. Mamy, podstawiajac t = 1/(2a;2); 7. ROZ1U. Jesli m > n, to z zad. 5 wynika, ze

Eh."hm = E (E (h."hm I F",,_I)) = E (hnE (hm I F",,-1)) = O.


Re 'Pr, (s) = E cos(srtJ = -- =
l )'00 cos(st)C3/2e-1/(21.)
y'2;. o
dt
Wykazemy teraz zupelnosc. Niech i
bedzie dowolna funkcja z L2(n, g, P).
Jesli Efhn = O dla n = 1,2, ... i fn = E U I F,,), to in = I:~=oaihi, bowiem
- - cos s x e x=e v·'COSyo5.
- V1fo
2 1= (/2 2) _x2 d - r; r: funkcje ho, hl, ... ,hn sa, jako ortogonalne, liniowo niezalezne i tworza baze
w (n + l)-wyrniarowej przestrzeni L2(n, Fn, P).
Analogicznie obliczamy czesc urojona. Uwzgledniajac parzystosc funkcji co- Dlatego E (f In) = O dla kazdego n, a poniewaz na mocy twierdzenia 11.6.6
sinus i nieparzystosc funkcji sinus otrzymujemy dla dowolnego s
o zbieznosci martyngalów w LV marny fn ~ i, ostatecznie Ef2 = O, czyli
f = O p.n.
'Prl (s) = e-(1-i8gn.)yTsi 8. Wsk. Przyjac ai = E f hi i skorzystac z twierdzenia o zbieznosci martyngalów
\1.1 LP.
Liczba (1- 'isgns)JiSj jest p'ierwiastkiem glównym liczby -2is. Jesli z
9. Wsk. X = R . (cos U, sin U), gdzie zmienne losowe R i U sa niezalezne, a U
= Izlei A,g., gdzie Arg z E [-K, K] i jest zwany argumentem glównym, to
ma rozklad U[O, 271"].
pierwiastkiem glównym liczby z jest Me(iA'lP)/2
10. Wsk. Skorzystac z poprzedniego zadania.
3. Rozw. Rozumowanie podobne do przeprowadzonego w zadaniu 1 pokazuje,
*11. Wsk. Rozwazyc moment TO dojscia procesu dd okregu o srodku x, zawartego
ze VT• musi miec symetryczny rozklad l-stabilny. Jedynym takim rozkla- w G i skorzystac z tego, ze w chwili TO proces 'Wienera zaczyna sie od nowa.
dem jest rozklad Cauchy'ego. Nie wiadomo jednak, jaki jest parametr skali.
n;I1I_------------------------------~-------------------::=----

I I",,, IW 1,,"'/,1 J w~I<u~uwkl do rozdzialu 13 471

1:1.1\. 1\IIIlN/.I'l1kd/l JH'OCOSLI Wienera ... 2. Razw. O'znaczmy


1. Rozw. Ustalmy u, v E [O, l], u < v, wezmy J E UIO, l]. Niech q = p' (czyli
l/p + l/q = l). Oznaczmy d = v-u. Wtedy Yb"JS) = (Rben)(S) = r~).{ (s - t)b-len(t)dt.

Vlltedy, zamieniajac kolejnosc calkowania. i korzystajac z tego, ze I: ani


r(a) . I(RaJ)(v) - (RuJ)(u)1 = L.,
("\~ aT") 1/2 ,'l, otrzymujemy
.

= 11" (v - t)"-l J(t)dt - 1" (u - t)a-l J(i.)dt! ~


[L II n=.M
N
Yb,n")'n111'
L~}[O,11
= [ ./ .11(J
L N
n=:J..1/
Yb,n(sh" IP
ds =
~ I.f (v - W-l J(i;)dtl + 11"[(v - t)"-l -. (u - t)"-l]f(i)dtl ~

~ [I'"
~--.....---
." (v - t)(a-l)adt ]1/'1 ·Ilfllc"
' + = [I'hl" ·1 l ( l;1y~,n(S)
N ) 1'/2 ds.
(15)

I \~'ykazemy I.cl'a~, ze gdy M, N --> 00, to calka. po prawej stronie zmierza do


zera. W tym celu zauwazmy, ze liczba Yb,n(S) da sie przedstawic jako iloczyn

+,
[1"I(V-t)"-l
o __(V.-t)"-ll'ldt
] 1/'1
,·IIJII[.1"
skalarny w L2[O, l] funkcji en(i;) oraz

II
h. (t) = l[o,sl
l
r(b) (
s _ t)b-l
.
VI' ostatnim wierszu skorzystalismy z nierównosci H61dera.
Vl10bectego z równosci Parsevala otrzymujemy
Oszacujemy teraz wyrazenia i Mamy I II.

1= [ (a _ l
l)' q + l ]1/'1 Iv - u![(a-l)q+ll·1/q -- C a.q· IV - U lA ,
Ly~,n(S)
00
"=1
1 Ja
= IIh.(t)IIPlo,ll ~. r~(b) t (s - t) 2(b-l) dt = l 2b l-1 s .2b-l ,
r2(b)

i dalej:
poniewaz [(a - l)q + l] . l/q = a - l + l/q =a+ l/p = A, a w szc~egóilJosci
(a - l)q +l > O.

Co do II, podstawiamy najpierw s = u - t, a nastepnie z = sld;


lo l ( L00
?1.=]
y~,n(S)
)1'/2 ds = r(b)-1'(2b - 1)-V/2 t
/0 S(2b-1)1'/2ds < 00,

11= [l"o l(d+s)"-1-su-11"ds ] l/q ~ poniewaz h> 1/2. Dzieki ternu mozna zastosowac tw. Lebesgue'a o zbieznosci
zmajoryzowanej i otrzymac zbieznosc do zera calek w (15), co konczy dowód.
3. Wsk. Przy odpowiedniej interpretacji oznaczen (/·1 oznacza norme) dowody
~ [.)0/,00 1(1 + Z)"-l - z,,-lladz ] l/q . dA. przenosza sie bez zmian na przypadek wektorowy.
Wykazemy zbieznosc ostatniej calki. W otoczeniu zera funkcja pod calkowa
jest rzedu z(a-1)q, gdzie.\(a -1)q > -1. W nieskonczonosci funkcja podcaJ-
kowa szacuje sie z twierdzenia o wartosci sredniej:

1(1 + Z)"-l - zO-ll'J ~ la - 21'Jle + zl(a-2)a, e E (O, l).

Dla duzych z prawa strona jest rzedu Izl(a-2)q, gdzie (a - 2)q < -l, skad
wynika zbieznosc calki.
Wykazalismy zatem, ze

I(Raf)(v) - (RaJ)(u)1 ~ Ka,QII!IIL7,lu - vl\

co kO'llczydow6d.
Skorowidz 473

czestosc przebywania laflcucha Mar- funkcja tworzaca


kowa w danym stanie, 295 momenty, 375
zmiennej losowej, 330
Dlugosc krzywej, 363 funkcje
Skorowidz Doeblin, W., 203
Doktór, Jan, 29
Haara, 317
Rademachera, 415
Doob, Joseph Leo, 229-231,244, 384 Schaudera, 320
dopelnienie ortogonalne, 355
dylemat wieznia, 36 Gausi;, Carl Friedrich (1777-1855),
c-siec, 189 Borowkow, Aleksander AJeksiejewicz, 118
Dynkin, Jewgienij, Borysowicz: 71
minimalna, 189 484
dysi;rybuanta, 63, 67, 70 Gersonides, Leon (1288-1344), 2'1
A-uklad, 71 Bortkiewicz, Wladyslaw (1868-1931), Cantora, 113 gestosc
rr-uklad, 71 168 empiryczna, 161 rozkladu pra.wdopodobienstwa,
niezaleznosc, 100 brak pamieci, 65, 66, 104, 107, 115, ulomna, 186 61,62
a-ciala 117,128 warunkowa, 138
niezalezne, 46 Brillat-Savarin, Anthclrne Einstein, Albert (1879,-1955),304 Gleichgewicht, B., 168
rodzina niemalejaca, 221 (1755-1826), 67 estymator , 90 Graham, Ronald L., 484
a-cialo, 9 Brojer, Wojciech, 29 Euler, Leonard (1707-1783), 330 Graunt, John (1620-1674), 66
Fr,223 Brown, Robert, 30/J Exner, Feliks, 305 Grimmett, Geoffrey R, 484
generowane przez rodzine zbio- Buffon, Ceorges Louis Leclerc cle gruba moneta, 18, 21
rów, 13 (1707-1788),21, 67 Fellcr, William (1906-1970), 282, 484 Guiba,s, L. J., 460
generowane przez zmienna lo- Fermat, Pierre de (1(;01-1665), 53
sowa,60 Ficht.enholz, Grigorij Michajlowicz, Hacking, lan, 66
ogonowe (resztkowe), 146 Calka, 340 484 Halley, Edmund (1656-1742),67
produktowe, 345 wzdluz krzywej, 36:1
filtracja, 221 I-Ioffrnann-JlIlrgensen, JlIlrgen, 484
Casanov,t, G iovann i Ciacorno naturalna, 222 I-Iuygens, Christian (1629-1695), 67,
Adaptowana rodzina zmiennych lo- (1725-1798), 229 79
rodzina zmiennych losowych
sowych,222 Cauchy, Augustin Louis (1789-1857),
3G1
adaptowana do, 222
aksjomat wyboru, 15 funkcja Igla Buffona, 21
aksjomaty teorii prawdopodobienstwa, centralne twierdzenie graniczne, 203, absolutnie ciagta, 73, 457 uogólnienie, 21
10 380
analityczna, 191, 360 iloczyn skalarny, 354, 355
Alembert, Jean Le Rond d' w wielu wymiarach, 219 beta, 325 iloraz wiarogodnosci, 258
(1717-1783),22 Chandrasekhar, S., 305 borelowska, 59 indeks krzywej wzgledem punktu, 363
argument, 364 Chinczyn, Aleksander Jtl1cowlewicz charakterystyczna, 190, 335 inwersje w permutacji, 219
glówny, 468 (1804-1950), 20il losowej sumy, 198 IW, K., 319
ciag rozkladu Cal.1cl1y'ego,:)73
Bayes, Thomas (1702-1761), ;)9 Bernoulliego, 99, 106, 151, 200, rozklaclu cosinusa hiperbolicznego, Jahwe, 29
baza Schaudera, 318, 359 21:3, 241, 383, 415 374 Jajuga, K. i T., 1.112
Bennett, Deborah J., 42 prognozowalny, 228 wielowymiarowa, 208 jednostajna calkowalnosc, 113, 244
Bernoulli, Jakub (1654-1705), 154 uogólniony, 2'18 dodatnio okreslona, 192 jedrnosc rodziny rozkladów, 179
Bernstein, S. N., 175 Cichocki, Bogdan, 30/J gamma, 325 Juszkiewicz, A. P., 484
biegun funkcji, 370 Ciesielski, Zbigniew, 319 harmoniczna, 318, 368
BiJlingsley, Patrick, 484 Crarnera dla lancucha Markowa, 274 Kac, Marek (1914-1984), 210, 376
Birkhoic, Andrzej, 360 transformata, 380, 381 holornorficzna, 360 Kahane, Jean-Pierre, 442
bladzenie przypadkowe warunek, 381 kowariancji procesu, 305 Kahneman, D., 403
na prostej, 264, 281 cykle w permutacji, 219 prosta, 340 Knuth, Donald E., 484
wRn, 281 Czebyszew, Palnutij Lwowicz tworzaca, 330, 375 koincydencje, 31
z barierami elastycznymi, 269 (1821-1894),92 ciagu, 330 Kolrnogorow, Andriej Nikolajewicz
Bojdecki, Tomasz, 484 czestosc, 8 dla ogonów, 331 (1903-1987), 10
• 11".11111I,1\1, 'l'tllIlllIl'/" -IH.1 (;lIiJtiLu~(;, ~ dla ogOlloW;-a::n CT1JIT.l-nJ~rn

472

1i',1 SIWl'OwiJz Skorowidz

I<UJIIiJiullcje, 24 lancuch Markowa. moment stopu (zatrzyrna.nia, Mar- Nisio, M., 319
powtórzeniami, 26
Z powracajacy, 282 kowa), 222, 293 norma, 353
kOlnpensator, 385 Lukaszewicz, Jerzy, 402 optymalny, 389 p-ta, 352
Kordos, Marek, 78, 484 momenty w przestrzeni Hilberta, 355
Kos, Bohdan, 29 Macierz wyznaczajace rozklad, 379 l
kowariancja, 86 kowariancji, 87 zbieznosc, 189, 379 Obwiednia Snella, 389, 393
z próby, 90 podwójnie stochastyczna, 298 m.ost Browna, 310 odchylenie standardowe, 85
kryterium Pólya, 202 przejscia, 267, 271 Odlyzko, A. M., 460
krzywa, 363 stochastyczna, 268 Nadciag, 263 ogon rozkladu, 406
Peano,417 Maj straw, Leonid Jefimowicz, 484 na.dmartyngal, 226 opcja,
regresji liniowej, 90 Marcinkiewicz, Józef (1910-1940),164 nadzieja a.merykal'iska, 392
zamknieta, 363 Marek, Wiktor, 189 matema.tyczna, 79 europejska, 258, 395
Kucharczyk, J., 168 Markiewicz, Wojciech, 79 moralna, 405 operator Riernanna-Liouville'a, 321
kurtoza, 85 martyngal, 226 nastepstwa pozorne, ~8, ~.9, 1~J ()sobliwo~c usuwalna, 369
kwantyle, 487 prawostronnie domkniety, 227, nawias skosny rnartyngalll, 385 Ostwald, Wilhelm (1853-1932), 304
Kwapien, Stanislaw, 149, 211, 321, 244 Neurnann, John' von (190:i-1957), 18 Owczarow, L. A., 175
484 z czasem ciaglym, 311 Niemiro, Wojciech, l.4:l
z czasem odwróconym, 242 nieprzywiedlna klasa stanów, 303 Paradoks
Laplace, Pierre Simon de (1749-1827), zatrzymany, 227 nierównosc Bertranda, 19
. 21, 39, 170, 375 Mere, kawaler de (wl. Antoine Gom- Bernsteina, 175 czasu oczekiwania, 107
h\plasjan, 361 bauel), 31, 218 dla schematu BernouJliego, 154 d'Alemberta, 22
Lcja, Prnncisllck (1885··1979), 200, 360 metody Monte Carlo, 160, 216, 319 symetryczna, 107 kawalera de Mere, 31
lur\ll1l; metryka Levy'ego, 188 Bessela, 355, 358 losowych liczb naturalnych, 16
nnrol~\, Cn,lIl,olliep;o, 51, 55 miara, 336 Cauchy' ego- B uniakowskj"go-Schwa- Simpsona, 41
"'lLI,UII, HO, :313 a-skonczona, 181, 336 rza, 91 Pascal, Blaise (1623-1663), 24, 53
136
WClI'H.!ILwl\l'IIlIkowa, cylindryczna, 320, 321 Czebyszewa Pal;ashnik, Oren, 484
lirdl", o mo,licnstwach, 189 Haara, 189 uogólniona, 93 Pepys, Samuel (1633-1703), 31
T< rOllcc[<orll.,
156 Lebesgue'a, 61, 336 wykladnicza, 93 Peres, y., 441
i
o ?T- A-ukladach, 71, 183, 250, liczaca, 336, 358 Czebyszewa--Bienayme, 93 permutacje, 23
255, 270 produkto~'a, 254, 345 Dooba, 24'1, 451, 456 skonczone, 148
o ?T-i A-ukladach, 96 przesuwalna, 1.5 Holdera, 92 z pQwtórzeniami, 27
Toeplitza, 156 zewnetrzna, 337 Hardy'ego-Littlewooda" 107,241. Petty, William (1623-1687),67
Levy, Paul (1886-1971), 203 mierzalnosc Hoffmanna-J~rgensenll., 153,308 pierwiastek glówny, 468
Li, S.- y. R., 460 w sensie Caratheodory'ego, 337 Jensena, 91 Pietsch, Albrecht, 321
liczby' Mises, Richard von (1883--1953), 159 dl~, warunkowej wf1rtosci ocze- Platon (429-348 p.n.e.), 29
Bernoulliego, 329 model kiwanej, 133 podklasy. cykliczne, 303
losowe, 121, 164 Coxa-Rossa-Rubinsteina, 260, Kolrnogorowa, 153 podmartyngal, 226
normalne, 162 393 Levy'ego-Ottavianiego, 149 nierównosc maksymalna, 242
Lindeberg, J. W., 213 dyfuzji, 273 maksymalna dla podma,rtynga- Poisson, Sirneon D. (1781-1840),166
Lipski, Witold, 189 Ehrenfestów, 287 lów, 242 polcer, 27
Pólya, 41, 240 Markowa, 93 .. - portfel, 58, 89, 259
Lancuch Markowa, 264 modul ciaglosci, 94, 307 Minkowskiego, 353 ,:' --;:'1 efektywny, 412
chwilowy, 284 modyfikacja stochastyczna procesu, Schwarza, 355 repJj-kujacy, 260, 261
ergodyczny, 291 306 Younga, 92 powloka'
jednorodny w czasie, 268 Moivre, Abraham de (1667-1754), niezaleznosc lini9wa, 358
i przestrzeni, 277 170, 330 ?T-ukladów, 100 wypukla, 18
nieprzywiedlny, 275 moment, 85, 375 a-cial, 46. 95 prawdopodobienstwo, 8, 10
okreso,,')', 284 absolutny, 85 zdarzen,43 i
a Priori a posteriori, 40
pochlaniajacy, 301 centralny, 85 zmiennych losowych, 95 asymptotyczne, 17
476 Skorowidz Skorowidz 477

prawdopodobicilstwo Regresja rozklad Slonimsb, Antoni (1895-1976), 139


definicja klasyczna, 22 liniowa, 90, 139 Poissona, 105, 115, 132, 31'i Smoluchowski, Marian (1872-1917),
dojscia do zbioru stanów, 299 regula prawdopodobienstwa, 61 304
geometryczne, 17 równolegloboku, 355 gestosc, 14 Snell, James Laurie, 389, 485
warunkowe, 34 trzech sigm, 95, 175 zmiennej losowej, 60, 61 Solomyak, Boris, 441
uogólnienie, 137 residuum, 372 równomierny, 17 splot
prawo Riemann, Bernhard (1826-1866), 361 stabilny, 202 funkcji, 103
malych liczb, 168 rozbicie stacjonarny, 286 gestosci, 103
wielkich liczb, 146 przeliczalne, 37 sumy niezaleznych zmiennych lo- rozkladów, 103
Bernoulliego, 154 skonczone, 37 sowych,103 stan
Bernoulliego, mocne, 155 zbioru O, 37 symetryczny, 192 chwilowy, 278, 303
Bernsteina, 164 rozklad trójkatny, 103 dodatni, 298, 303
Chinczyna, 164, 203 1/2-stabilny, 316 ujemny dwumianowy, 116 istotny, 303
dla procesu Wienera, 311 X2 (n), 120, 196 unirnodalny, 118 nieistotny, 275, 279, 303
Etemadiego, 165 scisle stabilny, 202 warunkowy, 137 niezerowy, 303
Kolmogorowa, mocne, 157, absolutnie ciagly, 62 regularny, 142, 144 okresowy, 284
158 arcusa sinusa, 118 wielomianowy, 115 osiagalny, 275
mocne, 246 arytmetyczny, 196, 197 wykladniczy, 64, 117, :377 poehlaniajacy, 303
slabe, 155 BernOlIlliego (dwumianowy), 114 dwustronny, 106 po~racajacy, 278, 303
beta, 118 wyznaczony przez momenty, 189, zerowy, 298, 303
zero-jedynkowe
bezatomowy, 208 379 stany komunikujace sie, 275
Hewitta-Savage'a, 148
brzegowy, 65 zdarzeil rzadkich, 168 statystyka
Kolmogorowa, 146, 246
Cauchy'ego, 118, 421. rozklady Bosego-Einsteina, 26
problem
ciagly, 62 skoilczenie wymiarowe Fermiego- Diraca, 26
Haara, 200
Dooba nadrnartyngalu, :384 lailcucha Markowa, 268 Ivhixwella-Boltzmanna,26
Serbelloni, 402
dwu punktowy, 1.14 procesu, 305 statystyki pozycyjne, 106
proces
dyskretny, 63 zgodne, 306 Steinhaus, Hngo (1887-1972), 168
galazkowy, 334
Erlanga, 104 równania Stewart; Ian, 25
Poissona, 104, 210
gamma, 117 Cauchy'ego-Riernanna, 361 Stirling: James (1692-1770),327
stochastycznie ciagly, 308
geometryczny, 64, 115, 332 Chapmana-Kolmogorowa, 271 Stirzaker, David R., 484, 485
stochastyczny, 104
hipergeometryczny, 116 rÓwnosc (tozsamosc) Parsevala, 355 supremum istotne, ess sup, 92
Wienera, 64, 202, 305 jednopunktowy (delta Diraca),
prognoza wysokosci roszczeil, 1'11 równowaznosc stochastyczna proce- symetryzacja rozkladu, 205, 444
65, 114 sów, 308 Szabat, Jewgienij Borysowicz, 360
prosta regresji, 90 jednostajny, 65
przeliczalna addytywnosc, 10 ruch Browna, 305 Sziriajew, Albert; Nikolajewicz, 485
na podzbiorze R", 1.17 Rudin, Walter, 484 sztuczka karciana, 291
przestrzelI liczby szkód, 141. Rusiniak, Bozenna, 78
Banacha, 64 logarytmicznie-normalny, 211, :379 Rutherforcl, Ernest (1871-1937), 168 Sredni czas dojscia do zbioru sta-
euklidesowa, 354 normalny (Gaussa), 118, 377, 421 ryzyko, 89, 257 , nów, 299
Hilberta, 64, 130, 354 a jednostajny na sferze, 181 srednia'
rzut ortogonalny, :356
liniowa, 355 jednowymiarowy, 118 wazona, 79, 156
mierzalna, 336 momenty, 325 Salem, Raphael, 11.42 z próby, 120
polska, 64 standardowy, 118 sasiedztwo punktu, 369 Switala" Filip, 21
probabilistyczna, 10 wielowymiarowy, 119 schemat
unitarna, 354 osobliwy (singularny), 163 Bernoulliego, 49 Tartaglia, NiccoJo (1500-1.,557), 24
unormowana, 353 Pólya, 41, 116 tozsam'osc
Pólya, '11
zupelna, 354 Pascala, 116 serii, 211 Parsevala, 204
przyrosty martyngalowe, ~36 pierwszej cyfry znaczacej, 65 Plllncherela, 205
znormalizowany, 212,216,215
pseudometryka, 148 poczatkowy lancucha Markowa, Schlag, B. S., 441 Walda, 224, 232, 235
Puszkin, Aleksander (1799-1837), 272 268
Sierpinski, Waclaw (1882-1969), 71 dla procesu Wienera, 317
I", ,'n,.~ -------------'lT~rJlTnl.nrl"""'Y·"""''''''''''T''.....-\..,...._.....---n. -----~

Hkt)lI()Wld~ Skorowidz tj,7a


I
'l)
twierdzenie wariancja zadanie
t.m.lekt:oria procesu, 104, 305
transformata o ciagI osci warunkowej warto- warunkowa, 1:,6 ,,' ,-,n' : o kbnkurencji, 176
Cramera, 380, 381 sci oczekiwanej, 245 z próby, 90, ] 20 o owadzie, 132
Fouriera, 190 o dwÓch szeregach, 150 wartos(: srednia (oczekiwana), 79 i mrówkach, 185
Laplace'a, 316, 335, 375 o funkcji pierwotnej, 365 warunkowa, 122 o pchle, 303
warunek o podziale sta.wki, 53
dwustronna, 376 o istnieniu miary Ha,ara, 189
martyngalowa, 228, 229, 261 o istnieniu miary produktowej, Carathcodory'ego, 338 o ruinie gracza, 41, 233
Tuwim, Julian (1894-1953), 139 347 Cramera, 381 o taksówkach, 416
Tversky, A., 403 o mnozeniu pra.wdopodobiellstw, Lapunowa, 213 o wystapieniach wzorca, 273
twierdzenie 35 Lindeberga, 2] 2, 213, 215 Samuela Pepysa, 31
warunkowa wartosc oczekiwana zagadnienie
Berry-Esseena, 175, 212 o odwrotnym przeksztalceniu
Bochnera, 192, 206 Foul'iera, 205 pod warunkiem {Y = y}, ] :j,4 Dirichleta, 318, 368
Borela o liczbach normalnych, o przedluzaniu miary, 13, 336 wzgledem a-ciala, 126, 128 dyskryminacji, 257
162 o reprezentacji martyngalu, 260 wektor losowy, 59 optymalnego stopowania, 388
Cauchy'ego o rozkladzie na, podklasy cyklicz- Wentzel, E, S., 175 portfela inwestycyjnego, 89
dla trójkata, 365 ne, 285 Wentzell, Aleksander Dmitriewicz, 485 prognozy, 135
dla zbioru wypuklego, 367 o rzucie ortogonalnym, 130, 356 wielomian.\' Zakrzewski, Marek, 175
Cramera, 201 o zbieznosci martynga.IÓw Bernsteina, 94 zamknieta klasa stanów, 303
Wiener, Norbert (1894,-1964), 306 zasada
de Moivre'a-Laplace'a w J}, 244
integralne, 173 , w U', 247
Williams, David, 4.85 odbi'cia, 313
lokalne, 171 z czasem odwrócollym, 242 wizyta w zbiorze borclowskim, 223 symetryzacji, 427
wlasnosc zbiÓr
Diniego, 188 o zbieznosci na.dmartyngalów,
Dooba, 229-231, 450, 455 237 Markowa, 264, 293 cylindryczny, 350
wersja wzmocniona, 230 o zbieznosci zmajoryzowanej mocna, 293, 314 krytyczny, 257
Dynkina-Hunta, 314 wersja warunkowa, 136 wartosci sredniej, 368 mierzalny, 336
ergodyczne, 291 Poissana, 166 Vloyczyilski, Wojbor A., 484. niemierzalny, 15
FeUera, 215 Pra,tta, 113 wspóJczynnik stanów, zamkniety, 275
Fishera, 121 Prochorowa, ] 86, 188 asymetrii (skosnosci), 85 wypukI y, 356
korelacji, 86 zbieznosc'
Fubiniego, 345, 348 R.adona.- Nikodyma-:Le besgue' a,
Gliwenki-Cantelliego, 162 129,248 splaszczenia, 85 dystrybuant (slaba), 185
Hadamarda, 200 Riema.nna.-Lebesgue'a, 198 wspólrzedne harycentryczne, 267 prawie na pewno, 108
Hewitta-Savage'a, 148 Riesza,110 wstepujaca rodzina rozkladów (slaba), 180, 182
Kaca, 210, 376 Scheffe' go, 181 zbiorów, 336 wedlug
Kakutaniego, 254 Sheppa, 208 zdarzell, 12 p-tego momentu (w U), 108
Kolmogorowa Skorochoda, 188
\VZÓl' prawdopodobienstwa, 108
o istnieniu procesu, 352 Stone'a- ViTeierstrassa, 195 Bayesa,39 rozkladu, 180
o rozkla.dach zgodnych, 350 uogólnienia, 141 zdarzenia;'8, 9
o trzech szeregach, 151 Uklad calkowy Cauchy'ego, 367 alternatywa, 8, 14
o zgodnosci, 350 ortonormalny, 356 Conwaya, 274 elementarne, 9
Levy'ego-Cramera o ciaglosci, Haara, 317, 359 na prawdopodobieilstwo calko- koniunkcja, 14
199 zupelny, 356 wite, 37, 124 niezalezne, 43
Lebesgue'a o zbieznosci zmajo- Ulam, Stanislaw (1909-1984), 160 wersja wyrafinowana, 38 niezalezne parami, 44
ryzowanej, 80, 345 Stirlinga, 52, 170, 171, 219, 327 wyklucza.jace sie, 10
Lebesgue'a-Leviego o zbiezno- Wallis, John (1616-1703), 327 wlaczen iwylaczen, 11 wzajemnie niezalezne, 44
sci monotonicznej, 80, 341 wariacja kwadratowa, 311 Wallisa, 328 zdarzenie) •
Marcinkiewicza., 164 wariacje niemozliwe, 9, 14
Zadanie perml:ltowalne, 148
o calkownnill przez porlstawi~- bez powtórzen, 23
uin, 711 .~ z powt6rzeniAII!i, ~:, Banacha o zapalkach. ~3 pewne, g, 14
O !:'iI\l\loAC:I, l' wt\,rin,lH'jl1., H4.
o dniach urodzin, 25 przeciwne do danego, 14
Skorowidz
480

zmienne losowe
zera funkcji holomorficznej, 368 nieskorelowane, 87, 102
zgodna rodzina miar, 350
zstepujaca rodzina
zjawiska masowe, 7
zmienna losowa, ,58 zbiorów, 336
zdarzen,' 12
n-wymiarowa, 59
niewiasciwa, 220 Zubrzycki, Stefan, 485
o wartosciach w przestrzeni pol-
skiej, 64
zysk, 89 Wykaz wazniejszych oznaczen
Zak, Tomasz, 175
symetryczna, 192

~ - równe Z definicji; o~n - oznacza;


To wcale nie
N -- zbiór liczb naturalnych. N ~ {I, 2, ... }, N U {a} o~ N. oznacza, ze
oznaczenia, o
z - zbiór liczb calkowitych. których
C -- zbiór liczb zespolonych. zapomnielismy, sa
mniej wazne.
R - zbiór liczh rzeczywistych. R+ = [O,(0).
R" = {(~;l,"" x,,): Xi E R, i = 1,2, ... n}.

A [':, B ~ (A \ E) U (E \ A) -- róznica symetryczna zbiorów A i E.


[x] - czesc calkowita liczby x.

loga x - logarytm przy podsta.wie a liczby x; domyslna' podstawa jest e, czyli


log x jest logarytmem naturalnym.
a" T 00 - niemalejacy ciag (a,,) zmierza do niesko'nczonosci. Analogicznie pi-
szemy b" 1 b.

1.1", ~ b" - asymptotycznie równe, tj. n-oc


lim ab"
n = l.
o(x) -- piszemy: f(3;) = o(:cn), gdy funkcja f jest okreslona w otoczeniu zera, i
lirnx_o ~l = O, n =:' O, l, 2, .
Mozna, uzywac
O(x) -- piszemy: f(x) = O(x"), gdy funkcja f jest okreslona w otoczeniu zera,
ogólniejszych
a wyrazenie ~ jest ograniczone w tym otoczeniu zera, n = O,l, 2, .... oznaczef1:o(h(x))
(UtlLET - ciag uogólniony, indeksowany elementami zbioru T. i O(h(x)).
At - transpozycja macierzy A
ni = n(n - I) .... ·2· l; n!! = n(n - 2) .... , gdzie n E N, a mnozenia wykonuje
sie, dopóki czynniki sa dodatnie.

(n)k = k.I(nn!- k ) ! - symbol Newtona; wzór ma sens dla' n = O, 1,2, ... i k


O,l, ... n. W postaci

= ~-=2)'"'' (a - k +1)
(~) k!

ma sens dla dowolnego a E R.


IH"
- 1- ...
'

W.l'lw,~ wu.~JJlej~;f,.l'clIo«llac«en Wykaz wazniejszych oznaczen


481

•••
483

(n, F, P) - przestrzen probabilistyczna, n jest zbiorem, F - o--cialem jesgo X(k) - k-ta statystyka pozycyjna ciagu (Xl, ... X,,).
podzbiorów, P - prawdopodobieiistwem, Podobnie, jesli jest dowolna I-L

miara, mamy przestrzen mierzalna: (X, M, I-L) . Oa - rozklad jednopunkj~(~wyJkupiony w punkcie a (delta Diraca).
B(E) - o--cialo borelowskich podzbiorów przestrzeni metrycznej E. Najczesciej B(n, p) - rozklad BernouUlego z parametrami n, p.
E=R".
Pois(A) - rozklad Poissona z parametrem A,
F, 9, M - typowe oznaczenia o--cial.
Ula, b] - rozklad jednostajny na odcinku [a, b].
A(A) (wyjatkowo lAI) - miara Lebesgue'a zbioru A. N (a, b) - jednowymiarowy rozkla.d normalny o sredniej a i wa.riancji b
lAI - objetosc zbioru A.
N (m, B) - wielowymiarowy rozklad normalny o wektorze wartosci sredniej m
u, V, W, X, Y, Z, E, 1') - typowe oznaczenia zmiennych losowych. i macierzy kowariancji B.

I-L, 1/ - typowe oznaczenia miar i rozkladów prawdopodobienstwa. W .-- dystrybuanta rozkladu N (O,l).
I-L@ 1/ - produkt miar. Rózne rodzaje zbieznosci:
1-L0", pOT produkt n (a nawet 7', gdzie 7' jest zbiorem indeksów) egzemplarzy
-

miary p. x" -~ X -.- ciag zmiennych losowych (X,,) jest zbiezny do X wedlug prawdo-
podobienstwa.
I-L * 1/, f * g - splot miar i funkcji.
X" ~ X .-. prawic Ila pewno.
II-LI - pelna wariacja miary (ze znakiem) I-L.
V'
X ~ I-L -. zmienna losowa X ma rozklad I-L
X" --, X - wedlug p-tych momentów (w LP).

X" -E.. X - wedlug rozkladu.


Zmienna losowa X ma rozklad px, dystrybuante Fx (jest to równiez dystry-
buanta FI" rozkladu /l.) i funkcje chara.kterystyczna <px; moze miec gestosc gx, /l,,, ~ I-L - ciag miar (/~") jest slabo zbiezny do p.
a generuje o--cialo o-(X).
F" ~, F - ciag clystrybl.lant (F,,) jest slabo zbiezny do F.
ess supX ~ inf{t:Fx(t) = l} - supremum istotne zmiennej losowej X.
X, (Xtl, (X,)" (XtltET -'- rózne oznaczenia tej samej rodziny zmiennych loso-
EX - wartosc oczekiwana (srednia) zmiennej losowej X. wych, indeksowanej parametrem t E 7', czyli procesu stochastycznego.
V2 X - wariancja. X" - ciag (proces) zatrzymany w chwili 'f, tj. x.~ ~ x."I\T.
cov(X, Y) - kowariancja zmiennych losowych X i Y.
Ilxll - norma elementu x.
p(X, Y) - wspólczynnik korelacji.
(x, y) - iloczyn skalarny x i y.
E (X I F) - warunkowa wartosc oczekiwana zmiennej losowej X pod warunkiem BA = A n A' - brzeg zbioru A.
o--ciala F.
H(C) -- zbiór funkcji holomol'ficznych na zbiorze otwartym G.
V2(XIF) - wariancja warunkowa.
D(a,r) - otoczenie punktu a.
E (X I Y) - warunkowa wartosc oczekiwana zmiennej losowej X pod warunkiem
zmiennej losowej Y. D' (a, r) - sasiedztwo punktu a.

E (X I Y = y) - warunkowa wartosc oczekiwana zmiennej losowej X pod warun- Res(f; a) -- residuum funkcji f w punkcie a.
kiem Y = y. Jesli 'Y jest krzywa, czyli odp,'w:ednim odwzorowaniem z [a, b] w C, to 'Y' jest
P(AIF) - prawdopodobienstwo warunkowe zdarzenia A pod warunkiem a-ciala obrazem odcinka la, b] przy tY~l' odwzorowaniu .. '
:F.
Ind-y(a) - indeks krzywej 'Y wzgledem punktu a.
(Al Y = y) - prawdopodobienstwo warunkowe zdarzenia A. pod warunkiem :"~

)/ = y.
1'," "lJl(lIl,wu,}' ,'(w,klad warunkowy pod warunkiem F.
1\11 "lIl',ldn,r',,:v m~ldl\d wf1.runkowy X pod warunkiem F.
Tablice rozkladu normalnego 485

Tablica 1. DystrybuaJ_·.a rozkladu N (0,1) (c.d.)


t I 0,00 0,Q1 0,02--'-0,03 0,04 0,05 0,06 0,07 0,08 0,09

3,0 0,99865 0,99869 0,99874 0,99878 0,99882 0,99886 0,99889 0,99893 0,99896 0,99900
3,1 ,93032 ,93064 ,93096 ,93126 ,93155 ,93184 ,93211 ,93238 ,93264 ,93289
3,2 ,9331:3 ,93336 ,93~)59 ,93381 ,93402 ,93423 ,93443 ,93462 ,93481 ,93499
3,3 ,93517 ,93533 ,93550 ,93566 ,93581 ,93596 ,93610 ,93624 ,93638 ,93650
Tablice rozkladu normalnego 3,4 ,93663 ,93675 ,93687 ,93698 ,93709 ,93720 ,93730 ,93740 ,93749 ,93758

:3,5 0,9.3767 0,93776 0,93784 0,93792 0,93800 0,9.3807 0,93815 0,93821 0,93828 0,93835
3,6 ,93841 ,93847 ,93853 ,93858 ,93864 ,93869 ,93874 ,93879 ,93883 ,93888
3,7 ,93892 ,93896 ,94004 ,9,1042 ,94080 ,94116 ,94150 ,9"184 ,94216 ,94247
Tablica l. Dystrybuanta rozkladu N (O, l) 3,8 ,9,1276 ,9"305 ,9-1333 ,94359 ,94385 ,94409 ,94433 ,94456 ,94478 ,9'1499
3,9 ,94519 ,94538 ,94557 ,9,1575 ,94592 ,94609 ,94625 ,94640 ,94655 ,94669
Ze wzgledu na
zaleznosc ~He 4,0 0,94683 0,94696 0,94709 0,94721 0,94733 0,94744 '0,94755 0,94765 0,94775 0,94784
<I>(-t) = 1- <I>(t) iI>(t) = j.t-co l
.J27r _,,2/2 do; 4,1 ,94793 ,94802 ,94810 ,94819 ,94826 ,94834 ,94841 ,9'1848 ,94854 ,94860
wystarcza 4.2 ,94866 ,94872 ,9'1878 ,94883 .,94888 ,94893 ,94898 ,95022 ,95065 ,95106
wartosci dla t > O. 4,3 ,951'15 ,95183 ,95219 ,95254 ,95287 ,95319 ,95349 ,95378 ,95406 ,95433
t ,90320
,89973
,89796
,90658
,90490
,90988
,88298
,7580<1
,76115
,81859
,72907
,74857
,77035
,77637
,8:3891
,75490
,75175
,65542
0,00 ,62552
,64803
,55962
,57142
,644.:31
,6517:3
,68082
,67724
,60257
0,Q2
0,01
0,05
,95637
,97257
,97381
,97670
,99158
,98713
,99202
,99534
,99825
,99856
,99851
,99621
,99846
,99861
,9964:3
,99632
,920n
,8849:1
,91924
,88877
,88686
,91621
,91466
,89617
,89435
,89065
,90147
,90824
,91308
,91149
,917H
,8643:3
,86864
,86650
,88100
,87900
,87698
,87493
,81594
,72575
,78814
,76424
,77337
,77935
,82121
,83646
,83398
,73237
,79103
,81057
,76730
,78524
,78230
,831'17
,82894
,82639
,82381
,745:37
,73891
,80785
,80511
,80234
,79673
,81:327
,61791
,53983
,57926
,54380
,55172
,56749
,62172
,6368:)
,673M
,68439
,66640
,66276
,65910
,58317
,60642
,54776
,55567
,56356
,57535
,62930
,64058
,68793
,59871
,5948:)
,58706
,61409
,61.026
,67003
0,08
0,04
0,03
0,07
0,06
,92220
,93056
,92922
,92785
,92647
,92507
,92364
,94520
,95543
,97128
,94738
,94630
,95352
,95254
,95728
,96246
,96164
,96485
,96995
,97193
,97615
,97558
,95154
,95053
,94845
,95449
,96080
,95994
,95818
,96:127
,96856
,96712
,966:58
,97062
,97:320
,97500
,97441
0,97725
,98928
,98610
,98214
,98956
,99134
,98679
,98645
,98870
,98840
,98300
,98257
,98537
,99111
,99061
,99036
,98983
,98809
,98778
,98745
,98899
,98500
,98461
,98422
,98:582
,98574
,99180 0,97778
,9922'1
,9934:)
,99324
,99305
,99286
,99266
,99813
,99744
,99819
,99760
,99752
,99801
,99664
,99728
,99720
,99547
,99841
,99836
,99831
,99788
,99781
,99774
,99807
,99711
,99702
,99683
,99736
,99609
,99598
,99585
,99560
,89251
,87286
,87076
0,84134
,74215
,73565
,79955
,79389
,63307
,59095
,93189
,94950
,95907
,96784
,99086
,99010
,98341
,99215
,99361
,99767
,99693
,99674
,99573
0,99379 .
0,84375
0,50399
0,93448
0,99396 0,97831 0,93(;99
0,84614
0,50798
0,93574
0,99;413 0,97882
0,84849
0,51197 0,97932
0,85083
0,691460,694970,698470,701940,705400,70884
0,50000
0,93319
,96407
,96562
,96926
,99653
,99795 0,99446 0,97982
0,85:n4
0,51595 0,93943
0,99430 0,93822 0,99461 0,98030
0,85543
0,71226
0,51994 0,91062 0,98077
0,52392 0,94179
0,99477 0,85769
0,52790
0,9f)492 0,98124
0,8599:3
0,71566 0,9'!295
0,99506 0,98169
0,86214
0,71904 0,94408
0,5,3188 0,72240
0,53586
0,99520 4,4 ,95458 ,95483 ,95506 ,95528 ,95550 ,95570 ,95590 ,95609 ,95626 ,95644
~c.~
2,6
0,6
0,1
2,1
1,6
1,1
4,5 0,9.\660 0,95(176 0,95691 0,95705 0,95718 0,957320,95744 0,95756 0,95767 0,95778
46 95789 9"798 95808 95817 95826 95834 95842 95849 95856 95863
4:7 :95870 :95876 :95882 :95888 :95893 :95898 :96031 :96078 :96122 :96165
4,8 ,96206 ,96244 ,96281 ,96:n6 ,96~)50 ,96382 ,96412 ,96441 ,96469 ,96495
4,9 ,96520 ,96544, ,96567 ,96588 ,96609 ,96628 ,96647 ,96665 ,96682 ,96698
Uwaga. 0,9312:3 = 0,999123,0,9.1321 = 0,9999321, etc.

Tablica 2. Kwarrtyle rozkladu N (0,1)

'up = ,p--l(p)
~- 0,002
,18402
,23269
0,007
,19167
,18657
,33450
,12314
,10547
,10295
,05517
,05266
,11556
,11304
,11052
,10799
,06019
,05768
,11809
,06773
,36381
,36113
,35579
,35312
0,12566
,15097
,17637
,22755
,20189
0,009
0,001
,15858
,19934
,22497
,22240
,23012
,20957
,20701
,20445
0,008
0,006
0,005
0,004
0,003
,16366
,16112
,19678
,19422
,18912
,23527
,21727
,21470
,21214
,16874
,16620
,219830,00251
,279:32
,33185
,30548
,32921
,31074
,30811
,32656
,3J.864
,31600
,100'1:3
,02507
,05015
,07527
,12061
,04764
,04513
,03008
,02758
,08030
,07778
,08533
,04012
,03761
,03510
,03259
,06522
,06271
,08281
,09036
,08784
,04263
,09288
,35846
,38262
,36649
,37993
,35045 .,25076
,07024
,34779
0,12819
,15350
,17892
,17383
,15604
,18147
,24043'
,23785
,17129
0,13072
,24559
,28193
,32128
,32392
,07276
,09791
,09540 l
,24300,13324
,24817
,28454'\28715 0,13577 0,13830
,28976 0,01253 0,14084
,29238 0,01504 0,14337
,29499 0,27151 0,14590
,29761 0,02005 0,14843
,30023 0,02256
,30285
fi
0,60 0,00000
0,253:350,255940,25853
,31337
,:l3716'
,36917
0,000 ,33981
,342470,00501
,3718G 0,00752 0,26~)71
0,26112
,37723
,37454
,3451:~ 0,01003 0,26631 0,26891 0,01755 0,27411 0,27671
0,57
0,52
0,58
0,63
0,53
0,54
0,64
0,59 ". 0,61
0,51
0,56
0,62
0,55 0,50

'IR/I

.... "I;lllilllllllll
481\ ) )
!Il.",~

~1~lmlllllll

I Iii "III' IlL"ld"i1tl IItll'III"III(l!\()


'. I
I
'l'IIII1h:1I :.l. l\wlLlIl,yJo rozkladu N (0,1) (c.d.)
IJ

iJ]O:Ooo, 0,001 0,002 0,003 0,004 0,005 0,006 ,0,007 0,008 0,009 ,'.
0,650,385320,388020,39073-0,39343 0,39614 0,39886 0,40157 0,40429 0,40701 0,40974
0,66 ,41246 ,41519 ,41793 ,42066 ,42341 ,42615 ,42889 ,43164 ,43440 ,43715
0,67 ,43991 ,44268 ,44544 ,44821 ,45099 ,45376 ,45654 ,45933 ,'16211 ,46490
0,68 ,46770 ,47050 ,47330 ,47610 ,47891 ,48173 ,48454 ,487:l6 ,49019 ,49302
0,69 ,49585 ,49869 ,50153 ,50437 ,50722 ,51007 ,51293 ,51579 ,51866 ,52153 Nota bibliograficzna
0,70 0,524400,527280,530160,53305
,58284
,55338
,57691
,65262
,67135
,66821
,66508
,66196
,64334
,61281
,58581
,61584
,64027
,64952
,64643
,55631
,57987
,57395
,57100
,56805
,56511
,58879
,60979
,60678
,60376
,60076
,59776
,59477
,61887
,63719
,63412
,63106
,56217
,62191
,62801
,65884
,55924
,62496
,59178
,65573 0,53594 0,53884 0,54] 740,544640,54755 0,55046
0,71

Piszac ksiazkQ korzystalismy z wielu zródel, w' tym oczywiscie z podreczników,


z których sami uczylismy sie rachunku prawdopodobienstwa. Oto najwazniejsze
z nich:
0,750,67449 0,677640,680800,683960,68713 0,69031 0,693490,696680,699880,70309
0,76 ,70630 ,70952 ,71275 ,71599 ,71923 ,72248 ,72574 ,72900 ,73228 ,73556
0,77 ,73885 ,74214 ,74545 ,74876 ,75208 ,75541 ,75875 ,76210 ,76546 ,76882 i
[l3IL] Pa,trick Billingsley, Pra:wdopodob'ienstwo miara, PWN, Warszawa 1987
0,78 ,77219 ,77557 ,77897 ,78237 ,78577,78919 ,79262 ,79606 ,79950 ,80296
0,79 ,80642 ,80990 ,81338 ,81687 ,82038 ,82389 ,82742 ,83095 ,83450 ,83805
[BOJ] Tomasz Bojdecki, Mart.yngaly z czasem dyskretnym, zarys teorii i przy-
klady zastosowf11't,\/iryd. UVv', Wyd. I, Warszawa 1977
0,800,841620,845200,84879 0,85239 0,85600 0,85962 0,86325 0,86689 0,87055 0,87422 [BOR] Aleksander Aleksiejewicz Borowkow, Rachu.nek prawdopodobienstwa,
0,81 ,87790 ,88159 ,88529 ,88901 ,89273 ,89647 ,,90023 ,90399 ,90777 ,91156 PWN, Warszawa 1975
0,82 ,91537 ,91918 ,92301 ,92686 ,93072 ,93459 ,93848 ,94238 ,94629 ,95022
0,83 ,95416 ,95813 ,96210 ,96609 ,97009 ,97411 ,97815 ,98220 ,98627 ,99036 [FEL] William Fcller, Hls,tep do mchlLnk·u.prawdopodobienstwa, t. I i II, wyd.
0,84 ,99446 ,99858 1,00271 1,00687 1,01104 1,01522 1,01943 1,02365 1,02789 1,03215, II zmienione, PWN, Warszawa 1966 (od tej pory byly dalsze wydania)

0,85 1,03613 1,04073 1,04505 1,04939 1,05375 1,05812 1,06252 1,06694 1,07138 1,07584
[FICH] Grigorij Micbajlowicz Picht.enholz, Ra,chunek rózniczkowy i calkowy,
t. I-III, wyd. IV, PWN, Warszawa 1966
0,86 ,08032 ,08482 .08935 ,09390 ,09847 ,10306 ,10768 ,11232 ,11699 ,12168
0,87 ,12639 ,13113 ,13590 ,14069 ,14550 ,15035 ,15522 ,16012 ,16505 ,17000 [GKP] Ronald L. Graham, DOllald E. Knuth, aren Patashnik, Matematyka
0,88 ,17499 ,18000 ,18's04 ,19012 ,19522 ,20036 ,20553 ,21073 ,21596 ,22123, konkretna, Wydawnictwo Naukowe PWN, Warszawa 1996
0,89 ,22653 ,23187 ,23724 ,24264 ,24809 ,25357 ,25908 ,26464 ,27024 ,27588
[GRS] Geoffrey H..Grirnmett, Davict R.. Stirzaker, Probability and Random Pro-
0,901,281551,287271,293031,298841,304691,31058 1,31652 1,32251 1,32854 1,33462 ces.ses, wyd. II, Oxford University Press, Oxford-New York-Toronto
0,91 ,34075 ,34694 ,35317 ,35946 ,36581 ,37220 ,37866 ,38517 ,39175 ,39838 1992
0,92 ,40507 ,41183 ,41865 ,42554 ,43250 ,43953 ,44663 ,45380 ,46106 ,46838
[HIS] H-istoT'ia ma.tematyki pod red. A. P. Juszkiewieza, PWN, Warszawa,
0,93 ,47579 ,48328 ,49085 ,49852 ,50626 ,51410 ,52203 ,53007 ,53820 ,54643
1975
0,94 ,55477 ,56322 ,57179 ,58047 ,58927 ,59819 ,60725 ,61644 ,62576 ,63524,.
[HJ] Ji1lrgcn Hofhnann-Ji1lrgensen, Probability with a l/iew toward Statistics,
0,951,644851,654631,664561,67466 1,684941,695401,706041,716881,72793 1,73920 t. I-II, Chapman and Ho.lI, London-·New York 1994
0,96 ,75069 ,76241 ,77438 ,78661 ,79912 ,81191 ,82501 ,83843 ,85218 ,86629
0,97 ,88079 ,89570 ,91103,92684 ,94314 ,95996 ,97737 ,99539 2,01409 2,03352 [KOR] Marek Kordos, WyklaJ:<i.zhistorii matematyki, Wyd. Szkolne i Pedago-
0,982,05375 2,07485 2,09693 2,12007 2,14441 2,17009 2,19728 2,22621 ,25713 ,29036 giczne, Warszawa 1994
0,99 ,32634 ,36561 ,40892 ,45727 ,51213 ,57583 ,65209 ,74777 ,8781'5 3,09024
[KWA] Stanislaw Kwapien, \lVojbor A. Vv'oyczynski, .Random Series and Sto-
chast'ic Integrais: Single a~d Mu.ltiple, Birkhiiu:Ser, Boston-Basel-Berlin
1992
[MAJ-l] Leonid Jefimowicz Majstrow, Teorija wierojatnostiej, lstoriczeskij oczerk,
Nauka, Moskwa 1967 (przeklad angielski: Próbability Theory: A Histo-
rical Sketch)
[MAJ-2] -, Razwitije poniatija wierojatnosti, Nauka, Moskwa 1980
[RUD-l] Walter Rudin, Real and Qomplex Analysis, McGraw-Hill, London, New
York, Toronto 1970 (przeklad polski wydanja II: Analiza rzeczywista
i
zespolona, PWN, Warszawa 1986)

487
488 Nota bibliograficzna

[RUD-2] -, Podstawy analizy matematycznej, PWN, Warszawa 1969


[SNE] James Laurie Snell, Introductionto Probability, Random House, New
York 1988
[STI] David R. Stirzaker, Probability and Random Variabies: A Beginners Gu-
ide, Oxford Univ. Press, 1999
[SZI] Albert Nikolajewicz Sziriajew, Wierojatnost, Nauka, Moskwa 1980
[WIL] David Williams, Probability with Martingales, Oxford University Press
Spis tresci
1991
[WEN] Aleksander Dmitriewicz Wentzell, Wyklady z teorii procesów stocha-
stycznych, PWN, Warszawa 1980
Przedmowa .. 5
[ZUB] Stefan Zubrzycki, Wyklady z rachunku prawdopodobienstwa i statystyki
matematycznej, PWN, Warszawa 1970
l Opis doswiadczenia losowego . 7
§ 1.1. Przyklady. Aksjomaty teorii prawdopodobienstwa. 7
§ 1.2. Przeliczalny zbiór zdarzen elementarnych. 16
§ 1.3. Prawdopodobief1stwo geometryczne ... 17

2 Klasyczna definicja prawdopodobienstwa 22


§ 2.1. Podstawowe schematy kombinatoryczne 22
§2.2. Typowe bledy ' . 28

3 Prawdopodobienstwo warunkowe 33
i
§ 3,1. Definicja przyklady .. 33
§ 3.2. Wzór na prawdopodobienstwo calkowite i wzór Bayesa 37

4 Niezaleznosc zdarzen .. " 43


43
§ 4.1. Definicja i przyklady .
§ 4.2. Schemat Bernoulliego . 49
§ 4.3. Lemat Borela-Cantelliego 54

5 Zmienne losowe . 58
§ 5.1. Definicja; rozklad zmiennej losowej 58
§ 5.2. Wlasnosci dystrybuanty rozkladu na R 67
69
§ 5.3. Wlasnosci clystrybuanty rozklaclu na Rn
73
§ 5A. Dystrybuanta a gestosc ....
75
§ 5.5. Gestosc a odwzorowania gladkie .
77
§ 5.6. Parametry rozkl~dów .
91
§ 5.7. Nierównosci zwi,azane z momentami.
95
§ 5.8. Niezalezne zmicnfle losowe ..
§ 5.9. RÓzne rodzaje zbieznosci zmiennych lo.sowych 108
§ 5.10. Przeglad wazniejszych rozkladów 114

6 Warunkowa wartosc oczekiwana 122


"'0 § 6.1. Wprowadzenie 122
§ 6.2. Warunkowa wartosc oczekiwana wzgledem rozbicia przeliczalnego 123

,111I11",llllllllilllll
.1 (j, I, vvpl'nwlld~,lJllltl ..... , . , ... , , , • , • l , , , ••• , I , , • I~:.!
§ 6.2. Warunkowa wartosc oczekiwana wzgledem rozbicia przeliczalnego 123

489

Spb L!'ll~d Spis tresci iJl)J

IJdinicja ogólna
!j ().:.l. . 128 § 13.3. Zasada odbicia 313
§ 6.4. Prawdopodobienstwo warunkowe - uogólnienie 137 § 13.4. Mocna wlasnosc Markowa 314
§ 6.5. Regularne rozklady warunkowe .... 142 § 13.5. Konstrukcja procesu Wienera za pomoca uldadów ortonormalnych 319

146 Dodatki .. 323


7 Sumy niezaleznych zmiennych losowych
§ 7.1. Wprowadzenie . 146
146 A Kilka faktów z analizy 323
§ 7.2. Prawo zero-jeclynlcowe Kolmogorowa .
149 § A.l. Pozyteczne nierównosci. 323
§ 7.3. Zbieznosc szeregów niezaleznych zmiennych losowych
§ A.2. Funkcje gamma i beta 325
§ 7.4. Prawa wielkich liczb . 154
166 § A.3. Wzór Stirlinga. 327
§ 7.5. Twierdzenie Poissona .
§ 7.6. Twierdzenie de Moivre'a-Laplace'a 169
330
B Funkcje tworzace
177 § B.1. Definicja i podstawowe wlasnosci 330
8 Zbieznosc rozkladów .
177 § B.2. Funkcja tworzaca sumy niezaleznych skladników. 332
§ 8.1. Przyklady i definicja .
§ 8.2. Charakteryzacje slabej zbieznosci rozkladów 182 336
C Teoria miary i calki, przestrzenie LV .
§ 8.3. Zbieznosc rozkladów, a zbieznosc dystrybuant 185
§ C.l. Twierdzenie o przedluzaniu miary . 336
§ C.2. Calka wzgledem miary probabilistycznej 340
9 Funkcje charakterystyczne . 190
345
i
§9.1. Definicja przyklady . 190 § C.3.
.§ C.4.
Miara produktowa i twierdzenie Fubiniego
Twierdzenie Kolmogorowa o rozkladach zgodnych. 350
§ 9.2. Twierdzenie Levy'ego-Cramera o ciaglosci 198
§ C.5. Przestrzenie L" . 352
§ 9.3. Twierdzenie Bochnera i wzory na odwrócenie 203
354
208
§ C.6. Przestrzenie HiJberta .
§ 9.4. Wielowymiarowe funkcje charakterystyczne

211
D Funkcje analityczne i metoda i'esiduów 360
10 Centralne twierdzenie graniczne ..
211 § D.l. Funkcje holomorfi.czne . 360
§ 10.1. Wprowadzenie . 365
§ 10.2. Twierdzenie Lindeberga-Levy'ego 213 § D.2. Twierdzenie Cauchy'ego w zbiorze wypukl);m
§D.3. Zera bieguny. i 368
§ D.4. Residua : . 372
11 Martyngaly . 220
§ 11.1. Momenty stopu . 220
E Funkcja tworzaca momenty (transformata Laplaee'a) 375
- § 11.2. Martyngaly, nadmartyngaly, podmart,yngaly . 226
§E.l. Definicja i·przyklad\'· . 375
§ 11.3. Twierdzenie o zbieznosci nadmartyngalów 237
§ E.2. Transformata CrallJ'..ra. Oszacowanie szybkosci zbieznosci w moc-
§ 11.4. Nierównosci martyngalowe . 242
nym prawie wielkich liczb .. 380
§ 11.5. Zbieznosc martyngalów w LV . 244
§ 11.6. Twierdzenie Radona-Nikodyma . 248 384
F Teoria optymalnego stopowania
§ 11.7. Miary produktowe i zastosowania w statystyce. 252
§ F.l. R.ozklad Dooba nadmartyngaJów 384
§ 11.8. Zastosowania w matematyce finansowej. 258 § F.2. Zagadnienie optymalnego stopowania. 388

§ F.3. Opcje arnerykailskie 392


12 Lancuchy Markowa ... 263
§ 12.1. Definicja i przyklady 263 Odpowiedzi i wskazówki 396
§ 12.2. Klasyfikacja stanów. 274
§ 12.3. Stany chwilowe i powracajace 277 Skorowidz 472
§ 12.4. Lancuchy okresowe . 284
286 Wykaz wazniejszych oznaczen 481
§ 12.5. Rozklady stacjonarne i twierdzenia ergodyczne
§ 12.6. Dojscie do ustalonego zbioru stanów 299
484
Tablice rozkladu normalnego
13 Proces Wienera . 304
Nota bibliograficzna 487
§ 13.1. Definicja i konstrukcja 304

§ 13.2. WlasnOsci trajektorii . 311

You might also like