You are on page 1of 289

En Introduktion til Sandsynlighedsregning

4. Udgave

Michael Srensen
26. juni 2003

Forord
Til 2. udgave
Disse forelsningsnoter trkker i betydelig grad p
a noter udarbejdet
af en rkke kolleger. Det glder ikke mindst Tue Tjurs forelsningsnoter Sandsynlighedsregning, som i mange
ar blev benyttet til Statistik 0 undervisningen, og som har vret udgangspunkt for nrvrende
noter. Visse steder er hele passager taget nsten ordret fra Tue Tjurs
noter, ligesom hovedparten af opgaverne stammer derfra. Jeg har imidlertid ogs
a hentet mange ideer, formuleringer, eksempler og opgaver fra
forelsningsnoter af Jrgen Hoffmann-Jrgensen, Preben Blsild, Svend
Erik Graversen og Ernst Hansen.
I forhold til den frste udgave er de vsentlige ndringer en rkke
nye eksempler, opgaver og figurer. Endvidere er der tilfjet et appendiks
om mngdelre, og en del trykfejl og uheldige formuleringer er blevet
rettet. Endelig er de fleste kapitler blevet forsynet med en kort sammenfatning.
Kbenhavn, juli 2001
Michael Srensen

Til 3. og 4. udgave
I forhold til 2. udgave er der kun foretaget mindre ndringer. Et antal
trykfejl er blevet rettet, og enkelte steder er forklaringer blevet uddybet
eller omformuleret.
Kbenhavn, juni 2003
Michael Srensen

Indhold
Forord

1 Sandsynlighedsregningens grundlag
1.1 Indledning . . . . . . . . . . . . . .
1.2 Det endelige sandsynlighedsfelt . .
1.3 Det generelle sandsynlighedsfelt . .
1.4 Betingede sandsynligheder . . . . .
1.5 Stokastisk uafhngighed . . . . . .
1.6 Sammenfatning . . . . . . . . . . .
1.7 Opgaver . . . . . . . . . . . . . . .

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

7
7
12
16
23
30
39
39

2 Stokastiske variable
2.1 Stokastiske variable og deres fordeling
2.2 Fordelingsfunktionen . . . . . . . . .
2.3 Fler-dimensionale stokastiske variable
2.4 Uafhngige stokastiske variable . . .
2.5 Sammenfatning . . . . . . . . . . . .
2.6 Opgaver . . . . . . . . . . . . . . . .

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

45
45
49
56
58
61
62

.
.
.
.
.
.
.

65
66
68
72
75
78
82
87

3 Fordelinger p
a endelige mngder
3.1 Sandsynlighedsfunktioner . . . . .
3.2 Binomialfordelingen . . . . . . . .
3.3 Den hypergeometriske fordeling .
3.4 Transformation af fordelinger . .
3.5 Polynomialfordelingen . . . . . .
3.6 Uafhngige stokastiske variable .
3.7 Middelvrdi og varians . . . . . .

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

INDHOLD
3.8 Kovarians og korrelation . . . . . . . . . . . . . . . . . .
3.9 Sammenfatning . . . . . . . . . . . . . . . . . . . . . . .
3.10 Opgaver . . . . . . . . . . . . . . . . . . . . . . . . . . .

95
104
105

4 Generelle diskrete fordelinger


4.1 Diskrete fordelinger . . . . . . . . . . . .
4.2 Transformation af diskrete fordelinger . .
4.3 Uafhngige diskrete stokastiske variable
4.4 Middelvrdi og varians . . . . . . . . . .
4.5 Kovarians og korrelation . . . . . . . . .
4.6 Betingede fordelinger . . . . . . . . . . .
4.7 Sammenfatning . . . . . . . . . . . . . .
4.8 Opgaver . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

114
114
124
126
130
138
139
140
141

5 En-dimensionale kontinuerte fordelinger


5.1 Kontinuerte fordelinger og ttheder . . .
5.2 Middelvrdi og varians . . . . . . . . . .
5.3 Normalfordelingen . . . . . . . . . . . .
5.4 Transformation af kontinuerte fordelinger
5.5 Sammenfatning . . . . . . . . . . . . . .
5.6 Opgaver . . . . . . . . . . . . . . . . . .

. . . .
. . . .
. . . .
p
a IR
. . . .
. . . .

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

145
145
156
162
165
172
173

.
.
.
.
.
.
.
.
.

179
179
183
187
187
191
197
200
202
203

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

6 Fler-dimensionale kontinuerte fordelinger


6.1 Ttheder og fordelinger p
a IRn . . . . . . . . . . . . .
6.2 Uafhngighed . . . . . . . . . . . . . . . . . . . . . . .
6.3 Transformation af kontinuerte fordelinger p
a IRn . . . .
6.3.1 Reelle transformationer . . . . . . . . . . . . . .
6.3.2 Liner transformation af en kontinuert fordeling
6.4 Middelvrdi, varians og kovarians . . . . . . . . . . . .
6.5 Kontinuerte betingede fordelinger . . . . . . . . . . . .
6.6 Sammenfatning . . . . . . . . . . . . . . . . . . . . . .
6.7 Opgaver . . . . . . . . . . . . . . . . . . . . . . . . . .

7 Grnseresultater for stokastiske variable


209
7.1 De store tals lov . . . . . . . . . . . . . . . . . . . . . . . 209
7.2 Den centrale grnsevrdistning . . . . . . . . . . . . . 212
7.3 Opgaver . . . . . . . . . . . . . . . . . . . . . . . . . . . 219

INDHOLD

8 Normalfordelingens teori
8.1 2 -fordelingen og -fordelingen . . . . . . . . . . . . .
8.2 F-fordelingen og t-fordelingen . . . . . . . . . . . . . .
8.3 Den fler-dimensionale normalfordeling . . . . . . . . . .
8.3.1 Den fler-dimensionale standard normalfordeling
8.3.2 Den generelle fler-dimensionale normalfordeling
8.3.3 Den to-dimensionale normalfordeling . . . . . .
8.4 Sammenfatning . . . . . . . . . . . . . . . . . . . . . .
8.5 Opgaver . . . . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.

221
221
225
229
229
233
235
239
239

9 Nogle stokastiske modeller


241
9.1 Aktier . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241
9.2 Poisson processen . . . . . . . . . . . . . . . . . . . . . . 243
9.3 Brownsk bevgelse . . . . . . . . . . . . . . . . . . . . . 246
10 Efterskrift

249

A Om mngder
251
A.1 Mngder og mngdeoperationer . . . . . . . . . . . . . . 251
A.2 Opgaver . . . . . . . . . . . . . . . . . . . . . . . . . . . 256
B Om
B.1
B.2
B.3
B.4
B.5

kombinatorik
Fakultetsfunktionen . .
Nedadstigende faktoriel
Binomialkoefficienter .
Polynomialkoefficienter
Opgaver . . . . . . . .

C Om uendelige rkker

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

258
258
259
259
261
262
263

D Om integraler
266
D.1 Funktioner af en variabel . . . . . . . . . . . . . . . . . . 266
D.2 Funktioner af flere variable . . . . . . . . . . . . . . . . . 270
E Tabeller
275
E.1 Standard normalfordelingen . . . . . . . . . . . . . . . . 276
E.2 2 -fordelingen . . . . . . . . . . . . . . . . . . . . . . . . 277
E.3 t-fordelingen . . . . . . . . . . . . . . . . . . . . . . . . . 278

INDHOLD
E.4 F-fordelingen . . . . . . . . . . . . . . . . . . . . . . . .
E.5 Det grske alfabet . . . . . . . . . . . . . . . . . . . . .

Indeks

279
282
283

Kapitel 1
Sandsynlighedsregningens
grundlag
1.1

Indledning

I den menneskelige tilvrelse forekommer der mange tilfldige og uforudsigelige begivenheder. Sknt dette utvivlsomt gr livet interessant, har
man dog i mange situationer brug for metoder til, s
a vidt det nu er
muligt, at h
andtere s
adanne usikkerhedsmomenter. Det er baggrunden
for, at sandsynlighedsregningen og statistikken er blevet udviklet. Disse
fags metoder har i vore dage fundet meget bred anvendelse, for eksempel
inden for forsikring, finansiering, planlgning og analyse af alle former
for data, som er behftet med usikkerhed.
Sandsynlighedsregningen har sin oprindelse i menneskets spilleglde.
I 40.000
ar gamle kkkenmddinger har man fundet betydelige mngder
astragalus knogler fra hov- og klovdyr, der kan benyttes til terningspil,
ligesom et gyptisk gravmaleri fra det frste gyptiske dynasti (ca. 3000
f. Kr. ) viser en adelsmand og hans kone, der benytter astragalus knogler
i forbindelse med et brdtspil. Astragalus knoglen har fire sider. N
ar
den kastes forekommer de to af siderne med sandsynlighed 1/10, mens
de to andre forekommer med sandsynlighed 2/5. Spil med astragalus
terninger var meget udbredt i antikken, hvor de efterh
anden ofte blev
lavet af brndt ler, marmor eller bronze. Den frste sekssidede terning,
man kender, er fundet i det nordlige Irak. Den er fra omkring 3000 f. Kr.

Sandsynlighedsregningens grundlag

og er lavet af brndt ler.


Mennesker har nok spillet siden tidernes morgen, og det m
a formodes,
at der blandt dygtige spillere har eksisteret en intuitiv fornemmelse for
det, vi i dag kalder sandsynligheder. Det er dog ret sent, at en egentlig teori for udfaldet af spil udvikles. Det tidligste skriftlige vidnesbyrd
om elementre sandsynlighedsberegninger findes i et i middelalderen meget udbredt opbyggeligt latinsk digt De Vetula (Om den Gamle Kone),
som tilskrives Richard de Fournival (1201 1260), en gejstlig ved
katedralen i Amiens. I forbindelse med en diskussion af terningspil giver digteren en lang (og korrekt) diskussion af antallet af m
ader, hvorp
a
man ved kast med tre terninger kan opn
a de forskellige mulige summer
af terningernes jne. I digtet anvendes begrebet sandsynlighed ikke, men
der tales om hyppighed af forskellige summer. Det vides ikke njagtigt,
hvorn
ar man n
aede frem til mere klare forestilliner om sandsynligheder
og viden om, hvordan de kan beregnes. Muligvis blev intet nedskrevet,
fordi viden om disse ting havde betydelig pekunir betydning.
Den frste bog Liber de Ludo Aleae om beregning af odds og sandsynligheder for en lang rkke spilsituationer (terningspil, kortspil og astragalus) blev skrevet af Geronimo Cardano (1501 1576). Bogen er
formentlig blevet til omkring 1550, men Cardano, som var en lidenskabelig spiller, holdt den hemmelig, og den blev frst fundet og udgivet i 1663.
Cardano gav ikke en abstrakt matematisk definition af sine begreber, og
bogen er prget af store tabeller over samtlige mulige udfald i forskellige
situationer. Det virkelige gennembrud for sandsynlighedsregningen som
matematisk disciplin skete i 1654 i en bermt brevveksling mellem Pierre de Fermat (1601 1665) og Blaise Pascal (1623 1662), i hvilken
de diskuterede og lste en rkke komplicerede sandsynlighedsteoretiske
problemer i relation til spil. I den forbindelse lagde de det teoretiske fundament for det, vi i dag kalder den elementre sandsynlighedsregning.
Fermat var stadsadvokat i Toulouse, og var formentlig alle tiders strste
amatrmatematiker, mens Pascal, der levede af en mindre formue, udover
sin indsats som matematiker, fysiker og astronom ogs
a var en betydelig
filosof. Hverken Fermat eller Pascal samlede deres resultater i bogform.
Fermat havde ikke for vane at publicere sine resultater, og Pascal trak sig
kort efter brevvekslingen med Fermat tilbage til et kloster i Port Royal,
hvor han resten af livet koncentrerede sig om religionsfilosofi. Det blev

1.1 Indledning

derfor hollnderen Christiaan Huygens (1629 1695), der efter i 1655


at vre kommet til Paris samlede og genbeviste deres resultater, som var i
omlb blandt byens matematikere. I 1657 udgav han resultaterne i bogen
De Ratiociniis in Alea Ludo, der blev lrebog for mange sandsynlighedsteoretikere i den anden halvdel af det 17.
arhundrede. Nogle af Pascals
resultater blev ivrigt udgivet i 1665 i Traite du Triangle Arithmetique,
som behandler det vi idag kalder Pascals trekant.
Det nste store skridt fremad blev taget af den schweiziske matematiker Jakob (Jacques) Bernoulli (1654 1705). Hans bidrag til sandsynlighedsregningen blev publiceret i bogen Ars Conjectandi, der blev
skrevet i perioden 1690 1705, men frst blev udgivet i 1713. I denne
bog indfres sandsynlighed som et matematisk begreb, og de store tals
lov vises. Dette resultat er basis for den frekvensfortolkning af sandsynlighedsregnigen, som vi skal komme tilbage til. Lst sagt er resultatet,
at den frekevens, hvormed en given hndelse indtrffer, n
ar et forsg
udfres mange gange, er tt p
a sandsynligheden for hndelsen.
Den definition af en sandsynlighed, som g
ar tilbage til Cardano, Fermat og Pascal, byggede p
a formlen
antal gunstige udfald
.
antal mulige udfald
Den klassiske sandsynlighedsregning, som er baseret p
a denne formel,
kulminerede med udgivelsen i 1812 af Pierre Simon Laplaces (1749
1827) bog Theorie Analytique des Probabilites, hvori han udtmte teoriens matematiske muligheder. Herefter optrder der en periode med
stilstand i den matematiske udvikling.
Derimod skete der en rivende udvikling af sandsynlighedsregningens
anvendte side langt udenfor spillenes omr
ade. Sandsynlighedsregningen
blev s
aledes anvendt indenfor statistik, fysik, forsikringsvidenskab, demografi og andre samfundsvidenskaber (for eksempel kriminologi). Som
det ofte sker, var anvendelserne her langt foran en stringent matematisk
teori. Den klassiske sandsynlighedsdefinition sl
ar ikke til i disse anvendelser. Dette blev helt klart med den komplicerede sandsynlighedsteoretiske
model for aktiekursernes udvikling p
a brsen i Paris, som i 1900 blev
udviklet af Louis Bachelier (1870 1946) i dennes afhandling Theorie
de la Speculation. Prcis den samme model opstilledes i 1905 uafhngigt

10

Sandsynlighedsregningens grundlag

af Bacheliers arbejde af Albert Einstein (1879 1955) til beskrivelse af


den s
akaldte Brownske bevgelse, som mikroskopiske partikler som stv,
pollen og bakterier udfrer i vsker og luftarter.
Fra den anden halvdel af den 19.
arhundrede startede en sgen efter
et nyt grundlag for sandsynlighedsregningen, isr i den russiske skole.
Lvovich Pafnufti Chebychev (1821 1884) og dennes to studenter
Andrei Andreiwich Markov (1856 1922) og Alexander Mikhailovich Lyapunov (1857 1918) indfrte de stokastiske variable og studerede deres egenskaber. Derigennem var de i stand til at generalisere nogle
af sandsynlighedsregningens vigtigste resultater. I bogen Grundbegriffe
der Wahrscheinlichkeitsrechnung fra 1933 lagde Andrej Nikolaevich
Kolmogorov (1903 1987) den s
akaldte m
alteori til grund for sandsynlighedsregningen, som derved igen fik et stringent matematisk grundlag.
Dette satte en eksplosiv udvikling igang, som endnu ikke er afsluttet, og
som har fundet meget bred praktisk anvendelse. S
aledes har det vist sig,
at den isr i 1970erne udviklede stokastiske analyse, der giver vrktj
til studiet af en bred klasse af stokastiske processer, er som skabt til at
fungere som grundlag for den moderne matematiske finansieringsteori.
Imidlertid er vi nu langt udenfor, hvad vi kan beskftige os med i
disse noter. M
alteori hrer ikke hjemme i et frste
arskursus, s
a selv om
vi flger Kolmogorov noget af vejen, kan vi ikke her give en fremstilling af
sandsynlighedsregningen, som er matematisk helt tilfresstillende. Vi vil
imidlertid indfre en rkke centrale begreber og studere disse. Form
alet
med kurset er ikke mindst at gennemg
a sandsynlighedsregningens helt
basale regneregler og give en vis fortrolighed med disse. Dels er dette,
hvad man har brug for i elementre anvendelser af sandsynlighedsregning
(specielt er det nok til at kunne forst
a et introducerende statistikkursus),
dels er det den bedste ballast for senere at kunne tilegne sig den mere
abstrakte teori baseret p
a m
alteori.
Fr vi g
ar i gang med teorien, er det p
a sin plads at filosofere lidt
over, hvad en sandsynlighed er. Det er der i tidens lb skrevet meget om.
I disse noter vil vi betragte det som sandsynlighedsteoriens opgave at
beskrive systemer, hvori der er et element af tilfldighed. Der kan vre
tale om fysiske, biologiske, sociale eller andre systemer. Det har erfaringsmssigt vist sig, at sknt udfaldet af en enkelt tilfldig begivenhed
ikke kan forudsiges, s
a er der for enhver given hndelse en vis tendens

1.1 Indledning

11

i det betragtede system til, at netop denne hndelse indtrffer. Denne


tendens kvantificeres ved et tal mellem nul og en, som kaldes sandsynligheden for hndelsen. Sandsynligheder anses s
aledes for at vre egenskaber ved det studerede system. De kan ikke observeres direkte, men
hvis et forsg udfres mange gange, viser sandsynlighederne sig som de
frekvenser, hvormed forskellige hndelser optrder. Hvis vi for eksempel
betragter kast med en rlig terning, har alle terningens sider samme tendens til at optrde, hvorfor sandsynligheden for hndelsen, at der sl
as en
femmer, er 1/6. Hvis man sl
ar mange gange med terningen, viser denne
sandsynlighed sig ved, at cirka 1/6 af kastene resulterer i en femmer.
Dette er sandsynlighedsregningens frekvensfortolkning. Lad os formulere den lidt mere prcist. Antag at vi udfrer et forsg N gange uafhngigt af hinanden, og at det efter hvert forsg kan konstateres, om en
hndelse, som vi betegner med A, er indtruffet. Vi skal senere definere,
hvad vi prcist vil forst
a ved uafhngighed af forsg; p
a dette sted er
den intuitive fornemmelse af, hvad uafhngighed er, tilstrkkelig. Under
disse antagelser er sandsynligheden for at A indtrffer lig
antal forsg hvor A indtrffer
.
N
N
I 1931, alts
a ganske kort fr Kolmogorovs bog blev publiceret, opbyggede
Richard von Mises (1883 1953) en stringent sandsynlighedsteori,
hvor s
adanne grnsevrdier var den basale definition af sandsynligheder. Disse ideer er aldrig sl
aet an, og de blev fuldstndig overskygget
af Kolmogorovs arbejde. Vi vil derfor som alle andre flge Kolmogorov
og i Afsnit 1.3 opstille nogle f
a basale egenskaber, som sandsynligheder
rimeligvis m
a have. Ud fra disse vil vi argumentere os frem til en rkke
resultater og regneregler og bl.a. bevise, at sandsynlighedsregningens frekvensfortolkning (store tals lov) flger af disse basale antagelser. At man
kan bevise dette, er en bekrftelse af, at de oprindelige basale antagelser
er en fornuftig definition af sandsynlighed.
At sandsynligheden for at f
a en femmer ved kast med en rlig terning
er lig 1/6 flger ved en simpel symmetribetragtning (der er ingen forskel
p
a de seks sider). Som regel er det svrere at beregne sandsynligheden
for en hndelse. Man har typisk behov for b
ade sandsynlighedens regneregler og for at gre nogle antagelser om det studerede system. Ofte
m
a man ogs
a inddrage observationer af systemet, hvorved metoder fra
lim

12

Sandsynlighedsregningens grundlag

statistikken kommer ind i billedet. For eksempel vil vi, for at kunne beregne sandsynligheden for, at der i en klasse med 25 brn er mindst to
brn med samme fdselsdag, gre nogle antagelser. Vi vil blandt andet
antage, at brnenes fdselsdage er uafhngige af hinanden, og at antal
fdsler per dag ikke varierer i lbet af
aret. S
adanne antagelser er ikke
ndvendigvis helt korrekte. For eksempel varierer antallet af fdsler per
dag lidt med
arstiden. Antagelserne skal blot vre tilstrkkelig tt p
a
tingenes faktiske tilstand til, at de beregnede sandsynligheder kan anvendes i praksis. N
ar man prsenteres for et sandsynlighedsudsagn, br
man derfor altid sprge hvilke antagelser, der ligger bag. S
a kan man,
hvis man har forstand p
a sandsynlighedsregning, selv vurdere, om det er
rimelige antagelser. Et andet eksempel, som vi skal se p
a, er beregning
af sandsynligheden for, at en mand, som overlever sine frste 20
ar, vil
opn
a at blive 60
ar. For at beregne denne sandsynlighed, som er af stor
interesse i forbindelse med livsforsikring, m
a man gre antagelser, b
ade
for at kunne anvende sandsynlighedsregningens regler og for at kunne
inddrage data fra Statistisk
Arbog.

1.2

Det endelige sandsynlighedsfelt

I det tilflde, hvor der kun er endeligt mange mulige udfald, er det
problemlst, at opstille en sandsynlighedsteoretisk model. Alt hvad vi
behver er en liste over samtlige mulige udfald og en angivelse af sandsynligheden for ethvert af disse. Dette kan formaliseres p
a flgende m
ade.
Ved et endeligt sandsynlighedsfelt forst
as en endelig mngde E =
{e1 , . . . , ek }, som kaldes udfaldsrummet, og en funktion p fra E ind i
intervallet [0, 1], som opfylder, at
k
X

p(ej ) = 1.

(1.2.1)

j=1

Elementerne i E kaldes udfald, mens en delmngde af E kaldes en


hndelse. Funktionen p kaldes sandsynlighedsfunktionen. Dens vrdi i ej ,
alts
a p(ej ), er naturligvis sandsynligheden for udfaldet ej . Man omtaler
denne som punktsandsynligheden i ej .

1.2 Det endelige sandsynlighedsfelt

13

Eksempel 1.2.1 Betragt situationen, hvor man kaster to terninger. Da


best
ar E af de 36 mulige udfald
E = {(1, 1), (1, 2), . . . , (6, 5), (6, 6)} = {1, . . . , 6} {1, . . . , 6}.
Sandsynlighedsfunktionen er givet ved
p(x) =

1
for alle x E,
36

da alle udfald er lige sandsynlige.


2
Eksempel 1.2.2 Betragt nu en klasse med 25 brn. Vi vil interessere
os for udsagn vedrrende brnenes fdselsdage, s
a et udfald best
ar af
en vektor af 25 fdselsdage x = (x1 , . . . , x25 ). For at forenkle vore overvejelser ser vi bort fra skud
ar og antager, at alle
ar har 365 dage. En
fdselsdag kan s
a angives ved dens nummer i
aret, d.v.s. som et helt tal
mellem 1 og 365. Vi kan derfor benytte udfaldsrummet
E = {1, . . . , 365}25 = {1, . . . , 365} {1, . . . , 365}.
|
{z
}
25 gange

Vi specificerer sandsynlighedsfunktionen ved

p(x) = 36525 for alle x = (x1 , . . . x25 ) E,


d.v.s. vi antager at alle kombinationer af fdselsdage er lige sandsynlige. Her er situationen ikke helt s
a klar, som den var for et kast med
to terninger. At alle kombinationer er lige sandsynlige forudstter bl.a.
at brnene ikke fordeles p
a klasser efter alderskriterier, at alderskriteriet
for optagelse p
a skolen ikke er blevet ndret det
ar klassen startede i
skolen og at antal fdte per dag ikke er
arstidsafhngigt (hvilket ikke er
helt rigtigt). Videre antages det, at brnenes fdselsdage er uafhngige
af hinanden. Vi skal senere give en definition af begrebet stokastisk uafhngighed, som kan bruges til at prcisere dette udsagn. Her er det nok
at bemrke, at vi f.eks. udelukker, at der er et tvillingepar i klassen.
2

14

Sandsynlighedsregningens grundlag

Hvis A er en hndelse, d.v.s. A E, s


a defineres sandsynligheden
for A, som vi betegner med P (A), ved
P (A) =

p(x).

(1.2.2)

xA

Sandsynligheden for A er alts


a summen af alle punktsandsynlighederne
hrende til de udfald, som ligger i A. Specielt er P ({ej }) = p(ej ), og da
vi definerer summen over ingen elementer til at vre nul, er P () = 0.
Det er ikke vanskeligt at indse (udfr argumentet i detaljer), at
0 P (A) 1
P (E) = 1
P (A B) = P (A) + P (B), hvis A B = .

(1.2.3)
(1.2.4)
(1.2.5)

Her er A og B naturligvis hndelser, d.v.s. A, B E. To mngder, hvis


fllesmngde er den tomme mngde, siges at vre disjunkte. Vi kalder
en funktion P fra klassen af delmngder af E ind i de reelle tal, som
opfylder (1.2.3) (1.2.5), et sandsynlighedsm
al.
I de to eksempler ovenfor var sandsynlighedsfunktionen konstant.
Dette er naturligvis ikke altid tilfldet, men det er en srligt pn situation, som er forudstningen for den kendte formel for sandsynligheden
for en hndelse:
antal gunstige udfald
.
antal mulige udfald
Hvis nemlig sandsynlighedsfunktionen p er konstant, flger det af formel
(1.2.1), at p(x) = 1/k, hvor k er antallet af elementer i E. For en hndelse
A E flger det derfor af (1.2.2) at
P (A) =

1
]A
=
,
]E
xA k

(1.2.6)

hvor ]A betegner antallet af elementer i A, d.v.s. antallet af gunstige


udfald, mens ]E betegner antallet af elementer i E, d.v.s. antallet af
mulige udfald. Generelt vil vi fremover for enhver endelig mngde M
betegne antallet af elementer i M med ]M . N
ar sandsynlighedsfunktionen
p er konstant, er sandsynlighedsmassen fordelt ligeligt over den endelige
mngde E. Man taler derfor om ligefordelingen p
a E.
Lad os nu betragte et eksempel, hvor sandsynlighedsfunktionen ikke
er konstant.

1.2 Det endelige sandsynlighedsfelt

15

Eksempel 1.2.3 Betragt igen kast med to terninger, men antag, at vi


kun er interesserede i summen af jnene p
a de to terninger. Da kan vi
benytte udfaldsrummet
E = {2, 3, . . . , 12},
og specificere sandsynlighedsfunktionen
=
=
=
=
=
=

1/36
1/18
1/12
1/9
5/36
1/6.

0.00

0.05

0.10

0.15

0.20

p(2) = p(12)
p(3) = p(11)
p(4) = p(10)
p(5) = p(9)
p(6) = p(8)
p(7)

10

12

Figur 1.2.1: Sandsynlighedsfunktionen i Eksempel 1.2.3.


Denne specifikation krver naturligvis et argument. Da modellen i eksempel 1.2.1 er en ligefordeling, kan vi beregne sandsynligheden for at

16

Sandsynlighedsregningens grundlag

summen af de to jne har en bestemt vrdi ved hjlp af formel (1.2.6).


S
aledes er der kun et enkelt udfald som giver sum to, nemlig (1,1). Derfor er sandsynligheden for at summen er to lig 1/36. Der er to udfald
med sum tre, nemlig (1,2) og (2,1), s
a sandsynligheden for at summen er
tre er lig 2/36 = 1/18. De vrige sandsynligheder findes ved tilsvarende
overvejelser (udfr nogle af disse).
2

1.3

Det generelle sandsynlighedsfelt

Man har ofte brug for sandsynlighedsfelter med uendeligt mange mulige
udfald, og i den situation er det mere kompliceret at definere en sandsynlighedsteoretisk model. Hvis antallet af mulige udfald er uendeligt, er
det ikke altid tilstrkkeligt blot at angive alle udfald og deres sandsynligheder. Lad os illustrere problemet med et eksempel.
Eksempel 1.3.1 Lad os tnke os, at vi trkker et tilfldigt tal mellem
nul og en. Vi vlger alts
a som udfaldsrum intervallet E = [0, 1], som
i hvert fald ikke er en endelig mngde. Det er m
aske p
a nuvrende
tidspunkt ikke helt klart, hvad vi mener med at trkke et tilfldigt tal
i E, men i hvert fald m
a alle tal e i E have samme sandsynlighed for
at blive udtrukket. Lad os betegne denne sandsynlighed med p. Hvad er
sandsynligheden for at udtrkke et tal i mngden {1/n, 2/n, . . . , (n
1)/n, 1}, hvor n er et vilk
arligt positivt helt tal? Hvis vi forlanger, at
formel (1.2.5) ogs
a skal glde for uendelige sandsynlighedsfelter, ses det
ved at benytte denne formel n 1 gange, at
P ({1/n, 2/n, . . . , (n 1)/n, 1}) =
P ({1/n}) + + P ({(n 1)/n}) + P ({1}) = np.
Da P ({1/n, 2/n, . . . , (n 1)/n, 1}) skal vre en sandsynlighed, d.v.s.
0 P ({1/n, 2/n, . . . , (n 1)/n, 1}) 1,
flger det, at der for alle positive hele tal n glder, at
0p

1
.
n

1.3 Det generelle sandsynlighedsfelt

17

Ved at lade n g
a mod uendelig ses det, at p = 0. I denne situation er det
alts
a ikke srlig nyttigt at angive sandsynligheden for alle mulige udfald.
S
aledes er udsagnet, at P ({e}) = 0 for alle e [0, 1], helt uanvendeligt til
at sige noget om for eksempel sandsynligheden for at trkke et tal mellem
1/4 og 3/4. Denne sandsynlighed br naturligvis vre lig en halv.
Det er klart, at vi m
a g
a en anden vej for at definere et sandsynlighedsfelt p
a en brugbar m
ade. Vi vil i stedet definere sandsynligheden
for at udtrkke et tal i et delinterval I af E. En naturlig definition af
tilfldig udtrkning af et tal mellem nul og en er at krve, at sandsynligheden for at trkke et tal i intervallet I er proportional med lngden
af I. Vi antager derfor, at der finds et reelt tal c 0, s
a
P (I) = c|I|,
hvor |I| betegner lngden af I. Vi vil ogs
a fremover benytte denne notation for lngden af intervaller og af andre delmgder af den reelle akse,
for hvilke det giver mening at tale om lngden. Det er let at bestemme
strrelsen af c, da
1 = P ([0, 1]) = c|[0, 1]| = c.
Det ser alts
a ud til, at vi kan definere tilfldig udtrkning af et tal
mellem nul og en p
a en fornuftig m
ade ved at specificere, at
P (A) = |A|,

(1.3.1)

for alle delmngder A af [0, 1], for hvilke det giver mening at tale om
lngden. Udover intervaller, kan det f. eks. vre foreningsmngden af
to eller flere intervaller. Da et-punktsmngden {e} kan betragtes som et
udartet interval [e, e] med lngde nul, er (1.3.1) i overensstemmelse med
resultatet P ({e}) = 0, som vi fandt ovenfor.
2
Da det, som vi netop har set, ikke altid er nok at angive samtlige udfald og deres sandsynligheder, m
a man i stedet angive sandsynligheden for
at f
a et udfald i enhver delmngde af udfaldsrummet (eller i det mindste
nogle af delmngderne). Man kan ikke bare angive disse sandsynligheder helt som man har lyst: Sandsynlighederne for forskellige hndelser
skal passe sammen. Vi definerer derfor et generelt sandsynlighedsfelt p
a
flgende m
ade.

18

Sandsynlighedsregningens grundlag

Definition 1.3.2 Ved et sandsynlighedsfelt forst


as en mngde E, som
kaldes udfaldsrummet, en vis klasse E af delmngder af E, samt en funktion P fra E ind i intervallet [0, 1]. Elementerne i E skal mindst omfatte
b
ade E selv og den tomme mngde , mens funktionen P , som kaldes et
sandsynlighedsm
al, skal opfylde, at
P (E) = 1
P (A B) = P (A) + P (B), hvis A B = .

(1.3.2)
(1.3.3)

Elementerne i E kaldes hndelser. Disse er alts


a delmngder af E.
Fortolkningen af sandsynlighedsm
alet P er naturligvis, at dets vrdi i en
hndelse A, d.v.s. P (A), er sandsynligheden for at f
a et udfald i A. De to
betingelser (1.3.2) og (1.3.3) er helt rimelige: Dels skal vi vre sikre p
a at
f
a et udfald i E, dels m
a sandsynligheden for at f
a et udfald i enten A eller
B vre summen af sandsynligheden for et udfald i A og sandsynligheden
for et udfald i B, n
ar de to mngder ikke har noget element til flles.
Hvis vi ikke forlangte, at et sandsynlighedsm
al opfylder (1.3.3), ville vi
ikke kunne bruge det til at komme med konsistente udsagn om forskellige
hndelsers sandsynlighed, men ville tvrtimod risikere at komme med
oplagt forvrvlede udsagn.
Vi har ikke sagt, hvad E egentlig er for noget. Det skyldes, at vi i
disse noter altid vil antage, at E best
ar af alle delmngder af E. N
ar
E er en endelig mngde, er der ikke noget problem i dette. For visse
uendelige mngder, som for eksempel den reelle akse IR og delintervaller
af denne, er klassen af alle delmngder imidlertid um
adeligt stor. Den
er faktisk s
a stor, at den indeholder visse sre mngder, som man ikke
kan tillgge nogen sandsynlighed. Derfor m
a man, hvis man skal vre
helt matematisk stringent, njes med at lade E vre en noget mindre
klasse af forholdvis pne delmngder. De omtalte sre mngder er
heldigvis s
a besynderlige, at man roligt kan sige, at enhver delmngde
af IR, som en typisk Statistik 0 studerende kan forestille sig, kan tillgges en sandsynlighed. Der sker derfor ikke noget ved, at vi her ser bort
fra disse problemer, som i praksis er uden betydning for den elementre
sandsynlighedsregning. Den antydede problemstilling vil naturligvis blive
taget op i et senere kursus, da den har betydning i mere avanceret sandsynlighedsregning.

1.3 Det generelle sandsynlighedsfelt

19

Fra nu af er en hndelse alts


a en vilk
arlig delmngde af E, hvorfor E, som vi dermed i dette kursus ikke behver i definitionen af et
sandsynlighedsfelt, ikke vil optrde igen.
Fr vi ser nrmere p
a regnereglerne for et sandsynlighedsm
al, skal vi
lige have endnu et eksempel p
a et sandsynlighedsfelt, hvor E er intervallet
[0, 1].
Eksempel 1.3.3 Lad E = [0, 1]. Vi definerer et sandsynlighedsm
al P
p
a E ved for en delmngde A af [0, 1] at stte
P (A) =

1
0

1A (x)3x2 dx,

(1.3.4)

hvor 1A er den s
akaldte indikatorfunktion for A, som er defineret ved
1A (x) =

1 hvis x A
0 hvis x
/ A.

(1.3.5)

Lg mrke til definitionen af indikatorfunktionen, som vil spille en vigtig


rolle fremover.
Sandsynligheden for et delinterval [a, b], hvor 0 a b 1, er alts
a
P ([a, b]) =

b
a

3x2 dx = b3 a3 .

Specielt er det klart, at P (E) = 1, og at en et-punkts mngde {a},


der jo er lig det udartede interval [a, a], har sandsynlighed nul ligesom i
Eksempel 1.3.1. Vi ser endvidere af (1.3.4), at P () = 0, idet 1 (x) er lig
med nul for alle x E.
For alle de hndelser, som vi vil komme ud for, er det klart, at integralet i 1.3.1 er defineret. Hvis for eksempel A = [a, b] [c, d], hvor
0 a b < c d 1, s
a er
P (A) =

a
3

3x dx +

d
c

3x2 dx

= b a3 + d3 c3 = P ([a, b]) + P ([c, d]).


Vi ser, at (1.3.3) er opfyldt. Dette glder faktisk generelt. Hvis nemlig A
og B er disjunkte mngder af [0, 1], er 1AB (x) = 1A (x) + 1B (x) (overvej

20

Sandsynlighedsregningens grundlag

hvorfor dette er rigtigt), og dermed er


P (A B) =
=

1
0
1
0

1AB (x)3x2 dx
1A (x)3x2 dx +

(1.3.6)
Z

1
0

1B (x)3x2 dx = P (A) + P (B).

Til slut bemrkes det, at funktionen 3x2 p


a [0, 1], som vi her har
benyttet til at definere sandsynlighederne, er et eksempel p
a en s
akaldt
sandsynlighedstthed. Vi skal i Kapitel 5 vende tilbage til dette begreb.
2
Stning 1.3.4 For et sandsynlighedsm
al P glder flgende regneregler,
hvor A og B betegner vilk
arlige hndelser.
1) Hvis B A, er
P (A\B) = P (A) P (B)
(1.3.7)
og
P (B) P (A).

(1.3.8)

2) Sandsynligheden for den komplementre hndelse til B, d.v.s. E\B,


er givet ved
P (E\B) = 1 P (B).
(1.3.9)
3)
P () = 0.

(1.3.10)

P (A B) = P (A) + P (B) P (A B).

(1.3.11)

P (A B) P (A) + P (B).

(1.3.12)

4)
og

Bevis: 1) Hvis B A, er A = (A\B) B, og da (A\B) B = , flger


det af (1.3.3) at P (A) = P (A\B) + P (B), hvilket er kvivalent med
(1.3.7). Uligheden (1.3.8) flger af (1.3.7), da P (A\B) 0. 2) Ligningen
(1.3.9) er et specialtilflde af (1.3.7) med A = E. 3) Da E\E = , flger
(1.3.10) af (1.3.9) ved at stte B = E. 4) Endelig indses (1.3.11) ved at

1.3 Det generelle sandsynlighedsfelt

21

bemrke, at A B = (A\(A B)) B, hvor selvflgelig A\(A B) og


B er disjunkte. Det flger derfor af (1.3.3) og (1.3.7), at
P (A B) = P (A\(A B)) + P (B)
= P (A) P (A B) + P (B).
Den sidste ulighed er en konsekvens af (1.3.11).
2
Bemrk, at (1.3.11) viser, at en formel som den i (1.3.3) ikke glder
uden en betingelse p
a A B. Den forudstter, at P (A B) = 0, hvilket
bl.a. er tilfldet, n
ar A B = .
Trods sin enkelhed, er resultatet (1.3.9) um
adeligt nyttigt, n
ar man
skal beregne sandsynligheden for en kompliceret hndelse, hvis komplementrhndelse er enkel. Her er et eksempel.
Eksempel 1.2.2 (fortsat). Vi betragter igen en klasse med 25 brn. Vi
har i forrige afsnit opstillet og diskuteret en sandsynlighedsteoretisk model, som er egnet til at beregne sandsynligheder for hndelser vedrrende
brnenes fdselsdage. Et klassisk sprgsm
al er, hvad sandsynligheden er
for, at to eller flere brn har samme fdselsdag. Denne er overraskende
stor. Lad alts
a A betegne hndelsen, at to eller flere brn har samme
fdselsdag. Dette er jo en temmelig kompliceret hndelse, men den komplimentre hndelse E\A er den meget enkle hndelse, at alle brn har
fdselsdag p
a forskellige dage.
Da sandsynlighedsfunktionen er konstant, kan vi beregne sandsynligheden for E\A ved formlen (1.2.6). Vi skal derfor tlle, hvor mange
elementer der er i E\A. Dette kan gres p
a flgende m
ade. Der er 365
m
ader at vlge det frste barns fdselsdag p
a. N
ar vi har lagt os fast p
a
det frste barns fdselsdag, er der, uanset hvilken dag dette er, 364 muligheder tilbage for det nste barns fdselsdag. Ellers ville de to jo ikke
have forskellige fdselsdage. Videre er der, n
ar b
ade frste og andet barns
fdselsdage er valgt, 363 muligheder tilbage til det tredie barn. S
aledes
fortsttes til man n
ar det 25. barn, som altid vil have 341 (= 365 - 24)
muligheder. Vi kan konkludere, at
](E\A) = 365 364 341,

22

Sandsynlighedsregningens grundlag

s
aledes at (1.2.6) giver, at
P (E\A) =

365 364 341


](E\A)
=
= 0.4313.
]E
36525

Nu flger det af (1.3.9), at


P (A) = 1 0.4313 = 0.5687.
Man m
a alts
a forvente, at der i over halvdelen af alle klasser (med 25
brn) er mindst to brn, som har fdselsdag samme dag.
2
Vi slutter dette afsnit med generaliseringer af (1.3.12) og (1.3.3).
Stning 1.3.5 Lad A1 , . . . , An vre vilk
arlige hndelser. Da er
P (A1 An ) P (A1 ) + + P (An ).

(1.3.13)

Hvis det antages, at A1 , . . . , An er indbyrdes disjunkte (d.v.s. Ai Aj =


for alle i 6= j), er
P (A1 An ) = P (A1 ) + + P (An ).

(1.3.14)

Bevis: Uligheden (1.3.13) vises ved et induktionsbevis. At udsagnet er


korrekt for n = 2, er prcis det tidligere viste resultat (1.3.12). Antag nu,
at uligheden (1.3.13) glder for n 1 hndelser A1 , . . . , An1 , og definer
hndelsen B = A1 An1 . Da er
P (A1 An1 An ) =

P (B An )
P (B) + P (An )
P (A1 An1 ) + P (An )
P (A1 ) + + P (An1 ) + P (An ).

Formel (1.3.14) vises ved induktion p


a tilsvarene m
ade (overvej detaljerne).
2

1.4 Betingede sandsynligheder

1.4

23

Betingede sandsynligheder

Eksempel 1.2.1 (fortsat). Vi betragter igen kast med to terninger. Antag at terningerne er blevet kastet uset af os, og at vi kun f
ar oplyst,
at de to terninger viser det samme antal jne. Hvad kan vi p
a den baggrund sige om sandsynligheden for at summen af jnene er mindst 11?
Det er klart, at den oplysning, vi har f
aet, m
a p
avirke vores udsagn om
sandsynligheden, s
a svaret er nok ikke 1/12.
Udfaldsrummet
E = {1, . . . , 6} {1, . . . , 6}
best
ar af 36 elementer, som alle har sandsynlighed 1/36, men nu har vi jo
f
aet af vide, at de to terninger viser det samme, d.v.s. at udfaldet tilhrer
hndelsen
A = {(1, 1), (2, 2), (3, 3), (4, 4), (5, 5), (6, 6)}.
Det er derfor fristende, at betragte A som et nyt udfaldsrum. Da elementerne i det oprindelige udfaldsrum E havde samme sandsynlighed, m
a
det samme glde for A, s
a hvert af de 6 elementer i A m
a have sandsynlighed 1/6. Da (6, 6) er det eneste udfald i A med sum strre end eller
lig 11, er et godt bud p
a den sgte sandsynlighed jensynligt 1/6.
Lad os forsge os med en frekvensfortolkning. Vi tnker os, at vi n
gange udfrer det forsg, som best
ar i at sl
a med to terninger. Med NA
betegner vi antallet af forsg, i hvilke udfaldet tilhrte A, og med NAB
betegner vi antallet af forsg, i hvilke udfaldet tilhrte b
ade hndelsen A
og hndelsen, at summen er strre end eller lig 11. Den sidste hndelse
betegner vi fra nu af med B. Antallet NAB er alts
a bare antal forsg
med udfaldet (6, 6). Den relative hyppighed af hndelsen B blandt de
forsg, hvor de to terninger viste det samme, er da
fAB
NAB
=
,
NA
fA
hvor fAB = NAB /n og fA = NA /n betegner den relative hyppighed
af de to hndelser A B og A blandt alle n forsg. Strrelserne fAB
og fA svarer til vores intuitive opfattelse af sandsynlighederne P (A B)

24

Sandsynlighedsregningens grundlag

og P (A), og sandsynlighedsregningens frekvensfortolkning siger, at fAB


og fA konvergerer mod henholdsvis P (A B) og P (A), n
ar n g
ar mod
uendelig. Brken ovenfor konvergerer alts
a mod
1/36
1
P (A B)
=
= ,
P (A)
1/6
6
som m
a vre et godt bud p
a den sgte betingede sandsynlighed af hndelsen B givet at vi ved, at udfaldet ligger i A. Dette sidste bud er
heldigvis identisk med det tidligere bud.
2
Inspireret af dette eksempel giver vi flgende definition. Lad P vre et
sandsynlighedsm
al p
a udfaldsrummet E, lad A og B vre to hndelser,
og antag at P (A) > 0.
Definition 1.4.1 Den betingede sandsynlighed af B givet A, som vi
skriver P (B|A), er defineret ved
P (B|A) =

P (A B)
.
P (A)

(1.4.1)

Fortolkningen af den betingede sandsynlighed er, at P (B|A) er sandsynligheden for at f


a et udfald i B, n
ar vi ved, at udfaldet ligger i A.
Vi siger, at vi betinger med A. Den betingede sandsynlighed er alts
a
forholdet mellem sandsynligheden for den del af B, som ligger i A, og
sandsynligheden for hele A.
Eksempel 1.2.1 (fortsat). Igen kastes to terninger, uden at vi ser udfaldet. Vi f
ar at vide, at summen af jnene er strre end eller lig 9, og vil
finde den betingede sandsynlighed for, at terningerne viser det samme
antal jne. Hndelsen, at summen af jnene er strre end eller lig 9, er
A = {(3, 6), (4, 5), (4, 6), (5, 4), (5, 5), (5, 6), (6, 3), (6, 4), (6, 5), (6, 6)},
mens hndelsen, at terningerne viser det samme antal jne, er
B = {(1, 1), (2, 2), (3, 3), (4, 4), (5, 5), (6, 6)}.

1.4 Betingede sandsynligheder

25

Da A best
ar af 10 elementer, mens
A B = {(5, 5), (6, 6)}
best
ar af 2 elementer, er
P (B|A) =

2/36
1
P (A B)
=
= .
P (A)
10/36
5
2

Vi vil i resten af dette afsnit give nogle nyttige regneregler for betingede sandsynligheder. I det flgende tnker vi os hele tiden, at et
sandsynlighedsfelt med udfaldsrum E og sandsynlighedsm
al P er givet.
Stning 1.4.2 Lad A1 , A2 , . . . , An vre n hndelser, som opfylder, at
P (A1 An1 ) > 0. Da er
P (A1 An ) =
(1.4.2)
P (A1 )P (A2 |A1 )P (A3 |A1 A2 ) P (An |A1 An1 ).
Bevis: Bemrk frst, at betingelsen P (A1 An1 ) > 0 medfrer, at
alle de betingede sandsynligheder er veldefinerede (overvej dette). Indst
definitionen af betinget sandsynlighed overalt p
a hjre side. Derved opn
as
et produkt af brker, hvor hver tller (bortset fra den sidste) forkorter
ud mod nste brks nvner. Tilbage st
ar det nskede resultat.
2
Eksempel 1.4.3 I dette eksempel betragtes livslngden for en dansker
af hankn fdt i 1980. Som udfaldsrum er det naturligt at vlge E =
IIN0 = {0, 1, 2, . . .}, alts
a de ikke-negative hele tal. Da vi endnu ikke
rigtigt har diskuteret, hvordan man definerer et sandsynlighedsm
al p
a
en uendelig mngde som IIN0 , vil vi i stedet vlge E = {0, 1, 2, . . . 500}
som udfaldsrum. Det burde ikke give problemer.
Lad os diskutere, hvordan man beregner sandsynligheden for, at en
mand, som overlever sine frste 20
ar, ogs
a vil vre i live 40
ar senere, og
alts
a vil opleve sin 60
ars fdselsdag. Sprgsm
al af denne art interesserer pensionskasser meget. Lad Ak betegne hndelsen, at manden bliver

26

Sandsynlighedsregningens grundlag

mindst k
ar gammel, d.v.s. Ak = {k, k + 1, , 500}. Den omtalte sandsynlighed er da den betingede sandsynlighed
P (A60 |A20 ) =

P (A60 A20 )
P (A60 )
=
,
P (A20 )
P (A20 )

hvor vi har brugt, at A60 A20 . Faktisk glder der jo, at


A60 A59 A2 A1 A0 = E,
s
a A0 Ak = Ak , hvorfor formel (1.4.2) giver, at
P (A60 |A20 ) = P (A21 |A20 )P (A22 |A21 ) P (A60 |A59 ).
Vi kan alts
a beregne P (A60 |A20 ), hvis vi for de mellemliggende
ar kender
de betingede sandsynligheder af typen sandsynligheden for at blive k +1

ar, givet at man er blevet k


ar. En mulig fremgangsm
ade er at antage, at
de betingede sandsynligheder, P (Ak+1 |Ak ), ikke afhnger af, hvilket
ar
personen er blevet fdt, og ganske enkelt for alle k bruge de tilsvarende
relative hyppigheder observeret f.eks. i 1998-99. Ddelighedstavlerne i
Statistisk
Arbog er beregnet ved hjlp af den netop udledte succesive
multiplikationsregel.
2
Stning 1.4.2 er isr anvendelig, n
ar man som i eksemplet betragter
forlb over tiden. Den nste stning er nyttig i en anden type situationer,
nemlig n
ar man opn
ar en forenkling af en hndelse ved at opdele den i
en rkke tilflde. Hermed menes, at det for hvert af disse tilflde ikke er
vanskeligt at finde den betingede sandsynlighed for hndelsen. Eksemplet
efter stningen vil forh
abentlig gre dette udsagn lidt klarere.
Stning 1.4.4 Lad A1 , A2 , . . . , An vre indbyrdes disjunkte hndelser,
som opfylder, at E = A1 A2 An , og at P (Ai ) > 0 for i = 1, . . . , n.
For en vilk
arlig hndelse B glder da, at
P (B) =

n
X

j=1

P (B|Aj )P (Aj ).

(1.4.3)

1.4 Betingede sandsynligheder

27

Bevis: Da E = A1 A2 An , flger det, at


B = E B = (A1 B) (An B),
og da A1 B, . . . , An B er indbyrdes disjunkte, giver (1.3.14) at
P (B) =

n
X

j=1

P (Aj B).

Da endvidere
P (Aj B) =

P (Aj B)
P (Aj ) = P (B|Aj )P (Aj ),
P (Aj )

er stningen vist.
2
Eksempel 1.4.5 P
a et bord st
ar to kasser. Den ene indeholder 50 rde
og 50 hvide kugler. Den anden indeholder 20 rde, 80 hvide og 50 sorte
kugler. Ved tilfldig lodtrkning (f. eks. med en rlig mnt) vlges
en kasse, og en kugle fra denne udtages tilfldigt. Hvad er sandsynligheden for at trkke en rd kugle? Som udfaldsrum kan vi tage E =
{1, 2} {rd, hvid, sort}, hvor 1 og 2 nummererer kasserne. Lad Ki vre
hndelsen, at vi vlger kasse nummer i, d.v.s. Ki = {i}{rd, hvid, sort}
for i = 1, 2. Lad tilsvarende R, H og S betegne hndelserne, at vi trkker
henholdsvis en rd, en hvid og en sort kugle (f.eks. er R = {1, 2}{rd}).
a klart, at
Vi kan umiddelbart sige, at P (K1 ) = P (K2 ) = 12 . Det er ogs
det er smart at dele op i de to tilflde, hvor vi har valgt henholdsvis kasse
nummer et og kasse nummer to. Det er nemlig let at angive sandsynligheden for at trkke en kugle af en bestemt farve, hvis vi ved hvilken kasse,
der trkkes fra. Men det betyder netop, at vi let kan angive flgende
betingede sandsynligheder:
P (R|K1 ) =

50
1
=
100
2

P (R|K2 ) =

20
2
=
150
15

P (H|K1 ) =

50
1
=
100
2

P (H|K2 ) =

80
8
=
150
15

P (S|K1 ) =

0
=0
100

P (S|K2 ) =

50
1
=
150
3

28

Sandsynlighedsregningens grundlag

Nu kan vi bruge stning 1.4.4 til at finde sandsynligheden for at udtrkke


en rd kugle:
P (R) = P (R|K1 )P (K1 ) + P (R|K2 )P (K2 )
2 1
19
1 1
+
=
= 0.3167.
=
2 2 15 2
60
Det er naturligvis lige s
a let at udregne sandsynlighederne P (H) og P (S),
men disse regnestykker overlades til den interesserede lser.
2
Flgende omvendingsformel for betingede sandsynligheder kan ogs
a
vre nyttig.
Stning 1.4.6 For vilk
arlige hndelser A og B, som opfylder, at P (A) >
0 og P (B) > 0, glder
P (A|B) =

P (A)
P (B|A).
P (B)

(1.4.4)

Bevis: Resultatet flger af definitionen af betinget sandsynlighed:


P (A|B) =

P (A) P (A B)
P (A)
P (A B)
=
=
P (B|A).
P (B)
P (B) P (A)
P (B)
2

Eksempel 1.4.5 (fortsat). Lad os fortstte diskussionen af kugler i kasser. Vi forstiller os nu, at en person uset af os udfrer det omtalte eksperiment, men at vedkommende kun fortller os farven p
a den udtrukne
kugle, ikke hvilken kasse der blev valgt. Da giver det mening at sprge
om den betingede sandsynlighed for, at kasse nr. 1 blev valgt, givet at
kuglen er rd? Formel (1.4.4) giver, at
P (K1 |R) =

1/2 1
15
P (K1 )
P (R|K1 ) =
=
= 0.7895.
P (R)
19/60 2
19

Denne problemstilling illustrerer et vsentligt aspekt af begrebet betinget sandsynlighed. Uden kendskab til forsgets udfald ville vi naturligvis
sige, at sandsynligheden for at kuglen kommer fra kasse nr. 1 er 1/2.

1.4 Betingede sandsynligheder

29

Men n
ar vi modtager den ekstra information, at kuglen er rd, ndres
denne vurdering, fordi en rd kugle er et mere sandsynligt resultat af en
udtrkning fra kasse 1 end fra kasse 2. Man kan sige, at kuglens farve
indeholder information om, hvilken kasse den kommer fra. En betinget
sandsynlighed er en sandsynlighed, der er udregnet under hensyn til den
information, der ligger i, at den hndelse, vi betinger med, er indtruffet.
2
Ved at kombinere de to foreg
aende stninger opn
ar man flgende
nyttige regneregel, som er kendt under navnet Bayes formel.
Stning 1.4.7 Lad A1 , A2 , . . . , An vre indbyrdes disjunkte hndelser,
som opfylder, at E = A1 A2 An , og at P (Ai ) > 0 for i = 1, . . . , n.
For en hndelse B med P (B) > 0 glder for ethvert k = 1, . . . , n, at
P (B|Ak )P (Ak )
P (Ak |B) = Pn
.
j=1 P (B|Aj )P (Aj )

(1.4.5)

Bevis: Iflger (1.4.4) er

P (Ak |B) =

P (B|Ak )P (Ak )
,
P (B)

og ved at benytte (1.4.3) i nvneren, opn


as (1.4.5).
2
Bemrk, at udregningen i anden halvdel af Eksempel 1.4.5 ogs
a kan
ses som en anvendelse af Bayes formel, da vi jo netop i eksemplets frste
del havde beregnet P (R) v.h.a. (1.4.3).
Lad os slutte dette afsnit med at studere, hvordan den betingede
sandsynlighed P (B|A) opfrer sig som funktion af B.
Stning 1.4.8 Lad A vre en hndelse, s
a P (A) > 0. Hndelsen A
holdes fast. Da er funktionen
B 7 P (B|A),
hvor B er en vilk
arlig hndelse, et sandsynlighedsm
al.

(1.4.6)

30

Sandsynlighedsregningens grundlag

Bevis: Da P (B|A) [0, 1], skal vi bare eftervise (1.3.2) og (1.3.3),


hvoraf den frste hurtigt kan klares, da P (E|A) = P (E A)/P (A) =
P (A)/P (A) = 1. For at vise (1.3.3) betragter vi to disjunkte hndelser
B og C. Da ogs
a B A og C A er disjunkte, er
P ((A B) (A C))
P (A (B C))
=
P (A)
P (A)
P (A B) + P (A C)
= P (B|A) + P (C|A).
=
P (A)

P (B C|A) =

2
Sandsynlighedsm
alet givet ved (1.4.6) kaldes den betingede fordeling
givet A. Et sandsynlighedsm
al kaldes somme tider en sandsynlighedsfordeling; isr n
ar udfaldsrummet er IR eller IRn .

1.5

Stokastisk uafhngighed

Lad A og B vre to hndelser med P (B) > 0. I almindelighed er


P (A|B) 6= P (A), idet oplysningen om, at B er indtruffet, vil ndre
sandsynligheden for A. Vi s
a et eksempel p
a dette i Eksempel 1.4.5. I de
tilflde, hvor oplysningen om, at B er indtruffet ikke har indflydelse p
a
sandsynligheden for at A indtrffer, d.v.s. hvis
P (A|B) = P (A),

(1.5.1)

siger vi, at A er uafhngig af B. Hvis vi f.eks. sl


ar plat og krone, og hvis vi
lader A vre hndelsen, at vi f
ar krone i frste slag, og B hndelsen, at
vi f
ar krone i andet slag, s
a er det klart, at A og B m
a vre uafhngige.
Vi ser da ogs
a, at
P (B|A) =

P (A B)
1/4
1
=
= = P (B).
P (A)
1/2
2

Ved at indstte definitionen af den betingede sandsynlighed, ses det at


(1.5.1) er kvivalent med P (A B) = P (A) P (B). Denne ligning har
den fordel, at man ikke behver at antage, at P (B) > 0, samt at den er
symmetrisk i A og B. Derfor defineres uafhngighed af to hndelser p
a
flgende m
ade.

1.5 Stokastisk uafhngighed

31

Definition 1.5.1 To hndelser A og B siges at vre stokastisk uafhngige, hvis


P (A B) = P (A) P (B).
(1.5.2)
N
ar misforst
aelser er udelukket, siger man som regel bare, at A og B
er uafhngige.
Eksempel 1.2.1 (fortsat). Betragt endnu en gang kast med to terninger. Udfaldsrummet er E = E1 E2 , hvor E1 = E2 = {1, 2, 3, 4, 5, 6},
og sandsynlighedsfunktionen er konstant (lig 1/36). Lad os antage at
den frste terning er rd og den anden sort, s
a vi kan skelne dem. Hndelser, der kun vedrrer antallet af jne p
a den rde terning, har formen A1 E2 , hvor A1 E1 , mens hndelser, der kun vedrrer den
sorte terning har formen E1 A2 , hvor A2 E2 . For eksempel er
{5} E2 = {(5, 1), (5, 2), (5, 3), (5, 4), (5, 5), (5, 6)} hndelsen, at frste
terning viser 5. To hndelser af typen B1 = A1 E2 og B2 = E1 A2 ,
hvor A1 E1 og A2 E2 , er uafhngige, som man let ser:
](A1 A2 )
36
](A1 E2 ) ](E1 A2 )
]A1 ]A2
=

= P (B1 ) P (B2 ).
=
36
36
36

P (B1 B2 ) = P (A1 A2 ) =

Som sdvanlig betegner ]M antallet af elementer i mngden M . Vi har


alts
a vist, at den sandsynlighedsteoretiske model, som vi tidligere opstillede for kast med to terninger, medfrer, at de to terninger er uafhngige.
Hvis det ikke havde vret tilfldet, m
atte der enten vre noget galt med
definitionen af stokastisk uafhngighed eller med vores model. Heldigvis
er begge OK.
Bemrk, at ovenst
aende resonnement kan gennemfres for ethvert endeligt sandsynlighedsfelt, hvor udfaldsrummet er et produkt af to mngder, og hvor sandsynlighedsfunktionen er konstant. Prv f.eks. igen at
overveje den beregning vedrrende mntkast, som blev givet lige fr Definition 1.5.1 .
2

32

Sandsynlighedsregningens grundlag

Eksempel 1.5.2 Et kort udtages tilfldigt fra et spil kort. Lad A, B og


C vre hndelserne
A = { vi trkker en klr }
B = { vi trkker et es}
C = { vi trkker en sort konge}.
Intuitivt vil man nok forvente, at A og B er uafhngige, da hndelsen
at trkke et es ikke synes at have indflydelse p
a, om dette er en klr eller
ikke. Det er da ogs
a rigtigt:
1
1
1
1 1
P (A) = , P (B) =
og P (A B) =
=
= P (A) P (B).
4
13
52
4 13
Derimod vil vi nok forvente, at information om, at vi har trukket en klr,
vil forge sandsynligheden for at trkke en sort konge. Ogs
a dette kan
bekrftes:
P (C) =

1
1
1
, s
a P (A) P (C) =
, mens P (A C) = ,
26
104
52

s
a A og C er ikke uafhngige. Vi ser videre, at
P (C|A) =

1/52
1
=
> P (C).
1/4
13

Hndelserne B og C er klart ikke uafhngige, da de er disjunkte.


Betragt nu hndelserne
D1 = { vi trkker en klr eller en hjerter }
D2 = { vi trkker et rdt kort }.
Her er det vel ikke ganske klart om D1 og D2 er uafhngige, men det er
de:
1
1
1
P (D1 ) = , P (D2 ) =
og P (D1 D2 ) = = P (D1 ) P (D2 ).
2
2
4
2

1.5 Stokastisk uafhngighed

33

Eksempel 1.5.3 En mnt kastes n gange. I dette tilflde er udfaldsrummet E = {P, K}n , og sandsynlighedsfunktionen tillgger alle 2n udfald samme sandsynlighed, nemlig 2n . Lad A vre hndelsen b
ade
plat og krone forekommer og B hndelsen der er hjst en plat. Er
A og B uafhngige? Lad os frst finde P (A). Dette er en meget stor
hndelse, men den komplementre hndelse best
ar kun af to elementer:
E\A = {KK K, P P P } (med en forh
abentlig indlysende notation). Derfor er
P (A) = 1 P (E\A) = 1 2 2n .
Da B = {KK K, P K K, KP K K, . . . , KK KP }, som har
n + 1 elementer, er
P (B) = (n + 1) 2n .
Endelig er A B hndelsen der er prcis en plat, d.v.s. A B =
{P K K, KP K K, . . . , KK KP }, som har n elementer, s
a
P (A B) = n 2n .
Da alts
a
P (A) P (B) = (n + 1)(1 2n+1 )2n ,
kommer vi til den lidt overraskende konklusion, at A og B er uafhngige,
hvis n = 3, mens de ikke er uafhngige, n
ar n = 2, 4, 5, 6, . . .. Man skal
vre varsom med hurtige konklusioner i sandsynlighedsregning.
2
Vi vil nu se p
a, hvordan man definerer uafhngighed af mere end to
hndelser. Flgende eksempel illustrerer, at man skal passe lidt p
a.
Eksempel 1.5.2 (fortsat). Igen udtages et kort tilfldigt fra et spil kort.
Lad D1 og D2 vre som tidligere, og definer
D3 = { vi trkker en spar eller en hjerter }.
At D3 og D2 er uafhngige, vises p
a helt samme m
ade, som vi viste, at
D1 og D2 er uafhngige. At ogs
a D1 og D3 er uafhngige, ses igen p
a
samme m
ade. Vi har alts
a, at de tre hndelser D1 , D2 og D3 parvist

34

Sandsynlighedsregningens grundlag

er uafhngige, men da D1 D3 D2 , kan D1 D3 og D2 ikke vre


uafhngige. Vi ser da ogs
a, at
1
P ((D1 D3 ) D2 ) = P ({ vi trkker en hjerter }) = ,
4
mens

1
P (D1 D3 ) P (D2 ) = P (D1 ) P (D3 ) P (D2 ) = .
8
Det er alts
a ikke rimeligt at sige, at hndelserne D1 , D2 og D3 er uafhngige.
2
Ovenst
aende eksempel viser, at det for tre hndelser A, B og C ikke
i almindelighed glder, at ligningerne
P (A B) = P (A)P (B), P (A C) = P (A)P (C), P (B C) = P (B)P (C)
medfrer at
P (A B C) = P (A)P (B)P (C).
Den sidste ligning m
a medtages i definitionen af stokastisk uafhngighed
af A, B og C. Vi har flgende generelle definition.
Definition 1.5.4 De n hndelser A1 , . . . , An (n 2) siges at vre indbyrdes stokastisk uafhngige, hvis der for enhver delmngde {i1 , . . . , ik }
af {1, . . . , n} glder at
P (Ai1 Aik ) = P (Ai1 ) P (Aik ).
Hvis n er stor er der tale om ganske mange ligninger. Som regel udelader man ordet stokastisk, og siger bare, at A1 , . . . , An er indbyrdes
uafhngige.
Eksempel 1.5.3 (fortsat). Da vi fr diskuterede mntkast, sagde vi, at
udfaldsrummet er E = {P, K}n , og sandsynlighedsfunktionen er konstant
lig 2n , hvilket jo ogs
a er yderst rimeligt. Nu kan vi ogs
a argumentere p
a
en anden m
ade. I stedet for fra starten at antage, at sandsynlighedsfunktionen er konstant p
a E, kan vi kan nemlig antage at mntkastene er indbyrdes uafhngige i den forstand at, hvis A1 , . . . , An er hndelser, hvor

1.5 Stokastisk uafhngighed

35

Ai kun vedrrer udfaldet af det ite mntkast, s


a er disse hndelser indbyrdes uafhngige. Hvis vi yderligere antager, at der for hvert mntkast
glder, at udfaldene plat og krone har samme sandsynlighed, flger det,
at sandsynligheden for ethvert udfald i E er 2n . Lad os njes med at betragte n = 5. Med en forh
abentlig indlysende (men ungteligt noget kritisabel) notation er P (P KP KK) = P (P )P (K)P (P )P (K)P (K) = 25 .
2
Stning 1.5.5 Lad A, B og C vre indbyrdes uafhngige hndelser.
Da glder flgende:
1) A\B og C er uafhngige,
2) A B og C er uafhngige,
3) A B og C er uafhngige,
4) E\A, B og C er indbyrdes uafhngige.
Bevis: Vi viser kun 1): P ((A\B) C) = P ((A C)\(A B C)) =
P (AC)P (AB C) = P (A)P (C)P (AB)P (C) = P (A\B)P (C).
De vrige resultater er ogs
a lette at vise. De vises i opgave 1.25.
2
Der findes naturligvis ogs
a en version af Stning 1.5.5 for n indbyrdes
uafhngige hndelser.
Det viser sig, at det ret enkle begreb uafhngighed i mange tilflde
ikke er tilstkkeligt til at beskrive mere komplekse sammenhngene mellem fnomener. I s
adanne situationer har begrebet betinget uafhngighed
vist sig srdeles nyttigt.
Definition 1.5.6 Lad A, B og C vre tre hndelser. Da siges A og B
at vre betinget uafhngige givet C s
afremt
P (A B|C) = P (A|C) P (B|C).

(1.5.3)

Begrebet betinget uafhngighed er relativt kompliceret og ikke helt


let at f
a en god intuition for. Grundig overvejelse af det flgende eksempel
og af Eksempel 1.5.8 burde imidlertid hjlpe p
a forst
aelsen.
Eksempel 1.4.5 (fortsat). Igen st
ar der to kasser p
a et bord, hvoraf den
ene indeholder 50 rde og 50 hvide kugler, mens den anden indeholder

36

Sandsynlighedsregningens grundlag

20 rde, 80 hvide og 50 sorte kugler. Igen vlger en person (uset af os)


en kasse ved tilfldig lodtrkning, udtager derefter tilfldigt en kugle
fra kassen, og oplyser os kun om kuglens farve. Vi bemrker os farven,
hvorefter personen lgger kuglen tilbage i sin kasse og derefter igen tilfldigt trkker en kugle fra den samme kasse. Vi oplyses ogs
a om den
anden kugles farve. Betragt hndelserne
A
B
K1
K2

=
=
=
=

{frste kugle er rd}


{anden kugle er rd}
{kasse nummer et blev valgt}
{kasse nummer to blev valgt.}

N
ar personen frst har valgt f.eks. kasse nummer et, er der jo bare tale
om to identiske og uafhngige forsg, som hvert best
ar i at trkke en
kugle. Derfor er hndelserne A og B betinget uafhngige givet K1 , og
P (A B|K1 ) = P (A|K1 ) P (B|K1 ) =

1 1
1
= .
2 2
4

Hndelserne A og B er selvflgelig ogs


a betinget uafhngige givet K2 .
Derimod er A og B ikke uafhngige. Lad os indse dette. Vi viste tidligere,
at P (A) = 19/60 (den gang hed den samme hndelse R). Da den anden
udtrkning p
a ingen m
ade adskiller sig fra den frste, er ogs
a P (B) =
19/60, s
a P (A)P (B) = 361/3600. Formel (1.4.3) giver, at
P (A B) = P (A B|K1 )P (K1 ) + P (A B|K2 )P (K2 )
= P (A|K1 )P (B|K1 )P (K1 ) + P (A|K2 )P (B|K2 )P (K2 )
2 2 1
482
361
1 1 1
+

=
>
= P (A)P (B).
=
2 2 2 15 15 2
3600
3600
Dette kommer ikke som en overraskelse. Vi s
a tidligere, at den oplysning,
at den frste kugle er rd, indeholder information om, hvilken kasse vi
har valgt, og dermed ogs
a om sandsynligheden for, at den anden kugle
er rd.
2
Vi kan naturligvis ogs
a definere betinget uafhngighed af mange hndelser.

1.5 Stokastisk uafhngighed

37

Definition 1.5.7 Lad A1 , . . . , An (n 2) og C vre hndelser. Da siges A1 , . . . , An at vre betinget uafhngige givet C, hvis der for enhver
delmngde {i1 , . . . , ik } af {1, . . . , n} glder at
P (Ai1 Aik |C) = P (Ai1 |C) P (Aik |C).

(1.5.4)

Eksempel 1.5.8 Et skadesforsikringsselskab har N forsikringstagere. Vi


nummererer disse 1, 2, . . . , N . Det antages, at sandsynligheden for at forsikringstager nr. k har en skade i lbet af et
ar er pk (k = 1, . . . , N ). Disse
sandsynligheder antages at vre konstante fra
ar til
ar. Nu udtager selskabet tilfldigt en forsikringstager for at flge ham i en
arrkke. Hver
forsikringstager har samme sandsynlighed 1/N for at blive udtrukket.
Den udvalgte forsikringstager flges i m
ar, hvor det noteres i hvilke
ar
vedkommende har uheld.
Lad Aj betegne hndelsen, at den tilfldigt udvalgte forsikringstager
har et uheld i det jte
ar (j = 1, . . . , m), og lad Bk vre hndelsen, at
den kte forsikringstager er blevet udvalgt (k = 1, . . . , N ). Da er alts
a
P (Bk ) = 1/N, for k = 1, . . . , N og
P (Aj |Bk ) = pk , for k = 1, . . . , N, j = 1, . . . , m.
Frst vil vi finde P (A1 Am ). Da B1 , . . . , BN er disjunkte og E =
B1 BN , har vi iflge Stning 1.4.4, at
P (A1 Am ) =

N
X

k=1

P (A1 Am |Bk )P (Bk ).

For at komme videre antages det yderligere, at det faktum, at forsikringstager nr. k har haft et uheld i et
ar, ikke influerer p
a sandsynligheden for,
at han f
ar uheld et andet
ar. Vi antager alts
a, at hndelserne A1 , . . . , Am
er betinget uafhngige givet Bk , s
a
P (A1 Am |Bk ) = P (A1 |Bk ) P (Am |Bk ) = pm
k .
Dermed er
P (A1 Am ) =

N
1 X
pm .
N k=1 k

(1.5.5)

38

Sandsynlighedsregningens grundlag

Specielt f
as for m = 1, at
P (A1 ) =

N
1 X
pk .
N k=1

Denne sandsynlighed er alts


a gennemsnittet af pk -erne. Lad os betegne
denne gennemsnitlige sandsynlighed for uheld med p, d.v.s.
p =

N
1 X
pk .
N k=1

Der glder naturligvis ogs


a, at P (A2 ) = = P (Am ) = p. For m = 2 er
(1.5.5)
N
1 X
P (A1 A2 ) =
p2 ,
N k=1 k
hvorfor den betingede sandsynlighed for A2 givet A1 er
P (A2 |A1 ) =

N
P (A1 A2 )
1 X
p2 .
=
P (A1 )
pN k=1 k

Lad os nu sammenligne sandsynligheden P (A2 ) = p med den betingede


sandsynlighed P (A2 |A1 ):
1

P (A2 |A1 ) P (A2 ) = p

= p

= p

= p1
= p1

N
1 X
p2 p2
N k=1 k

N
1 X
p2k + p2 2
p2
N k=1

N
N
1 X
1 X
2
2
p + p 2
p
pk
N k=1 k
N k=1

N
1 X
(p2k + p2 2
ppk )
N k=1
N
1 X
(pk p)2 0.
N k=1

Vi ser, at P (A2 |A1 ) = P (A2 ) hvis og kun hvis alle forsikringstagere er


lige uheldige, alts
a hvis pk = p for alle k = 1, . . . , N . Eller med andre

1.6 Sammenfatning

39

ord: Hvis nogle er uheldigere end andre, s


a er A1 og A2 ikke uafhngige
hndelser. Hvis den udvalgte forsikringstager har et uheld det frste
ar,
forges hans sandsynlighed for at f
a et uheld det nste
ar. Dette fnomen
synes m
aske at modsige vores antagelse om, at uheld eller ej i forskellige

ar ikke influerer p
a hinanden, men der er faktisk tale om helt det samme
fnomen, som vi s
a, da vi trak to kugler fra en tilfldig kasse i Eksempel
1.4.5 ovenfor. Hvis den tilfldigt udvalgte forsikringstager har et uheld
frste
ar, s
a tyder denne information p
a at vedkommende hrer til blandt
de mindre heldige.
2

1.6

Sammenfatning

I dette kapitel har vi defineret en sandsanlighedsmodel helt generelt.


Mngden af mulige udfald kaldes udfaldsrummet, og en delmngde af
udfaldsrummet kaldes en hndelse. Sandsynligheden for en hndelse,
d.v.s. sandsynligheden for et udfald i en delmngde af udfaldsrummet,
angives ved hjlp af et sandsynlighedsm
al. Et sandsynlighedsm
al har
vrdier i [0, 1] og skal opfylde to simple og naturlige betingelser. Ud fra
disse udledte vi nogle vigtige regneregler for sandsynlighedsm
al. Derefter
indfrte vi to begreber, som er srdeles nyttige, n
ar man i praksis skal
opbygge sandsynlighedsteoretiske modeller: Betingede sandsynligheder
og stokastisk uafhngighed. Vi har ogs
a vret inde p
a de vigtigste regneregler for betingede sandsynligheder.

1.7

Opgaver

1.1 En mnt kastes tre gange, og vi interesserer os for antallet af gange


man f
ar krone. Opstil en sandsynlighedsteoretisk model, d.v.s. angiv de mulige udfald og den tilsvarende sandsynlighedsfunktion.
Beregn dernst sandsynlighederne for flgende hndelser
{i alle kast viser mnten krone}
{i mindst et kast viser mnten krone}
{i prcis et kast viser mnten krone}.

40

Sandsynlighedsregningens grundlag

1.2 Tre personer udvlges tilfldigt. Vi interesserer os for hvor mange


af disse, der er fdt p
a en sndag. Opstil en sandsynlighedsteoretisk
model.
1.3 Der sl
as et slag med to terninger. Hvad er sandsynligheden for
flgende hndelser? (a) Summen af jnene er strre end eller lig
10. (b) De to terninger viser det samme. (c) Der er mindst en sekser.
(d) Der er netop en sekser.
1.4 Hvad er sandsynligheden for ved et slag med tre terninger at summen af jnenen er 10?
1.5 To personer vlges tilfldigt. (a) Hvad er sandsynligheden for, at
de har samme fdselsdag? (b) Hvad er sandsynligheden for at de
har forskellige fdselsdage?
1.6 En terning kastes to gange. Find sandsynligheden for hndelsen,
at der forekommer mindst en sekser. Find sandsynligheden for at
der forekommer enten mindst en sekser eller mindst en toer. Vink:
Betragt ogs
a hndelsen, at der forekommer mindst en toer.
1.7 En mnt kastes 10 gange. Hvad er sandsynligheden for hndelsen,
at plat forekommer mindst to gange?
1.8 Syv personer vlges tilfldigt. (a) Hvad er sandsynligheden for at
de alle er fdt p
a en sndag? (b) Hvad er sandsynligheden for at
de alle er fdt p
a den samme ugedag? (c) Hvad er sandsynligheden
for at de er fdt p
a hver sin ugedag?
1.9 Et spil kort blandes, og tretten kort trkkes. Hvad er sandsynligheden for hverken at f
a billedkort eller esser?
1.10 Lad A og B vre hndelser, for hvilke P (A) = 0.6, P (B) = 0.5
og P (A B) = 0.9. Find sandsynlighederne for flgende hndelser
AB, E\A, E\B, (E\A)(E\B) og (E\A)(E\B). Her betegner
E som sdvanligt udfaldsrummet.
1.11 Et tal trkkes tilfldigt i intervallet mellem nul og en (se Eksempel 1.3.1). Hvad er sandsynligheden for, at frste decimal efter
kommaet er et lige tal? Vink: Benyt (1.3.14).

1.7 Opgaver

41

1.12 Hvad er i et slag med fem terninger sandsynligheden for at f


a mindst
en sekser? Vink: det er lettere at udregne sandsynligheden for den
komplementre hndelse.
1.13 Lad E vre en vilk
arlig mngde, og lad P vre et sandsynlighedsm
al p
a E. Vis at der for tre vilk
arlige delmngder af E glder,
at
P (A B C) = P (A) + P (B) + P (C)
P (A B) P (B C) P (A C) + P (A B C).
Vink: Benyt 1.3.11 nogle gange.
1.14 Hvad er i et slag med tre terninger sandsynligheden for at mindst to
terninger viser det samme? Vink: Lad A12 betegne den hndelse at
terning nr. 1 og 2 viser det samme, og definer A13 og A23 tilsvarende.
Benyt nu opgave 1.13.
1.15 Den franske adelsmand Chevalier de Mere, som levede i det syttende
arhundrede, elskede hazardspil. Desvrre havde han problemer med sandsynlighedsregningen. Pascal skrev 29. juli 1654 om
ham, at de Mere er en intelligent mand, men han er ikke matematiker, og det er, som De ved, en stor mangel. De Mere havde
f
aet den lyse ide, at sandsynligheden for at f
a mindst en sekser i
1
fire slag med en terning skulle vre 4 6 = 23 . Han spillede nu i
overensstemmelse med denne beregning, men da han tabte alle sine
penge, inds
a han, at han havde taget fejl. Han fandt derfor sine pistoler frem, pudsede dem og skd sig. Hvori l
a hans fejltagelse, og
hvad er det korrekte resultat?
De Mere mente ogs
a, at sandsynligheden for, at f
a mindst en dobbelt sekser (Sonnez) i 24 kast med to terninger var den samme
som sandsynligheden for at f
a mindst en sekser i fire slag med en
terning. Er det rigtigt?
1.16 Vis formel (1.3.14).
1.17 Betragt kast med to terninger. Vi antager, at den ene terning er
hvid og den anden sort.

42

Sandsynlighedsregningens grundlag
1) Hvad er den betingede sandsynlighed for, at summen af jnene
er 12, givet at summen er mindst 11?
2) Hvad er den betingede sandsynlighed for, at de to terninger viser
det samme, givet at summen er 7?
3) Hvad er den betingede sandsynlighed for, at den hvide terning
viser 3, givet at den sorte terning viser 5?
4) Hvad er den betingede sandsynlighed for, at terningen med det
mindste antal jne viser 2, givet at terningen med det strste antal
jne hjst viser 5?

1.18 En mnt kastes 10 gange.


(1) Hvad er sandsynligheden for at f
a krone den tiende gang, givet
at de ni frste kast giver plat?
(2) Hvad er sandsynligheden for at f
a krone den tiende gang, givet
at netop ni af de ti kast giver plat?
1.19 Betragt igen eksemplet med de 25 brn og deres fdselsdage (Eksempel 1.2.2). Hvad er sandsynligheden for, at der ikke er to brn
med samme fdselsdag, givet at ingen af brnene er fdt i januar?
1.20 En kasse indeholder 10 rde og 2 hvide kugler. Kugler trkkes
tilfldigt uden tilbagelgning, indtil man f
ar en hvid kugle. Hvad
er sandsynligheden for, at der er 5 kugler tilbage i kassen efter
dette?
1.21 En mnt kastes tre gange. Hver gang mnten viser krone kastes en
terning. Hvad er sandsynligheden for at f
a mindst en sekser ved
denne metode? Vink: Lad An , (n = 0, 1, 2, 3) vre hndelsen, at
mnten viser krone netop n gange, og benyt Stning 1.4.4.
1.22 En terning kastes. Dernst kastes en mnt det antal gange, som
terningen viser. Hvad er sandsynligheden for, at f
a prcis en krone.
1.23 Et gartneri dyrker stedmoderplanter. Sandsynligheden for anlg
for bl
a blomster er 0.7, for gule blomster 0.2 og for hvide blomster
0.1. Sandsynligheden for at en plante kommer i groning er 0.95
for planter med bl
a blomster, mens denne sandsynlighed er 0.9 b
ade
for planter med gule blomster og for planter med hvide blomster.

1.7 Opgaver

43

(1) Hvad er sandsynligheden for at en tilfldigt udvalgt plante


kommer i groning?
(2) Hvad er sandsynligheden for, at en plante, der er kommet i
groning, f
ar gule blomster?
1.24 Betragt igen kast med to terninger. Vi antager, at den ene terning
er hvid og den anden sort. Hvilke par blandt flgende hndelser er
uafhngige?
A
B
C
D
F

=
=
=
=
=

{den hvide terning viser 4}


{den sorte terning viser 1}
{terningen med det hjeste antal jne viser 4}
{summen af jnene er 5}
{summen af jnene er 7}

Overvej, om det stemmer overens med din intuition.


1.25 Vis p
astandene 2) 4) i Stning 1.5.5.
1.26 Lad P vre et sandsynlighedsm
al p
a mngden E, og lad A vre
en delmngde af E. Vis at A og E er uafhngige hndelser.
1.27 Vis, at hvis en hndelse A er uafhngig af sig selv, s
a er P (A) lig
nul eller en.
1.28 En terning kastes. Lad A vre hndelsen, at vi f
ar 1, 2 eller 3,
og lad B vre hndelsen, at vi f
ar 1 eller 4. Vis, at A og B er
uafhngige.
1.29 Et tal trkkes tilfldigt i intervallet mellem nul og en (se Eksempel 1.3.1). Betragt hndelserne A = [0, 0.5], B = [0.1, 0.7] og
C = [0.4, 0.9]. Undersg, om A og B er uafhngige, om A og C er
uafhngige og om B og C er uafhngige.
1.30 Lad A, B og C vre hndelser. Antag, at A og B er uafhngige,
samt at A og C er uafhngige. Kan man deraf slutte, at A og B C
er uafhngige?

44

Sandsynlighedsregningens grundlag

1.31 En terning kastes to gange. Vis, at hndelserne


A = {ulige antal jne i frste kast}
B = {ulige antal jne i andet kast}
C = {ulige sum}.
parvist er uafhngige, men at de tre hndelser ikke er uafhngige.
1.32 Antag, at A1 , . . . , An er uafhngige hndelser. Vis, at E\A1 , A2 ,
. . . , An er uafhngige hndelser, og slut af dette resultat, at E\A1 ,
. . . , E\An er uafhngige. Benyt til slut det viste til at bevise, at
P (A1 An ) = 1 hvis og kun hvis P (Ai ) = 1 for mindst et i.

Kapitel 2
Stokastiske variable
Ofte er vi egentlig ikke synderligt interesserede i det store basale udfaldsrum E. I stedet er interessen koncentreret om visse aspekter ved udfaldet,
som kan udtrykkes ved tal. Det s
a vi eksempler p
a i Kapitel 1. Hvis vi
for eksempel kaster en mnt n gange, og kun interesserer os for antallet
af plat og krone, s
a er vi egentlig helst fri for at beskftige os med de
n
2 sekvenser af n K-er og P -er, hvis det er muligt. Helt galt bliver det,
hvis vi, som vi senere vil gre, forstiller os, at vi kaster mnten uendelig
mange gange. I dette kapitel vil vi indfre begrebet en stokastisk variabel, som formaliserer den meget almindelige situation, at det aspekt ved
et stokastiske fnomen, som vi interesserer os for, kan udtrykkes ved et
tal eller eventuelt ved en vektor i IRn . N
ar man frst har vnnet sig til
at arbejde med stokastiske variable, er de et uhyre nyttigt hjlpemiddel ved opbygningen og analysen af matematiske modeller for tilfldige
fnomener.

2.1

Stokastiske variable og deres fordeling

Vi antager, at et basalt udfaldsrum E med et tilhrende sandsynlighedsm


al P er givet. Da er en stokastisk variabel en funktion fra E ind i
de reelle tal IR. Stokastiske variable betegnes som regel med store bogstaver, f.eks. X.
Eksempel 1.5.3 (fortsat). Antag at vi kaster en mnt n gange. Vi lader
udfaldsrummet E og sandsynlighedsm
alet vre som tidligere. Et udfald

46

Stokastiske variable

kan betegnes med (R1 , . . . , Rn ), hvor hvert Ri enten er P eller K. Hvis vi


kun er interessseret i antallet af gange vi f
ar udfaldet krone, er flgende
stokastiske variable den rette at betragte
X(R1 , . . . , Rn ) = ]{j|Rj = K}.

(2.1.1)
2

En stokastisk variabel afhnger alts


a af udfaldet e p
a det basale udfaldsrum E. N
ar vi frst er kommet godt i gang, vil vi imidlertid konsekvent udelade argumentet e, og skrive X for vrdien af X i stedet for
X(e). Hvis A er en delmngde af IR, vil vi ogs
a skrive {X A}, n
ar
vi egentlig mener hndelsen {e E|X(e) A} (d.v.s. originalmngden eller urbilledet af A ved funktionen X). Dette gr vi ikke kun for
at undg
a en kluntet notation, men ogs
a for at understrege, at vi som
regel kan glemme alt om det basale udfaldsrum E. Det intuitive indhold
i begrebet stokastisk variabel er ikke en funktion defineret p
a et basalt
udfaldsrum, men derimod en reel variabel, der er tilfldig, s
aledes at
forst
a at vi ikke p
a forh
and ved, hvad dens vrdi er, men vi ved, hvad
sandsynligheden er for, at den antager denne eller hine vrdi.
Vi kan beskrive den tilfldige variation af X i IR ved for enhver
delmngde A af IR at angive sandsynligheden for at X ligger i A, d.v.s.
ved at angive
PX (A) = P (X A)
(2.1.2)
Bemrk, at vi yderligere har forenklet notationen ved at skrive P (X
A) i stedet for P ({X A}). Funktionen PX fra delmngderne af IR
ind i [0, 1] kaldes fordelingen af X. Den er et sandsynlighedsm
al p
a IR.
For at indse det skal vi checke, at PX opfylder (1.3.2) og (1.3.3). Da
{X IR} = X 1 (IR) = E, er PX (IR) = P (E) = 1, og hvis A og B er
disjunkte, er {X A} og {X B} ogs
a disjunkte og opfylder, at
{X A B} = {X A} {X B}
(overvej hvorfor). Derfor er PX (A B) = P ({X A} {X B}) =
P ({X A}) + P ({X B}) = PX (A) + PX (B). Her har vi naturligvis
brugt at P opfylder (1.3.2) og (1.3.3).
Mange gange kan man umiddelbart angive Xs fordeling uden tanke p
a
noget basalt udfaldsrum E. I s
adanne tilflde, er det bedst at glemme

2.1 Stokastiske variable og deres fordeling

47

alt om, hvad E er, og vi vil komme med udsagn som lad X vre en
stokastisk variabel med fordeling .... Hvis man vil have formalismen p
a
plads, kan man i s
adanne situationer definere E = IR og lade X vre
den identiske afbildning. Til andre tider, har man derimod brug for E
for at kunne argumentere for, hvad fordelingen af X er. Ogs
a n
ar man
betragter flere stokstiske variable, er det nyttigt at have dem defineret p
a
et flles bagvedliggende E, n
ar man skal studere sammenhngen mellem
dem.
Eksempel 1.5.3 (fortsat). Vi kaster en mnt n gange, og lader X vre
den stokastiske variabel givet ved (2.1.1), som angiver antallet af kast med
udfaldet krone. Det er klart at X m
a tilhre mngden {0, 1, . . . , n}. Vi
kan derfor angive Xs fordeling ved at angive sandsynlighederne P (X = k)
for k = 0, 1, . . . , n. Da alle udfald i E har samme sandsynlighed, skal vi
for at finde P (X = k) bare finde ud af, hvor mange af disse der har
udfaldet krone prcis k gange. Dette er et kombinatorisk sprgsm
al,
som er behandlet i Appendix B. Det er nemlig antallet af m
ader, vi kan
udtage en delmngde med k elementer
af en mngde med n elementer.
 
Svaret er binomialkoefficienten nk , s
a Xs fordeling er givet ved
!

n n
2 , k = 0, 1, . . . , n.
P (X = k) =
k
2
Lad os lige give nogle flere meget enkle eksempler p
a stokastiske variable.
Eksempel 1.2.1 (fortsat). Vi kaster endnu en gang to terninger, den ene
rd og den anden sort. Udfaldsrummet kan skrives som E = {(r, s)|r, s =
1, . . . , 6}. Her flger nogle eksempler p
a stokastiske variable.
R(r, s)
S(r, s)
X(r, s)
Y (r, s)
Z(r, s)

=r
=s
=r+s
=rs
=rs

antal jne p
a den rde terning
antal jne p
a den sorte terning
summen af jnene
det mindste antal jne
det strste antal jne

48

Stokastiske variable

Her og senere betegner xy og xy henholdsvis det mindste og det strste


af de to reelle that x og y. D.v.s. x y = max{x, y} og x y = min{x, y}.
Det er let at angive fordelingen af disse stokastiske variable. S
aledes
kan R kun antage vrdierne 1, 2, . . . , 6, og hver af disse antages med
sandsynligheden 1/6. Det kunne vi naturligvis godt have fundet ud af
uden at g
a omkring E.
Bemrk at det bagvedliggende udfaldsrum E ikke er entydigt. Hvis vi
kun er interesserede i R, kunne vi have valgt {1, 2, . . . , 6} med en konstant
sandsynlighedsfunktion som vores bagvedliggende udfaldsrum, men det
er lige s
a rigtigt at benytte E. Vi kunne s
amnd ogs
a have benyttet et
endnu strre udfaldsrum, f.eks. med plads til endnu nogle terningkast, et
par mntkast samt udtrkning af et kort, og udstyret med et passende
sandsynlighedsm
al, uden at dette havde ndret fordelingen af R. Det
basale udfaldsrum kan generelt sagtens gres strre, end hvad man i den
konkrete situation har brug for. Det skal bare altid vre mindst stort
nok til at omfatte alt, hvad der skal bruges til at studere ens konkrete
problem.
Den stokastiske variable X forudstter i modstning til R og S at vi
har hele E (eller en endnu strre mngde) som basalt udfaldsrum. Denne
stokastiske variable kan antage vrdierne 2, 3, . . . , 12 med sandsynligheder, som blev givet i Eksempel 1.2.3. Man kunne selvflgelig bare have
specificeret disse sandsynligheder, men det ville vre lidt kunstigt. Det
ville i hvert fald ikke vre klart, hvor de kom fra. Hvis man vil studere
samspillet mellem R og X, har man ogs
a brug for E. Lseren opfordres
til selv at overveje fordelingerne af Y og Z.
2
Hvis X er en stokastisk variabel, og t er en funktion fra IR ind i IR,
s
a er Y = t(X) ogs
a en stokastisk variabel. Dette er klart, for da X
er en funktion fra det underliggende udfaldsrum E ind i IR, og da Y
er den sammensatte funktion t X, er Y ogs
a en funktion fra E ind i
IR. Den stokastiske variable Y har selvflgelig sin egen fordeling PY , der
imidlertid kan findes ud fra fordelingen af X, som vi tidligere betegnede
med PX . Der glder nemlig for A IR, at
PY (A) = P (Y A) = P (t(X) A)
= P (X t1 (A)) = PX (t1 (A)),

(2.1.3)

2.2 Fordelingsfunktionen

49

hvor t1 (A) betegner originalmngden af A ved t, d.v.s. t1 (A) = {x


IR|t(x) A}. Sagt med ord, best
ar t1 (A) af de reelle tal, som afbildes
ind i A ved t. Det skal understreges, at t alts
a ikke behver at vre
injektiv, s
aledes at den har en invers funktion. Notationen kan forvirre,
da den inverse funktion, hvis den eksisterer, traditionelt betegnes med
t1 . I de srligt pne tilflde, hvor den inverse funktion eksisterer, er
t1 (A) naturligvis blot billedet af A ved funktionen t1 , s
a notationen er
konsistent. Resultatet (2.1.3) kaldes transformationsstningen for fordelinger. Man siger at Y er en transformation af X ved transformationen
t.

2.2

Fordelingsfunktionen

Lad X vre en stokastisk variabel. I reglen er det ikke praktisk at skulle


angive P (X A) for alle mulige delmngder A af IR. Vi har derfor
brug for lettere m
ader at specificere fordelinger p
a. En generelt anvendelig fremgangsm
ade er at angive f ordelingsf unktionen for X. Denne er
defineret ved
F (x) = P (X x),

for x IR.

(2.2.1)

Fordelingsfunktionen er en funktion fra IR ind i [0, 1]. Hvis vi angiver


fordelingsfunktionens vrdi for alle x, har vi alts
a sandsynligheden for
at X tilhrer ethvert interval af formen (, x]. Dette er faktisk nok til
at specificere hele fordelingen, men det har vi ikke forudstninger for at
vise for generelle fordelinger. Det gr ikke s
a meget, for vi vender tilbage
til dette sprgsm
al senere for de to vigtige typer af fordelinger, som vi
isr vil beskftige os med i dette kursus. Lad os se p
a et par typiske
eksempler.

Eksempel 2.2.1 Lad X vre den stokastiske variable, som angiver antallet af jne ved kast med en terning. Da X antager vrdierne {1, 2, 3, 4,

50

Stokastiske variable

5, 6}, hver med sandsynlighed 1/6, er fordelingsfunktionen for X givet ved

F (x) =

0 hvis
1
6 hvis
2
6 hvis
3
6 hvis
4
6 hvis
5
6 hvis
1 hvis

x<1
1x<2
2x<3
3x<4
4x<5
5x<6
6x

0.0

0.2

0.4

0.6

0.8

1.0

Fordelingefunktionen vokser i spring fra 0 til 1. Den er kontinuert bortset fra springpunkterne, hvor den er kontinuert fra hjre, men ikke fra
venstre. Da P (X = i) = F (i) F (i 1) for i = 1, . . . , 6 er det her klart,
at F fuldstndigt specificerer fordelingen af X.

Figur 2.2.1: Fordelingsfunktionen for en stokastisk variabel, der angiver


antallet af jne ved kast med en terning.

2.2 Fordelingsfunktionen

51

Fordelingen af X kaldes ligefordelingen p


a mngden {1, 2, 3, 4, 5, 6}.
Mere generelt kaldes en fordeling p
a en endelig delmngde M af IR eller
IRn med konstant sandsynlighedsfunktion for ligefordelingen p
a M , og en
stokastisk variabel med denne fordeling siges at vre ligefordelt p
a M.
2
Eksempel 1.3.1 (fortsat). Lad os udtrkke et tilfldigt tal mellem nul
og en, som forklaret i Afsnit 1.3, og lad X vre den stokastiske variable,
som angiver det udtrukne tal. Hvis x [0, 1], er P (X (, x]) =
P (X [0, x]) = x. Derfor er fordelingsfunktionen for X

0 hvis x < 0
F (x) = x hvis 0 x 1

1 hvis x > 1.

0.0

0.2

0.4

0.6

0.8

1.0

(2.2.2)

0.5

0.0

0.5

1.0

1.5

Figur 2.2.2: Fordelingsfunktionen for en stokastisk variabel, hvis vrdi


er et tilfldigt tal mellem nul og en.
Denne funktion vokser kontinuert fra 0 til 1. Den er strengt voksende i
intervallet [0, 1].
2

52

Stokastiske variable

I begge disse eksempler vokser fordelingsfunktionen svagt fra 0 til


1. Dette er generelle egenskaber ved en fordelingsfunktion. Lad X vre
en stokastisk variabel med fordelingsfunktion F . At F er svagt voksende
(ogs
a somme tider kaldet ikke-aftagende) er let at se, for hvis x y, s
a
er (, x] (, y], hvilket iflge (1.3.8) medfrer at
F (x) = PX ((, x]) PX ((, y]) = F (y).
Fordelingsfunktionen F opfylder ogs
a, at
lim F (n) = 1

(2.2.3)

lim F (n) = 0,

(2.2.4)

og
n

men det vil vi ikke vise generelt. Vi skal senere se, at disse grnseresultater holder for to vigtige typer af fordelinger.
Det kan omvendt bevises, at enhver funktion F fra IR ind i [0, 1],
som er svagt voksende, og som opfylder (2.2.3) og (2.2.4) bestemmer et
sandsynlighedsm
al p
a IR (eller en delmngde af IR). Det vil vi dog ikke
bevise.
Eksempel 2.2.2 I dette eksempel skal vi se, hvordan vi kan bruge fordelingsfunktionen til at argumentere os frem til, hvad fordelingen af en bestemt stokastisk variabel er. Vi betragter udsendelse af -partikler fra et
radioaktivt materiale. Lad X vre den stokastiske variable, som angiver
ventetiden mellem udsendelsen af to p
a hinanden flgende -partikler.
Her er det bedst ikke at tnke for meget over, hvad det bagved liggende
udfaldsrum er. Det er givetvis meget komplekst.
I hvert fald er X > 0. Endvidere m
a det vre rimeligt at antage, at
atomerne i det radioaktive materiale ikke kan huske, hvor lang tid der
er g
aet, siden den sidste -partikel blev udsendt. Det kan matematisk
formuleres s
aledes:
P (X > t + s|X > t) = P (X > s)

(2.2.5)

for alle t, s 0. Sagt med ord: Hvis vi ved, at der ikke er udsendt nogen -partikel i tidsintervallet [0, t], s
a er sandsynligheden for, at der

2.2 Fordelingsfunktionen

53

ikke udsendes nogen i de nste s tidsenheder (alts


a i [t, t + s]), lig sandsynligheden for, at der ikke udsendes nogen -partikel i tidsintervallet
[0, s]. Bemrk, at (2.2.5) kun giver mening for alle t > 0, hvis vi antager, at P (X > t) > 0 for alle t > 0. Det er jo rimeligt nok, s
a
det antager vi. Lad F betegne fordelingsfunktionen for X, og definer
G(x) = 1 F (x) = P (X > x). Da
P (X > t + s |X > t) =

P (X > t + s)
,
P (X > t)

kan (2.2.5) skrives som


G(s) =

G(t + s)
,
G(t)

s
a
G(t + s) = G(t)G(s)
for alle t, s 0. St nu L(x) = log(G(x)), hvilket kan gres, da G(x) > 0.
Vi har da, at
L(t + s) = L(t) + L(s)
for alle t, s 0, og da G(0) = P (X > 0) = 1, er L(0) = 0, s
a for ethvert
t > 0 er
L(t + h) L(t)
L(h) L(0)
=
(2.2.6)
h
h
for alle h > 0. Hvis vi antager, at L er differentiabel i 0 med differentialkvotient (da L er aftagende, er 0), finder vi ved at lade h g
a
0
mod nul i (2.2.6), at L er differentiabel for alle t > 0 med L (t) = .
Derfor er
L(t) = t + c
for en eller anden konstant c. Da imidlertid L(0) = 0, er c = 0, s
a L(t) =
t for t > 0. Vi kan nu regne tilbage til F , idet F (x) = 1 exp(L(x)).
Fordelingsfunktionen for X er alts
a
F (x) =

1 ex hvis x > 0
0
hvis x 0.

54

Stokastiske variable

0.0

0.2

0.4

0.6

0.8

1.0

Eksponentialfordelingen

Figur 2.2.3: Eksponentialfordelingens fordelingsfunktionen.

Fordelingen med denne fordelingsfunktion kaldes eksponentialfordelingen med parameter . Lg mrke til, at vi i udledningen af eksponentialfordelingen benyttede at en stokastisk variabel, som beskriver en
ventetid med denne fordeling, ikke har nogen hukommelse om, hvor lnge
vi har ventet. Man siger somme tider lidt lst, at eksponentialfordelingen
ikke har nogen hukommelse.
2
Der findes ogs
a en transformationsstning for fordelingsfunktioner,
som for strengt monotone funktioner t giver sammenhngen mellem fordelingsfunktionerne for de stokastiske variable X og Y = t(X), som vi
betegner med FX og FY . Der mindes om, at FX (x) = P (X x) og
FY (x) = P (Y x). Antag, at P (X I) = 1 for et interval I IR. Intervallet I kan vre endeligt eller uendeligt og lukket,
abent eller halv
abent.
Om t antages det, at den er en strengt monoton kontinuert funktion fra

2.2 Fordelingsfunktionen

55

I ind i IR. Da er J = t(I) et interval. Definer venstre endepunkt v og


hjre endepunkt h for intervallet J ved
v = inf J og h = sup J.
Eventuelt kan v vre , ligesom h eventuelt kan vre . Med t1
betegnes den inverse funktion til t, som eksisterer og er defineret p
a J,
da t er antaget at vre strengt monoton. Det er klart, at P (Y J) = 1.
Stning 2.2.3 Hvis t er strengt voksende, er

FY (y) =

hvis y < v

FX (t1 (y)) hvis y J


1

(2.2.7)

hvis y > h.

Hvis t er strengt aftagende, er

FY (y) =

hvis y < v

1 FX (t1 (y)) + P (X = t1 (y)) hvis y J


1

(2.2.8)

hvis y > h.

Bevis: Hvis t er voksende, er


FY (y) = P (Y y) = P (t(X) y) = P (X t1 (y)) = FX (t1 (y))
for y J. Hvis t er aftagende, er
FY (y) = P (Y y) = P (t(X) y) = P (X t1 (y))
= 1 P (X < t1 (y)) = 1 [FX (t1 (y)) P (X = t1 (y))]
for y J. I den sidste beregning har vi benyttet (1.3.9) og (1.3.7).

2
Det er her egentlig vigtigere at mrke sig bevisteknikken end selve
resultatet. Den er ofte nyttig. Stning 2.2.3 glder ogs
a, n
ar t ikke er
kontinuert, men i s
a fald er J ikke noget interval, og FY er konstant
udenfor J.

56

Stokastiske variable

Eksempel 2.2.4 Lad os igen udtrkke et tilfldigt tal mellem nul og


en, som forklaret i Afsnit 1.3, og lad X vre den stokastiske variable,
som angiver det udtrukne tal. Antag nu, at vi tegner et kvadrat med sidelngde X. Da er arealet af dette kvadrat en stokastisk variabel, nemlig
Y = X 2 . Fordelingsfunktionen for Y for y [0, 1] findes let:
FY (y) = P (Y y) = P (X 2 y) = P (X

y) = FX ( y) = y,

idet vi bruger (2.2.2). Da Y [0, 1], er FY (y) = 0 for y < 0, og FY (y) = 1


for y > 1. Disse resultater kunne vi naturligvis umiddelbart have skrevet
op v.h.a. (2.2.7) og (2.2.2).
2

2.3

Fler-dimensionale stokastiske variable

Ofte har man brug for at studere flere stokastiske variable p


a en gang.
Vi skal derfor i dette afsnit behandle n-dimensionale stokastiske vektorer af formen X = (X1 , . . . , Xn ), hvor X1 , . . . , Xn er sdvanlige endimensionale stokastiske variable, som alle er definerede p
a det samme
bagvedliggende udfaldsrum E. S
aledes er X alts
a en funktion fra E ind i
IRn . Dette bekymrer vi os i reglen ikke meget om, men det er dog vigtigt
at huske, at der kan vre sammenhnge mellem de enkelte koordinater
af X, da de jo afhnger af det samme basale udfald e E. Somme tider
kaldes en n-dimensional stokastisk vektor ogs
a for en n-dimensional stokastisk variabel. N
ar vi taler om flere stokastiske variable p
a en gang, vil
det altid vre underforst
aet, at de er defineret p
a det samme bagvedliggende udfaldsrum E.
Eksempel 1.2.1 (fortsat). Ved kast med en rd og en sort terning er
det basale udfaldsrum E = {(r, s)|r, s = 1, . . . , 6}. Betragt de stokastiske
variable R(r, s) = r, S(r, s) = s og T (r, s) = 7 r. De er alle ligefordelte
p
a {1, 2, 3, 4, 5, 6}, og man kunne m
aske fristes til at tro, at der ikke er
den store forskel p
a fordelingen af de to stokastiske vektorer (R, S) og
(R, T ), men det er der. F.eks. er
P (R 4, S 4) =

16
36

= 49 ,

2.3 Fler-dimensionale stokastiske variable

57

mens
P (R 4, T 4) = P (R {3, 4}) = 31 .
(vis disse udsagn). Her bruger vi den forenklede notation P (R 4, S 4)
i stedet for at skrive P ({R 4} {S 4}) eller det, der er vrre. Det
vil vi som regel gre, ogs
a ved hjere-dimensionale stokastiske vektorer.
2
Ovenst
aende eksempel viser, at to stokastiske vektorer (X1 , X2 ) og
(Y1 , Y2 ) sagtens kan have den egenskab, at X1 og Y1 har samme fordeling,
og X2 og Y2 har samme fordeling, men at der findes en delmngde A af
IR2 , s
a
P ((X1 , X2 ) A) 6= P ((Y1 , Y2 ) A).
Det betyder, at sandsynligheden P ((X1 , X2 ) A) ikke kan beregnes ud
fra fordelingerne af X1 og X2 . Dette er baggrunden for, at vi definerer
den simultane fordeling for den stokastiske vektor X = (X1 , . . . , Xn ) som
sandsynlighedsm
alet p
a IRn givet ved
PX (A) = P ((X1 , . . . , Xn ) A),
hvor A er en delmngde af IRn . At PX (A) er et sandsynlighedsm
al indses
p
a samme m
ade som ved en en-dimensional stokastisk variabel.
De n fordelinger af de enkelte koordinater X1 , . . . , Xn , betragtet separat som en-dimensionale stokastiske variable, kaldes for de marginale
fordelinger af X1 , . . . , Xn for at understrege, at de ikke er hele sandheden
om den stokastiske vektor X = (X1 , . . . , Xn ).
Eksempel 1.2.1 (fortsat). Betragt igen de stokastiske variable R, S
og T . Den simultane fordeling af (R, S) er en ligefordeling p
a mngden {1, 2, 3, 4, 5, 6} {1, 2, 3, 4, 5, 6}, d.v.s. alle elementer i mngden har
samme sandsynlighed. Derimod er den simultane fordeling af (R, T ) en
ligefordeling p
a mngden {(1, 6), (2, 5), (3, 4), (4, 3), (5, 2), (6, 1)}. Alle de
marginale fordelinger er, som tidligere nvnt, ligefordelinger p
a mngden {1, 2, 3, 4, 5, 6}.
2

58

Stokastiske variable

Man kan ogs


a definere en simultan fordelingsfunktion for en n-dimensional stokastisk vektor. Det er funktionen fra R n ind i [0, 1] givet ved
F (x1 , . . . , xn ) = P (X1 x1 , . . . , Xn xn ).

(2.3.1)

De n fordelingsfunktioner af de enkelte koordinater X1 , . . . , Xn , betragtet


separat som en-dimensionale stokastiske variable, kaldes for de marginale
fordelingsfunktioner.
Fordelingsfunktioner for stokastiske vektorer benyttes isr i teoretiske
overvejelser, og de vil ikke blive brugt meget i disse noter. Lad os her
slutte med at bemrke, at man ligesom for en-dimensionale stokastiske
variable kan vise, at den simultane fordelingsfunktion for en stokastisk
vektor X bestemmer den simultane fordeling af X entydigt.

2.4

Uafhngige stokastiske variable

Vi har tidligere diskuteret begrebet uafhngighed af hndelser. Nu vil


vi ogs
a definere, hvad vi skal forst
a ved uafhngige stokastiske variable.
Definition 2.4.1 De stokastiske variable X1 , . . . , Xn siges at vre uafhngige, hvis
P (X1 A1 , . . . , Xn An ) = P (X1 A1 ) P (Xn An )

(2.4.1)

for alle A1 , . . . , An , hvor hver Ai er en delmngde af IR.


Vi siger ogs
a somme tider at X1 , . . . , Xn er stokastisk uafhngige, n
ar
det er ndvndigt for at undg
a misforst
aelser. En anden m
ade at udtrykke definitionen p
a er, at X1 , . . . , Xn er uafhngige, hvis hndelserne
{X1 A1 }, . . . , {Xn An } er indbyrdes uafhngige for alle A1 , . . . , An ,
hvor hver Ai er en delmngde af IR (overvej at dette er samme definition
som Definition 2.4.1). Specielt er to stokastiske variable X og Y uafhngige, hvis hndelserne {X A} og {Y B} er uafhngige for ethvert
valg af delmngderne A og B af IR.
Eksempel 1.2.1 (fortsat). Lad R, S og T vre defineret som tidligere.
Bemrk, at for alle delmngder A1 og A2 af M = {1, 2, 3, 4, 5, 6} er
P (R A1 , S A2 ) =

]A1 ]A2
= P (R A1 )P (S A2 )
36

2.4 Uafhngige stokastiske variable

59

Heraf flger det, at det for ethvert par B1 og B2 af vilk


arlige delmngder
af IR glder, at
P (R B1 , S B2 ) = P (R B1 M, S B2 M )
= P (R B1 M )P (S B2 M )
= P (R B1 )P (S B2 ),
da B1 M og B2 M er delmngder af M . Alts
a er R og S uafhngige.
Derimod har vi tidligere set, at
P (R 4, T 4) = 31 ,
hvilket er forskelligt fra P (R 4)P (T 4) = 94 . Derfor er R og T
ikke uafhngige. Da T = 7 R, kommer dette ikke som nogen stor
overraskelse.
2
Stning 2.4.2 To stokastiske variable X1 og X2 er stokastisk uafhngige hvis og kun hvis det for ethvert par A1 og A2 af delmngder af IR
med P (X2 A2 ) > 0 glder, at
P (X1 A1 |X2 A2 ) = P (X1 A1 ).

(2.4.2)

Bevis: Dette er en enkel konsekvens af definitionen af betinget sandsynlighed og af (2.4.1). Hvis nemlig X1 og X2 er uafhngige, er
P (X1 A1 , X2 A2 ) = P (X1 A1 )P (X2 A2 ),

(2.4.3)

og (2.4.2) flger ved at dividere med P (X2 A2 ). Hvis omvendt (2.4.2)


glder, flger (2.4.3) ved at gange p
a begge sider med P (X2 A2 ).
Definitionen af uafhngighed krver ogs
a, at (2.4.3) holder, n
ar P (X2
A2 ) = 0. Men i dette tilflde er det klart, at (2.4.3) er opfyldt, da der
st
ar nul p
a begge sider af lighedstegnet.
2
Stning 2.4.2 siger, at uanset hvad vi f
ar at vide om X2 , s
a vil dette
ikke ndre vore forventninger til udfaldet af X1 , n
ar X1 og X2 er uafhngige.

60

Stokastiske variable

Stning 2.4.3 Lad X1 , . . . , Xn vre uafhngige stokastiske variable.


Da glder flgende:
1) Hvis i , i = 1, . . . , n er funktioner fra IR ind i IR, er de stokastiske
variable 1 (X1 ), . . . , n (Xn ) uafhngige.
2) Hvis k < n og er en funktion fra IRnk ind i IR, er de stokastiske
variable X1 , . . . , Xk , (Xk+1 , . . . , Xn ) uafhngige.
3) Lad k og vre som i 2), og lad vre en funktion fra IRk ind i IR. Da
er de stokastiske variable (X1 , . . . , Xk ) og (Xk+1 , . . . , Xn ) uafhngige.
Bevis: B
ade 1) og 3) flger af 2), men da vi ikke vil vise 2) generelt,
viser vi alligevel 1). Hvis A1 . . . , An er delmngder af IR, er
P (1 (X1 ) A1 , . . . , n (Xn ) An )
1
= P (X1 1
1 (A1 ), . . . , Xn n (An ))
1
= P (X1 1
1 (A1 )) P (Xn n (An )))
= P (1 (X1 ) A1 ) P (n (Xn ) An ).

Dermed er 1) vist.
Vi vil her kun vise 2), n
ar hver af de stokastiske variable X1 , . . . , Xn
kun kan antage endeligt mange vrdier. Lad M vre den endelige delmngde af IRnk , i hvilken den stokastiske vektor (Xk+1 , . . . , Xn ) antager sine vrdier, og lad A1 , . . . , Ak , A vre delmngder af IR. Da best
ar
1
1
(A)M kun af endeligt mange elementer. Det vil sige, at (A)M
(j)
kan skrives p
a formen {(xk+1 , . . . , xn(j) )|j = 1, . . . , N }. Derfor f
ar vi ved
at anvende (1.3.14) to gange, at
P (X1 A1 , . . . , Xk Ak , (Xk+1 , . . . , Xn ) A)
= P (X1 A1 , . . . , Xk Ak , (Xk+1 , . . . , Xn ) 1 (A))
=

N
X

j=1

N
X

j=1

(j)

P (X1 A1 , . . . , Xk Ak , (Xk+1 , . . . , Xn ) = (xk+1 , . . . , x(j)


n ))
(j)

P (X1 A1 ) P (Xk Ak )P ((Xk+1 , . . . , Xn ) = (xk+1 , . . . , x(j)


n ))

= P (X1 A1 ) P (Xk Ak )

N
X

(j)

P ((Xk+1 , . . . , Xn ) = (xk+1 , . . . , x(j)


n ))

j=1

= P (X1 A1 ) P (Xk Ak )P ((Xk+1 , . . . , Xn ) 1 (A))


= P (X1 A1 ) P (Xk Ak )P ((Xk+1 , . . . , Xn ) A)

2.5 Sammenfatning

61

Dermed er 2) vist.
2
Vi vil senere give et bevis for punkt 2) i Stning 2.4.3 for de to
vigtigste typer af fordelinger.

2.5

Sammenfatning

I dette kapitel har vi indfrt begreberne stokastisk variabel og stokastisk


vektor, som formaliserer den meget almindelige situation, at vi ikke er
interesserede i hele udfaldsrummet, men kun i et tal eller eventuelt en
vektor, som afhnger af udfaldet. Det er meget vigtigt at blive god til
at regne med stokastiske variable og deres fordeling. Fordelingen er et
sandsynlighedsm
al p
a IR eller IRn , som beskriver den tilfldige variation
af den stokastiske variable eller den stokastiske vektor. Et vigtigt hjlpemiddel til at beskrive og behandle fordelingen af en stokastisk variabel er
fordelingsfunktionen. Vi har blandt andet bevist en transformationsstning for fordelingsfunktioner. Hvis vi kender fordelingsfunktionen for en
stokastisk variabel X, fortller transformationsstningen os, hvad fordelingen er af den stokastiske variable t(X), som fremkommer ved at
anvende funktionen t p
a udfaldet af X.
En stokastisk vektor i IRn kan opfattes som n stokastiske variable.
Det er naturligt at sprge, om der er en sammenhng mellem disse stokastiske variables tilfldige variation. En s
adan sammenhng beskrives
ved den simultane fordeling af de n stokastiske variable. Den tilfldige
variation af en enkelt af de n stokastiske variable set isoleret beskrives
ved den marginale fordeling af denne stokastiske variable. Normalt er
de marginale fordelinger ikke nok til at beskrive den simultane variation
af alle n stokastiske variable. Hvis de n stokastiske variable er uafhngige, er der dog en simpel sammenhng givet ved (2.4.1) mellem den
simultane fordeling og de n marginale fordelinger. Derfor spiller antagelser om uafhngighed ofte en vigtig rolle ved opbygningen af stokastiske
modeller.

62

2.6

Stokastiske variable

Opgaver

2.1 Betragt kast med to terninger. Hvad er fordelingerne af de to stokastiske variable, som angiver antallet af jne p
a henholdsvis terningen
med det mindste antal jne og terningen med det strste antal jne?
Dette er de to stokastiske variable, som i Eksempel 1.2.1 i Afsnit
2.1 blev kaldt Y og Z.
2.2 Tre personer udvlges tilfldigt. Hvad er fordelingen af antallet
blandt disse, som er fdt p
a en sndag?
2.3 Lad X vre en stokastisk variabel, hvis fordeling er givet ved
P (X = 1) = 0.12 P (X = 2) = 0.08 P (X = 3) = 0.20
P (X = 4) = 0.11 P (X = 5) = 0.19 P (X = 6) = 0.14
P (X = 7) = 0.06 P (X = 8) = 0.10,
mens P (X = x) = 0, n
ar x
/ {1, 2, 3, 4, 5, 6, 7, 8}. Lad t vre en
funktion fra IR ind i IR, som opfylder, at
t(1)
t(4)
t(6)
t(8)

=
=
=
=

t(2) = t(3) = 1
t(5) = 2
t(7) = 3
4.

Hvordan t er defineret udenfor mngden {1, 2, 3, 4, 5, 6, 7, 8} er ligegyldigt. Definer en ny stokastisk variabel ved Y = t(X). Hvad er
fordelingen af Y ? Tegn fordelingsfunktionen for Y .
2.4 Lad X vre en stokastisk variabel, som kun kan antage vrdierne
1,2 og 3, og hvis fordeling er givet ved P (X = 1) = P (X = 2) =
P (X = 3) = 13 . Tegn fordelingsfunktionen for X og for den stokastiske variable Y = 1/X.
2.5 Lad X1 og X2 vre stokastiske variable, som begge kun kan antage vrdierne 0 og 1. Lad deres marginale fordelinger vre givet
ved P (X1 = 0) = 0.4, P (X1 = 1) = 0.6, P (X2 = 0) = 0.3 og
P (X2 = 1) = 0.7. Antag frst at den simultane fordeling af den

2.6 Opgaver

63

stokastiske vektor (X1 , X2 ) er givet ved P ((X1 , X2 ) = (0, 0)) =


0.12, P ((X1 , X2 ) = (1, 0)) = 0.18, P ((X1 , X2 ) = (0, 1)) = 0.28
og P ((X1 , X2 ) = (1, 1)) = 0.42, og undersg, om X1 og X2 under denne antagelse er uafhngige. Antag dernst at den simultane fordeling af (X1 , X2 ) er givet ved P ((X1 , X2 ) = (0, 0)) =
0.15, P ((X1 , X2 ) = (1, 0)) = 0.15, P ((X1, X2 ) = (0, 1)) = 0.25 og
P ((X1 , X2 ) = (1, 1)) = 0.45, og undersg ogs
a for denne simultane
fordeling, om X1 og X2 er uafhngige. Gr til slut rede for, at
begge simultane fordelinger er i overensstemmelse med de angivne
marginale fordelinger for X1 og X2 .
2.6 Lad M vre en endelig delmngde af IR og lad X vre en stokastisk
variabel, som er ligefordelt p
a M (d.v.s. X antager kun vrdier i M ,
og P (X = x) er den samme for alle x M ). Lad endvidere t vre
en funktion fra IR in i IR, og definer en ny stokastisk variabel ved
Y = t(X). Hvilke betingelser skal t opfylde, for at Y er ligefordelt
p
a t(M )?
2.7 Lad X vre en stokastisk variabel, som kun antager vrdier i intervallet [0, 1], og hvis fordeling er givet ved det sandsynlighedsm
al,
der blev studeret i Eksempel 1.3.3. Find fordelingsfunktionen for
X? Definer en ny stokastisk variabel ved Y = X 2 . Hvad er sandsynligheden for, at Y tilhrer intervallet [y1 , y2 ], hvor 0 < y1 < y2 < 1?
Find fordelingsfunktionen for Y .
2.8 Antag at et tal udtrkkes tilfldigt mellem nul og en (se Eksempel 1.3.1), og lad X vre den stokastiske variable, som angiver det
udtrukne tal. Da er fordelingsfunktionen for X givet ved (2.2.2).
Definer en ny stokastisk variabel ved Y = log(X)/, hvor > 0.
I hvilket interval antager Y sine vrdier? Hvad er fordelingsfunktionen for Y ? Sammenlign resultatet med Eksempel 2.2.2.
2.9 Betragt kast med to terninger. Hvad er den simultane fordeling
for den to-dimensionale stokastiske vektor, hvis frste koordinat,
Y , angiver antallet af jne p
a terningen med det mindste antal
jne, mens den anden koordinat, Z, angiver antallet af jne p
a
terningen med det strste antal jne? Er Y og Z uafhngige? (De
to stokastiske variable Y og Z, blev defineret i Eksempel 1.2.1).

64

Stokastiske variable

2.10 Lad X vre en stokastisk variabel og lad t vre en funktion fra IR


ind i IR. Definer en ny stokastisk variabel ved Y = t(X), og antag,
at X og Y er stokastisk uafhngige. Vis, at Y s
a er stokastisk
uafhngig af sig selv, og at der derfor for enhver hndelse A glder,
at P (Y A) = P (Y A)2 . Slut heraf, at der findes et a, s
a
fordelingsfunktionen for Y har formen
F (y) =

1 for y a
0 for y < a.

Vink: Husk fordelingsfunktionens egenskaber, ikke mindst (2.2.3)


og (2.2.4). Det flger af opgaven, at t(X) med sandsynlighed 1 er
konstant lig a.
2.11 Vis, at 2) i Stning 2.4.3 medfrer 1) og 3) i samme stning.

Kapitel 3
Fordelinger p
a endelige
mngder
I dette kapitel vil vi studere stokastiske variable, som kun kan antage
endeligt mange vrdier, og deres fordeling. Ved i frste omgang at njes
med at diskutere s
adanne stokastiske variable, undg
ar vi nogle matematiske komplikationer. Vi kan derfor indfre en rkke vigtige begreber uden
at det vsentlige drukner i tekniske detaljer. I de flgende kapitler bliver
vi s
a ndt til at tage h
and om disse tekniske problemer. I indevrende
kapitel vil vi ogs
a indfre og behandle nogle vigtige fordelinger, som ofte
forekommer i praksis.
Lad os begynde med nogle ikke srligt dybsindige betragtninger om
et forhold, som det er vigtigt at gre sig klart. Lad P vre et sandsynlighedsm
al p
a IRn og lad M vre en delmngde af IRn . Vi siger, at P
er koncentreret p
a M , hvis P (M ) = 1. Tilsvarende siges en stokastisk
variabel eller vektor X at vre koncentreret p
a M , hvis dens fordeling er
koncentreret p
a M , alts
a hvis P (X M ) = 1. Hvis P er koncentreret p
a
M , er det nok at angive sandsynligheden for alle delmngder af M . For en
vilk
arlig B IRn er nemlig P (B) = P (B\M )+P (BM ) = P (BM ), da
B\M IRn \M og dermed P (B\M ) P (IRn \M ) = 1 P (M ) = 0. Det
er let at vise, at hvis vi kun betragter P som en funktion af delmngderne
af M , s
a er P et sandsynlighedsm
al p
a M (overvej). Omvendt kan man
udvide et sandsynlighedsm
al P p
a M til et sandsynlighedsm
al p
a hele IRn
n
ved for en vilk
arlig delmngde B IR at definere P (B) = P (B M ).

66

Fordelinger p
a endelige mngder

Det er ikke svrt at se, at den s


aledes definerede funktion er et sandsynlighedsm
al (bevis det). Alt efter hvad der er mest praktisk i en given
situation, kan vi derfor frit opfatte et sandsynlighedsm
al, som er koncentreret p
a M , enten som et sandsynlighedsm
al p
a IRn eller som et
sandsynlighedsm
al p
a M.

3.1

Sandsynlighedsfunktioner

Som nvnt i indledningen skal vi i dette kapitel beskftige os med sandsynlighedsm


al, som er koncentrerede p
a en endelig delmngde M af IR
n
eller IR . Det er somme tider nyttigt at nummerere M s elementer, alts
a
at skrive M p
a formen M = {x1 , . . . , xk }. Som omtalt i afsnit 1.2 er der
til et sandsynlighedsm
al, som er koncentreret p
a den endelige mngde
M , knyttet en s
akaldt sandsynlighedsfunktion.
Definition 3.1.1 En funktion p fra en endelig mngde M ind i intervallet [0, 1], som opfylder, at
X

p(x) = 1

(3.1.1)

xM

kaldes en sandsynlighedsfunktion p
a M.
P

as,
Med xM p(x) menes summen over alle de vrdier af p(x), som opn
P
n
ar x gennemlber M , d.v.s. ki=1 p(xi ).

Stning 3.1.2 Der er en entydig korrespondance mellem sandsynlighedsfunktionerne p


a M og sandsynlighedsm
alene, som er koncentreret p
a
M . S
aledes svarer der til enhver sandsynlighedsfunktion p et sandsynlighedsm
al P givet ved
X
p(x)
(3.1.2)
P (A) =
xA

for enhver delmngde A af M . Ligeledes svarer der til ethvert sandsynlighedsm


al P en sandsynlighedsfunktion p givet ved
p(x) = P ({x})
for ethvert x M .

(3.1.3)

3.1 Sandsynlighedsfunktioner

67

Bevis: Lad p vre en sandsynlighedsfunktion p


a M og definer P ved
(3.1.2). Vi skal da vise, at P er et sandsynlighedsm
al p
a M . At der for
enhver delmngde A af M glder, at 0 P (A) 1, er ikke svrt at se,
og at P (M ) = 1 flger af (3.1.1). For to disjunkte delmngder af M , A
og B, er
P (A B) =

p(x) =

p(x) +

xA

xAB

p(x) = P (A) + P (B).

xB

Dermed er det vist, at P er et sandsynlighedsm


al p
a M.
Hvis vi omvendt ved (3.1.3) definerer en funktion p ud fra et sandsynlighedsm
al P p
a M , skal det vises, at p er en sandsynlighedsfunktion p
a M . At p(x) [0, 1] er klart, da P er et sandsynlighedsm
al. Da
M = {x1 } {xk }, flger det af (1.3.14) at
k
X
i=1

p(xi ) =

k
X
i=1

P ({xi }) = P (M ) = 1.

Alts
a er p en sandsynlighedsfunktion p
a M . Hvis vi ud fra denne sandsynlighedsfunktion p konstruerer et sandsynlighedsm
al ved (3.1.2), er det
klart, at vi genfinder det sandsynlighedsm
al, som vi startede med.
2
Bemrk, at vi ogs
a kan skrive (3.1.2) p
a flgende m
ade
P (A) =

k
X

p(xi )1A (xi ),

i=1

hvor vi har benyttet indikatorfunktionen for A, se (A.1.15).


Der er grund til igen at understrege, at sandsynlighedsfunktionens
vrdi i et punkt x netop er lig den sandsynlighed, som det tilsvarende
sandsynlighedsm
al tillgger hndelse {x}, alts
a sandsynligheden for udfaldet x. Denne sandsynlighed kaldes ogs
a punktsandsynligheden i x. Hvis
man har lyst, kan man godt definere p udenfor M ved at stte p(x) = 0
for x
/ M.
Vi har allerede set flere eksempler p
a sandsynlighedsm
al p
a endelige
mngder. Det enkleste eksempel er den s
akaldte ligefordeling p
a den
endelige mngde M , hvor sandsynlighedsmassen er fordelt jvnt ud over
M , d.v.s. den tilsvarende sandsynlighedsfunktion er konstant p
a M . Dens
konstante vrdi m
a, for at (3.1.1) kan opfyldes, vre 1/]M .

68

Fordelinger p
a endelige mngder

Meget ofte kaldes et sandsynlighedsm


al p
a IR eller IR n en sandsynlighedsfordeling eller blot en fordeling. Det vil vi ogs
a gre i det flgende.

3.2

Binomialfordelingen

I dette afsnit betragter vi situationen, hvor et forsg med to mulige udfald gentages n gange uafhngigt af hinanden. Vi er specielt interesserede
i fordelingen af antallet af gange det ene af de to udfald forekommer.
Fordelingen af dette antal kaldes en binomialfordeling. Et eksempel er
antal krone i n kast med en mnt. Et andet er antal defekte produkter i en stikprve p
a n fra en lbende produktion. Der vil blive givet
flere eksempler i kursets statistikdel. Her kommer en prcis definition af
binomialfordelingen.
Definition 3.2.1 Lad X1 , X2 , . . . , Xn vre uafhngige stokastiske variable med vrdier i {0, 1}, som alle har samme fordeling givet ved
P (Xi = 1) = p, P (Xi = 0) = 1 p
for et givet tal p mellem 0 og 1. Fordelingen af summen S = X1 +
X2 + . . . + Xn kaldes da binomialfordelingen med antalsparameter n og
sandsynlighedsparameter p.
Det er klart, at binomialforelingen er koncentreret p
a mngden {0, 1,
. . . , n}.
Eksempel 3.2.2 En mnt kastes 20 gange. Antallet af kast med udfaldet
krone er binomialfordelt med antalsparameter 20 og sandsynlighedsparameter 1/2.
2
For at finde sandsynlighedsfunktionen for binomialfordelingen, finder
vi frst sandsynlighedsfunktionen for den stokastiske vektor (X1 , . . . , Xn ),
som er koncentreret p
a mngden {0, 1}n . For xi {0, 1} er
P (Xi = xi ) = pxi (1 p)1xi ,

3.2 Binomialfordelingen

69

hvor i = 1, . . . , n, og da X1 , . . . , Xn er uafhngige, er
P (X1 = x1 , . . . , Xn = xn ) = P (X1 = x1 ) P (Xn = xn )
= px1 ++xn (1 p)n(x1 ++xn )
Lad nu t vre funktionen givet ved t(x1 , . . . xn ) = x1 + + xn . Vi skal
da finde fordelingen af den stokastiske variable S = t(X1 , . . . , Xn ). For
s {0, . . . , n} er


P (S = s) = P (X1 , . . . , Xn ) t1 ({s})
=

P ((X1 , . . . , Xn ) = (x1 , . . . , xn ))

(x1 ,...,xn )t1 ({s})

(x1 ,...,xn

)t1 ({s})

ps (1 p)ns

= ]t1 ({s})ps (1 p)ns ,


hvor vi har benyttet (3.1.2) (eller om man vil (1.3.14)), samt at
t1 ({s}) = {(x1 , . . . , xn ) {0, 1}n |x1 + + xn = s}.
Som sdvanlig betegnes antallet af elementer i mngden t1 ({s}) med
]t1 ({s}). Vi mangler derfor blot at finde dette antal. Da
t1 ({s}) = {(x1 , . . . , xn ) {0, 1}n |netop s af xi -erne er lig 1},
er ]t1 ({s}) lig antallet af delmngder med s elementer af
 en mngde
n
med n elementer, men det er netop binomialkoefficienten s = n!/(s!(n
s)!), se Appendix B. Vi har dermed bevist flgende stning.
Stning 3.2.3 Binomialfordelingens sandsynlighedsfunktion er givet ved
!

n x
p(x) =
p (1 p)nx ,
x
for x {0, 1, . . . , n}.
P

(3.2.1)

 

Da S er koncentreret p
a {0, 1, . . . , n}, m
a ni=0 ni pi (1 p)ni = 1,
hvilket er i overensstemmelse med binomialformlen, se Appendix B.

70

Fordelinger p
a endelige mngder

Eksempel 3.2.4 Sandsynligheden for at f


a en h
and p
a tretten kort uden
esser er (52 4)(13) /52(13) = 0.3038 (jfr. opgave 1.9). Hvad er sandsynligheden for, at denne kedelige hndelse for en bestemt spiller indtrffer
prcis 3 gange i lbet af 10 spil? Da antallet er binomialfordelt med
antalsparameter 10 og sandsynlighedsparameter 0.3038, er svaret
!

10
0.30383 (1 0.3038)103 = 0.2667.
3

0.00

0.05

0.10

0.15

0.20

0.25

0.30

Binomialfordelingen

10

Figur 3.2.1: Sandsynlighedsfunktionen for binomialfordelingen med antalsparameter 10 og sandsynlighedsparameter 0.3038. I Eksempel 3.2.4
er det fordelingen af antal es-lse hnder i 10 spil.

2
Eksempel 3.2.5 En person s
ar 25 planter, som hver med sandsynlighed
1
f
ar bl
a blomster og med sandsynlighed 43 f
ar gule blomster. Da er
4

3.2 Binomialfordelingen

71

antallet af planter med bl


a blomster binomialfordelt med antalsparameter
25 og sandsynlighedsparameter 14 , og sandsynligheden for at 10 planter
f
ar bl
a blomster er
!

25
315 425 = 0.0417.
10

0.00

0.05

0.10

0.15

0.20

Binomialfordelingen

10

15

20

25

Figur 3.2.2: Sandsynlighedsfunktionen for binomialfordelingen med antalsparameter 25 og sandsynlighedsparameter 14 . I Eksempel 3.2.5 er det
fordelingen af antal planter med bl
a blomster.
2
Stning 3.2.6 Lad S1 og S2 vre uafhngige stokastiske variable, hvor
Si er binomialfordelt med antalsparameter ni og sandsynlighedsparameter
p, i = 1, 2. Da er S1 + S2 binomialfordelt med antalsparameter n1 + n2
og sandsynlighedsparameter p.
Bevis: Se Opgave 3.5.
2

72

Fordelinger p
a endelige mngder

Det er vigtigt at gre sig klart, at de to binomialfordelinger i Stning


3.2.6 har samme sandsynlighedsparameter. Hvis det ikke er tilfldet, er
summen ikke binomialfordelt. Overvej hvorfor.

3.3

Den hypergeometriske fordeling

Den model, som blev studeret i forrige afsnit dkker den situation, hvor
man udtager et antal stikprver, som alle har samme sandsynlighed for de
to mulige udfald. Af og til kommer man ud for, at stikprver udtrkkes af
sm
a populationer og at en person eller genstand, som er blevet udtrukket
en gang ikke igen kan udtrkkes. Da vil det faktum, at der allerede
er udtrukket et vist antal stikprver, p
avirke fordelingen af den nste
udtrkning. Denne type situation, som kaldes stikprveudtagning uden
tilbagelgning, kan formuleres ved hjlp af farvede kugler p
a flgende
m
ade.
En kasse indeholder N kugler, af hvilke R er rde og H = N R
er hvide. En stikprve p
a n kugler udtages. Vi skal studere fordelingen
af antallet af rde kugler i denne stikprve. Denne fordeling kaldes den
hypergeometriske fordeling med parametre N , R og n. Bemrk, at hvis
vi n gange havde trukket en kugle og derefter lagt den tilbage i kassen fr vi trak igen, s
a ville antallet af rde kugler blandt n udtrukne
have vret binomialfordelt med antalsparameter n og sandsynlighedsparameter R/N (overvej hvorfor denne p
astand er rigtig). Dette kaldes
stikprveudtagning med tilbagelgning. Pointen i dette afsnit er at undersge effekten af ikke at lgge de udtrukne kugler tilbage i kassen. I
resten af afsnittet betragtes alts
a situationen uden tilbagelgning.
Lad X betegne antallet af rde kugler blandt de n udtrukne kugler. Da
er X en stokastisk variabel som er koncentreret p
a mngden {0, 1, . . . , n}.
Det er ikke altid, at X kan antage alle disse vrdier. Det kan X kun n
ar
n R og n H. Hvis for eksempel n > R, er der ikke tilstrkkeligt
mange rde kugler i kassen til, at X kan antage vrdien n.
Lad os nu finde sandsynlighedsfunktionen for den hypergeometriske
fordeling. Sandsynligheden for hndelsen {X = x} er nul, hvis x > R
eller hvis n x (antal hvide kugler i stikprven) er strre end N R.
Vi vil derfor antage, at (n (N R)) 0 x R. Da rkkeflgen af
de udtagne kugler ikke spiller nogen rolle, kan vi opfatte stikprven som

3.3 Den hypergeometriske fordeling

73

en delmngde med n elementer af mngden {1, 2, . . . , N } af kugler. Vi


kan ogs
a antage, at de frste R kugler, {1, . . . R}, er de rde, mens de
sidste N R kugler, {R + 1, . . . , N } er de hvide. Vi ser da, at der er Nn
mulige udfald, som alle er lige sandsynlige. Vi har alts
a en ligefordeling p
a
n-delmngderne af {1, 2, . . . , N }. Sandsynligheden for hndelsen {X =
x} er derfor forholdet mellem antallet af gunstige n-delmngder (alts
a
delmngder med netop x rde og n x hvide kugler), og antallet af
mulige n-delmngder, Nn . For at tlle hvor mange af delmngderne,
der har netop x rde og n x hvide kugler, bemrker vi at en gunstig ndelmngde er beskrevet ved en x-delmngde af {1, . . . , R} og en (n x)delmngde
adanne par af delmngder er
 af
 {R
 + 1,. . . , N }. Antallet af s
R
N R

abenbart x nx . Vi har derfor vist flgende stning.

Stning 3.3.1 Den hypergeometriske fordelings punktsandsynligheder er


givet ved
 

P (X = x) =

R
x

N R
nx
N
n

 

(3.3.1)

for (n (N R)) 0 x R, mens P (X = x) er nul for alle andre


vrdier af x.
Sandsynlighed P (X = x) kan ogs
a skrives p
a formen
R(x) (N R)(nx) n!
x!(n x)!N (n)
!
n R(x) (N R)(nx)
=
,
x
N (n)

P (X = x) =

som gr sammenligning med binomialfordelingen lettere og involverer lidt


frre fakulteter.
Eksempel 3.3.2 13 kort trkkes tilfldigt fra et almindeligt spil kort.
Hvad er sandsynligheden for at netop 7 af dem er spar? Svaret er punktsandsynligheden i punktet 7 for den hypergeometriske fordeling med parametrene N = 52, R = 13 og n = 13, alts
a
!

13 13(7) 39(6)
= 0.0088.
7
52(13)
2

74

Fordelinger p
a endelige mngder

Eksempel 3.3.3 En kasse indeholder 1000 rde og 2000 hvide kugler. 5


kugler udtages. Hvad er sandsynligheden for at netop 2 af disse er rde?
Svaret er
!

5 1000(2) 2000(3)
(1000 999) (2000 1999 1998)
= 10
= 0.3295.
(5)
2
3000
3000 2999 2998 2997 2996
Det er ret oplagt, at man i nstsidste udtryk kan erstatte 999 med 1000,
1999 med 2000 osv. uden at ndre ret meget p
a resultatet. Hvis vi gr
det, opn
ar vi flgende approksimative resultat
 2  3

1
10002 20003
= 10
P (X = 2) ' 10
5
3000
3

2
3

= 0.3292,

som netop er sandsynligheden for udfaldet S = 2, n


ar S er binomialfordelt med antalsparameter 5 og sandsynlighedsparameter 1/3. Dette er
prcis det svar, vi ville f
a, hvis udtagningen af de 5 kugler var foreg
aet
med tilbagelgning. Intuitivt flger denne approksimation af, at n
ar der
er tilstrkkeligt mange kugler i kassen i forhold til det antal, der udtrkkes, kan det ikke gre megen forskel, om vi lgger de f
a udtrukne kugler
tilbage igen eller ej.
2
Eksempel 3.3.3 illustrerer flgende generelle resultat.
Stning 3.3.4 (Approksimation med en binomialfordeling). Lad X vre
hypergeometrisk fordelt med parametre N , R og n. Hvis stikprvestrrelsen n holdes fast, mens parametrene N og R g
ar imod undelig p
a en
s
adan m
ade, at R/N konvergerer mod et tal p (0, 1), vil
!

n x
p (1 p)nx .
P (X = x)
x
Bevis: Vi finder efter en simpel omskrivning, at
!







R
n
R1
Rx+1

P (X = x) =

x
N
N 1
N x+1
"
!#


N R
N R1
N R (n x) + 1

.
N x
N x1
N n+1

3.4 Transformation af fordelinger

75

Da




R1
Rx+1

N 1
N !x + 1
!
!#
 x "
1 2R1
1 (x 1)R1
R
1 R1

=
N
1 N 1
1 2N 1
1 (x 1)N 1

R
N

og




N R
N R1
N R (n x) + 1
N R nx

=
N x
N x1
N n+1
N
!
!#
"

1 (N R)1
1 (n x 1)(N R)1
1

1 xN 1
1 (x + 1)N 1
1 (n 1)N 1
ses det, at under grnseovergangen vil den frste af de kantede parenteser
i udtrykket for P (X = x) g
a imod px , medens den anden kantede parentes
nx
konvergerer mod (1 p) . Dette viser stningen.
2

3.4

Transformation af fordelinger

Hvis p er sandsynlighedsfunktion for en stokastisk vektor, som er koncentreret p


a en endelig mngde, er der naturligvis relationer mellem den
simultane sandsynlighedsfunktion p og sandsynlighedsfunktionerne for de
tilsvarende marginale fordelinger. Flgende stning giver disse relationer
for en to-dimensional fordeling. Der glder et helt tilsvarende resultat for
hjere-dimensionale fordelinger, som den interesserede studerende let selv
kan formulere og bevise.
Stning 3.4.1 Lad (X1 , X2 ) vre en to-dimensional stokastisk vektor,
hvor Xi er koncentreret p
a den endelige mngde Ti , i = 1, 2, og lad
p : T1 T2 7 [0, 1] vre sandsynlighedsfunktionen for den simultane
fordeling af (X1 , X2 ). Da er sandsynlighedsfunktionerne for de marginale
fordelinger af X1 og X2 , p1 : T1 7 [0, 1] og p2 : T2 7 [0, 1], givet ved
p1 (x1 ) =

x2 T2

p(x1 , x2 )

(3.4.1)

76

Fordelinger p
a endelige mngder

og
p2 (x2 ) =

p(x1 , x2 ).

(3.4.2)

x1 T1

Bevis: Vi viser kun (3.4.1), da de to resultater er helt symmetriske. For


x T1 flger det af (3.1.2), at
P (X1 = x) = P ((X1 , X2 ) {x} T2 )
X

p(x1 , x2 ) =

(x1 ,x2 ){x}T2

p(x, x2 ).

x2 T2

2
Der glder flgende transformationsstning for fordelinger p
a endelige mngder, som Stning 3.4.1 er et specialtilflde af.
Stning 3.4.2 Lad (X1 , . . . , Xn ) vre en n-dimensional stokastisk vektor koncentreret p
a den endelige mngde T IRn . Betegn den simultane sandsynlighedsfunktion med p, og lad vre en afbildning fra T
ind i IRk . Da er sandsynlighedsfunktionen for den stokastiske vektor Y =
(X1 , . . . , Xn )er givet ved
q(y) =

(x1 ,...,xn ) 1 ({y})

p(x1 , . . . , xn ) hvis y (T ).

(3.4.3)

Udenfor (T ) har q vrdien nul.


Bevis: For y (T ) er
P (Y = y) = P ((X1 , . . . , Xn ) 1 ({y}))
=

p(x1 , . . . , xn ).

(x1 ,...,xn ) 1 ({y})

2
I beviset for Stning 3.2.3 forkom faktisk en anvendelse af Stning
3.4.2. Prv at g
a gennem dette bevis igen. Her flger endnu to eksempler.

3.4 Transformation af fordelinger

77

Eksempel 3.4.3 Lad X vre binomialfordelt med antalsparameter n


og sandsynlighedsparameter p. Da er Y = X/c, hvor c er et positivt reelt
tal, koncentreret p
a mngden T = {0, 1/c, . . . , n/c} med sandsynlighedsfunktion
!
n cy
p (1 p)ncy for y T.
q(y) =
cy
Videre er Z = X 2 koncentreret p
a mngden Te = {i2 |i = 1, . . . , n} med
sandsynlighedsfunktion
!

n
q(z) = p z (1 p)n z for z Te .
z

2
Den nste vigtige stning flger ogs
a af transformationsstningen
Stning 3.4.2.
Stning 3.4.4 Lad (X1 , X2 ) vre en to-dimensional stokastisk vektor,
hvor Xi s fordeling er koncentreret p
a {0, 1, . . . ni } (ni IIN), i = 1, 2. Lad
endvidere p vre sandsynlighedsfunktionen for den simultane fordeling af
(X1 , X2 ). Da er den stokastiske variable Y = X1 + X2 koncentreret p
a
mngden {0, 1, . . . , n1 + n2 }, og dens sandsynlighedsfunktion er givet ved
q(y) =

y
X

j=0

p(j, y j),

(3.4.4)

n
ar y {0, 1, . . . , n1 + n2 }.
Bevis: Resultatet flger af Stning 3.4.2 med (x1 , x2 ) = x1 + x2 , idet
1 ({y}) = {(0, y), (1, y 1), . . . , (y 1, 1)(y, 0)}.
2

78

Fordelinger p
a endelige mngder

3.5

Polynomialfordelingen

Polynomialfordelingen, som ogs


a kaldes multinomialfordelingen, er den
naturlige generalisering af binomialfordelingen til situationer, hvor det
enkelte forsg har mere end to mulige udfald.
Definition 3.5.1 Lad X1 , X2 , . . . , Xn vre uafhngige stokastiske variable med vrdier i {1, 2, . . . , k}, og antag at de alle har samme fordeling
givet ved
P (Xi = j) = pj
(j = 1, . . . , k), hvor p1 , . . . , pk er givne tal i [0, 1], som opfylder at p1 +
. . . + pk = 1. Definer den stokastiske vektor (S1 , . . . , Sk ) ved
Sj = ]{i|Xi = j}.
Fordelingen af (S1 , . . . , Sk ) kaldes en polynomialfordeling af orden k med
antalsparameter n og sandsynlighedsparametre p1 , . . . , pk .
Det er ikke svrt at indse, at den stokastiske vektor kun antager
vrdier i flgende delmngde af IINk0
Dk (n) =
(3.5.1)
{(s1 , . . . , sk ) | si {0, . . . , n}, i = 1, . . . , k, s1 + + sk = n}.
Det er ogs
a praktisk at have et navn til variationsomr
adet af sandsynlighedsparametrene. Derfor defineres mngden
k = {(p1 , . . . , pk ) | pi [0, 1], i = 1, . . . , k, p1 + + pk = 1}. (3.5.2)
Bemrk, at vi for k = 2 har
(S1 , S2 ) = (S1 , n S1 ),
hvor S1 er antal gange hndelsen Xi = 1 er indtruffet. Derfor er S1
binomialfordelt med antalsparameter n og sandsynlighedsparameter p1 .
Polynomialfordelingen af orden 2 er s
aledes essentielt en binomialfordeling.

3.5 Polynomialfordelingen

79

Eksempel 3.5.2 En terning kastes 20 gange. Lad Si vre antallet af


kast, hvor udfaldet blev i jne, i = 1, . . . , 6. Hvis de 20 kast antages at
vre uafhngige af hinanden, er den stokastiske vektor (S1 , S2 , S3 , S4 , S5 ,
S6 ) polynomialfordelt med antalsparameter n og sandsynlighedsparametre 1/6, 1/6, 1/6, 1/6, 1/6, 1/6.
2
Eksempel 3.5.3 I 1865 udfrte Mendel nogle bermte forsg med rteplanter. Ved at krydse to rtestammer opn
aede han nogle rter, som
sknt de s
a ens ud, var af fire mulige typer. N
ar de blev dyrket fremkom
der nemlig rteplanter med rter, hvis form kunne vre rund eller kantet, og hvis farve kunne vre gul eller grn. I flge Mendels arvelighedslre er sandsynligheden for, at en plante har rter med en given form
og farve som angivet i flgende tabel.
Runde
Gule Grnne
9/16
3/16

Kantede
Gule Grnne
3/16
1/16

Mendel dyrkede 556 rter, hvis typer kan betragtes som uafhngige.
Hvis Si er antallet af rter blandt de dyrkede, som viste sig at vre af den
ite type, er den stokastiske vektor (S1 , S2 , S3 , S4 ) polynomialfordelt med
antalsparameter 556 og sandsynlighedsparametre 9/16, 3/16, 3/16, 1/16.
I Mendels forsg blev udfaldet af den stokastiske vektor (315, 108, 101, 32).
Man kan med metoder fra statistikken undersge, om dette udfald er i
overensstemmelse med Mendels teori.
2
For at opskrive polynomialfordelingens sandsynlighedsfunktion, er det
ndvendigt at benytte polynomialkoefficienterne
n
s1 , . . . , sk

n!
,
s1 ! sk !

som omtales nrmere i Appendiks B. Disse koefficienter kaldes ogs


a for
multinomialkoefficienterne. Bemrk, at vi for k = 2 genfinder binomialkoefficienterne, under den lidt ndrede betegnelse

n
n
=
s
s, n s

80

Fordelinger p
a endelige mngder

Stning 3.5.4 Polynomialfordelingens sandsynlighedsfunktion er givet


ved
!
n
p(s1 , . . . , sk ) =
ps1 . . . pskk
(3.5.3)
s1 , . . . , sk 1
for (s1 , . . . , sk ) Dk (n).
Bevis: Sandsynlighedsfunktionen for den stokastiske vektor (X1 , . . . , Xn )
er
]{i|x =1}
]{i|x =k}
P (X1 = x1 , . . . , Xn = xn ) = p1 i
pk i ,

hvor xi {1, . . . , k}. Vi definerer en funktion t fra mngden af vrdier


af (X1 , . . . , Xn ), alts
a {1, . . . , k}n ind i Dk (n) ved
t(x1 , . . . , xn ) = (]{i|xi = 1}, . . . ]{i|xi = k}) .

Lad endvidere A(s1 ,...,sk ) betegne originalmngden for {(s1 , . . . , sk )} ved


t, dvs.
A(s1 ,...,sk ) = t1 ({(s1 , . . . , sk )})
= {(x1 , . . . , xn ) {1, . . . , k}n | ]{i|xi = j} = sj , j = 1, . . . , k}.
Da (S1 , . . . , Sk ) = t(X1 , . . . , Xn ), flger det af Stning 3.4.2, at for
(s1 , . . . , sk ) Dk (n) er
P ((S1 , . . . , Sk ) = (s1 , . . . , sk )) =

P (X1 = x1 , . . . , Xn = xn )

(x1 ,...,xn )A(s1 ,...,sk )

(x1 ,...,xn )A(s1 ,...,sk )

ps11 pskk

= ]A(s1 ,...,sk ) ps11 pskk


=

n
ps11 pskk ,
s1 , . . . , sk

idet antallet af elementer i A(s1 ,...,sk ) er lig antallet af m


ader, hvorp
a vi
kan udvlge de k delmngder {i|xi = j}, j = 1, . . . , k af {1, . . . , n},
s
aledes at
!
n
]A(s1 ,...,sk ) =
,
s1 , . . . , sk

3.5 Polynomialfordelingen

81

jfr. Appendiks B.
2
Flgende stning kan ret let vises ud fra definitionen af polynomialfordelingen. Overvej resultatets intuitive indhold.
Stning 3.5.5 Antag, at (S1 , . . . , Sk ) er polynomialfordelt med antalsparameter n og sandsynlighedsparametre p1 , . . . , pk . For en delmnde I
P
af {1, 2 . . . , k} er S = iI Si binomialfordelt med antalsparameter n
P
og sandsynlighedparameter iI pi . Lad mere generelt I1 , . . . , Im vre
disjunkte delmngder af {1, 2 . . . , k}, som opfylder, at I1 Im =
{1, 2, . . . , k}, og definer
Tj =

iIj

Si og qj =

pi ,

iIj

j = 1, . . . , m. Da er (T1 , . . . , Tm ) polynomialfordelt med antalsparameter


n og sandsynlighedsparametre q1 , . . . , qm .
Bevis: Se Opgave 3.12.
2
Bemrk, at hvis vi lader mngden I best
a af et enkelt element, ser
vi, at Si er binomialfordelt med antalsparameter n og sandsynlighedsparameter pi .
Eksempel 3.5.2 (fortsat). Som tidligere er Si antallet af kast, hvor udfaldet blev i jne, i = 1, . . . , 6. Vi definerer en ny stokastisk vektor
(T1 , T2 , T3 ) ved T1 = S1 + S2 , T2 = S3 + S4 og T3 = S5 + S6 , hvor alts
a for
eksempel T1 er antal kast med hjst to jne. Da er (T1 , T2 , T3 ) iflge Stning 3.5.5 polynomialfordelt med antalsparameter n og sandsynlighedsparametre 1/3, 1/3, 1/3. Stningen fortller os ogs
a, at antallet af kast med
et lige antal jne, S2 + S4 + S6 , er binomialfordelt med antalsparameter n
og sandsynlighedsparameter 1/2. Formentlig er ingen af disse resultater
nogen stor overraskelse.
2
Eksempel 3.5.3 (fortsat). I Mendels forsg er antallet af gule rter,
S1 + S3 , binomialfordelt med antalsparameter 556 og sandsynlighedsparameter 3/4. Antallet af kantede rter, S3 + S4 , er binomialfordelt med

82

Fordelinger p
a endelige mngder

antalsparameter 556 og sandsynlighedsparameter 1/4. Her har vi igen


benyttet Stning 3.5.5.
2

3.6

Uafhngige stokastiske variable

Det er ret let at se p


a sandsynlighedsfunktionen for en n-dimensional
stokastisk vektor, hvorvidt de n koordinater er uafhngige stokastiske
variable.
Stning 3.6.1 Antag, at (X1 , . . . , Xn ) er en n-dimensional stokastisk
vektor, hvor Xi er koncentreret p
a den endelige mngde Ti , i = 1, . . . , n.
Definer T = T1 Tn , og lad p : T 7 [0, 1] vre sandsynlighedsfunktionen for den simultane fordeling af (X1 , . . . , Xn ), og lad pi : Ti 7
[0, 1], vre sandsynlighedsfunktionen for den marginale fordeling af X i ,
i = 1, . . . , n. Da er de flgende tre udsagn kvivalente:
1) X1 , . . . , Xn er stokastisk uafhngige,
2) For alle (x1 , . . . , xn ) T er
p(x1 , . . . , xn ) = p1 (x1 ) pn (xn ),

(3.6.1)

3) Der findes n ikke-negative reelle funktioner gi , i = 1, . . . , n, s


a
p(x1 , . . . , xn ) = g1 (x1 ) gn (xn )

(3.6.2)

for alle (x1 , . . . , xn ) T .


Bevis: Vi viser kun stningen i tilfldet n = 2. Det er tilstrkkeligt
til at give ideen i beviset. Det generelle bevis er helt tilsvarende, men
notationsmssigt temmelig besvrligt.
At 1) medfrer 2) flger af definitionen af uafhngighed af stokastiske
variable (Definition 2.4.1) ved at vlge A1 = {x1 } og A2 = {x2 }. At 2)
medfrer 3) er klart.

3.6 Uafhngige stokastiske variable

83

Lad os nu antage, at 3) holder og vise, at det medfrer 2). Iflge


Stning 3.4.1 er
p1 (x1 ) =

p(x1 , x2 ) = g1 (x1 )

p(x1 , x2 ) = g2 (x2 )

x2 T2

og
p2 (x2 ) =

1=

g2 (x2 ),

g1 (x1 ).

x2 T2

x1 T1

x1 T1

Da

p1 (x1 ) =

x1 T1

x1 T1

g1 (x1 )

x1 T1

x2 T2

g1 (x1 )

g2 (x2 )

x2 T2

g2 (x2 ) ,

flger det, at
p1 (x1 )p2 (x2 ) = g1 (x1 )g2 (x2 ) = p(x1 , x2 ),
hvilket netop er (3.6.1).
Endelig skal vi til slut antage, at 2) er opfyldt, og vise at X1 og X2
s
a er uafhngige. Lad derfor A1 og A2 vre vilk
arlige delmngder af de
reelle tal, og definer B1 = A1 T1 og B2 = A2 T2 . Vi har da, at
P (X1 A1 , X2 A2 )
= P ((X1 , X2 ) B1 B2 ) =
X

(x1 ,x2 )B1 B2

x1 B1

p1 (x1 )

x2 B2

p(x1 , x2 )

(x1 ,x2 )B1 B2

p1 (x1 )p2 (x2 ) =

x1 B1

p2 (x2 ) =

x2 B2

x1 B1

p1 (x1 )p2 (x2 )

p1 (x1 )P (X2 B2 )

= P (X1 B1 )P (X2 B2 ) = P (X1 A1 )P (X2 A2 ).


D.v.s. X1 og X2 er uafhngige, jfr. Definition 2.4.1.
2

84

Fordelinger p
a endelige mngder

Lg mrke til, at vi undervejs har vist, at p1 (x1 ) = cg1 (x1 ) og


P
p2 (x2 ) = c1 g2 (x2 ), hvor c = x2 T2 g2 (x2 ). Funktionerne g1 og g2 er
alts
a proportionale med henholdsvis p1 og p2 . De mangler bare at blive
normerede, s
a de bliver til sandsynlighedsfunktioner.
Det er ogs
a vigtigt at bemrke flgende konsekvens af Stning 3.6.1.
Vi kan vlge mngderne Ti s
aledes at pi (xi ) > 0 for alle xi Ti . Lad os
for overskuelighedens skyld holde os til tilfldet n = 2. Hvis X1 og X2 er
uafhngige, er (3.6.1) er opfyldt for alle (x1 , x2 ) T1 T2 . Dette medfrer
p
a grund af den m
ade, hvorp
a vi lige har valgt mngderne T1 og T2 , at
p(x1 , x2 ) > 0 for alle (x1 , x2 ) T1 T2 . Vi ser alts
a, at hvis X1 og X2 er
uafhngige, er den stokastiske vektor (X1 , X2 ) ndvendigvis koncentreret
p
a en produktmngde. Det er derfor somme tider let at konstatere, hvis
to stokastiske variable p
a endelige mngder ikke er uafhngige: Hvis
mngden
{(x1 , x2 )|p(x1 , x2 ) > 0}
ikke er en produktmngde, kan X1 og X2 ikke vre uafhngige. Her
betegner p(x1 , x2 ) som tidligere den simultane sandsynlighedsfunktion
for (X1 , X2 ). Prv igen at kaste et blik p
a Eksempel 1.2.1 i Afsnit 2.4.
Eksempel 3.6.2 Antag at den stokastiske vektor (S1 , . . . , Sk ) er polynomialfordelt med antalsparameter n og sandsynlighedsparametre p1 , . . . , pk .
Da polynomialfordelingen er koncentreret p
a Dk (n) = {(x1 , . . . , xk )|xi
{0, . . . , n}, i = 1, . . . , k, x1 + + xk = n}, som tydeligvis ikke er nogen
produktmngde, og da p(x1 , . . . , xk ) > 0 for (x1 , . . . , xk ) Dk (n), kan de
stokastiske variable S1 , . . . , Sk ikke vre uafhngige. Da S1 + +Sk = n
er dette ikke nogen overraskelse.
2
Man har meget ofte brug for at finde fordelingen af summen af to
eller flere uafhngige stokastiske variable. Derfor er der grund til at give
flgende specialtilflde af Stning 3.4.4 for uafhngige stokastiske variable.
Korollar 3.6.3 Lad X1 og X2 vre to uafhngige stokastiske variable,
hvor Xi s fordeling er koncentreret p
a {0, 1, . . . , ni } (ni IIN) og har
sandsynlighedsfunktion pi , i = 1, 2. Da er den stokastiske variable Y =

3.6 Uafhngige stokastiske variable

85

X1 + X2 koncentreret p
a mngden {0, 1, . . . , n1 + n2 }, og dens sandsynlighedsfunktion er givet ved
q(y) =

y
X

j=0

p1 (j)p2 (y j)

(3.6.3)

n
ar y {0, 1, . . . , n1 + n2 }.
Sandsynlighedsfunktionen q givet ved (3.6.3) kaldes foldningen af de
to sandsynlighedsfunktioner p1 og p2 . Man kalder derfor ofte fordelingen
af X1 + X2 foldningen af de to marginale fordelinger.
Lad os slutte dette afsnit med det i mange statistiske analyser vigtige
begreb betinget uafhngighed af to stokastiske variable givet en tredie.
Definition 3.6.4 Lad X1 , X2 og X3 vre tre stokastiske variable, som
er koncentreret p
a de endelige mngder T1 , T2 og T3 . Da siges X1 og
X2 at vre betinget uafhngige givet X3 , hvis der for alle (x1 , x2 , x3 )
T1 T2 T3 , hvor P (X3 = x3 ) > 0 glder, at
P (X1 = x1 , X2 = x2 |X3 = x3 ) =
P (X1 = x1 |X3 = x3 )P (X2 = x2 |X3 = x3 ).

(3.6.4)

Eksempel 1.4.5 (fortsat). Sidst vi betragtede de to kasser p


a et bord,
hvoraf den ene indeholder 50 rde og 50 hvide kugler, mens den anden
indeholder 20 rde, 80 hvide og 50 sorte kugler, trak vi to kugler. Vi
betragter igen helt samme situation og giver farverne rd, hvid og sort
numrene 1, 2 og 3. Lad X1 vre den stokastiske variable, som angiver
nummeret p
a farven af den frst trukne kugle, og lad X2 angiver nummeret p
a farven af den anden kugle. Lad endelig X3 angive kassenummeret.
Da er X1 og X2 betinget uafhngige givet X3 , mens vi har set, at X1 og
X2 ikke er uafhngige.
2
Man kan tilsvarende lave et eksempel p
a betinget uafhngige stokastiske variable ved at definere passende stokastiske variable i Eksempel
1.5.8.

86

Fordelinger p
a endelige mngder

Stning 3.6.5 Lad X1 , X2 og X3 vre stokastiske variable, hvor Xi er


koncentreret p
a den endelige mngde Ti , i = 1, 2, 3. Betegn sandsynlighedsfunktionen for den simultane fordeling af (X1 , X2 , X3 ) med p, den
simultane sandsynlighedsfunktion for (Xi , Xj ) med pij , og sandsynlighedsfunktionen for X3 med p3 . Da er flgende tre udsagn kvivalente:
1) X1 og X2 er betinget uafhngige givet X3 ,
2) For alle (x1 , x2 , x3 ) T , hvor T = T1 T2 T3 , glder, at
p(x1 , x2 , x3 )p3 (x3 ) = p13 (x1 , x3 )p23 (x2 , x3 ),

(3.6.5)

3) Der findes to ikke-negative reelle funktioner g og h, s


a
p(x1 , x2 , x3 ) = g(x1 , x3 )h(x2 , x3 )

(3.6.6)

for alle (x1 , x2 , x3 ) T .


Bevis: At 1) og 2) er kvivalente, flger umiddelbart af Definition 3.6.4
og definitionen af betinget sandsynlighed. Man skal lige huske, at n
ar
p3 (x3 ) = 0, er begge sider af (3.6.5) altid lig nul, s
a der er ikke noget at
vise i den situation. At 2) medfrer 3) er heller ikke svrt at se: Hvis
p3 (x3 ) > 0, skal man bare dividere (3.6.5) igennem med p3 (x3 ), og f.eks.
definere g(x1 , x3 ) = p13 (x1 , x3 ) og h(x2 , x3 ) = p23 (x2 , x3 )/p3 (x3 ). N
ar
p3 (x3 ) = 0, er ogs
a p(x1 , x2 , x3 ) = 0, s
a i den situation man kan stte
g(x1 , x3 ) = 0 og dernst definere h(x2 , x3 ) ganske som man vil.
Endelig skal vi vise, at 3) medfrer 2). En version af Stning 3.4.1 for
tre-dimensionale diskrete stokastiske vektorer giver, at (3.6.6) medfrer,
at
p3 (x3 ) =
og

x1 T1 x2 T2

p13 (x1 , x3 ) =

p(x1 , x2 , x3 ) =
X

x1 T1

g(x1 , x3 )

p(x1 , x2 , x3 ) = g(x1 , x3 )

x1 T1

x2 T2

h(x2 , x3 ) ,

h(x2 , x3 ),

x2 T2

x2 T2

p23 (x2 , x3 ) =

p(x1 , x2 , x3 ) = h(x2 , x3 )

g(x1 , x3 ),

x1 T1

hvilket sammenholdt med (3.6.6) viser, at (3.6.5) holder.


2

3.7 Middelvrdi og varians

3.7

87

Middelvrdi og varians

I dette afsnit skal vi definere to strrelser, som giver en meget summarisk


beskrivelse af en given sandsynlighedsfordeling. Her betragter vi kun fordelinger, der er koncentreret p
a en endelig delmngde af IR. Strrelserne
kan ogs
a defineres for mere generelle stokastiske variable, men det vil
vi vende tilbage til senere. Den frste strrelse, middelvrdien, angiver, hvor p
a den reelle akse hovedparten af sandsynlighedsmassen ligger.
Den anden, variansen, er et m
al for, hvor meget sandsynlighedsmassen
er spredt ud.
Lad X1 , . . . , XN vre uafhngige stokastiske variable, som alle er
koncentreret p
a den endelige mngde {a1 , . . . ak }, (ai IR) og som alle
har samme fordeling med sandsynlighedsfunktion p. Hvis N er stor, er
iflge sandsynlighedsregningens frekvensfortolkning (som vi skal bevise i
Kapitel 7),
]{i|Xi = aj }
' P (X1 = aj ) = p(aj ).
N
Dermed er
X1 + + X N
N
a1 ]{i|Xi = a1 } + a2 ]{i|Xi = a2 } + + ak ]{i|Xi = ak }
=
N
' a1 p(a1 ) + a2 p(a2 ) + + ak p(ak ).
N
ar N er stor, er det gennemsnitlige udfald alts
a nr ved den sidste
strrelse. Denne overvejelse motiverer flgende definition.
Definition 3.7.1 Lad X vre en stokastisk variabel, der er koncentreret
p
a den endelige mngde T = {ai : i = 1, . . . , k} IR, og som har
sandsynlighedsfuktion p. Da definerer vi middelvrdien af X som
E(X) =

k
X

ai p(ai ).

(3.7.1)

i=1

Af og til udelader man parenteserne og skriver EX i stedet for E(X),


n
ar dette kan ske uden fare for misforst
aelser. Betegnelsen E kan

88

Fordelinger p
a endelige mngder

henfres til det engelske ord expectation eller til det tyske ord Erwartungswert. Bemrk, at middelvrdi i disse noter skrives ikke-kursiveret E for
at undg
a forveksling med udfaldsrummet E.
Lg mrke til, at middelvrdien af en stokastisk variabel X kun
afhnger af fordelingen af X. Den er alts
a egentlig en egenskab ved fordelingen, og vi omtaler ogs
a E(X) som fordelingens middelvrdi. Vi skal
senere i dette afsnit finde middelvrdierne af de fordelinger, som vi tidligere i dette kapitel har indfrt.
Eksempel 3.7.2 Lad X vre en stokastisk variabel, som er koncentreret
p
a mngden {0, 1}, hvis fordeling er givet ved P (X = 1) = p og P (X =
0) = 1 p. Da er
E(X) = 0 (1 p) + 1 p = p.

(3.7.2)

Bemrk, at hvis Y er en vilk


arlig stokastisk variabel, og hvis 1A er indikatorfunktionen for en vilk
arlig delmngde af IR, er den stokastiske
variable 1A (Y ) koncentreret p
a {0, 1}, og P (1A (Y ) = 1) = P (Y A).
Derfor er
E(1A (Y )) = P (Y A).
Man kan s
aledes udtrykke sandsynligheden for en hndelse ved en middelvrdi. Opgave 3.17 giver et eksempel p
a en anvendelse af denne observation.
Man kan opfatte fordelingen af X som en binomialfordeling med antalsparameter 1 og sandsynlighedsparameter p. Hvis S er binomialfordelt
med antalsparameter 2 og sandsynlighedsparameter p, er
E(S) = 0 (1 p)2 + 1 2p(1 p) + 2 p2 = 2p.
Man kan godt beregne middelvrdien af en vilk
arlig binomialfordeling
ved at indstte i (3.7.1), men vi kan om nogle f
a sider finde denne middelvrdi p
a en langt lettere m
ade. Vi venter derfor lidt med beregningen.
2
Vi skal nu se, at man kan beregne middelvrdien af en transformeret
stokastisk variabel p
a en enkel og naturlig m
ade.

3.7 Middelvrdi og varians

89

Stning 3.7.3 Lad X vre en n-dimensional stokastisk vektor, som er


koncentreret p
a den endelige mngde T IRn , og som har sandsynlighedsfuktion p. Lad endvidere vre en funktion fra T ind i IR. Da har
den stokastiske variable (X) middelvrdien
X

E((X)) =

(x1 , . . . , xn )p(x1 , . . . , xn ).

(3.7.3)

(x1 ,...,xn )T

Bevis: Iflge Stning 3.4.2 har fordelingen af Y = (X) sandsynlighedsfunktionen


X

q(y) =

p(x1 , . . . , xn )

(x1 ,...,xn ) 1 ({y})

og er koncentreret p
a den endelige mngde (T ). Iflge Definition 3.7.1
er middelvrdien af den stokastiske variable Y = (X)
E(Y ) =

yq(y)

y(T )

y(T )

p(x1 , . . . , xn )

(x1 ,...,xn ) 1 ({y})

(x1 , . . . , xn )p(x1 , . . . , xn )

y(T ) (x1 ,...,xn ) 1 ({y})

(x1 , . . . , xn )p(x1 , . . . , xn ).

(x1 ,...,xn )T

2
Eksempel 3.7.4 Lad (X1 , X2 ) vre den stokastiske vektor, som angiver
udfaldet af et kast med to terninger. Definer en stokastisk variabel ved
Z = X1 X2 , d.v.s. antallet af jne p
a den terning, som viser det strste
antal jne. Vi har nu to m
ader at beregne denne middelvrdi p
a. Den
ene er at benytte definitionen (3.7.1). For at gre det, skal vi frst finde
sandsynlighedsfunktionen for Z. Det er ikke vanskeligt at se, at den er
givet ved flgende tabel.
z
p(z)

1
2
3
4
5
6
1/36 1/12 5/36 7/36 1/4 11/36

90

Fordelinger p
a endelige mngder

Iflge (3.7.1) er
E(Z) = 1

1
1
5
7
1
11
+2
+3
+4
+5 +6
= 4.472.
36
12
36
36
4
36

Hvis vi ikke nsker at bekymre os om sandsynlighedsfunktionen for


Z, kan vi benytte Stning 3.7.3 og beregne E(Z) ved hjlp af sandsynlighedsfunktionen for den oprindelige stokastiske vektor (X1 , X2 ). Iflge
(3.7.3) er
6 X
6
X
1
(i j) = 4.472.
E(Z) =
36
i=1 j=1
2
Flgende stninger er lette anvendelser af Stning 3.7.3.
Stning 3.7.5 Lad X vre en stokastisk variabel p
a en endelig mngde,
og lad a og b vre vilk
arlige reelle tal. Da er
E(a + bX) = a + bE(X)

(3.7.4)

Bevis: Betegn den mngde, som X er koncentreret p


a med {x1 , . . . , xk },
og lad p vre sandsynlighedsfunktionen for X. Iflge (3.7.3) kan middelvrdien af a + bX beregnes ved
k
X

(a + bxi )p(xi ) = a

i=1

k
X

p(xi ) + b

i=1

k
X

xi p(xi ) = a + bE(X).

i=1

2
Stning 3.7.6 Lad (X1 , X2 ) vre en to-dimensional stokastisk vektor
p
a en endelig mngde, som opfylder, at X1 X2 . Da er E(X1 ) E(X2 ).
Specielt glder for en stokastisk variabel X, at
|E(X)| E(|X|).

(3.7.5)

Bevis: Lad T vre den endelige mngde, p


a hvilken (X1 , X2 ) er koncentreret, og lad p betegne sandsynlighedsfunktionen for (X1 , X2 ). Udsagnet
at X1 X2 betyder, at x1 x2 for alle (x1 , x2 ) T . Derfor er
E(X1 ) =

(x1 ,x2 )T

x1 p(x1 , x2 )

(x1 ,x2 )T

x2 p(x1 , x2 ) = E(X2 ),

3.7 Middelvrdi og varians

91

hvor vi endnu en gang har benyttet Stning 3.7.3. Stningens anden


p
astand flger af det netop viste resultat, da |X| X |X|, s
aledes
at E(|X|) E(X) E(|X|). Her benytter vi (3.7.4) til at slutte, at
E(|X|) = E(|X|).
2
Stning 3.7.7 Lad X1 , X2 , . . . , Xn vre stokastiske variable p
a endelige
mngder. Da er
E(X1 + X2 + + Xn ) = E(X1 ) + E(X2 ) + + E(Xn ).

(3.7.6)

Hvis det yderligere antages, at de stokastiske variable X1 , X2 , . . . , Xn er


uafhngige, er
E(X1 X2 Xn ) = E(X1 ) E(X2 ) E(Xn ).

(3.7.7)

Bevis: Vi kan njes med at bevise stningen for n = 2, da det generelle


resultat flger ved induktion. St T = T1 T2 , hvor Ti er den endelige
mngde, p
a hvilken Xi er koncentreret, og betegn sandsynlighedsfunktionen for den stokastiske vektor (X1 , X2 ) med p. Iflge Stning 3.7.3
er
X
E(Xi ) =
xi p(x1 , x2 ), i = 1, 2,
(x1 ,x2 )T

og
E(X1 + X2 ) =

(x1 + x2 )p(x1 , x2 )

x1 p(x1 , x2 ) +

(x1 ,x2 )T

(x1 ,x2 )T

x2 p(x1 , x2 )

(x1 ,x2 )T

E(X1 ) + E(X2 ).

For at vise stningens sidste p


astand antages det nu, at X1 og X2 er uafhngige, s
a p(x1 , x2 ) = p1 (x1 )p2 (x2 ), hvor pi er sandsynlighedsfunktionen
for Xi , i = 1, 2. Iflge (3.7.3) er
E(X1 X2 ) =

(x1 ,x2 )T

x1 x2 p(x1 , x2 )

92

Fordelinger p
a endelige mngder

x2 T2

x1 T1

x1 T1

x1 p1 (x1 )x2 p2 (x2 ) =

x1 p1 (x1 )

x2 T2

x2 T2

x2 p2 (x2 )

x1 T1

x1 p1 (x1 )

x2 p2 (x2 ) = E(X1 )E(X2 ).

Eksempel 3.7.8 Vi vil nu finde binomialfordelingens middelvrdi. Husk,


at binomialfordelingen med antalsparameter n og sandsynlighedsparameter p er defineret som fordelingen af summen S = X1 + X2 + . . . + Xn ,
hvor X1 , X2 , . . . , Xn er uafhngige stokastiske variable med vrdier i
{0, 1}, som alle har samme fordeling givet ved P (Xi = 1) = p og
P (Xi = 0) = 1 p. Iflge Eksempel 3.7.2 er E(Xi ) = p, s
a iflge (3.7.6)
er
E(S) = E(X1 ) + + E(Xn ) = np.
N
ar man tnker p
a binomialfordelingens definition, er udtrykket for middelvrdien ikke overraskende. Det forventede antal succeser er naturligvis antallet af forsg ganget med sandsynligheden for succes i det
enkelte forsg, jvf. sandsynlighedsregningens frekvensfortolkning.
2

Eksempel 3.7.9 Middelvrdien i den hypergeometriske fordeling kan


beregnes ved flgende argument. Lad kuglerne vre nummereret 1, . . . , N ,
hvor de rde kugler har numrene 1, . . . , R. Lad Ai betegne den hndelse,
at kugle nr. i er blandt de n udtrukne, og definer N stokastiske variable 1Ai , i = 1, . . . , N ved at 1Ai = 1, hvis kugle nr. i er blandt de
udtrukne, og 1Ai = 0, hvis dette ikke er tilfldet. Iflge Eksempel 3.7.2
er E(1Ai ) = P (Ai ). Da 1A1 + . . . + 1AN = n, og da alle kugler har samme
sandsynlighed for at blive udtrukket, flger det af (3.7.4) og (3.7.6) at
n = E(1A1 + . . . + 1AN ) = E(1A1 ) + + E(1AN ) = N E(1A1 ),
dvs.

n
.
N
Hvis X er antallet af rde kugler i stikprven, er
E(1A1 ) =

E(X) = E(1A1 + . . . + 1AR ) = E(1A1 ) + + E(1AR ) = R

n
R
=n .
N
N
2

3.7 Middelvrdi og varians

93

Vi kommer nu til variansen, som er et m


al for, hvor meget sandsynlighedsmassen spreder sig omkring middelvrdien.
Definition 3.7.10 Lad X vre en stokastisk variabel p
a en endelig mngde. Da defineres variansen af X som


Var(X) = E [X E(X)]2 .

(3.7.8)

Hvis X er koncentreret p
a mngden T og har sandsynlighedsfunktion
p, kan variansen iflge Stning 3.7.3 beregnes ved formlen
Var(X) =

xT

(x E(X))2 p(x).

Da
[X E(X)]2 = X 2 + E(X)2 2XE(X),
flger den nyttige formel for variansen af X
Var(X) = E(X 2 ) (E(X))2 ,

(3.7.9)

som oftest er den letteste m


ade at beregne variansen p
a.
Kvadratroden af variansen kaldes spredningen eller standardafvigelsen. Spredningen er et mere naturligt m
al for en fordelings bredde end
variansen. Dette ses tydeligt af flgende resultat. Lad X vre en stokastisk variabel, og definer en ny stokastisk variabel ved a + bX, hvor a og
b er reelle tal. Da er
Var(a + bX) = b2 Var(X)
og dermed

(3.7.10)

Var(a + bX) = |b| Var(X).

Ligning (3.7.10) indses let:




Var(a + bX) = E [a + bX E(a + bX)]2




= E b2 [X E(X)]2 = b2 Var(X).

94

Fordelinger p
a endelige mngder

Eksempel 3.7.11 Lad X vre en stokastisk variabel, hvis fordeling er


givet ved P (X = 1) = p og P (X = 0) = 1 p. Da er X 2 = X, s
a iflge
(3.7.2) er
E(X 2 ) = E(X) = p,
s
aledes at (3.7.10) giver
Var(X) = p p2 = p(1 p).

(3.7.11)

Hvis S er binomialfordelt med antalsparameter 2 og sandsynlighedsparameter p, er


E(S 2 ) = 0 (1 p)2 + 1 2p(1 p) + 4 p2 = 2p + 2p2 ,
s
a
Var(S) = 2p + 2p2 4p2 = 2p(1 p).

Man kan godt beregne variansen af en vilk


arlig binomialfordeling ved at
beregne middelvrdien af E(X(X 1)), men da vi i nste afsnit udleder
en betydeligt lettere m
ade at beregne denne varians p
a, udskyder vi dette
problem lidt.
Definer endelig for a > 0 en stoksatisk variabel ved Y = aX. Det er
klart, at P (Y = a) = P (X = 1) = p og P (Y = 0) = P (X = 0) = 1 p,
s
aledes at Y s tilfldige variation om sin middelvrdi E(Y ) = aE(X) =
ap vokser med a. Vi finder da ogs
a, at
Var(Y ) = a2 Var(X) = a2 p(1 p),
q

og at spredningen er a p(1 p).

Lad os kort behandle den ekstreme situation, hvor variansen er nul.


Det flgende resultat vil nppe overraske nogen.
Stning 3.7.12 For en stokastisk variabel X p
a en endelig mngde er
Var(X) = 0 hvis og kun hvis der findes et reelt tal c, s
a P (X = c) = 1.
Bevis: Lad p betegne sandsynlighedsfunktionen for X. Hvis P (X = c) =
1, er
(
1 hvis x = c
p(x) =
0 hvis x 6= c,

3.8 Kovarians og korrelation

95

og da E(X) = c, er
Var(X) = (E(X) E(X))2 p(E(X)) = 0.
Antag omvendt, at Var(X) = 0, og lad T vre den endelige mngde,
hvorp
a X er koncentreret. Da
X

xT

(x E(X))2 p(x) = 0

medfrer, at alle led i summen er lig nul, er p(x) = 0, n


ar x 6= E(X).
Dette viser stningen.
2
Definition 3.7.13 En stokastisk variabel X siges at vre udartet, hvis
der findes et c IR, s
a P (X = c) = 1. Fordelingen af X kaldes da den
udartede fordeling i punktet c.
Vi kan alts
a kort sige, at en fordeling har varians nul hvis og kun hvis
den er udartet i et punkt c, som alts
a er dens middelvrdi.

3.8

Kovarians og korrelation

Vi kommer nu til en strrelse, korrelationen, som giver en summarisk


beskrivelse af samspillet mellem to stokastiske variable, alts
a af aspekter
ved den simultane fordeling af (X, Y ). Frst skal vi definere kovariansen,
som spiller en lignende rolle, men er svrere at fortolke. Hvis X og Y
har tendens til at flges ad, er kovariansen og korrelationen positive tal.
Hvis derimod X og Y opfrer sig modsat i den forstand, at X og Y
har tendens til at flges ad, er kovariansen og korrelationen negative.
Hvis der ikke er nogen sammenhng mellem de to stokastiske variables
variation er de to strrelser begge lig nul. Eksempel 3.8.2 nedenfor giver
en simpel illustration af disse forhold.
Definition 3.8.1 For to stokastiske variable p
a endelige mngder defineres kovariansen mellem X og Y ved
Cov(X, Y ) = E[(X E(X))(Y E(Y ))].

(3.8.1)

96

Fordelinger p
a endelige mngder

Ved at regne p
a hjresiden af (3.8.1), er det er ikke vanskeligt at indse,
at vi har flgende formel, som ofte er nyttig til beregning af kovariansen
Cov(X, Y ) = E(XY ) E(X)E(Y ).

(3.8.2)

Bemrk, at
Cov(X, X) = Var(X).
Lad X, Y og Z vre tre stokastiske variable, og lad a, b, c og d vre
reelle tal. Flgende regneregler for kovarians vises lige s
a let som (3.7.10)
ved at regne efter.
Cov(a + bX, c + dY ) = bd Cov(X, Y )
Cov(X + Y, Z) = Cov(X, Z) + Cov(Y, Z)
Cov(X, Y ) = Cov(Y, X)

(3.8.3)
(3.8.4)
(3.8.5)

Eksempel 3.8.2 Antag at (X, Y ) er koncentreret p


a mngden
{(1, 1), (1, 1), (1, 1), (1, 1)}
med punktsandsynlighederne P ((X, Y ) = (1, 1)) = P ((X, Y ) = (1, 1))
= 31 og P ((X, Y ) = (1, 1)) = P ((X, Y ) = (1, 1)) = 16 . Da er E(X) =
E(Y ) = 0 og P (XY = 1) = 32 og P (XY = 1) = 31 , s
a Cov(X, Y ) =
E(XY ) = 23 31 = 31 .
Vi kan mere generelt antage, at den simultane fordeling af (X, Y )
er givet ved P ((X, Y ) = (1, 1)) = P ((X, Y ) = (1, 1)) = m1 og
P ((X, Y ) = (1, 1)) = P ((X, Y ) = (1, 1)) = 12 m1 , hvor m er et
helt tal strre end eller lig to. Jo strre m er, jo strre er sandsynligheden for, at X = Y . Denne sandsynlighed er jo lig med 1 m2 . Man
kan alts
a konkludere, at jo strre m er, jo strre tendens har X og Y
til at flges ad. Lad os nu beregne deres kovarians. Ogs
a for den mere
generelle model er E(X) = E(Y ) = 0, mens P (XY = 1) = 1 m2 og
P (XY = 1) = m2 , s
a Cov(X, Y ) = E(XY ) = 1 m4 . Vi ser, at kovariansen er negativ for m = 2 og m = 3, mens den er lig nul for m = 4 og
positiv for m strre end eller lig 5. Kovariansen vokser tydeligvis, n
ar m
vokser.

3.8 Kovarians og korrelation

97

Definer til slut en ny stokastisk variabel ved T = X + aY , hvor a


er et reelt tal. Lad os antage, at m = 4, s
a Cov(X, Y ) = 0. Det er vist
klart, at hvis a > 0, har T og Y tendens til at flges, mens de for a < 0
har tendens til at variere modsat. Hvis a = 0, er der ingen sammenhng
mellem den stokastiske variation af T og Y . I overensstemmelse med disse
overvejelser finder vi ved at benytte (3.8.3) og (3.8.4), at
Cov(T, Y ) = Cov(X, Y ) + Cov(aY, Y ) = aVar(Y ).
2
Stning 3.8.3 Hvis X og Y er uafhngige, er Cov(X, Y ) = 0.
Bevis: Iflge (3.7.7) er E(XY ) = E(X)E(Y ), n
ar X og Y er uafhngige,
hvorfor stningens konklusion kan sluttes af (3.8.2).
2
Den omvendte implikation glder ikke. Selv om Cov(X, Y ) = 0, kan
de to stokastiske variable sagtens vre srdeles afhngige, som flgende
eksempel viser.
Eksempel 3.8.4 Antag, at (X, Y ) er ligefordelt p
a {(0, 1), (1, 0), (0, 1),
(1, 0)}. Da E(X) = E(Y ) = 0, og da XY = 0 (og dermed specielt
E(XY ) = 0), er Cov(X, Y ) = 0. Da (X, Y ) ikke lever p
a en produktmngde, kan de ikke vre uafhngige. Man kan ogs
a bemrke, at hvis
man ved at Y = 1, s
a m
a X vre nul. Der er alts
a en kraftig afhngighed. Hvis man har behov for yderligere bevis, er P (X = 1, Y = 1) = 0,
1
mens P (X = 1)P (Y = 1) = 16
.
2
Kovariansen spiller en vigtig rolle, n
ar man beregner variansen af en
sum af stokastiske variable. Vi ser frst, at
Var(X1 + X2 )


= E (X1 + X2 (E(X1 ) + E(X2 )))




(3.8.6)

= E (X1 E(X1 ))2 + (X2 E(X2 ))2 + 2(X1 E(X1 ))(X2 E(X2 ))
= Var(X1 ) + Var(X2 ) + 2Cov(X1 , X2 ).

98

Fordelinger p
a endelige mngder

Det er ikke svrt at gennemfre det induktionsargument, som viser, at


for n stokastiske variable X1 , . . . , Xn er
Var(X1 + + Xn ) =

n
X

Var(Xi ) + 2

n X
i1
X

Cov(Xi , Xj ).

(3.8.7)

i=2 j=1

i=1

Hvis man ikke bryder sig om induktionsargumenter, kan formlen ogs


a
vises direkte i analogi med (3.8.6).
Eksempel 3.8.5 Vi vil i dette eksempel finde variansen af den hypergeometriske fordeling v.h.a. (3.8.7). Lad notationen vre som i Eksempel
3.7.9. Specielt er Ai den hndelse, at kugle nr. i er blandt de n udtrukne,
og den stokastiske variable 1Ai er lig en, hvis kugle nr. i er blandt de udtrukne, og 1Ai = 0 ellers. Da er X = 1A1 + . . . + 1AR hypergeometrisk
fordelt. Fra Eksempel 3.7.9 ved vi, at E(1Ai ) = Nn , og da 12Ai = 1Ai er
ogs
a E(12Ai ) = Nn . Det vil sige, at


n
n
Var (1Ai ) =
1
.
N
N
For i 6= j er
E(1Ai 1Aj ) = E(1Ai Aj ) = P (Ai Aj )
n n1
= P (Aj )P (Ai |Aj ) =

.
N N 1

Vi har brugt at P (Ai ) = E(1Ai ) = Nn iflge Eksempel 3.7.2. At P (Ai |Aj ) =


(n 1)/(N 1) flger af, at n
ar vi ved, at kugle nr. j er blevet udtrukket,
er situationen som den var uden denne oplysning bortset fra, at der nu
kun skal udtrkkes n 1 kugler fra en population af N 1 kugler. Vi
finder, at for i 6= j er


n
n n1
Cov(1Ai , 1Aj ) =

N N 1
N

2

n(n N )
,
N 2 (N 1)

s
a iflge (3.8.7) er


n
n
n(n N )
Var(X) = R
1
+ 2[ 12 R(R 1)] 2
N
N
N (N 1)


R
R N n
.
= n
1
N
N N 1

3.8 Kovarians og korrelation

99

Vi har her brugt at, der er 12 R(R 1) led i dobbeltsummen i (3.8.7).

Arsagen til, at kovariansen mellem to stokastiske variable X og Y er


stor, kan vre, at X eller Y varierer meget, mens der ikke er den store afhngighed mellem dem. Betragt for eksempel de stokastiske variable aX
og Y , hvor a er et positivt tal. Iflge (3.8.3) er Cov(aX, Y ) = aCov(X, Y ),
s
a vi kan ved at vlge a passende gre kovariansen mellem aX og Y
vilk
arligt stor eller lille, selv om sammenhngen mellem aX og Y jo
egentlig er den samme som sammenhngen mellem X og Y . Hvis for eksempel X er en lngde, ser vi, at vi kan gre kovariansen 10 gange strre
ved at m
ale X i millimeter i stedet for centimeter. Det er ikke heldigt. Et
bedre m
al for samspillet mellem X og Y er derfor korrelationen mellem
X og Y , som ikke afhnger af de enheder, hvormed man m
aler X og Y .
Definition 3.8.6 For to stokastiske variable X og Y , som opfylder at
Var(X) > 0 og Var(Y ) > 0, defineres korrelationen mellem X og Y ved
corr(X, Y ) = q

Cov(X, Y )
Var(X)Var(Y )

(3.8.8)

Korrelationen kan fortolkes som kovariansen mellem de to standardiserede variable


X E(X)
,
X0 = q
Var(X)

Y E(Y )
Y0 = q
,
Var(Y )

idet
Cov(X0 , Y0 ) = E(X0 Y0 ) =

E((X E(X))(Y E(Y ))


q

Var(X) Var(Y )

= corr(X, Y ).

De stokastiske variable X0 og Y0 er standardiserede, s


a de har middelvrdi nul og varians en. Korrelationen er s
aledes uafhngig af valget af
nulpunkt og enhed for de skalaer, hvorp
a X og Y m
ales. Kovariansen er
ogs
a uafhngig af valget af nulpunkter, men ikke af valget af enheder.

100

Fordelinger p
a endelige mngder

Eksempel 3.8.2 (fortsat). For vilk


arligt m ( 2) er P (X = 1) =
P (X = 1) = P (Y = 1) = P (Y = 1) = 12 , s
aledes at Var(X) =
1
1
2
Var(Y ) = E(Y ) = 2 + 2 = 1. Derfor er corr(X, Y ) = Cov(X, Y ) = 1 m4 .
For m = 4 er Cov(X, aY ) = aCov(X, Y ) = 0, hvorfor vi iflge (3.8.6)
2
2
har, at Var(T
) = Var(X)+ a Var(Y ) = 1 + a . Dermed er corr(T, Y ) =
Cov(T, Y )/ 1 + a2 = a/ 1 + a2 .
2
Hvis to stokastiske variable X og Y opfylder, at corr(X, Y ) = 0,
siges de at vre ukorrelerede. Da corr(X, Y ) = 0 naturligvis er ensbetydende med Cov(X, Y ) = 0, kan man udtrykke resultatet af Stning 3.8.3
s
aledes: Hvis X og Y er uafhngige, er de ogs
a ukorrelerede. Eksempel
3.8.4 viste, at X og Y godt kan vre ukorrelerede uden at vre uafhngige. Man skal sdvanligvis vre varsom med at fortolke korrelationen
mellem to stokastiske variable. Vi skal senere se, at n
ar den simultane fordeling af (X, Y ) er en s
akaldt normalfordeling, har man mere fast grund
under fdderne.
Andre vigtige egenskaber ved korrelationen fremg
ar af flgende stning.
Stning 3.8.7
(a) 1 corr(X, Y ) 1.
(b) corr(X, Y ) = 1 hvis og kun hvis der for passende , IR glder,
at Y = + X. Vrdien 1 af korrelationen svarer til > 0, vrdien 1
til < 0.
Bevis: (a) flger af, at
|corr(X, Y )| = |E(X0 Y0 )| E|X0 Y0 | E

2
1
2 X0

+ 21 Y02 = 1,

hvor X0 og Y0 er de ovenfor indfrte standardiserede variable, og hvor vi


har benyttet (3.7.5). Vi har ogs
a brugt, at der for vilk
arlige reelle tal x
1
1
2
2
2
2
og y glder, at 2 (x + y ) xy 2 (x + y ). Disse to uligheder flger
let af, at (x + y)2 0 og (x y)2 0.
Antag, at corr(X, Y ) = 1. Da er Cov(X0 , Y0 ) = 1, s
a variansen af
differensen X0 Y0 er


Var(X0 Y0 ) = E (X0 Y0 )2

= E(X02 ) + E(Y02 ) 2E(X0 Y0 ) = 1 + 1 2 = 0.

3.8 Kovarians og korrelation

101

Iflge Stning 3.7.12 findes der en konstant c, s


a X0 Y0 = c. Da middelvrdien af X0 Y0 er lig nul, m
a c = 0, dvs. X0 = Y0 . Dette er kvivalent
med at der eksisterer IR og > 0, s
a Y = + X. Tilsvarende ses,
at hvis corr(X, Y ) = 1, vil X0 + Y0 have varians 0, hvoraf flger at
X0 = Y0 , hvilket er kvivalent med eksistensen af en tilsvarende liner
relation mellem X og Y med < 0.
2
Se igen p
a de korrelationer, som vi ovenfor beregnede i Eksempel 3.8.2,
og overvej dem i lyset af Stning 3.8.7. Betragt blandt andet tilfldet
m = 2.
Stning 3.8.8 Lad X1 , . . . , Xn vre parvis ukorrelerede reelle stokastiske variable. Da er
Var(X1 + . . . + Xn ) = Var(X1 ) + . . . + Var(Xn ).

(3.8.9)

Bevis: At stningen flger umiddelbart af (3.8.7), da Cov(Xi , Xj ) = 0


for i 6= j.
2
Additionsreglen (3.8.9) glder specielt, hvis X1 , . . . , Xn er uafhngige. Denne regneregel er en af grundene til, at varians og spredning m
a
anses for mere naturlige m
al for en stokastisk variabels variation end s
a
mange andre, der er blevet forsl
aet; f. eks. E(|Y EY |).
Eksempel 3.8.9 Ved at benytte (3.8.9) kan vi let beregne binomialfordelingens varians. Binomialfordelingen med antalsparameter n og sandsynlighedsparameter p er fordelingen af summen S = X1 + X2 + . . . + Xn ,
hvor X1 , X2 , . . . , Xn er uafhngige stokastiske variable med vrdier i
{0, 1}, som alle har samme fordeling givet ved P (Xi = 1) = p og
P (Xi = 0) = 1 p. Iflge Eksempel 3.7.11 er Var(Xi ) = p(1 p), s
a
iflge (3.8.9) er
Var(S) = Var(X1 ) + + Var(Xn ) = np(1 p).

(3.8.10)

Binomialfordelingen med antalsparameter 100 og sandsynlighedsparameter 0.5, som giver positiv sandsynlighed til alle hele tal mellem nul og 100,
har middelvrdi
100 0.5 = 50, og alts
a varians 100 0.5 0.5 = 25 og

spredning 25 = 5.

102

Fordelinger p
a endelige mngder

Prv at sammenligne variansen (3.8.10) med resultatet i Eksempel


3.8.5, og overvej om forskellen kan forst
as intuitivt.
2
Eksempel 3.8.10 Lad Y1 , Y2 , . . . vre en flge af uafhngige stokastiske variable med samme fordeling (af vilk
arlig type). Lad A vre en
delmngde af IR, s
a 1 > P (Y1 A) > 0. Da er den stokastiske variable
Xn = 1A (Y1 ) + + 1A (Yn )
binomialfordelt med antalsparameter n og sandsynlighedsparameter P (Y1
A). Vi kan tnke p
a Yi -erne som udfaldene af en rkke uafhngige
forsg. Den relative frekvens af forsg med udfald i mngden A blandt
de frste n forsg er Xn /n. Denne har middelvrdi P (Y1 A) og varians
P (Y1 A)(1 P (Y1 A))/n. Variansen aftager alts
a, n
ar antallet af
forsg, n, vokser, s
a vi ser, at fordelingen af den relative frekvens bliver mere og mere koncentreret omkring P (Y1 A), n
ar n g
ar mod uendelig, hvilket underbygger sandsynlighedsregningens frekvensfortolkning.
Vi skal i Kapital 7 give et mere prcist udsagn.
2
Eksempel 3.8.11 Lad (S1 , . . . , Sk ) vre polynomialfordelt med antalsparameter n og sandsynlighedsparametre p1 , . . . , pk . Da er E (Si ) = npi ,
Var (Si ) = npi (1 pi ),
Cov (Si , Sj ) = npi pj , n
ar i 6= j,
og
corr(Si , Sj ) =
se opgave 3.25.

pi pj
,
(1 pi )(1 pj )
2

Eksempel 3.8.12 Lad (x1 , y1 ), . . . , (xn , yn ) vre givne talpar. Vi kan


tnke p
a n par af samhrende m
alinger, f. eks. hjde og vgt for n personer. Ved den empiriske fordeling af disse observationer forst
as fordelingen p
a mngden best
aende af de n givne talpar, som fremkommer ved at

3.8 Kovarians og korrelation

103

as s
aledes,
tildele hvert observationspar sandsynligheden n1 . Det skal forst
at hvis to eller flere af disse talpar er sammenfaldende, s
a f
ar det tilsvarende punkt i IR2 sandsynlighed lig antal sammenfaldende observationer
divideret med n. En stokastisk variabel (X, Y ) med denne fordeling kan
opfattes som en observation, der er tilfldigt udvalgt blandt de n givne.
For en s
adan stokastisk variabel glder, at
1
(x1 + . . . + xn ),
n
1
E(Y ) = y =
(y1 + . . . + yn ),
n
n
1X
Var(X) =
(xi x)2 ,
n i=1
n
1X
(yi y)2 ,
Var(Y ) =
n i=1

E(X) = x =

n
1X
Cov(X, Y ) =
(xi x)(yi y),
n i=1
Pn
(xi x)(yi y)
.
corr(X, Y ) = qP i=1
Pn
n
2
2
(x

)
(y

)
i
i
i=1
i=1

Her er x (den empiriske middelvrdi) og n1 (xi x)2 (den empiriske


varians) velkendte strrelser fra deskriptiv statistik, knyttet til den endimensionale empiriske fordeling af xerne (bortset fra, at man sdvanligvis dividerer med n 1 i stedet for n ved udregning af den empiriske
P
varians, se opgave 3.26). Strrelsen n1 (xi x)(yi y) er kendt som
den empiriske kovarians (idet man dog ogs
a her plejer at normere med
n 1, ikke n). Den sidste strrelse corr(X, Y ) kaldes naturligvis den empiriske korrelation. Fortolkningen af denne er, at hvis der p
a nr sm
a
afvigelser glder yi + xi , > 0, svarende til at de to-dimensionale
observationer grupperer sig omkring en linie med positiv hldning, s
a
vil den empiriske korrelation vre nr ved 1. Tilsvarende vil en empirisk korrelation vre nr 1, n
ar observationerne grupperer sig omkring
en linie med negativ hldning. Hvis den empiriske korrelation er nr
0, er der ingen afhngighed af denne simple linere art mellem xer og
yer. Prcis hvor nr 0, den empiriske korrelation skal vre, for at dette
kan konkluderes, siger ovenst
aende ikke noget om. En tommelfingerregel,

104

Fordelinger p
a endelige mngder

som ikke kan begrundes her, g


ar udp
a, at hvis den empiriske korrelation ligger inden for grnserne 2/ n, s
a er der ikke tegn p
a en s
adan
sammenhng.
2

3.9

Sammenfatning

I Kapitel 3 har vi studeret sandsynlighedsm


al p
a endelige mngder og i
den forbindelse indfrt en rkke centrale begreber og vist nogle vigtige
resultater. Vi har indfrt sandsynlighedsfunktionen, som er en naturlig
m
ade at specificere et sandsynlighedsm
al p
a en endelig mngde. Vi har
set, hvordan vi i situationer, hvor vi kender sandsynlighedsfunktionen for
en stokastisk variabel eller vektor X, kan finde sandsynlighedsfunktionen
for den stokastiske variable, der fremkommer ved at anvende en funktion p
a X. Et vigtigt specialtilflde er, at vi kan finde den marginale
fordeling af en af koordinaterne i en stokastisk vektor ud fra den simultane sandsynlighedsfunktion. Et lige s
a vigtigt specialtilflde er, at vi
kan finde sandsynlighedsfunktionen for en sum af to stokastiske variable.
Videre var vi lrt, hvordan man p
a en simultan sandsynlighedsfunktion
for en stokastisk vektor ser, om koordinaterne er uafhngige stokastiske
variable.
Vi har ogs
a indfrt nogle begreber, som giver en mere summarisk beskrivelse af den stokastiske variation af en stokastisk variabel eller vektor.
Middelvrdien er et tal, som angiver en typisk vrdi af en stokastisk variabel. Den angiver alts
a en slags centrum for fordelingen. Variansen er
et tal, der angiver, hvor meget en stokastisk variabel varierer. Jo strre
variansen er, jo mere er fordelingens sandsynlighedsmasse spredt ud. Hvis
variansen er nul, ligger hele sandsynlighedsmassen s
aledes i det punkt, der
er angivet ved middelvrdien. Endvidere er kovariansen og korrelationen
tal, der for to stokastiske variable indikerer, om er er en sammenhng
mellem deres tilfldige variation. Korrelationen er lettest at fortolke, da
den ikke afhnger af de anvendte m
aleenheder, mens kovariansen spiller en vigtig rolle ved beregningen af variansen af en sum af stokastiske
variable.
Endelig har vi indfrt nogle ofte anvendte fordelinger p
a endelige
mngder, nemlig binomialfordelingen, polynomialfordelingen og den hypergeometriske fordeling.

3.10 Opgaver

3.10

105

Opgaver

3.1 Lad N vre et positivt helt tal og definer funktionen


f (i) = c 2i

for i {1, 2, . . . , N }.

Hvad skal vrdien af c vre, for at f er en sandsynlighedsfunktion


p
a mngden {1, 2, . . . , N } ? Vink: Brug formel (C.0.1) p
a side 265.
3.2 Et panel af colasmagere p
a fem personer skal forsge at skelne mellem to colamrker, som vi kan betegne med C og P . De 5 colasmagere f
ar hver serveret et glas af den samme slags cola, idet man
ved kast med en rlig mnt har valgt cola P eller cola C. Antag,
at hver colasmager har sandsynlighed p for at bestemme colamrket korrekt. Det viser sig, at 4 ud af 5 gttede p
a cola P , mens
1 gttede p
a cola C. Hvad er den betingede sandsynlighed givet
dette resultat for, at det var cola C, der blev serveret. Vink: Bayes
formel.
3.3 Lad S vre binomialfordelt med parametre n og p.
(a) Vis at
P (S = s + 1) =

ns
p

P (S = s).
s+1 1p

(b) Vis at
P (S = s + 1) > P (S = s) s < (n + 1)p 1
P (S = s + 1) = P (S = s) s = (n + 1)p 1

P (S = s + 1) < P (S = s) s > (n + 1)p 1

(c) Vis, at hvis (n+1)p ikke er et heltal, s


a har binomialfordelingens
sandsynlighedsfunktion entydigt maksimum i punktet s = [(n +
1)p], dvs. dens vrdi i dette punkt er strre end vrdien i ethvert
andet punkt. Her betegner [x] heltalsdelen af x, dvs. det strste
hele tal, som er mindre end eller lig x.
Hvad sker der hvis (n + 1)p er et heltal?

106

Fordelinger p
a endelige mngder

3.4 Fem terninger kastes. Hvad er sandsynligheden for at f


a
(a) netop tre seksere?
(b) mindst tre seksere?
(c) tre (men ikke fire eller fem) ens?
(d) tre, fire eller fem ens?
3.5 Bevis Stning 3.2.6, f. eks. ved at g
a tilbage til binomialfordelingens
definition som fordelingen af en sum af uafhngige 0-1-variable (se
Definition 3.2.1).
3.6 Lad X1 og X2 vre uafhngige stokastiske variable, som er binomialfordelte med parametre henholdsvis (n1 , p) og (n2 , p). St
Y = (X1 + X2 )/(n1 + n2 ).
(a) Find mngden F af mulige vrdier af Y .
(b) Find q(y) = P (Y = y) for y F .
3.7 Lad pN,R,n : {0, 1, . . . , n} [0, 1] betegne sandsynlighedsfunktionen for den hypergeometriske fordeling med parametre N, R og n.
Vis relationerne
pN,R,n (x) = pN,n,R (x),
pN,R,n (x) = pN,R,N n (R x),
pN,R,n (x) = pN,N R,n (n x).
Disse relationer flger af formler, udledt i Afsnit 3.3, men de har
ogs
a et intuitivt indhold, som br overvejes.
3.8 13 kort udtages tilfldigt fra et almindeligt spil best
aende af 52
kort.
(a) Hvad er sandsynligheden for at f
a mindst 2 esser ?
(b) Hvad er sandsynligheden for at f
a mindst 2 esser, givet at man
ikke f
ar en eneste konge?
(c) Hvad er den betingede fordeling af antallet af esser, givet at man
ikke f
ar en eneste konge? (opskriv de 5 punktsandsynligheder).
(d) Er antallet af esser stokastisk uafhngigt af antallet af konger?

3.10 Opgaver

107

3.9 Formuler det til Stning 3.4.1 svarende resultat for hjere-dimensionale fordelinger, og diskuter, hvordan det kan vises. Overvej ogs
a
at resultatet er et specialtilflde af Stning 3.4.2.
3.10 Vis ved at kombinere resultaterne i Stning 3.2.6 og Korollar 3.6.3
at
!
!
!
i
X
n1 + n 2
n1
n2
=
,
i
j
ij
j=0
hvor n1 og n2 er vilk
arlige positive hele tal, og i er et helt tal
mellem 0 og n1 + n2 . Prv at give en kombinatorisk fortolkning af
den fundne formel.
3.11 En terning kastes 12 gange.
(a) Hvad er sandsynligheden for netop at f
a 2 1ere, 2 2ere, . . . , 2
6ere?
(b) Hvad er sandsynligheden for netop at f
a 2 1ere og 2 6ere?
3.12 Lad (S1 , . . . , S5 ) vre polynomialfordelt af orden 5 med antalsparameter n og sandsynlighedsparametre p1 , . . . , p5 . De flgende
sprgsm
al besvares lettest ved direkte anvendelse af polynomialfordelingens definition (Definition 3.5.1).
(a) Vis at S1 er binomialfordelt med antalsparameter n og sandsynlighedsparameter p1 .
(b) Vis at S1 + S2 er binomialfordelt med antalsparameter n og
sandsynlighedsparameter p1 + p2 .
(c) Vis at (S1 + S2 , S3 + S4 , S5 ) er polynomialfordelt af orden 3 med
antalsparameter n og sandsynlighedsparametre p1 + p2 , p3 + p4 og
p5 .
(d) Vis til slut Stning 3.5.5, som (a), (b) og (c) er specialtilflde
af.
3.13 Lad X og Y vre uafhngige stokastiske variable, som begge er
ligefordelte p
a mngden {0, 1, . . . , N }. Find P (X Y ) og P (X =
Y ). Find dernst sandsynlighedsfunktionerne for de stokastiske variable X Y , X Y og |X Y |.

108

Fordelinger p
a endelige mngder

3.14 Lad (X1 , X2 ) vre en to-dimensional stokastisk vektor, og antag


at sandsynlighedsfunktion p(x1 , x2 ) for den simultane fordeling af
(X1 , X2 ) er givet ved flgende tabel.

x2

x1
-1
0
2
6
3
0
0
1/9 4/27
1 2/9
0
1/9 1/9
-2 1/9 1/27 1/27 1/9

Find sandsynligheden for flgende tre hndelser:


(a) X1 er et lige tal,
(b) X1 X2 er et ulige tal,
(c) X2 > 0 og X1 0.
3.15 Lad (X1 , X2 ) vre en to-dimensional stokastisk vektor, og antag
at sandsynlighedsfunktion p(x1 , x2 ) for den simultane fordeling af
(X1 , X2 ) er givet ved flgende tabel.

x2

x1
-1
0
1
1 0.11 0.10 0.15
0 0.14 0.12 0.14
-1 0.09 0.08 0.07

(a) Find sandsynlighedsfunktionerne for de marginale fordelinger


for X1 og X2 .
(b) Undersg om X1 og X2 er uafhngige.
(c) Find sandsynlighedsfunktionen for den stokastiske variable Z =
X1 X2 .
(d) Definer en ny stokastisk vektor ved (Y1 , Y2 ) = (X12 , X22 ). Find
sandsynlighedsfunktion for den simultane fordeling af (Y1 , Y2 ), og
undersg om Y1 og Y2 er uafhngige.
(e) Beregn middelvrdien af Z, Y1 og Y2 . Find dernst middelvrdi
og varians af X1 og X2 samt Cov(X1 , X2 ) og corr(X1 , X2 ).

3.10 Opgaver

109

3.16 Lad X vre en stokastisk variabel, hvis fordeling er givet ved


P (X = 1) = 1 P (X = 0) = p,
og lad den stokastiske variable Y opfylde, at
P (Y = 1| X = 0) = 1 P (Y = 0| X = 0) = p0
P (Y = 1| X = 1) = 1 P (Y = 0| X = 1) = p1 ,
hvor (p, p0 , p1 ) (0, 1)3 .

(a) Find fordelingen af Y .

(b) Find den simultane fordeling af den stokastiske vektor (X, Y ).


(c) Find en betingelse p
a (p0 , p1 ), som sikrer, at X og Y er uafhngige.
(d) Find en betingelse p
a (p, p0 , p1 ), som sikrer, at X og Y har
samme marginale fordeling.
3.17 Additionsformlerne (1.3.11) og Opgave 1.13 angav formler for henholdsvis P (A1 A2 ) og P (A1 A2 A3 ), udtrykt ved sandsynligheder for fllesmngder mellem hndelserne Ai , i = 1, 2, 3. Vis den
generelle formel
P (A1 . . . An ) =

n
X

(1)k+1

k=1

1i1 <i2 <...<ik n

P (Ai1 . . . Aik ).

Formlen kan vises ved induktion efter n; men grunden til, at vi


har udskudt den til nu, er at den er nemmere at gennemskue, n
ar
man tnker p
a sandsynligheder som middelvrdier af indikatorfunktioner. Hermed menes, at man til enhver hndelse A knytter
er stokastisk variabel 1A , som er lig en, n
ar udfaldet er i A, og som
ellers er lig nul. Iflge Eksempel 3.7.2 er E(1A ) = P (A). Begynd
med at vise at
1A1 ...An = 1 (1 1A1 ) . . . (1 1An )
=

n
X

k=1

(1)k+1

1i1 <i2 <...<ik n

1 A i1 . . . 1 A ik .

110

Fordelinger p
a endelige mngder

3.18 Benyt Opgave 3.17 til at lse flgende klassiske problem, kaldet rencontreproblemet: n breve, nummereret 1, . . . , n, lgges tilfldigt i
n konvolutter, ligeledes nummereret 1, . . . , n. Hvad er sandsynligheden for, at ikke et eneste brev kommer i konvolutten med samme
nummer? Vink: Lad Ai betegne hndelse at det ite brev kommer
i konvolut nr. i; s
a er det ikke svrt at beregne sandsynligheder for
hndelser af formen Ai1 . . . Aik .
Det mest interessante ved dette problem er dets lsning. Den nskede sandsynlighed viser sig at blive


1
1
1
1
1 1 + + . . . (1)n
,
2! 3! 4!
n!
som kan vises (eksponentialfunktionens rkkeudvikling) at konvergere mod e1 = 0.36788 for n . Konvergensen er meget hurtig.
I praksis er lsningen uafhngig af n, n
ar blot n er strre end ca.
7.
3.19 Vis, at der for ethvert a > 0 glder, at
P (|X| a)

E|X|
.
a

Denne ulighed er kendt som Markovs ulighed. Vink: Bemrk at


1[a,) (|X|) |X|
.
a
3.20 Angiv middelvrdi, varians og spredning for
(a) En stokastisk variabel som er ligefordelt p
a {1, 2, 3, 4, 5, 6},
f. eks. antal jne ved et slag med en terning.
(b) Summen af jnene i et slag med to terninger.
(c) En stokastisk variabel som er ligefordelt p
a {1, 2, . . . , n}. Vink:
1 + 2 + + n = 21 n(n + 1) og 12 + 22 + . . . + n2 = 61 n(2n + 1)(n + 1).
3.21 Lad X vre binomialfordelt med antalsparameter n og sandsynlighedsparameter p. Find E(X(X 1)) ved hjlp af Stning 3.7.3,
og brug resultatet til at give et alternativt bevis for, at Var(X) =
np(1 p).

3.10 Opgaver

111

3.22 For en stokastisk variabel Y defineres det andet moment omkring


IR som E ((Y )2 ). Vis at denne strrelse, som funktion af
, antager sin mindste vrdi for = EY . Den mindste vrdi er
Var(Y ).
3.23 Vis, for en stokastisk variabel Y , at hvis
P (Y [a, b]) = 1,
s
a er
a EY b og

Var(Y )


ba
.
2

2

)2 ba
Vink: Ang
aende den sidste ulighed, vis at E (Y a+b
,
2
2
og benyt Opgave 3.22. For hver af disse uligheder, hvorn
ar glder
der lighedstegn?
3.24 En stokastisk variabel X har middelvrdi 5 og varians 2. Hvad er
E(7 + 8X + X 2 )?
3.25 Vis p
astandene i Eksempel 3.8.11. Vink: Iflge Stning 3.5.5 er Si ,
Sj og Si + Sj binomialfordelte med antalsparameter n og sandsynlighedsparametre henholdsvis pi , pj og pi + pj . Udtryk Var(Si + Sj )
ved varianserne af Si og Sj og kovariansen mellem disse.
Hvorn
ar er korrelationen mellem Si og Sj lig -1?
3.26 Lad X1 , . . . , Xn vre uafhngige, identisk fordelte stokastiske vari = 1 (X1 + . . . + Xn ),
able med middelvrdi og varians 2 . St X
n
og definer den empiriske varians s2 ved
s2 =

n
1 X
2.
(Xi X)
n 1 i=1

Vis at E(s2 ) = 2 .
3.27 Lad X1 , X2 og X3 vre identisk fordelte, uafhngige stokastiske
variable med strengt positiv varians. Vis at
1
corr(X1 + X2 , X2 + X3 ) = .
2

112

Fordelinger p
a endelige mngder

3.28 Lad X vre en stokastisk variabel, som antager vrdier i mngden


{1, 0, 1}, og lad dens sandsynlighedsfunktion p vre givet ved
p(1) = 1/4,

p(0) = 1/2,

p(1) = 1/4.

Definer desuden Y = X 2
(a) Bestem middelvrdi og varians for X.
(b) Bestem sandsynlighedsfunktionen for Y , samt middelvrdi og
varians for Y .
(c) Vis at X og Y er ukorrelerede, d.v.s. Cov(X, Y ) = 0.
(d) Bestem sandsynlighedsfunktionen for (X, Y ), og vis at X og Y
ikke er uafhngige.
3.29 For en stokastisk vektor (X1 , . . . , Xk ) defineres kovariansmatricen
som k k-matricen V = {vij }, hvor vii = Var(Xi ), i = 1, . . . , k,
og hvor vij = Cov(Xi , Xj ), n
ar i 6= j. Kovariansmatricen er alts
a
symmetrisk (vij = vji ).
(a) En symmetrisk k k-matrix V = {vij } kaldes positiv semidefinit, hvis
k X
k
X

i=1 j=1

ai aj vij 0

for alle (a1 , . . . , ak ) IRk . Vis, at kovariansmatricen er positiv semidefinit. Vink: Beregn variansen af a1 X1 + + ak Xk .

(b) Determinanten af en positiv semi-definit matrix er ikke-negativ.


Benyt denne kendsgerning til at give et alternativt bevis for (a) i
Stning 3.8.7.

(c) En symmetrisk k k-matrix V = {vij } kaldes positiv definit,


hvis den er positiv semi-definit og desuden opfylder, at
k X
k
X

ai aj vij = 0

i=1 j=1

hvis og kun hvis a1 = = ak = 0. Antag, at den stokstiske vektor


(X1 , . . . , Xk ) opfylder, at a1 X1 + + ak Xk er degenereret hvis og
kun hvis vektoren a1 = = ak = 0. Vis, at kovariansmatricen da
er positiv definit. Overvej betingelsens geometriske fortolkning.

3.10 Opgaver

113

3.30 Antag, at X1 og X2 er uafhngige stokastiske variable, som begge


er ligefordelte p
a {0, 1, . . . , N }. Find sandsynlighedsfunktionen for
X1 + X 2 .

Kapitel 4
Generelle diskrete fordelinger
4.1

Diskrete fordelinger

I Kapitel 3 betragtede vi fordelinger, hvor sandsynlighedsmassen ligger p


a
en endelig mngde. Dette er ikke altid naturligt, som flgende eksempel
viser.
Eksempel 4.1.1 Et servicefirma har indrette en web-site, som kunderne
kan besge for at f
a forskellige informationer og bestille tjenesteydelser.
Erfaringen viser, at web-siten i gennemsnit f
ar 180 besg i timen, men
at antallet af besg varierer p
a tilfldig m
ade. For at vlge en passende computerkapacitet, som sikrer at kunderne kun sjldent oplever
problemer, er det vigtigt at have en model for den stokastiske variation
af antallet af besg der begynder per minut. Det er ikke nok at vide,
at der i gennemsnit begynder tre besg per minut; man m
a ogs
a kende
sandsynligheden for at vsentligt hjere antal optrder.
Vi kan dele et minut op i sm
a tidsintervaller af lngde 1 sekund, og
definere 60 stokastiske variable X1 , . . . , X60 ved
Xi =

1 hvis et besg begynder i ite tidsinterval


0 ellers.

Hvis vi ignorerer muligheden for, at mere end et besg begynder i lbet


af et af de sm
a tidsintervaller, er det samlede antal besg, som begynder i
lbet af et minut, X, givet ved X = X1 + +X60 . Vi antager yderligere,

4.1 Diskrete fordelinger

115

at de stokastiske variable X1 , . . . , X60 er uafhngige og identisk fordelte


med P (Xi = 1) = 3/60 = 1/20. Det sidste valg er i overensstemmelse
med sandsynlighedsregningens frekvensfortolkning. Af disse antagelser
flger det, at den stokastiske variabel X er binomialfordelt med antalsparameter 60 og sandsynlighedsparameter 1/20. Dette er imidlertid ikke
nogen helt perfekt model, fordi vi valgte at ignorere muligheden for, at
mere end et besg begynder i samme lille tidsinterval, og sandsynligheden
for dette er nok ikke helt negligibel. Vi kan dog let forbedre modellen. Vi
kan nemlig bare dele et minut op i delintervaller af lngde 1/10 sekund,
og stte sandsynligheden for at et besg begynder i et delinterval til
1/200. Sandsynligheden for at mere end et besg begynder i lbet af den
samme 1/10 sekund er nppe srlig stor. I denne model er det samlede
antal besg per minut, X, binomialfordelt med antalsparameter 600 og
sandsynlighedsparameter 1/200.
Men vi har stadig lavet en approximation, s
a der er stadig basis for
at forbedre modellen. For ethvert n IIN kan vi dele et minut op i n delintervaller af lngde 1/n minut og stte sandsynligheden for at et besg
begynder i et af intervallerne til 3/n. Ved at argumentere som tidligere
f
as, at antallet af besg per time er binomialfordelt med antalsparaneter
n og sandsynlighedsparameter 3/n. For ethvert n laver vi stadig en lille
approximation, som dog bliver mindre og mindre, n
ar vi gr n strre og
strre. Vi fornemmer, at den perfekte model kan opn
as ved at lade n g
a
mod uendelig.
2
For at lave den grnseovergang, som synes at kunne give en tilfredsstillende model i Eksempel 4.1.1, har vi brug for flgende stning.
Stning 4.1.2 Lad {pn } vre en flge af reelle tal i intervallet (0, 1),
som opfylder, at npn [0, ) for n . Da glder for ethvert
x IIN0 , at
!
x
n
lim
pxn (1 pn )nx = e .
(4.1.1)
n
x
x!
Bevis: Bemrk frst, at da er et endeligt tal, medfrer npn ,
at pn 0. Vi begynder med tilfldet x > 0 og laver flgende enkle

116

Generelle diskrete fordelinger

omskrivning
n
x

pxn (1 pn )nx
(npn )x
(1 pn )n .
x!

0.00

0.05

0.10

0.15

0.20

0.25

0.30

= [1 1/n] [1 (x 1)/n](1 pn )x

10

Figur 4.1.1: Som en illustration af Stning 4.1.2 er her sandsynlighedsfunktionen for binomialfordelingen med antalsparameter 60 og sandsynlighedsparameter 1/20 tegnet som fede lodrette streger, mens grnsevrdien givet ved (4.1.1) er angivet ved siden af med tyndere streger.
Det er klart, at
[1 1/n] [1 (x 1)/n](1 pn )x 1,
og at
(npn )x x

4.1 Diskrete fordelinger

117

n
ar n , men vi m
a se lidt nrmere p
a (1 pn )n . Da den naturlige
logaritme er differentiabel i 1 med differentialkoefficient 1, ser vi at
log(1 pn )n = npn

log(1) log(1 pn )
,
pn

n
ar n , s
a (1 pn )n e .
Tilfldet x = 0 er lettere. Her er binomialsandsynligheden lig (1
n
pn ) , som vi lige har set konvergerer mod e . Alts
a glder (4.1.1) ogs
a
for x = 0.
2
Stning 4.1.2 siger, at hvis Xn er binomialfordelt med antalsparameter n og sandsynlighedsparameter pn , hvor pn er som beskrevet i stningen, s
a vil
x
P (Xn = x) e
x!
n
ar n . For et givet n er de mulige vrdier for Xn mngden
{0, 1, . . . n}, som jo vokser op mod IIN0 , n
ar n . Man m
a derfor
sprge sig, om man p
a en eller anden m
ade kan lade grnsevrdien i
(4.1.1) definere en sandsynlighedsfordeling p
a IIN0 . Med pn = 3/n (og
dermed = 3) ville vi derved f
a en tilfredsstillende model i Eksempel
4.1.1. Det viser sig, at det kan man godt, men vi har endnu ikke behandlet fordelinger p
a en uendelig mngde som IIN0 , s
a det m
a vi lige have p
a
plads frst.
Vi vil definere sandsynlighedsm
al p
a mngder, som kan skrives p
a
formen
T = {xi | i IIN}.
(4.1.2)
Man kan kort sige, at man skal kunne tlle elementerne i T . Elementerne
xi behver ikke vre reelle tal; de kan for eksempel godt tilhre IRn .
Vigtige eksempler p
a mngder af denne type er IIN, ZZ og IIN k . At ZZ kan
skrives p
a formen (4.1.2) ses p
a flgende m
ade. Hvis vi definerer
xi =

i1
2
2i

hvis i er ulige
hvis i er lige,

a formen (4.1.2) er mindre


er ZZ = {xi | i IIN}. At IINk kan skrives p
oplagt, men vil blive vist i et matematikkursus. Man skal bare finde en

118

Generelle diskrete fordelinger

snedig m
ade at tlle elementerne i IINk p
a. Vi njes her med at antyde,
hvordan man kan tlle elementerne i IIN2 :
..
.

..
.
9
5 8
2 4 7

10
6
3
1

Ved en lignende argumentation kan mere generelt det vises, at hvis T1 og


T2 er to mngder, som begge kan skrives p
a formen (4.1.2), s
a kan ogs
a
produktmngden T1 T2 skrives p
a denne form. Mngder af formen
(4.1.2) og endelige mngder kaldes under et tllelige mngder.
En sandsynlighedsfordeling, som er koncentreret p
a en tllelig mngde kaldes en diskret fordeling. Da vi i forrige kapitel gennemgik teorien
for fordelinger, der er koncentreret p
a en endelig mngde, vil vi her kun
eksplicit betragte det uendelige tilflde, alts
a T = {xi | i IIN}. Det vil
dog vre klart, at alt, hvad der st
ar i dette kapitel, ogs
a glder for en
fordeling, som er koncentreret p
a en endelig mngde T = {x1 , . . . , xN }. I
resten af dette kapitel betegner T en mngde p
a formen T = {xi | i IIN}.
Ligesom for en endelig mngde defineres en fordeling p
a en tllelig
mngde ved hjlp af en sandsynlighedsfunktion.
Definition 4.1.3 En funktion p fra en tllelig mngde T = {xi | i IIN}
ind i intervallet [0, 1], som opfylder, at

p(xi ) = 1,

(4.1.3)

i=1

kaldes en sandsynlighedsfunktion p
a T.
Uendelige summer som den i (4.1.3) er behandlet i Appendix C. Den
vsentlige forskel mellem dette kapitel og Kapitel 3 er, at man skal vre
lidt mere p
apasselig med uendelige summer end med endelige summer.
Eksempel 4.1.4 Funktionen
p(x) =

x
e ,
x!

x IIN0 ,

4.1 Diskrete fordelinger

119

hvor > 0, er en sandsynlighedsfunktion p


a IIN0 . Det er klart, at p(x) 0.
Fra den matematiske analyse er det endvidere kendt (eller bliver det), at
eksponentialfunktionen kan skrives som den uendelige rkke
exp(y) =

yn
y2 y3 y4
=1+y+
+
+
+ ,
2
6
24
n=0 n!

der er konvergent for alle reelle tal y. Heraf flger det, at

n
e = 1.
n=0 n!
S
a mangler vi bare at indse, at p(x) 1, men det flger af, at p(x)
n=0 p(n) = 1 for alle x IIN0 , da alle led i summen er positive.
2

Eksempel 4.1.5 Funktionen


p(x) = (1 )x ,

x IIN0 ,

hvor (0, 1), er en sandsynlighedsfunktion p


a IIN0 . Det er klart, at
p(x) [0, 1]. Da
n
X
i=0

(1 )i =

1 (1 )n+1
1 (1 )n+1
=
,
1 (1 )

flger det, at

X
i=0

(1 )i = lim

n
X

1
(1 )i = = 1,

i=0

dvs. p(x) opfylder (4.1.3).


2
Enhver sandsynlighedsfunktion p p
a en tllelig mngde T = {xi | i
IIN} definerer et sandsynlighedsm
al p
a T ved
P (A) =

xA

p(x) =

X
i=1

p(xi )1A (xi ),

(4.1.4)

120

Generelle diskrete fordelinger

hvor A er en vilk
arlig delmngde af T . I den sidste sum betegner 1A
indikatorfunktionen for mngden A, som er defineret ved (A.1.15). Der
mindes om, at 1A (x) er lig en, hvis x tilhrer A, og at 1A (x) ellers er lig
nul. Summen i (4.1.4) har ofte uendelig mange led, men da p(xi )1A (xi )
p(xi ), flger det af (4.1.3), at summen konvergerer. Hvis et sandsynlighedsm
al er givet ved (4.1.4), siger vi, at det har sandsynlighedsfunktion
p.
Lad os nu vise, at P er et sandsynlighedsm
al p
a T . Frst bemrkes
det, at P (A) 0, da alle led i summen (4.1.4) er positive, og at P (A)
P
i=1 p(xi ) = 1. Da
P (T ) =

p(xi )1T (xi ) = 1,

i=1

er (1.3.2) opfyldt, og hvis A og B er disjunkte delmngder af T er


P (A B) =
=

i=1

X
i=1

p(xi )1AB (xi ) =

p(xi )[1A (xi ) + 1B (xi )]

i=1

p(xi )1A (xi ) +

p(xi )1B (xi ) = P (A) + P (B),

i=1

s
a ogs
a (1.3.3) holder. Vi har her brugt, at 1AB (x) = 1A (x) + 1B (x)
(overvej hvorfor dette er rigtigt).
En stokastisk variabel eller vektor, hvis fordeling er en diskret fordeling, kaldes en diskret stokastisk variabel eller vektor. For en diskret
stokastisk variabel eller vektor X, hvis fordeling har sandsynlighedsfunktionen p (man siger kort, at X har sandsynlighedsfunktion p), glder,
at
P (X = x) = p(x)
for alle x T . Dette flger umiddelbart af (4.1.4) ved at stte A = {x}.
Man kalder derfor ogs
a p(x) for punktsandsynligheden i x.
Der skal lige erindres om, at man godt kan opfatte en diskret fordeling
p
a en tllelig mngde T IRn som en fordeling p
a hele IRn ved for en
n
vilk
arlig delmngde A IR at stte P (A) = P (A T ), se diskussionen
i begyndelsen af Kapitel 3. For en diskret stokastisk variabel eller vektor
X koncentreret p
a den tllelige mngde T med sandsynlighedsfunktion

4.1 Diskrete fordelinger

121

p glder iflge (4.1.4), at


P (X A) =

p(x) =

P (X = x),

(4.1.5)

xAT

xAT

hvor A er en vilk
arlig delmnge af IR eller IRn .
Eksempel 4.1.4 (fortsat). Vi s
a ovenfor, at funktionen
x
e , x IIN0 ,
(4.1.6)
x!
hvor > 0, er en sandsynlighedsfunktion p
a IIN0 . Den diskrete fordeling
p
a IIN0 defineret ved sandsynlighedsfunktion (4.1.6) kaldes Poissonfordelingen med parameter . Eksempel 4.1.1 sammen med Stning 4.1.2
p(x) =

0.00

0.05

0.10

0.15

0.20

0.25

0.30

Poissonfordelingen

10

12

Figur 4.1.2: Sandsynlighedsfunktionen for Poissonfordelingen med parameter 3.


viser, at Poissonfordelingen er en god model for antallet af tilfldigt ankommende hndelser, som for eksempel besg p
a en web-site. Der er

122

Generelle diskrete fordelinger

mange andre situationer, hvor man kan give argumenter, som er helt
analoge til argumentet i Eksempel 4.1.1, for at et observeret antal er udfald af en Poissonfordelt stokastisk variabel. Eksempler p
a strrelser, som
ofte kan antages at vre Poissonfordelte, er antallet af skadesanmeldelser
af en bestemt type til et forsikringsselskab i en bestemt periode, antal
trafikulykker per dag af en given type i et givet omr
ade, og antal fdsler
per dag i et givet omr
ade. I nogle tilflde er det ikke tiden, men derimod
rummet, der deles op i sm
a delmngder, n
ar der skal argumenteres for
at en strrelse er Poissonfordelt. S
aledes er antallet af bakterier af en
bestemt type i en vandprve ofte Poissonfordelt.
2
Lad os lige kort betragte fordelingsfunktionen for en diskret fordeling.
Vi njes med at betragte en diskret fordeling, som er koncentreret p
a IIN 0 .
Lad p betegne dens sandsynlighedsfunktion. Da er fordelingsfunktionen
F for P givet ved
F (x) =

p(i)1(,x] (i) =

i=0

[x]
X
i=0

p(i) for x 0,

(4.1.7)

hvor [x] betegner heltalsdelen af x (dvs. det strste hele tal, der er mindre
end eller lig x), mens F (x) = 0, n
ar x < 0, og at
F (n) =

n
X
i=0

p(i)

p(i) = 1,

i=0

n
ar n . Funktionen F er konstant, n
ar x IR\IIN0 , mens den har et
spring opad af strrelse p(i) i de i IIN0 , for hvilke p(i) > 0. I springpunkterne er F kontinuert fra hjre, men ikke fra venstre. Hermed menes, at
limn F (i + n1 ) = F (i), mens limn F (i n1 ) = F (i 1) 6= F (i).
Bemrk, at vi kan finde sandsynlighedsfunktionen ud fra fordelingsfunktionen, idet
p(x) = F (x) F (x 1) for x IIN0 .

(4.1.8)

Da sandsynlighedsfunktionen bestemmer fordelingen, glder det derfor


ogs
a fordelingsfunktionen, som p
ast
aet i Afsnit 2.2.

4.1 Diskrete fordelinger

123

Eksempel 4.1.5 (fortsat). Funktionen


p(x) = (1 )x ,

x IIN0 ,

(4.1.9)

hvor (0, 1), er som vist ovenfor en sandsynlighedsfunktion p


a IIN 0 .
Den diskrete fordeling med sandsynlighedsfunktionen (4.1.9) kaldes den
geometriske fordeling med parameter . Vi vil nu studere et typisk eksempel, hvor denne fordeling optrder.

0.00

0.05

0.10

0.15

0.20

0.25

0.30

0.35

Den geometriske fordeling

10

12

Figur 4.1.3: Sandsynlighedsfunktionen for den geometriske fordelingen


med parameter 0.3.

Betragt et forsg med to mulige udfald K og U , hvor sandsynligheden for udfaldet K er (0, 1). Uafhngige gentagelser af dette forsg
udfres, indtil frste gang resultatet K opn
as. Lad T vre den stokastiske
variable, som angiver ventetiden p
a udfaldet K. Hermed menes det antal
forsg med udfaldet U , der skal udfres inden udfaldet K opn
as. Med
andre ord er T = t, hvis de frste t forsg har udfaldet U , mens forsg
nummer t + 1 har udfaldet K. Den stokastiske variabel T antager kun

124

Generelle diskrete fordelinger

vrdier i mngden IIN0 , og dens fordelingsfunktion har formen (4.1.7),


som vi nu skal se.
Da T i, prcis n
ar de frste i forsg har udfaldet U , og da sandsynligheden for udfaldet U er 1 , er fordelingsfunktionen for T givet
ved
F (i) = P (T i) = 1 P (T > i)
= 1 P (T i + 1) = 1 (1 )i+1

(4.1.10)

for ethvert i IIN0 . Heraf flger det, at


P (T = i) = P (T i) P (T i 1)
= F (i) F (i 1) = (1 )i
for alle i IIN0 . Her er p(i) = (1 )i netop sandsynlighedsfunktionen
defineret ved (4.1.9). Det ses af (4.1.10), at
F (i) =

i
X

j=0

(1 )j ,

alts
a, at F er af formen (4.1.7). Det vil sige, at T s fordeling er den
geometriske fordeling med parameter .
2

4.2

Transformation af diskrete fordelinger

Hvis en diskret stokastisk vektor har sandsynlighedsfunktion p, er der,


ligesom vi s
a det for fordelinger p
a endelige mngder, relationer mellem
p og sandsynlighedsfunktionerne for de tilsvarende marginale fordelinger.
Ogs
a her njes vi med at give disse relationer for en to-dimensional diskret
fordeling, da den interesserede studerende let selv kan formulere og bevise
resultatet for hjere-dimensionale diskrete fordelinger.
Stning 4.2.1 Lad p : T1 T2 7 [0, 1] vre sandsynlighedsfunktionen
for den simultane fordeling af den to-dimensionale diskrete stokastiske
vektor (X1 , X2 ), hvor Xi er koncentreret p
a den tllelige mngde Ti ,
i = 1, 2. Da har de marginale fordelinger af X1 og X2 sandsynlighedsfunktionerne p1 : T1 7 [0, 1] og p2 : T2 7 [0, 1] givet ved
p1 (x1 ) =

x2 T2

p(x1 , x2 )

(4.2.1)

4.2 Transformation af diskrete fordelinger


og
p2 (x2 ) =

125

p(x1 , x2 ).

(4.2.2)

x1 T1

Bevis: Vi viser kun (4.2.1), da de to resultater er helt symmetriske.


P
At p er en sandsynlighedsfunktion p
a T1 ses af, at x1 T1 p1 (x1 ) =
P 1 P
a T1 T2 .
x2 T2 p(x1 , x2 ) = 1, da p er en sandsynlighedsfunktion p
x1 T1
Lad A vre en delmngde af T1 . Af (4.1.4) flger det, at
P (X1 A) = P ((X1 , X2 ) A T2 )
=

p(x1 , x2 ) =

x1 A x2 T2

p1 (x1 ).

x1 A

Dette betyder netop, at p1 er sandsynlighedsfunktionen for den marginale


fordeling af X1 , igen iflge (4.1.4).
2
Der glder flgende transformationsstning for diskrete fordelinger,
som Stning 4.2.1 er et specialtilflde af. Stning 3.4.2 er selvflgelig
ogs
a et specialtilflde.
Stning 4.2.2 Lad (X1 , . . . , Xn ) vre en n-dimensional diskret stokastisk vektor koncentreret p
a den tllelige mngde T IRn med simultan
sandsynlighedsfunktion p, og lad vre en afbildning fra T ind i IR k . Da
er Y = (X1 , . . . , Xn ) en diskret stokastisk vektor koncentreret p
a (T ),
hvis sandsynlighedsfunktion er givet ved
q(y) =

(x1 ,...,xn ) 1 ({y})

p(x1 , . . . , xn ) for y (T ).
P

(4.2.3)

Bevis: At q er en sandsynlighedsfunktion flger af, at y(T ) q(y) =


P
P
P
y(T )
(x1 ,...,xn ) 1 ({y}) p(x1 , . . . , xn ) =
(x1 ,...,xn )T p(x1 , . . . , xn ) = 1.
Lad nu A vre en delmngde af (T ). Da er
P (Y A) = P ((X1 , . . . , Xn ) 1 (A))
=

(x1 ,...,xn ) 1 (A)

p(x1 , . . . , xn )

126

Generelle diskrete fordelinger


=

yA

p(x1 , . . . , xn )

(x1 ,...,xn ) 1 ({y})

q(y).

yA

2
Eksempel 4.2.3 Lad X vre Poisson fordelt med parameter . Da er
Y = X/c, hvor c er et positivt reelt tal, en diskret stokastisk variabel
koncentreret p
a mngden T = {i/c | i IIN0 } med sandsynlighedsfunktion
cy
e
for y T.
q(y) =
(cy)!
Videre er Z = X 2 en diskret stokastisk variabel koncentreret p
a mngden
Te = {i2 | i IIN0 } med sandsynlighedsfunktion

z
q(z) = e for z Te .
( z)!

Med prcis samme bevis som i tilfldet med stokastiske variable


koncentreret p
a endelige mngder vises det, at den nste stning flger
af transformationsstningen 4.2.2.
Stning 4.2.4 Lad (X1 , X2 ) vre en to-dimensional stokastisk vektor,
hvis simultane fordeling har sandsynlighedsfunktionen p. Antag endvidere, at Xi s fordeling er koncentreret p
a IIN0 , i = 1, 2. Da er sandsynlighedsfunktionen for den stokastiske variable Y = X1 + X2 givet ved
q(y) =

y
X

j=0

p(j, y j),

(4.2.4)

for y IIN0 .

4.3

Uafhngige diskrete stokastiske variable

Flgende stning, som giver betingelser for, at n diskrete stokastiske


variable er uafhngige, vises p
a helt samme m
ade som Stning 3.6.1,
bortset fra at summerne her kan vre uendelige.

4.3 Uafhngige diskrete stokastiske variable

127

Stning 4.3.1 Lad (X1 , . . . , Xn ) vre en n-dimensional diskret stokastisk vektor, hvor Xi er koncentreret p
a den tllelige mngde Ti , i =
1, . . . , n, og antag, at den simultane fordeling af (X1 , . . . , Xn ) har sandsynlighedsfunktion p : T 7 [0, 1], hvor T = T1 Tn . Lad endelig
pi : Ti 7 [0, 1], vre sandsynlighedsfunktionen for den marginale fordeling af Xi , i = 1, . . . , n. Da er flgende tre udsagn kvivalente:
1) X1 , . . . , Xn er stokastisk uafhngige,
2) For alle (x1 , . . . , xn ) T er
p(x1 , . . . , xn ) = p1 (x1 ) pn (xn ),

(4.3.1)

3) Der findes n ikke-negative reelle funktioner gi , i = 1, . . . , n, s


a
p(x1 , . . . , xn ) = g1 (x1 ) gn (xn )

(4.3.2)

for alle (x1 , . . . , xn ) T .


Ogs
a for generelle diskrete fordelinger er funktionerne g1 , . . . , gn1 og
gn proportionale med henholdsvis p1 , . . . , pn1 og pn , ligesom der (med
samme argumenter som i Kapitel 3) glder, at Hvis mngden
{(x1 , x2 )|p(x1 , x2 ) > 0}
ikke er en produktmngde, kan X1 og X2 ikke vre uafhngige. Her
betegner p(x1 , x2 ) som tidligere den simultane sandsynlighedsfunktion
for (X1 , X2 ). Det er derfor i den beskrevne situation let at konstatere,
hvis to generelle diskrete stokastiske variable ikke er uafhngige.
I Kapitel 2 blev det lovet, at bevise 2) i Stning 2.4.3 for diskrete
fordelinger. Ideen i beviset for diskrete fordelinger er prcis den samme
som i beviset i Kapitel 2, men lad os alligevel for fuldstndighedens skyld
vise flgende stning.
Stning 4.3.2 Lad (X1 , . . . , Xn ) vre en n-dimensional diskret stokastisk vektor med sandsynlighedsfunktion p, og antag at de stokastiske variable X1 , . . . , Xn er uafhngige. Hvis er en funktion fra IRnk ind i IR,
hvor k < n, er de k + 1 stokastiske variable X1 , . . . , Xk , (Xk+1 , . . . , Xn )
uafhngige.

128

Generelle diskrete fordelinger

Bevis: Vi viser, at sandsynlighedsfunktionen for den diskrete stokastiske


vektor (X1 , . . . , Xk , (Xk+1 , . . . , Xn )) spalter op i et produkt af formen
(4.3.2). Lad T betegne den tllelige mngde, hvorp
a vektoren (Xk+1 , . . . ,
Xn ) er koncentreret. Iflge Stning 4.2.2 er den simultane sandsynlighedsfunktionen for (X1 , . . . , Xk , (Xk+1 , . . . , Xn ))
P (X1 = x1 , . . . , Xk = xk , (Xk+1 , . . . , Xn ) = x)
=

x1 , . . . , Xk = xk , Xk+1 = xk+1 , . . . , Xn = xn )

x1 ) P (Xk = xk )P (Xk+1 = xk+1 , . . . , Xn = xn )

P (X1 =
(xk+1 ,...,xn ) 1 ({x})T
P (X1 =
(xk+1 ,...,xn ) 1 ({x})T
=

= P (X1 = x1 ) P (Xk = xk )

(xk+1 ,...,xn

P (Xk+1 = xk+1 , . . . , Xn = xn )

) 1 ({x})T

= p1 (x1 ) pk (xk )h(x),


hvor h(x) er lig med summen i nstsidste linie. Den simultane sandsynlighedsfunktion spalter alts
a op som nsket, s
aledes at de stokastiske
variable X1 , . . . , Xk , (Xk+1 , . . . , Xn ) iflge Stning 4.3.1 er uafhngige.
2
Stning 2.4.3 indeholder endnu to resultater, som imidlertid flger
af 2), s
a disse [d.v.s. 1) og 3)] er nu ogs
a vist for diskrete stokastiske
variable.
Man har meget ofte brug for at finde fordelingen af summen af to
eller flere uafhngige stokastiske variable p
a IIN 0 , hvilket begrunder, at vi
giver flgende specialtilflde af Stning 4.2.4 for uafhngige stokastiske
variable.
Stning 4.3.3 Lad (X1 , X2 ) vre en to-dimensional diskret stokastisk
vektor. Antag, at X1 og X2 er uafhngige, og at de er koncentreret p
a IIN 0
med sandsynlighedsfunktioner p1 og p2 . Definer en ny stokastisk variabel
ved Y = X1 + X2 . Da er sandsynlighedsfunktionen for den stokastiske
variable Y = X1 + X2 givet ved
q(y) =

y
X

j=0

p1 (j)p2 (y j)

(4.3.3)

4.3 Uafhngige diskrete stokastiske variable

129

for y IIN0 .
Sandsynlighedsfunktionen q givet ved (4.3.3) kaldes, som tidligere
nvnt, foldningen af de to sandsynlighedsfunktioner p1 og p2 , ligesom
man kalder fordelingen af X1 + X2 foldningen af de to marginale fordelinger.
Stning 4.3.4 (Poissonfordelingens foldningsegenskab). Lad X1 , . . . , Xn
vre uafhngige, Poissonfordelte stokastiske variable med parametre 1 ,
. . . , n . Da er X1 + + Xn Poissonfordelt med parameter 1 + + n .
Bevis: Vi kan njes med at vise stningen for n = 2, da det generelle
resultat da flger ved induktion (idet X1 + + Xn = [X1 + + Xn1 ] +
Xn ). For n = 2 flger resultatet af (4.3.3). For y IIN0 er
(yj)

j1 1 2
P (X1 + X2 = y) =
e
e2
j!
(y

j)!
j=0
y
X

y
e(1 +2 ) X
y j (yj)
=
1 2
y!
j=0 j

(1 + 2 )y (1 +2 )
e
,
y!

hvor det sidste lighedstegn flger af binomialformlen; se (B.3.3) i Appendix B.


2
Alt, hvad der stod i forrige kapitel om betinget uafhngighed, holder ogs
a for generelle diskrete stokastiske variable. For god ordens skyld
kommer det hele igen i den diskrete version.
Definition 4.3.5 Lad X1 , X2 og X3 vre tre diskrete stokastiske variable, som er koncentreret p
a de tllelige mngder T1 , T2 og T3 . Da
siges X1 og X2 at vre betinget uafhngige givet X3 , hvis der for alle
(x1 , x2 , x3 ) i T1 T2 T3 , for hvilke P (X3 = x3 ) > 0 glder, at
P (X1 = x1 , X2 = x2 |X3 = x3 ) =
P (X1 = x1 |X3 = x3 )P (X2 = x2 |X3 = x3 ).

(4.3.4)

130

Generelle diskrete fordelinger

Beviset for flgende stning er identisk med beviset for Stning 3.6.5
Stning 4.3.6 Lad (X1 , X2 , X3 ) vre en tre-dimensional diskret stokastisk vektor med simultan sandsynlighedsfunktion p. Antag, at Xi er koncentreret p
a den tllelige mngde Ti , i = 1, 2, 3. Betegn den simultane
sandsynlighedsfunktion for (Xi , Xj ) med pij , og sandsynlighedsfunktionen
for X3 med p3 . Da er flgende tre udsagn kvivalente:
1) X1 og X2 er betinget uafhngige givet X3 ,
2) For alle (x1 , x2 , x3 ) T1 T2 T3 , glder, at
p(x1 , x2 , x3 )p3 (x3 ) = p13 (x1 , x3 )p23 (x2 , x3 ),

(4.3.5)

3) Der findes to ikke-negative reelle funktioner g og h, s


a
p(x1 , x2 , x3 ) = g(x1 , x3 )h(x2 , x3 )

(4.3.6)

for alle (x1 , x2 , x3 ) T1 T2 T3 .

4.4

Middelvrdi og varians

Middelvrdi og varians kan for mange diskrete fordelinger defineres p


a
en m
ade som er helt analog til definitionerne for fordelinger p
a endelige
mngder. Det er dog ikke muligt at definere en middelvrdi og en varians
for alle diskrete fordelinger. Problemet er, at der indg
ar uendelige summer
i definitionerne, og disse kan eventuelt divergere. Vi m
a derfor passe lidt
p
a med summerne, hvilket er den eneste forskel mellem dette afsnit og
afsnit 3.7.
Definition 4.4.1 Lad X vre en diskret stokastisk variabel, som er koncentreret p
a den tllelige mngde T = {xi | i IIN} (xi IR), og som
har sandsynlighedsfuktion p. Da siges X at have middelvrdi, hvis

X
i=1

|xi |p(xi ) < ,

(4.4.1)

4.4 Middelvrdi og varians

131

og vi definerer i s
a fald middelvrdien af X som
E(X) =

xi p(xi ).

(4.4.2)

i=1

Hvis (4.4.1) ikke er opfyldt, siger man, at X ikke har middelvrdi,


eller at middelvrdien ikke er defineret. N
ar vi krver, at (4.4.1) er
opfyldt, er det for at udelukke den ubehagelige situation, hvor
X

xi 0

xi p(xi ) = og

xi <0

xi p(xi ) = .

Hvis T IR+ , kan dette ikke ske, hvorfor man ofte i dette tilflde tillader
sig at skrive E(X) = , n
ar (4.4.1) ikke er opfyldt.
Lad os lige nvne et tilflde, hvor man altid kan vre sikker p
a at
middelvrdien eksisterer. Antag, at X er koncentreret p
a en begrnset mngde, d.v.s. at der findes et c > 0, s
a T [c, c] (og dermed
P (X [c, c]) = 1). En stokastisk variabel med denne egenskab kaldes
begrnset. N
ar T [c, c], er

X
i=1

|xi |p(xi )

X
i=1

cp(xi ) = c

X
i=1

p(xi ) = c < ,

s
a X har middelvrdi. Bemrk, at en fordeling p
a en endelig mngde
er et specialtilflde.
Eksempel 4.1.4 (fortsat). Middelvrdien i Poissonfordelingen findes
ved flgende udregning:

X
X
i
(i1)
j
i X

i e =
e =
e =
e = ,
i=0 i!
i=1 (i 1)!
i=1 (i 1)!
j=0 j!

hvor j = i 1, og hvor vi bruger, at summen i nstsidste udtryk er


summen af Poissonfordelingens punktsandsynligheder, som jo er lig med
en. Parameteren i Poissonfordelingen er alts
a lig med dens middelvrdi.
2

132

Generelle diskrete fordelinger

Eksempel 4.1.5 (fortsat). Middelvrdien i den geometriske fordeling


kan beregnes p
a flgende m
ade. Lad X vre en stokastisk variabel, der
er geometrisk fordelt med parameter p. Da er
E(X) =

ip(1 p) = (1 p)

i=0

= (1 p)

X
i=1

X
i=1

(i 1)p(1 p)

= (1 p)(E(X) + 1),

ip(1 p)i1
i1

X
i=1

p(1 p)

i1

hvoraf det flger, at

1p
.
p
Man br naturligvis frst overveje, om middelvrdien er endelig, for ellers
er ovenst
aende udledning fejlagtig. At summen konvergerer flger af, at
(1 p)i g
ar eksponentielt hurtigt mod nul, mens i kun g
ar linert hurtigt
mod uendelig.
Det forventede antal plat fr frste krone i en serie af mntkast er
= 1, og det forventede antal slag fr frste sekser i en serie af
alts
a 10.5
0.5
= 5. Begge dele lyder jo trovrdigt.
terningkast er 11/6
1/6
2
E(X) =

Man kan beregne middelvrdien af en transformeret diskret stokastisk variabel p


a samme enkle m
ade som for fordelinger p
a endelige mngder.
Stning 4.4.2 Lad X vre en diskret n-dimensional stokastisk vektor,
som er koncentreret p
a den tllelige mngde T IRn , og som har sandsynlighedsfuktion p. Lad endvidere vre en funktion fra T ind i IR. Da
har den stokastiske variable (X) middelvrdi, hvis og kun hvis
X

(x1 ,...,xn )T

|(x1 , . . . , xn )|p(x1 , . . . , xn ) < ,

(4.4.3)

(4.4.4)

og i s
a fald er
E((X)) =

(x1 ,...,xn )T

(x1 , . . . , xn )p(x1 , . . . , xn ).

4.4 Middelvrdi og varians

133

Bevis: Iflge Stning 4.2.2 har fordelingen af (X) sandsynlighedsfunktion


X
p(x1 , . . . , xn ),
q(y) =
(x1 ,...,xn ) 1 ({y})

y (T ). Iflge Definition 4.4.1 har den stokastiske variabel (X) middelvrdi, netop n
ar dens sandsynlighedsfunktion opfylder (4.4.1), d.v.s.
n
ar
X
|y|q(y) < .
y(T )

Dette er det samme som (4.4.3), da


X

y(T )

|y|q(y) =
=
=
=

y(T )

|y|

p(x1 , . . . , xn )

(x1 ,...,xn ) 1 ({y})

y(T ) (x1 ,...,xn ) 1 ({y})

|y|p(x1 , . . . , xn )

y(T ) (x1 ,...,xn ) 1 ({y})

|(x1 , . . . , xn )|p(x1 , . . . , xn )

(x1 ,...,xn )T

|(x1 , . . . , xn )|p(x1 , . . . , xn ).

Dermed er stningens frste p


astand vist. Den anden flger ved samme
beregning uden numerisk tegn om y, dvs. helt samme beregning som i
beviset for Stning 3.7.3.
2
Ogs
a beviset for den flgende stning er lig beviset for den tilsvarende
stning for fordelinger p
a endelige mngder, Stning 3.7.5, n
ar man
frst har sikret sig, at rkken er konvergent.
Stning 4.4.3 Lad X vre en diskrete stokastisk variabel, som har middelvrdi, og lad a og b vre vilk
arlige reelle tal. Da har ogs
a den stokastiske variable a + bX middelvrdi, og
E(a + bX) = a + bE(X)

(4.4.5)

Bevis: Lad T = {xi | i IIN} vre den tllelige mngde, p


a hvilken X
er koncentreret, og lad p vre sandsynlighedsfunktionen for X. Da X
har middelvrdi, er

X
i=1

|xi |p(xi ) < ,

134

Generelle diskrete fordelinger

og da |a + bxi | |a| + |b||xi |, medfrer dette, at

X
i=1

|a + bxi |pi (xi ) < .

Ved hjlp af Stning 4.4.2 kan vi derfor slutte, at a+bX har middelvrdi,
som kan beregnes ved

(a + bxi )pi (xi ) = a + b

i=1

xi pi (xi ) = a + bE(X).

i=1

2
Stning 4.4.4 Lad (X1 , X2 ) vre en to-dimensional diskret stokastisk
vektor, som opfylder, at X1 X2 , samt at X1 og X2 har middelvrdi.
Da er E(X1 ) E(X2 ). Specielt glder for en stokastisk variabel X, som
har middelvrdi, at
|E(X)| E(|X|).
(4.4.6)
Beviset er nrmest identisk med beviset for Stning 3.7.6 og udelades
derfor.
Stning 4.4.5 Lad (X1 , X2 ) vre en diskret to-dimensional stokastisk
vektor, som opfylder, at X2 har middelvrdi, samt at |X1 | |X2 |. Da
har ogs
a X1 middelvrdi.
Bevis: Lad T vre den tllelige mngde, p
a hvilken (X1 , X2 ) er koncentreret, og lad p betegne sandsynlighedsfunktionen for (X1 , X2 ). Da
X2 har middelvrdi, har vi iflge Stning 4.4.2, at
X

(x1 ,x2 )T

|x2 |p(x1 , x2 ) < .

Udsagnet at |X1 | |X2 | betyder, at |x1 | |x2 | for alle (x1 , x2 ) T .


Derfor er
X

(x1 ,x2 )T

|x1 |p(x1 , x2 )

(x1 ,x2 )T

|x2 |p(x1 , x2 ) < ,

hvilket, igen iflge Stning 4.4.2, viser at X1 har middelvrdi.


2

4.4 Middelvrdi og varians

135

Stning 4.4.6 Lad (X1 , X2 , . . . , Xn ) vre en diskret stokastisk vektor,


hvor Xi har middelvrdi for alle i = 1, . . . , n. Da har den stokastiske
variable X1 + X2 + + Xn middelvrdi, og
E(X1 + X2 + + Xn ) = E(X1 ) + E(X2 ) + + E(Xn ).

(4.4.7)

Hvis det yderligere antages, at de stokastiske variable X1 , X2 , . . . , Xn er


uafhngige, har ogs
a den stokastiske variable X1 X2 Xn middelvrdi,
og
E(X1 X2 Xn ) = E(X1 ) E(X2 ) E(Xn ).
(4.4.8)
Bevis: Vi kan njes med at bevise stningen for n = 2, da det generelle
resultat flger ved induktion. Som sdvanlig betegner T den tllelige
mngde, p
a hvilken (X1 , X2 ) er koncentreret, mens sandsynlighedsfunktionen for (X1 , X2 ) betegnes med p, og sandsynlighedsfunktionen for Xi ,
i = 1, 2, med pi . Da Xi har middelvrdi, er iflge Stning 4.4.2
X

(x1 ,x2 )T

|xi |p(x1 , x2 ) < , i = 1, 2.

Derfor medfrer trekantsuligheden |x1 + x2 | |x1 | + |x2 | at


X

(x1 ,x2 )T

|x1 + x2 |p(x1 , x2 ) < ,

hvorfor den stokastiske variable X1 + X2 iflge Stning 4.4.2 har middelvrdi, som kan beregnes ved
X

(x1 + x2 )p(x1 , x2 ) =

(x1 ,x2 )T

x1 p(x1 , x2 ) +

(x1 ,x2 )T

x2 p(x1 , x2 )

(x1 ,x2 )T

E(X1 ) + E(X2 ).

For at vise den sidste p


astand, antages det nu, at X1 og X2 er uafhngige.
Dermed er p(x1 , x2 ) = p1 (x1 )p2 (x2 ), og vi kan antage, at T = T1
T2 , hvor T1 og T2 er tllelige delmngder af IR, jfr. Stning 4.3.1 og
bemrkningerne efter denne stning. Derfor er
X

(x1 ,x2 )T

|x1 x2 |p(x1 , x2 ) =

x2 T2

x1 T1

|x1 |p1 (x1 )|x2 |p2 (x2 )

136

Generelle diskrete fordelinger

x2 T2

|x2 |p2 (x2 )

x1 T1

x1 T1

|x1 |p1 (x1 )

|x1 |p1 (x1 )

x2 T2

|x2 |p2 (x2 ) ,

og de to summer i det sidste udtryk er endelige, da X1 og X2 begge


har middelvrdi. Igen kan vi bruge Stning 4.4.2 til at slutte, at den
stokastiske variable X1 X2 har midddelvrdi, som kan beregnes ved
E(X1 X2 ) =

x1 x2 p(x1 , x2 )

(x1 ,x2 )T

x2 T2

x1 T1

x1 T1

x1 p1 (x1 )x2 p2 (x2 ) =

x1 p1 (x1 )

x2 T2

x2 T2

x2 p2 (x2 )

x1 T1

x1 p1 (x1 )

x2 p2 (x2 ) = E(X1 )E(X2 ).

2
For at sikre, at variansen af en diskret fordeling eksisterer, m
a vi
krve mere end for middelvrdien.
Definition 4.4.7 Lad X vre en diskret stokastisk variabel, som er koncentreret p
a den tllelige mngde T = {xi | i IIN}, og som har sandsynlighedsfuktion p. Da siges X at have varians, hvis

X
i=1

x2i p(xi ) < ,

(4.4.9)

og vi definerer i s
a fald variansen af X ved


Var(X) = E [X E(X)]2 .

(4.4.10)

Frst m
a vi lige overveje, at variansen er veldefineret. Da |X| X 2 +
1, medfrer (4.4.9) iflge Stning 4.4.5, at X har middelvrdi, og da
[X E(X)]2 = X 2 + E(X)2 2XE(X)

4.4 Middelvrdi og varians

137

sikrer Stning 4.4.6, at den stokastiske variable [X E(X)]2 har middelvrdi. Betingelsen (4.4.9) kan kort skrives som E(X 2 ) < .
Det er klart, at formlerne (3.7.9) og (3.7.10) ogs
a glder for generelle
diskrete fordelinger. For disse kaldes kvadratroden af variansen naturligvis ogs
a spredningen eller standardafvigelsen .
Eksempel 4.1.4 (fortsat). Poissonfordelingens varians kan udregnes p
a
flgende m
ade. Lad X vre Poissonfordelt med parameter . Da er
E(X(X 1)) =

X
i=0

= 2

i(i 1)

i
e
i!

X
j
i2
e = 2
e = 2 ,
(i

2)!
j!
j=0
i=2

hvor j = i 2. Heraf flger det, at


Var(X) = E(X(X 1)) + EX (EX)2 = 2 + 2 = .
Bemrk, at for en Poissonfordeling er variansen lig middelvrdien.
2
Eksempel 4.1.5 (fortsat). Lad os nu finde variansen af en stokastisk
variabel X, der er geometrisk fordelt med parameter p.
E(X 2 ) =

X
i=0

i2 p(1 p)i = (1 p)

= (1 p)
+2


X
i=1

i2 p(1 p)i1

(i 1)2 p(1 p)i1 +

i=1

X
i=1

(i 1)p(1 p)i1

= (1 p) E(X 2 ) + 1 + 2E(X) .
Da vi i afsnit 4.4 s
a, at E(X) = (1 p)/p, er
1 p 2(1 p)2
E(X ) =
+
,
p
p2
2

X
i=1

p(1 p)i1

138

Generelle diskrete fordelinger

s
aledes at
Var(X) =

1p
1 p (1 p)2
+
=
.
p
p2
p2

2
i
At rkken
i=0 i p(1 p) er konvergent, kan man overbevise sig om
p
a omtrent samme m
ade som i forbindelse med middelvrdien af en
geometrisk fordeling.
2

Stning 4.4.8 For en diskret stokastisk variabel X, som har varians,


er Var(X) = 0 hvis og kun hvis P (X = E(X)) = 1.
Beviset for denne stning udelades, da det er omtrent identisk med
beviset for Stning 3.7.12.

4.5

Kovarians og korrelation

For at definere kovariansen mellem to diskrete stokstiske variable X og


Y , m
a man sikre sig, at middelvrdien i (3.8.1) eksisterer. Antag, at X
og Y begge har varians, d.v.s. at
E(X 2 ) <

og

E(Y 2 ) < .

(4.5.1)

Vi s
a i forrige afsnit, at dette medfrer, at middelvrdien af X og Y ogs
a
eksisterer. Da
(X E(X))(Y E(Y )) = XY XE(Y ) Y E(X) + E(X)E(Y )
og
|XY | 21 (X 2 + Y 2 ),

ser vi af Stningerne 4.4.5 og 4.4.6, at betingelsen (4.5.1) ogs


a sikrer, at
den stokastiske variable (X E(X))(Y E(Y )) har middelvrdi, s
aledes
at vi kan definere kovariansen ved (3.8.1) og dermed korrelationen ved
(3.8.8). Det er klart, at vi stadig kan beregne kovariansen ved (3.8.2),
samt at regnereglerne (3.8.3) (3.8.5) glder for tre diskrete stokastiske,
forudsat at de alle har varians.
En gennemgang af beviserne i afsnit 3.8 viser, at alt hvad der st
ar
i det afsnit om varianser, kovarianser og korrelationer ogs
a holder for

4.6 Betingede fordelinger

139

generelle diskrete stokastiske variable, hvis blot det forudsttes, at alle


indg
aende stokastiske variable har varians, alts
a opfylder (4.4.9). Der er
derfor ingen grund til at bruge papir p
a gentage alle disse resultater med
denne betingelse tilfjet.

4.6

Betingede fordelinger

Lad P vre en diskret fordeling, som er koncentreret p


a den tllelige
n
mngde T IR med sandsynlighedsfunktion p. Vi s
a i Stning 1.4.8,
at funktionen B 7 P (B|A) for enhvert fast delmngde A T med
P (A) > 0 er et sandsynlighedsm
al, den betingede fordeling givet A. Den
betingede fordeling er ogs
a diskret. Den er koncentreret p
a A og har en
sandsynlighedsfunktion, som er givet ved
p(x|A) = p(x)1A (x)/P (A).

(4.6.1)

Lad os indse dette. At (4.6.1) er en sandsynlighedsfunktion p


a A er klart:
X

xA

p(x|A) =

1 X
p(x) = 1.
P (A) xA

Endvidere er
X

p(x|A) =

xB

X
1
P (A B)
p(x) =
= P (B|A).
P (A) xAB
P (A)

Vi har dermed vist, at (4.6.1) er sandsynlighedsfunktion for den betingede


fordeling givet A.
Betragt for eksempel en to-dimensional diskret stokastisk vektor (X1 ,
X2 ) med sandsynlighedsfunktion p(x1 , x2 ). Antag, at X1 er koncentreret
p
a den tllelige mngde T1 . Da er den betingede fordeling af (X1 , X2 )
givet X2 = a, hvor P (X2 = a) > 0, koncentreret p
a T1 {a}, s
a man kan
opfatte den som en fordeling p
a T1 (a er jo fast) med sandsynlighedsfunktion
p(x1 |X2 = a) =

p(x1 , a)
P (X1 = x1 , X2 = a)
=
P (X2 = a)
p2 (a)

for x1 T1 , (4.6.2)

Her er p2 sandsynlighedsfunktionen for den marginale fordeling af X2 .

140

Generelle diskrete fordelinger

Som et andet eksempel, betragt en stokastisk vektor (X1 , X2 ) med


simultan sandsynlighedsfunktion P , hvor b
ade X1 og X2 er koncentreret
p
a IIN0 . Da er den betingede fordeling af (X1 , X2 ) givet X1 + X2 = y
(y IIN0 ) koncentreret p
a mngden
M = {(x1 , x2 )|x1 + x2 = y} = {(0, y), (1, y 1), . . . , (y 1, 1), (y, 0)}
med sandsynlighedsfunktionen
p(x1 , x2 )
,
i=0 p(i, y i)

p(x1 , x2 |X1 + X2 = y) = Py
P

(4.6.3)

for (x1 , x2 ) M . Nvneren yi=0 p(i, y i) er sandsynlighedsfunktionen


for X1 + X2 i punktet y, som er udtrykt ved p under brug af Stning
4.2.4.
Eksempel 4.6.1 Lad X1 og X2 vre to uafhngige stokastiske variable,
som begge er geometrisk fordelte med parameter p (0, 1). Iflge opgave
4.9 er sandsynlighedsfunktionen for Y = X1 + X2 givet ved q(y) = p2 (1
p)y (y + 1), y IIN0 , s
a den betingede fordeling af (X1 , X2 ) givet Y = y
har sandsynlighedsfunktionen
p(x1 , x2 |Y = y) =

1
p(1 p)x1 p(1 p)x2
=
,
2
y
p (1 p) (y + 1)
y+1

for (x1 , x2 ) M . Vi ser, at den betingede fordeling af (X1 , X2 ) givet


Y = y er ligefordelingen p
a M . Da der er en entydig forbindelse mellem
(x1 , x2 ) M og x1 , kan vi konkludere, at den betingede fordeling af X1
givet Y = y er en ligefordeling p
a {0, 1, . . . , y}.
2

4.7

Sammenfatning

I dette kapitel har vi beskftiget os med generelle diskrete fordelinger,


d.v.s. sandsynlighedsm
al, der er defineret p
a tllelige mngder. I lighed med fordelingerne i Kapitel 3, kan en generel diskret fordeling mest
naturligt specificeres ved hjlp af en sandsynlighedsfunktion. I det hele

4.8 Opgaver

141

taget er resultater og definitioner i Kapitel 4 en gentagelse af, hvad vi s


a
i Kapitel 3, dog med den vigtige forskel, at vi for generelle diskrete fordelinger i mange tilflde m
a sikre os, at de indg
aende uendelige summer
konvergerer. Noget nyt i forhold til forrige kapitel er, at vi for en diskret
fordeling betragtede den betingede fordeling givet en delmngde af de
mulige udfald og beviste, at denne betingede fordeling ogs
a er diskret og
kan specificeres ved en sandsynlighedsfunktion.
Sidst men ikke mindst blev den vigtige Poisson fordeling og den geometriske fordeling indfrt og studeret.

4.8

Opgaver

4.1 (a) Vis, for X Poissonfordelt med parameter , rekursionsformlen


P (X = x + 1) =

P (X = x).
x+1

(b) Vis, at Poissonfordelingens sandsynlighedsfunktion har et entydigt maksimum hvis og kun hvis ikke er et positivt heltal, og
at dette maksimum i s
a fald antages i punktet x = [] (hvor []
betegner heltalsdelen af , dvs. det strste hele tal som er mindre
end eller lig ).
4.2 Lad X1 og X2 vre uafhngige Poisson fordelte stokastiske variable
med parametre 1 og 2 . St Y = (X1 + X2 )/2.
(a) Find mngden F af mulige vrdier af Y .
(b) Find q(y) = P (Y = y) for y F .
4.3 Lad X1 og X2 vre uafhngige Poisson fordelte stokastiske variable
med parametre m1 og m2 . St Y = (X1 + X2 )/(m1 + m2 ).
(a) Find mngden F af mulige vrdier af Y .
(b) Find q(y) = P (Y = y) for y F .
4.4 A st
ar ved en lidet trafikeret vej og h
aber p
a at fange en ledig taxa.
Der kommer i gennemsnit en hver halve time. Vi antager derfor, at
antal taxaer pr. minut er Poissonfordelt med parameter 1/30, og at
disse antal er uafhngige fra minut til minut.

142

Generelle diskrete fordelinger


(a) Hvad er sandsynligheden for at A m
a vente mere end 1/2 time?
(b) Hvad er sandsynligheden for at A m
a vente mere end 1 1/2
time?
(c) Hvad er sandsynligheden for at A f
ar en taxa allerede fr der er
g
aet 10 minutter?
(d) Vis, at ventetiden, afrundet nedad til helt minuttal, er geometrisk fordelt med parameter p = 1 e1/30 ' 1/30.

4.5 Antag at sandsynligheden for at en sikring er defekt er 0.03. Benyt


Stning 4.1.2 til at beregne en approksimation til sandsynligheden
for, at der i en pakke med 100 sikringer hjst er 2 defekte.
4.6 En terning kastes indtil den frste sekser opn
as. Lad X betegne
antallet af kast fr en sekser opn
as. Hvad er sandsynligheden for
at X < 6? Hvad er den strste vrdi af i IIN for hvilken P (X >
i) 21 ?
4.7 Antag, at den stokastiske variable X er geometrisk fordelt med
parameter p. Find sandsynlighedsfunktionerne for de stokastiske
variable Y = X 2 og Z = X + 3.
4.8 Antag, at X er geometrisk fordelt med parameter p, og definer
en ny stokastisk variabel ved Y = X M , hvor M IIN. Find
sandsynlighedsfunktionen for Y .
4.9 Lad X1 og X2 vre uafhngige stokastiske variable, som er geometrisk fordelte med samme parameter p. Vis, at sandsynlighedsfunktionen for summen Y = X1 + X2 er
q(y) = p2 (1 p)y (y + 1).
Fordelingen med denne sandsynlighedsfunktion kaldes den negative
binomialfordeling med antalsparameter 2 og sandsynlighedsparameter p.
4.10 Lad X1 og X2 vre uafhngige stokastiske variable, som er geometrisk fordelte med parametre p1 og p2 . Find P (X1 X2 ) og
P (X1 = X2 ).

4.8 Opgaver

143

4.11 Lad X vre en diskret stokastisk variabel, som er koncentreret p


a
mngden M = { n2 |n = 0, 1, 2 . . .}. Antag, at X har sandsynlighedsfunktionen
p(x) = 2x (1 ), x M,
hvor (0, 1).

(a) Vis, at 2X er geometrisk fordelt med parameter 1 .

(b) Find E(X) og Var(X).

1
.
1+

(c) Vis, at P (X IIN0 ) =

4.12 Lad (X, Y ) vre en diskret stokastisk vektor i IR2 med sandsynlighedsfunktion
p(x, y) =

y e2
x!(yx)!

n
ar (x, y) M

ellers,

hvor M = {(x, y) IIN20 | x y}.

(a) Vis, at Y er Poissonfordelt med parameter 2. Vink: Iflge


binomialformlen (B.3.3) med x = y = 1 er
y
X

x=0

y
x

= 2y .

Definer en ny stokastisk variabel Z ved Z = Y X.

(b) Vis, at X og Z er stokastisk uafhngige, og at de begge er


Poissonfordelte med parameter .
4.13 Lad X vre en stokastisk variabel p
a IIN0 . Vis at
E(X) =

P (X > n).

n=0

4.14 Lad X vre Poissonfordelt med parameter . Hvad er E 2X ?


Hvad er E ((1 + X)1 )?

144

Generelle diskrete fordelinger

4.15 (a) Vis, at


p(n) =

1
,
n(n + 1)

n IIN,

er en sandsynlighedsfunktion. Vink: Benyt, at

1
n(n+1)

1
n

1
.
n+1

(b) Undersg, om den tilsvarende fordeling har middelvrdi.


4.16 Lad S1 og S2 vre uafhngige, binomialfordelte stokastiske variable
med antalsparametre n1 og n2 og med samme sandsynlighedsparameter p. Vis, at den betingede fordeling af S1 givet S1 + S2 = s,
er den hypergeometriske fordeling med parametre N = n1 + n2 ,
R = n1 og n = s.
4.17 Lad (S1 , . . . , S5 ) vre polynomialfordelt af orden 5 med antalsparameter n og sandsynlighedsparametre p1 , . . . , p5 .
(a) Vis, at den betingede fordeling af (S1 , S2 , S3 ) givet S1 + S2 +
S3 = m (m {0, 1, . . . , n}) er en polynomialfordeling af orden
3 med antalsparameter m og sandsynlighedsparametre p1 +pp12 +p3 ,
p2
p3
,
.
p1 +p2 +p3 p1 +p2 +p3
(b) Formuler det generelle resultat, som (a) er et specialtilflde af.
4.18 Lad X1 og X2 vre uafhngige Poissonfordelte stokastiske variable
med parametre 1 og 2 . Vis at den betingede fordeling af X1 givet
X1 + X2 = n (n IIN), er binomialfordelingen med antalsparameter
1
n og sandsynlighedsparameter 1+
.
2
4.19 Lad X1 , . . . , Xk vre uafhngige Poissonfordelte stokastiske variable med parametre 1 , . . . , k , og definer Z = X1 + + Xk . Hvad
er den betingede fordeling af (X1 , . . . , Xk ) givet Z = n (n IIN).
(Her bliver den betingede fordeling en polynomialfordeling). Hvad
er P (X1 = x1 |Z = n)?

Kapitel 5
En-dimensionale kontinuerte
fordelinger
I mange situationer er det naturligt at benytte en sandsynlighedsteoretisk model, hvor alle tal i et interval eller p
a hele den reelle akse er mulige
udfald. Eksempler er lngdem
alinger med m
alefejl, vgten af en tilfldigt udvalgt person eller ventetiden mellem to tilfldige begivenheder,
for eksempel anmeldelsen af skader til et forsikringsselskab. I s
adanne
situationer har man behov for modeller, hvor sandsynlighedsmassen er
fordelt ud over alle reelle tal i et interval og ikke koncentreret p
a en endelig eller tllelig delmngde, som den er for diskrete fordelinger. S
adanne
fordelinger, der kaldes kontinuerte fordelinger, er emnet for dette kapitel.

5.1

Kontinuerte fordelinger og ttheder

Vi s
a to eksempler p
a kontinuerte fordelinger i Kapitel 1. I Eksempel
1.3.1 udledte vi en model for udtrkning af et tilfldigt tal i intervallet
[0, 1]. Sandsynligheden for et udfald i et interval I [0, 1] er i dette
tilflde lngden af intervallet |I|. Vi kan skrive dette som
P (I) =

1
0

1I (x)dx,

hvor 1I betegner indikatorfunktionen for I, se (1.3.5). Her er sandsynlighedsmassen fordelt jvnt ud over intervallet [0, 1]. I Eksempel 1.3.3

146

En-dimensionale kontinuerte fordelinger

var
P (I) =

1
0

1I (x)3x2 dx.

Her er sandsynlighedsmassen ogs


a fordelt ud over hele [0, 1], men den er
ikke delt jvnt ud. Dens fordeling er bestemt af funktionen p(x) = 3x2 ,
som kaldes sandsynlighedsttheden. I Eksempel 1.3.1 er sandsynlighedsttheden p(x) = 1[0,1] (x). Lad os se p
a endnu et eksempel.
Eksempel 5.1.1 Betragt tilfldigt ankommende begivenheder. Det kan
for eksempel vre besg p
a en web-site eller ankomst af kunder til et
kasseapparat. Som diskuteret i Eksempel 4.1.1, er det en god model for
tilfldigt ankommende begivenheder at antage, at antallet af begivenheder i tidsintervallet [0, t], hvor t > 0, er Poissonfordelt med paramater
t (med passende valgt; i Eksempel 4.1.1 var = 3 et godt valg). Lad
T vre den stokastiske variable, som angiver tidspunktet for den frste
begivenhed efter tid 0. Da er hndelsen T > t lig med hndelsen, at
antallet af hndelser i tidsintervallet [0, t] er lig nul. Sandsynligheden for
den sidste hndelse er et , s
a
P (T > t) = et .
Heraf ses, at for t2 > t1 > 0 er
P (T (t1 , t2 ]) = P (T > t1 ) P (T > t2 ) = et1 et2 ,
eller
P (T (t1 , t2 ]) =

t2
t1

ex dx.

Her er sandsynlighedsmassen fordelt ud over hele den positive halvakse


(0, ) med sandsynlighedsttheden p(x) = ex . Bemrk, at
P (T (x, x + h])
ex e(x+h)
=
h
h
1
eh
= ex
ex
h
for h 0. For sm
a vrdier af h er alts
a P (T (x, x + h]) ' p(x)h.

5.1 Kontinuerte fordelinger og ttheder

147

Definition 5.1.2 En funktion p fra et interval I IR ind i [0, ), som


opfylder, at
Z
p(x)dx = 1,
(5.1.1)
I

kaldes en sandsynlighedstthed p
a I.

Det er naturligvis underforst


aet, at p er s
adan, at integralet i (5.1.1)
eksisterer. Information om integration over reelle intervaller er samlet
i Appendiks C. En sandsynlighedstthed kaldes somme tider en tthedsfunktion eller blot en tthed. Enhver sandsynlighedstthed p p
a et
interval I IR definerer et sandsynlighedsm
al P p
a I ved
P (A) =

1A (x)p(x)dx =

p(x)dx,

(5.1.2)

hvor A er en vilk
arlig delmngde af I (eller i hvert fald en delmngde, for
hvilken man kan give mening til integralet), og hvor 1A er indikatorfunktionen for A, se (A.1.15). Bemrk analogien til (4.1.4), som definerer
en diskret fordeling. Den eneste forskel er, at summen i (4.1.4) her er
erstattet med et integral og sandsynlighedsfunktionen med en sandsynlighedstthed.
Lad os overbevise os om, at P er et sandsynlighedsm
al p
a I. Hvis A
er en delmngde af I, er for alle x I
0 1A (x)p(x) p(x),
hvoraf det flger ved integration over I at 0 P (A) 1. Endvidere er
iflge (5.1.1)
Z
P (I) = p(x)dx = 1,
I

s
a (1.3.2) er opfyldt. Lad endelig A og B vre disjunkte delmngder af
I. Da
1AB (x)p(x) = 1A (x)p(x) + 1B (x)p(x),
flger det, at
P (A B) =
=

ZI
I

1AB (x)p(x)dx
1A (x)p(x)dx +

1B (x)p(x)dx = P (A) + P (B),

148

En-dimensionale kontinuerte fordelinger

s
aledes at (1.3.3) er opfyldt. Vi har dermed godtgjort, at P defineret ved
(5.1.2) er et sandsynlighedsm
al p
a I.
Et sandsynlighedsm
al, der er defineret ved (5.1.2) ud fra en sandsynlighedstthed p kaldes en kontinuert fordeling, og man siger, at det har
sandsynlighedstthed p. Som diskuteret i begyndelsen af Kapitel 3 kan
man opfatte P som en fordeling p
a hele den reelle akse ved for B IR
at stte P (B) = P (B I). Dette svarer til at definere P (B) ved (5.1.2),
hvor p(x) er sat lig nul for x
/ I. Man definerer ofte p
a denne m
ade p(x)
for alle x IR, selv om fordelingen er koncentreret p
a et mindre interval.
En stokastisk variabel, hvis fordeling er kontinuert, kaldes en kontinuert stokastisk variabel. Hvis X er en kontinuert stokastisk variabel, hvis
fordeling har sandsynlighedstthed p, er
P (X A) =

1A (x)p(x)dx

for enhver delmngde A IR. Bemrk, at der specielt glder, at


P (X = a) =

1{a} (x)p(x)dx = 0

for ethvert a IR. Bemrk ogs


a, at man kan ndre vrdien af p i et
endeligt antal punkter uden at ndre den tilsvarende sandsynlighedsfordeling. En bestemt kontinuert fordeling kan alts
a godt have flere sandsynlighedsttheder.
Eksempel 5.1.3 For et begrnset interval I = [a, b], hvor a < b, er
funktionen
1[a,b] (x)
p(x) =
(5.1.3)
ba

en sandsynlighedstthed p
a I. Den tilsvarende kontinuerte fordeling kaldes ligefordelingen p
a [a, b]. Den kaldes ogs
a den rektangulre fordeling
eller den uniforme fordeling p
a [a, b]. Denne fordeling svarer til at trkke
et tal tilfldigt i intervallet [a, b]. Man kan p
a tilsvarende m
ade definere
en ligefordeling p
a enhver delmngde af IR, som kan tilskrives en endelig
lngde, f.eks. (a, b) eller (a, b) [c, d], hvor a < b < c < d.
2

5.1 Kontinuerte fordelinger og ttheder

149

0.0

0.2

0.4

0.6

0.8

1.0

1.2

Ligefordeling

0.5

0.0

0.5

1.0

1.5

Figur 5.1.1: Sandsynlighedsttheden for ligefordelingen p


a [0, 1].

Eksempel 5.1.1 (fortsat). Funktionen


ex

x>0

(5.1.4)

er en sandsynlighedstthed p
a intervallet (0, ). Det tilsvarende kontinuerte fordeling kaldes eksponentialfordelingen med parameter . Vi kan
alts
a sige, at T er eksponentialfordelt med parameter . N
ar = 1 kaldes
fordelingen standard eksponentialfordelingen eller den normerede eksponentialfordeling.
2
Eksempel 5.1.4 Funktionen
p(x) = x1 ,

x (0, 1),

(5.1.5)

hvor > 0, er en sandsynlighedstthed p


a (0, 1) (overvej lige tilfldet
(0, 1) en ekstra gang). Sandsynlighedsttheden i Eksempel 1.3.3

150

En-dimensionale kontinuerte fordelinger

0.0

0.2

0.4

0.6

0.8

1.0

Eksponentialfordelingen

Figur 5.1.2: Sandsynlighedsttheden for eksponentialfordelingen med parameter = 1.

er af denne type med = 3, mens ligefordelingen p


a (0, 1) opn
as for
= 1. Den tilsvarende kontinuerte fordeling kaldes en Beta-fordeling.
Vi betragter kun en srligt enkel type Beta-fordeling her. Den generelle
Beta-fordeling har tthed cx1 (1 x)1 , x (0, 1), hvor > 0 og
> 0, og hvor c er en konstant, som sikrer, at der er tale om en sandsynlighedstthed. Vi vil her kun beskftige os med den specielle form givet
ved (5.1.5). Et udtryk for konstanten c vil dog blive fundet i beviset for
Stning 8.1.3
2
Lad P vre en kontinuert fordeling med sandsynlighedstthed p. For
sm
a vrdier af > 0 er
P ([x0 , x0 + ]) =

x0 +
x0

p(x)dx ' p(x0 ),

151

0.0

0.5

1.0

1.5

2.0

2.5

3.0

5.1 Kontinuerte fordelinger og ttheder

0.5

0.0

0.5

1.0

1.5

Figur 5.1.3: Sandsynlighedsttheden givet ved (5.1.5).

forudsat at funktionen p er kontinuert i punktet x0 . Vi ser, at vrdien


af sandsynlighedsttheden p i dens kontinuitetspunkter kan fortolkes
som sandsynlighedsmasse per m
aleenhed (f. eks. lngdeenhed), hvilket
jo stemmer godt overens med betegnelsen sandsynlighedstthed.
Fordelingsfunktionen for en kontinuert fordeling p
a den reelle akse
med sandsynlighedstthed p er givet ved
F (x) =

p(y)dy.

(5.1.6)

Fordelingen kan godt vre koncentreret p


a en delmngde M af IR, men
dette tilflde er jo dkket ved at stte vrdien af p lig nul udenfor M .
Eksempel 5.1.3 (fortsat). Fordelingsfunktionen for ligefordelingen p
a

152

En-dimensionale kontinuerte fordelinger

intervallet (a, b) er
F (x) =

1(a,b) (y)
dy =

ba

0
xa
ba

for x a
for a < x < b
for x b,

som er stykvis liner. Se Figur 2.2.2.

0.0

0.2

0.4

0.6

0.8

1.0

0.5

0.0

0.5

1.0

1.5

Figur 5.1.4: Fordelingsfunktionen for fordelingen med sandsynlighedstthed givet ved (5.1.5).

Eksempel 5.1.4 (fortsat). Fordelingsfunktionen for fordelingen med tthed (5.1.5) er


F (x) =

y 1 1(0,1) (y)dy =

0 for x 0
x for 0 < x < 1

1 for x 1.

5.1 Kontinuerte fordelinger og ttheder

153

Fordelingsfunktionen er en svagt voksende kontinuert funktion fra IR


ind i [0, 1], som opfylder, at
lim F (n) = lim

p(y)dy =

samt at
lim F (n) =

p(y)dy = 1,

lim P ((, n]) = lim [1 P ((n, ))]

= 1 lim

n n

p(y)dy = 1

p(y)dy = 0.

Af (5.1.6) ses, at F er en stamfunktion til p. Derfor er F differentiabel


i ethvert kontinuitetspunkt for ttheden p, og
F 0 (x) = p(x).

(5.1.7)

Vi ser, at i hvert fald for kontinuerte fordelinger med kontinuert sandsynlighedstthed bestemmer fordelingsfunktionen sandsynlighedsttheden
og dermed fordelingen. Dette resultat blev allerede nvnt i Afsnit 2.2.
Nu flger et par resultater, som er nyttige, hvis en fordelingsfunktion er givet, og man ud fra denne nsker at afgre, om den tilsvarende
fordeling er kontinuert.
Stning 5.1.5 Antag, at en fordelingsfunktion F har formen
F (x) =

f (y)dy,

(5.1.8)

hvor f er ikke-negativ. Da er fordelingen svarende til F kontinuert med


sandsynlighedstthed f .
Bevis: Da

f (x)dx = n
lim

f (x)dx = n
lim F (n) = 1,

hvor vi har brugt (2.2.3), ses det, at f er en sandsynlighedstthed p


a
IR. Den tilsvarende fordelingsfunktion er F . Da der til enhver fordelingsfunktion svarer netop en fordeling, er den til F svarende fordeling alts
a
kontinuert med tthed f .
2
Af hensyn til den nste stning mindes der om, at en funktion f
kaldes kontinuert differentiabel, hvis den er differentiabel og den afledede
funktion f 0 er kontinuert.

154

En-dimensionale kontinuerte fordelinger

Stning 5.1.6 Lad F vre fordelingsfunktion for en fordeling, som er


koncentreret p
a et interval (a, b), d.v.s. P ((a, b)) = 1. Eventuelt kan a
vre , ligesom b eventuelt kan vre . Antag at F er kontinuert
differentiabel p
a (a, b). Da er den til F svarende fordeling kontinuert
med sandsynlighedstthed p(x) = F 0 (x) for x (a, b) og p(x) = 0 for
x
/ (a, b).

Bevis: Definer en funktion p ved p(x) = F 0 (x) for x (a, b) og p(x) = 0


for x
/ (a, b). Da en fordelingsfunktion iflg. Afsnit 2.2 er svagt voksende,
er p(x) 0, og da
Z

p(y)dy = F (x) F (n)

for alle n IIN og for alle reelle x n, flger det af (2.2.4) ved at
lade n g
a mod uendelig, at F opfylder (5.1.8). Derfor flger stningen af
Stning 5.1.5.
2
Hvis a eller b er endelige tal, kan man definere p(a) og p(b) som man
har lyst til.
Eksempel 5.1.1 (fortsat). I Eksempel 2.2.2 udledte vi fordelingsfunktionen
(
1 ex hvis x > 0
F (x) =
0
hvis x 0

for en fordeling, der er koncentreret p


a (0, ). Da F 0 (x) = ex for
x > 0, er der tale om eksponentialfordelingen med parameter .
2
Man kan benytte fordelingsfunktionen til at beregne sandsynligheden for udfald i foreningsmngden af endeligt mange intervaller. Fremgangsm
aden illustreres af flgende eksempel.
Eksempel 5.1.3 (fortsat). Lad den stokastiske variable X vre ligefordelt p
a [1, 2]. Da er


P |X|

2
3

= P X 1, 23
=
=

2
3

,2

i

F ( 32 ) F (1) + F (2) F ( 23 )
1
9

0 + 1

5
9

5
9

Bemrk, at vi har brugt, at for eksempel P (X =

.
2
3

) = 0.

5.1 Kontinuerte fordelinger og ttheder

155

0.0

0.2

0.4

0.6

0.8

1.0

Lad os slutte dette afsnit med at nvne, at der findes andre fordelinger p
a den reelle akse end de diskrete og de kontinuerte. Dels findes
der nogle meget sre fordelinger, som er koncentreret p
a lige s
a sre delmngder af IR, dels findes der de mere medgrlige fordelinger af blandet
type, som ikke sjldent optrder i praksis. Vi giver et eksempel p
a den
sidste type, som vi derefter ikke vil beskftige os yderligere med i disse
noter.

1.5

1.0

0.5

0.0

0.5

1.0

1.5

2.0

Figur 5.1.5: Fordelingsfunktionen for den stokastiske variable Y i Eksempel 5.1.7.


Eksempel 5.1.7 Lad den stokastiske variable X vre ligefordelt p
a
[1, 1]. Fordelingen af Y = X 0 er af den nvnte blandede type. Halvdelen af sandsynlighedsmassen i denne fordeling er koncentreret i punktet
0, og den anden halvdel er jvnt fordelt over enhedsintervallet. Man kan
naturligvis hverken opskrive en sandsynlighedsfunktion eller en sandsynlighedstthed i dette tilflde, men fordelingsfunktionen er veldefineret.
For y (0, 1] er P (Y y) = P (Y = 0) + P (0 < Y y) = P (X
0) + P (0 < X y), s
a
F (y) =

0
1
2

1
y
2

for y < 0
for 0 y 1,
for 1 < y.

156

5.2

En-dimensionale kontinuerte fordelinger

Middelvrdi og varians

Ogs
a for mange kontinuerte fordelinger kan man definere strrelserne
middelvrdi og varians. Definitionen af en kontinuert fordeling ligner
definitionen af en diskret fordeling bortset fra, at summen er erstattet
med et integral og sandsynlighedsfunktionen med en sandsynlighedstthed. P
a tilsvarende m
ade definerer vi middelvrdi og varians for en kontinuet fordeling ved at erstatte summen med et integral og sandsynlighedsfunktionen med en sandsynlighedstthed i definitionerne for en diskret
fordeling. Da sandsynlighedsttheden angiver sandsynlighedsmasse per
m
aleenhed, har middelvrdi og varians for kontinuerte fordelinger samme
fortolkning som for diskrete fordelinger. Resultater og beviser er helt
parallelle til, hvad vi tidligere har set, men med summation erstattet
med integration. Ligesom vi for diskrete fordelinger skulle sikre os, at de
indg
aende summer konvergerer, m
a vi her passe lidt p
a med integralerne.
Definition 5.2.1 Lad X vre en kontinuert stokastisk variabel, som har
sandsynlighedstthed p. Da siges X at have middelvrdi, hvis
Z

|x|p(x)dx < ,

(5.2.1)

og vi definerer i s
a fald middelvrdien af X som
E(X) =

xp(x)dx < .

(5.2.2)

Her er p defineret p
a hele IR. Hvis fordelingen af X er koncentreret p
a
et delinterval I af den reelle akse, stter vi som sdvanlig p(x) = 0,
n
ar x
/ I. I s
adanne tilflde, er det naturligvis nok at integrere over
intervallet I.
Hvis (5.2.1) ikke er opfyldt, siger man, at X ikke har middelvrdi,
eller at middelvrdien ikke er defineret. N
ar vi krver, at (5.2.1) er
opfyldt, er det for at udelukke den ubehagelige situation, hvor
Z

xp(x)dx = og

xp(x)dx = .

Hvis X er koncentreret p
a et interval I IR+ , kan dette ikke ske, hvorfor
man ofte i dette tilflde tillader sig at skrive E(X) = , n
ar (5.2.1) ikke

5.2 Middelvrdi og varians

157

er opfyldt. Vi kan i samme


and generelt skrive betingelse (5.2.1) kort som
E(|X|) < .
Hvis X er en begrnset stokastisk variabel, kan man altid vre sikker
p
a at middelvrdien eksisterer. Antag nemlig, at der findes et c > 0, s
a
P (X [c, c]) = 1. Da er
Z

|x|p(x)dx =

|x|p(x)dx

p(x)dx = cP (X [c, c]) = c < ,

s
a X har middelvrdi.
Eksempel 5.1.3 (fortsat). Middelvrdien for ligefordelingen p
a [a, b] er
1
ba

b
a

xdx =

b2 a 2
a+b
1 h 1 2 ib
=
=
,
x
2
a
ba
2(b a)
2

alts
a midtpunktet af intervallet [a, b], hvilket giver god mening.

Eksempel 5.1.1 (fortsat). Middelvrdien for eksponentialfordelingen


med parameter er 1 , da
Z

n
0

xe

dx =

h 

x e

= ne

in

0
1

n
0

ex dx

+ (1 en ) 1

for n .

Eksempel 5.2.2 Funktionen p(x) = x(+1) for x > 1, hvor > 0, er


en sandsynlighedstthed p
a [1, ) (check dette). Den tilsvarende fordeling kaldes Pareto-fordelingen. Da
Z

n
1

xx

(+1)

dx =

n
1

for 6= 1, mens der for = 1 glder, at


Z

"

x+1
dx =
+ 1

#n
1

xx2 dx = [log(x)]n1 ,

ses det, at hvis 1, har Pareto-fordelingen ikke middelvrdi. For


> 1 er middelvrdien /( 1).
2

158

En-dimensionale kontinuerte fordelinger

Ogs
a for kontinuerte stokastiske variable kan man p
a enkel vis beregne
middelvrdien af en transformeret stokastisk variabel.
Stning 5.2.3 Lad X vre en kontinuert stokastisk variabel, som er
koncentreret p
a intervallet I, og som har sandsynlighedstthed p. Lad
endvidere t vre en funktion fra I ind i IR. Da har den stokastiske variable
t(X) middelvrdi hvis og kun hvis
Z

|t(x)|p(x)dx < ,

og i s
a fald er
E(t(X)) =

t(x)p(x)dx.

(5.2.3)

(5.2.4)

Vi vil ikke vise denne stning generelt. I Afsnit 5.4 vil den blive vist
i det specialtilflde, hvor afbildningen t er strengt monoton og kontinuert differentiabel. Bemrk, at vi ikke kan vre sikre p
a, at fordelingen
af t(X) er kontinuert eller diskret, se Eksempel 5.1.7. Stning 5.2.3 er
i disse noter mest nyttig, n
ar t(X) har en fordeling af en type, for hvilken vi har defineret middelvrdien, d.v.s. n
ar t(X) er kontinuert eller
diskret. I andre tilflde kan vi eventuelt tage (5.2.4) som definition af
middelvrdien.
Eksempel 5.1.4 (fortsat). Lad X vre en stokstisk variabel, hvis fordeling har tthed (5.1.5), og definer en ny stokastisk variabel ved Y = 1/X.
Da
"
#
Z 1
x1
1
1
x x dx =
1
0

for 6= 1, og da

1
0

x1 dx = [log(x)]10 ,

ses det, at (5.2.3) kun er opfyldt, n


ar > 1. For 1 har Y ikke
middelvrdi. For > 1 giver (5.2.4), at
E(Y ) =

.
1
2

5.2 Middelvrdi og varians

159

Stning 5.2.4 Lad X vre en kontinuert stokastisk variabel, som er


koncentreret p
a intervallet I. Lad t1 og t2 vre funktioner fra I ind i IR,
som begge opfylder (5.2.3). Da har den stokastiske variable t 1 (X) + t2 (X)
middelvrdi, og
E(t1 (X) + t2 (X)) = E(t1 (X)) + E(t2 (X)).

(5.2.5)

Hvis det yderligere antages, at t1 (x) t2 (x) for alle x I, er


E(t1 (X)) E(t2 (X)).

(5.2.6)

Bevis: Lad p betegne sandsynlighedsttheden for X. Da |t1 (x)+t2 (x)|


|t1 (x)| + |t2 (x)|, er
Z

|t1 (x) + t2 (x)|p(x)dx

|t1 (x)|p(x)dx +

|t2 (x)|p(x)dx < .

Da funktionen t1 (x)+t2 (x) alts


a opfylder (5.2.3), har t1 (X)+t2 (X) iflge
Stning 5.2.3 middelvrdi givet ved
Z

(t1 (x) + t2 (x))p(x)dx =

t1 (x)p(x)dx +

t2 (x)p(x)dx

= E(t1 (X)) + E(t2 (X)).

Stningens sidste p
astand flger af en velkendt egenskab ved integralet.
2
Stning 5.2.5 Lad X vre en kontinuert stokastisk variabel, som har
middelvrdi, og lad a og b vre vilk
arlige reelle tal. Da har ogs
a den
stokastiske variable a + bX middelvrdi, og
E(a + bX) = a + bE(X)

(5.2.7)

Bevis: Stningen er en konsekvens af Stning 5.2.4 med t1 (x) = a og


t2 (x) = bx. Lad p betegne sandsynlighedsttheden for X. Da X har
middelvrdi, er
Z

|bx|p(x)dx = |b|

|x|p(x)dx < ,

160

En-dimensionale kontinuerte fordelinger

s
a t2 opfylder (5.2.3). At t1 opfylder (5.2.3) er klart. Iflge Stning 5.2.4
har a + bX derfor middelvrdi, som kan beregnes ved
Z

ap(x)dx+

bxp(x)dx = a

p(x)dx+b

xp(x)dx = a+bE(X).

2
Bemrk, at det flger af resultaterne i Stningerne 5.2.4 og 5.2.5, at
der som for diskrete fordelinger glder, at |E(X)| E(|X|).
De vrige resultater for middelvrdi, som vi har vist for diskrete
fordelinger, involverer mere end en stokastisk variabel. Da vi frst vil definere kontinuerte stokastiske vektorer i Kapitel 6, m
a vi vente til denne
definition er p
a plads, fr vi kan vise de tilsvarende resultater om middelvrdi for kontinuerte stokastiske variable.
Definition 5.2.6 Lad X vre en kontinuert stokastisk variabel, som har
sandsynlighedstthed p. Da siges X at have varians, hvis
Z

x2 p(x)dx < ,

og vi definerer i s
a fald variansen af X ved


(5.2.8)


Var(X) = E [X E(X)]2 .

(5.2.9)

Bemrk, at betingelsen (5.2.8) iflge Stning 5.2.3 er ensbetydende


med E(X 2 ) < . Da |x| x2 + 1, medfrer (5.2.8) at ogs
a (5.2.1)
er opfyldt. D.v.s. at (5.2.8) ogs
a sikrer, at middelvrdien eksisterer. At
variansen er veldefineret indses nu p
a samme m
ade som for diskrete fordelinger (under anvendelse af Stning 5.2.4).
Ved beregninger som i Kapitel 5 flger det af Stningerne 5.2.4 og
5.2.5, at formlerne (3.7.9) og (3.7.10) ogs
a glder for kontinuerte fordelinger. Som altid kaldes kvadratroden af variansen spredningen eller
standardafvigelsen.
Eksempel 5.1.1 (fortsat). For en eksponentialfordelt stokastisk variabel X er
E(X 2 ) =
=

Z
h

x2 ex dx

i
0

2x ex dx

= 0 + 21 E(X) = 22 ,

5.2 Middelvrdi og varians

161

s
a eksponentialfordelingen har varians, og iflge (3.7.9) er
Var(X) = E(X 2 ) (E(X))2 = 22 2 = 2 .
Vi har her vret lidt hurtigere end tidligere ved beregningen af integralet
over intervallet (0, ), men det er naturligvis stadig defineret som en
grnsevrdi.
2
Eksempel 5.1.3 (fortsat). Variansen for ligefordelingen p
a [a, b] er
Z

(ba)/2
1
[x (a + b)/2] dx =
y 2 dy
b a (ba)/2
a
Z (ba)/2
2
=
y 2 dy
ba 0
!3
ba
(b a)2
2
.
=
=
3(b a)
2
12

Spredningen er (b a)/(2 3).

1
ba

Eksempel 5.2.2 (fortsat). For Pareto-fordelingen er


Z

x x

(+1)

dx =

for 6= 2, og for = 2 f
as
Z

+1

"

x+2
dx =
+ 2

#
1

x2 2x3 dx = [log(x)]
1 = .

Det ses derfor, at hvis 2, har Pareto-fordelingen ikke varians. For


> 2 er
Z

,
x2 x(+1) dx =
2
1
s
a i det tilflde er variansen iflge (3.7.9) lig


2
1

2

.
( 2)( 1)2
2

Resultater om varians, som involverer flere kontinuerte stokastiske


variable, og alt vedrrende kovarians og korrelation kan frst behandles
i kapitel 6.

162

5.3

En-dimensionale kontinuerte fordelinger

Normalfordelingen

Den kontinuerte fordelingen med sandsynlighedsttheden


1
2
(x) = ex /2 ,
2

x IR,

(5.3.1)

kaldes standard normalfordelingen. Den kaldes ogs


a den normerede normalfordeling, Gauss-fordelingen og u-fordelingen.
Det er ikke ganske klart, at (5.3.1) er en sandsynlighedstthed. At
integralet af (x) over IR er endeligt, kan ses p
a flgende m
ade
Z

n
n

ex

2 /2

dx = 2

n
0

ex

< 2+2

2 /2

dx < 2 1 +

n
1

ex
1

2 /2

dx

ex/2 dx = 2 + 4(e 2 e 2 n ).
R

n
Da det sidste udtryk konvergerer, m
a ogs
a den voksende flge n
ex /2 dx
R x2 /2
konvergere.
Grnsevrdien er lig integralet e
dx. At integralet er

lig 2, s
aledes at er en sandsynlighedstthed, vil vi ikke vise her. Det
vil blive vist i Opgave 6.1 i Kapitel 6. Fordelingsfunktionen for standard
normalfordelingen betegnes , d.v.s.

(x) =

(y)dy.

(5.3.2)

Der findes ikke noget eksplicit udtryk for ved simple funktioner, s
a
vrdierne af (x) m
a findes enten ved tabelopslag eller ved hjlp af
regnemaskine eller computer.
For standard normalfordelingen er E(|X|k ) < for alle k IIN.
Specielt eksisterer b
ade middelvrdi og varians. At
Z

|x|k ex

2 /2

dx <

kan for eksempel ses af, at man kan vise, at der findes et reelt tal K > 0,
2
2
2
s
a |x|k ex /2 < Kex /4 for alle x IR. At ex /4 er integrabel, ses p
a
x2 /2
samme m
ade, som vi brugte til at vise, at e
er integrabel.

5.3 Normalfordelingen

163

0.0

0.1

0.2

0.3

0.4

Standard normalfordelingen

Figur 5.3.1: Standard normalfordelingens sandsynlighedstthed.

Lad os s
a finde middelvrdi og varians af standard normalfordelingen.
Da er en lige funktion (d.v.s. (x) = (x)), er middelvrdien nul:
1

xex

2 /2

Z

0
1
2
2
xex /2 dx
dx =
xex /2 dx +
0
2
 Z

Z
1
2
x /2
x2 /2
=

xe
dx +
xe
dx = 0.
0
0
2

For at finde variansen bemrkes flgende. Differentiation af ttheden


giver
!
1
d
1
2
2
ex /2 = xex /2 ,
0 (x) =
dx
2
2
og
!
d
1
1
2
00
x2 /2
(x) =
xe
= (x2 1)ex /2 .
dx
2
2

164

En-dimensionale kontinuerte fordelinger

Da 0 (n) 0 for n , er
Z

Z
Z +n
1 x2 /2
00

e
dx =
(x 1)
(x)dx = lim
00 (x)dx
n

n
2
0
0
= lim ( (n) (n)) = 0.

Dermed er
Z

1
2
x2 ex /2 dx =

1
2
ex /2 dx = 1.
2

hvor vi har brugt, at er en sandsynlighedstthed. Da middelvrdien


er nul, er ogs
a variansen lig 1.

0.0

0.2

0.4

0.6

0.8

1.0

Standard normalfordelingen

Figur 5.3.2: Standard normalfordelingens fordelingsfunktion.


Den generelle normalfordeling opn
as ved at indfre en positionsparameter IR og en skalaparameter > 0. Hvis X er standard normalfordelt, er
Y = + X
(5.3.3)

5.4 Transformation af kontinuerte fordelinger p


a IR

165

normalfordelt med middelvrdi og varians 2 . At Y har denne middelvrdi og varians ses af regneregler for middelvrdi og varians, (5.2.7) og
(3.7.10). Fordelingsfunktionen for normalfordelingen med middelvrdi
og varians 2 er
F (y) = P (Y y) = P ( + X y)




y
y
= P X
=
.

(5.3.4)

Da er kontinuert differentiabel, er F det ogs


a, og


1
(y )2
1
y
=
exp
F (y) =
.

2 2
2 2
0

Iflge Stning 5.1.6 er sandsynlighedsttheden for normalfordelingen


med middelvrdi og varians 2 derfor lig
!

1
(y )2
p(y) =
exp
,
2 2
2 2

y IR.

(5.3.5)

Normalfordelingen er langt den vigtigste af de kontinuerte fordelinger.


Dette skyldes isr den centrale grnsevrdistning, som vi vil behandle
i Kapitel 7. Dels kan denne stning bruges til at argumentere for, at
m
alefejl ofte er normalfordelte, dels er den baggrunden for, at normalfordelingen hyppigt optrder som approksimativ fordeling af estimatorer
for parametre i statistiske modeller. Det skal ogs
a nvnes, at en rkke
statistiske modeller, baseret p
a normalfordelingen, har en srligt simpel
struktur, som har relation til n-dimensional Euklidisk geometri og liner
algebra. Disse linere normalfordelingsmodeller er de vigtigste og mest
anvendte blandt alle statistiske modeller. Vi skal se lidt p
a et simpelt
eksempel i Afsnit 8.3.

5.4

Transformation af kontinuerte fordelinger p


a IR

Vi skal i dette afsnit behandle fordelingen af t(X), hvor X er en kontinuert stokastisk variabel, og t er en reel funktion. Vi s
a i Eksempel 5.1.6,

166

En-dimensionale kontinuerte fordelinger

at fordelingen af t(X) ikke behver at vre kontinuert. Vi vil derfor


lgge betingelser p
a funktionen t, som sikrer, at fordelingen af t(X) er
kontinuert.
Lad X vre en kontinuert stokastisk variabel, som opfylder, at P (X
I) = 1 for et interval I IR. Intervallet I kan vre endeligt eller uendeligt
og lukket,
abent eller halv
abent. I det flgende betegner t en kontinuert,
strengt monoton afbildning af I ind i IR. Da er J = t(I) et interval.
Definer venstre endepunkt v og hjre endepunkt h for intervallet J ved
v = inf J og h = sup J.
Eventuelt kan v vre , ligesom h eventuelt kan vre . Med t1
betegnes den inverse funktion til t, som eksisterer og er defineret p
a J,
da t er antaget at vre strengt monoton.
Definer nu en stokstisk variabel Y ved Y = t(X). Det er klart, at
P (Y J) = 1. Faktisk er P (Y (v, h)) = 1. Hvis nemlig f. eks. v J,
er P (Y = v) = P (X = t1 (v)) = 0.
Lad FX betegne fordelingsfunktionen for X og FY fordelingsfunktionen for Y , d.v.s. FX (x) = P (X x) og FY (x) = P (Y x). Lad videre a
og b vre hjre og venstre endepunkt for intervallet I (dvs. a = inf I og
b = sup I). Der mindes om, at hvis Xs sandsynlighedstthed p er kontinuert p
a intervallet (a, b), er FX kontinuert differentiabel p
a (a, b), og
FX0 (x) = p(x) for x (a, b). Videre glder iflge Stning 5.1.6, at hvis
FY er kontinuert differentiabel p
a (v, h), s
a er Y en kontinuert stokastisk
0
variabel med tthedfunktion q = FY .
Stning 5.4.1 Antag, at X er en kontinuert stokastisk variabel, som er
koncentreret p
a intervallet I, og at Xs sandsynlighedstthed p er kontinuert p
a (a, b). Lad den reelle funktion t vre kontinuert differentiabel,
og antag at t0 (x) 6= 0 for alle x (a, b). Da er Y = t(X) en kontinuert
stokastisk variabel med sandsynlighedstthed q givet ved

q(y) =

d 1
t (y) hvis y (v, h)
p(t1 (y)) dy

hvis y
/ (v, h).

(5.4.1)

5.4 Transformation af kontinuerte fordelinger p


a IR

167

Et alternativt udtryk for q er


q(y) =

p(t1 (y))/|t0 (t1 (y))| hvis y (v, h)

(5.4.2)

hvis y
/ (v, h).

Bevis: Bemrk frst, at betingelsen, at t0 (x) 6= 0 for alle x (a, b), dels
sikrer, at t er strengt monoton, dels at t1 er kontinuert differentiabel
med afledet
1
d 1
t (x) = 0 1
.
dx
t (t (x))
Dette viser, at de to udtryk for q er identiske, samt at FX (t1 (x)) er
kontinuert differentiabel p
a (v, h). Iflge transformationsstningen for
fordelingsfunktioner, Stning 2.2.3, er fordelingsfunktionen for Y , FY (y),
enten lig FX (t1 (y)) eller lig 1FX (t1 (y)) afhngigt af, om t er voksende
eller aftagende. I begge tilflde er FY alts
a kontinuert differentiabel p
a
(v, h), s
aledes at Y iflge Stning 5.1.6 er en kontinuert stokastisk variabel med sandsynlighedstthed q(y) = FY0 (y) for y (v, h). Hvis t0 > 0,
er
d
d
p(t1 (y))
FY0 (y) = FX (t1 (y)) = F 0 (t1 (y)) t1 (y) = 0 1
dy
dy
t (t (y))
for alle y (v, h). Tilsvarende er
FY0 (y) =


p(t1 (y))
d
d 
1 FX (t1 (y)) = F 0 (t1 (y)) t1 (y) =
dy
dy
t0 (t1 (y))

for alle y (v, h), hvis t0 < 0.

2
Man kan godt forst
a resultatet i Stning 5.4.1 intuitivt. Hvis nemlig
h > 0 er et lile tal, er t(x + h) ' t(x) + t0 (x)h, s
a hvis y = t(x), og hvis t
er voksende, er
P (Y [y, y + t0 (x)h]) ' P (t(X) [t(x), t(x + h)])
= P (X [x, x + h]) ' p(x)h = p(t1 (y))h.
Dermed er
q(y) '

P (Y [y, y + t0 (x)h])
p(t1 (y))
'
.
t0 (x)h
t0 (t1 (y))

168

En-dimensionale kontinuerte fordelinger

Den sandsynlighedsmasse, der oprindeligt var i intervallet [x, x+h] flyttes


ved t over i et interval, hvis lngde er t0 (x)h. Det er grunden til at t0 (x)
optrder i formlen for q.
Eksempel 5.4.2 (Positions- og skalaparameter). Hvis X har sandsynlighedstthed p vil Y = a + bX, hvor b 6= 0, have tthed


1
ya
q(y) = p
.
|b|
b

(5.4.3)

Fordelingen af Y siges her at vre fremkommet af Xs fordeling ved at


forsyne denne med positionsparameteren a og skalaparameteren b. Fordelingerne af X og Y siges at vre af samme type. N
ar man taler om
positions- og skalaparameter for en fordeling, er det altid med reference
til en normeret fordeling af samme type. Hvis f. eks. Y er eksponentialfordelt med positionsparameter a og skalaparameter b betyder det, at Y
har tthed
1
q(y) = e(ya)/b 1(0,) ((y a)/b),
|b|

med reference til eksponentialfordelingen med parameter 1, der har tthed ex p


a den positive halvakse. Bemrk at denne fordeling er koncentreret p
a intervallet (a, ). Eksponentialfordelingen med parameter er
alts
a den samme som eksponentialfordelingen med skalaparameter 1 .
Bemrk ogs
a, at hvis X er standard normalfordelt, s
a er Y normalfordelt
2
med middelvrhdi a og varians b , og at (5.3.5) er i overensstemmelse
med (5.4.3).
2

Eksempel 5.4.3 Lad X vre eksponentialfordelt med parameter 1, og


betragt den stokastiske variabel Y = X 2 . Da funktionen t(x) = x2 har

den afledede t0 (x) = 2x og for y > 0 har den inverse t1 (y) = y, er


ttheden for Y iflge Stningen 5.4.1

e y
q(y) = ,
2 y

y > 0.

5.4 Transformation af kontinuerte fordelinger p


a IR

169

Eksempel 5.4.4 Lad X vre en kontinuert stokastisk variabel, der er


koncentreret p
a det
abne interval I (det er ikke nogen indskrnkning at
antage, at I er
abent). Antag at Xs tthed p er kontinuert p
a I og opfylder, at p(x) > 0 for alle x I. Lad F betegne fordelingsfunktionen for X,
og st t = F . Da opfylder t betingelserne i Stning 5.4.1, og da F 0 = p,
ses det af (5.4.2), at q(y) = p(F 1 (y))/p(F 1 (y)) = 1 for y (0, 1). Den
stokastiske variable F (X) er s
aledes ligefordelt p
a intervallet (0, 1). Dette
resultat bruges somme tider til at undersge, om givne data kan antages
at vre observationer af en stokstisk variabel med fordelingsfunktion F .
Ogs
a den inverse funktion F 1 opfylder betingelserne i Stning 5.4.1.
Dette kan bruges til at konstruere en stokastisk variabel med fordeling
F ud fra en stokastisk variabel R, som er ligefordelt p
a (0, 1), ved
Z = F 1 (R).
Da den inverse til F 1 er F , og da F 0 = p, flger det af (5.4.1) at
q(z) = 1(0,1) (F (z))p(z) = p(z) for z I. Alts
a er Z koncentreret p
a
I med tthed p. Det er let at generere uafhngige stokastiske variable
R1 , . . . , Rn , der er ligefordelte p
a (0, 1). Det kan enhver respektabel statistikprogrampakke og mange lommeregnere gre. Hvis man kan beregne
F 1 (Ri ), enten ved at bruge et eksplicit udtryk eller ved en numerisk
procedure, kan man derfor frembringe uafhngige udfald Zi = F 1 (Ri ),
i = 1, . . . , n, af en stokastisk variabel med fordelingsfunktion F . Dette
har man jvnligt brug for i praksis. Det kaldes at simulere udfald af den
stokastiske variable.
Fordelingsfunktionen for eksponentialfordelingen er 1 ex , x > 0.
Derfor er 1 log(1 R) eksponentialfordelt med parameter . Det er
ikke svrt at indse (f. eks. ved hjlp af Stning 5.4.1), at hvis R er
ligefordelt p
a (0, 1), s
a har 1 R den samme fordeling. Derfor er ogs
a
1 log(R)
eksponentialfordelt med parameter .
2
Eksempel 5.4.5 Lad os betragte udsendelse af -partikler fra et radioaktivt materiale. Lidt fra det radioaktive materiale opsttes en skrm,
som kan registrere, n
ar en -partikler rammer den. Vi tnker os, at der

170

En-dimensionale kontinuerte fordelinger

er tale om en ganske lille klump af materialet, som kan antages at ligge i


et punkt. Vi ser p
a opstillingen ovenfra, s
a skrmen ses som et ret linie.
For at lette forklaringen indlgges et retvinklet koordinatsystem, hvis
y-akse flger skrmen. Vi kan antage, at det radioaktive materiale ligger
punktet (1, 0).
Den retning, som en partikel, der rammer skrmen, udsendes i, kan
m
ales ved vinklen i forhold til x-aksen. Denne vinkel er en stokastisk
variabel, som vi betegner med X. Da alle retninger er lige sandsynlige,
a
er X ligefordelt p
a ( 2 , 2 ). Vi vil nu finde fordelingen af det punkt p
y-aksen, som rammes af -partiklen; alts
a fordelingen af Y = tan(X).
Da sandsynlighedsttheden for X er 1 1( 2 , 2 ) (x), og da den afledede
af tan1 (y) er 1/(1 + y 2), flger det af (5.4.1), at sandsynlighedsttheden
for Y er
1
, y IR.
(5.4.4)
q(y) =
(1 + y 2 )
Fordelingen med denne tthed kaldes Cauchy-fordelingen.
Cauchy-fordelingen har ikke middelvrdi (og derfor heller ikke varians). Dette flger af at
Z

1
1 n x
|x|
dx

dx
(1 + x2 )
1 1 + x2
n
1Zn x
1
1 Zn1

dx =
log(n).
dx
=
2
1 2x
2 1 x
2
n

2
Vi kan nu bevise Stning 5.2.3 i det tilflde, hvor den stokastiske
variable X og transformationen t er som i Stning 5.4.1. Vi njes med
beviset, hvor t er voksende. Lseren kan let selv klare det aftagende
tilflde. Da sandsynlighedsttheden for fordelingen af t(X) er givet ved
(5.4.1), har t(X) middelvrdi, n
ar flgende integral er endeligt:
Z

h
v

d
|y|p(t (y)) t1 (y)dy =
dy
1

b
a

|t(x)|p(x)dx,

hvor vi har skiftet integrationsvariabel til x = t1 (y). Heraf ses, at t(X)


har middelvrdi hvis og kun hvis (5.2.3) holder. At middelvrdien kan
beregnes ved (5.2.4) flger ved at foretage det samme variabelskift i integralet uden numerisk tegn.

5.4 Transformation af kontinuerte fordelinger p


a IR

171

Eksempel 5.4.6 Lad X vre en stokastisk variabel, hvis mulige vrdier


er hele den reelle akse, og antag, at man har brug for at finde fordelingen
af Z = X 2 . I denne situation, som jvnligt forekommer i statistik, kan
Stning 5.4.1 ikke anvendes, da funktionen x 7 x2 jo ikke er monoton p
a
hele IR. Alligevel er det ikke vanskeligt at finde sandsynlighedsttheden
for X 2 . Man skal blot, i lighed med beviset for Stning 5.4.1, g
a via
fordelingsfunktionen.
Lad alts
a p betegne sandsynlighedsttheden for X. Vi antager, at
denne er kontinuert p
a hele IR. Lad endvidere FX og FZ betegne fordelingsfunktionerne for henholdsvis X og Z. For ethvert z > 0 er
FZ (z) = P (Z z) = P (X 2 z)

= P ( z X z) = FX ( z) FX ( z).
Da Z 0, og da FZ er kontinuert differentiabel p
a (0, ), er Z iflge
Stning 5.1.6 en kontinuert stokastisk variabel med sandsynlighedtthed

d
d
p( z) + p( z)
0

q(z) = FZ (z) = FX ( z) FX ( z) =
dz
dz
2 z
for z > 0. For z 0 er sandsynlighedsttheden naturligvis lig med nul.
Lad os til slut betragte det specialtilflde,
hvor X er standard nor
x2 /2
a det er ikke vanskeligt at se, at
malfordelt. Da er p(x) = e
/ 2, s
ttheden for X 2 er

z/2

/ 2z hvis z > 0
e
q(z) =
(5.4.5)

0
hvis z 0.
Denne fordeling kaldes 2 -fordelingen med en frihedsgrad. Vi vil vende
tilbage til 2 -fordelingerne i Kapitel 8.
2
Man kommer af og til i den situation, at man gerne vil finde fordelingen af en ikke-monoton transformation af en kontinuert stokastisk
variabel. Stning 5.4.1 kan alts
a ikke anvendes, men man kan ofte lse
problemet ved at g
a via fordelingsfunktionen i lighed med, hvad der blev
gjort i Eksempel 5.4.6.

172

En-dimensionale kontinuerte fordelinger

For at minde om, at der findes mange typer af transformationer, hvor


metoden i Stning 5.4.1 og dens variationer, s
a som Eksempel 5.4.6,
ikke kan anvendes, slutter vi med et eksempel p
a en transformation af
en kontinuert stokastisk variabel, hvor man opn
ar en diskret fordeling.
Eksempel 5.4.7 Antag, at X er eksponentialfordelt med parameter ,
og definer en funktion t : (0, ) 7 IIN0 ved t(x) = [x], hvor [x] betegner
heltalsdelen af x, alts
a det strste hele tal, der er mindre end eller lig x.
Den stokastiske variable Y = t(X) er koncentreret p
a IIN0 . For y IIN0 er
P (Y = y) = P ([X] = y) = P (y X < y + 1)
=

y+1

ex dx = (e )y (1 e ),

d.v.s. Y er geometrisk fordelt med parameter 1e . N


ar man tnker p
a,
hvordan vi udledte eksponentialfordelingen i Eksempel 5.1.1 som ventetiden p
a en tilfldigt ankommende begivenhed (se ogs
a Eksempel 4.1.1),
og sammenligner dette med definitionen af den geometriske fordeling, er
resultatet ikke helt overraskende.
2

5.5

Sammenfatning

I Kapitel 5 har vi indfrt og studeret en-dimensionale kontinuerte fordelinger. Det er fordelinger, hvor sandsynligheden er fordelt s
a jvnt ud
over den reelle akse eller et delinterval af denne, at fordelingen ikke kan
beskrives ved en sandsynlighedsfunktion, som vi gjorde det for de diskrete
fordelinger. I stedet benyttes en sandsynlighedstthed: Sandsynligheden
for at f
a et udfald i en delmngde A af IR beregnes som integralet af sandsynlighedsttheden over A. Sandsynlighedsttheden kan (i sine kontinuitetspunkter) fortolkes som sandsynlighed per lngdeenhed. Definitioner
og mange resultater for kontinuerte fordelinger minder om dem, vi har set
for diskrete fordelinger, idet dog alle summer er erstattet med integraler.
Det glder ikke mindst resultaterne om middelvrdi og varians.
Et centralt resultat i dette kapitel er transformationsstningen for
en-dimensionale kontinuerte fordelinger, som anvendes til at beregne fordelingen af en funktion af en grundliggende stokastisk variabel, hvis fordeling man kender. Stningen kan vises ved at udnytte, at man som

5.6 Opgaver

173

regel kan finde sandsynlighedsttheden for en kontinuert fordeling ved


at differentiere dens fordelingsfunktion.
Vi har ogs
a indfrt nogle nye fordelinger. De vigtigste er normalfordelingen, eksponentialfordelingen og ligefordelingen p
a et begrnset
interval. Endvidere er vi stdt p
a Paretofordelingen og Cauchy fordelingen, som begge anvendes i situationer, hvor man har behov for en model,
som tillgger (numerisk) meget store udfald en strre sandsynlighed end
de har for en normalfordeling eller en eksponentialfordeling. I de flgende
opgaver dukker endnu et par fordelinger op: Laplacefordelingen, arcussinus fordelingen og den logaritmiske normalfordeling.

5.6

Opgaver

5.1 Antag at den stokastiske variable X er eksponentialfordelt med


parameter . Find P (X > x) for alle x > 0. Find for = 1
sandsynligheden P (1 < X < 2).
5.2 Antag at X er en kontinuert stokastisk variabel p
a (1, ) med
(+1)
sandsynlighedstthed p(x) = x
for x > 1, hvor > 0 (se
Eksempel 5.2.2). Find fordelingsfunktionen for X.
5.3 Lad X vre en stokastisk variabel med fordelingsfunktion

F (x) =

for x 0

x/3

for 0 < x 1

(2x 1)/3

for 1 < x 2

for x > 2.

Find P ( 21 < X < 1), P (1 X < 32 ) og P ( 32 < X 43 ). Gr rede


for, at X er kontinuert, og find sandsynlighedttheden for X.
5.4 Definer en fordelingsfunktion F ved
F (x) =

1
x
+
,
2 2(|x| + 1)

x IR.

174

En-dimensionale kontinuerte fordelinger


Gr rede for, at den tilsvarende fordeling er kontinuert og angiv
sandsynlighedsttheden.

5.5 (a) Vis, at


p(x) = 12 e|x| ,

x IR,

er en sandsynlighedstthed p
a IR. Den tilsvarende fordeling kaldes
Laplace-fordelingen eller den tosidede eksponentialfordeling.
(b) Find fordelingsfunktionen.
(c) Vis, at fordelingen har middelvrdi og varians, og find disse
strrelser.
5.6 (a) Vis, at
1
p(x) =
1 x2

x (1, 1),

er en sandsynlighedstthed p
a intervallet (1, 1). Vink: Det er en
god ide at skifte integrationsvariabel til v givet ved x = sin(v). Den
tilsvarende fordeling kaldes arcus-sinus fordelingen.
(b) Find fordelingsfunktionen. Fordelingsfunktionen forklarer fordelingens navn.
(c) Beregn fordelingens middelvrdi og varians.
5.7 Vis, at fordelingen med sandsynlighedstthed givet ved (5.1.5) har
middelvrdi /( + 1). Hvad er variansen?
5.8 Lad X vre exponentialfordelt med parameter . Hvad er
(a) E(X 3 ) ?
(b) E (exp(aX)) ?
5.9 St
In =

xn ex dx,

hvor n IIN0 .

(a) Overvej, at integralet er endeligt.


(b) Vis, at In = n! Vink: Vis, at In = nIn1 .

5.6 Opgaver

175

aledes en
Funktionen pn : [0, ) 7 IR givet ved pn (x) = n!1 xn ex er s
sandsynlighedstthed. Den tilsvarende fordeling kaldes en Erlang
fordeling efter en dansk matematiker, se ogs
a Opgave 6.7. Denne
fordeling er et specialtilflde af -fordelingerne, som vil blive behandlet grundigt i Kapitel 8.
(c) Udregn middelvrdi og varians af fordelingen med sandsynlighedstthed pn .
5.10 Vis, at funktionen
p(x) =

2(x + 1)3 hvis x > 0


0
hvis x 0

er en sandsynlighedstthed, og find den tilsvarende fordelingsfunktion. Undersg, om fordelingen har middelvrdi og varians, og angiv i bekrftende fald disse strrelser.
5.11 Vis den sidste p
astand i Stning 5.2.4.
5.12 (a) Antag at X er standard normalfordelt. Vis, at E(X 3 ) = 0 og
at E(X 4 ) =
3. Vink til E(X 4 ): Ved hjlp af partiel integration kan
R 4
integralet x (x) dx udtrykkes ved E(X 2 ).
(b) Antag at Y er normalfordelt med middelvrdi og varians 2 .
Bestem E(Y 3 ) og E(Y 4 ). Vink: Binomialformlen kan vre nyttig.

5.13 Lad X vre en kontinuert stokastisk variabel, som er koncentreret


p
a et interval (a, b), og antag at Xs sandsynlighedstthed p er
kontinuert p
a (a, b). Find sandsynlighedsttheden for
(a)

exp(X).

Antag nu, at a 0, og find ttheden for fordelingen af

(b)
X
(c) 1/X
(d) X 2 .
(e) Antag til slut, at X kan antage vrdier p
a hele den reelle akse
fraregnet nul. Hvad er da ttheden for fordelingen af 1/X? Hvad
er svaret, hvis ogs
a nul er en mulig vrdi for X?

176

En-dimensionale kontinuerte fordelinger

5.14 Lad X vre en kontinuert stokastisk variabel med sandsynlighedstthed (5.1.5). Hvad er ttheden for fordelingen af 1/X. Diskuter
derefter, hvordan Eksempel 5.2.2 og den del af Eksempel 5.1.4, som
st
ar lige efter Stning 5.2.3, hnger sammen.
5.15 Lad X vre normalfordelt med middelvrdi og varians 2 . Fordelingen af Y = exp(X) kaldes den logaritmiske normalfordeling med
parametre (, 2 ).
(a) Find ttheden for fordelingen af Y .
(b) Vis, at hvis Y er logaritmisk normalfordelt, s
a er ogs
a Y logaritmisk normalfordelt for ethvert > 0. En klasse af fordelinger
med denne egenskab kaldes skalainvariant. Opskriv den formel, som
viser, hvorledes den logaritmiske normalfordelings parametre ndrer sig ved en s
adan skalatransformation.
(c) Vis, at middelvrdien i den
logaritmiske normalfordeling med
parametre = 0 og 2 = 1 er e = 1.6487.
5.16 (a) Vis, at fordelingsfunktionen for Cauchy-fordelingen er
1
2

tan1 (x).

Vink: Resultatet vises lettest ved at bruge den m


ade, som Cauchyfordelingen blev udledt p
a i Eksempel 5.4.5.
(b) Hvis X er Cauchy-fordelt, hvad er s
a fordelingen af X 2 og 1/X?
5.17 Antag, at X er ligefordelt p
a intervallet (0, 1). Find fordelingen af
Y = log(X).
5.18 Betragt en kontinuert fordeling p
a I IR (I kan selvflgelig godt
vre hele IR) med tthed p, som opfylder, at p(x) > 0 for alle
x I. Lad F vre den tilsvarende fordelingsfunktion. For ethvert
a (0, 1) defineres fordelingens afraktil ved F 1 (a). Traditionelt
angives a i procent, s
aledes at f. eks. 50%fraktilen (som ogs
a kaldes
1
medianen) er det tal x, der giver F (x) = 2 .
(a) Find 5%fraktilen, medianen og 95%fraktilen i eksponentialfordelingen med parameter = 1.

5.6 Opgaver

177

(b) Find 5%fraktilen, medianen og 95%fraktilen i normalfordelingen.


(c) Find 5%fraktilen, medianen og 95%fraktilen i arcus-sinus fordelingen, som blev defineret i Opgave 5.6.
(d) Find 5%fraktilen, medianen og 95%fraktilen i Cauchy-fordelingen. Vink: Se Opgave 5.16.
(e) Hvilke regler glder for fraktiler i en transformeret fordeling?
Specielt, hvordan afhnger fraktilerne i en fordeling med positions
og skalaparameter af disse parametre?
5.19 Antag, at Xs fordeling har tthed p p
a IR. Hvad er ttheden for
fordelingen af |X|?
5.20 Lad X vre en kontinuert stokastisk variabel med kontinuert sandsynlighedstthed p. Vis, at Y = X n , hvor n IIN, har sandsynlighedstthed

q(y) =

n
ar n er lige, og

p(y n )+p(y n
ny 1n1

for y > 0
for y 0,

p(y n )
q(y) =
n|y|1n1
1

for y 6= 0,

n
ar n er ulige.
5.21 Lad X vre ligefordelt i [0, 2], og st Y = sin(X). Vis, at Y er
arcus-sinus fordelt (se Opgave 5.6).
5.22 Inge stiller sin cykel fra sig efter en lngere tur. Hvad er fordelingen
af baghjulsventilens hjde over jorden.
5.23 Med [x] betegnes som sdvanligt heltalsdelen af det reelle tal x,
d.v.s. det strste hele tal som er mindre end eller lig x. Lad X

178

En-dimensionale kontinuerte fordelinger


vre ligefordelt p
a (0, 1), og definer diskrete stokastiske variable
X1 , X2 , . . . , Xn med vrdier i {0, 1} ved
X1
X2
X3
X4

=
=
=
=
..
.

[2X]
[4X 2X1 ]
[8X 4X1 2X2 ]
[16X 8X1 4X2 2X3 ]

Vis at X1 , X2 , . . . , Xn er uafhngige, ligefordelte p


a {0, 1} Vink:
Bemrk at der i totalssystemet glder X = 0.X1 X2 X3 . . . Xn , p
a
nr afrunding nedad til n betydende cifre. Bemrk at opgaven
viser, at man kan simulere et vilk
arligt antal mntkast ud fra en
ligefordelt stokastisk variabel.

Kapitel 6
Fler-dimensionale kontinuerte
fordelinger
I praksis er det sjldent nok at betragte en enkelt stokastisk variabel af
gangen. For eksempel betragter man i statistik som regel mange observationer, der antages at vre et udfald af hver sin stokastiske variable. Vi
er derfor tvunget til at definere kontinuerte fordelinger p
a IRn og kontinuerte stokastiske vektorer, hvilket teknisk er lidt svrere end fordelinger
p
a IR, da vi bliver ndt til at integrere i IRn .

6.1

Ttheder og fordelinger p
a IRn

Som for kontinuerte fordelinger p


a IR er sandsynlighedsttheden et centralt begreb.
Definition 6.1.1 En funktion p fra en delmngde B IRn ind i [0, ),
som opfylder, at
Z

p(x1 , . . . , xn )dx1 dxn = 1,

kaldes en sandsynlighedstthed p
a B.
Integration i IRn diskuteres i Appendix D.

(6.1.1)

180

Fler-dimensionale kontinuerte fordelinger

Det til en sandsynlighedstthed p hrende sandsynlighedsm


al p
aB
er givet ved
P (A) =

1A (x1 , . . . , xn )p(x1 , . . . , xn )dx1 dxn ,

hvor A B. At P er et sandsynlighedsm
al vises p
a helt samme m
ade,
som det i Kapitel 5 blev gjort for den reelle akse. En fordeling af denne
type kaldes en kontinuert fordeling, og en stokastisk vektor (X1 , . . . , Xn ),
hvis fordeling er kontinuert, kaldes en kontinuert stokastisk vektor. Hvis
Xs fordeling har sandsynlighedstthed p er alts
a
P ((X1 , . . . , Xn ) A) =

1A (x1 , . . . , xn )p(x1 , . . . , xn )dx1 dxn .

Som diskuteret tidligere, kan en fordeling, der er koncentreret p


a
B IRn , opfattes som en fordeling p
a hele IRn , ligesom en sandsynlighedstthed p
a B kan defineres p
a hele IRn ved at stte dens vrdi lig
nul udenfor B.
Eksempel 6.1.2 En naturlig model for udtrkning af et tilfldigt punkt
i [0, 1] [0, 1] er sandsynlighedsm
alet givet ved
P (A) = |A|
for A [0, 1] [0, 1], hvor |A| betegner arealet af A. At dette er et
sandsynlighedsm
al, er ikke svrt at vise. Det er det kontinuerte sandsynlighedsm
al p
a [0, 1] [0, 1] med sandsynlighedsttheden
p(x, y) = 1[0,1][0,1] (x, y).
Fordelingen kaldes ligefordelingen p
a [0, 1][0, 1]. Vi kan generelt definere
ligefordelingen p
a en begrnset delmngde B af IRn som fordelingen med
sandsynlighedsttheden
p(x1 , . . . , xn ) =

1B (x1 , . . . , xn )
,
|B|

(6.1.2)

hvor |B| betegner det n-dimensionale volumen af B, se (D.2.6) i Appendix


D.
2

6.1 Ttheder og fordelinger p


a IRn

181

Ligesom for en-dimensionale kontinuerte fordelinger, kan man i det


fler-dimensionale tilflde give en fortolkning af vrdien af sandsynlighedsfunktionen i dens kontinuitetspunkter. Antag nemlig, at p er kontinuert i punktet (x1 , . . . , xn ). Da kan man for ethvert givet  > 0 finde et
> 0, s
a
p(x1 , . . . , xn )  p(
x1 , . . . , xn ) p(x1 , . . . , xn ) + 

(6.1.3)

for alle (
x1 , . . . , xn ) A, hvor
A = [x1 , x1 + ] [xn , xn + ].
Ved overalt i (6.1.3) at gange med 1A (
x1 , . . . , x
n ) og integrere med hensyn
til (
x1 , . . . , xn ) finder vi, at
(p(x1 , . . . , xn ) )|A| =

ZIR

ZIR

IRn

(p(x1 , . . . , xn ) )1A (
x1 , . . . , xn )d
x1 d
xn
1A (
x1 , . . . , xn )p(
x1 , . . . , xn )d
x1 d
xn
(p(x1 , . . . , xn ) + )1A (
x1 , . . . , xn )d
x1 d
xn

= (p(x1 , . . . , xn ) + )|A|,
hvor |A| betegner det n-dimensionale volumen af A, se (D.2.6) Da P (A) =
x1 , . . . , xn )p(
x1 , . . . , xn )d
x1 d
xn , ser vi, at
IRn 1A (

p(x1 , . . . , xn ) ' P (A)/|A|.

(6.1.4)

Sandsynlighedstthedens vrdi i punktet (x1 , . . . , xn ) angiver alts


a, hvor
megen sandsynlighedmasse der nr dette punkt er per volumenenhed
(n
ar n = 2 er det per arealenhed).
Hvis man kender sandsynlighedsttheden for en kontinuert stokastisk
vektor (X1 , . . . , Xn ), er det relativt let at finde sandsynlighedsttheden
for den marginale fordeling af den stokastiske vektor, som fremkommer
ved kun at betragte en delmngde af koordinaterne. For nemheds skyld
kan vi njes med at finde fordelingen af (X1 , . . . , Xk ), hvor k < n. Lad os
frst betragte tilfldet n = 2 og k = 1, hvor det hele er lidt mere overskueligt. Lad derfor (X, Y ) vre en to-dimensional kontinuert stokastisk

182

Fler-dimensionale kontinuerte fordelinger

vektor med sandsynlighedstthed p(x, y). For A IR er


P (X A) = P ((X, Y ) A IR)
Z

IR2
IR
IR

1AIR (x, y)p(x, y)dxdy

Z

IR

1AIR (x, y)p(x, y)dy dx

1A (x)

Z

IR

p(x, y)dy dx,

hvoraf det ses, at X er en kontinuert stokastisk variabel med sandsynlighedstthed


Z
p(x, y)dy.
(6.1.5)
q(x) =
IR

Man integrerer simpelthen med hensyn til den overfldige koordinat y.


Vi vender os derefter til den generelle situation.

Stning 6.1.3 Lad (X1 , . . . , Xn ) vre en stokastisk vektor med sandsynlighedstthed p(x1 , . . . , xn ). Da er den stokastiske vektor (X1 , . . . , Xk ),
hvor k < n, kontinuert med sandsynlighedsttheden
q(x1 , . . . , xk ) =

IRnk

p(x1 , . . . , xk , yk+1 , . . . , yn )dyk+1 dyn .

(6.1.6)

Bevis: For A IRk er

P ((X1 , . . . , Xk ) A) = P ((X1 , . . . , Xn ) A IRnk )


=
=
=
=

1AIRnk (x1 , . . . , xn )p(x1 , . . . , xn )dx1 dxn

ZIR Z
Z

IRk

ZIR

IR

1A (x1 , . . . , xk )
k

IRk

1AIRnk (x1 , . . . , xn )p(x1 , . . . , xn )dxk+1 dxn dx1 dxk


nk
Z

IR

p(x1 , . . . , xn )dxk+1 dxn dx1 dxk


nk

1A (x1 , . . . , xk )q(x1 , . . . , xk )dx1 dxk ,

hvilket viser, at (X1 , . . . , Xk ) er en kontinuert stokastisk vektor med sandsynlighedstthed q.


2
Sagt med ord finder man alts
a ttheden for den marginale fordeling
ved at integrere med hensyn til de koordinater, som man ikke er interesseret i.

6.2 Uafhngighed

183

Eksempel 6.1.4 Antag at (X, Y ) er ligefordelt p


a trekanten
B = {(x, y) [0, 1] [0, 1]|x y}.
Da arealet af B er 21 , er sandsynlighedsttheden for (X, Y ) lig 21B (x, y),
s
a sandsynlighedsttheden for fordelingen af X er
q(x) =

IR

2 1B (x, y)dy = 2

dy = 2x,

hvis x [0, 1], mens q(x) er lig nul ellers.

6.2

Uafhngighed

Flgende stning om, hvordan man kan se p


a sandsynlighedsttheden
for en kontinuert stokastisk vektor, at de enkelte koordinater er uafhngige kontinuerte stokastiske variable, minder meget om det tilsvarende
resultat for diskrete stokastiske variable.
Stning 6.2.1 Antag, at (X1 , . . . , Xn ) er en n-dimensional kontinuert
stokastisk vektor med sandsynlighedstthed p. Betegn sandsynlighedsttheden for den marginale fordeling af Xi med pi , i = 1, . . . , n. Da er
flgende tre udsagn kvivalente:
1) X1 , . . . , Xn er stokastisk uafhngige,
2) For alle (x1 , . . . , xn ) IRn er
p(x1 , . . . , xn ) = p1 (x1 ) pn (xn ),

(6.2.1)

3) Der findes n ikke-negative reelle funktioner gi , i = 1, . . . , n, s


a
p(x1 , . . . , xn ) = g1 (x1 ) gn (xn )
for alle (x1 , . . . , xn ) IRn .

(6.2.2)

184

Fler-dimensionale kontinuerte fordelinger

Bevis: Vi viser kun stningen i tilfldet n = 2. Det generelle bevis er


helt tilsvarende, men notationsmssigt mere besvrligt.
Frst vises, at 1) medfrer 2). Hvis X1 og X2 er uafhngige, flger det
af definitionen af uafhngighed af stokastiske variable (Definition 2.4.1),
at vi for Ai IR, i = 1, 2 har at
P ((X1 , X2 ) A1 A2 ) = P (X1 A1 )P (X2 A2 )
=
=
=

1A1 (x1 )p1 (x1 )dx1

ZIR Z
ZIR

IR2

IR

IR

1A2 (x2 )p2 (x2 )dx2




1A1 (x1 )1A2 (x2 )p1 (x1 )p2 (x2 )dx2 dx1

1A1 A2 (x1 , x2 )p1 (x1 )p2 (x2 )dx1 dx2 ,

hvoraf det ses, at sandsynlighedsttheden for (X1 , X2 ) er p1 (x1 )p2 (x2 ).


For at vise, at 2) medfrer 1), antager vi, at p(x1 , x2 ) = p1 (x1 )p2 (x2 ).
For Ai IR, i = 1, 2, er da
P ((X1 , X2 ) A1 A2 ) =

IR2

1A1 A2 (x1 , x2 )p1 (x1 )p2 (x2 )dx1 dx2 ,

s
a ved ovenst
aende regnestykke i omvendt rkkeflge ses det, at
P ((X1 , X2 ) A1 A2 ) = P (X1 A1 )P (X2 A2 ).
Alts
a er X1 og X2 er uafhngige, jfr. Definition 2.4.1.
At 2) medfrer 3) er klart.
Lad os nu antage, at 3) holder og vise, at det medfrer 2). Iflge
Stning 6.1.3 er
p1 (x1 ) =

p2 (x2 ) =

og
Da
1=

IR

IR

IR

p(x1 , x2 )dx2 = g1 (x1 )

p(x1 , x2 )dx1 = g2 (x2 )

p1 (x1 )dx1 =
=

IR
Z

IR

g1 (x1 )

IR

g1 (x1 )dx1

IR

IR

g2 (x2 )dx2 ,
g1 (x1 )dx1 .


g2 (x2 )dx2 dx1


 Z

IR

g2 (x2 )dx2 ,

6.2 Uafhngighed

185

flger det, at
p1 (x1 )p2 (x2 ) = g1 (x1 )g2 (x2 )

Z

IR

g2 (y2 )dy2

= g1 (x1 )g2 (x2 ) = p(x1 , x2 ),

 Z

IR

g1 (y1 )dy1

hvilket netop er (6.2.1).


2
Egentlig skulle man i beviset for at 1) medfrer 2) betragte en vilk
arlig
2
delmngde A af IR og ikke kun en produktmngde A1 A2 . P
a et senere
kursus i sandsynlighedsregning vil det imidlertid blive vist, at det faktisk
er tilstrkkeligt at betragte produktmngder.
I analogi med, hvad der glder for diskrete fordelinger, er funktionerne g1 , . . . , gn1 og gn proportionale med henholdsvis p1 , . . . , pn1 og
pn . Ligeledes glder der (med argumenter som i Kapitel 3), at hvis vi
ikke kan finde en produktmngde T1 T2 , s
aledes at (X1 , X2 ) er koncentreret p
a T1 T2 , og s
aledes at p(x1 , x2 ) > 0 for alle (x1 , x2 ) T1 T2 ,
s
a kan X1 og X2 ikke vre uafhngige.

1.0

0.5

0.0

0.5

1.0

Eksempel 6.2.2 Antag, at (X1 , X2 ) er ligefordelt p


a mngden K =
{(x1 , x2 ) | |x1 | + |x2 | 1}. Da K ikke er nogen produktmngde, kan vi

1.0

0.5

0.0

0.5

1.0

Figur 6.2.1: Mngden K.

186

Fler-dimensionale kontinuerte fordelinger

ved hjlp af ovenst


aende observation konkludere, at X1 og X2 ikke er
uafhngige. Dette er ogs
a intuitivt klart: Hvis vi for eksempel ved, at
1
X1 = 2 , s
a kan vi konkludere, at 21 X2 21 . Lad os - til overflod ogs
a bevise, at den simultane sandsynlighedstthed ikke kan skrives som
et produkt af de to marginale ttheder.
Da |K| = 2, er den simultane sandsynlighedstthed p(x1 , x2 ) =
1K (x1 , x2 )/2. Sandsynlighedsttheden for X1 er iflge (6.1.6)
p1 (x1 ) =

1
2

IR

1K (x1 , x2 )dx2 =

1
2

1|x1 |
|x1 |1

1 dx2 = 1 |x1 |

for x1 [1, 1]. P


a tilsvarende m
ade f
as, at sandsynlighedsttheden for
X2 er p2 (x2 ) = 1 |x2 | for x2 [1, 1]. Det er klart, at 1K (x1 , x2 )/2 6=
(1 |x1 |)1[1,1](x1 )(1 |x2 |)1[1,1] (x2 ).
2
I Kapitel 2 blev det lovet at bevise 2) i Stning 2.4.3 for kontinuerte
fordelinger. Lad os gre det.
Stning 6.2.3 Lad (X1 , . . . , Xn ) vre en n-dimensional kontinuert stokastisk vektor, og antag at de stokastiske variable X1 , . . . , Xn er uafhngige. Hvis er en funktion fra IRnk ind i IR, hvor k < n, s
a er de k + 1
stokastiske variable X1 , . . . , Xk , (Xk+1 , . . . , Xn ) uafhngige.
Bevis: Lad A1 , . . . , Ak , A vre delmngder af IR, lad p betegne sandsynlighedsttheden for den stokastiske vektor (X1 , . . . , Xn ), og lad pi betegne sandsynlighedsttheden for Xi , i = 1, . . . , n. Iflge Stning 6.2.1
er p(x1 , . . . , xn ) = p1 (x1 ) pn (xn ), s
a
P (X1 A1 , . . . , Xk Ak , (Xk+1 , . . . , Xn ) A)
= P (X1 A1 , . . . , Xk Ak , (Xk+1 , . . . , Xn ) 1 (A))
=
=

IR
Z

IR

1A1 Ak 1 (A) (x1 , . . . , xn )p1 (x1 ) pn (xn )dx1 dxn




1A1 (x1 )p1 (x1 )dx1

Z

IRnk

Z

IR

1Ak (xk )pk (xk )dxk

11 (A) (xk+1 , . . . , xn )pk+1 (xk+1 ) pn (xn )dxk+1 dxn

= P (X1 A1 ) P (Xk Ak )P ((Xk+1 , . . . , Xn ) 1 (A))


= P (X1 A1 ) P (Xk Ak )P ((Xk+1 , . . . , Xn ) A),

6.3 Transformation af kontinuerte fordelinger p


a IRn

187

s
aledes, at de k + 1 stokastiske variable er uafhngige.
2
Stning 2.4.3 indeholder endnu to resultater, som imidlertid flger
af 2), s
a disse [d.v.s. 1) og 3)] er nu ogs
a vist for kontinuerte stokastiske
variable.

6.3

Transformation af kontinuerte fordelinger p


a IRn

I dette afsnit behandles nogle ofte forekommende transformationer af


kontinuerte stokastiske vektorer.

6.3.1

Reelle transformationer

Frst betragter vi transformationer, som resulterer i en reel stokastisk


variabel. Det drejer sig for eksempel om summen eller produktet af to
stokastiske variable.
Stning 6.3.1 Lad (X, Y ) vre en to-dimensional kontinuert stokastisk
vektor med simultan sandsynlighedstthed p, og definer en ny stokastisk
variabel ved Z = X + Y . Da er Z en kontinuert stokastisk variabel med
sandsynlighedstthed
q(z) =

p(x, z x)dx.

(6.3.1)

Bevis: Fordelingsfunktionen for Z er givet ved


F (z) = P (X + Y z) = P ((X, Y ) {(x, y)|y z x})
=
=

Z

Z

zx

p(x, y)dy dx =


p(x, u x)dx du =

Z
z

p(x, u x)du dx

q(u)du.

Vi har foretaget substitutionen u = y+x i det inderste integral og dernst


ombyttet integrationsordenen. Da fordelingsfunktionen for Z opfylder
(5.1.8), flger stningen af Stning 5.1.5.
2

188

Fler-dimensionale kontinuerte fordelinger

Det nste resultat, som vedrrer fordelingen af summen af to uafhngige stokastiske variable, flger af Stning 6.3.1 ved at benytte at
den simultane tthedfunktion i denne situation er produktet af de to
marginale tthedfunktioner, jfr. Stning 6.2.1.
Korollar 6.3.2 Lad X og Y vre to uafhngige kontinuerte stokastiske
variable med marginale ttheder p1 og p2 , og definer en ny stokastisk
variabel ved Z = X + Y . Da er Z en kontinuert stokastisk variabel med
sandsynlighedstthed
q(z) =

p1 (x)p2 (z x)dx.

(6.3.2)

Funktionen q givet ved (6.3.2) kaldes foldningen af de to funktioner


p1 og p2 . Man kalder derfor fordelingen af X + Y foldningen af de to
marginale fordelinger.
Eksempel 6.3.3 Lad X og Y vre to uafhngige stokastiske variable,
som begge er eksponentialfordelte med parameter . Da sandsynlighedsttheden for eksponentialfordelingen er p(x) = ex 1(0,) (x), er sandsynlighedsttheden q for X + Y iflge (6.3.2) givet ved
q(z) =

z
0

2 e(x+(zx)) dx = 2 ez

z
0

dx = 2 zez .

Denne fordeling er et eksempel p


a en -fordeling, en fordeling som vi skal
studere nrmere i Kapitel 8
2
Det flgende generelle resultat kan blandt andet bruges til at finde
fordelingen af produktet af eller kvotienten mellem to stokastiske variable
ved at vlge funktionen f passende.
Stning 6.3.4 Lad (X, Y ) vre en to-dimensional kontinuert stokastisk
vektor med simultan sandsynlighedstthed p, og definer en ny stokastisk
variabel ved Z = Y /f (X), hvor f er en strengt positiv reel funktion. Da
er Z en kontinuert stokastisk variabel med sandsynlighedstthed
q(z) =

p(x, f (x)z)f (x)dx.

(6.3.3)

6.3 Transformation af kontinuerte fordelinger p


a IRn

189

Bevis: Fordelingsfunktionen for Z er givet ved


F (z) = P (Y /f (X) z) = P ((X, Y ) {(x, y)|y zf (x)})
=
=
=

Z z

zf (x)

Z z

Z

p(x, y)dy dx


p(x, f (x)u)f (x)du dx =




p(x, f (x)u)f (x)dx du =

q(u)du.

Vi har foretaget substitutionen y = f (x)u i det inderste integral og dernst ombyttet integrationsordenen. Da fordelingsfunktionen for Z opfylder (5.1.8), flger stningen af Stning 5.1.5.
2
Bemrk, at hvis X er koncentreret p
a en mngde M , er det egentlig
er nok, at f (x) > 0 for x M .
De flgende trevigtige specialtilflde vises ved at stte f lig henholdsvis 1/x, x og x.
Korollar 6.3.5 Lad (X, Y ) vre en to-dimensional kontinuert stokastisk vektor med simultan sandsynlighedstthed p, hvor X > 0. Da er den
stokastiske variable Z = X Y kontinuert med tthedsfunktion
q(z) =

p(x, z/x)
dx.
x

(6.3.4)

Korollar 6.3.6 Lad (X, Y ) vre en to-dimensional kontinuert stokastisk vektor med simultan sandsynlighedstthed p, hvor X > 0. Da er den
stokastiske variable Z = Y /X kontinuert med tthedsfunktion
q(z) =

p(x, zx)xdx.

(6.3.5)

Korollar 6.3.7 Lad (X, Y ) vre en to-dimensional kontinuert stokastisk vektor med simultan sandsynlighedstthed
p, hvor X > 0. Da er den

stokastiske variable Z = Y / X kontinuert med tthedsfunktion


q(z) =


p(x, z x) xdx.

(6.3.6)

190

Fler-dimensionale kontinuerte fordelinger

Eksempel 6.3.8 Lad X og Y vre to uafhngige stokastiske variable,


som begge er eksponentialfordelte med parameter 1. Da er deres simultane sandsynlighedstthed p(x, y) = e(x+y) , s
a sandsynlighedsttheden
q for Y /X er iflge (6.3.5) givet ved
q(z) =

ex(1+z) xdx =

1
(1 + z)2

yey dy =

1
,
(1 + z)2

(6.3.7)

n
ar z > 0. Vi har her sat y = x(1 + z) og brugt, at 0 yey dy er middelvrdien af en standard eksponentialfordeling, som vi tidligere har set
er lig en. N
ar z 0 er q(z) = 0. Fordelingen med sandsynlighedstthed
givet ved (6.3.7) er et specialtilflde af den s
akaldte F-fordeling, som vi
skal vende tilbage til i Kapitel 8.
2
Vi har her kun behandlet nogle f
a, men vigtige, eksempler p
a reelle transformationer af kontinuerte stokastiske vektorer. Vi slutter med
et eksempel p
a en transformation, som ikke er dkket af ovenst
aende
resultater, men hvor man alligevel kan komme igennem via fordelingsfunktionen.
Eksempel 6.3.9 Antag, at X1 , . . . , Xn er uafhngige stokastiske variable, som alle er ligefordelte p
a [0, 1]. Lad X(1) vre den stokastiske
variable, som angiver det mindste udfald blandt de n variable, alts
a
X(1) = X1 X2 Xn = min{X1 , . . . , Xn }.
Fordelingsfunktionen for X(1) er for x (0, 1)
F1 (x) = P (X(1) x) = 1 P (X(1) > x) = P (X1 > x, . . . , Xn > x)
= P (X1 > x) P (Xn > x) = 1 (1 x)n .
Da F1 er kontinuert differentiabel p
a (0, 1) er sandsynlighedsttheden
for X(1) (Stning 5.1.6)
f1 (x) = F10 (x) = n(1 x)n1 ,

x (0, 1).

Vi kan ogs
a klare fordelingen af den kte mindste blandt X1 , . . . , Xn
(1 k n). Lad os betegne denne stokastiske variable med X(k) . Dens

6.3 Transformation af kontinuerte fordelinger p


a IRn

191

fordelingsfunktion er for x (0, 1)


Fk (x) = P (mindst k af de n variable er mindre end eller lig x)
= P (]{i | Xi x} k).
Da P (Xi x) = x for x (0, 1), og da
]{i | Xi x} =

n
X

1[0,x] (Xi ),

i=1

er ]{i | Xi x} binomialfordelt med antalsparameter n og sandsynlighedsparameter x. Derfor er


Fk (x) =

n
X
i=k

n i
x (1 x)ni .
i

Ogs
a Fk er kontinuert differentiabel p
a (0, 1), s
a sandsynlighedsttheden
for X(k) er for x (0, 1)
fk (x) =
=

Fk0 (x)

i=k

i
n h i1
ix (1 x)ni (n i)xi (1 x)ni1
i

n
kxk1 (1 x)nk
k
+

n
X

i=k+1

n
X

n1
X n
n
ixi1 (1 x)ni
(n i)xi (1 x)n(i+1)
i
i
i=k

n
kxk1 (1 x)nk ,
k

idet en omskrivning viser, at de to sidste summer er identiske.


2

6.3.2

Liner transformation af en kontinuert fordeling

Vi skal her betragte linere transformationer af kontinuerte stokastiske


vektorer. S
adanne transformationer er vigtige i den statistiske teori for

192

Fler-dimensionale kontinuerte fordelinger

normalfordelte observationer. Vi begynder med en to-dimensional stokastisk vektor (X1 , X2 ), d.v.s. med transformationer af formen
t(X1 , X2 ) = A

X1
X2

hvor A er en 2 2-matrix.
Stning 6.3.10 Lad (X1 , X2 ) vre en to-dimensional kontinuert stokastisk vektor med simultan sandsynlighedstthed p, og definer nye stokastiske variable ved
Y1 = a11 X1 + a12 X2
Y2 = a21 X1 + a22 X2 ,
hvor a11 , a12 , a21 og a22 er reelle tal, som opfylder, at determinanten af
matricen
(
)
a11 a12
A=
a21 a22
er forskellig fra nul (d.v.s. det(A) = a11 a22 a12 a21 6= 0). Da er (Y1 , Y2 ) en
to-dimensional kontinuert stokastisk vektor med simultan sandsynlighedstthed
q(y1 , y2 ) = p(t1 (y1 , y2 ))|det(A1 )|,
(6.3.8)
hvor
1

t (y1 , y2 ) = A

y1
y2

Et alternativt udtryk for q er


q(y1 , y2 ) =

p(t1 (y1 , y2 ))
|det(A)|

(6.3.9)

Bevis: Nedenst
aende er ikke noget helt korrekt bevis, men giver ikke
desto mindre et rigtigt godt indtryk af, hvorfor stningen er rigtig.
Flgende notation vil blive brugt:
X=

X1
X2

, x=

x1
x2

, Y =

Y1
Y2

og y =

y1
y2

6.3 Transformation af kontinuerte fordelinger p


a IRn

193

hvor Y = AX, y = Ax og x = A1 y.
Vi begynder med at minde om approximationen
q(y1 , y2 ) '

P (Y Kh )
,
h2

hvor Kh = [y1 , y1 + h] [y2 , y2 + h] er et lille kvadrat med det ene hjrne


i punktet y, cf. (6.1.4). Da det(A) 6= 0, har A en invers, s
a
P (Y Kh ) = P (AX Kh ) = P (X A1 Kh ) ' p(A1 y)|A1 Kh |,
hvor A1 Kh = {A1 z|z Kh }, og hvor |A1 Kh | betegner arealet af
A1 Kh . Vi har her brugt, at A1 Kh er et lille parallelogram, hvis ene
hjrne er punktet A1 y. De andre hjrner er
1

A y+A

h
0

, A y+A

0
h

og A y + A

h
h

s
a A1 Kh er udspndt af vektorerne
A

h
0

b11 h
b21 h

og A

0
h

b12 h
b22 h

hvor vi benytter notationen


A

b11 b12
b21 b22

Da arealet af parallelogrammet udspndt af to vektorer u og v er lig den


numeriske vrdi af determinanten af matricen, hvis to sjler best
ar af
vektorerne u og v, er
|A1 Kh | = |b11 hb22 h b12 hb21 h| = |b11 b22 b12 b21 |h2 = |det(A1 )|h2 .
Sammenfattende har vi alts
a, at
q(y1 , y2 ) ' p(A1 y)|det(A1 )|.
Denne approximation kan gres vilk
arligt njagtig ved at vlge h tilstrkkeligt lille, men da den ikke afhnger af h, m
a den vre eksakt. Det

194

Fler-dimensionale kontinuerte fordelinger

alternative udtryk (6.3.9) for q opn


as nu ved at bemrke, at det(A1 ) =
1
[det(A)] .
2
Resultatet vedrrende arealet af parallelogrammet udspndt af to
vektorer u og v er let at vise. Her er en mulig fremgangsm
ade: Hvis v
betragtes som parallelogrammets grundlinie, er hjden lig lngden af
projektionen af u p
a en vektor, som st
ar vinkelret p
a v. Resultatet flger
nu ved at gange hjden med lngden af grundlinien.
Der glder et tilsvarende resultat for linere transformationer af en
n-dimensional kontinuert stokastisk vektor (X1 , . . . , Xn ), d.v.s. transformationer af formen

X1
.

t(X1 , . . . , Xn ) = A ..

Xn

hvor A er en n n-matrix. I dette resultat benyttes det, at man ogs


a kan
knytte en determinant til en n n-matrix, og at en n n-matrix har en
invers matrix, n
ar determinanten er forskellig fra nul. Det generelle resultat kan sandsynliggres p
a samme m
ade som Stning 6.3.10 Vi benytter
notationen

X1
.

X = ..
x=
Xn

x1
Y1
y1

..
Y = .. y = .. .
.
.
.
xn
Yn
yn

Stning 6.3.11 Lad X vre en n-dimensional kontinuert stokastisk


vektor med simultan sandsynlighedstthed p, og definer en ny stokastisk
vektor ved
Y = AX,
hvor A er en n n-matrix, som opfylder det(A) 6= 0. Da er Y en ndimensional kontinuert stokastisk vektor med simultan sandsynlighedstthed
q(y) = p(A1 y)|det(A1 )|,
(6.3.10)
Et alternativt udtryk for q er
q(y) =

p(A1 y)
|det(A)|

(6.3.11)

6.3 Transformation af kontinuerte fordelinger p


a IRn

195

Hvis Y er en n-dimensional kontinuert stokastisk vektor med sandsynlighedstthed p, s


a har den stokastiske vektor Z = Y + , hvor er
en (ikke-stokastisk) vektor i IRn , sandsynlighedsttheden
q(z) = p(z ).

(6.3.12)

For Kh = [z1 , z1 + h] [z2 , z2 + h] [zn , zn + h], hvor h > 0, er nemlig


P (Z Kh ) = P (Y + Kh ) = P (Y (Kh )) ' p(z )hn .
Her betegner Kh mngden {u |u Kh }, alts
a en n-dimensional
kasse med det ene hjrne i punktet z , som har volumen hn . Ved
at kombinere (6.3.11) og (6.3.12), ser vi, at sandsynlighedsttheden for
V = AX + er
p(A1 (v ))
q(v) =
.
(6.3.13)
|det(A)|
Vi slutter dette afsnit med at bevise flgende vigtige stning om
fordelingen af en sum af uafhngige normalfordelte stokastiske variable.
Vi kunne faktisk godt have vist stningen i nste afsnit ved hjlp af
(6.3.2). Det krver imidlertid en del kedeligt regneri. Beviset her er lidt
mere elegant og giver ivrigt en forsmag p
a et bevis, vi skal studere i
Kapitel 8.
Stning 6.3.12 Lad X1 , . . . , Xn vre uafhngige stokastiske variable,
hvor Xi er normalfordelt med middelvrdi i og varians i2 , i = 1, . . . , n.
Da er X1 + + Xn normalfordelt med middelvrdi 1 + + n og
varians 12 + + n2 .
Bevis: Frst bemrker vi, at det er nok at bevise stningen for n = 2,
da det generelle tilflde flger ved induktion.
Dernst vil vi betragte to afhngige standard normalfordelte stokastiske variable U1 og U2 . Deres simultane sandsynlighedstthed er
1 (u21 +u22 )/2
e
.
2
Som sdvanlig betegner sandsynlighedsttheden for standard normalfordelingen. Vi definerer to nye stokastiske variable V1 og V2 ved
p(u1 , u2 ) = (u1 )(u2 ) =

V1
V2

U1
U2

196

Fler-dimensionale kontinuerte fordelinger

hvor det antages, at 2 + 2 = 1. Matricen


A=

har determinant 1 og svarer til en rotation af planen. Da


A

er sandsynlighedsttheden for (V1 , V2 ) iflge (6.3.9)


q(v1 , v2 ) = p(v1 v2 , v1 + v2 )
1 1 [(v1 v2 )2 +(v1 +v2 )2 ]
=
e 2
2
1 1 (v12 +v22 )
=
= (v1 )(v2 ).
e 2
2
Vi konkluderer derfor ved hjlp af Stning 6.2.1, at V1 og V2 er uafhngige, og at de begge er standard normalfordelte. Specielt glder, at hvis
2 + 2 = 1, s
a er U1 + U2 standard normalfordelt.
Vi kan nu vende tilbage til X1 og X2 . Vi definerer de standardiserede
variable
X2
X1
og U2 =
,
U1 =
1
2
og skriver X1 + X2 ved hjlp af disse:
X1 + X2 = (1 + 1 U1 ) + (2 + 2 U2 )
= (1 + 2 ) + (1 U1 + 2 U2 )
= (1 + 2 ) +
hvor
U=q

1
12 + 22

U1 + q

12 + 22 U,

2
12 + 22

U2 .

Da U1 og U2 er uafhngige og standard normalfordelte, er U ogs


a standard normalfordelt, hvorfor stningen flger.
2

6.4 Middelvrdi, varians og kovarians

197

I nste afsnit skal vi se, at formlerne (3.7.6) og (3.8.9) vedrrende


middelvrdi og varians af en sum af stokastiske variable ogs
a glder
for kontinuerte stokastiske variable. Det er derfor ikke overraskende, at
middelvrdien og variansen af X1 + + Xn er som angivet i Stningen
6.3.12. Det interessante er, at summen er normalfordelt. Hvis man kan
huske formlerne (3.7.6) og (3.8.9), og det br man kunne, er det ikke
svrt at huske Stning 6.3.12.

6.4

Middelvrdi, varians og kovarians

Middelvrdien af en transformation af en stokastisk vektor kan beregnes


p
a en m
ade, der helt svarer til, hvad vi tidligere har set for diskrete
stokastiske variable og en-dimensionale kontinuerte stokastiske variable.
Stning 6.4.1 Lad X vre en n-dimensional kontinuert stokastisk vektor med sandsynlighedstthed p. Lad endvidere vre en funktion fra IR n
ind i IR. Da har den stokastiske variable (X) middelvrdi hvis og kun
hvis
Z
|(x1 , . . . , xn )|p(x1 , . . . , xn )dx1 dxn < ,
(6.4.1)
n
IR

og i s
a fald er

E((X)) =

IRn

(x1 , . . . , xn )p(x1 , . . . , xn )dx1 dxn .

(6.4.2)

Vi kan ikke p
a dette kursus bevise Stning 6.4.1. Som i det endimensionale tilflde kan vi ikke vre sikre p
a, at fordelingen af (X) er
af en type, for hvilken vi har defineret middelvrdien. Stningen er derfor mest nyttig for os, n
ar fordelingen af (X) er kontinuert eller diskret.
For i det mindste at antyde, at Stning 6.4.1 er korrekt, vil vi se p
a
tilfldet = 1B , hvor B IRn :
Z

IRn

1B (x1 , . . . , xn )p(x1 , . . . , xn )dx1 dxn =


P ((X1 , . . . , Xn ) B) = E (1B (X1 , . . . , Xn )) ,

idet 1B (X1 , . . . , Xn ) er en diskret stokastisk variabel, som kun antager


vrdierne 0 og 1, se Eksempel 3.7.2. Selv om dette er et meget enkelt
eksempel, er det faktisk frste skridt i beviset for (6.4.2).

198

Fler-dimensionale kontinuerte fordelinger

Ved hjlp af Stning 6.4.1 kan vi nu vise de samme resultater, som vi


fr har vist for diskrete stokastiske variable ved at bruge Stning 4.4.2.
Beviserne er helt analoge, blot er summer erstattet med integraler og
sandsynlighedsfunktioner med sandsynlighedsttheder. Vi njes med at
bevise den nste stning for at vise, hvordan man gr. Resten overlades
trygt til lseren.
Stning 6.4.2 Lad X1 , X2 , . . . , Xn vre kontinuerte stokastiske variable, som alle har middelvrdi. Da har den stokastiske variable X 1 +
X2 + + Xn middelvrdi, og
E(X1 + X2 + + Xn ) = E(X1 ) + E(X2 ) + + E(Xn ).

(6.4.3)

Hvis det yderligere antages, at de stokastiske variable X1 , X2 , . . . , Xn er


uafhngige, har ogs
a X1 X2 Xn middelvrdi, og
E(X1 Xn ) = E(X1 ) E(X2 ) E(Xn ).

(6.4.4)

Bevis: Vi kan njes med at bevise stningen for n = 2, da det generelle


resultat flger ved induktion.
Betegn sandsynlighedsttheden for den stokastiske vektor (X1 , X2 )
med p og sandsynlighedsttheden for Xi , i = 1, 2, med pi . Da Xi har
middelvrdi, er iflge Stning 6.4.1
Z

IR2

|xi |p(x1 , x2 )dx1 dx2 < , i = 1, 2.

Derfor medfrer trekantsuligheden |x1 + x2 | |x1 | + |x2 | at


Z

IR2

|x1 + x2 |p(x1 , x2 )dx1 dx2

IR2

|x1 |p(x1 , x2 )dx1 dx2 +

IR2

|x2 |p(x1 , x2 )dx1 dx2 < ,

hvorfor den stokastiske variable X1 + X2 iflge Stning 6.4.1 har middelvrdi, som kan beregnes ved
Z

IR2

(x1 + x2 )p(x1 , x2 )dx1 dx2

=
=

IR2

x1 p(x1 , x2 )dx1 dx2 +

E(X1 ) + E(X2 ).

IR2

x2 p(x1 , x2 )dx1 dx2

6.4 Middelvrdi, varians og kovarians

199

For at vise den sidste p


astand, antages det nu, at X1 og X2 er uafhngige. Dermed er p(x1 , x2 ) = p1 (x1 )p2 (x2 ), s
aledes at
Z

IR2

|x1 x2 |p(x1 , x2 )dx1 dx2 =


=
=

IR
Z

|x2 |p2 (x2 )

IR

IR
Z

Z

IR

|x1 |p1 (x1 )dx1

IR

|x1 |p1 (x1 )|x2 |p2 (x2 )dx1 dx2




|x1 |p1 (x1 )dx1 dx2

 Z

IR

|x2 |p2 (x2 )dx2 .

De to integraler i det sidste udtryk er endelige, da X1 og X2 begge har


middelvrdi, hvorfor vi igen kan bruge Stning 6.4.1 til at slutte, at den
stokastiske variable X1 X2 har midddelvrdi. Efter samme omskrivning
af integralet uden numerisk tegn ser vi, at middelvrdien kan beregnes
ved (6.4.4).
2
For at kunne bevise de samme resultater som i Kapitel 3 om kovarians
og korrelation mellem to kontinuerte stokastiske variable, skal vi bruge
de flgende to stninger.
Stning 6.4.3 Lad (X1 , X2 ) vre en to-dimensional kontinuert stokastisk vektor, som opfylder, at X1 X2 , samt at X1 og X2 har middelvrdi.
Da er E(X1 ) E(X2 ).
Lg mrke til, at Stning 6.4.2 og Stning 6.4.3 medfrer Stning
5.2.4 som et specialtilflde.
Stning 6.4.4 Lad (X1 , X2 ) vre en kontinuert to-dimensional stokastisk vektor, som opfylder, at X2 har middelvrdi, samt at |X1 | |X2 |.
Da har ogs
a X1 middelvrdi.
Hvis to kontinuerte stokastiske variable X og Y opfylder, at
E(X 2 ) <

og

E(Y 2 ) < ,

kan vi definere deres kovarians ved (3.8.1). Kravet er alts


a, at de to
stokastiske variable har varians. For kovariansen glder regnereglerne
(3.8.2) (3.8.5). Argumenterne er prcis de samme som i Afsnittene 3.8
og 4.5, s
a de udelades her.

200

Fler-dimensionale kontinuerte fordelinger

Formlen for variansen af en sum af stokastiske variable (3.8.7) og Stningerne 3.8.3 og 3.8.8 glder ogs
a for kontinuerte stokastiske variable.
Det skal bare altid antages, at alle indg
aende stokastiske variable har
vararians, alts
a opfylder (5.2.8). Beviserne i Afsnit 3.8 bruger slet ikke,
at de stokastiske variable i det afsnit er diskrete; kun generelle regneregler for middelvrdi, som glder for s
avel diskrete som kontinuerte
stokastiske variable.
Korrelationen mellem to kontinuerte stokastiske variable X og Y med
varians defineres ved (3.8.8). Ogs
a for kontinuerte stokastiske variable kan
korrelationen fortolkes som kovariansen mellem standardiserede variable,
og Stning 3.8.7 holder ogs
a her. Specielt er |corr(X, Y )| 1.

6.5

Kontinuerte betingede fordelinger

Lad P vre en kontinuert fordeling p


a IRn med sandsynlighedstthed p.
Vi s
a i Stning 1.4.8, at funktionen B 7 P (B|A) for en fast delmngde
A IRn med P (A) > 0 er et sandsynlighedsm
al, den betingede fordeling
givet A. Den betingede fordeling er ogs
a kontinuert. Dens sandsynlighedstthed er givet ved
p(x1 , . . . , xn |A) = p(x1 , . . . , xn )1A (x1 , . . . , xn )/P (A).

(6.5.1)

At (6.5.1) er en sandsynlighedstthed er klart:


Z

IRn

p(x1 , . . . , xn |A)dx1 dxn

1 Z
P (A)
=
1A (x1 , . . . , xn )p(x1 , . . . , xn )dx1 dxn =
= 1.
n
P (A) IR
P (A)

Endvidere er
Z

IRn

1B (x1 , . . . , xn )p(x1 , . . . , xn |A)dx1 dxn

P (A B)
1 Z
1AB (x1 , . . . , xn )p(x1 , . . . , xn )dx1 dxn =
.
=
n
P (A) IR
P (A)

Dermed har vi vist, at (6.5.1) er sandsynlighedstthed for den betingede


fordeling givet A.

6.5 Kontinuerte betingede fordelinger

201

Betragt en kontinuert stokastisk variabel X med sandsynlighedstthed p, og lad A vre en delmngde af IR. Da har den betingede fordeling
af X givet X A sandsynlighedstthed lig p(a)1A (x)/P (X A)
Eksempel 6.5.1 Antag, at X er eksponentialfordelt med parameter .
Da er P (X > a) = ea for a > 0, s
a den betingede fordeling af X givet
at X > a har sandsynlighedsttheden
q(x) = e(xa) .
Dermed er sandsynlighedsttheden for den betingede fordeling af X a
givet at X > a
q(x + a) = ex ,
jfr. (5.4.2a).
Eksponentialfordelingen bruges ofte som model for ventetiden p
a en
tilfldigt ankommende hndelse. Vi ser, at denne model har den egenskab, at den betingede fordeling af ventetiden, givet at man allerede har
ventet a tidsenheder, er prcis den samme som den ubetingede fordeling. S
adan br det ogs
a vre, hvis hndelserne virkelig kommer helt
tilfldigt.
2
For en to-dimensional kontinuert stokastisk vektor (X, Y ) har man
jvnligt brug for at betinge med at X = x, men det g
ar jo tilsyneladende
ikke, for P (X = x) = 0! Det viser sig imidlertid, at man alligevel kan
definere en betinget fordeling af Y givet at X = x. Her giver vi kun en
heuristisk udledning. Lad alts
a (X, Y ) vre en to-dimensional kontinuert
stokastisk vektor med sandsynlighedstthed p(x, y), og betragt et reelt
tal x0 , for hvilket P (X [x0 , x0 + ]) > 0 for alle  > 0. For at lette
notationen stter vi K = [x0 , x0 + ]. Da har den betingede fordeling af
(X, Y ) givet at X K sandsynlighedsttheden
q(x, y|K) =

p(x, y)1K (x, y)


.
P (X K )

Den marginale betingede tthed for Y givet at X K f


ar vi iflge
(6.1.6) ved at integrere m.h.t. x:
q2 (y|K) =

IR

q(x, y|K)dx =

R x0 +

p(x, y)dx
P (X K )

x0

202

Fler-dimensionale kontinuerte fordelinger

'

p(x0 , y)
p(x0 , y)
=
,
p1 (x0 )
p1 (x0 )

hvor p1 er den marginale tthed for X, som (igen iflge (6.1.6)) er givet
ved
Z
p1 (x) =
p(x, y)dy.
IR

Motiveret af disse beregninger, definerer vi for alle x, for hvilke p1 (x) > 0,
den betingede fordeling af Y givet at X = x som den kontinuerte fordeling
med sandsynlighedstthed
q(y) =

p(x, y)
.
p1 (x)

(6.5.2)

Lseren opfordres til at overbevise sig om, at (6.5.2) virkelig definerer


en sandsynlighedstthed.

6.6

Sammenfatning

Vi har i dette kapitel studeret kontinuerte fordelinger p


a IR n og stokastiske vektorer, hvis fordeling er af denne type, d.v.s. kontinuerte stokastiske
vektorer. De fler-dimensionale kontinuerte fordelinger defineres ligesom
de endimensionale ved hjlp af en tthedfunktion, og teorien er et stykke
hen ad vejen den samme; blot skal der nu integreres i IRn .
Der er dog meget nyt. Vi s
a, at vi kan finde den marginale sandsynlighedstthed for en stokastiske vektor, der best
ar af en delmngde af
de oprindelige koordinater, ved simplethen at integrere den oprindelige
simultane sandsynlighedstthed over de vrige koordinater. Vi har ogs
a
set, at de enkelte koordinater i en kontinuert stokastisk vektor er uafhngige, netop n
ar den simultane sandsynlighedstthed kan skrives som
et produkt af funktioner, der hver kun afhnger af en koordinat.
Videre har vi studeret fordelingen af visse funktioner af flere stokastiske variable. Blandt andet har vi for to stokastiske variable fundet
fordelingen af deres sum, produkt og kvotient. Vi har ogs
a fundet fordelingen af en liner transformation af en kontinuert stokastisk vektor.
Det er vrd at bemrke, at vi har bevist, at summen af n uafhngige
normalfordelte stokastiske variable igen er normalfordelt med en middelvrdi og en varians, som kan findes ved de sdvanlige regneregler for

6.7 Opgaver

203

middelvrdi og varians af en sum af stokastiske variable. Vi har nemlig


ogs
a set, at alle de tidligere viste regneregler for middelvrdi, varians,
kovarians og korrelation ogs
a glder for kontinuerte stokastiske variable.
Endelig har vi kigget lidt p
a kontinuerte betingede fordelinger.

6.7

Opgaver

6.1 I denne opgave vises det, at standard normalfordelingens tthed


faktisk er en sandsynlighedstthed, alts
a at dens integral er lig en.
St derfor
Z
2
et dt.
c=
0

Vi skal da vise, at c = /2. Vis frst, at


Z

Z

et(1+x ) dt dx =

1
dx = /2.
1 + x2

Vink: Stamfunktionen til 1/(1 + x2 ) er tan1 , d.v.s. den inverse


funktion til tangensfunktionen, arctan (arcus tangens). Vis dernst
ved at skifte integrationsvariabel et par gange, at
Z

Z

t(1+x2 )

dx dt = 2c2 ,

og slut heraf det nskede resultat.


6.2 Vis, at der for en kontinuert stokastisk variabel X p
a (0, ) med
fordelingsfunktion F glder, at
E(X) =

(1 F (x))dx.

6.3 Lad den stokastiske vektor (X, Y ) vre ligefordelt p


a enhedscirklen,
2
2
{(x, y)|x + y 1}. Vis, at X og Y ikke er uafhngige, og find
tthederne for deres marginale fordelinger.
6.4 Lad (X, Y ) vre en kontinuert to-dimensional stokastisk vektor
med sandsynlighedstthed
p(x, y) =

3xy 2 n
ar x (0, 1) og y (1, 3)
0

ellers.

204

Fler-dimensionale kontinuerte fordelinger


Find de marginale sandsynlighedsttheder for X og Y , og vis, at
X og Y er uafhngige.

6.5 Lad X1 og X2 vre uafhngige stokastiske variable, som begge er


ligefordelte p
a (0, 1). Vis, at ttheden for Z = X1 + X2 er
p(z) =

z
for z (0, 1]
2 z for z (1, 2)

0
ellers.

6.6 Lad X1 og X2 vre uafhngige stokastiske variable, som begge er


eksponentialfordelt med parameter 1. Find ttheden for fordelingen af X1 X2 .
6.7 Lad X1 , . . . , Xn vre uafhngige stokastiske variable, der alle er
eksponentialfordelte med parameter . Vis ved et induktionsargument, at sandsynlighedsttheden for summen X1 + + Xn er
n xn1 ex
p(x) =
,
(n 1)!

x > 0.

En fordeling af denne type kaldes en Erlang-fordeling efter en dansk


matematiker. Disse fordelinger er et specialtilflde af -fordelingerne, som behandles i Kapitel 8.
6.8 Lad R og X vre uafhngige stokastiske variable, hvor R er ligefordelt p
a (0, 1), mens X har en vilk
arlig tthed p. Lad F betegne
fordelingsfunktionen for X. Vis at ttheden for S = R + X er
q(s) = F (s) F (s 1).
Udregn og tegn ttheden q i tilfldet hvor X er eksponentialfordelt
med parameter 1.
6.9 Vis Korollar 6.3.5, Korollar 6.3.6 og Korollar 6.3.7.
6.10 Lad R1 og R2 vre uafhngige stokstiske variable, som begge er
ligefordelte p
a (0, 1). Definer Z = R1 R2 .
(a) Hvad er ttheden for Z?

6.7 Opgaver

205

Fordelingen af Z kan man ogs


a n
a frem til p
a flgende m
ade:
(b) St X1 = log(R1 ) og X2 = log(R2 ). Hvad er fordelingen af
(X1 , X2 )?
(c) Udled fordelingen af S = X1 + X2 .
(d) Udled fordelingen af Z = exp(S).
6.11 Lad X og Y vre to uafhngige stokastiske variable, som begge er
ligefordelte p
a (0, 1). Vis, at sandsynlighedsttheden for X/Y er

q(z) =

1
2z 2

n
ar z 1

1
2

n
ar 0 < z < 1

n
ar z 0.

6.12 Lad A vre parallelogrammet bestemt af punkterne (0,0), (1,0),


(0,1) og (-1,1), og betragt funktionen

f (x, y) =

4xy + 4y 2 hvis (x, y) A


0

ellers.

(a) Gr rede for, at f er en sandsynlighedstthed p


a A.
(b) Lad (X, Y ) vre en kontinuert stokastisk vektor, hvis sandsynlighedstthed er f . Gr rede for at X og Y ikke er uafhngige.
(c) Find sandsynlighedsttheden for den marginale fordeling af Y .
(d) Definer en ny stokastisk vektor (Z1 , Z2 ) ved Z1 = X + Y og
Z2 = Y . Find den simultane sandsynlighedstthed for (Z1 , Z2 ), vis
at Z1 og Z2 er uafhngige, og find deres marginale fordelinger.
6.13 Lad X1 og X2 vre uafhngige, standard normalfordelte stokastiske variable. Vis at X1 /X2 er Cauchy fordelt.
6.14 Lad X1 og X2 vre uafhngige stokastiske variable, som begge er
eksponentialfordelte med parameter 1.
(a) Find ttheden for den stokastiske vektor (X1 + X2 , X1 ).

206

Fler-dimensionale kontinuerte fordelinger


(b) Vis, at
X1
X1 + X 2
er ligefordelt p
a (0, 1). Hvad er fordelingen af X1 /(X1 + X2 ), hvis
de to eksponentialfordelinger har parameter ?

6.15 Vis resultatet (6.3.1) ved at kombinere Stning 6.3.10 med (6.1.5).
6.16 Lad X1 og X2 vre uafhngige stokastiske variable, som begge er
eksponentialfordelte. Definer
M = min{X1 , X2 } = X1 X2 ,
S = max{X1 , X2 } = X1 X2 .
Angiv sandsynlighedstthederne for fordelingerne af M og S.
6.17 Lad X1 , . . ., Xn vre uafhngige, identisk fordelte stokstiske variable med en tthed p, som er strengt positiv p
a et interval og nul
udenfor intervallet. Intervallet kan vre hele den reelle akse. Lad F
betegne den tilhrende fordelingsfunktion. Lad X(k) vre defineret
som i Eksempel 6.3.9. Vis, at fordelingen af X(k) har ttheden
!

n
kF (x)k1 (1 F (x))nk p(x).
q(x) =
k
Vink: De tranformerede variable Ri = F (Xi ) er ligefordelte p
a
(0, 1), og fordelingen af R(k) = F (X(k) ) er derfor den, der blev
udledt i Eksempel 6.3.9.
6.18 Vis, at to kontinuerte eller diskrete stokastiske variable X og Y er
uafhngige hvis og kun hvis E(g(X)h(Y )) = E(g(X))E(h(Y )) for
ethvert par af begrnsede reelle funktioner g og h.
6.19 Lad X1 og X2 vre uafhngige, identiske fordelte (diskrete eller
kontinuerte) stokastiske variable p
a (0, ). Betragt flgende stokastiske variable
Y1 =

X1
X1 + X 2

og Y2 =

X2
.
X1 + X 2

6.7 Opgaver

207

(a) Gr rede for, at Y1 og Y2 har veldefineret middelvrdi.


(b) Vis, at E(Y1 ) = E(Y2 )
(c) Vis endelig, at E(Y1 ) = 21 .
6.20 (a) Lad X vre en stokastisk variabel med middelvrdi og varians 2 , og lad f vre en to gange differentiabel funktion fra IR ind
i IR. Ved at Taylor-udvikle f ses det, at
f (X) = f () + f 0 ()(X ) + R,
hvor R er et stokastisk restled. Benyt dette udtryk til at vise, at
Var(f (X)) = f 0 () 2 + R ,
hvor
R = Var(R) + 2f 0 ()E((X )R).

Hvis R er lille, har vi alts


a approksimationen
Var(f (X)) ' f 0 () 2 .

()

Vis, at hvis |f 00 (x)| M for alle x, er


|R | M 2 E((X )4 )/4 + |f 0 ()|M |E((X )3 )|.
Vink: R = 21 f 00 (Y )(X )2 for et Y mellem og X.

Approksimationen (*) og approksimationen (**) nedenfor er i fagene fysik og kemi kendt under det noget pompse navn fejlophobningsloven (propagation of error) .
(b) Betragt k uafhngige stokastiske variable X1 , . . . , Xk med middelvrdier i og varianser i2 , i = 1, . . . , k. Vis, at man for enhver
to gange differentiabel funktion g : IRk 7 IR har flgende approksimation
Var(g(X1 , . . . , Xk )) '

k
X
i=1

i2

f
(1 , . . . , k )
xi

!2

()

forudsat at det tilsvarende restled er lille. Man kan naturligvis ogs


a
vise et resultat for korrelerede stokastiske variable. Dette overlades
til srligt interesserede studerende.

208

Fler-dimensionale kontinuerte fordelinger

6.21 Lad X vre ligefordelt i intervallet (1, 1), og definer Y = X 2 .


Vis, at X og Y er ukorrelerede. Er de uafhngige?
6.22 Lad X1 og X2 vre uafhngige stokastiske variable, som begge er
eksponentialfordelte med parameter .
(a) Vis, at ttheden for den stokastiske vektor (X1 , X1 + X2 ) er
p(y1 , y2 ) = 2 ey2 , n
ar y2 > y1 > 0, og ellers er lig nul.
(b) Vis, at den betingede fordeling af X1 givet at X1 + X2 = x,
hvor x > 0, er ligefordelingen p
a intervallet (0, x).

Kapitel 7
Grnseresultater for
stokastiske variable
I dette kapitel behandles to af sandsynlighedsregningens vigtigste resultater, som begge drejer sig om, hvordan gennemsnittet af n stokastiske
variable opfrer sig, n
ar n g
ar mod uendelig.

7.1

De store tals lov

Store tals lov siger, at for n ukorrelerede stokastiske variable med middelvrdi og varians vil gennemsnittet med stor sandsynlighed ligge nr
middelvrdien, n
ar n er stor. Dette resultat vises ved hjlp af Chebychevs ulighed.
Stning 7.1.1 (Chebychevs ulighed). Lad X vre en diskret eller kontinuert stokastisk variabel med middelvrdi og varians 2 . Da glder,
for ethvert a > 0, at
2
P (|X | a) 2 .
(7.1.1)
a
Bevis: Definer for a > 0 mngden
A = {x IR| |x | a}.
Da er
(x )2 1A (x) a2 1A (x)

210

Grnseresultater for stokastiske variable

for alle x IR. Dermed er




2 = E (X )2


= E (X )2 1A (X) + E (X )2 1IR\A (X)




E (X )2 1A (X)


E a2 1A (X) = a2 P (X A) = a2 P (|X | a).

Det andet ulighedstegn flger af (5.2.6)


2
Eksempel 7.1.2 Hvis X har middelvrdi 0 og varians 1 er P (|X|
10) 0.01.
2
Vi kan nu uden strre besvr bevise de store tals lov.
Stning 7.1.3 (De store tals lov). Lad X1 , X2 , . . . vre en flge af ukorrelerede diskrete eller kontinuerte stokastiske variable, som alle har samme middelvrdi og varians. Hvis = E(Xi ), glder for ethvert  > 0
at




X1 + . . . + X n

<  1
(7.1.2)
P
n
for n .
n = 1 (X1 + . . . + Xn ) har middelvrdi og
Bevis: Gennemsnittet X
n
varians
2
n ) = 1 (Var(X1 ) + . . . + Var(Xn )) = ,
Var(X
n2
n
2
hvor = Var(Xi ). Ved at anvende Chebychevs ulighed (7.1.1) f
as


n | <  = 1 P |X
n | 
1 P |X
n)
2
Var(X
=
1

1,
1
2
n2
for n .

7.1 De store tals lov

211

Den eneste grund til at det i Stningerne 7.1.1 og 7.1.3 krves, at de


stokastiske variable er diskrete eller kontinuerte, er at vi kun har defineret middelvrdi og varians for disse to typer af fordelinger. Chebychevs
ulighed og store tals lov glder for alle typer stokastisk variabel, som har
middelvrdi og varians.
Stning 7.1.3 er den enkleste version af de store tals lov. Der findes
andre varianter, som vi ikke vil bevise her (se dog Opgave 7.7). F. eks.
er det ikke ndvendigt at antage, at de stokastiske variable har varians.
Det er nok, at E(|Xi |) < , hvilket til gengld klart nok er ndvendigt.
I den situation antages uafhngighed i stedet for ukorrelerethed, men de
stokastiske variable behver faktisk ikke vre ukorrelerede eller uafhngige; resultatet (7.1.2) glder, hvis blot afhngigheden er tilstrkkeligt
svag.
Vi har nu bevist, at sandsynlighedsregningens frekvensfortolkning holder. Lad nemlig Y1 , Y2 , . . . vre en flge af uafhngige stokastiske variable med samme fordeling, og lad A vre en delmngde af IR. St
p = P (Yi A). Da er E(1A (Yi )) = p og
Hn =

1A (Y1 ) + + 1A (Yn )
n

er den relative hyppighed af udfald i A blandt de n frste stokastiske


variable. Da 1A (Yi ) er begrnset, har den varians, s
a iflge store tals lov
glder
P (|Hn p| < ) 1
for n for ethvert  > 0.
Det skal ogs
a lige nvnes, at vi her har stiftet bekendtskab med et
af sandsynlighedsregningens vigtigste begreber, konvergens i sandsynlighed. Hvis Y1 , Y2 , . . . er en flge af stokastiske variable, som opfylder, at
der findes en stokastisk variabel Y , s
a P (|Yn Y | < ) 1 for n
for ethvert  > 0, s
a siger man, at flgen {Yn } konvergerer i sandsynlighed mod Y . Store tals lov siger alts
a, at gennemsnittet af n uafhngige
stokastiske variable med samme middelvrdi og varians konvergerer i
sandsynlighed mod den flles middelvrdi. Her er Y lig med en konstant, nemlig middelvrdien.

212

7.2

Grnseresultater for stokastiske variable

Den centrale grnsevrdistning

Betragt en flge af uafhngige diskrete eller kontinuerte stokastiske variable X1 , X2 , . . ., som alle har samme fordeling med middelvrdi og
varians 2 . De store tals lov fortller os da, at gennemsnittet af de n
frste stokastiske variable
n
X
n = 1
Xi
X
n i=1

er tt p
a , n
ar n er stor. Gennemsnittet er jo en stokastisk variabel, s
a
det er naturligt at sprge, hvad dets fordeling er, n
ar n er stor. Variansen
er meget lille, s
a det varierer kun lidt i nrheden af . Imidlertid kan
man studere gennemsnittets stokastiske variation ved at betragte den
standardiserede variabel
n
X
.
Un =
(7.2.1)
/ n
n ) = og Var(X
n ) = 2 /n, har Un middelvrdi nul og varians
Da E(X

en. Vi har ved at gange med n/ forstrret den stokastiske variation


n , s
af X
a vi kan studere den njere. Der glder flgende resultat.
Stning 7.2.1 (Den centrale grnsevrdistning). Lad X1 , X2 , . . . vre en flge af uafhngige, identisk fordelte kontinuerte eller diskrete stokastiske variable med middelvrdi og varians 2 . Da vil fordelingen af
Un , defineret ved (7.2.1), konvergere mod en standard normalfordeling, i
den forstand at for alle u IR vil
P (Un u) (u),

(7.2.2)

n
ar n . Som sdvanlig betegner fordelingsfunktionen for standard
normalfordelingen givet ved (5.3.2).
Vi har p
a dette kursus ikke de ndvendige tekniske hjlpemidler til
at bevise den centrale grnsevrdistning. Med de rette hjlpemidler
er stningen faktisk ikke svr at vise.
Der er mange gode grunde til, at normalfordelingen dukker op her.
Hvis Xi -erne er normalfordelte, flger det af Stning 6.3.12, at Un er
standard normalfordelt for alle n. Hvis stningen skal vre sand, m
a

7.2 Den centrale grnsevrdistning

213

P (Un u) derfor ndvendigvis konvergere mod (u). Bemrk, at vi


kan slutte af Stning 7.2.1, at standard normalfordelingen er den eneste
fordeling med varians, som har den egenskab, at Un har samme fordeling
som Xi -erne for alle n. Det kan faktisk bevises, at den er den eneste
fordeling overhovedet med denne egenskab.
Hvis vi definerer Sn = X1 + + Xn , kan resultatet (7.2.2) ogs
a
skrives p
a formen
!
Sn n

u (u),
(7.2.3)
P
n
n
ar n . Vi kan alts
a ogs
a opfatte den centrale grnsevrdistning
som et udsagn om fordelingen af summen Sn , n
ar n er stor.
Den centrale grnsevrdistning giver en forklaring p
a, hvorfor det
i praksis s
a ofte viser sig, at observationer kan antages at vre normalfordelte. Vi kan f. eks. tnke os, at man skal m
ale en strrelse, som har
vrdien , men at en rkke tilfldige forhold indvirker p
a m
alingen, s
a
den ikke bliver helt njagtig. Det, der faktisk m
ales, kan derfor antages at vre Y = + X1 + + Xn , hvor Xi -erne er virkningen af de
forskellige kilder til m
alefejl. Hvis Xi -erne opfylder betingelserne i den
centrale grnsevrdistning, kan fordelingen af m
alingen Y tilnrmes
med en normalfordeling med middelvrdi + n og varians n 2 . Ved
gode m
alinger er lig nul eller i hvert fald meget lille.
Der findes andre udgaver af den centrale grnsevrdistning med
vsentligt svagere betingelser, som gr overst
aende argument for, at
m
alefejl ofte er normalfordelte, mere overbevisende. De stokastiske variable Xi behver s
aledes ikke at have samme fordeling; ikke engang
samme middelvrdi og varians. De behver heller ikke at vre uafhngige. Det vsentlige er, at de alle er sm
a i forhold til summen Sn , og at
afhngigheden mellem dem ikke er for stor.
Den form for konvergens, som udtrykkes ved (7.2.2) kaldes konvergens i fordeling. Et andet eksempel p
a denne form for konvergens s
a vi i
Stning 4.1.2. Udforskningen af konvergens i fordeling spiller en central
rolle i sandsynlighedsregningen og dens anvendelser i statistik.
Ikke sjldent ser man, at et interval af typiske vrdier for en stokastisk variabel angives som middelvrdien plus/minus 2 gange spredningen. Hvis vi kan bruge den centrale grnsevrdistning til at argumentere for, at fordelingen af den stokastiske variable kan tilnrmes

214

Grnseresultater for stokastiske variable

godt med en normalfordeling, giver dette god mening. For en normalfordeling glder nemlig, at 95 procent af sandsynligheden ligger indenfor
grnserne givet ved middelvrdien 1.96 gange spredningen.
Den centrale grnsevrdistning kan benyttes til at vise, at nogle
af de fordelinger, vi har beskftiget os med, under visse omstndigheder kan tilnrmes med en normalfordeling. Det ser vi nrmere p
a i de
flgende eksempler.
Eksempel 7.2.2 Lad X1 , X2 , . . . vre uafhngige stokastiske variable
med vrdier i {0, 1}, som alle har samme fordeling givet ved at P (Xi =
1) = p og P (Xi = 0) = 1 p, hvor p (0, 1). St Sn = X1 + + Xn .
Da E(Xi ) = p og Var(Xi ) = p(1 p) (se Eksemplerne 3.7.2 og 3.7.11),
glder iflge den centrale grnsevrdistning at

0.00

0.05

0.10

0.15

0.20

0.25

0.30

Sn np
u (u),
P q
np(1 p)

10

Figur 7.2.1: Sandsynlighedsfunktionen for binomialfordelingen med antalsparameter 10 og sandsynlighedsparameter 0.5 tegnet som histogram
og sandsynlighedsttheden for normalfordelingen med middelvrdi 5 og
varians 2.5.

215

0.00

0.05

0.10

0.15

0.20

0.25

0.30

7.2 Den centrale grnsevrdistning

10

0.00

0.05

0.10

0.15

0.20

Figur 7.2.2: Sandsynlighedsfunktionen for binomialfordelingen med antalsparameter 10 og sandsynlighedsparameter 0.3 tegnet som histogram
og sandsynlighedsttheden for normalfordelingen med middelvrdi 3 og
varians 2.1.

10

15

20

Figur 7.2.3: Sandsynlighedsfunktionen for binomialfordelingen med antalsparameter 20 og sandsynlighedsparameter 0.5 tegnet som histogram
og sandsynlighedsttheden for normalfordelingen med middelvrdi 10
og varians 5.

Grnseresultater for stokastiske variable

0.00

0.05

0.10

0.15

0.20

216

10

15

Figur 7.2.4: Sandsynlighedsfunktionen for binomialfordelingen med antalsparameter 20 og sandsynlighedsparameter 0.3 tegnet som histogram
og sandsynlighedsttheden for normalfordelingen med middelvrdi 6 og
varians 4.2.

n
ar n . Da Sn er binomialfordelt med antalsparameter n og sandsynlighedsparameter p, kan vi konkludere, at denne fordeling, n
ar n er
stor, ligner en normalfordeling med middelvrdi np og varians np(1 p)
i den forstand, at

u np
Sn np
u np
q
P (Sn u) = P q
' q
.
np(1 p)
np(1 p)
np(1 p)

Vi har derfor flgende approximation

i + 21 np

P (Sn = i) ' q

np(1 p)

1
2

np

np(1 p)

for i {0, . . . , n}. Approksimationen er god, n


ar blot n 10 og |p 21 |
ikke er for stor. Den centrale grnsevrdistning for specialtilfldet
binomialfordelingen kaldes de Moivres stning.
2

7.2 Den centrale grnsevrdistning

217

Eksempel 7.2.3 Antag, at X1 , X2 , . . . vre uafhngige stokastiske variable, som alle er Poisson fordelte med parameter , og st Sn =
X1 + + Xn . Da E(Xi ) = Var(Xi ) = (se Afsnit 4.4), glder iflge
den centrale grnsevrdistning at
P

Sn n

u (u),
n

n
ar n . Da Sn er Poisson fordelt med parameter n (se Stning
4.3.4), kan vi konkludere, at denne fordeling, n
ar n er stor, ligner en
normalfordeling med middelvrdi n og varians n i den forstand, at
!

0.00

0.05

0.10

0.15

0.20

0.25

u n
.
P (Sn u) '
n

10

12

14

Figur 7.2.5: Sandsynlighedsfunktionen for Poissonfordelingen med parameter 5 tegnet som histogram og sandsynlighedsttheden for normalfordelingen med middelvrdi 5 og varians 5.
Vi kan ogs
a udtrykke dette resultat ved at sige, at en Poisson fordeling
med parameter kan approksimeres med en normalfordeling med middelvrdi og varians , n
ar er stor. Hvis Y er Poisson fordelt med

Grnseresultater for stokastiske variable

0.00

0.05

0.10

0.15

0.20

218

10

15

20

0.00

0.02

0.04

0.06

0.08

0.10

Figur 7.2.6: Sandsynlighedsfunktionen for Poissonfordelingen med parameter 10 tegnet som histogram og sandsynlighedsttheden for normalfordelingen med middelvrdi 10 og varians 10.

10

20

30

40

Figur 7.2.7: Sandsynlighedsfunktionen for Poissonfordelingen med parameter 20 tegnet som histogram og sandsynlighedsttheden for normalfordelingen med middelvrdi 20 og varians 20.

7.3 Opgaver

219

parameter , er alts
a
!

i + 12
i 21

P (Y = i) '

for i IIN, n
ar er stor.

7.3

Opgaver

7.1 Lad p (0, 1) vre givet. Find ved hjlp af Chebychevs ulighed et
tal c > 0, s
a der for en stokastisk variabel
X glder, at sandsynq
lighedsmassen i intervallet E(X) c Var(X) er strre end eller lig
p. Hvad er svaret, n
ar p = 0.95?
P

7.2 Betragt en stokastisk variabel X = ni=1 Yi , hvor Yi erne er uafhngige, identisk fordelte stokastiske variable, som har middelvrdi og
varians. Giv et svar p
a sprgsm
alene i Opgave 7.1 ved hjlp af den
centrale grnsevrdistning.
7.3 Lad X vre en stokastisk variabel, som er Poissonfordelt med parameter . Benyt Chebychevs ulighed til at vise de flgende to
uligheder:

P X
2

1
4
og P (X 2) .

7.4 Lad X vre en diskret stokastisk variabel med sandsynlighedsfunktion givet ved p(1) = p(3) = 1/18 og p(2) = 8/9. Vis, at der findes
en vrdi af a > 0, for hvilken P (|X E(X)| a) = Var(X)/a2 .
Generelt kan Chebychevs ulighed alts
a ikke forbedres.
7.5 Lad X1 , X2 , . . . vre en flge af uafhngige, identisk fordelte stokastiske variable med middelvrdi og varians 2 . Vis, at den
empiriske varians s2n for de frste n variable (se opgave 3.26) konvergerer i sandsynlighed mod 2 , forudsat at EX14 < . Vink: Det
bliver lidt enklere, hvis man ved definitionen af s2 benytter fakto1
ren n1 i stedet for n1
. I grnsen er dette uden betydning. Udtryk
P
P
1
2
2

s ved n Xi og X = n1 Xi .

220

Grnseresultater for stokastiske variable

7.6 En mnt kastes 1000 gange. Giv en approksimation til sandsynligheden for at f
a mindst 550 plat?
7.7 Lad X1 , X2 , . . . vre en flge af ukorrelerede diskrete eller kontinuerte stokastiske variable, som alle har samme middelvrdi .
Antag, at der findes et reelt tal K > 0, s
a Var(Xi ) K for alle
i IIN. Vis, at der for ethvert  > 0 glder, at
P
for n .


X1


+ . . . + Xn
<  1
n

Kapitel 8
Normalfordelingens teori
Dette kapitels frste to afsnit behandler nogle fordelinger, som spiller
en vigtig rolle i statistisk teori, ikke mindst i teorien for normalfordelte
observationer. Dernst behandles den fler-dimensionale normalfordeling.

8.1

2-fordelingen og -fordelingen

Definition 8.1.1 Lad U1 , . . . , Uk vre uafhngige standard normalfordelte stokastiske variable. Fordelingen af U12 + + Uk2 kaldes da 2 fordelingen med k frihedsgrader.
Stning 8.1.2 Sandsynlighedsttheden for 2 -fordelingen med k frihedsgrader er
k
x 2 1 ex/2
p(x) =
,
(8.1.1)
k
2 2 ck

n
ar x > 0, og lig nul n
ar x 0. I denne formel
er c1 = , mens

ck = ( k2 1)! n
ar k er lige og ck = ( k2 1) 21 , hvis k = 3, 5, 7 . . ..
For k = 1 viste vi (8.1.1) i Eksempel 5.4.6, se (5.4.5). Fr vi viser
(8.1.1) for et generelt k, er det nyttigt at studere den mere generelle
klasse af fordelinger med tthed
p(x) =

x1 ex/
()

(8.1.2)

222

Normalfordelingens teori

for x > 0 og p(x) = 0 for x 0. Her er > 0 og > 0, og () er en


strrelse, som sikrer, at integralet af p over (0, ) er lig en. Lseren br
overveje, hvorfor dette integral er endeligt. At () ikke afhnger af
ses ved at skifte integrationsvariabel som vist nedenfor. Fordelingen med
tthed (8.1.2) kaldes -fordelingen med formparameter og skalaparameter . At parameteren faktisk er en skalaparameter vises i Opgave
8.1: Hvis X er -fordelt med formparameter og skalaparameter 1, er
X -fordelt med formparameter og skalaparameter . For fast har
fordelingen derfor essentielt den samme form. For varierende vrdier af
kan formen derimod vre helt forskellig. For eksempel g
ar p(x) mod
1
uendelig, eller nul for x g
aende mod nul, afhngig af om < 1,
= 1 eller > 1. Vi ser, at 2 -fordelingen med k frihedsgrader er lig
-fordelingen med formparameter k/2 og skalaparameter 2. Bemrk, at
eksponentialfordelingen ogs
a er et specialtilflde svarende til = 1.

0.0

0.2

0.4

0.6

0.8

1.0

Gammafordelingen

10

Figur 8.1.1: -fordelingens sandsynlighedstthed for = 0.5 og = 6


(prikket kurve), = 1 og = 3 (stiplet kurve), = 3 og = 1 (fuldt
optrukket kurve) og = 12 og = 0.25 (prikket og stiplet kurve). Disse
fordelinger har alle middelvrdi tre.

8.1 2 -fordelingen og -fordelingen

223

Lad os frst se nrmere p


a funktionen 7 (), som er defineret
for > 0, og som kaldes -funktionen. Da integralet af p skal vre lig
en, m
a
Z
Z
y 1 ey dy.
x1 ex/ dx =
() =
0

Af dette udtryk ses det, at () ikke afhnger af . Endvidere flger det


ved delvis integration, at
( + 1) =
=

Z
h

y ey dy
y

y (e )

= ().

i
0

y 1 (ey )dy

Vi har dermed vist -funktionens funktionalligning


( + 1) = ().
Da
(1) =

(8.1.3)

ey dy = 1,

ses det ved gentagen brug af (8.1.3), at der for et positivt helt tal n
glder, at
(n) = (n 1)!
Vi har som nvnt vist, at q i (5.4.5) er en sandsynlighedstthed, og da
q er et specialtilflde af (8.1.2) med = 21 og = 2, flger det, at

( 12 ) = .
Ved gentagen brug af (8.1.3) ses det derfor, at

( k2 ) = ( k2 1) 21 ,
n
ar k er et ulige helt tal strre end eller lig 3. Vi har dermed indset,
at (8.1.1) er en sandsynlighedstthed, n
ar ck er defineret som beskrevet
ovenfor.
Vi vil nu vise, at summen af uafhngige -fordelte stokastiske variable
med samme skalaparameter igen er -fordelt. Dette resultat kaldes ofte
-fordelingens foldningsegenskab.

224

Normalfordelingens teori

Stning 8.1.3 Lad X1 , . . . , Xn vre uafhngige stokastiske variable,


hvor Xi er -fordelt med formparameter i og skalaparameter , i =
1, . . . , n. Da er X1 + + Xn -fordelt med formparameter 1 + + n
og skalaparameter .
Bevis: Det generelle resultatet vises let ved induktion, n
ar frst stningen er vist for n = 2. Vi behver derfor kun at betragte tilfldet n = 2.
Iflge (6.3.2) er ttheden for X1 + X2
Z

x1 1 ex/ (z x)2 1 e(zx)/


dx
q(z) =
1 +2 (1 )(2 )
0
Z z
ez/
x1 1 (z x)2 1 dx
=
1 +2 (1 )(2 ) 0
Z 1
z 1 +2 1 ez/
y 1 1 (1 y)2 1 dy,
=
1 +2 (1 )(2 ) 0
z

hvor vi har foretaget substitutionen y = x/z. Det ses, at ttheden for


X1 + X2 har samme form som ttheden for en -fordeling med formparameter 1 + 2 og skalaparameter , bortset fra at den ser ud til at vre
normeret anderledes. St
c=

R1
0

y 1 1 (1 y)2 1 dy
.
(1 )(2 )

Da vi ved, at q er en sandsynlighedstthed, er
1=

q(z)dz = c

(1 +2 ) z 1 +2 1 ez/ dz = c (1 + 2 ),

s
aledes at
c=

1
.
(1 + 2 )

Dermed er stningen vist for n = 2. Lseren kan nu selv gennemfre


induktionsargumentet.
2
Undervejs har vi vist, at
Z

1
0

y 1 1 (1 y)2 1 dy =

(1 )(2 )
.
(1 + 2 )

8.2 F-fordelingen og t-fordelingen

225

Denne funktion af (1 , 2 ) kaldes Beta-funktionen. Bemrk, at funktionen


y 1 1 (1 y)2 1 (1 + 2 )
, x (0, 1),
f (x) =
(1 )(2 )
er en sandsynlighedstthed p
a (0, 1). Den tilsvarende fordeling kaldes
Beta-fordelingen. Vi studerede et specialtilflde i Eksempel 5.1.4, men
vil ikke beskftige os yderligere med Beta-fordelingen p
a dette kursus,
se dog Opgave 8.7.
Vi kan nu vende tilbage til 2 -fordelingen og vise Stning 8.1.2, d.v.s.
at 2 -fordelingens tthed er givet ved (8.1.1).
Bevis for Stning 8.1.2: I Eksempel 5.4.6 viste vi, at Ui2 har sandsynlighedstthed (5.4.5), alts
a at Ui2 er -fordelt med formparameter 1/2
og skalaparameter 2. Det flger derfor af Stning 8.1.3 at U12 + + Uk2
er -fordelt med formparameter k/2 og skalaparameter 2, og dermed har
sandsynlighedstthed (8.1.1).
2
2
Det er let at finde middelvrdien af -fordelingen med k frihedsgrader: Da E(Ui2 ) = Var(Ui ) = 1, er E(U12 + + Uk2 ) = k.
Hvis X er 2 -fordelt med f frihedsgrader, kaldes fordelingen af 2 X,
hvor 2 > 0, for 2 2 -fordelingen med f frihedsgrader. Af diskussionen
tidligere i dette afsnit fremg
ar det, at 2 2 -fordelingen med f frihedsgrader er lig -fordelingen med formparameter k/2 og skalaparameter
2 2 . Hvis Y er 2 2 -fordelt med f frihedsgrader, og Z = Y /f , skriver
man traditionelt Z 2 2 /f . Fordelingen af Z er en -fordeling med
formparameter k/2 og skalaparameter 2 2 /f .

8.2

F-fordelingen og t-fordelingen

Hvis Z1 og Z2 er uafhngige stokastiske variable, som er 2 -fordelte med


henholdsvis f1 og f2 frihedsgrader, kaldes fordelingen af den stokastiske
variable
Z1 /f1
X=
Z2 /f2

226

Normalfordelingens teori

F-fordelingen med (f1 , f2 ) frihedsgrader. Denne fordeling har sandsynlighedstthed


f /2 f /2

p(x) =

f1 1 f2 2 ((f1 + f2 )/2)xf1 /21


,
(f1 /2)(f2 /2)(f2 + f1 x)(f1 +f2 )/2

x > 0,

(8.2.1)

hvilket flger af Korollar 6.3.6. Ved at benytte (8.2.1), er det ikke vanskeligt at indse, at X har middelvrdi hvis og kun hvis f2 > 2. N
ar denne
betingelse er opfyldt, kan det vises, at
E(X) =

f2
.
f2 2

(8.2.2)

0.0

0.2

0.4

0.6

0.8

Ffordelingen

Figur 8.2.1: Sandsynlighedsttheden for F-fordelingen med (6,10) frihedsgrader

Det eneste svre er at vise, at middelvrdien af 1/Z2 er lig 1/(f2 2).

8.2 F-fordelingen og t-fordelingen

227

Bemrk til slut, at hvis U1 , . . . , Un er uafhngige standard normalfordelte stokastiske variable og k < n, s
a er
(U12 + + Uk2 )/k
2
(Uk+1
+ + Un2 )/(n k)
F-fordelt med (k, n k) frihedsgrader.
Hvis U er en standard normalfordelt stokastisk variabel, der er uafhngig af den stokastiske variable Z, som er 2 -fordelt med f frihedsgrader, s
a kaldes fordelingen af
T =q

U
Z/f

t-fordelingen med f frihedsgrader. Denne fordeling har sandsynlighedsttheden


p(t) =

((f + 1)/2)
,
f (f /2)(1 + t2 /f )(f +1)/2

t IR,

(8.2.3)

hvilket flger af Korollar 6.3.7. Bemrk, at sandsynlighedsttheden er


symmetrisk om nul.
Ved at benytte (8.2.3), er det ikke vanskeligt at indse, at T har middelvrdi hvis og kun hvis f > 1, og at i s
a fald
E(T ) = 0.

(8.2.4)

Det kan videre vises, at T har varians hvis og kun hvis f > 2, og at i s
a
fald
f
.
(8.2.5)
Var(T ) =
f 2

Bemrk, at T 2 er F-fordelt med (1, f ) frihedsgrader. N


ar f = 1 er
sandsynlighedsttheden for t-fordelingen
p(t) =

1
,
(1 + t2 )

som vi genkender som sandsynlighedsttheden for Cauchy-fordelingen,


se Eksempel 5.4.5. N
ar derimod f er stor ligner t-fordelingen standard

228

Normalfordelingens teori

0.0

0.1

0.2

0.3

0.4

tfordelingen

Figur 8.2.2: Sandsynlighedsttheden for t-fordelingen med 1 (fuldt optrukket kurve), 3 (prikket og stiplet kurve) og 10 frihedsgrader (stiplet
kurve). Endvidere er standard normalfordelingens sandsynlighedstthed
indtegnet (prikket kurve).

normalfordelingen. Det har vi ikke redskaberne til at vise p


a dette kursus, men det er ikke overraskende. Hvis nemlig U0 , . . . , Un er uafhngige
standard normalfordelte stokastiske variable, er

T =q

U0
(U12 + + Un2 )/n

t-fordelt med n frihedsgrader, og n


ar n er stor, er (U12 + + Un2 )/n iflge
store tals lov tt p
a E(U12 ) = 1, s
aledes at T ' U0 .

8.3 Den fler-dimensionale normalfordeling

229

8.3

Den fler-dimensionale normalfordeling

8.3.1

Den fler-dimensionale standard normalfordeling

Hvis U1 , . . . , Un er uafhngige standard normalfordelte stokastiske variable, kaldes fordelingen af den stokastiske vektor (U1 , . . . , Un ) den ndimensionale standard normalfordeling. Sandsynlighedsttheden for den
n-dimensionale standard normalfordeling er iflge Stning 6.2.1
n

p(x1 , . . . , xn ) = (x1 ) (xn ) = (2) 2 e 2 (x1 ++xn ) ,

(8.3.1)

for alle (x1 , . . . , xn ) IRn . Som sdvanlig betegner sandsynlighedsttheden for den en-dimensionale standard normalfordeling, der er givet
ved (5.3.1). Fordelingen med tthed (8.3.1) kaldes ogs
a den normerede
fler-dimensionale normalfordeling.
I dette underafsnit vil vi vise nogle resultater, som er vigtige i forbindelse med statistiske normalfordelingsmodeller. Det vil bl.a. vise sig,
hvorledes 2 -fordelingen og t-fordelingen dukker op. Vi f
ar brug for nogle
resultater fra liner algebra, som vi frst vil minde om.
Vi vil altid opfatte elementerne i IRn som sjlevektorer, d.v.s. som
n 1 matricer. Koordinaterne af x IRn betegnes med x1 , . . . , xn . N
ar vi
n
har brug for at skrive x IR som en rkkevektor, benytter vi transponeringsoperatoren. Den transponerede af x er en 1 n matrix, der betegnes
med xt . Ogs
a den transponerede af en matrix M betegnes med M t . Vi
benytter det sdvanlige indre produkt i IRn , det s
akaldte prik-produkt.
For x og y IRn er det givet ved
x y = x1 y1 + . . . + xn yn = xt y,

hvor det sidste produkt er et matrixprodukt. Den tilsvarende norm er


givet ved
q

kxk = x x = x21 + . . . + x2n .

Afstanden mellem to vektorer x, y IRn er s


aledes kx yk.
En st af vektorer {e1 , . . . , en } kaldes en ortonormalbasis for IRn , hvis
ei ej =

1 for i = j
0 for i 6= j.

230

Normalfordelingens teori

En n n-matrix M kaldes en ortonormalmatrix, hvis M t M = I, hvor


I betegner n n-identitetsmatricen. Identitetsmatricen er den n n
matrix, hvis diagonalelementer er lig en, mens alle andre elementer er
lig nul. En ortonormalmatrix kaldes somme tider en ortogonalmatrix.
Det er let at indse, at M er en ortonormalmatrix hvis og kun hvis dens
sjler udgr en ortonormalbasis for IRn . Identiteten M t M = I viser, at
en ortonormalmatrix er inverterbar (ikke-singulr), og at dens inverse
matrix er lig den transponerede, d.v.s. M 1 = M t . Da determinanten af
M 1 er lig (det(M ))1 , ser vi, at
det(M )2 = det(M t ) det(M ) = (det(M ))1 det(M ) = 1,
hvorfor
| det(M )| = 1.

Bemrk ogs
a, at da M 1 = M t , er M M t = I, s
aledes at M t ogs
a er en
ortonormalmatrix. Vi ser, at M er en ortonormalmatrix hvis og kun hvis
dens rkker udgr en ortonormalbasis for IRn .
Den linere funktion, som svarer til en ortonormalmatrix M (alts
a
n
funktionen x 7 M x), bevarer det indre produkt. For x og y i IR er
(M x) (M y) = (M x)t M y = xt M t M y = xt y = x y.
Specielt bevarer funktionen ogs
a normen
kM xk =

(M x) (M x) =

x x = kxk.

Vi vender nu tilbage til sandsynlighedsregningen og viser en stning,


som vi tidligere har vist i det specialtilflde, hvor n = 2 og det(M ) = 1.
Bemrk frst, at sandsynlighedsttheden for den n-dimensionale standard normalfordeling kan skrives som
n

p(x) = (2) 2 e 2 kxk ,

x IRn .

(8.3.2)

Stning 8.3.1 Lad U vre en n-dimensional stokastisk vektor, som er


standard normalfordelt, og lad M vre en n n ortonormalmatrix M .
Da er den stokastiske vektor V = M U ogs
a n-dimensionalt standard
normalfordelt.

8.3 Den fler-dimensionale normalfordeling

231

Bevis: Da | det(M )| = 1 6= 0, flger det af Stning 6.3.11 og af (8.3.2),


at sandsynlighedsttheden for V er
q(y) =

n
1
n
1
p(M 1 y)
t
2
2
= (2) 2 e 2 kM yk = (2) 2 e 2 kyk ,
| det(M )|

hvilket iflge (8.3.2) netop er sandsynlighedsttheden for den n-dimensionale standard normalfordeling.
2
Stning 8.3.1 kan ogs
a udtrykkes s
aledes:
Korollar 8.3.2 Lad U1 , . . . , Un vre uafhngige standard normalfordelte stokastiske variable, og lad {e1 , . . . , en } vre en ortonormalbasis
for IRn . St U = (U1 , . . . , Un )t . Da er de stokastiske variable Vi = ei U ,
i = 1, . . . , n, uafhngige og standard normalfordelte.
Bevis: Lad M vre ortonormalmatricen, som opfylder, at sjlerne i M t
er vektorerne e1 , . . . , en , og anvend Stning 8.3.1.
2
Stning 8.3.3 Lad X1 , . . . , Xn vre uafhngige stokastiske variable,
som alle er normalfordelte med middelvrdi og varians 2 . Definer
og kvadratafvigelsessummen SSD ved
gennemsnittet X
= 1 (X1 + . . . + Xn ),
X
n
SSD =

n
X
i=1

2.
(Xi X)

og SSD stokastisk uafhngige, X


er normalfordelt med middelDa er X
2
2 2
vrdi og varians /n og SSD er -fordelt med n 1 frihedsgrader.
Endelig er strrelsen

n(X )
T =q
SSD/(n 1)
t-fordelt med n 1 frihedsgrader.

232

Normalfordelingens teori

Bevis: De stokastiske variable Ui = (Xi )/, i = 1, . . . , n er uafhngige og standard normalfordelte. St


1
1
,...,
n
n

e1 =

!t

Da er ke1 k = 1. Man kan supplere e1 med n 1 vektorer e2 , . . . , en ,


s
a {e1 , . . . , en } er en ortonormalbasis for IRn . Iflge Korollar 8.3.2 er de
stokastiske variable Vi = ei U , hvor U = (U1 , . . . , Un )t , uafhngige og
standard normalfordelte. St V = (V1 , . . . , Vn )t , og lad M vre ortonormalmatricen, som opfylder, at sjlene i M t er vektorerne e1 , . . . , en . Da
Xi = + Ui , er
= + (U1 + + Un )/n
X
!

1
1
U1 + + Un
= +
n
n
n

= + V1 / n,
og da
2 + + (Xn X)
2
SSD = (X1 X)


= 2 (U1 U )2 + + (Un U )2


2 2U1 U ) + + (U 2 + U 2 2Un U )
= 2 (U12 + U
n
2
2
2
2

= (U1 + . . . + Un nU )


2 

= 2 kU k2 U1 / n + + Un / n


= 2 kM t V k2 V12


= 2 kV k2 V12

= 2 (V22 + . . . + Vn2 ),

og SSD er uafhngige og har de p


ses det, at X
ast
aede fordelinger.
Videre er

n(X )
T = q
SSD/(n 1)

8.3 Den fler-dimensionale normalfordeling

233

nU

(V22 + + Vn2 )/(n 1)


V1
= q
,
(V22 + + Vn2 )/(n 1)

hvoraf det ses, at T er t-fordelt med n 1 frihedsgrader.

2
et estimat for og s2 = SSD/(n 1)
I statistisk sammenhng er X
er et estimat for 2 . Strrelsen T benyttes til test af hypotesen om, at
middelvrdien har en bestemt vrdi.

8.3.2

Den generelle fler-dimensionale normalfordeling

Lad den stokastiske vektor U = (U1 , . . . , Un ) vre n-dimensionalt standard normalfordelt. Den generelle n-dimensionale normalfordeling defineres da som fordelingen af en stokastisk vektor p
a formen
X = + CU,
hvor IRn , og hvor C er en n n matrix. Bemrk, at denne definition er analog til definitionen af en generel normal fordeling p
a IR, idet
positionsparameteren blot er blevet til en vektor, og skalaparameteren
er blevet erstattet med en matrix C.
Frst bemrker vi, at hver koordinat af X er normalfordelt. Idet
Xi = i + ci1 U1 + + cin Un ,
flger det af Stning 6.3.12, at Xi er normalfordelt med middelvrdi i
og varians c2i1 + + c2in .
Vi kan nu finde sandsynlighedsttheden q for X, n
ar C er inverterbar (ikke-singulr), ved hjlp af (6.3.13). Lad p vre sandsynlighedsttheden for den n-dimensionale standard normalfordeling, som er givet
ved (8.3.2). Da er

234

Normalfordelingens teori

q(x) =

p(C 1 (x ))
| det(C)|

= q
= q
= q
= q

1
(2)n | det(C)|
1
(2)n | det(C)|
1
(2)n | det(C)|
1
(2)n | det(C)|

exp 21 kC 1 (x )k2
exp

21

(x )

t 

(x )

exp 21 (x )t (C 1 )t C 1 (x )



exp 21 (x )t (CC t )1 (x ) .

Man skriver som regel sandsynlighedsttheden ved hjlp af matricen


= CC t . Da
(det C)2 = det(C) det(C t ) = det(CC t ) = det(),
kan sandsynlighedsttheden for den generelle n-dimensionale normalfordeling skrives som
q(x) = q

1
(2)n

det()

exp 21 (x )t 1 (x ) ,

x IRn . (8.3.3)

Her svarer og til middelvrdi og varians i det en-dimensionale


tilflde. Som vi har set, er den ite koordinat af lig middelvrdien af Xi .
Matricen er fordelingens kovariansmatrix, d.v.s. den n n-matrix, hvis
(i, j)te element er kovariansen mellem Xi og Xj , n
ar i 6= j, og hvis ite
diagonalelement er Var(Xi ). Vi giver et noget komprimeret bevis for den
sidste p
astand. Da det (i, j)te element af n n-matricen (X )(X )t
er (Xi i )(Xj j ), er kovariansmatricen givet ved E((X )(X )t ),
hvor der tages middelvrdi af alle matricens elementer. Da X = CU ,
er


E (X )(X )t

= E CU (CU )t = E CU U t C t


= CE U U t C t = CIC t = CC t = ,

8.3 Den fler-dimensionale normalfordeling

235

hvor regneregler for middelvrdien er blevet anvendt. Vi har ogs


a brugt,
at kovariansmatricen for U , d.v.s. E (U U t ) er lig identitetsmatricen. Vi
g
ar mere i detaljer med beregningen for det to-dimensionale tilflde i
nste delafsnit.

8.3.3

Den to-dimensionale normalfordeling

Lad U1 og U2 vre uafhngige standard normalfordelte stokastiske variable. Den stokastiske vektor (X1 , X2 ) givet ved
X1 = 1 + c11 U1 + c12 U2 ,
X2 = 2 + c21 U1 + c22 U2 ,

(8.3.4)

er da to-dimensionalt normalfordelt. Under antagelse af, at matricen


C=

c11 c12
c21 c22

er ikke-singulr, kan vi opskrive fordelingens tthed p


a samme m
ade
som i det generelle tilflde. Frst vil vi dog modificere konstruktionen
lidt. Vi kan antage, at
U1
U2

V1
V2

(8.3.5)

hvor V1 og V2 er to andre uafhngige standard normalfordelte stokastiske


variable, og hvor og er vilk
arlige tal med 2 + 2 = 1. Da matricen

er en ortonormalmatrix, flger det af Stning 8.3.1 (eller af beviset for


Stning 6.3.12), at U1 og U2 givet ved (8.3.5) er uafhngige og standard
normalfordelte stokastiske variable, som de skal vre. Vi kan for eksempel
definere V1 og V2 ved
V1
V2

U1
U2

236

Normalfordelingens teori

Ved at indstte (8.3.5) i (8.3.4) f


as
X1 = 1 + (c11 c12 )V1 + (c11 + c12 )V2 ,
X2 = 2 + (c21 c22 )V1 + (c21 + c22 )V2 .
Hermed har vi indset, at den samme to-dimensionale normalfordeling kan
fremkomme p
a adskillige m
ader ved transformation af en standard normalfordeling. Vi kan lige s
a godt vlge koefficientmatricen p
a en m
ade,
som letter de flgende overvejelser. Ved at vlge og , s
a vektoren
(, ) er vinkelret p
a vektoren (c12 , c11 ), d.v.s. s
a c12 + c11 = 0, opn
ar
vi en fremstilling, hvor den anden koefficient i frste linie er 0. Med passende nye betegnelser har vi at
X1 = 1 + aV1 ,
X2 = 2 + bV1 + cV2 .
Herefter kan vi glemme alt om den mere generelle fremstilling, vi begyndte med, idet enhver todimensional normalfordeling kan konstrueres
p
a denne m
ade. Bemrk, at V1 reprsenterer den stokastiske variation,
som X1 og X2 har til flles, mens V2 er den stokastiske variation af X2 ,
som intet har med X1 at gre.
Det ses umiddelbart, at Xi er normalfordelt med middelvrdi i og
varians i2 , i = 1, 2, hvor
12 = a2

og

22 = b2 + c2 .

Endvidere er
Cov(X1 , X2 ) = E((X1 1 )(X2 2 )) = E(aV1 (bV1 + cV2 ))
= abE(V12 ) + ac E(V1 V2 ) = ab,
s
aledes, at korrelationen mellem X1 og X2 , som vi vil betegne med , er
givet ved
ab
= 2
.
|a| b + c2
For at opskrive sandsynlighedsttheden for den to-dimensionale normalfordeling p
a formen (8.3.3), skal vi finde matricen
=

a 0
b c

a b
0 c

a2
ab
2
ab b + c2

12
1 2
1 2
22

8.3 Den fler-dimensionale normalfordeling

237

Bemrk, at er kovariansmatricen for (X1 , X2 ), som vist i forrige delafsnit. Da det() = 12 22 (1 2 ), er inverterbar, hvis vi forudstter,
at || 6= 1, og
1 =

1 2

12

11 21

11 21

22

Ved at indstte i (8.3.3) f


as, at sandsynlighedsttheden for den todimensionale normalfordeling er
12 (x

exp
q(x, y) =

1 , y 2 )

1
exp 2(1
2)

(2)2 det()

(x1 )2
12

(y2 )2
22

x 1
y 2

!!

2)
2 (x11)(y
2

2 12 22 (1 2 )

(8.3.6)


Niveaukurverne for denne funktion af to variable er koncentriske, ligedannede ellipser med centrum i (1 , 2 ). Disse ellipsers form og orientering i forhold til akserne bestemmes af parametrene 1 , 2 og . For
= 0 f
as ellipser med hovedakser, der er parallelle med koordinatakserne. Forholdet mellem lngden af den vandrette og den lodrette akse
er 1 /2 . For 6= 0 f
as ellipser, som ligger skvt i forhold til koordinatsystemet. Hldningen af den lngste hovedakse har samme fortegn som
, og hovedreglen er, at vrdier af nr 1 svarer til langstrakte ellipser, som ligger tydeligt skvt i forhold til akserne. I tilfldet 1 = 2
har den lngste hovedakse hldning 1 (med samme fortegn som ).
Ellipsens fladtrykthed er i detteq
tilflde givet ved at forholdet mellem
lngste og korteste hovedakse er (1 + ||)/(1 ||). Det ekstreme tilflde = 1, hvor kovariansmatricen er singulr, svarer til, at der
er en liner sammenhng mellem X1 og X2 , s
aledes at fordelingen af
(X1 , X2 ) er koncentreret p
a en linie,
Korrelationens fortolkning som et m
al for graden af samvariation mellem de to variable fremg
ar tydeligt af ovenst
aende. Bemrk ogs
a, at hvis
korrelationen er lig nul, er


q(x, y) = (x 1 )2 /12 (y 2 )2 /22 ,

238

Normalfordelingens teori

s
aledes at X1 og X2 er uafhngige. N
ar den simultane fordeling af (X1 ,
X2 ) er en normalfordeling, er ukorrelerethed alts
a ensbetydende med uafhngighed. For simultant normalfordelte stokastiske variable, er korrelationen et nyttigt begreb, som er let at fortolke.
En alternativ beskrivelse af, hvordan korrelationen bestemmer samvariation mellem X1 og X2 , f
ar man ved at se p
a, hvorledes den betingede
fordeling af X2 , givet X1 = x, afhnger af x. Iflge (6.5.2) er sandsynlighedsttheden for den betingede fordeling af X2 givet at X1 = x


1
exp 2(1
2)

(x1 )2
12

(y2 )2
22

2)
2 (x11)(y
2

1)
2 12 22 (1 2 ) exp 21 (x
2

 q

/ 212

1
1)
+
(1 2 ) (x
exp 2(1
2)
2

exp
=

222 (1

1
22 (1
2)
2

(y2 )
2

1)
(x
1

1)
2 ) exp 21 (x
2

y (2 +

12 (x

222 (1 2 )

1 ))



2 

2 

Vi ser, at denne betingede fordeling er en normalfordeling med middelvrdi 2 + 21 (x1 ) og varians 22 (12 ). Bemrk, at denne varians
ikke afhnger af x. For 6= 0 er variansen mindre end variansen 12 i den
marginale fordeling af X2 , hvilket intuitivt har den forklaring, at kendskab til X1 stter os i stand til at forudsige X2 mere prcist end det
er muligt uden kendskab til X1 . Middelvrdien 2 + 21 (x 1 ) i den
betingede fordeling kan fortolkes som det bedst mulige gt p
a vrdien af
X2 , baseret p
a en observeret vrdi x af X1 . Denne betingede middelvrdi
(som den kaldes) afhnger linert af x. Dette er, ligesom den ovenfor
bemrkede egenskab at variansen i den betingede fordeling er konstant,
noget helt specielt for den to-dimensionale normalfordeling. Hldningen
12 af den linie, der beskriver X2 s betingede middelvrdi som funktion
af x, kaldes regressionskoefficienten. Bemrk at den har samme fortegn
som , og for 1 = 2 simpelthen er lig med . Heri ligger en klar bekrftelse af korrelationens relevans som et m
al for graden af samvariationen
for den todimensionale normalfordeling.

8.4 Sammenfatning

8.4

239

Sammenfatning

I Kapitel 8 har indfrt og studeret nogle fordelinger, der spiller en vigtig rolle i den statistiske teori, ikke mindst teorien for normalfordelte
observationer. Det drejer sig om 2 -fordelingen, -fordelingen (som 2 fordelingen er et specialtilflde af), F -fordelingen og t-fordelingen.
Videre har vi defineret den fler-dimensionale standard normalfordeling og set, at hvis en s
adan fordeling transformeres med en ortonormalmatrix opn
as en fordeling af samme slags. Dette resultat blev benyttet til
at vise nogle vigtige fordelings- og uafhngighedsresultater for strrelser,
der optrder i den statistiske teori for normalfordelte observationer. Endelig blev sandsynlighedsttheden for den generelle fler-dimensionale
normalfordeling udledt, og den to-dimensionale normalfordeling blev studeret mere detaljeret.

8.5

Opgaver

8.1 Lad den stokastiske variable X vre -fordelt med formparameter


og skalaparameter . Vis, at cX er -fordelt med formparameter
og skalaparameter c for alle c > 0.
8.2 Lad X vre -fordelt med formparameter og skalaparameter .
Vis, at E(X) = og Var(X) = 2 . Hvad er middelvrdien og
variansen af en 2 -fordelt stokastisk variabel?
8.3 Lad X vre -fordelt med formparameter og skalaparameter .
Gr rede for, at
!

x
P (X x) '
,
n 2
n
ar er stor. Som altid betegner fordelingsfunktionen for standard normalfordelingen Vink: Den centrale grnsevrdistning.
8.4 Lad X vre -fordelt med formparameter og skalaparameter .
Vis, at 1/X har middelvrdi hvis og kun hvis > 1, samt at i s
a
fald
1
E(1/X) =
.
( 1)

240

Normalfordelingens teori

8.5 Vis (8.2.1) og (8.2.2). Vink til (8.2.1): Korollar 6.3.6. Vink til (8.2.2):
Opgave 8.4.
8.6 Vis (8.2.3), (8.2.4) and (8.2.5). Vink til (8.2.3): Korollar 6.3.7. Vink
til (8.2.5): Opgave 8.4.
8.7 Lad X1 og X2 vre uafhngige gammafordelte stokastiske variable,
hvor fordelingen af Xi har formparameter i , i = 1, 2, mens begge
fordelinger har samme skalaparameter .
(a) Find den simultane sandsynlighedstthed for (X1 + X2 , X1 ).
(b) Vis, at sandsynlighedsttheden for
Z=
er
p(z) =

X1
X1 + X 2

z 1 1 (1 z)2 1 (1 + 2 )
,
(1 )(2 )

z (0, 1).

Fordelingen med denne sandsynlighedstthed kaldes Beta-fordelingen.


(c) Antag, at 1 = f1 /2 og 2 = f2 /2, hvor f1 og f2 er hele tal,
samt at = 2. Vis, at
V =

f2 Z
f1 (1 Z)

er F-fordelt med f1 og f2 frihedsgrader.

Kapitel 9
Nogle stokastiske modeller
9.1

Aktier

Vi betragter en meget enkel model for udviklingen af en akties vrdi.


Hvert
ar er der to muligheder, som hver indtrffer med sandsynlighed
1/2: Enten fordobles aktiens vrdi, eller dens vrdi halveres. Vrdindringerne i forskellige
ar antages at vre stokastisk uafhngige. Hvis
alts
a Vi (i = 0, 1, 2, . . .) betegner vrdien af aktien ved slutningen af
ar
nummer i, er de stokastiske variable Ui = Vi /Vi1 (i = 1, 2, . . .) uafhngige og har alle samme fordeling givet ved P (Ui = 2) = P (Ui = 1/2) =
1/2. Vi antager, at vrdien af en aktie ved starten af
ar nummer 1 er et
givet ikke-stokastisk tal: V0 = v0 > 0.
Da Vi = Ui Ui1 U1 v0 , og da E(Ui ) = 2 21 + 12 12 = 45 , er
E(Vi ) = E(Ui )E(Ui1 ) E(U1 )v0 = ( 54 )i v0 , i = 0, 1, . . . ,
hvor vi har brugt (3.7.7). Vi ser, at middelvrdien af aktiens vrdi vokser
eksponentielt med tiden.
Antag at vi ved starten af
ar nummer et har en formue p
a x0 > 0
kroner (et givet ikke-stokastisk tal). Denne formue investerer vi efter
flgende strategi: Ved begyndelsen af hvert
ar omfordeler vi den formue,
vi p
a det tidspunkt har, s
aledes at brkdelen [0, 1] er investeret i
aktier af ovennvnte type, mens vi har resten af formuen i kontanter.
Kontanter antages at beholde deres vrdi fra
ar til
ar, og vi antager, at
det er muligt at kbe aktier med en vrdi svarende til ethvert positivt

242

Nogle stokastiske modeller

reelt kronebelb. Hvis alts


a Xi betegner vores formue ved slutningen af
ar
nummer i (= begyndelsen af
ar nummer i + 1), investerer vi i
ar nummer
i + 1 Xi kroner i aktier af ovennvnte type, mens vi beholder (1 )Xi
kroner i kontanter.
Definer stokastiske variable Ri ved Ri = Xi /Xi1 , i = 1, 2, . . ., hvor
X0 = x0 . Da
Xi+1 = Xi Ui + (1 )Xi ,
er
Ri = Ui + 1 ,
s
a
E(Ri ) = 1 + /4.
Dermed er
E(Xi ) = E(Ri Ri1 R1 x0 ) = (1 + /4)i x0 i = 0, 1, . . . .
Det er klart, at E(Xi ) antager sin strste vrdi for = 1. Vi maksimerer
alts
a middelvrdien af vores formue ved hele tiden at stte alle pengene
i aktier.
Man kan imidlertid ogs
a lave en anden overvejelse. Man kunne f
a den
ide, at man nsker at maksimere middelvrdien af logaritmen til formuen
i stedet for at maksimere middelvrdien af formuen. konomer kalder i
den forbindelse logaritmen en nyttefunktion. Logaritmen til formuen er
log(Xi ) = log(x0 ) =

i
X

log(Rj )

j=1

Iflge (3.7.3) er
E(log(Ri )) =
=
s
a

1
2
1
2

log(2 + 1 ) + 21 log(/2 + 1 )


log 1 + 12 (1 ) ,


E(log(Xi )) = log(x0 ) + i 12 log 1 + 12 (1 ) .


Det er ikke vanskeligt at indse, at E(log(Xi )) er maksimal, n
ar = 1/2.

9.2 Poisson processen

243

Der kan vre gode grunde til at maksimere E(log(Xi )). Her er en.
St m = log(Ri ). Iflge store tals lov (Stning 7.1.3) har vi for ethvert
 > 0, at


P x0 e(m)n Xn x0 e(m+)n

= P ((m )n log(Xn ) log(x0 ) (m + )n)


= P





n

1 X

log(Rj ) m


n j=0

 1,

for n . Vi ser, at vores formue efter n


ar Xn , n
ar n er stor, med
meget stor sandsynlighed ligger nr x0 emn . I hvert fald for m > 0. Det
synes derfor fornuftigt p
a langt sigt, at vlge = 1/2.
Strategien med = 1/2 svarer til at slge aktier, n
ar deres vrdi er
steget, og kbe dem, n
ar deres vrdi er faldet. Strategien kaldes volatility
pumping.

9.2

Poisson processen

Vi observerer en flge af begivenheder, der indtrffer til tidspunkterne


0 < T1 < T2 < < Tn < . Her er Ti alts
a tidspunktet for den
ite begivenhed. Begivenhederne kan vre udsendelser af en -partikel
fra et radioaktivt materiale, skadesanmeldelser til et forsikringsselskab,
telefonopkald og meget andet.
Vi vil forudstte, at tidsrummene mellem de p
a hinanden flgende
begivenheder Xn = Tn Tn1 , i = 1, 2, . . . (vi stter T0 = 0) er uafhngige stokastiske variable med samme fordeling. Yderligere vil vi antage,
at P (Xn > t) > 0 for alle t > 0, og at en begivenhederne ikke kan huske,
hvorn
ar den foreg
aende begivenhed indtraf, d.v.s. at
P (Xn > t + s|Xn > t) = P (Xn > s)
for alle t, s > 0. Vi s
a i Eksempel 2.2.2, at denne antagelse (under en
svag ekstra betingelse, som faktisk kan undvres) medfrer, at Xn er
eksponentialfordelt. Vi kan derfor skrive vores model s
aledes:

244

Nogle stokastiske modeller

1) Tn = X1 + + Xn for alle n IIN,


2) X1 , X2 , . . . er uafhngige,
3) Xn er eksponentialfordelt med parameter for alle n IIN.
For ethvert t > 0 lader vi N (t) betegne antallet af hndelser i tidsintervallet [0, t]. Den stokastiske variable N (t) antager alts
a vrdier i IIN 0 .
Da N (t) n hvis og kun hvis Tn t, ser vi at
P (N (t) n) = P (Tn t) = Fn (t),
hvor Fn (t) er fordelingsfunktionen for Tn . Da Xi erne er eksponentialfordelte med parameter , og da denne fordeling er den samme som en
-fordeling med formparameter 1, flger det af Stning 8.1.3, at Tn er
-fordelt med formparameter n og skalaparameter 1 . Derfor er
P (N (t) n) =

t
0

n xn1 ex
dx.
(n 1)!

For n > 0 er alts


a
P (N (t) = n) = P (N (t) n) P (N (t) n + 1)
n
=
n!
=

t
0

(nxn1 xn )ex dx

n h n x it
(t)n t
x e
=
e .
0
n!
n!

Endvidere er
P (N (t) = 0) = P (X1 > t) = 1 P (X1 t) = 1 (1 et ) = et .
Vi ser s
aledes, at N (t) er Poisson-fordelt med parameter t, og har dermed endnu et argument for at benytte Poissonfordelingen som model for
tilfldigt ankommende begivenheder.
Vi har her defineret en hel familie af stokastiske variable {N (t) | t
0}. En s
adan familie af stokastiske variable kaldes en stokastisk proces.

9.2 Poisson processen

245

Den stokastiske proces {N (t) | t 0} kaldes Poisson processen med parameter .


Vi slutter med at bevise, at de stokastiske variable N (s) og N (t)
N (s), hvor t > s, er uafhngige, samt at N (t) N (s) er Poisson fordelt
med parameter (t s). For n, m IIN, hvor n > m, sttes Vn,m =
Tn Tm = Xm+1 + + Xn . Da er
P (N (s) m, N (t) n) = P (Tm s, Tn t)
= P ((Tm , Tm + Vn,m ) [0, s] [0, t]) .
Da Tm og Vn,m er uafhngige og -fordelte, Tm med formparameter n og
Vn,m med formparameter n m, begge med skalaparameter 1 , flger
det af Stning 6.3.10, at
P ((Tm , Tm + Vn,m ) [0, s] [0, t])
=

s
0
s
0
s
0

m xm1 ex nm (y x)nm1 e(yx)


1(0,) (y x)dy dx
(m 1)!
(n m 1)!

n xm1 (y x)nm1 ey
dy dx
(m 1)!(n m 1)!

Z
Z

tx
0

n xm1 z nm1 e(x+z)


dz dx,
(m 1)!(n m 1)!

hvor vi har skiftet integrationsvariabel i det inderste integral til z = yx.


Vi kaster os nu ud i et strre regneri. For alle m, k IIN, hvor k 2
er
P (N (s) = m, N (t) N (s) = k) = P (N (s) = m, N (t) = m + k)
= P (N (s) m, N (t) m + k) P (N (s) m + 1, N (t) m + k)
P (N (s) m, N (t) m + k + 1)
+P (N (s) m + 1, N (t) m + k + 1)

246

Nogle stokastiske modeller


m+k
m!k!

s
0

Z

tx
0

{mxm1 kz k1 xm k(k 1)z k2 mxm1 z k


m

+ x kz

k1

}e

(x+z)

dz dx

Det inderste integral er lig


mxm1 ex

tx
0

xm ex
= mx

{kz k1 z k }ez dz
tx

m1 x

{k(k 1)z k2 kz k1 }ez dz

tx
0

k z 0

(z e

m x

) dz x e

tx
0

(kz k1 ez )0 dz

= mxm1 ex (t x)k e(tx) xm ex k(t x)k1 e(tx)


= et (xm (t x)k )0 .
Derfor er
P (N (s) = m, N (t) N (s) = k)
Z
(s)m es ((t s))k e(ts)
m+k t s m
e
(x (t x)k )0 dx =

.
=
m!k!
m!
k!
0
Vi mangler at behandle tilfldene m = 0 og k = 0, 1. Disse tilflde er
lettere og overlades til lseren. Resultatet bliver det samme. Da alts
a
P (N (s) = m, N (t) N (s) = k) er et produkt af to Poissonsandsynligheder, kan vi konkluderede af Stning 4.3.1, at de stokastiske variable
N (s) og N (t) N (s) er uafhngige, samt at N (s) er Poisson fordelt med
parameter s (det vidste vi allerede), og at N (t)N (s) er Poisson fordelt
med parameter (t s).

9.3

Brownsk bevgelse

En partikel bevger sig i planen efter en Brownsk bevgelse. Vi vil


forsge at opstille en model for dette fnomen, som er kendt fra fysikken.

9.3 Brownsk bevgelse

247

Til tid 0 befinder partiklen sig i punktet (0, 0). Lad partiklens position
en tidsenhed senere vre (X1 , X2 ). Det er rimeligt at antage, at X1 og
X2 er uafhngige, og at de har samme marginale fordeling. Lad os endvidere forudstte, at fordelingen af (X1 , X2 ) er kontinuert med simultan
sandsynlighedstthed f , og lad os betegne den flles marginale tthed
for X1 og X2 med p. Til slut vil vi antage, at ingen retninger i planen er
foretrukket af partiklen, hvilket vi kan formulere prcist ved at antage,
at ttheden f (x, y) kun afhnger af (x, y)s afstand til (0, 0), d.v.s. at
der findes en funktion g fra [0, ) ind i [0, ), s
a
f (x, y) = g

q

x2

y2

for alle (x, y) IR2 . Da f (x, y) = p(x)p(y), er


p(x)p(y) = g

q

x2 + y 2

for alle (x, y) IR2 . Stter vi her y = 0, f


ar vi, at g(|x|) = p(0)p(x), og
vi ser, at p opfylder ligningen
p(x)p(y) = p(0)p

q

x2

y2

for alle (x, y) IR2 . Vi vil nu antage, at p(x) > 0 for alle x IR, og stte
k(x) = log(p(x)). Da er
k(x) + k(y) = k(0) + k

q

x2

y2

as
Sttes x = (s + t)/ 2 og y = (s t)/ 2, f



s2 + t2 = k(s) + k(t).
k((s + t)/ 2) + k((s t)/ 2) = k(0) + k

Hvis vi antager, at p er to gange differentiabel, er ogs


a k to gange differentiabel, og differentierer vi med hensyn til s f
ar vi
i
h

k 0 ((s + t)/ 2) + k 0 ((s t)/ 2) / 2 = k 0 (s).


(9.3.1)
Differentieres denne ligning med hensyn til t, f
as
i
h

k 00 ((s + t)/ 2) + k 00 ((s t)/ 2) /2 = 0

248

Nogle stokastiske modeller

for alle s, t IR. Specielt f


ar vi ved at stte t = s = u/ 2, at
k 00 (u) = k 00 (0)

(9.3.2)

for alle u IR. Stter vi k 00 (0) = c, flger det af (9.3.2), at


k 0 (u) = a cu
for et eller andet a IR. Med s = t = 0 i (9.3.1) f
as
0
2k (0) = k 0 (0),
s
a k 0 (0) = 0. Konstanten a m
a derfor vre nul, s
aledes at k 0 (u) = cu
0
for alle u IR. Integrerer vi k , finder vi, at k m
a have formen
k(x) = b 2c x2 ,
hvoraf vi f
ar, at den marginale tthed for Xi er
p(x) = eb ecx

2 /2

for alle x IR. Denne funktion kan kun vre integrabel, hvis c > 0, og
konstanten eb skal vre s
adan, at integralet af p over IR er lig en. Stter
vi c = 1/ 2 , genkender vi normalfordelingen med middelvrdi nul og
varians 2 , s
a der m
a glde, at
p(x) =

1
2
2
ex /(2 )
2
2

for alle x IR.


Normalfordelingen er alts
a en fornuftig model for en koordinat af
positionen efter en tidsenhed af en partikel, som udfrer Brownsk bevgelse. Lad X1 (t) betegne frste koordinat af partiklens position til
et vilk
arligt tidspunkt t. En dybereg
aende analyse viser, at det kan antages, at X1 (t) er normalfordelt med middelvrdi nul og varians 2 t.
Den stokastiske proces {X1 (t) | t 0} kaldes Wiener processen eller den
Brownske bevgelse. Hvis X2 (t) betegner andenkoordinaten af partiklens position til tidspunktet t, er den stokastiske proces {X2 (t) | t 0}
ikke overraskende ogs
a en Wiener proces. Den to-dimensionale stokastiske proces {(X1 (t), X2 (t)) | t 0} kaldes en to-dimensional Wienerproces
eller Brownsk bevgelse. Det viser sig, at de to koordinater er stokastisk
uafhngige

Kapitel 10
Efterskrift
Det er p
a sin plads at slutte med et par bemrkninger om nogle mangler
ved disse noters fremstilling af den elementre sandsynlighedsregning.
Nogle lsere har m
aske tnkt over, om det virkelig er ndvendigt at
gennemg
a stort set den samme teori to gange: frst for diskrete fordelinger, s
a for kontinuerte fordelinger. Det er faktisk ikke ndvendigt. Hvis
man baserer fremstillingen af sandsynlighedsregningen p
a m
alteorien, kan
man klare disse to tilflde - plus mange andre - p
a en gang. Det er
imidlertid ikke nogen god m
ade at starte bekendtskabet med sandsynlighedsregningen p
a, og det ville ivrigt vre for svrt for et frste-
ars
kursus. Form
alet i disse noter har vret at give en vis fortrolighed med
nogle af sandsynlighedsregningens grundlggende begreber samt velse
i at lse enkle sandsynlighedsteoretiske problemer. Fremstillingen har s
a
m
attet forenkles lidt her og der. Det skal nvnes, at vi i definitionen af
et sandsynlighedsm
al kun har krvet, at (1.3.3) er opfyldt, mens man
normalt krver, at (1.3.14) holder ikke blot for endeligt mange disjunkte
mngder, men for tlleligt mange. Vores krav til et sandsynlighedsm
al
er alts
a svagere end det sdvanlige. Til gengld er vi blevet sparet for
nogle m
alteoretiske detaljer, som ville have kunnet overskygge form
alet
med disse noter. I forbindelse med kontinuerte fordelinger, har vi tilladt
os at integrere over vilk
arlige delmngder af IR eller IRn . Der findes imidlertid delmngder af IR og IRn , som er s
a aparte, at man ikke kan definere
integralet over dem. Hvis man holder sig til en klasse af delmngder af
IR eller IRn , som kaldes Borelmngderne, og som ikke inkluderer disse
sregne mngder, er man p
a den sikre side. Egentlig burde vi derfor alle

250

Efterskrift

steder have skrevet en Borel delmngde af IR eller IRn i stedet for en


vilk
arlig delmngde, men der havde vret risiko for, at en s
adan formulering, som alligevel ikke kan forklares ordentligt i dette kursus, ville have
afledt interessen fra det vsentlige. Hvad mere er, det er uhyre sjldent,
at man i praksis stder p
a en mngde, der ikke er en Borelmngde.
Det skal ogs
a lige nvnes, at vi kun har kradset lidt i overfladen
af teorien for betingede sandsynligheder. Hvis man forsger generelt at
definere betingede sandsynligheder givet hndelser med sandsynlighed
nul ved den grnseovergang, som vi reelt brugte i Afsnit 6.5, kommer man
galt af sted. Lad for eksempel X vre en kontinuert stokastisk variabel.
Det er da fristende at definere den betingede sandsynlighed af hndelsen
B givet at X = x ved grnsevrdien
P (B {|X x| < })
,
0
P (|X x| < )

P (B|X = x) = lim

men selv n
ar denne grnsevrdi eksisterer, er den helt umulig. Da P (X =
x) = 0, er
P ({X 6= x} {|X x| < }) = P ({|X x| < }\{X = x})
= P (|X x| < ) P (X = x) = P (|X x| < ),
s
aledes at ovenst
aende definition giver P (X 6= x|X = x) = 1. Dette
er oplagt noget vrvl. Det krver en del arbejde, at indfre betingede
sandsynligheder generelt.
Alle de problemer, som er nvnt her, vil naturligvis blive behandlet
i et mere avanceret kursus i sandsynlighedsteori.

Appendiks A
Om mngder
A.1

Mngder og mngdeoperationer

Dette appendiks handler om mngder og om de elementre operationer,


man kan foretage med dem. Det er helt afgrende for tilegnelsen af sandsynlighedsregning, at man behersker de elementre manipulationer med
mngder.
En mngde er en samling af objekter. Disse objekter kaldes mngdens
elementer. Eksempler p
a mngder er de reelle tal IR, intervallet [0, 1],
mngden af mulige udfald ved kast med en terning {1, 2, 3, 4, 5, 6} og de
naturlige tal
IIN = {1, 2, 3, . . .}.

Det er almindeligt at angive en mngde ved at opskrive en liste over dens


elementer omgivet af krllede parenteser. Hvis mngden har uendeligt
mange elementer, antydes det blot, hvorledes listen forsttes. Mngden,
der ingen elementer indeholder, kaldes den tomme mngde og betegnes
med . Hvis antallet af elementer i en mngde er et naturligt tal eller 0,
siges mngden at vre endelig. Hvis en mngde ikke er endelig, kaldes
den uendelig. Mngderne {1, 2, 3, 4, 5, 6} og er endelige, mens IR, [0, 1]
og IIN er uendelige mngder.
Hvis x er et element i en mngde A, skrives x A. Man siger ofte
at x tilhrer A. Hvis x ikke er et element i A, skrives x
/ A. Symbolet
kan benyttes til at definere mngder. For eksempel best
ar mngden
{ n2 | n IIN}

252

Om mngder

af alle tal p
a formen n2 , hvor n er et positivt helt tal. Et andet eksempel
er
{x IR | sin(x) > 21 }

som best
ar af de reelle tal x, for hvilke udsagnet sin(x) > 12 er sandt.
Hvis A er en mngde, kan man generelt definere en ny mngde ved
{x A | x opfylder en betingelse}.
Den nye mngde best
ar af de elementer i A, som opfylder betingelsen.
To mngder A og B er identiske, hvis de har de samme elementer.
Hvis det er tilfldet, skriver man A = B. For eksempel er {1, 2, 3, 4} =
{4, 1, 3, 2}. En mngde A siges at vre en delmngde af en anden mngde
B, hvis ethvert element i A ogs
a tilhrer B. Det skrives p
a denne m
ade:
A B eller B A. Man siger ogs
a at A er indeholdt i B eller at B
indeholder A. Tegnet kaldes en inklusion. Bemrk, at A = B hvis
og kun hvis A B og B A. Man kan ofte vise, at to mngder er
identiske ved at bevise disse to modsatrettede inklusioner. Hvis A er en
delmngde af B, og B indeholder et element, som ikke tilhrer A, kaldes
A en gte delmngde af B, hvilket skrives A B eller B A.
I nsten alle sammenhnge findes der en stor mngde E, som er
basis for vores mngdeoperationer i den forstand, at vi kun interesserer
os for delmngder af E. Mngden E kunne da kaldes vores univers. Hvad
vi vlger som vores univers vil typisk variere fra gang til gang afhngigt
af sammenhngen. Hvis A og B er to delmngder af E, defineres deres
foreningsmngde, der skrives A B, ved
A B = {x E | x A eller x B},
hvor eller betyder mindst et af de to udsagn er korrekte, muligvis dem
begge. Foreningsmngden best
ar alts
a af de elementer i E, som tilhrer
mindst en af mngderne A og B. Bemrk, at A E = E, A = A og
A A = A. Fllesmngden af A og B, som skrives A B, defineres ved
A B = {x E | x A og x B}.
Det vil sige, at fllesmngden best
ar af de elementer i E, der tilhrer
b
ade A og B. Bemrk, at A E = A, A = og A A = A. Hvis to

A.1 Mngder og mngdeoperationer

253

mngder A og B ikke har flles elementer, alts


a hvis A B = , siges
de to mngder at vre disjunkte.
For to mngder A og B defineres mngdedifferensen mellem A og B,
som skrives A\B, ved
A\B = {x A | x
/ B}.
Alts
a de elementer i A, som ikke tilhrer B. Mngdedifferensen A\B
omtales ofte som A fraregnet B. En srligt vigtig mngdedifferens er
E\A, som kaldes komplementrmngden til A og betegnes Ac . Bemrk
at A\B = A B c , E c = , c = E, (Ac )c = A og A Ac = E.
De netop omtalte mngdeoperationer kan ikke kombineres efter forgodtbefindende. For tre mngder A, B og C glder for eksempel i almindelighed at
(A B) C 6= A (B C).
Dette fremg
ar af det simple tilflde A = {1, 2}, B = {3, 4} og C = {2, 3},
hvor er (AB)C = C, mens A(BC) = {1, 2, 3}. Der glder flgende
regneregler for de indfrte mngdeoperationer.
AB = BA

(A.1.1)

AB = BA

(A.1.2)

A (B C) = (A B) C

(A.1.3)

A (B C) = (A B) C

(A.1.4)

A (B C) = (A B) (A C)

(A.1.5)

A (B C) = (A B) (A C)

(A.1.6)

(A B)c = Ac B c

(A.1.7)

(A B)c = Ac B c .

(A.1.8)

254

Om mngder

Lad os bevise (A.1.5). Vi beviser frst, at A(B C) (AB)(AC).


Antag derfor, at x A(BC). Hvis x A, s
a er x AB og x AC,
og dermed er x (A B) (A C). Hvis x
/ A, m
a jo s
a x B C.
Det vil sige, at x B og x C, og dermed ogs
a x A B og x A C.
Ogs
a n
ar x
/ A, har vi alts
a, at x (A B) (A C). Vi har derfor
vist, at A (B C) (A B) (A C). Vi mangler nu at bevise, at
A (B C) (A B) (A C), fr vi kan konkludere, at (A.1.5) holder.
For at bevise det antager vi, at x (A B) (A C). Hvis x A, er
det klart, at x A (B C). Hvis omvendt x
/ A, m
a der glde, at
x B, eftersom x A B. Ligeledes m
a der, da x A C, glde, at
x C. Vi kan derfor konkludere, at x B C, og dermed, at der ogs
a
n
ar x
/ A glder, at x A (B C). Vi har dermed bevist (A.1.5).
Ved at kombinere regnereglerne (A.1.1) (A.1.8) kan man manipulere
med mange mngder. Hvis for eksempel A, B1 , . . . , Bk er k + 1 mngder,
er
A (B1 B2 Bk ) = (A B1 ) (A B2 ) (A Bk ). (A.1.9)
For to mngder A og B definerer man produktmngden A B ved
A B = {(x, y) | x A og y B},
det vil sige mngden af par (x, y), hvor x tilhrer A, og y tilhrer B.
Man kan ogs
a definere produktmngden af tre eller flere mngder. For
eksempel er produktmngden af tre mngder A, B og C givet ved
A B C = {(x, y, z) | x A og y B og z C}.
Man kan godt lave produktmngden A A af en mngde A med sig
selv. Den betegnes ofte med A2 . Tilsvarende betegnes produktmngden
A A A, hvor A forekommer k gange med Ak .
Lad t vre en afbildning fra en mngde A ind i en mngde B, lad C
vre en delmngde af A, og lad D vre en delmngde af B. Da defineres
billedmngden af C ved
t(C) = {t(x) | x C}
og originalmngden til D defineres ved
t1 (D) = {x A | t(x) D}.

A.1 Mngder og mngdeoperationer

255

Originalmngden best
ar alts
a af de elementer i A, som afbildes ind i
D, n
ar man anvender t p
a dem. Originalmngden kaldes ogs
a somme
tider urbilledet af D ved t. P
a trods af notationen kan originalmngden
defineres for enhver afbildning t, uanset om t har en invers afbildning
eller ej. I tilflde hvor t har en invers afbilding t1 , er originalmngden
lig billedmngden af D ved afbildningen t1 .
Eksempel A.1.1 Lad A = B = IR, og betragt funktionen t(x) = x2 .
Da er t(IR) = [0, ), t1 ((, 4]) = [2, 2], t1 ([0, 4]) = [2, 2] og
t1 ([1, 4]) = [2, 1] [1, 2].
2
Originalmngdedannelse passer (i modstning til billedmngdedannelse) fint sammen med mngdeoperationerne. Der glder s
aledes flgende
mngdeidentiteter, hvor C1 og C2 er delmngder af A:
t1 (B) = A

(A.1.10)

t1 (C1 C2 ) = t1 (C1 ) t1 (C2 )

(A.1.11)

t1 (C1 C2 ) = t1 (C1 ) t1 (C2 )

(A.1.12)

t1 (C1 \C2 ) = t1 (C1 )\t1 (C2 )

(A.1.13)

t1 (C1c ) = t1 (C1 )c .

(A.1.14)

Lad os bevise (A.1.11). Antag, at x t1 (C1 C2 ). Iflge definitionen


af originalmngden, betyder det, at t(x) C1 C2 . Det flger derfor
af definitionen af fllesmngden, at t(x) C1 og t(x) C2 , hvilket
per definition af originalmngder er det samme som x t1 (C1 ) og
x t1 (C2 ). Definitionen af fllesmngden giver til slut, at x t1 (C1 )
t1 (C2 ). Vi har dermed vist, at t1 (C1 C2 ) t1 (C1 ) t1 (C2 ). Det
overlades til lseren at bevise, at t1 (C1 C2 ) t1 (C1 )t1 (C2 ), s
aledes
at det kan sluttes, at (A.1.11) holder. Lseren opfordres til ogs
a at bevise
de vrige identiteter.

256

Om mngder

Et nyttigt hjlpemiddel i forbindelse med mngder er de s


akaldte
indikatorfunktioner. Indikatorfunktionen for en delmngde A af vores
univers E er en funktion fra E ind i IR defineret ved
1A (x) =

1 hvis x A
0 hvis x
/ A.

(A.1.15)

Indikatorfunktionen fortller alts


a, hvor mngden ligger. For to mngder A og B glder flgende regneregler:
1AB (x) = 1A (x)1B (x)

(A.1.16)

1A\B (x) = 1A (x) 1AB (x)

(A.1.17)

1Ac (x) = 1 1A (x)


1AB (x) = 1A (x) + 1B (x) 1AB (x).

(A.1.18)
(A.1.19)

Hvis A og B er disjunkte, er
1AB (x) = 1A (x) + 1B (x).

A.2

Opgaver

A.1 Vis regnereglerne (A.1.6), (A.1.7) og (A.1.8). Vis dernst, at disse


tre regneregler medfrer (A.1.5).
A.2 Lad A, B og C vre mngder. Som nvnt i teksten glder det i
almindelighed, at (A B) C 6= A (B C). Find en betingelse
p
a A og C, som sikrer, at (A B) C = A (B C).
A.3 Vis, at
(A\B) C = (A C)\(B C)
(A B)\C = (A\C) (B\C).
A.4 Vis (A.1.9)

A.2 Opgaver

257

A.5 Vis (A.1.10) (A.1.14)


A.6 Vis (A.1.16) (A.1.19)
A.7 Vis (A.1.6) og (A.1.7) ved hjlp af regnereglerne for indikatorfunktioner.

Appendiks B
Om kombinatorik
I hvor mange forskellige rkkeflger kan de 52 kort i et almindeligt kortspil lgges op, s
aledes at der aldrig ligger to af samme kulr (hermed
menes klr, ruder, hjerter eller spar) ved siden af hinanden? Hvor mange
synligt forskellige placeringer af 7 rde og 20 hvide kugler i 5 kasser er
mulige? Det er eksempler p
a sprgsm
al, hvis lsning hrer ind under det
felt der kaldes kombinatorik. Generelt kan man sige, at kombinatorikken
(i hvert fald i den snvre forstand, vi taler om den her) handler om
optlling af kombinationsmuligheder. I denne paragraf skal vi diskutere
lsningen af nogle meget simple kombinatoriske problemer, og indfre
nogle betegnelser i relation hertil.

B.1

Fakultetsfunktionen

For n IIN0 = {0, 1, 2, . . .} defineres


n! = 1 2 3 n

(B.1.1)

(udtales n fakultet). Man ser at 1! = 1, 2! = 2, 3! = 6, 4! = 24,


5! = 120. Definitionsmssigt sttes 0! = 1 (idet et tomt produkt altid
sttes til 1, ligesom en tom sum sttes til 0). I kombinatorikken er n!
antallet af rkkeflger, hvori n forskellige objekter kan opskrives. For
eksempel kan tallene fra 1 til 5 ordnes p
a 120 forskellige m
ader, fordi vi
for frste plads har 5 valgmuligheder, for anden plads derefter 4, o.s.v.

B.2 Nedadstigende faktoriel

B.2

259

Nedadstigende faktoriel

For 0 k n defineres
n(k) = n (n 1) (n k + 1).

(B.2.1)

En strrelse af denne slags kaldes et nedadstigende faktoriel. Tallet n(k) ,


ofte kaldet n i k rund, er alts
a produkt af de k p
a hinanden flgende
(0)
heltal fra n og nedefter. Definitionsmssigt sttes n = 1 (ogs
a for n =
0). Kombinatorisk kan denne strrelse fortolkes som antallet af ordnede
st, best
aende af k indbyrdes forskellige elementer fra en mngde med
n elementer. Antallet af ordnede st, best
aende af 25 forskellige tal fra
(25)
{1, . . . , 365}, er for eksempel 365 , jvf. Eksempel 1.2.2. Bemrk at der
glder
n(n) = n!
og
n(k) =

B.3

n!
.
(n k)!

Binomialkoefficienter

For 0 k n defineres

n!
n
n(k)
=
.
=
k!
k! (n k)!
k

(B.3.1)

Denne strrelse kaldes n over k. Tal af denne art er hele tal og kaldes
binomialkoefficienter. Det er m
aske ikke oplagt, at der er tale om hele tal,
men
 det flger af deres kombinatoriske fortolkning: Binomialkoefficienten

n
er antallet af delmngder med netop k elementer af en mngde
k
E med n elementer (f.eks. E = {1, . . . , n}). For at indse dette kan vi
bemrke, at antallet af ordnede st, best
aende af k forskellige elementer
fra en mngde E med n elementer, jo er n(k) . Ethvert s
adant st giver
p
a naturlig m
ade anledning til en delmngde af E med k elementer,
best
aende af de elementer, der forekommer i sttet. Men ved optllingen
af de ordnede k-st f
ar vi hver k-delmngde talt med k! gange, nemlig en
gang for hver mulig ordning af dens
elementer. Antallet af k-delmngder

n
(k)
af E bliver s
aledes n /k! = k .

260

Om kombinatorik

Bemrk, at der glder, at


!

n(n 1)
n
=
.
2
2

n
= n og
1

n
n
= 1,
=
n
0

Binomialkoefficienterne kan findes ved hjlp af Pascals trekant, hvis


top ser s
aledes ud:
1
1

1
1
1
1
1

4
5

10
15

10
20

5
15

1
6

Systemet er, at hvert tal er summen af de to nrmeste tal i linien ovenfor.


Der er uendelig mange rkker i trekanten. Det kan ret let vises, at der
for 0 < k < n glder, at
!

n1
n1
n
.
=
+
k
k1
k

(B.3.2)

Her er det kombinatoriske argument: En k-delmngde af {1, . . . , n} kan


enten udvlges ved at vlge alle k elementer i {1, . . . , n 1} eller ved
at vlge k 1 elementer i {1, . . . , n 1} og s
a tage n med som det
sidste element. Resultatet kan ogs
a vises ved direkte
eller ved
  beregning
 
n
n
et induktionsbevis. Formlen (B.3.2) sammen med 0 = n = 1 viser, at
hvis rkkerne i Pascals trekant nummereres 0, 1, 2, . . ., er den i-te rkke
netop binomialkoefficienterne
!

n
n
n
,
,...,
.
0
1
n
Binomialkoefficienterne er nok bedst kendt fra binomialformlen
n

(x + y) =

n
X

k=0

n k nk
x y ,
k

(B.3.3)

B.4 Polynomialkoefficienter

261

som for n = 2,3 og 4 antager de (mere eller mindre) velkendte former


(x + y)2 = x2 + 2xy + y 2 ,
(x + y)3 = x3 + 3x2 y + 3xy 2 + y 3 ,
(x + y)4 = x4 + 4x3 y + 6x2 y 2 + 4xy 3 + y 4 .
Binomialformlen kan vises ved induktion, men flger i vrigt ogs
a af
binomialkoefficienternes kombinatoriske fortolkning. N
ar man ganger ud
i produktet
(x + y)n = (x + y)(x + y) . . . (x + y)
f
ar man jo i frste omgang 2n led af formen xk y nk , og hvert af disse
svarer naturligt til en delmngde af {1, . . . , n}, best
aende af numrene p
a
de k faktorer hvorfra x-bidragene stammer.
ar man herefter samler
  N
led af samme grad, bliver der alts
a netop nk led af typen xk y nk .

B.4

Polynomialkoefficienter

For n IIN og (x1 , . . . , xk ) Dk (n) (k IIN), hvor


Dk (n) =
(B.4.1)
{(x1 , . . . , xk ) |xi {0, . . . , n}, i = 1, . . . , k, x1 + + xk = n},
defineres polynomialkoefficienten ved
n
x1 , . . . , x k

n!
.
x1 ! x k !

(B.4.2)

Denne strrelse kaldes ogs


a en multinomialkoefficient. Ogs
a den har en
kombinatorisk fortolkning: Den er lig antallet af m
ader, hvorp
a man
af en mngde M med n elementer kan vlge k disjunkte delmngder
M1 , . . . , Mk , s
aledes at ]Mi = xi , i = 1, . . . , k og M = M1 Mk .
Dette kan indses p
aflgende m
ade. Frst vlges de x1 elementer i M1 .
n
ader. Dernst vlges de x2 elementer i M2 blandt
Det kan gres p
a x1 m


1
m
ader.
de resterende n x1 elementer i M . Dette kan gres p
a nx
x2
S
aledes fortstter man udvlgelsen af elementerne i mngderne Mi . N
ar
elementerne i Mk1 skal vlges, er der n (x1 + + xk2 ) elementer

262

Om kombinatorik


k2 )
m
ader at vlge
tilbage at vlge iblandt, hvorfor der er n(x1 x++x
k1
elementerne i Mk1 p
a. Der er nu n (x1 + + xk1 ) = xk elementer
tilbage, som alts
a udgr Mk . Det nskede antal er produktet af de fundne
antal muligheder for de enkelte delmngder, alts
a

n
x1

n x1
x2

n (x1 + + xk2 )
n x1 x2

xk1
x3

n!
(n x1 )!
(n x1 x2 )!

x1 !(n x1 )! x2 !(n x1 x2 )! x3 !(n x1 x2 x3 )!


(n (x1 + + xk2 )!

xk1 !(n (x1 + + xk1 ))!


n!
.
=
x1 ! x k !
=

B.5

Opgaver

B.1 Vis formel (B.3.2). Overvej den kombinatoriske fortolkning af Pascals trekant.
B.2 Vis binomialformlen (B.3.3), f.eks. ved induktion.
B.3 Vis at

n
n
=
x1 , . . . , x k
xk

n xk
.
x1 , . . . xk1

Forklar denne relation kombinatorisk. Skitser et bevis for polynomialkoefficientens kombinatoriske fortolkning ved induktion efter
k.

Appendiks C
Om uendelige rkker
Lad {x1 , x2 , x3 , . . .} vre en flge af reelle tal, og definer
sn =

n
X

xi .

i=1

Man siger, at den uendelige rkke


i=1 xi er konvergent med sum s, hvis
limn sn = s. I s
a fald skriver man

xi = s.

i=1

Nu flger en liste over resultater vedrrende uendelige rkker, som


ofte benyttes i sandsynlighedsregning. Der gives ingen beviser her.
1) Hvis rkken

i=1

xi er konvergent, m
a der glde, at xn 0.
P

2) Antag xi 0, og at rkken
x er konvergent. Hvis |yi | xi for
P i=1 i
alle i IIN, er ogs
a rkken i=1 yi konvergent.

3) Hvis rkkerne
tal, er

i=1

xi og

i=1

yi er konvergente, og a og b er reelle

(axi + byi ) = a

i=1

X
i=1

xi + b

X
i=1

yi .

264

Om uendelige rkker

4) Lad {xij |i IIN, j IIN} vre en reel dobbelt talflge, for hvilken
xij 0 for alle i og j. Da er

X
X

xij ) =

X
X

xij ),

j=1 i=1

i=1 j=1

i den forstand, at hvis en af siderne eksisterer, s


a eksisterer den anden
P
ogs
a, og de er lige store. Mere prcist glder, at hvis rkken
j=1 xij =
P
si er konvergent for alle i IIN, og hvis rkken i=1 si = s er konvergent,
P
da er rkken
i=1 xij = tj konvergent for ethvert j IIN, og rkken
P
j=1 tj er konvergent med sum s. Da summationsrkkeflgen er uden
betydning, skriver man ofte
X

xij = s.

i,j

N
ar dobbeltrkken er konvergent med sum s, glder det yderligere for
enhver bijektion n 7 (i(n), j(n)) af IIN p
a IIN2 , at

xi(n)j(n) = s.

n=1

5) Lad {xij |i IIN, j IIN} vre en reel dobbelt talflge, for hvilken
P
i,j |xij | er konvergent. Da er
X

xij ) =

i=1 j=1

xij ),

j=1 i=1

i den forstand, at hvis en af siderne eksisterer, s


a eksisterer den anden
ogs
a, og de er lige store. Yderligere glder for enhver bijektion n 7
(i(n), j(n)) af IIN p
a IIN2 , at

xi(n)j(n) = s.

n=1

6) Lad {xij |i IIN, j = 1, . . . , i} vre en s


akaldt trekantsflge af reelle tal.
P
Pi
Hvis enten xij 0 for alle i og j, eller hvis
i=1 ( j=1 |xij |) er konvergent,
s
a er
X
i
X

i=1 j=1

xij ) =

j=1 i=j

xij ).

265
Eksempel C.1 For ethvert reelt tal a 6= 1 er
sn =

n
X

ai =

i=0

1 an+1
,
1a

hvilket flger af at sn asn = 1 an+1 . Hvis |a| < 1, er rkken


derfor konvergent og

X
1
.
ai =
1a
i=0
Hvad er

i=1

(C.0.1)
P

i=0

ai

ai ?

Eksempel C.2 Det kan vises, at der for ethvert reelt tal x glder, at

X
i=0

xi
= exp(x).
i!
2

Eksempel C.3 Da det kan indses, at


n
X

1
log(n + 1),
i=1 i

er rkken

1
i=1 i

ikke konvergent.
2

Appendiks D
Om integraler
D.1

Funktioner af
en variabel

1) Det antages, at lseren er fortrolig med integralet af en funktion f , som


er kontinuert p
a et endeligt interval [a, b]. Der mindes om, at integralet
er grnsevrdien af en flge af middelsummer svarende til en inddeling
af intervallet [a, b], som for eksempel
a<a+

ba
ba
ba
<a+2
< . . . < a + (n 1)
< b,
n
n
n

d.v.s.
Z

b
a

n




baX
f a + i 21 (b a)/n .
n
n i=1

f (x)dx = lim

2) Antag nu, at f er en begrnset funktion p


a det endelige interval [a, b],
for hvilken der findes reelle tal a0 = a < a1 < . . . < an1 < an = b, s
af
er kontinuert p
a ethvert af intervallerne (ai1 , ai ), i = 1, . . . , n. Vi kalder
s
adan en funktion en begrnset stykvis kontinuert funktion. Integralet
af f kan defineres ved
Z

b
a

f (x)dx =

n Z
X

ai

i=1 ai1

f (x)dx

3) Vi har brug for at integrere funktioner, som er defineret p


a hele den
reelle akse. Lad f vre en funktion fra IR ind i [0, ), som er begrnset

D.1 Funktioner af
en variabel

267

og stykvis kontinuert p
a ethvert af intervallerne [n, n], n = 1, 2, . . ..
Hvis den voksende flge
Z n
f (x)dx
n

er konvergent for n , siger vi, at f er integrabel (p


a IR) med integralet
Z
Z n
f (x)dx = lim
f (x)dx
Rn

n n

Hvis flgen n f (x)dx g


ar mod uendelig, skriver man
f (x)dx = .
I denne situation siger man, at f ikke er integrabel.
Hvis en ikke-negativ funktion f kun er defineret p
a [0, ) og er begrnset og stykvis liner p
a ethvert af intervallerne [0, n], n = 1, 2, . . .,
betragter man i stedet flgen

n
0

f (x)dx.

Hvis denne er konvergent, siger vi, at f er integrabel (p


a [0, )) med
integralet
Z n
Z
f (x)dx.
f (x)dx = lim
n 0

Hvis f er defineret p
a intervaller af formen (, a] eller [a, ) kan man
forsge sig med en tilsvarende fremgangsm
ade.
Eksempel D.1.1 Funktion f (x) = ex er kontinuert og afbilder [0, )
ind i [0, 1]. Da
Z
n

ex dx = 1 en 1,

n
ar n , er f integrabel p
a [0, ), og
Z

ex dx = 1.
2

Eksempel D.1.2 Funktion f (x) = 1/(1 + x) er kontinuert og afbilder


[0, ) ind i [0, 1]. Da
Z

1/(1 + x)dx = log(1 + n),

268

Om integraler

er f ikke integrabel p
a [0, ).

4) Ogs
a funktioner, som er defineret
a et begrnset interval, kan give
p
problemer. Funktionen f (x) = 1/ x defineret p
a (0, 1] er et eksempel.
Den er ikke begrnset. Lad mere generelt f vre en ikke-negativ funktion
defineret p
a intervallet (a, b], som er kontinuert p
a (a, b], men for hvilken
f (x) , n
ar x a. Da eksisterer integralerne
Z

b
1
a+ n

f (x)dx.

Hvis de konvergerer for n , siger vi, at f er integrabel p


a (a, b] med
integral
Z b
Z b
f (x)dx.
f (x)dx = lim
1
n a+
n

I modsat fald skriver vi

Rb
a

f (x)dx = og siger, at f ikke er integrabel.

Eksempel D.1.3 Betragt funktionen f (x) = 1/ x for x (0, 1]. Da


Z

1
1
n

1
2
dx = 2 2
x
n

for n , er f alts
a integrabel p
a (0, 1] med integralet 2.

Eksempel D.1.4 Betragt mere generelt funktionen f (x) = x for x


(0, 1], hvor er et positivt reelt tal. Da
Z

for 6= 1, og da

1
1
n

1
1
n

1 n1
dx =
1

x1 dx = log(n),

ser vi, at f er integrabel med integral 1/(1 ), n


ar 0 < < 1, mens f
ikke er integrabel, n
ar 1.
2

D.1 Funktioner af
en variabel

269

For endelige intervaller, hvor der er problemer i den anden ende eller
i begge ender, kan en tilsvarende metode anvendes.
5) Lad os nu betragte funktioner, som ogs
a kan antage negative vrdier.
Her skal man passe lidt p
a, som flgende eksempel viser.
Eksempel D.1.5 Funktionen f (x) = x/(1 + x2 ) opfylder, at
Z

n
n

x/(1 + x2 )dx = 0

for alle n, da f er en ulige funktion. Man kunne derfor fristes til at mene,
at f er integrabel p
a IR. P
a den anden side, er
Z

n
0

x/(1 + x2 )dx = 21 log(1 + n2 )

for n , s
a f er ikke integrabel p
a [0, ). P
a lignende m
ade indses
det, at f heller ikke er integrabel p
a (, 0]. Det er derfor urimeligt at
sige, at f er integrabel p
a IR.
2
For at undg
a urimeligheder, som at kalde funktionen i Eksempel C.5
integrabel, siger vi, at en reel funktion f er integrabel, hvis den ikkenegative funktion |f | er integrabel. Hvis |f | er integrabel, kan vi uden
problemer definere integralet af f , som vi ovenfor gjorde for ikke-negative
funktioner.
Eksempel D.1.6 Funktionen f (x) = x(1 + x2 )2 opfylder, at
Z

n
0

x(1 + x2 )2 dx = 12 (1 (1 + n2 )1 )

1
2

for n . Lseren kan overbevise sig om, at dette medfrer, at |f |,


som er symmetrisk om nul, er integrabel p
a IR. Integralet af den ulige
funktion f over hele IR er nul.
2
Flgende stning er ikke vanskelig at bevise ud fra definitionen p
a
integrabilitet.

270

Om integraler

Stning D.1.7 Lad f og g vre to funktioner fra intervallet I ind i IR.


Hvis g er integrabel p
a I, og hvis |f (x)| |g(x)| for alle x I, s
a er f
ogs
a integrabel p
a I.
Eksempel D.1.6 (fortsat) Vi kan ved hjlp af Stning D.1.7 give et
enklere argument for, at funktionen f (x) = x(1 + x2 )2 er integrabel p
a
IR. Den opfylder nemlig, at |f (x)| g(x) for alle x IR, hvor
g(x) =

1
|x|3

for |x| 1
for |x| > 1,

og det er ikke vanskeligt at se, at g er integrabel p


a IR.
2

D.2

Funktioner af flere variable

Vi har ogs
a brug for at integrere funktioner af flere variable. For at lette
notationen betragter vi i dette appendiks hovedsagelig funktioner af to
variable.
Vi vil ikke bevise noget her, kun forsge at motivere en definition af
integration i IR2 . Betragt en kontinuert funktion f : [a1 , a2 ][b1 , b2 ] 7 IR.
Det er naturligt at definere integralet af f over A = [a1 , a2 ] [b1 , b2 ] som
en grnsevrdi:
Z

f (x, y)dxdy = lim

n X
n
X

f (xi , yj )

i=1 j=1

(a2 a1 )(b2 b1 )
.
n2


(D.2.1)

hvor xi = a1 + i 12 (a2 a1 )/n og yj = b1 + j 21 (b2 b1 )/n. Vi


har inddelt A i n2 sm
a rektangler, hver med arealet (a2 a1 )(b2 b1 )n2 .
Punkterne (xi , yj ) er midtpunkterne i disse rektangler.
Hvordan kan man beregne dette integral? For at belyse det, holder vi
frst i fast i (D.2.1). Vi kan da opfatte
n
X

f (xi , yj )

j=1

(b2 b1 )
n

som en middelsum, der approksimerer integralet


Z

b2
b1

f (xi , y)dy.

D.2 Funktioner af flere variable

271

Definer funktionen
Z

f1 (x) =

b2
b1

x [a1 , a2 ].

f (x, y)dy,

Her holdes x alts


a fast, mens der integreres med hensyn til y. Vi har da,
at
Z

n
X

n
X

(b2 b1 ) (a2 a1 )

f (x, y)dxdy '


f (xi , yj )
n
n
A
i=1 j=1
'
'

n
X

f1 (xi )

i=1
a2

a1

(a2 a1 )
n

f1 (x)dx,

idet summen i nstsidste linie er en middelsum, som approksimerer integralet i sidste linie. Vi har dermed givet et intuitivt argument for, at
integralet af f over A kan beregnes ved formlen
Z

f (x, y)dxdy =

a2
a1

b2
b1

f (x, y)dy dx,

(D.2.2)

alts
a som et s
akaldt dobbeltintegral. Frst holdes x fast, og der integreres
med hensyn til y. Derved opn
as en funktion af x, som dernst integreres
over [a1 , a2 ]. Det er sjldent, man ulejliger sig med at skrive parentesen
omkring det indre integral.
Det er klart, at vi lige s
a godt kunne have defineret integralet af f
over A ved

Z
Z Z
A

f (x, y)dxdy =

b2

b1

a2

a1

f (x, y)dx dy.

(D.2.3)

Det kan vises, at den rkkeflge, i hvilken vi vlger at integrere m.h.t.


x og y er ligegyldig. Resultatet bliver det samme.
Eksempel D.2.1 Funktionen f (x, y) = x y er kontinuert p
a A =
[0, 1] [0, 1]. Da
f1 (x) =

1
0

(x y)dy =

x
0

ydy +

1
x

xdy = x2 /2 + x(1 x) = x x2 /2,

272

Om integraler

er

(x y)dxdy =

1
0

(x x2 /2)dx = 31 .
2

Vi kan definere integralet af f over A ved (D.2.2) for enhver funktion f , for hvilken de to integrationer kan udfres. Hvis for eksempel
funktionen f opfylder, at y 7 f (x, y) er en begrnset stykvis
kontinuert
R b2
funktion for enhver fastholdt vrdi af x, og hvis x 7 b1 f (x, y)dy er af
samme type, kan vi definere integralet af f over A ved (D.2.2).
Eksempel D.2.2 Betragt funktionen f defineret p
a A = [0, 1] [0, 1]
ved f (x, y) = 1B (x, y), hvor B = {(x, y) A|x y}. Da
f1 (x) =
er

1
0

1B (x, y)dy =

1B (x, y)dxdy =

x
0

1dy +
1

1
x

0dy = x,

xdx = 21 .

Bemrk, at integralet er lig arealet af B.


2
Hvis vi vil integrere en funktion over hele IR2 , m
a vi ligesom i Afsnit
D.1 passe lidt p
a. Igen antager vi frst, at f (x, y) 0 for alle (x, y) IR 2 .
Vi definerer An = [n, n] [n, n] og siger, at f er integrabel (p
a IR2 ),
hvis den voksende flge
Z
f (x, y)dxdy
An

konvergerer for n . I s
a fald defineres
Z

IR2

f (x, y)dxdy = lim

n An

f (x, y)dxdy.

(D.2.4)

Hvis flgen An f (x, y)dxdy g


ar mod uendelig, siger man, at f ikke er
integrabel. Hvis f kan antage b
ade negative og positive vrdier, m
a man
frst undersge, om |f | er integrabel. Hvis den er det, siger man, at f er
integrabel, og definere integralet af f over IR2 ved (D.2.4).

D.2 Funktioner af flere variable

273

Hvis f 0, kan man beregne integralet af f over IR2 p


a to m
ader
ved hjlp af dobbeltintegraler
Z

IR2

f (x, y)dxdy =

Z

f (x, y)dy dx =

Z

f (x, y)dx dy.

Hvis et af dobbeltintegralerne giver et endeligt tal, er f integrabel, og


integralet er lig begge dobbeltintegraler. Hvis f kan antage b
ade negative
2
og positive vrdier, kan integralet af f over IR ogs
a beregnes ved de to
dobbeltintegraler, hvis man vel at mrke ved, at f er integrabel. Man
m
a alts
a frst undersge om |f | er integrabel, f. eks. ved at beregne et
dobbeltintegral.
Hvis B er en begrnset delmngde af IR2 , som er pn nok til, at den
kan tilskrives et areal, glder det generelt at
Z

1B (x, y)dxdy = |B|,

IR2

(D.2.5)

hvor |B| betegner arealet af B, se Eksempel D.2.2. Ved igen at se p


a
(D.2.1), indser man, at dette ikke er s
a mrkeligt. Summen, der approksimerer integralet, er jo netop en sum af arealer af sm
a rektangler, som
omtrent dkker B.
Alt hvad der her er sagt om funktioner af to variable, kan gentages
ord til andet om funktioner af flere variable. For f : IRn 7 [0, ) er alts
a
Z

IRn

f (x1 , . . . , xn )dx1 dxn =

Z

Z

f (x1 , . . . , xn )dxn dxn1 dx1 .

Integrationerne kan ogs


a udfres i en anden rkkeflge. Hvis f kan antage
b
ade negative og positive vrdier, kan integralet af f over IR n udregnes
p
a samme m
ade, hvis |f | er integrabel over IRn .
For en delmngde B af IR3 er
Z

IR3

1B (x1 , x2 , x3 )dx1 dx2 dx3

lig Bs volumen (rumfang). Generelt kan vi definere volumenet af en delmngde B af IRn som
|B| =

IRn

1B (x1 , . . . , xn )dx1 dxn .

(D.2.6)

274

Om integraler

Hvis indikatorfunktionen 1B ikke er integrabel, siges B at have uendeligt


volumen.
Hvis en funktion f kun er defineret p
a en delmngde B af IRn , eller hvis vi kun nsker at integrere f over mngden B, kan vi definere
integralet af f over B ved
Z

f (x1 , . . . , xn )dx1 dxn =

IRn

1B (x1 , . . . , xn )f (x1 , . . . , xn )dx1 dxn ,

hvor 1B er indikatorfunktionen for B. Alts


a ved at stte funktionen lig
nul udenfor B.

Appendiks E
Tabeller
I dette appendiks gives nogle tabeller vedrrende normalfordelingen, 2 fordelingen, t-fordelingen og F-fordelingen, som er nyttige i forbindelse
med test af statistiske hypoteser. Endvidere angives det grske alfabet.

276

E.1

Tabeller

Standard normalfordelingen

Tabellen giver samhrende vrdier u og p, s


a der for en standard normalfordelt stokastisk variabel U glder, at P (U > u) = p.
p
0.500
0.490
0.480
0.470
0.460
0.450
0.440
0.430
0.420
0.410
0.400
0.390
0.380
0.370
0.360
0.350
0.340
0.330
0.320
0.310
0.300
0.290
0.280
0.270
0.260
0.250
0.240
0.230
0.220
0.210
0.200
0.190
0.180
0.170
0.160
0.150
0.140
0.130
0.120
0.110
0.100
0.090
0.080
0.070
0.060

u
0.000
0.025
0.050
0.075
0.100
0.126
0.151
0.176
0.202
0.228
0.253
0.279
0.305
0.332
0.358
0.385
0.412
0.440
0.468
0.496
0.524
0.553
0.583
0.613
0.643
0.674
0.706
0.739
0.772
0.806
0.842
0.878
0.915
0.954
0.994
1.036
1.080
1.126
1.175
1.227
1.282
1.341
1.405
1.476
1.555

p
0.050
0.049
0.048
0.047
0.046
0.045
0.044
0.043
0.042
0.041
0.040
0.039
0.038
0.037
0.036
0.035
0.034
0.033
0.032
0.031
0.030
0.029
0.028
0.027
0.026
0.025
0.024
0.023
0.022
0.021
0.020
0.019
0.018
0.017
0.016
0.015
0.014
0.013
0.012
0.011
0.010
0.009
0.008
0.007
0.006

u
1.645
1.655
1.665
1.675
1.685
1.695
1.706
1.717
1.728
1.739
1.751
1.762
1.774
1.787
1.799
1.812
1.825
1.838
1.852
1.866
1.881
1.896
1.911
1.927
1.943
1.960
1.977
1.995
2.014
2.034
2.054
2.075
2.097
2.120
2.144
2.170
2.197
2.226
2.257
2.290
2.326
2.366
2.409
2.457
2.512

p
0.0050
0.0049
0.0048
0.0047
0.0046
0.0045
0.0044
0.0043
0.0042
0.0041
0.0040
0.0039
0.0038
0.0037
0.0036
0.0035
0.0034
0.0033
0.0032
0.0031
0.0030
0.0029
0.0028
0.0027
0.0026
0.0025
0.0024
0.0023
0.0022
0.0021
0.0020
0.0019
0.0018
0.0017
0.0016
0.0015
0.0014
0.0013
0.0012
0.0011
0.0010
0.0009
0.0008
0.0007
0.0006

u
2.576
2.583
2.590
2.597
2.605
2.612
2.620
2.628
2.636
2.644
2.652
2.661
2.669
2.678
2.687
2.697
2.706
2.716
2.727
2.737
2.748
2.759
2.770
2.782
2.794
2.807
2.820
2.834
2.848
2.863
2.878
2.894
2.911
2.929
2.948
2.968
2.989
3.011
3.036
3.062
3.090
3.121
3.156
3.195
3.239

p
0.000500
0.000490
0.000480
0.000470
0.000460
0.000450
0.000440
0.000430
0.000420
0.000410
0.000400
0.000390
0.000380
0.000370
0.000360
0.000350
0.000340
0.000330
0.000320
0.000310
0.000300
0.000290
0.000280
0.000270
0.000260
0.000250
0.000240
0.000230
0.000220
0.000210
0.000200
0.000190
0.000180
0.000170
0.000160
0.000150
0.000140
0.000130
0.000120
0.000110
0.000100
0.000090
0.000080
0.000070
0.000060

u
3.291
3.296
3.302
3.308
3.314
3.320
3.326
3.333
3.339
3.346
3.353
3.360
3.367
3.374
3.382
3.390
3.398
3.406
3.414
3.423
3.432
3.441
3.450
3.460
3.470
3.481
3.492
3.503
3.515
3.527
3.540
3.554
3.568
3.583
3.599
3.615
3.633
3.652
3.673
3.695
3.719
3.746
3.775
3.808
3.846

p
0.000050
0.000049
0.000048
0.000047
0.000046
0.000045
0.000044
0.000043
0.000042
0.000041
0.000040
0.000039
0.000038
0.000037
0.000036
0.000035
0.000034
0.000033
0.000032
0.000031
0.000030
0.000029
0.000028
0.000027
0.000026
0.000025
0.000024
0.000023
0.000022
0.000021
0.000020
0.000019
0.000018
0.000017
0.000016
0.000015
0.000014
0.000013
0.000012
0.000011
0.000010
0.000009
0.000008
0.000007
0.000006

u
3.891
3.895
3.900
3.906
3.911
3.916
3.921
3.927
3.933
3.938
3.944
3.950
3.957
3.963
3.970
3.976
3.983
3.990
3.998
4.005
4.013
4.021
4.029
4.038
4.046
4.056
4.065
4.075
4.085
4.096
4.107
4.119
4.132
4.145
4.159
4.173
4.189
4.206
4.224
4.244
4.265
4.288
4.314
4.344
4.378

E.2 2 -fordelingen

E.2

277

2-fordelingen

For hvert p og f angives tallet x, som opfylder, at P (X > x) = p, hvis


X er 2 -fordelt med f frihedsgrader.
f
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45

p = 0.05
3.841
5.991
7.815
9.488
11.070
12.592
14.067
15.507
16.919
18.307
19.675
21.026
22.362
23.685
24.996
26.296
27.587
28.869
30.144
31.410
32.671
33.924
35.172
36.415
37.652
38.885
40.113
41.337
42.557
43.773
44.985
46.194
47.400
48.602
49.802
50.998
52.192
53.384
54.572
55.758
56.942
58.124
59.304
60.481
61.656

p = 0.01
6.635
9.210
11.345
13.277
15.086
16.812
18.475
20.090
21.666
23.209
24.725
26.217
27.688
29.141
30.578
32.000
33.409
34.805
36.191
37.566
38.932
40.289
41.638
42.980
44.314
45.642
46.963
48.278
49.588
50.892
52.191
53.486
54.776
56.061
57.342
58.619
59.893
61.162
62.428
63.691
64.950
66.206
67.459
68.710
69.957

p = 0.005
7.879
10.597
12.838
14.860
16.750
18.548
20.278
21.955
23.589
25.188
26.757
28.300
29.819
31.319
32.801
34.267
35.718
37.156
38.582
39.997
41.401
42.796
44.181
45.559
46.928
48.290
49.645
50.993
52.336
53.672
55.003
56.328
57.648
58.964
60.275
61.581
62.883
64.181
65.476
66.766
68.053
69.336
70.616
71.893
73.166

p = 0.001
10.828
13.816
16.266
18.467
20.515
22.458
24.322
26.124
27.877
29.588
31.264
32.909
34.528
36.123
37.697
39.252
40.790
42.312
43.820
45.315
46.797
48.268
49.728
51.179
52.620
54.052
55.476
56.892
58.301
59.703
61.098
62.487
63.870
65.247
66.619
67.985
69.346
70.703
72.055
73.402
74.745
76.084
77.419
78.750
80.077

p = 0.0001
15.137
18.421
21.108
23.513
25.745
27.856
29.878
31.828
33.720
35.564
37.367
39.134
40.871
42.579
44.263
45.925
47.566
49.189
50.795
52.386
53.962
55.525
57.075
58.613
60.140
61.657
63.164
64.662
66.152
67.633
69.106
70.571
72.030
73.481
74.926
76.365
77.798
79.225
80.646
82.062
83.473
84.879
86.281
87.677
89.070

278

E.3

Tabeller

t-fordelingen

For hvert p og f angives tallet x, som opfylder, at P (X > x) = p, hvis


X er t-fordelt med f frihedsgrader.
f
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
22
24
26
28
30
32
34
36
38
40
45
50
55
60
70
80
90
100
125
150
175
200
300
400
500

p = 0.05
6.314
2.920
2.353
2.132
2.015
1.943
1.895
1.860
1.833
1.812
1.796
1.782
1.771
1.761
1.753
1.746
1.740
1.734
1.729
1.725
1.717
1.711
1.706
1.701
1.697
1.694
1.691
1.688
1.686
1.684
1.679
1.676
1.673
1.671
1.667
1.664
1.662
1.660
1.657
1.655
1.654
1.653
1.650
1.649
1.648
1.645

p = 0.025
12.706
4.303
3.182
2.776
2.571
2.447
2.365
2.306
2.262
2.228
2.201
2.179
2.160
2.145
2.131
2.120
2.110
2.101
2.093
2.086
2.074
2.064
2.056
2.048
2.042
2.037
2.032
2.028
2.024
2.021
2.014
2.009
2.004
2.000
1.994
1.990
1.987
1.984
1.979
1.976
1.974
1.972
1.968
1.966
1.965
1.960

p = 0.01
31.821
6.965
4.541
3.747
3.365
3.143
2.998
2.896
2.821
2.764
2.718
2.681
2.650
2.624
2.602
2.583
2.567
2.552
2.539
2.528
2.508
2.492
2.479
2.467
2.457
2.449
2.441
2.434
2.429
2.423
2.412
2.403
2.396
2.390
2.381
2.374
2.368
2.364
2.357
2.351
2.348
2.345
2.339
2.336
2.334
2.326

p = 0.001
318.309
22.327
10.215
7.173
5.893
5.208
4.785
4.501
4.297
4.144
4.025
3.930
3.852
3.787
3.733
3.686
3.646
3.610
3.579
3.552
3.505
3.467
3.435
3.408
3.385
3.365
3.348
3.333
3.319
3.307
3.281
3.261
3.245
3.232
3.211
3.195
3.183
3.174
3.157
3.145
3.137
3.131
3.118
3.111
3.107
3.090

p = 0.0001
3183.099
70.700
22.204
13.034
9.678
8.025
7.063
6.442
6.010
5.694
5.453
5.263
5.111
4.985
4.880
4.791
4.714
4.648
4.590
4.539
4.452
4.382
4.324
4.275
4.234
4.198
4.167
4.140
4.116
4.094
4.049
4.014
3.986
3.962
3.926
3.899
3.878
3.862
3.832
3.813
3.799
3.789
3.765
3.754
3.747
3.719

E.4 F-fordelingen

E.4

279

F-fordelingen

95 procent fraktiler.

1
2
3
4
5
6
7
8
9
10
11
12
13
14
f2 15
16
18
20
25
30
35
40
50
60
70
80
90
100
200
500

1
2
3
4
5
6
7
f2 8
9
10
11
12
13
14
15

1
161
18.5
10.1
7.71
6.61
5.99
5.59
5.32
5.12
4.96
4.84
4.75
4.67
4.60
4.54
4.49
4.41
4.35
4.24
4.17
4.12
4.08
4.03
4.00
3.98
3.96
3.95
3.94
3.89
3.86

16
246
19.4
8.69
5.84
4.60
3.92
3.49
3.20
2.99
2.83
2.70
2.60
2.51
2.44
2.38

2
200
19.0
9.55
6.94
5.79
5.14
4.74
4.46
4.26
4.10
3.98
3.89
3.81
3.74
3.68
3.63
3.55
3.49
3.39
3.32
3.27
3.23
3.18
3.15
3.13
3.11
3.10
3.09
3.04
3.01

18
247
19.4
8.67
5.82
4.58
3.90
3.47
3.17
2.96
2.80
2.67
2.57
2.48
2.41
2.35

3
216
19.2
9.28
6.59
5.41
4.76
4.35
4.07
3.86
3.71
3.59
3.49
3.41
3.34
3.29
3.24
3.16
3.10
2.99
2.92
2.87
2.84
2.79
2.76
2.74
2.72
2.71
2.70
2.65
2.62

20
248
19.5
8.66
5.80
4.56
3.87
3.44
3.15
2.94
2.77
2.65
2.54
2.46
2.39
2.33

4
225
19.3
9.12
6.39
5.19
4.53
4.12
3.84
3.63
3.48
3.36
3.26
3.18
3.11
3.06
3.01
2.93
2.87
2.76
2.69
2.64
2.61
2.56
2.53
2.50
2.49
2.47
2.46
2.42
2.39

25
249
19.5
8.63
5.77
4.52
3.83
3.40
3.11
2.89
2.73
2.60
2.50
2.41
2.34
2.28

5
230
19.3
9.01
6.26
5.05
4.39
3.97
3.69
3.48
3.33
3.20
3.11
3.03
2.96
2.90
2.85
2.77
2.71
2.60
2.53
2.49
2.45
2.40
2.37
2.35
2.33
2.32
2.31
2.26
2.23

30
250
19.5
8.62
5.75
4.50
3.81
3.38
3.08
2.86
2.70
2.57
2.47
2.38
2.31
2.25

6
234
19.3
8.94
6.16
4.95
4.28
3.87
3.58
3.37
3.22
3.09
3.00
2.92
2.85
2.79
2.74
2.66
2.60
2.49
2.42
2.37
2.34
2.29
2.25
2.23
2.21
2.20
2.19
2.14
2.12

35
251
19.5
8.60
5.73
4.48
3.79
3.36
3.06
2.84
2.68
2.55
2.44
2.36
2.28
2.22

7
237
19.4
8.89
6.09
4.88
4.21
3.79
3.50
3.29
3.14
3.01
2.91
2.83
2.76
2.71
2.66
2.58
2.51
2.40
2.33
2.29
2.25
2.20
2.17
2.14
2.13
2.11
2.10
2.06
2.03

40
251
19.5
8.59
5.72
4.46
3.77
3.34
3.04
2.83
2.66
2.53
2.43
2.34
2.27
2.20

f1
8
239
19.4
8.85
6.04
4.82
4.15
3.73
3.44
3.23
3.07
2.95
2.85
2.77
2.70
2.64
2.59
2.51
2.45
2.34
2.27
2.22
2.18
2.13
2.10
2.07
2.06
2.04
2.03
1.98
1.96
f1
50
252
19.5
8.58
5.70
4.44
3.75
3.32
3.02
2.80
2.64
2.51
2.40
2.31
2.24
2.18

9
241
19.4
8.81
6.00
4.77
4.10
3.68
3.39
3.18
3.02
2.90
2.80
2.71
2.65
2.59
2.54
2.46
2.39
2.28
2.21
2.16
2.12
2.07
2.04
2.02
2.00
1.99
1.97
1.93
1.90

60
252
19.5
8.57
5.69
4.43
3.74
3.30
3.01
2.79
2.62
2.49
2.38
2.30
2.22
2.16

10
242
19.4
8.79
5.96
4.74
4.06
3.64
3.35
3.14
2.98
2.85
2.75
2.67
2.60
2.54
2.49
2.41
2.35
2.24
2.16
2.11
2.08
2.03
1.99
1.97
1.95
1.94
1.93
1.88
1.85

70
252
19.5
8.57
5.68
4.42
3.73
3.29
2.99
2.78
2.61
2.48
2.37
2.28
2.21
2.15

11
243
19.4
8.76
5.94
4.70
4.03
3.60
3.31
3.10
2.94
2.82
2.72
2.63
2.57
2.51
2.46
2.37
2.31
2.20
2.13
2.07
2.04
1.99
1.95
1.93
1.91
1.90
1.89
1.84
1.81

80
253
19.5
8.56
5.67
4.41
3.72
3.29
2.99
2.77
2.60
2.47
2.36
2.27
2.20
2.14

12
244
19.4
8.74
5.91
4.68
4.00
3.57
3.28
3.07
2.91
2.79
2.69
2.60
2.53
2.48
2.42
2.34
2.28
2.16
2.09
2.04
2.00
1.95
1.92
1.89
1.88
1.86
1.85
1.80
1.77

90
253
19.5
8.56
5.67
4.41
3.72
3.28
2.98
2.76
2.59
2.46
2.36
2.27
2.19
2.13

13
245
19.4
8.73
5.89
4.66
3.98
3.55
3.26
3.05
2.89
2.76
2.66
2.58
2.51
2.45
2.40
2.31
2.25
2.14
2.06
2.01
1.97
1.92
1.89
1.86
1.84
1.83
1.82
1.77
1.74

100
253
19.5
8.55
5.66
4.41
3.71
3.27
2.97
2.76
2.59
2.46
2.35
2.26
2.19
2.12

14
245
19.4
8.71
5.87
4.64
3.96
3.53
3.24
3.03
2.86
2.74
2.64
2.55
2.48
2.42
2.37
2.29
2.22
2.11
2.04
1.99
1.95
1.89
1.86
1.84
1.82
1.80
1.79
1.74
1.71

200
254
19.5
8.54
5.65
4.39
3.69
3.25
2.95
2.73
2.56
2.43
2.32
2.23
2.16
2.10

15
246
19.4
8.70
5.86
4.62
3.94
3.51
3.22
3.01
2.85
2.72
2.62
2.53
2.46
2.40
2.35
2.27
2.20
2.09
2.01
1.96
1.92
1.87
1.84
1.81
1.79
1.78
1.77
1.72
1.69

500
254
19.5
8.53
5.64
4.37
3.68
3.24
2.94
2.72
2.55
2.42
2.31
2.22
2.14
2.08

280

Tabeller

99 procent fraktiler.

1
2
3
4
5
6
7
8
9
10
11
12
13
14
f2 15
16
18
20
25
30
35
40
50
60
70
80
90
100
200
500

1
2
3
4
5
6
7
f2 8
9
10
11
12
13
14
15

1
4052
98.5
34.1
21.2
16.3
13.8
12.3
11.3
10.6
10.0
9.65
9.33
9.07
8.86
8.68
8.53
8.29
8.10
7.77
7.56
7.42
7.31
7.17
7.08
7.01
6.96
6.93
6.90
6.76
6.69

16
6170
99.4
26.8
14.2
9.68
7.52
6.28
5.48
4.92
4.52
4.21
3.97
3.78
3.62
3.49

2
5000
99.0
30.8
18.0
13.3
10.9
9.55
8.65
8.02
7.56
7.21
6.93
6.70
6.51
6.36
6.23
6.01
5.85
5.57
5.39
5.27
5.18
5.06
4.98
4.92
4.88
4.85
4.82
4.71
4.65

18
6192
99.4
26.8
14.1
9.61
7.45
6.21
5.41
4.86
4.46
4.15
3.91
3.72
3.56
3.42

3
5403
99.2
29.5
16.7
12.1
9.78
8.45
7.59
6.99
6.55
6.22
5.95
5.74
5.56
5.42
5.29
5.09
4.94
4.68
4.51
4.40
4.31
4.20
4.13
4.07
4.04
4.01
3.98
3.88
3.82

20
6209
99.5
26.7
14.0
9.55
7.40
6.16
5.36
4.81
4.41
4.10
3.86
3.66
3.51
3.37

4
5625
99.3
28.7
16.0
11.4
9.15
7.85
7.01
6.42
5.99
5.67
5.41
5.21
5.04
4.89
4.77
4.58
4.43
4.18
4.02
3.91
3.83
3.72
3.65
3.60
3.56
3.53
3.51
3.41
3.36

25
6240
99.5
26.6
13.9
9.45
7.30
6.06
5.26
4.71
4.31
4.01
3.76
3.57
3.41
3.28

5
5764
99.3
28.2
15.5
11.0
8.75
7.46
6.63
6.06
5.64
5.32
5.06
4.86
4.69
4.56
4.44
4.25
4.10
3.85
3.70
3.59
3.51
3.41
3.34
3.29
3.26
3.23
3.21
3.11
3.05

30
6261
99.5
26.5
13.8
9.38
7.23
5.99
5.20
4.65
4.25
3.94
3.70
3.51
3.35
3.21

6
5859
99.3
27.9
15.2
10.7
8.47
7.19
6.37
5.80
5.39
5.07
4.82
4.62
4.46
4.32
4.20
4.01
3.87
3.63
3.47
3.37
3.29
3.19
3.12
3.07
3.04
3.01
2.99
2.89
2.84

35
6276
99.5
26.5
13.8
9.33
7.18
5.94
5.15
4.60
4.20
3.89
3.65
3.46
3.30
3.17

7
5928
99.4
27.7
15.0
10.5
8.26
6.99
6.18
5.61
5.20
4.89
4.64
4.44
4.28
4.14
4.03
3.84
3.70
3.46
3.30
3.20
3.12
3.02
2.95
2.91
2.87
2.84
2.82
2.73
2.68

40
6287
99.5
26.4
13.8
9.29
7.14
5.91
5.12
4.57
4.17
3.86
3.62
3.43
3.27
3.13

f1
8
5981
99.4
27.5
14.8
10.3
8.10
6.84
6.03
5.47
5.06
4.74
4.50
4.30
4.14
4.00
3.89
3.71
3.56
3.32
3.17
3.07
2.99
2.89
2.82
2.78
2.74
2.72
2.69
2.60
2.55
f1
50
6303
99.5
26.4
13.7
9.24
7.09
5.86
5.07
4.52
4.12
3.81
3.57
3.38
3.22
3.08

9
6022
99.4
27.4
14.7
10.2
7.98
6.72
5.91
5.35
4.94
4.63
4.39
4.19
4.03
3.89
3.78
3.60
3.46
3.22
3.07
2.96
2.89
2.78
2.72
2.67
2.64
2.61
2.59
2.50
2.44

60
6313
99.5
26.3
13.7
9.20
7.06
5.82
5.03
4.48
4.08
3.78
3.54
3.34
3.18
3.05

10
6056
99.4
27.2
14.6
10.1
7.87
6.62
5.81
5.26
4.85
4.54
4.30
4.10
3.94
3.80
3.69
3.51
3.37
3.13
2.98
2.88
2.80
2.70
2.63
2.59
2.55
2.52
2.50
2.41
2.36

70
6321
99.5
26.3
13.6
9.18
7.03
5.80
5.01
4.46
4.06
3.75
3.51
3.32
3.16
3.02

11
6083
99.4
27.1
14.5
9.96
7.79
6.54
5.73
5.18
4.77
4.46
4.22
4.02
3.86
3.73
3.62
3.43
3.29
3.06
2.91
2.80
2.73
2.63
2.56
2.51
2.48
2.45
2.43
2.34
2.28

80
6326
99.5
26.3
13.6
9.16
7.01
5.78
4.99
4.44
4.04
3.73
3.49
3.30
3.14
3.00

12
6106
99.4
27.1
14.4
9.89
7.72
6.47
5.67
5.11
4.71
4.40
4.16
3.96
3.80
3.67
3.55
3.37
3.23
2.99
2.84
2.74
2.66
2.56
2.50
2.45
2.42
2.39
2.37
2.27
2.22

90
6331
99.5
26.3
13.6
9.14
7.00
5.77
4.97
4.43
4.03
3.72
3.48
3.28
3.12
2.99

13
6126
99.4
27.0
14.3
9.82
7.66
6.41
5.61
5.05
4.65
4.34
4.10
3.91
3.75
3.61
3.50
3.32
3.18
2.94
2.79
2.69
2.61
2.51
2.44
2.40
2.36
2.33
2.31
2.22
2.17

100
6334
99.5
26.2
13.6
9.13
6.99
5.75
4.96
4.41
4.01
3.71
3.47
3.27
3.11
2.98

14
6143
99.4
26.9
14.3
9.77
7.60
6.36
5.56
5.01
4.60
4.29
4.05
3.86
3.70
3.56
3.45
3.27
3.13
2.89
2.74
2.64
2.56
2.46
2.39
2.35
2.31
2.29
2.27
2.17
2.12

200
6350
99.5
26.2
13.5
9.08
6.93
5.70
4.91
4.36
3.96
3.66
3.41
3.22
3.06
2.92

15
6157
99.4
26.9
14.2
9.72
7.56
6.31
5.52
4.96
4.56
4.25
4.01
3.82
3.66
3.52
3.41
3.23
3.09
2.85
2.70
2.60
2.52
2.42
2.35
2.31
2.27
2.24
2.22
2.13
2.07

500
6360
99.5
26.2
13.5
9.04
6.90
5.67
4.88
4.33
3.93
3.62
3.38
3.19
3.03
2.89

E.4 F-fordelingen

281

99.9 procent fraktiler.


Fraktilerne svarende til f2 = 1 er udeladt, da de ligger mellem 405284 og
635983.

2
3
4
5
6
7
8
9
10
11
12
13
14
f2 15
16
18
20
25
30
35
40
50
60
70
80
90
100
200
500

2
3
4
5
6
7
f2 8
9
10
11
12
13
14
15

1
999
167
74.1
47.2
35.5
29.3
25.4
22.9
21.0
19.7
18.6
17.8
17.1
16.6
16.1
15.4
14.8
13.9
13.3
12.9
12.6
12.2
12.0
11.8
11.7
11.6
11.5
11.2
11.0

16
999
127
46.6
25.8
17.5
13.2
10.8
9.15
8.05
7.24
6.63
6.16
5.78
5.46

2
999
149
61.3
37.1
27.0
21.7
18.5
16.4
14.9
13.8
13.0
12.3
11.8
11.3
11.0
10.4
9.95
9.22
8.77
8.47
8.25
7.96
7.77
7.64
7.54
7.47
7.41
7.15
7.00

18
999
127
46.3
25.6
17.3
13.1
10.6
9.01
7.91
7.11
6.51
6.03
5.66
5.35

3
999
141
56.2
33.2
23.7
18.8
15.8
13.9
12.6
11.6
10.8
10.2
9.73
9.34
9.01
8.49
8.10
7.45
7.05
6.79
6.59
6.34
6.17
6.06
5.97
5.91
5.86
5.63
5.51

20
999
126
46.1
25.4
17.1
12.9
10.5
8.90
7.80
7.01
6.40
5.93
5.56
5.25

4
999
137
53.4
31.1
21.9
17.2
14.4
12.6
11.3
10.4
9.63
9.07
8.62
8.25
7.94
7.46
7.10
6.49
6.12
5.88
5.70
5.46
5.31
5.20
5.12
5.06
5.02
4.81
4.69

25
999
126
45.7
25.1
16.9
12.7
10.3
8.69
7.60
6.81
6.22
5.75
5.38
5.07

5
999
135
51.7
29.8
20.8
16.2
13.5
11.7
10.5
9.58
8.89
8.35
7.92
7.57
7.27
6.81
6.46
5.89
5.53
5.30
5.13
4.90
4.76
4.66
4.58
4.53
4.48
4.29
4.18

30
999
125
45.4
24.9
16.7
12.5
10.1
8.55
7.47
6.68
6.09
5.63
5.25
4.95

6
999
133
50.5
28.8
20.0
15.5
12.9
11.1
9.93
9.05
8.38
7.86
7.44
7.09
6.80
6.35
6.02
5.46
5.12
4.89
4.73
4.51
4.37
4.28
4.20
4.15
4.11
3.92
3.81

35
999
125
45.2
24.7
16.5
12.4
10.0
8.45
7.37
6.59
6.00
5.54
5.17
4.86

7
999
132
49.7
28.2
19.5
15.0
12.4
10.7
9.52
8.66
8.00
7.49
7.08
6.74
6.46
6.02
5.69
5.15
4.82
4.59
4.44
4.22
4.09
3.99
3.92
3.87
3.83
3.65
3.54

40
999
125
45.1
24.6
16.4
12.3
9.92
8.37
7.30
6.52
5.93
5.47
5.10
4.80

f1
8
999
131
49.0
27.7
19.0
14.6
12.1
10.4
9.20
8.35
7.71
7.21
6.80
6.47
6.19
5.76
5.44
4.91
4.58
4.36
4.21
4.00
3.86
3.77
3.70
3.65
3.61
3.43
3.33
f1
50
999
125
44.9
24.4
16.3
12.2
9.80
8.26
7.19
6.42
5.83
5.37
5.00
4.70

9
999
130
48.5
27.2
18.7
14.3
11.8
10.1
8.96
8.12
7.48
6.98
6.58
6.26
5.98
5.56
5.24
4.71
4.39
4.18
4.02
3.82
3.69
3.60
3.53
3.48
3.44
3.26
3.16

60
999
124
44.8
24.3
16.2
12.1
9.73
8.19
7.12
6.35
5.76
5.30
4.94
4.64

10
999
129
48.1
26.9
18.4
14.1
11.5
9.89
8.75
7.92
7.29
6.80
6.40
6.08
5.81
5.39
5.08
4.56
4.24
4.03
3.87
3.67
3.54
3.45
3.39
3.34
3.30
3.12
3.02

70
999
124
44.7
24.3
16.2
12.1
9.67
8.13
7.07
6.30
5.71
5.26
4.89
4.59

11
999
129
47.7
26.7
18.9
13.9
11.4
9.72
8.59
7.76
7.14
6.65
6.26
5.94
5.67
5.25
4.94
4.42
4.11
3.90
3.75
3.55
3.42
3.33
3.27
3.22
3.18
3.00
2.91

80
999
124
44.6
24.2
16.1
12.0
9.63
8.09
7.03
6.26
5.68
5.22
4.86
4.56

12
999
128
47.4
26.4
18.0
13.7
11.2
9.57
8.45
7.63
7.00
6.52
6.13
5.81
5.55
5.13
4.82
4.31
4.00
3.79
3.64
3.44
3.32
3.23
3.16
3.11
3.07
2.90
2.81

90
999
124
44.5
24.2
16.1
12.0
9.60
8.06
7.00
6.23
5.65
5.19
4.83
4.53

13
999
128
47.2
26.2
17.8
13.6
11.1
9.44
8.32
7.51
6.89
6.41
6.02
5.71
5.44
5.03
4.72
4.22
3.91
3.70
3.55
3.35
3.23
3.14
3.07
3.02
2.99
2.82
2.72

100
999
124
44.5
24.1
16.0
12.0
9.57
8.04
6.98
6.21
5.63
5.17
4.81
4.51

14
999
128
47.0
26.1
17.7
13.4
10.9
9.33
8.22
7.41
6.79
6.31
5.93
5.62
5.35
4.94
4.64
4.13
3.82
3.62
3.47
3.27
3.15
3.06
3.00
2.95
2.91
2.74
2.64

200
999
124
44.3
24.0
15.9
11.8
9.45
7.93
6.87
6.10
5.52
5.07
4.71
4.41

15
999
127
46.8
25.9
17.6
13.3
10.8
9.24
8.13
7.32
6.71
6.23
5.85
5.54
5.27
4.87
4.56
4.06
3.75
3.55
3.40
3.20
3.08
2.99
2.93
2.88
2.84
2.67
2.58

500
999
124
44.1
23.9
15.8
11.8
9.38
7.86
6.81
6.04
5.46
5.01
4.65
4.35

282

E.5

Tabeller

Det grske alfabet


Stort
bogstav

Lille
bogstav

A
B

E
Z
H

I
K

M
N

T
Y

,

, %
,

Navn

alfa
beta
gamma
delta
epsilon
zeta
eta
theta
iota
kappa
lambda
my
ny
xi
omikron
pi
ro
sigma
tau
ypsilon
fi
chi
psi
omega

Indeks
aktier, 241243
antal besg til en web-site, 114
115
antal ordnede st, 259
antallet ef delmngder, 259
arcus-sinus fordelingen, 174, 177
Bayes formel, 29
begrnset stokastisk variabel, 131
Beta-fordelingen, 19, 149, 152, 158,
225, 240
Beta-funktionen, 225
betinget fordeling, 2930, 139140,
200202
betinget middelvrdi, 238
betinget sandsynlighed, 24
betinget uafhngighed, 35
af diskrete stokastiske variable,
8586, 129130
billedmngde, 254
binomialfordelingen, 6872, 7475,
78, 88, 92, 94, 101, 114,
115, 214
binomialformlen, 260
binomialkoefficient, 259261
Brownsk bevgelse, 910, 246
248
Cauchy-fordelingen, 169, 176, 227
centrale grnsevrdistning, 212

Chebychevs ulighed, 209


2 -fordelingen, 171, 221, 231
de Moivres stning, 216
de store tals lov, 210
den centrale grnsevrdistning,
212
den geometriske fordeling, 119, 123
124, 131132, 137138, 140,
142, 172
den hypergeometriske fordeling,
7275, 92, 98
den logaritmiske normalfordeling,
176
den n-dimensionale normalfordeling, 229, 233235
den negative binomialfordeling, 142
den rektangulre fordeling, 148,
151, 154, 157, 161, 180
den to-dimensionale normalfordeling, 236238
den tosidede eksponentialfordeling,
174
den udartede fordeling, 95
den uniforme fordeling, 148, 151,
154, 157, 161, 180
disjunkte mngder, 253
diskret fordeling, 118
diskret stokastisk variabel, 120

284
dobbeltintegral, 271
ddelighedstavle, 25
eksponentialfordelingen, 5254, 146,
149, 154, 157, 160, 169,
172, 190, 201, 222, 243
empirisk
fordeling, 102
korrelation, 103
kovarians, 103
middelvrdi, 103
varians, 103, 111
Erlang-fordelingen, 175, 204
et tilfldigt tal mellem nul og en,
1617, 51, 56, 169
fakultetfunktionen, 258
fejlophobningsloven, 207
F-fordelingen, 190, 226
fler-dimensionalt volumen, 273
foldning
af binomialfordelinger, 71
af diskrete fordelinger, 8485,
128
af eksponentialfordelinger, 188,
204
af -fordelinger, 224
af geometriske fordelinger, 142
af kontinuerte fordelinger, 188
af normalfordelinger, 195
af Poissonfordelinger, 129
af sandsynlighedsfunktioner,
85
af sandsynlighedsttheder, 188
fordeling
af stokastisk variabel, 46
af stokastisk vektor, 57

INDEKS
diskret, 118
kontinuert, 148, 180
marginal, 57
simultan, 57
fordeling af blandet type, 155
fordelingsfunktion
for en fordeling p
a IIN0 , 122
for en kontinuert fordeling, 151
for en stokastisk variabel, 49
52
for en stokastisk vektor, 58
marginal, 58
foreningsmngde, 252
fraktil, 176
frihedsgrader, 221, 226, 227
fllesmngde, 252
fdselsdage i en klasse, 13, 21
-fordelingen, 222, 244
-funktionen, 223
Gauss-fordelingen, 162
geometriske fordeling, 119, 123
124, 131132, 137138, 140,
142, 172
hypergeometriske fordeling, 72
75, 92, 98
hndelse, 12, 14, 18
indikatorfunktionen, 256
kast med en terning, 4951, 79,
81
kast med to terninger, 13, 15, 23,
24, 31, 47, 5658, 89
komplementrmngde, 253
koncentreret, 65
kontinuert differentiabel, 153

INDEKS
kontinuert fordeling, 148, 180
kontinuert stokastisk variabel, 148
kontinuert stokastisk vektor, 180
konvergens i fordeling, 213
konvergens i sandsynlighed, 211
korrelation, 99, 138139, 200, 237
238
kovarians, 95, 138139, 199
kovariansmatrix, 112, 234
kugler i to kasser, 27, 28, 35, 85
kvadratet af en kontinuert stokastisk variabel, 171
kvotienten mellem to kontinuerte
stokastiske variable, 189
Laplace-fordelingen, 174
ligefordelingen
p
a en begrnset mngde, 180
p
a en endelig mngde, 14, 51,
63, 67
p
a et begrnset interval, 148,
151, 154, 157, 161
logaritmiske normalfordeling, 176
marginal fordeling, 57
for diskret stokastisk variabel,
124
for kontinuert stokastisk variabel, 182
for stokastisk variabel p
a en
endelig mngde, 75
marginal fordelingsfunktion, 58
marginal kontinuert fordeling, 182
marginal sandsynlighedstthed, 182
Markovs ulighed, 110
median, 176
Mendel, 79, 81

285
middelvrdi
af binomialfordelingen, 92
af den geometriske fordeling,
131132
af den hypergeometriske fordeling, 92
af eksponentialfordelingen, 157
af en diskret stokastisk variabel, 87, 130
af en kontinuert stokastisk variabel, 156
af en sum af stokastiske variable, 91, 135, 198
af en transformeret diskret stokastisk variabel, 89, 132
af en transformeret kontinuert stokastisk variabel, 158
af en transformeret kontinuert stokastisk vektor, 197
af et produkt af uafhngige
stokastiske variable, 91, 135,
198
af F-fordelingen, 226
af -fordelingen, 239
af ligefordelingen, 157
af normalfordelingen, 163
af Poissonfordelingen, 131
af t-fordelingen, 227
multinomialfordelingen, 7882, 84,
102
multinomialkoefficient, 79, 261
262
mngdedifferens, 253
mntkast, 33, 34, 45, 47, 68
n-dimensionale normalfordeling, 229,
233235

286
nedadstigende faktoriel, 259
negative binomialfordeling, 142
normalfordelingen, 162165, 195,
212, 248
den fler-dimensionale, 229, 233
235
den to-dimensionale, 236238
originalmngde, 254
ortonormal transformation af en
normalfordeling, 230
Pareto-fordelingen, 157, 161
Pascals trekant, 9, 260
planintegral, 270
Poisson processen, 245
Poissonfordelingen, 115, 118, 121,
129, 131, 137, 146, 217,
244
polynomialfordelingen, 7882, 84,
102
polynomialkoefficient, 79, 261262
positionsparameter, 168
produktet af to kontinuerte stokastiske variable, 189
produktmngde, 254
punktsandsynlighed, 12, 120
regressionskoefficient, 238
rektangulre fordeling, 148, 151,
154, 157, 161, 180
rencontreproblemet, 110
sandsynlighedsfelt
endeligt, 12
generelt, 18
sandsynlighedsfunktion, 12, 66
67, 118

INDEKS
sandsynlighedsm
al, 18
sandsynlighedsregningens frekvensfortolkning, 9, 11, 102, 211
sandsynlighedstthed, 20, 147, 179
simulation, 169
simultan fordeling, 57
simultan fordelingsfunktion, 58
skadesforsikring, 37, 243
skalaparameter, 168
spredning, 93, 137, 160
standardafvigelse, 93, 137, 160
stikprveudtagning
med tilbagelgning, 72
uden tilbagelgning, 7275
stokastisk proces, 245
stokastisk uafhngighed
af diskrete stokastiske variable,
82, 127
af kontinuerte stokastiske variable, 183, 186
af n hndelser, 34, 37
af stokastiske variable, 58
af to hndelser, 31
store tals lov, 9, 210
sum af
binomialfordelinger, 71
eksponentialfordelinger, 188,
204
-fordelinger, 224
geometriske fordelinger, 142
normalfordelinger, 195
Poissonfordelinger, 129
to diskrete stokastiske variable, 77, 126
to kontinuerte stokastiske variable, 187

INDEKS
to uafhngige kontinuerte stokastiske variable, 188
uafhngige diskrete stokastiske variable, 84, 128
terningkast, 13, 15, 23, 24, 31, 47,
4951, 5658, 79, 81, 89
t-fordelingen, 227, 231
to-dimensionale normalfordeling,
236238
tosidede eksponentialfordeling, 174
transformation
af generelle stokastiske variable, 49
transformationsstningen
for diskrete fordelinger, 125
for en-dimensionale kontinuerte fordelinger, 166
for fordelinger, 49
for fordelinger p
a endelige mngder, 76
for fordelingsfunktioner, 54
55
for n-dimensionale kontinuerte
fordelinger, 194
for to-dimensionale kontinuerte fordelinger, 192
tllelig mngde, 118
tthedsfunktion, 147, 179
uafhngighed
af diskrete stokastiske variable,
82, 127
af kontinuerte stokastiske variable, 183, 186
af n hndelser, 34, 37
af stokastiske variable, 58

287
af to hndelser, 31
betinget, 35
udartede fordeling, 95
udartet stokastisk variabel, 95
udfaldsrum, 12, 18
udtrkning af kort, 31, 33, 70, 73
u-fordelingen, 162
ukorrelerede stokastiske variable,
100
uniforme fordeling, 148, 151, 154,
157, 161, 180
varians
af binomialfordelingen, 101
af den geometriske fordeling,
137138
af den hypergeometriske fordeling, 98
af eksponentialfordelingen, 160
af en diskret stokastisk variabel, 93, 136
af en kontinuert stokastisk variabel, 160
af en sum af stokastiske variable, 98
af en sum af ukorrelerede stokastiske variable, 101
af -fordelingen, 239
af ligefordelingen, 161
af normalfordelingen, 163
af Poissonfordeligen, 137
af t-fordelingen, 227
volatility pumping, 243
volumen, 273
Wiener processen, 248

You might also like