You are on page 1of 65

Corso di Laurea Triennale in Matematica

Universita "La Sapienza" A.A. 2006/2007


F. Spizzichino
Appunti su alcuni argomenti di Calcolo delle Probabilit
Ad uso degli studenti del Corso di Calcolo delle Probabilit 2
Giugno 2007
Dipartimento di Matematica
1
CONTENUTO
Premessa
Parte I
1. Richiami su distribuzioni unidimensionali
2. Funzioni di distribuzione bidimensionali
3. Distribuzioni marginali e indipendenza stocastica
4. Caso assolutamente continuo
5. Densit condizionate e Formule di Bayes
6. Distribuzioni multidimensionali
7. Trasformazioni di densit congiunte
Parte II
8. Famiglie notevoli di distribuzioni di probabilit unidimensionali discrete
9. Distribuzioni uniformi
10. Distribuzioni esponenziali
11. Distribuzioni gamma
12. Distribuzioni gaussiane (o normali)
13. Distribuzioni del chi-quadro.
14. Distribuzioni "t di Student"
15. Altre famiglie notevoli di distribuzioni di probabilit
16. I processi di Poisson omogenei
Parte III
17. Statistiche ordinate di variabili i.i.d. e partizioni casuali di un intervallo
18. Variabili esponenziali, processi di Poisson e partizioni di un intervallo
19. Generazione di variabili aleatorie gaussiane
20. Trasformazioni ortogonali di campioni gaussiani e teorema di Cochran
21. Applicazione statistica del teorema di Cochran: intervalli di ducia per la media di
un campione gaussiano
22. Distribuzioni gaussiane in due dimensioni
2
Premessa
Questi appunti sono rivolti agli studenti del Corso di Calcolo delle Probabilit 2 delle
Lauree (triennale e specialistiche) in Matematica. Lo scopo quello di facilitare lo studio
raccogliendo, riassumendo e completando alcune denizioni, nozioni e risultati sparsi in testi
diversi. Tali appunti coprono soltano una parte del programma del Corso e la loro lettura
non esime dallo studio di testi pi completi ed approfonditi.
Gli argomenti qui presentati vengono divisi in tre Parti.
La Parte I inizia con alcuni richiami circa le distribuzioni di probabilit sulla retta e poi
raccoglie alcune nozioni fondamentali circa le distribuzioni di probabilit multidimensionali.
Nella Parte II verrano elencate alcune famiglie di distribuzioni di probabilit unidimen-
sionali, notevoli per la loro importanza nel calcolo delle probabilit, nella statistica matem-
atica e nella teoria dei processi stocastici. Verr inne introdotta la nozione di Processo di
Poisson.
Nella Parte III verranno essenzialmente viste diverse applicazioni di unimportante for-
mula che verr richiamata nellultimo paragrafo della Parte I, formula che fornisce la densit
congiunta di un vettore di variabili aleatorie ottenuto tramite una trasformazione biunivoca
e dierenziabile a partire da un altro vettore con densit congiunta assegnata.
Si presuppone la conoscenza, da parte dei lettori, delle nozioni fondamentali circa la prob-
abilit discreta, le denizioni di spazio di probabilit e di variabile aleatoria, le distribuzioni
di probabilit sulla retta, come usualmente impartite nei corsi di Calcolo delle Probabilit
del primo anno.
Relativamente alla denizione di spazio di probabilit si assume, come usuale, la propriet
di additivit numerabile e, consequentemente, la propriet di continuit della probabilit.
A questo proposito, i lettori pi esperti noteranno che si cercato di fornire unesposizione
che comunque non presuppone la conoscenza della teoria della misura di Lebesgue e sono
invitati a completare autonomamente alcune conseguenti lacune nel linguaggio usato nella
Parte I.
Per i lettori meno esperti ricordiamo che la famiglia E degli insiemi di Borel (o "Bore-
liani") della retta R una o-algebra di sottoinsiemi che contiene gli intervalli e le unioni di
intervalli disgiunti, ed inoltre la minima o-algebra con tale propriet. La misura di Lebesgue
sulla retta una funzione di insieme \ denita su E, numerabilmente additiva e tale che, per
3
ogni intervallo 1 R, \(1) coincide con la usuale lunghezza (misura di Peano-Jordan) di 1.
Analogamente si pu dire per la famiglia di Borel E
(a)
e la misura di Lebesgue \
(a)
su R
(a)
.
Nel seguito si user anche il termine insieme misurabile", quale sinonimo di insieme di Borel;
dunque tutti gli intervalli e le unioni di intervalli, ma anche tutti gli insiemi sucientemente
regolari sono insieme misurabili.
Questi appunti completano e sostituiscono una versione gi distribuita nellA.A. prece-
dente; sono stati anche corretti vari errori di stampa e ringrazio Giovanni Sebastiani ed alcuni
studenti per avermeli segnalati.
4
PARTE I
1 Richiami su distribuzioni unidimensionali
Ricordiamo che una distribuzione (o misura) di probabilit j sulla retta viene univocamente
individuata dalla relativa funzione di distribuzione:
1
j
(r) = j(. r]. r R.
Sia A una variabile aleatoria con distribuzione j; ci signica, per ogni intervallo 1 R,
1A 1 = j(1).
oppure, \r R,
1A _ r = 1
j
(r);
ci verr indicato con il simbolo A ~ j, oppure A ~ 1, sottintendendo usualmente lindice
j nella scrittura 1
j
. Spesso viene anche usato il simbolo 1
A
quando si vuole sottolineare
che 1 la funzione di distribuzione della variabile aleatoria A.
Un fatto ovvio, ma da sottolineare, il seguente: generalmente esistono pi variabili
aleatorie, denite su uno stesso spazio di probabilit, che seguono la stessa distribuzione di
probabilit.
Una funzione 1 : R R risulta essere la funzione di distribuzione di una variabile
aleatoria se e solo se soddisfa il seguente sistema di propriet:
(i) 0 _ 1(r) _ 1. \r R
(ii) lim
ao
1(r) = 0. lim
a+o
1(r) = 1
(iii) 1(r) non decrescente
(iv) 1(r) continua da destra.
Ricordiamo inoltre che, data una qualunque variabile aleatoria A e un valore r
0
R,
risulta j(r
0
) = 1A = r
0
0 se e solo se risulta 1(r
0
) 1(r

0
) = lim
aa

0
1(r); pi
precisamente
j(r
0
) = 1A = r
0
= 1(r
0
) 1(r

0
).
5
Nel caso di una distribuzione discreta (1 costante a tratti), basta, per individuare j,
assegnare linsieme o, costituito dai punti di salto r
j
, e le ampiezze dei relativi salti j(r
j
) =
1A = r
j
. Essendo 1 monotona, si ha che o = r R[j(r) 0 al pi numerabile.
Parliamo di caso assolutamente continuo quando risulta j(1) = 0, per ogni sottoinsieme
1 R, misurabile, con misura di Lebesgue nulla. In tale caso, j pu essere equivalentemente
individuata dalla relativa funzione di densit di probabilit 1: per ogni coppia di numeri
reali c. /, si ha
j[c. /] = 1(/) 1(c) =

b
o
1(r)dr.
1 risulta allora derivabile e assumeremo appunto quale funzione di densit di probabilit la
derivata prima di 1. Notiamo che la funzione 1 deve ovviamente soddisfare le condizioni di
non negativit e di normalizzazione:
1(r) _ 0;

+o
o
1(r)dr = 1.
Osservazione 1.1
Sia o(r) una funzione non negativa ed integrabile assegnata. Notiamo che, in base alla
propriet di normalizzazione, vale quanto segue: supponiamo di sapere che 1(r) una fun-
zione di densit di probabilit e
1 0 tale che 1(r) = 1 o(r); (1)
da questo possiamo concludere
1 =
1

+o
o
o(:)d:
. 1(r) =
o(r)

+o
o
o(:)d:
.
In particolare se o essa stessa una funzione di densit di probabilit segue
1(r) = o(r).
La relazione (1) viene usualmente abbreviata scrivendo
1(r) _ o(r).
Parliamo di caso singolare quando 1 risulta continua, e quindi 1A = r = 0 \r R,
ma esiste tuttavia 1 R (pi precisamente 1 E) la cui misura di Lebesgue nulla e
j(1) 0.
6
Vale il Teorema di decomposizione di Lebesgue secondo cui una qualunque funzione di
distribuzione 1 (cio qualuque funzione che soddis contemporaneamente le condizioni (i)-
(iv)) si pu decomporre nella forma
1(r) = c
o
1
o
(r) + c
oc
1
oc
(r) + c
c
1
c
(r).
dove c
o
. c
oc
. c
c
sono coecienti non negativi tali che c
o
+ c
oc
+ c
c
= 1 e 1
o
. 1
oc
. 1
c
sono
funzioni di distribuzione rispettivamente di tipo discreto, assolutamente continuo e singolare.
Ricordiamo che il valore atteso E(A) di una variabile aleatoria A in generale dato
dallintegrale di Stiltjes
E(A) =

+o
o
rd1 (r) ;
nel caso di distribuzione discreta vale
E(A) =
o

I=1
r
I
1A = r
I
,
mentre, nel caso assolutamente continuo,
E(A) =

+o
o
r1 (r) dr.
Il valore atteso soddisfa la propriet di linearit: per qualunque coppia di costanti c.
e per qualunque coppia di variabili aleatorie A, ) per cui esistano E(A) . E() ), vale
E(cA + ) ) = cE(A) + E() ) .
Pi generalmente E

A
I

, il momento di ordine / della variabile aleatoria A, dato


dallintegrale di Stiltjes
E

A
I

+o
o
r
I
d1 (r) ;
nel caso di distribuzione discreta vale
E

A
I

=
o

I=1
r
I
I
1A = r
I
,
mentre, nel caso assolutamente continuo,
E

A
I

+o
o
r
I
1 (r) dr.
La varianza di A, inne, denita da
\ c:(A) = E

(A E(A)
2

e, per la propriet di linearit del valore atteso, risulta


\ c:(A) = E[(A)
2
] [E(A)]
2
.
7
2 Funzioni di distribuzione bidimensionali
Siano A. ) variabili aleatorie denite su uno stesso spazio di probabilit. In questo paragrafo
consideriamo la distribuzione di probabilit congiunta della coppia (A. ) ); con tale termine
si intende la misura di probabilit j sul piano (su E
(2)
) denita dalla relazione
j(1) = 1(A. ) ) 1.
essendo 1 R
2
il generico sottoinsieme misurabile.
Analogamente a quanto accade per il caso unidimensionale, la distribuzione di probabilit
congiunta di A. ) univocamente individuata dalla funzione di distribuzione congiunta
1
A.Y
(r. n) = 1(A _ r) () _ n). r R. n R. (2)
E ovvio daltra parte che la conoscenza di j implica la conoscenza di 1
A.Y
, in quanto
1
A.Y
(r. n) = j(1
a.&
). r R. n R.
avendo in particolare posto
1
a.&
= (:. :) R
2
[: _ r. : _ n.
Osservazione 2.1
In termini della 1
A.Y
risulta immediato scrivere la probabilit che la coppia (A. ) ) cada
dentro una semistriscia parallela ad uno degli assi coordinati o che (A. ) ) cada dentro un
intervallo coordinato del piano. Sia infatti
= (:. :) R
2
[r
t
< : _ r
tt
. : _ n.
1 = (:. :) R
2
[: _ r. n
t
< : _ n
tt
.
1 = (:. :) R
2
[r
t
< : _ r
tt
. n
t
< : _ n
tt
;
in base alla denizione (2), possiamo scrivere
1(A. ) ) = 1(r
tt
. n) 1(r
t
. n).
1(A. ) ) 1 = 1(r. n
tt
) 1(r. n
t
)
1(A. ) ) 1 = 1(r
tt
. n
tt
) 1(r
tt
. n
t
) 1(r
t
. n
tt
) + 1(r
t
. n
t
). (3)
8
Si pu dimostrare che una funzione 1 : R
2
R una funzione di distribuzione congiunta
di una coppia di variabili aleatorie A. ) se e solo se soddisfa il seguente sistema di propriet:
(i)
0 _ 1(r. n) _ 1. \r R. \n R
(ii)
lim
ao.
1(r. n) = 0. \n R; lim
&o.
1(r. n) = 0. \r R
lim
a+o.&+o
1(r. n) = 1
(iii) 1(r) non decrescente in ciascuna variabile: per r
t
< r
tt
. n
t
< n
tt
, risulta
1(r
t
. n) _ 1(r
tt
. n). \n R
1(r. n
t
) _ 1(r. n
tt
). \r R
(iv) 1(r) continua da destra
(v) 1(r) non-decrescente in due variabili: per r
t
< r
tt
. n
t
< n
tt
, risulta
1(r
tt
. n
tt
) 1(r
tt
. n
t
) 1(r
t
. n
tt
) + 1(r
t
. n
t
) _ 0.
Osservazione 2.2
E evidente che le condizioni (i) - (v) sono necessarie. In particolare la condizione (v)
deriva dal fatto che la sommatoria a sinistra del segno _ esprime una probabilit, come
indicato nellOsservazione 2.1. Notiamo che le condizioni (i) - (iv) non sono sucienti a
garantire anche la (v). Infatti facile trovare funzioni che soddisfano (i) - (iv) e non (v).
Un semplice esempio si pu ottenere considerando il rettangolo coordinato individuato dai
valori r
t
= 0. r
tt
= 2. n
t
= 0. n
tt
= 2 e la funzione 1(r. n) = 1
C
(r. n), dove
( = (:. :) R
2
[: + : _ 1.
3 Distribuzioni marginali e indipendenza stocastica
Consideriamo la distribuzione di probabilit congiunta j per una coppia di variabili aleatorie
A. ) , e sia questa individuata dalla funzione di distribuzione congiunta 1
A.Y
.
9
Fissiamo ora lattenzione sulle due distribuzioni di probabilit unidimensionali (dette
distribuzioni marginali ) delle due variabili A ed ) rispettivamente, considerate una sepa-
ratamente dallaltra: si tratta delle misure di probabilit sulla retta tali che, dati comunque
degli intervalli 1. J,
1A 1 = j
A
(1) = j(1 R)
1) J = j
Y
(J) = j(RJ)
Le relative funzioni di distribuzione sono date da
1
A
(r) = 1A _ r = lim
&+o
1
A.Y
(r. n).
1
Y
(n) = 1) _ n = lim
a+o
1
A.Y
(r. n).
1
A
detta funzione di distribuzione marginale di A; analogamente per quanto riguarda
1
Y
.
Nel caso in cui A ed ) sono variabili aleatorie discrete immediato denirne la condizione
di indipendenza stocastica: come sappiamo tale denizione si riporta alla condizione di
indipendenza stocastica per le coppie di eventi del tipo (A = r
j
) . (A = n
;
). Nel caso generale
la nozione intuitiva di indipendenza stocastica viene espressa dallindipendenza stocastica per
tutte le coppie di eventi del tipo (A 1
1
) . () 1
2
), essendo 1
1
. 1
2
generici sottoinsiemi
misurabili della retta (quindi, in particolare, potrebbero essere intervalli oppure unioni di
intervalli disgiunti). Notiamo che ci in particolare implica lindipendenza fra le coppie di
eventi (A _ r). () _ n), cio
1
A.Y
(r. n) = 1
A
(r) 1
Y
(n). r R. n R. (4)
Si pu dimostrare che tale condizione basta a garantire lindipendenza per le coppie del
tipo (A 1
1
) . () 1
2
), per ogni coppia di 1
1
. 1
2
misurabili. Ci porta ad assumere la
relazione (4) quale denizione di indipendenza stocastica fra A ed ) . Per indicare tale caso
useremo anche il simbolo A 11 ) .
10
4 Caso assolutamente continuo
Diciamo che la distribuzione congiunta della coppia (A. ) ) assolutamente continua (o che j
assolutamente continua, o che 1
A.Y
assolutamente continua) quando esiste una funzione
1
A.Y
(r. n) tale che, \r R. \n R,
1
A.Y
(r. n) =

a
o

&
o
1
A.Y
(:. :)d:d:. (5)
1
A.Y
viene detta funzione di densit congiunta di A. ) .
Useremo semplicemente il simbolo 1, quando non necessario specicare gli indici A. ) .
1 ovviamente una funzione non negativa e tale che

o
o

o
o
1(:. :)d:d: = 1.
Se vale la (5) allora esiste la derivata seconda mista
0
2
0a0&
1
A.Y
e possiamo porre
1
A.Y
(r. n) =

2
rn
1
A.Y
(r. n). (6)
A partire dalla (5) e dalla (3) immediato vericare che per qualunque rettangolo della
forma
1 = (:. :) R
2
[r
t
< : _ r
tt
. n
t
< : _ n
tt
.
si pu scrivere
1(A. ) ) 1 =

1
1(:. :)d:d:.
Si dimostra per che per un qualunque sottoinsieme misurabile 1 R
2
vale la relazione
1(A. ) ) 1 =

1
1(:. :)d:d:.
Ci mostra la semplicazione insita nella condizione di assoluta continuit: la probabilit,
per la coppia (A. ) ), di cadere in una regione regolare del piano diventa un integrale doppio,
esteso a quella regione, della funzione di densit congiunta. Unulteriore fondamentale sem-
plicazione verr vista fra poco, trattando di distribuzioni condizionate.
Vediamo intanto quale conseguenza abbia la condizione di assoluta continuit sul calcolo
delle distribuzioni marginali: possiamo scrivere
1
A
(r) =

a
o

o
o
1(:. :)d:d:. 1
Y
(n) =

&
o

o
o
1(:. :)d:d:;
11
da tali relazioni segue immediatamente che le due distribuzioni marginali sono distribuzioni
unidimensionali assolutamente continue e le relative funzioni di densit di probabilit sono
1
A
(r) =
d
dr

a
o

o
o
1(:. :)d:d:

o
o
1(r. :)d:.
1
Y
(n) =
d
dn

&
o

o
o
1(:. :)d:d:

o
o
1(:. n)d:.
Occorre comunque porre attenzione alla dierenza fra la condizione di assoluta continu-
it per una distribuzione bidimensionale j
A.Y
e la condizione di assoluta continuit per le
distribuzioni unidimensionali, ottenute quali marginali di j
A.Y
: la prima condizione implica
la seconda, ma non vero il viceversa.
E immediato vericare che, nel caso particolare in cui A. ) sono stocasticamente indipen-
denti, le due condizioni sono equivalenti. Infatti, assumendo la condizione (4) e lassoluta
continuit per le distribuzioni unidimensionali, possiamo scrivere
1
A.Y
(r. n) =

a
o
1
A
(:)d:

&
o
1
Y
(:)d:

a
o

&
o
1
A.Y
(:. :)d:d:.
ponendo
1
A.Y
(:. :) = 1
A
(:) 1
Y
(:). (7)
Daltra parte se A. ) sono stocasticamente indipendenti e la loro distribuzione congiunta
assolutamente continua allora, per la funzione di densit congiunta 1
A.Y
, vale la (7). Ci si
verica immediatamente, ricordando (6) e uguagliando fra loro le derivate parziali seconde
miste dei due membri rispettivamente a sinistra e a destra dellequazione (4).
Siano ora A. ) due variabili aleatorie con distribuzione congiunta assolutamente continua;
facile vericare (provare per esercizio) che A 11 ) se e solo se vale una fattorizzazione della
forma
1
A.Y
(r. n) = c(r) (n) (8)
(si tratta cio di vericare che (8) implica (7).
5 Densit condizionate e Formule di Bayes
Consideriamo di nuovo una coppia di variabili aleatorie A. ) , con funzione di distribuzione
congiunta 1; ci poniamo il problema di denire ed esprimere la distribuzione di probabilit
12
condizionata di una delle due variabili, ad esempio A, dato un valore osservato per laltra.
Tale problema risolto immediatamente nel caso in cui A. ) sono variabili aleatorie dis-
crete e ci si pu quindi limitare a considerare probabilit condizionate 1A = r
j
[) = n
;
per
valori n
;
tali che 1) = n
;
0; viene richiesta per una trattazione pi sosticata per af-
frontare il caso generale in cui occorrerebbe dare un signicato, ad esempio, ad unespressione
del tipo
1A _ r[) = n
essendo n tale che 1 () = n) = 0.
In quanto segue mostreremo che il problema ammette comunque una soluzione semplice
non solo nel caso discreto, ma anche nel caso congiuntamente assolutamente continuo.
Iniziamo a considerare la distribuzione condizionata di A dato un evento del tipo (n _ ) _ n + n).
Per un ssato n 0, ci limiteremo a considerare quei valori n tali che
1
Y
(n + n) 1
Y
(n) = 1 (n _ ) _ n + n) 0.
Si ha
1A _ r[n _ ) _ n + n =
1(A _ r) (n _ ) _ n + n)
1 (n _ ) _ n + n)
=
1(r. n + n) 1(r. n)
1
Y
(n + n) 1
Y
(n)
.
1(a.&+&)1(a.&)
1
Y
(&+&)1
Y
(&)
denisce una funzione di distribuzione unidimensionale nella variabile r,
che verr indicata con il simbolo 1
A
(r[n _ ) _ n + n).
Nel caso in cui 1 ammette una funzione di densit congiunta 1, potremo scrivere
1
A
(r[n _ ) _ n + n) =

a
o

&+&
&
1(:. :)d:d:

&+&
&
1
Y
(:)d:
.
da cui anche
1
A
(r[n _ ) _ n + n) =

a
o
1
A
(:[n _ ) _ n + n)d:.
ponendo
1
A
(:[n _ ) _ n + n) =

&+&
&
1(:. :)d:

&+&
&
1
Y
(:)d:
.
Possiamo a questo punto denire
1
A
(r[) = n) = lim
&0
1
A
(r[n _ ) _ n + n)
13
(nel caso in cui il limite esiste) quale funzione di densit condizionata di A, dato () = n).
Nel caso in cui 1
Y
(n) 0 si verica immediatamente, applicando il teorema della media
sia al numeratore che al denominatore, che il limite esiste e che risulta
1
A
(r[) = n) =
1 (r. n)
1
Y
(n)
. (9)
Analogamente, per r ssato e tale che 1
A
(r) 0, deniremo funzione di densit con-
dizionata di ) , dato (A = r) la funzione della variabile n
1
Y
(n[A = r) =
1 (r. n)
1
A
(r)
. (10)
Confrontando le denizioni in (9) e (10), otteniamo immediatamente anche
1
A
(r[) = n) = 1
A
(r)
1
Y
(n[A = r)
1
Y
(n)
. (11)
1
Y
(n[A = r) = 1
Y
(n)
1
A
(r[) = n)
1
A
(r)
. (12)
Queste ultime due formule prendono il nome di Formule di Bayes per il caso assoluta-
mente continuo.
Osserviamo che nel caso A 11 ) risulta ovviamente, \r. n tali che 1
A
(r) 0. 1
Y
(n) 0.
1
A
(r[) = n) = 1
A
(r). 1
Y
(n[A = r) = 1
Y
(n).
Osservazione 5.1
Consideriamo la formula di Bayes, ad esempio, (11) e notiamo che il fattore moltiplicativo
1
;
Y
(&)
costante rispetto alla variabile r. Dunque
1
;
Y
(&)
ha il ruolo di costante di normalizazione
ed in eetti risulta
1
Y
(n) =

o
o
1(r. n)dr =

o
o
1
A
(r)1
Y
(n[A = r)dr.
(si veda anche a questo proposito lOsservazione 1.1). Possiamo dunque, equivalentemente,
scrivere anche
1
A
(r[) = n) _ 1
A
(r)1
Y
(n[A = r).
oppure
1
A
(r[) = n) _ 1(r. n).
Osservazione 5.2
14
Abbiamo visto dunque che il problema di denire la distribuzione condizionata di una
variabile aleatoria dato il valore assunto da unaltra ammette una soluzione diretta sia nel
caso discreto che nel caso di distribuzione congiunta assolutamente continua.
A prima vista questi due casi possono apparire molto diversi fra loro.
In verit, relativamente a tale problema, essi possono essere visti come casi particolari
della seguente situazione pi generale: la distribuzione congiunta risulta assolutamente con-
tinua rispetto alla misura prodotto delle distribuzioni marginali.
6 Distribuzioni multidimensionali
Le varie nozioni n qui illustrate per il caso di due variabili aleatorie ammettono unestensione
alquanto diretta nello studio della distribuzione congiunta di una :-upla di variabili aleato-
rie A
1
. .... A
a
. In quanto segue ci limitiamo a ripercorrere in modo schematico le nozioni
essenziali, anche allo scopo di introdurre lopportuna notazione.
Indichiamo con 1
A
1
.....An
, o semplicemente con 1 nei casi in cui chiaro a quali variabili
ci si riferisca, la funzione di distribuzione congiunta di A
1
. .... A
a
, denita dalla relazione
1
A
1
.....An
(r
1
. .... r
a
) = 1A
1
_ r
1
. .... A
a
_ r
a
. (r
1
. .... r
a
) R
a
.
La distribuzione marginale della variabile A
;
(, = 1. 2. .... :) individuata dalla funzione
di distribuzione (unidimensionale)
1
A
j
(r
;
) = lim
a
i
+o
j,=;
1
A
1
.....An
(r
1
. .... r
a
).
La distribuzione marginale del vettore (A
;
1
. .... A
;
k
) individuata dalla funzione di dis-
tribuzione (/-dimensionale)
1
A
j
1
.....A
j
k
(r
;
1
. .... r
;
k
) = lim
a
i
+o
j,=;
1
.;
2
.....;
k
1
A
1
.....An
(r
1
. .... r
a
).
Diciamo che A
1
. .... A
a
sono stocasticamente indipendenti se risulta
1
A
1
.....An
(r
1
. .... r
a
) =
a

;=1
1
A
j
(r
;
).
Diciamo che A
1
. .... A
a
sono stocasticamente indipendenti ed identicamente distribuiti
secondo una distribuzione G (e abbrevieremo con il simbolo A
1
. .... A
a
i.i.d. v G) se risulta
15
1
A
1
.....An
(r
1
. .... r
a
) =
a

;=1
G(r
;
).
essendo G una funzione di distribuzione unidimensionale.
Diciamo che la distribuzione congiunta di A
1
. .... A
a
assolutamente continua quando
esiste una funzione di densit congiunta. Ci signica che possibile rappresentare 1
A
1
.....An
nella forma
1
A
1
.....An
(r
1
. .... r
a
) =

a
1
o

a
2
o
...

an
o
1(:
1
. .... :
a
)d:
1
...d:
a
; (13)
se una tale rappresentazione possibile allora esiste la derivata parziale mista

a
r
1
...r
a
1
A
1
.....An
ed essa costituisce una possibile scelta quale funzione 1 ; tale 1 la funzione di densit di
congiunta di 1
A
1
.....An
.
Una funzione di densit di probabilit :- dimensionale 1 deve necessariamente soddisfare
le condizioni
1(r
1
. .... r
a
) _ 0

+o
o

+o
o
...

+o
o
1(:
1
. .... :
a
)d:
1
...d:
a
= 1.
Per tutto quanto qui ora segue ci manteniamo nel caso assolutamente continuo.
Per J = ,
1
. .... ,
I
1. 2. .... :, poniamo X
J
= (A
;
1
. .... A
;
k
) e sia X
e
J
= (A
j
. i =
,
1
. .... ,
I
) il vettore costituito dalle rimanenti (: /) variabili.
La distribuzione marginale ((:/)-dimensionale) di X
e
J
ammette una funzione di densit
di probabilit, data da
1
X
e
J

x
e
J

+o
o

+o
o
...

+o
o
1(x
e
J
. :
J
)d:
1
...:
I
.
La distribuzione condizionata del vettore X
J
dato (X
e
J
= x
e
J
) denita per x
e
J
tale che
1
X
e
J

x
e
J

0 ed la distribuzione di probabilit assolutamente continua /-dimensionale con


funzione di densit congiunta
1
X
J
(x
J
[ X
e
J
= x
e
J
) =
1(x
e
J
. x
J
)
1
X
e
J

x
e
J
.
16
Per x
e
J
e x
J
tali che 1
X
e
J

x
e
J

0, 1
X
J
(x
J
) 0, si ottiene immediatamente la formula
di Bayes:
1
X
J
(x
J
[ X
e
J
= x
e
J
) = 1
X
J
(x
J
)
1
X
e
J
(x
e
J
[ X
J
= x
J
)
1
X
e
J

x
e
J
.
A
1
. .... A
a
sono stocasticamente indipendenti se e solo se risulta
1(r
1
. .... r
a
) =
a

;=1
1
A
j
(r
;
).
essendo 1
A
j
la funzione di densit di probabilit (unidimensionale) di 1
A
j
. In tal caso si ha,
per ogni /, per ogni J 1. 2. .... :, e per ogni x
e
J
tale che 1
X
e
J

x
e
J

0,
1
X
J
(x
J
[ X
e
J
= x
e
J
) = 1
X
J
(x
J
) .
A
1
. .... A
a
sono i.i.d. v G se e solo se risulta
1(r
1
. .... r
a
) =
a

;=1
o(r
;
).
essendo o la funzione di densit di probabilit (unidimensionale) di G.
Per descrivere la distribuzione congiunta di alcuni vettori aleatori che verranno studiati
nella Parte III, faremo uso della seguente denizione.
Con il simbolo \
a
(1) indichiamo la misura di Lebesgue di un insieme 1 E
(a)
.
Denizione 6.1
Sia ( E
(a)
con \
a
(1) 0. X ha una distribuzione uniforme su 1 se, per una costante
positiva 1, risulta
1
X
(x) = 1 1
1
(x) =

1 per r 1
0 per r 1
Cio verra indicato con il simbolo X ~ U
a
(1).
Ovviamente deve essere 1 =
1
An(1)
e tale denizione equivalente alla seguente condizione
1X ( =
\
a
(1 ()
\
a
(1)
.
Indichiamo con
(a)
il cubo unitario

(a)
= x =(r
1
. .... r
a
) [0 _ r
j
_ 1. i = 1. 2. .... :.
17
Osserviamo che un vettore X ha una distribuzione uniforme su
(a)
se e solo se le sue
componenti
A
1
. A
2
. .... A
a
sono variabili aleatorie indipendenti identicamente distribuite (i.i.d.) con distribuzione (uni-
dimensionale) uniforme sullintervallo [0. 1], cio A
j
~ 1[0. 1].
7 Trasformazioni di densit congiunte
Richiamiamo qui un risultato fondamentale, riguardante trasformazioni di vettori aleatori
con distribuzione congiunta ass. continua, che verr utilizzato ripetutamente nella Parte III
di questi appunti.
Siano 1
a
, 1
t
a
_ R
a
due sottoinsiemi aperti ed X un vettore aleatorio a valori in 1
a
.
Sia T : 1
a
1
t
a
una trasformazione biunivoca ed indichiamo con \
1
. \
2
. .... \
a
le
componenti della trasformazione V inversa della T. Assumiamo che V sia dotata di derivate
parziali prime continue
0\
i
0&
j
(y) ed indichiamo con J
V
il suo determinante jacobiano:
J
V
(y) =

0\
1
0&
1
(y) .......
0\
1
0&n
(y)
..............
..............
0\n
0&
1
(y) .......
0\n
0&n
(y)

. \y 1
t
.
Si ha allora la seguente
Proposizione 7.1
Se X ammette una funzione di densita congiunta 1
X
(x), allora il vettore di variabile
aleatorie
Y = T(X )
ammette una funzione di densita congiunta 1
Y
(y) e risulta
1
Y
(y) = 1
X
(\
1
(y) . .... \
a
(y)) [J
V
(y)[ . (14)
Dimostrazione
Per ogni sottoinsieme 1
t
_ 1
t
a
. 1
t
E
(a)
possiamo scrivere
1Y 1
t
= 1\ (Y) \ (1
t
) = 1X \ (1
t
) =
18

...

\ (1
0
)
1
X
(r
1
. r
2
. .... r
a
)dr
1
dr
2
...dr
a
.
Eseguendo in questultimo integrale la trasformazione di variabili y = T(x), si ha

...

\ (1
0
)
1
X
(r
1
. r
2
. .... r
a
)dr
1
dr
2
...dr
a
=

...

1
0
1
X
(\
1
(y) . .... \
a
(y)) [J
V
(y)[ dn
1
dn
2
...dn
a
.
La (14) segue allora dallarbitrarieta di B e dalla denizione di funzione di densita
congiunta.
19
PARTE II
8 Famiglie notevoli di distribuzioni di probabilit uni-
dimensionali discrete
8.1 Distribuzioni di Bernoulli e binomiali.
A ha una distribuzione di Bernoulli con parametro o (0 < o < 1) se risulta
1A = 1 = o; 1A = 0 = 1 o.
Come immediatamente si verica
E(A) = o; \ c:(A) = o(1 o).
) e una variabile con distribuzione binomiale con parametri : e o (scriveremo breve-
mente ) ~ /(:. o)) se risulta
j
I
= 1) = / =

:
/

o
I
(1 o)
aI
. / = 0. 1. .... :.
Consideriamo gli indicatori di : prove bernoulliane
A
1
. A
2
. .... A
a
(cio variabili bernoulliane indipendenti con uguale parametro o ) allora si ha
) =
a

I=1
A
j
~ /(:. o).
Quindi, per ) ~ /(:. o), risulta
E(A) = :o; \ c:(A) = :o(1 o).
Il valore modale di ) e dato da [(: + 1)o]: come si verica facilmente, infatti
j
I
j
I+1
_ 1 per / _ [(: + 1)o],
j
I
j
I+1
_ 1 per / _ [(: + 1)o]
se (: +1)(1 o) e intero, si ha che (: +1)o e (: +1)o 1 sono entrambi valori modali.
20
8.2 Distribuzione di Poisson
Sia \ 0. A segue una distribuzione di Poisson con parametro \ se, per / = 0. 1. 2. ...,
1A = / = c
A
\
I
/!
.
In tal caso scriveremo A ~ { (\).
Risulta
E(A) =
o

I=0
/1A = / = c
A
o

I=1
\
I
(/ 1)!
= \c
A
o

I=0
\
I
/!
= \.
E

A
2

=
o

I=0
/
2
1A = / =
o

I=1
/
2
c
A
\
I
/!
=
=
o

I=0
(/ + 1) c
A
\
I+1
/!
= \

I=0
/c
A
\
I
/!
+
o

I=0
c
A
\
I
/!

= \(\ + 1) .
Da cui
\ c:(A) = E

A
2

[E(A)]
2
= \.
Per un ssato \ 0, consideriamo la sottofamiglia delle distribuzioni binomiali /

:.
A
a

e calcoliamo il limite lim


ao
j
(a)
I
, dove si posto
j
(a)
I
=

a
I

A
a
I

1
A
a

aI
/ = 0. 1. .... :
0 / = : + 1. : + 2. ...
.
Si ha
lim
ao
j
(a)
I
= c
A
\
I
/!
. / = 0. 1. ... (15)
La (15) giustica quindi, per : abbastanza grande e j abbastanza piccolo, la seguente
approssimazione (approssimazione di Poisson per variabili bernoulliane):

:
/

j
I
(1 j)
aI
- c
aj
:j
I
/!
.
Come vedremo successivamente, la distribuzione di Poisson si presenta come distribuzione
di probabilita del valore, ad un ssato tempo t, di un processo di Poisson.
21
8.3 Distribuzione geometrica e di Pascal
Sia A
1
. A
2
. ... una successione di variabili bernoulliane indipendenti con uguale para-
metro o.
e sia 1
1
("tempo dattesa no al primo successo") la variabile aleatoria denita da
1
1
= :i:: 0[A
a
= 1.
1
1
segue una distribuzione geometrica di parametro o:
11
1
= / = (1 o)
I1
o. / = 1. 2. ...
Si verica facilmente che risulta
E(1
1
) =
o

I=1
/11
1
= / = o
o

I=1
/ (1 o)
I1
=
1
o
.
Consideriamo ora la variabile aleatoria 1
v
(tempo dattesa no allr-esimo successo)
denita da
1
v
= :i:: 0[
a

I=1
A
I
= :.
1
v
segue una distribuzione di Pascal di parametri : e o: per / = :. : + 1. ..., si ha
11
1
= / =

/ 1
: 1

o
v
(1 o)
Iv
.
1
v
si pu vedere come la somma di : variabili aleatorie i.i.d., con distribuzione geometrica
di parametro o e quindi risulta
E(1
v
) =
:
o
8.4 Distribuzione ipergeometrica
A ha una distribuzione ipergeometrica con parametri :. `. `
1
(` _ :cr(`
1
. :)), se risulta,
per
max (0. : + `
1
`) _ / _ min (:. `
1
) .
1A = / =

.
1
I

..
1
aI

.
a

22
Come noto, questa distribuzione si presenta come la distribuzione di probabilita
del numero A di elementi, aventi una proprieta C, estratti in : estrazioni casuali senza
reimbussolamento da una popolazione costituita da ` elementi, di cui esttamente `
1
aventi
la caratteristica C stessa.
In caso, invece, di estrazioni casuali con reimbussolamento, le diverse estrazioni risul-
tano indipendenti, dando luogo a prove bernoulliane con o =
.
1
.
, per cui la corrispondente
distribuzione per A sarebbe 1

:.
.
1
.

.
Osserviamo, a tale proposito, che risulta, per 0 < o < 1, e / _ : ssati,
lim
.o

[.0[
I

[.(10)[
aI

.
a
=

:
/

o
I
(1 o)
aI
.
9 Distribuzioni uniformi
Una distribuzione di probabilita uniforme sullintervallo (c. /) (c < /) una distribuzione
assolutamente continua con funzione di densit
1(r) =

1
bo
per c _ r _ /
0 altrove
;
la relativa funzione di distribuzione quindi data da
1(r) =

0 per r _ c
ao
bo
per c _ r _ /
1 per r _ /
.
Sia A una variabile aleatoria con distribuzione uniforme in (c. /) (scriveremo A ~
1(c. /)). Risulta
E(A) =

b
o
r
/ c
dr =
c + /
2
.
E

A
2

b
o
r
2
/ c
dr =
1
3
/
3
/
2
/ c
;
da cui
\ c:(A) =
(/ c)
2
12
.
23
10 Distribuzioni esponenziali
Sia \ 0 una quantit assegnata. La funzione di densita di probabilita di una distribuzione
esponenziale di parametro \ ha la forma
1(r) =

\exp\r per r _ 0
0 per r < 0
.
Quindi la corrispondente funzione di distribuzione data da
1(r) =

1 exp\r per r _ 0
0 per r < 0
Diremo che una variabile aleatoria A segue una distribuzione esponenziale di parametro
\ (e scriveremo brevemente A ~ c (\)) se la sua distribuzione assolutamente continua e la
densit della forma qui specicata.
Se A ~ c (\), risulta
E(A) =

o
0
\r exp\rdr =
1
\
. E

A
2

o
0
\r
2
exp\rdr =
2
\
2
.
da cui
\ c:(A) =
1
\
2
.
Come vedremo successivamente la distribuzione esponenziale si presenta come la dis-
tribuzione di probabilita della variabile aleatoria che indica il tempo dattesa no al primo
arrivo in un processo di Poisson.
La funzione di intensita di una variabile aleatoria A, con distribuzione di probab.
ass. continua concentrata su [0. +), e denita dalla relazione
:(r) =
1(r)
1 1(r)
= lim
t0
1A _ r + t[A r
t
.
Essendo 1(r) =
o
ot
1 (r), si puo quindi scrivere
1(r) = 1 exp

a
0
: (:)d:.
Si verica immediatamente che le distribuzione esponenziali sono caratterizzate dalla
proprieta
:(r) = co:tc:tc. r _ 0.
Tale propriet equivalente alla seguente propriet, detta di mancanza di memoria:
24
Se A una variabile aleatoria con distribuzione esponenziale e t. : sono due arbitrarie
quantit positive, allora risulta
1A t + :[1 : = 1A t = costante in :.
11 Distribuzioni gamma
Siano c e quantit positive assegnate. Una distribuzione gamma di parametri c e
(indicata con il simbolo G(c. )) e individuata dalla funzione di densita:
1(r) =

1r
c1
expr per r _ 0
0 per r < 0
.
Il valore della costante di normalizzazione 1 dipende ovviamente dai parametri c e ed
e dato da
1 =

o
0
r
c1
exprdr

1
=

o
0

c1
exp.
d.

1
=

o
0
.
c1
exp.d.

1
.
(dove si e posto . = r, da cui dr =
o:
o
).
Per valori c reali positivi risulta

o
0
.
c1
exp.d. = (c)
dove () indica la funzione gamma di Eulero; scriviamo quindi
1 =

c
(c)
.
Tramite integrazione per parti si ottiene, per la funzione , la relazione
(c) = (c 1) (c 1) . c _ 1. (16)
Risultando
(c) =

o
0
exp.d. = 1.
si verica immediatamente che, per c N, si ha
(c) = (c 1)!.
25
Se A ~ G(c. ) allora, per / = 1. 2. ..., risulta
E

A
I

=
c(c + 1) ... (c + / 1)

I
.
infatti
E

A
I

o
0
r
I

c
(c)
r
c1
exprdr =

c
(c)

o
0
r
c+I1
exprdr =

c
(c)

o
0
.
c+I1

c+I1
exp.
d.

=
(c + /)

I
(c)
.
Ne deriva, in particolare,
E(A) =
c

. \ c:(A) =
c

2
.
Nel caso in cui sia c = / N, la distribuzione G(c. ) prende anche il nome di dis-
tribuzione di Erlang.
In tal caso possibile esprimere in forma esplicita la funzione di distribuzione: tramite
un procedimento di induzione e integrando successivamente per parti e facile mostrare che
risulta, per r 0,
1(r) = crjr
o

I=I
(r)
I
/!
. (17)
Tale formula verr ricavata in modo alternativo considerando la distribuzione del tempo
dattesa no al k-esimo arrivo per un processo di Poisson.
Il seguente risultato mostra una propriet di chiusura, della famiglia delle distribuzioni
gamma, rispetto alla somma di variabili aleatori indipendenti; tale risultato ha un importanza
fondamentale, come in parte vedremo, per molti aspetti, sia teorici che applicativi, del calcolo
delle probabilit.
Proposizione 11.1
Siano A. ) due variabili aleatorie e poniamo 2 = A + ).
Se A. ) sono tali che
A ~ G(c
1
. ). ) ~ G(c
2
. ).
A. ) stocasticamente indipendenti.
Allora risulta
2 ~ G(c
1
+ c
2
. ). (18)
26
Dimostrazione.
1
Z
(.) = 1A + ) _ . =

+o
o

:&
o
1
A.Y
(r. n) drdn =

+o
o
1
Y
(n)

:&
o
1
A
(r) dr

dn =

+o
0
1
Y
(n)

:&
0
1
A
(r) dr

dn.
quindi
1
Z
(.) =
d
d.

+o
0
1
Y
(n)

:&
0
1
A
(r) dr

+o
0
1
Y
(n)

d
d.

:&
0
1
A
(r) dr

dn =
=

+o
0
1
Y
(n) 1
A
(. n) dn.
Imponiamo ora
1
A
(r) =

c
1
(c
1
)
r
c
1
1
expr1
|a0
. 1
Y
(n) =

c
2
(c
2
)
n
c
2
1
expn.
Ottieniamo dunque
1
Z
(.) = 0 per . < 0
e, per . 0,
1
Z
(.) =

:
0

c
1
+c
2
(c
1
) (c
2
)
n
c
2
1
(. n)
c
1
1
exp.dn =
=

c
1
+c
2
(c
1
) (c
2
)
exp.

:
0
n
c
2
1
(. n)
c
1
1
dn (19)
Tramite la trasformazione n = t. otteniamo

:
0
n
c
2
1
(. n)
c
1
1
dn = I (c
1
. c
2
) .
c
1
+c
2
1
.
avendo indicato con il simbolo I (c
1
. c
2
) lintegrale
I (c
1
. c
2
) =

1
0
t
c
2
1
(1 t)
c
1
1
dn.
che risulta essere dunque una quantita costante, indipendente da ..
Per . 0 abbiamo quindi, dalla (19),
1
Z
(.) =
I (c
1
. c
2
)
(c
1
) (c
2
)

c
1
+c
2
.
c
1
+c
2
1
exp..
e dunque la (18), e si contemporaneamente dimostrata, \c. / 0, lidentita
27

1
0
t
o1
(1 t)
b1
dn =
(c) (/)
(c + /)
. (20)
Corollario 11.2
Siano
A
1
. A
2
. ...A
a
variabili aleatorie indipendenti con
A
I
~ c (\) . / =. 2. .... :.
Allora
a

I=1
A
I
~ G(:. \) .
Dimostrazione
Basta notare che una distribuzione esponenziale di parametro \ coincide con una dis-
tribuzione gamma con parametri c = 1. = \.
12 Distribuzioni gaussiane (o normali)
Diremo che una variabile aleatoria 2 segue una distribuzione gaussiana standard, e scriver-
emo brevemente,
2 ~ A (0. 1) .
se la 2 distribuzione di probabilit di 2 assolutamente continua ed ammette una funzione
di densit di probabilit data da
1
Z
(r) =
1

2:
exp
r
2
2
. (21)
Viene usualmente indicata con il simbolo la funzione di distribuzione di 2; cio si pone
(r) =

a
o
1

2:
exp
:
2
2
d:.
E noto che non si sa scrivere in modo esplicito tale funzione in termini di altre funzioni
elementari.
La quantita
1

2
ha il ruolo di costante di normalizzazione, risulta infatti
1 =

+o
o
exp
r
2
2
dr =

2:. (22)
28
o, equivalentemente,
lim
a+o
(r) = 1.
Lidentit (22) si dimostra come segue. Scriviamo innanzitutto
1
2
=

+o
o
exp
r
2
2
dr

+o
o
exp
n
2
2
dn

.
Per il Teorema di Fubini sar anche
1
2
=

+o
o

+o
o
exp
r
2
+ n
2
2
drdn.
Eseguendo in tale integrale un cambiamento delle coordinate cartesiane in coordinate polari,
segue
1
2
=

+o
0
exp
j
2
2
j djdo.
ed essendo

+o
0
exp
j
2
2
j dj = 1.
possiamo concludere
1
2
=

do = 2:.
da cui otteniamo la (22). Eseguendo un opportuno cambiamento di variabile, possiamo
ricavare da questultima unulteriore identit, che si riveler utile varie volte in quanto segue:
consideriamo la trasformazione
n =
r
2
2
(23)
(cosicch dr =

2
2
n

1
2
dn), risulta
1 = 2

+o
0
exp
r
2
2
dr =

+o
0
expn

2n

1
2
dn =

1
2

.
da cui

1
2

:. (24)
Passiamo, a qusto punto, a ricavare i momenti della distribuzione gaussiana standardiz-
zata.
Si pu facilmente mostrare che essa ammette momenti di qualunque ordine, cio che sono
niti tutti gli integrali del tipo

+o
0
r
I
exp
r
2
2
dr. / = 1. 2. ....
29
Essendo la funzione di densita in (21) una funzione pari, r
I
exp
a
2
2
risulter quindi una
funzione pari o una funzione dispari a seconda che sia pari o dispari lesponente /. Allora
potremo scrivere subito
E

2
I

= 0. per / = 1. 3. 5. ...
Per calcolare i momenti di ordine pari, consideriamo di nuovo la trasformazione denita
in (23) e teniamo conto della (24):
E

2
2I

+o
o
r
2I
1

2:
exp
r
2
2
dr =

+o
0
r
2I
exp
r
2
2
dr =

+o
0
(2n)
I
expn

2
2
n

1
2
dn =
2
I

+o
0
n
I
1
2
expndn =
2
I

/ + 1
2

=
2
I

:
2/ 1
2
2/ 3
2
...
1
2

1
2

= (2/ 1) (2/ 3) ... 3 1.


Osserviamo che in particolare risulta
E(2) = 0. \ c: (2) = 1;
cio A una variabile aleatoria standardizzata.
Fissiamo ora due arbitrari numeri reali j e o, con o 0, e consideriamo la variabile
aleatoria
A = o2 + j.
Viene chiamata distribuzione gaussiana di parametri j e o
2
la distribuzione di probabilit
di A e scriveremo brevemente
A ~ A

j. o
2

.
E immediato vericare che risulta
E(A) = j. \ c: (A) = o
2
.
Vogliamo ora calcolare la funzione di densit di A. Si ha
1
A
(r) = 1A _ r = 1o2 + j _ r =
12 _
r j
o
=

r j
o

;
30
1
A
(r) =
d
dr

r j
o

=
1
o
1
Z

r j
o

=
1

2:o
exp
1
2

r j
o

2
.
I valori della funzione (r) (per r 0) si leggono sulle apposite "tavole della
distribuzione gaussiana"; per ottenere dalle tavole i valori di (r) per r < 0 basta osservare
che risulta
(r) = 1 (r) . \r R.
Il ruolo fondamentale della distribuzione gaussiana in parte spiegato dai risultati circa
la convergenza delle distribuzioni di somme standardizzate di variabili aleatorie verso la dis-
tribuzione gaussiana stessa; di tale corpo di risultati del Calcolo delle Probabilita ricordiamo
in particolare il seguente
Teorema 12.1 (Lindberg-Levy)
Sia
A
1
. A
2
. ...
una successione di variabili aleatorie indipendenti identicamente distribuite, con distribuzione
1(r) tale che
E(A
I
) = j. \ c: (A
I
) = o
2
<
e, per il resto, arbitraria. Poniamo, per : = 2. 3. ...
)
a
=

a
I=1
A
I
:j

:o
.
Si ha allora, per arbitrari c < /,
lim
ao
1c < )
a
< / = (/) (c) =

b
o
1

2:
exp
:
2
2
d:.
13 Distribuzioni del chi-quadro
Vogliamo ottenere la distribuzione di probabilit della variabile aleatoria

a
=
a

I=1
A
2
I
.
dove
A
1
. A
2
. .... A
a
31
sono variabili aleatorie indipendenti con distribuzione gaussiana standard.
Per : = 1, otteniamo, \n 0.
1

1
(n) = 1
1
_ n = 1

n _ A
1
_

n = (

n) (

n) =
2(

n) 1.
Ne segue, per n 0,
1

1
(n) =
d
dn
1

1
(n) =
1

2:n
exp
n
2
.
mentre, per n < 0, risulta ovviamente 1

1
(n) = 0. Possiamo scrivere dunque

1
~ G

1
2
.
1
2

.
Dunque
a
risulta essere la somma di variabili aleatorie indipendenti con distribuzione
G

1
2
.
1
2

e, ricordando la Proposizione 11.1, possiamo concludere scrivendo

a
~ G

:
2
.
1
2

.
Tale distribuzione nota nella letteratura statistica con il nome di distribuzione del chi-
quadro con : gradi di libert.
14 Distribuzioni t di Student
Consideriamo ora una famiglia di distribuzioni di probabilit che riveste di una grande im-
portanza nella Statistica matematica. Iniziamo considerando una variabile aleatoria
2 =
A

)
.
dove A. ) sono stocasticamente indipendenti e tali che A ~ A (0. 1), ) ~chi-quadro(:),
: = 1. 2. ...
La funzione di distribuzione di 2 data da
1
Z
(.) = 1A _
.

:
=

o
0

z
p
y
p
n
o
1
A
(r) dr

1
Y
(n) dn =
=

o
0

n
:
1
2

1
Y
(n) dn.
32
da cui
1
Z
(.) =
d
d.
1
Z
(.) =

o
0

n
:
1
2
c

1
Y
(n) dn =
=
1

2:

o
0
exp
.
2
n
2:

n
:
1
2
1
Y
(n) dn =
=
1

2:

o
0

n
:
1
2
exp
.
2
n
2:

1
2
n
2
1

a
2
n
n
2
1
exp
n
2
dn =

1
::
1
2

a+1
2

a
2

1 +
:
2
a

n+1
2
.
Tale distribuzione detta distribuzione t di Student con n gradi di libert.
Per : 1 risulta nito lintegrale

o
0
.

1 +
:
2
a

n+1
2
d.;
in tal caso esiste dunque il valore atteso E(2) e risulta ovviamente
E(2) = 0.
Per : 2 si ha inoltre, introducendo la trasformazione . =

a
1
1
2

o
0
.
2

1 +
:
2
a

n+1
2
d. =
:
3
2
2

1
0

1
2
(1 )
n2
2
d =
:
3
2
2

3
2

a2
2

a+1
2
.
da cui, ricordando (16), (20) e (24)
\ c: (2) = E

2
2

=
:
: 2
.
Ponendo in particolare : = 1 otteniamo la distribuzione di Cauchy, che ha quindi funzione
di densit
1(r) =
1
:
1
1 + r
2
e funzione di distribuzione
1(r) =
1
2
+
1
:
c:cto (r) .
Per j e t numeri reali assegnati, con t 0, e 2 con distribuzione t di Student con :
gradi libert, consideriamo ora la variabile aleatoria
\ =
2

t
+ j.
33
La funzione di densit di \ sar quindi data da
1
W
(r) =

t
::
1
2

a+1
2

a
2

1 +
t (r j)
2
:

n+1
2
.
La relativa distribuzione di probabilit viene detta distribuzione t di Student con : gradi
libert, parametro di posizione j e parametro di precisione t.
15 Altre famiglie notevoli di distribuzioni di probabil-
it
15.1 Distribuzione di Weibull
La distribuzione di Weibull caratterizzata da una funzione di distribuzione della forma
1 (r) =

0 per r < 0
1 exp\r
o
per r 0
.
dove \ e sono parametri positivi.
Si ha, per r 0,
1(r) =
d
dr
1 (r) = \r
o1
exp\r
o
.
: (r) =
1(r)
1 1 (r)
= \r
o1
.
E interessante notare che : (r) risulta essere una funzione monotona (crescente se 1,
decrescente se < 1).
Per quanto riguarda il valore atteso
E(A) =

+o
0
r\r
o1
exp\r
o
dr.
otteniamo, attraverso il cambiamento di variabile dato da . = r
o
,
E(A) =

+o
0
\. exp\.
d.
.
1

+o
0
\.
1

exp\. =
1
\
1

1 +
1

.
34
15.2 Distribuzione lognormale
Si tratta della distrbuzione di probabilit di una variabile aleatoria A tale
) = log A
segue una distribuzione gaussiana. Quindi, per r 0,
1
A
(r) = 1c
Y
_ r = 1) _ log r = 1
Y
(log r) ;
1
A
(r) =
1
r
1
Y
(log r) =
1
ro

2:
exp
1
2

log r j
o

2
.
15.3 Distribuzione di Pareto
Diciamo che A segue una distribuzione di Pareto con parametri c e r
0
se la sua distribuzione
di probabilit assolutamente continua, con una funzione di densit della forma
1 (r) =

cr
o
0
r
(o+1)
per r r
0
0 altrimenti
.
Se c 2, risulta
E(A) =
cr
o
0
c 1
. \ c: (A) =
cr
o
0
(c 1)
2
(c 2)
.
15.4 Distribuzione beta
Siano c e / due costanti positive assegnate. Diciamo che A segue una distribuzione beta con
parametri c e /. e scriveremo brevemente
A ~ /ctc (c. /) .
se la sua distribuzione di probabilit assolutamente continua, con una funzione di densit
della forma
1 (r) =

1r
o1
(1 r)
b1
per 0 < r < 1
0 altrimenti
.
35
Il valore della costante di normalizzazione
1 =

1
0
r
o1
(1 r)
b1
dr

1
fornito dalla (20):
1 =
(c + /)
(c) (/)
.
Otteniamo inoltre
E(A) =
(c + /)
(c) (/)

1
0
r
o
(1 r)
b1
dr =
(c + /)
(c) (/)
(c + 1) (/)
(c + / + 1)
=
c
c + /
.
Analogamente possiamo ottenere
E

A
2

=
c (c + 1)
(c + /) (c + / + 1)
.
da cui
\ c: (A) =
c/
(c + /)
2
(c + / + 1)
.
16 I processi di Poisson omogenei
Un processo di Poisson un processo di conteggio; esso dotato di propriet assai particolari,
tali che, possiamo dire, un processo di Poisson costituisce un modello idealizzato di processo
di conteggio.
Per poter denire che cosa sia un processo di Poisson dunque necessario fornire, quanto
meno in termini schematici e semplicati, una denizione di processo di conteggio, il ch
verr tentato qui di seguito.
Pensiamo ad un fenomeno che si ripresenti ripetutamente, in un numero di volte pratica-
mente innito, con il trascorrere del tempo, con ripetizioni che avvengono ad istanti aleatori
ed imprevedibili. Immediati e naturali esempi di tale schema sono i seguenti: arrivo di tele-
fonate al centralino telefonico di un grande albergo, emissione di particelle da parte di un
materiale radioattivo, denuncie di sinistri ad una compagnia di assicurazione, etc...
Parleremo in particolare di processi di conteggio semplici, cio tali da escludere, in pratica,
la possibilit di due arrivi contemporaneamente.
Sulla retta reale ssiamo ora un unit di misura, intesa come lappropriata unit di tempo
per lanalisi del fenomeno in questione (un minuto, un milli-secondo, un giorno lavorativo,
36
etc) e ssiamo un origine temporale, a partire dalla quale si cominciano a contare le ripetizioni
del fenomeno).
Per ogni t 0, indichamo con `
t
la variabile aleatoria che indica il numero degli arrivi
(cio delle volte i cui si ripresentato il fenomeno) nellintervallo di tempo [0. t] .
La collezione delle variabili aleatorie `
t

t`0
detta processo di conteggio.
Un processo di conteggio costituisce un semplice esempio di processo aleatorio.
In termini semplicativi, possiamo dire che ci troviamo di fronte ad un processo aleatorio
ogni volta che consideriamo una funzione aleatoria di una variabile temporale.
Notiamo che nel caso di processi di conteggio la funzione del tempo `
t

t`0
una fun-
zione a gradini, con salti unitari che si presentano ad istanti aleatori; ciascun salto si ha
in corrispondenza ad un istante in cui avviene una ripetizione, o un arrivo, del fenomeno
studiato. Gli istanti di arrivo sono dunque aleatori.
Nello studio di un processo di conteggio quindi naturale considerare due successioni di
variabili aleatorie 1
1
. 1
2
. ... e A
1
. A
2
. ...:
1
1
. 1
2
. ... indicano gli istanti di arrivo, mentre A
1
. A
2
. ... indicano i cosidetti intertempi o
tempi di interarrivo, cio le lunghezze degli intervalli temporali fra un arrivo ed il successivo.
Potremo scrivere, pi precisamente, le seguenti relazioni fra tali variabili aleatorie:
`
t
= sup: N[1
a
_ t.
oppure
`
t
=
o

a=1
1
|Tn<t
. (25)
A
1
= 1
1
. A
2
= 1
2
1
1
. .... A
a
= 1
a
1
a1
. ...
1
1
= A
1
. 1
2
= A
1
+ A
2
. .... 1
a
=
a

I=1
A
I
. (26)
Notiamo inoltre che risulta
`
t
< : = 1
a
t (27)
e che 1
.t
indica listante in cui occorso lultimo arrivo precedente allistante t.
La legge di un processo di conteggio determinata dalla specicazione delle distribuzioni
congiunte dei vettori aleatori
(1
1
. 1
2
. ...1
a
) . : = 2. 3. ...
37
oppure
(A
1
. A
2
. ...A
a
) . : = 2. 3. ...
Speciali casi di processi di conteggio sono i processi di rinnovo, deniti dalla condizione
che
A
1
. A
2
. ...A
a
. ...
sia una successione di variabili aleatorie indipendenti, identicamente distribuite, con dis-
tribuzione assegnata 1.
I processi di Poisson, a loro volta, sono dei processi di rinnovo assai speciali: gli intertempi
seguono una distribuzione esponenziale. Vedremo nel seguito che tale condizione implica delle
propriet notevolissime.
Consideriamo dunque un processo di conteggio `
t

t`0
in cui
A
1
. A
2
. ...A
a
. ...
sono variabili aleatorie indipendenti, identicamente distribuite, con distribuzione c (j).
Diremo che `
t

t`0
un processo di Poisson di intensit j.
Innanzitutto vogliamo ricavare, per t 0 ssato, la distribuzione di probabilit della
variabile aleatoria discreta `
t
.
Notiamo innanzitutto che in virt della speciale condizione
A
a
~ c (j) .
risulta, per t
1
< t
2
< ... < t
a
< t,
1`
t+t
= : + 1[1
1
= t
1
. .... 1
a
= t
a
= 1`
t+t
= : + 1[`
t
= : =
= jt + o (t) .
dove
lim
t0
o (t) = 0;
inoltre
1`
t+t
: + 1[1
1
= t
1
. .... 1
a
= t
a
= 1`
t+t
: + 1[1
a
= t
a
= o (t)
dove lim
t
b c(t)
t
= 0.
38
Poniamo ora
j
I
(t) = 1`
t
= /. / = 1. 2. ....
e ricaviamo un sistema di equazioni dierenziali (ordinarie, lineari, del primo ordine) la
cui soluzione ci permetter di ottenere la distribuzione di `
t
per ogni t 0 ssato.
Notiamo inizialmente che, essendo
1
1
= A
1
. A
1
~ c (j) .
possiamo scrivere, ricordando losservazione (27),
j
0
(t) = 11
1
t = expjt. \t 0. (28)
Per un ssato : 0, scriveremo invece, utilizzando la formula delle probabilit totali,
j
a
(t + t) =
o

I=0
j
I
(t) 1`
t+t
= :[`
t
= / =
j
a1
(t) jt + j
a
(t) (1 jt) + o (t) .
Possiamo quindi ottenere lequazione dierenziale
d
dt
j
a
(t) = jj
a1
(t) jj
a
(t) ;
imponendo la condizione iniziale
j
a
(0) = 0.
otteniamo un sistema che sappiamo ammettere una ed una sola soluzione.
Risolvendo ricorsivamente per : = 1. 2. ..., si dimostra facilmente che tale soluzione
data da
j
a
(t) = expjt
(jt)
a
:!
. (29)
Possiamo concludere dunque che
`
t
~ { (jt) .
Vogliamo ora ottenere la legge congiunta del processo a pi istanti : per ogni scelta di un
naturale :, di : istanti 0 < t
1
< ... < t
n
e di : valori /
1
_ ... < /
n
. vogliamo ricavare la
probabilit congiunta
1`
t
1
= /
1
. .... `
tm
= /
n
;
39
in altre parole, vogliamo ricavare la distribuzione congiunta delle variabili aleatorie
`
t
1
. .... `
tm
.
A tale proposito osserviamo che, come conseguenza della denizione di processo di Pois-
son e della propriet di mancanza di memoria delle distribuzioni esponenziali, si ha che il
comportamento probabilistico del processo `
t

t`0
in un intervallo [:. : + t] non dipende dal
comportamento del processo nel precedente intervallo intervallo [0. :] ed uguale al compor-
tamento del processo nellintervallo [0. t]; pi formalmente possiamo dire
`
c
[[ (`
c+t
`
c
) . (`
c+t
`
c
) ~ { (jt) . (30)
Possiamo scrivere ora, per la legge delle probabilit composte,
1`
t
1
= /
1
. .... `
tm
= /
n
=
= 1`
t
1
= /
1
1`
t
2
= /
2
[`
t
1
= /
1
... 1`
tm
= /
n
[`
t
m1
= /
n1
=
= 1`
t
1
= /
1
1`
t
2
`
t
1
= /
2
/
1
... 1`
tm
`
t
m1
= /
n
/
n1
=
expjt
1

[jt
1
]
I
1
/
1
!
expj(t
2
t
1
)
[j(t
2
t
1
)]
I
2
I
1
(/
2
/
1
)!
...
... expj(t
n
t
n1
)
[j(t
n
t
n1
)]
ImI
m1
(/
n
/
n1
)!
=
expjt
n
j
Im
t
I
1
1
(t
2
t
1
)
I
2
I
1
... (t
n
t
n1
)
ImI
m1
/
1
! (/
2
/
1
)! ... (/
n
/
n1
)!
.
Per quanto riguarda i tempi di arrivo possiamo immediatamente ottenere, in base al
Corollario 5.2, che la variabile aleatoria 1
a
segue una distribuzione G(:. j).
Possiamo riottenere dunque lespressione (17) per la funzione di distribuzione di G(:. j)
combinando insieme le formule (25), (28) e (29).
40
PARTE III
17 Statistiche ordinate di variabili i.i.d. e partizioni
casuali di intervalli
Sia X un vettore di variabili aleatorie reali A
1
. .... A
a
.
Con il termine statistiche dordine (o ordinate) si indicano le : variabili
A
(1)
. .... A
(a)
ottenute riordinando
A
1
. .... A
a
in senso crescente; percio, in particolare
A
(1)
= min
1<j<a
A
j
. A
(a)
= max
1<j<a
A
j
.
In quanto segue vogliamo studiare alcuni aspetti della distribuzione di
A
(1)
. .... A
(a)
.
considerando in particolare il caso in cui A
1
. .... A
a
sono indipendenti, identicamente dis-
tribuite e 1 la loro comune funzione di distribuzione, che assumiamo assolutamente con-
tinua e strettamente crescente nellintervallo (c. /).
Introduciamo ora le variabili
1
. ....
a
, dove

j
= 1 (A
j
) . i = 1. 2. .... :.
Lemma 17.1

1
. ....
a
sono i.i.d. con distribuzione 1(0. 1); cio
(
1
. ....
a
) ~ l
a

(a)

.
Dimostrazione

1
. ....
a
sono stocasticamente indipendenti in quanto

j
= 1 (A
j
) . i = 1. 2. .... :
41
e A
1
. .... A
a
sono indipendenti per ipotesi.
Si ha inoltre, per 0 < r < 1,
1

i
(r) = 1
j
_ r = 11 (A
j
) _ r =
= 1A
j
_ 1
1
(r) = 1

1
1
(r)

= r;
mentre, banalmente,
1
j
_ 0 = 0. 1
j
_ 1 = 1.
Indicando con
(1)
. ....
(a)
il vettore delle statistiche dordine delle . .... , e evidente
che risulta

(j)
= 1

A
(j)

.
Per tale motivo, invece che ottenere direttamente la distribuzione congiunta di A
(1)
. .... A
(a)
,
possiamo studiare quella di
(1)
. ....
(a)
, da cui la distribuzione congiunta di A
(1)
. .... A
(a)
si
potr poi ricavare facilmente.
Stabiliamo ora alcuni simboli che verranno utilizzati nel seguito.
Poniamo

(a)
= x
(a)
[r
1
_ r
2
_ ...r
a
.
Per una generica permutazione : dellinsieme 1. 2. .... :, poniamo inoltre

(a)

= x
(a)
[r

1
_ r

2
_ ...r
n
.
ed inne

(a)
= x
(a)
[
a

j=1
r
j
_ 1.
Per brevit ometteremo gli apici (:) ntanto non vi sia possibilit di equivoci.
Proposizione 17.2

(1)
. ....
(a)

~ l
a
() .
Dimostrazione
42
Ovviamente risulta
\
a
() = 1. =

.
\
a
(

0 ) = \
a
(

00 ) . \
a
(

0
a

00 ) = 0. per :
t
= :
tt
.
Ne segue
\
a
() = \
a
(

) =
1
:!
. \:.
Consideriamo la trasformazione c

denita dalla relazione


c

(x) (r

1
. r

2
. .... r
n
) .
c

una trasformazione biunivoca e tale che, \1 E


(a)
. 1 .
\
a
[c

(1)] = \
a
(1) .
Osserviamo ora che
1(
(1)
. ....
(a)
) = 1;
inoltre
1(
(1)
. ....
(a)
) 1 = 1(
1
. ....
a
)

(1).
Daltra parte risulta
\
a

(1)

= :!\
a
(1)
e dunque, essendo
(
1
. ....
a
) ~ l
a
() e \
a
() = 1.
1(
(1)
. ....
(a)
)

(1) = :!\
a
(1) .
Si puo allora concludere \1 E
(a)
. 1
1(. .... ) 1 = :!\
a
(1) =
\
a
(1)
\
a
()
.
Vogliamo adesso ricavare, per / = 1. 2. .... :, la funzione di densita marginale unidimen-
sionale della variabile aleatoria
(I)
.
Per ottenere tale funzione di densita marginale potremmo ricorrere alla applicazione
della formula che in generale esprime una densit marginale in termini della congiunta, che
in tal caso risulta dunque data da
1
A
()
(r
1
. .... r
a
) = :!1

(r
1
. .... r
a
) .
43
E utile pero qui ragionare in modo sintetico, tenendo presente il signicato probabilistico
di 1

(h)
:
1

(h)
(r) = lim
a0
1r _
(I)
_ r + r
r
. (31)
Tenendo conto del fatto che le variabili originarie
1
. ....
a
sono stocasticamente indipen-
denti (e uniformemente distribuite su [0. 1]) e che quindi, per 1 _ i = , _ :,
1(r _
j
_ r + r) (r _
;
_ r + r) = (r)
2
.
possiamo scrivere, per 0 _ r _ 1,
1r _
(I)
_ r + r = 11 1 G + o (r)
dove abbiamo posto:
1 =
j
_ r per (/ 1) indici
1 = r _
;
_ r + r per un indice ,
G = (
j
r + r) per (: /) indici.
Ne segue
1r _
(I)
_ r + r = :

: 1
/ 1

r
I1
r (1 r)
aI
+ o (r) .
In base alla (31) e ricordando la denizione di densit beta(c. ), possiamo dunque con-
cludere con la seguente
Proposizione 17.3

(I)
~ beta (/. : / + 1) .
La funzione di distribuzione di
(I)
si pu ottenere integrando per parti la funzione
di densit 1

(h)
ma, anche in questo caso, conviene ottenere il risultato in modo sintetico,
guardando direttamente al signicato probabilistico:per 0 _ r _ 1,
1

(h)
(r) = 1
(I)
_ r = 1
(I)
_ r, per almeno / indici i =
a

I=I

:
/

r
I
(1 r)
aI
.
44
Passiamo ora a considerare il vettore delle (: + 1) variabili
\
1
. .... \
a
. \
a+1
denite come segue:
\
1
=
(1)
. \
2
=
(2)

(1)
. .... \
a
=
(a)

(a1)
. \
a+1
= 1
(a)
.
Risultando dunque
1
a+1

I=1
\
I
= 1 = 1.
la distribuzione congiunta di (\
1
. .... \
a
. \
a+1
) non puo essere assolutamente continua. Risul-
ter per assolutamente continua la distribuzione congiunta di (\
1
. .... \
a
) e si ha
Proposizione 17.4
(\
1
. .... \
a
) ~ l
a

(a)

.
Dimostrazione
Consideriamo la trasformazione

(1)
= \
1
.
(2)
= \
1
+ \
2
. ....
(a)
=
a

I=1
\
I
.
il cui determinante jacobiano e uguale a 1.
Dalla Proposizione 12.2 e applicando la formula (14), otteniamo per (\
1
. .... \
a
) la funzione
di densit congiunta
1
V
(v) = 1

1
.
1
+
2
. ....
a

I=1

= :!1

1
.
1
+
2
. ....
a

I=1

.
La tesi segue ora osservando che

1
.
1
+
2
. ....
a

I=1


se e solo se
(
1
.
2
. ....
a
)
e dunque
1

1
.
1
+
2
. ....
a

I=1

= 1

(
1
.
2
. ....
a
)
45
e che
\
a
() =
1
:!
.
Consideriamo ora, per : 0, : variabili A
1
. .... A
a
. i.i.d. con
A
j
~ 1(0. :)
e le relative statistiche dordine A
(1)
. .... A
(a)
.
La distribuzione congiunta di A
(1)
. .... A
(a)
coincide con la distribuzione delle variabili
:. .... :.
Deniamo quindi, analogamente a quanto sopra,
\
1
= A
(1)
. \
2
= A
(2)
A
(1)
. .... \
a
= A
(a)
A
(a1)
.

(a.c)
= x R
a
[0 _ r
j
_ 1. i = 1. 2. .... :

(a.c)
= x
(a.c)
[r
1
_ r
2
_ ...r
a
.

(a.c)
= x
(a.c)
[
a

j=1
r
j
_ :.
Adattando i precedenti risultati, possiamo facilmente giungere a concludere che
\
a

(a.c)

= \
a

(a.c)

=
:
a
:!
e che vale la seguente
Proposizione 17.5
(A
1
. .... A
a
) ~ l
a

(a.c)

A
(1
). .... A
(a)

~ l
a

(a.c)

. (\
1
. .... \
a
) ~ l
a

(a.c)

.
18 Variabili esponenziali, processi di Poisson e par-
tizioni casuali di intervalli.
Sia
A
1
. A
2
. ...
46
una successione di variabili aleatorie non negative e siano
1
1
. 1
2
. ...
le relative somme parziali:
1
1
= A
1
. 1
2
= A
1
+ A
2
. ...
Il seguente risultato riguarda, per : ssato, la distribuzione congiunta di A
1
. A
2
. .... A
a
condizionatamente alla conoscenza del valore assunto da 1
a+1
.
Proposizione 18.1
Siano A
1
. A
2
. ...indipendenti, identicamente distribuite con
A
j
~ c(o). o 0.
Condizionatamente a (1
a+1
= t), la distribuzione condizionata di
A
1
. A
2
. .... A
a
uniforme sullinsieme
(a.t)
.
Dimostrazione
Ricaviamo innanzitutto la densita congiunta di
(A
1
. A
2
. .... A
a
. 1
a+1
).
Consideriamo la trasformazione l : R
a+1
+
R
a+1
+
denita da
A
1
= A
1
. A
2
= A
2
. .... A
a
= A
a
. A
a+1
= 1
a+1

;=1
A
;
.
Tenendo conto che lo jacobiano di tale trasformazione costante, ed uguale ad 1, e che
risulta, per ipotesi,
1
A
1
.....A
n+1
(r
1
. .... r
a+1
) = o
a+1
expo
a+1

;=1
r
;
.
otteniamo
1
A
1
.....An.T
n+1
(r
1
. .... r
a
. t) = o
a+1
expot.
Ricordando inoltre che la distribuzione di 1
a+1
G(: + 1. o), cio che per t 0
1
T
n+1
(t) =
o
a+1
:!
t
a
expot.
47
otteniamo, per x =(r
1
. .... r
a
)
(a.t)
.
1
A
1
.....An
(r
1
. .... r
a
[1
a+1
= t) =
1
A
1
.....An..T
n+1
(r
1
. .... r
a
. t)
1
T
n+1
(t)
=
=
:!
t
a
.
Consideriamo ora un processo di Poisson `
t

t`0
, di intensit j, e ricordiamo che i
relativi istanti di arrivo possono essere visti come le somme parziali
1
1
= A
1
. 1
2
= A
1
+ A
2
. .... 1
a+1
=
a+1

;=1
A
;
. ...
di variabili aleatorie indipendenti
A
1
. A
2
. .... A
a
. A
a+1
.
identicamente distribuite con A
j
~ 1(j).
Dalla precedente proposizione possiamo allora facilmente ricavare il seguente
Corollario 18.2
La distribuzione condizionata di (1
1
. 1
2
. .... 1
a
) dato 1
a+1
= t, uniforme sullinsieme

(a.t)
.
Notiamo che, in un processo di conteggio, gli eventi
`
t
= :. 1
a
_ t < 1
a+1

sono fra di loro equivalenti; tali eventi sono ovviamente implicati dallevento 1
a
= t.
Fra le varie propriet notevoli dei processi di Poisson, si ha che la distribuzione condizion-
ata di
(1
1
. 1
2
. .... 1
a
)
dato `
t
= : coincide con la distribuzione condizionata di (1
1
. 1
2
. .... 1
a
) dato 1
a+1
= t.
Si ha infatti
Proposizione 18.3
La distribuzione condizionata di (1
1
. 1
2
. .... 1
a
) dato `
t
= :, uniforme sullinsieme

(a.t)
.
Dimostrazione
48
Si tratta di dimostrare che
11
1
_ t
1
. 1
2
_ t
2
. .... 1
a
_ t
a
[`
t
= : =
1
\
a
(
(a.t)
)

t
1
0

t
2
0
...

tn
0
1
|
(n;t)

(n
1
. .... n
a
) dn
1
...dn
a
;
cio che
11
1
_ t
1
. 1
2
_ t
2
. .... 1
a
_ t
a
[`
t
= : =
:!
t
a

t
1
0

t
2
&
1
...

tn
&
n1
dn
1
...dn
a
.
Considerando la trasformazione biunivoca l :
(a+1.t)

(a+1.t)
denita dalla relazioni:
A
1
= 1
1
. A
2
= 1
2
1
1
. .... A
a+1
= 1
a+1
1
a
.
il cui determinante jacobiano uguale a 1, possiamo scrivere
1
T
1
.....Tn.T
n+1
(n
1
. .... n
a
. n
a+1
) =
= 1
A
1
.....An.A
n+1
(n
1
. n
2
n
1
. .... n
a+1
n
a
) .
Dunque, per
(n
1
. .... n
a
. n
a+1
)
(a+1.t)
.
risulta
1
T
1
.....Tn.T
n+1
(n
1
. .... n
a
. n
a+1
) = j
a+1
expjn
a+1
. (32)
Per la denizione di probabilit condizionata, si ha
11
1
_ t
1
. 1
2
_ t
2
. .... 1
a
_ t
a
[`
t
= : =
=
1(1
1
_ t
1
. 1
2
_ t
2
. .... 1
a
_ t
a
) 1
a
_ t < 1
a+1

1`
t
= :
.
Ora
1(1
1
_ t
1
. 1
2
_ t
2
. .... 1
a
_ t
a
) 1
a
_ t < 1
a+1
=
1(1
1
_ t
1
. 1
2
_ t
2
. .... 1
a
_ t
a
) (1
a+1
t) =
=

t
1
0

t
2
&
1
...

tn
&
n1

o
t
1
T
1
.....Tn.T
n+1
(n
1
. .... n
a
. n
a+1
) dn
1
...dn
a+1
.
49
Dunque
1(1
1
_ t
1
. 1
2
_ t
2
. .... 1
a
_ t
a
) 1
a
_ t < 1
a+1
=
= j
a

t
1
0

t
2
&
1
...

tn
&
n1

o
t
jexpjn
a+1
dn
a+1

dn
1
...dn
a
=
= j
a

t
1
0

t
2
&
1
...

tn
&
n1
expjtdn
1
...dn
a
.
Tenendo conto che risulta
1`
t
= : = c
jt
(jt)
a
:!
.
possiamo quindi concludere
1(1
1
_ t
1
. 1
2
_ t
2
. .... 1
a
_ t
a
) 1
a
_ t < 1
a+1

1`
t
= :
=
:!
t
a

t
1
0

t
2
&
1
...

tn
&
n1
dn
1
...dn
a
.
cio la tesi.
Tale risultato viene talvolta espresso aermando che i processi di Poisson godono della
propriet di statistica ordinata.
Consideriamo invece ora, dato levento
(`
t
= :).
la distribuzioni di probabilit (unidimensionale) condizionata della variabile `
c
, per 0 < : <
t; vogliamo cioe, per / = 0. 1. .... :, calcolare
1`
c
= /[`
t
= : = 11
I
_ : < 1
I+1
[`
t
= :.
Utilizzando la Formula di Bayes, si ottiene
1`
c
= /[`
t
= : = 1`
c
= /
1`
t
= :[`
c
= /
1`
t
= :
=
crjj:
:
I
/!
:!
crjjtt
a
crjj(t :) (t :)
aI
(: /)!
=

:
/

:
t

1
:
t

aI
.
Possiamo dunque concludere che la distribuzione condizionata di `
c
dato (`
t
= :) una
distribuzione binomiale di parametri : e j =
c
t
.
Notiamo che allo stesso risultato si pu anche giungere direttamente tramite un semplice
ragionamento basato sulle proposizioni 17.5 e 18.3.
50
19 Generazione di variabili aleatorie gaussiane
In questo paragrafo applicheremo la relazione (14) al problema di generare variabili
aleatorie gaussiane.
Sia
X = A
1
. A
2
. ...
una successione di variabili aleatorie indipendenti identicamente distribuite, con distribuzione
uniforme sullintervallo [0. 1].
Si presenta comunemente il problema di costruire, a partire da X e tramite semplici
trasformazioni sulle A, una successione di variabili aleatorie indipendenti con una funzione
di distribuzione assegnata 1(r). Poniamo
inf 1 = supr R[1(r). sup 1 = infr R[1(r) = 1
ed assumiamo che 1(r) sia continua e strettamente crescente nel dominio (inf 1. sup 1).
Consideriamo inoltre la funzione 1
1
: [0. 1] [inf 1. sup 1] denita da
1
1
(r) =

inf 1 se r = 0
n se 1(n) = r
sup 1 se r = 1
e consideriamo le variabili aleatorie
)
1
= 1
1
(A
1
) . )
2
= 1
1
(A
2
) . ...
)
1
. )
2
. ... sono variabili aleatorie indipendenti identicamente distribuite, inoltre si ha
Proposizione 19.1
1
Y
j
(n) = 1(n). \n R.
Dimostrazione
Si tratta di una semplice verica:
per n _ inf 1, si ha
1
Y
j
(n) = 1)
;
_ n = 0
ed, analogamente, per n _ sup 1, si ha
1
Y
j
(n) = 1.
51
Inne, per inf 1 < n < sup 1,
1
Y
j
(n) = 11
1
(A
;
) _ n = 1A
;
_ 1(n) = 1(n).
Esempio 19.1
Sia A una variabile aleatoria con distribuzione uniforme sullintervallo [0. 1] e supponiamo
di voler ottenere una variabile aleatoria con distribuzione esponenziale c(j), con j 0.
In tal caso si ha
1(r) = [1 expjr] 1
|a`0
inf 1 = 0. sup 1 =
1
1
(.) =
1
j
log (1 .) . 0 < . < 1.
Dunque ) =
1
j
log (1 A) segue la distribuzione c(j).
Il metodo qui illustrato non e praticabile nei casi in cui i valori della funzione 1
1
possono essere calcolati soltanto mediante delle procedure numeriche.
Questo appunto il caso, in particolare, quando si voglia costruire una variabile aleatoria
con una distribuzione gaussiana.
Cio sottolinea linteresse della seguente trasformazione (detta "trasformazione di
Box e Muller") che permette di ricavare una coppia di variabili aleatorie indipendenti gaus-
siane standardizzate a partire da una coppia di variabili aleatorie indipendenti distribuite
uniformemente in [0. 1].
Sia dunque A
1
. A
2
una coppia di variabili aleatorie la cui distribuzione congiunta
uniforme nel quadrato unitario
(2)
, cio con funzione di densita congiunta
1
A
1
.A
2
(r
1
. r
2
) =

1 per 0 _ r
1
. r
2
_ 1
0 altrove
e consideriamo la trasformazione T :
(2)
R
2
denita dalle relazioni
n
1
(r
1
. r
2
) = (2 log r
1
)
1
2
cos (2:r
2
) .
n
2
(r
1
. r
2
) = (2 log r
1
)
1
2
sin (2:r
2
) .
Tale applicazione invertibile e la trasformazione U :R
2

(2)
inversa della T ovviamente
data da
r
1
(n
1
. n
2
) = exp
n
2
1
+ n
2
2
2

52
r
2
(n
1
. n
2
) =
1
2:
c:cto
n
2
n
1
.
Lo jacobiano di tale trasformazione inversa e dato da
J (n
1
. n
2
) =

n
1
exp
&
2
1
+&
2
2
2
n
2
exp
&
2
1
+&
2
2
2

&
2=y
1
2

1+
y
2
2
y
2
1

1
=y
1
2

1+
y
2
2
y
2
1

e quindi
J (n
1
. n
2
) =
1
2:
exp
n
2
1
+ n
2
2
2
.
La coppia di variabili aleatorie
)
1
= (2 log A
1
)
1
2
cos (2:A
2
) . )
2
= (2 log A
1
)
1
2
sin (2:A
2
)
ha quindi una funzione di densita congiunta data da
1
Y
1
.Y
2
(n
1
. n
2
) = 1
A
1
.A
2
(n
1
. n
2
)
1
2:
exp
n
2
1
+ n
2
2
2
=
1
2:
exp
n
2
1
+ n
2
2
2
.
e possiamo concludere cio che )
1
. )
2
sono due variabili aleatorie con distribuzione gaussiana
standard, indipendenti
20 Trasformazioni ortogonali di campioni gaussiani e
teorema di Cochran
Sia T : R
a
R
a
una trasformazione linare associata ad una matrice A = (c
j;
): per x R
a
T(x) = Ax.
Supponiamo A ortogonale:
a

;=1
c
I;
c
I;
= 0, per 1 _ / = / _ :
a

;=1
c
2
I;
= 1. / = 1. 2. .... :.
Ne segue
A
1
= A
+
.
[ det (A) [ = [ det (A
+
) [ = [ det

A
1

[ = 1;
53
dunque la trasformazione U, inversa della T, data da
U(y) = A
+
y.
Pi esplicitamente, le componenti della U sono
l
;
(n
1
. .... n
a
) =
a

j=1
c
;j
n
j
.
Anche tale trasformazione risulta ortogonale e, relativamente al modulo del relativo jaco-
biano, si ha
[J
U
(y) [ = [ det

A
1

[ = 1. \y R
a
; (33)
Inoltre si ha che la trasformazione U conserva le distanze; si ha cio
Lemma 20.1
a

;=1
[l
;
(n
1
. .... n
a
)]
2
=
a

j=1
n
2
j
.
Pur se questa propriet risulta ben nota, ne viene fornita, per comodit del lettore, la
verica diretta qui di seguito.
Dimostrazione
a

;=1
[l
j
(n
1
. .... n
a
)]
2
=
a

;=1

j=1
c
;j
n
j

2
=
a

;=1

j=1
c
2
;j
n
2
j
+

j
1
,=j
2
(c
;
1
j
c
;
2
j
) (n
j
1
n
j
2
)

=
a

;=1

j=1
c
2
;j

n
2
j
+

j
1
,=j
2

;=1
c
j
1
;
c
j
2
;

(n
j
1
n
j
2
) =
a

j=1
n
2
j
.
Oppure, in forma compatta,
a

j=1
n
2
j
= y
+
y =(Ax)
+
(Ax) = x
+
A
+
Ax = x
+
x =
a

;=1
r
2
;
=
a

;=1
[l
;
(n
1
. .... n
a
)]
2
.
Consideriamo ora : variabili aleatorie A
1
. .... A
a
, indipendenti con identica distribuzione
A(0. o
2
) e consideriamo le variabili )
1
. .... )
a
ottenute applicando la trasformazione T al
vettore X, cio Y = AX.
Proposizione 20.2
54
Anche )
1
. .... )
a
sono variabili indipendenti con distribuzione A(0. o
2
).
Dimostrazione
Applicando la (14) e tenendo conto della (33), si ottiene
1
Y
(y) = 1
X
(l
1
(y) . .... l
a
(y)) [J
U
(y) [ =

1
2:o
2
n
2
exp
1
2o
2
a

j=1
[l
j
(y)]
2
.
Tenendo quindi conto del precedente Lemma, otteniamo
1
Y
(y) =

1
2:o
2
n
2
exp
1
2o
2
a

j=1
n
2
j

e questultima coincide proprio con la funzione di densit congiunta di : variabili aleatorie


)
1
. .... )
a
indipendenti con identica distribuzione A(0. o
2
).
Corollario 20.3
Sia A una matrice ortogonale e A
1
. .... A
a
variabili aleatorie indipendenti e con
A
j
~ A(j
j
. o
2
).
Ponendo
Y = ()
1
. .... )
a
) = A X
otteniamo un vettore di variabili aleatorie indipendenti
)
j
~ A(
a

;=1
c
j;
j
;
. o
2
)
Dimostrazione
Poniamo

;
= A
;
j
;
;
otteniamo delle variabili aleatorie

1
. ....
a
indipendenti ed identicamente distribuite, con distribuzione A(0. o
2
); quindi anche
A
un vettore di variabili aleatorie indipendenti ed identicamente distribuite, con distribuzione
A(0. o
2
).
55
La conclusione si ottiene osservando che
Y = A X = A + Aj
Corollario 20.4
Una combinazione lineare di variabili aleatorie gaussiane indipendenti segue una
distribuzione gaussiana.
Dimostrazione
Siano A
1
. .... A
a
variabili aleatorie indipendenti con
A
;
~ A(j
;
. :
2
;
).
e siano c
1
. .... c
a
delle costanti assegnate; poniamo
) =
a

;=1
c
;
A
;
.
Come sappiamo, possiamo scrivere
A
;
= j
;
+ :
;
2
;
dove 2
1
. .... 2
a
sono variabili aleatorie standard, ed anche esse indipendenti.
Dunque
) =
a

;=1
c
;
j
;
+
a

;=1
c
;
:
;
2
;
e risulta
j = E() ) =
a

;=1
c
;
j
;
. o
2
= \ c:() ) =
a

;=1
c
2
;
:
2
;
.
Ponendo
c
;
=
c
;
:
;
o
. 1
;
= o (A
;
j
;
) .
possiamo scrivere
) j =
a

;=1
c
;
:
;
2
;
=
a

;=1
c
;
1
;
.
Ora 1
1
. .... 1
a
sono variabili aleatorie i.i.d. con
1
;
~ A(0. o
2
)
e
a

;=1
c
2
;
= 1.
56
Dunque (c
1
. .... c
a
) pu essere vista come la prima riga di una trasformazione ortonor-
male e ) j pu essere vista come la prima coordinata di un vettore di variabili aleatorie
indipendenti identicamente distribuite con distribuzione A(0. o
2
).
Date : variabili aleatorie A
1
. .... A
a
poniamo
A =

a
;=1
A
;
:
. o
2
=
a

;=1

A
;
A

2
.
Proposizione 20.5
Siano A
1
. .... A
a
variabili indipendenti con identica distribuzione A(j. o
2
).
Risulta allora
o
2
o
2
~ c/i ncd:o(: 1).
A j

S
2
a(a1)
~ t
a
.
Dimostrazione
Consideriamo la trasformazione ortogonale denita dalla matrice = (c
j;
), con
elementi deniti come segue:
c
1;
=

:
:
. , = 1. 2. .... :
e, per i 1,
c
j;
=
1

i (i 1)
. , = 1. 2. ...i 1
c
jj
=
i 1

i (i 1)
c
j;
= 0. , = i + 1. .... :.
Poniamo ora
Y = AX
ed osserviamo che, in virt del Corollario 20.3, risulta
)
1
= A

: ~ A(

:j. o
2
)
)
2
=

2
2
(A
2
A
1
) ~ A(0. o
2
)
)
3
=
1

6
(2A
3
A
1
A
2
) ~ A(0. o
2
)
57
..........
)
a
=
(: 1) A
a
A
1
A
2
... A
a1

:(: 1)
~ A(0. o
2
).
)
1
. )
2
. .... )
a
sono stocasticamente indipendenti e quindi

a
j=2
)
2
j
o
2
=

)
2
o

2
+

)
3
o

2
+ ... +

)
a
o

2
~ c/i ncd:o(: 1). (34)
Osserviamo ora che, essendo A ortogonale ed in virt del Lemma 20.1, risulta
a

j=1
)
2
j
=
a

;=1
A
2
;
.
da cui
o
2
=
a

;=1

A
;
A

2
=
a

;=1
A
2
;
:A
2
=
a

;=1
A
2
;
)
2
1
=
a

j=2
)
2
j
(35)
Dalla (34), segue quindi
o
2
o
2
~ chi-quadro(: 1).
Dallindipendenza stocastica fra le coordinate di Y e dalla (35) segue che le variabili
aleatorie A ed o
2
sono indipendenti.
La variabile
Aj
q
S
2
n(n1)
segue quindi una distribuzione t di Student con (:1) gradi di
liberta.
21 Applicazione statistica del Teorema di Cochran: in-
tervalli di ducia per la media di un campione gaus-
siano
Consideriamo di nuovo : variabili aleatorie A
1
. .... A
a
. indipendenti con identica distribuzione
A(j. o
2
).
Indichiamo qui o
2
per mettere in evidenza che tali variabili hanno una varianza nota.
Pensiamo invece che j sia un parametro incognito e che si ponga quindi il problema statistico
di stimare" tale parametro sulla base dellosservazione dei valori assunti da A
1
. .... A
a
.
Considerazioni di tipo statistico suggeriscono che una buona "stima" di j, sulla base
dellosservazione di una :-upla di valori r
1
. .... r
a
. sia la loro media aritmetica
r =
1
:
a

I=1
r
I
.
58
Si pone a questo punto il problema di valutare la precisione di tale stima.
Fissiamo allora una quantit 0, ed osserviamo quanto segue.
Sappiamo che la variabile aleatoria
A =
1
:
a

I=1
A
I
segue una distribuzione A(j.
b o
2
a
); passando quindi alla variabile standardizzata di A possi-
amo scrivere
1 _
A j
o

: _ =
oppure
1A
o

:
_ j _ A +
o

:
= . (36)
avendo indicato con il simbolo la quantit
2() 1.
Notiamo che non dipende dal valore del parametro j.
Per ottenere un valore pressato per , occorre porre
=
1

1 +
2

.
Diremo che lintervallo aleatorio

A
o
1

1+~
2

:
. A +
o
1

1+~
2

(37)
costituisce un intervallo di ducia a livello per il parametro j.
Osservazione 21.1
Notiamo che lassegnazione di probabilit in (36) riguarda le variabili aleatorie A
1
. .... A
a
;
non si tratta di unassegnazione di probabilit sul parametro j, che, sebbene incognito, non
viene qui visto come una variabile aleatoria.
Ora si deve evidenziare il fatto che la costruzione dellintervallo di ducia in (37) basata
sulla conoscenza della varianza o
2
.
Ci chiediamo allora come sia possibile costruire un intervallo di ducia per j, nel caso in
cui le variabili statistiche A
1
. .... A
a
, sono indipendenti con identica distribuzione A(j. o
2
)
nel caso in cui anche o
2
sia un parametro incognito.
59
Vorremmo determinare cio, per un qualunque livello di ducia , con 0 < < 1, una
coppia di funzioni
c
~
(A
1
. .... A
a
) _
~
(A
1
. .... A
a
)
tali che
1c
~
(A
1
. .... A
a
) _ j _
~
(A
1
. .... A
a
) = .
La soluzione a tale problema direttamente fornita dalla precedente Proposizione 20.5,
secondo cui risulta
A j

S
2
a(a1)
~ t
a1
(38)
avendo posto
o
2
=
a

I=1

A
I
A

2
.
Indichiamo con 1
a1
la funzione di distribuzione di una distribuzione t di Student con
: 1 gradi di libert.
In base alla (38), e ragionando in modo analogo a quanto sopra, possiamo concludere
come segue
Proposizione 21.1
Siano A
1
. .... A
a
variabili indipendenti con identica distribuzione A(j. o
2
).
Risulta allora, per 0 < < 1 ed indipendentemente dal valore di j,
1

A
1
1
a1

1+~
2

a
I=1

A
;
A

:(: 1)
_ j _ A +
1
1
a1

1+~
2

a
I=1

A
;
A

:(: 1)

= .
22 Distribuzioni gaussiane in due dimensioni
In questo paragrafo consideriamo una coppia di variabili aleatorie A. ) e vogliamo denire
che cosa signica il fatto che la distribuzione congiunta di (A. ) ) sia una gaussiana bidimen-
sionale.
Prima di fare questo si rende per opportuna la seguente premessa.
Concentriamo lattenzione su coppie di variabili aleatorie A. ) dotate di valore atteso
nito e la cui distribuzione ammetta una funzione di densita congiunta.
Tali condizioni ci garantiscono la possibilit di parlare di densita condizionata, ad esem-
pio, di ) dato (A = r) e di valore atteso condizionato di ) dato (A = r) :
60
E() [A = r) =

+o
o
n1
Y
(n[A = r)dn =

+o
o
n
1(r. n)
1
A
(r)
dn. (39)
La funzione della variabile r, denita da
c
Y
(r) = E() [A = r)
ha un ruolo notevole, in particolare nella statistica, e viene detta funzione di regressione di
) rispetto alla variabile A.
Nel caso particolare in cui c
Y
(r) risulti essere della forma
c
Y
(r) = cr + / (40)
si parlera di retta di regressione.
Ovviamente i ruoli delle due variabili A e ) potrebbero essere scambiati.
Il seguente risultato mette in luce alcune speciche caratteristiche di distribuzioni bidi-
mensionali in cui valga la relazione (40).
Assumiamo anche lesistenza dei momenti secondi per le variabili A. ) ed, al solito,
indichiamo con j(A. ) ) il coeciente di correlazione fra A e) :
j(A. ) ) =
(o(A. ) )

\ c:(A)

\ c:() )
.
Proposizione 22.1
Supponiamo che la distribuzione congiunta di A. ) sia tale che valga la relazione (40).
Allora risulta
i)
E() ) = cE(A) + /. (41)
ii)
j(A. ) ) = c

\ c:(A)

\ c:() )
. (42)
Dimostrazione
Osserviamo innanzitutto che, tenendo conto della (39), la (40) e equivalente a

+o
o
n1(r. n)dn = 1
A
(r) (cr + /) (43)
i) si dimostra immediatamente integrando da a +entrambi i membri della identit
(43) rispetto alla variabile r.
61
Per quanto riguarda ii), moltiplichiamo per r entrambi i membri della identit (43) e
successivamente integriamo da a + rispetto alla variabile r. In tal modo otteniamo

+o
o

+o
o
rn1(r. n)dn =

+o
o
cr
2
1
A
(r)dr + /

+o
o
r1
A
(r)dr
cio
E(A ) ) = cE(A
2
) + /E(A)
che possiamo anche riscrivere come
j(A. ) )

\ c:(A) \ c:() ) +E(A)E() ) = c

\ c:(A) + (E(A))
2

+ /E(A).
da cui ii) si ottiene immediatamente tenendo conto della (41).
Notiamo dunque che i coecienti c e / nella relazione lineare (40) hanno il seguente
signicato probabilistico:
c = j(A. ) )

\ c:() )

\ c:(A)
. / = E() ) j(A. ) )

\ c:() )

\ c:(A)
E(A)
e che quindi possiamo anche scrivere
c
Y
(r) = E() ) + j(A. ) )

\ c:() )

\ c:(A)
(r E(A)).
Notiamo che un particolarissimo caso in cui soddisfatta la condizione (40) quando si
ha
) = cA + /.
In tal caso risulta j(A. ) ) = 1, a seconda del segno del coeciente c.
Procediamo ora a formulare la denizione di distribuzione gaussiana bidimensionale
Denizione 22.1
Diremo che la coppia (A. ) ) segue una distribuzione gaussiana bidimensionale di para-
metri j
A
. j
Y
. o
2
A
. o
2
Y
. j, se la densita congiunta risulta essere della forma
1(r. n) =
1
2:o
A
o
Y

1 j
2
exp
1
2(1 j
2
)
((r. n) (44)
con
((r. n) =

r j
a
o
A

2
2j

r j
a
o
A

n j
Y
o
Y

n j
Y
o
Y

2
.
62
Proposizione 22.2
Supponiamo che (A. ) ) segue una distribuzione gaussiana bidimensionale di parametri
j
A
. j
Y
. o
2
A
. o
2
Y
. j. Allora
i) La densita marginale di A una gaussiana di parametri j
A
. o
2
A
La densita marginale di ) una gaussiana di parametri j
Y
. o
2
Y
ii) La densit condizionata di ) , dato (A = r) una gaussiana di parametri j
Y
+j
o
Y
o
X
(r
j
A
). o
2
Y
(1 j
2
)
iii) j(A. ) ) = j
Dimostrazione
Notiamo innanzitutto che vale la decomposizione
((r. n) =

) j
Y
o
Y

r j
a
o
A

2
+ (1 j
2
)

r j
a
o
A

2
=
=

)
o
Y

2
+ (1 j
2
)

r j
a
o
A

2
con
= j
Y
+ j
o
Y
o
A
(r j
A
).
i)
1
A
(r) =

+o
o
1(r. n)dn =
=
1
o
A

2:
exp
1
2o
2
A
(r j
a
)
2

+o
o
1
o
Y

2:

1 j
2
exp
1
2o
2
Y
(1 j
2
)
(n )
2
dn
Notiamo ora che la funzione integranda che compare sotto il segmo di integrale nel mem-
bro a destra lespressione di una densit gaussiana (di parametri e o
2
Y
(1 j
2
)) e quindi
lintegrale stesso uguale ad 1; e quindi
1
A
(r) =
1
o
A

2:
exp
1
2o
2
A
(r j
a
)
2
.
Tramite considerazioni analoghe possiamo vericare che la distribuzione marginale della
variabile ) A(j
Y
. o
2
Y
).
ii)
1
Y
(n[A = r) =
1(r. n)
1
A
(r)
=
63
=
1
o
Y

2:

1 j
2
exp
1
2o
2
Y
(1 j
2
)
(n )
2

Analoghe considerazioni possono essere sviluppate per vericare che la distribuzione con-
dizionata di A dato () = n) gaussiana e per determinarne i relativi parametri.
iii) Dal punto precedente ricaviamo in particolare che la distribuzione congiunta di A e
) tale che vale la relazione (40) in quanto
E() [A = r) = j
Y
+ j
o
Y
o
A
(r j
A
).
Dunque, dalla (42), otteniamo
j(A. ) ) = j.
Osservazione 22.3
La funzione non negativa 1(r. n) denita nella (44) risulta eettivamente essere una
funzione di densit congiunta. Per vericare tale propriet basta mostrare che risulta

+o
o

+o
o
1(r. n)drdn = 1.
Tale identit segue immediatamente da quanto gi sviluppato in merito al punto i) nella
precedente dimostrazione. Possiamo infatti scrivere

+o
o

+o
o
1(r. n)drdn =
=

+o
o
1
o
A

2:
exp
1
2o
2
A
(rj
a
)
2
dr

+o
o
1
o
Y

2:

1 j
2
exp
1
2o
2
Y
(1 j
2
)
(n)
2
dn
=

+o
o
1
o
A

2:
exp
1
2o
2
A
(r j
a
)
2
dr = 1.
Osservazione 22.4
In generale, j(A. ) ) = 0 condizione necessaria ma non suciente per lindipendenza
stocastica fra A ed ) . Nel caso di distribuzione congiunta gaussiana invece tale condizione,
eliminando il termine misto nelle due variabili r. n, fa s che la funzione di densit congiunta
64
in (44) risulti uguale al prodotto di una funzione della sola variabile r per una funzione della
sola variabile n e dunque comporta lindipendenza stocastica fra A ed ) .
Consideriamo ora una nuova coppia di variabili aleatorie l e \ denite come combinazioni
lineari di A ed ) :
l = c
11
A + c
12
). \ = c
21
A + c
22
)
(supponiamo invertibile la matrice = (c
j;
)).
Una diretta applicazione della formula (14) mostra che anche la coppia (l. \ ) segue
una distribuzione congiunta gaussiana bidimensionale, i cui parametri possono essere anche
essere ricavati direttamente in base alle regole di calcolo dei valori attesi, delle varianze e dei
coecienti di correlazione.
Come conseguenza di quanto sin qui detto, possiamo in particolare dedurre che una
variabile aleatoria (scalare), ottenuta come combinazione lineare di una coppia di variabili
aleatorie (non necessariamente indipendenti) con distribuzione congiunta gaussiana, segue
una distribuzione gaussiana.
Tale fatto si pu vedere come diretta generalizzazione del Corollario 20.4.
Facciamo comunque attenzione al fatto che, come si potrebbe mostrare con opportuni
controesempi, una combinazione lineare di variabili aleatorie (marginalmente) gaussiane non
indipendenti (e la cui distribuzione congiunta non sia una gaussiana multidimensionale) non
necessariamente una variabile aleatoria gaussiana.
65

You might also like