PROCESSI STOCASTICI

1
Franco Fagnola
31 gennaio 2009
1
(riassunto) I diritti d’autore sono riservati. Ogni sfruttamento commercia-
le sar`a perseguito. Autore: Franco Fagnola, Dipartimento di Matematica ‘‘F.
Brioschi’’, Politecnico di Milano, piazza Leonardo da Vinci 32, 20133 Milano;
franco.fagnola@polimi.it
2
Indice
1 Richiami di probabilit`a 3
1.1 Variabili aleatorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2 Valore atteso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3 Indipendenza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.4 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2 Il processo di Bernoulli 15
2.1 Costruzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2 Tempo di attesa del primo successo . . . . . . . . . . . . . . . . . . . . . . . . 16
2.3 Tempo di attesa dell’n-esimo successo . . . . . . . . . . . . . . . . . . . . . . 17
2.4 Indipendenza dei tempi tra due successi consecutivi . . . . . . . . . . . . . . . 19
2.5 Canali di comunicazione binari . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.6 Passeggiata casuale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.7 Il problema del ballottaggio . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.8 Tempo del primo ritorno in 0 . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.9 Tempo trascorso dall’ultimo passaggio in 0 . . . . . . . . . . . . . . . . . . . . 26
2.10 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3 Elementi di teoria generale dei processi 29
3.1 Filtrazioni di σ-algebre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.2 Propriet`a delle traiettorie e versioni continue . . . . . . . . . . . . . . . . . . 30
3.3 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
4 Processi puntuali 33
4.1 Processo di Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
4.2 Processi di rinnovi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
4.3 Lotto economico d’acquisto . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.4 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
5 Catene di Markov a tempo continuo 45
5.1 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
6 Moto browniano 57
6.1 Moto Browniano e invarianze per cambi di scala . . . . . . . . . . . . . . . . 57
6.2 Principio di riflessione, legge del massimo . . . . . . . . . . . . . . . . . . . . 59
6.3 Moto browniano d-dimensionale . . . . . . . . . . . . . . . . . . . . . . . . . . 61
6.4 Processo di Bessel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
6.5 Integrale di funzione rispetto al moto browniano . . . . . . . . . . . . . . . . 62
6.6 Processo di Ornstein-Uhlenbeck e ponte browniano . . . . . . . . . . . . . . . 63
6.7 Moto browniano geometrico . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
1
2 INDICE
6.8 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
7 Speranza condizionale 67
7.1 Speranza condizionale di variabili aleatorie integrabili . . . . . . . . . . . . . 68
7.2 Propriet`a di monotonia e proiettivit`a . . . . . . . . . . . . . . . . . . . . . . . 69
7.3 Diseguaglianza di Jensen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
7.4 Speranza condizionale e stima . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
7.5 Speranza condizionale rispetto a σ(V
1
, . . . , V
n
) . . . . . . . . . . . . . . . . . . 71
7.6 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
8 Martingale 73
8.1 Prime propriet`a, sottomaringale, supermartingale . . . . . . . . . . . . . . . . 75
8.2 Tempi d’arresto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
8.3 Teorema d’arresto discreto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
8.4 Applicazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
8.4.1 Passeggiata casuale unidimensionale . . . . . . . . . . . . . . . . . . . 81
8.4.2 Livello di un bacino . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
8.5 Diseguaglianza massimale discreta . . . . . . . . . . . . . . . . . . . . . . . . 84
8.6 Numero di attraversamenti di un intervallo . . . . . . . . . . . . . . . . . . . 84
8.7 Versioni con traiettorie regolari . . . . . . . . . . . . . . . . . . . . . . . . . . 85
8.8 Teorema d’arresto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
8.9 Diseguaglianza di Doob . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
8.10 Teorema di convergenza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
8.11 Decomposizione di Doob-Meyer . . . . . . . . . . . . . . . . . . . . . . . . . . 89
8.12 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
9 Applicazioni al moto browniano e catene di Markov 93
9.1 Probabilit`a e tempi d’uscita del moto browniano . . . . . . . . . . . . . . . . 93
9.2 Moto browniano con deriva . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
9.3 Moto browniano ed equazione di Laplace . . . . . . . . . . . . . . . . . . . . . 95
9.4 Moto browniano ed equazione del calore . . . . . . . . . . . . . . . . . . . . . 97
9.5 Moto browniano geometrico . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
9.6 Martingale e catene di Markov . . . . . . . . . . . . . . . . . . . . . . . . . . 98
9.7 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
10 Processi di Markov 101
10.1 Semigruppi markoviani . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
10.2 Processi markoviani di salto . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
10.3 Processi di diffusione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
10.4 Martingale di un processo di Markov . . . . . . . . . . . . . . . . . . . . . . . 107
10.5 Propriet`a di Feller . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
10.6 Irriducibilit`a e tempo di soggiorno in un insieme . . . . . . . . . . . . . . . . 109
10.7 Ricorrenza e transienza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
10.8 Misure invarianti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
10.9 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
11 Appendice 117
11.1 Somme di variabili aleatorie indipendenti . . . . . . . . . . . . . . . . . . . . 117
11.2 Speranza di una variabile aleatoria non negativa . . . . . . . . . . . . . . . . 118
11.3 Funzioni α-h¨olderiane . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
11.4 Uniforme integrabilit`a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
1
Richiami di probabilit`a
Un esperimento casuale o fenomeno casuale `e una situazione nella quale, per mancanza di
informazioni, non siamo in grado di predire con esattezza quello che accadr`a.
Le nozioni intuitive ed empirica pi` u comuni sui fenomeni o esperimenti casuali, secondo
l’interpretazione pi` u corrente in campo scientifico e tecnologico, si traducono nel modello
matematico, detto spazio probabilizzato, costituito da una terna (Ω, T, P) nella quale
• Ω `e un insieme rappresentante tutti i possibili risultati dell’esperimento aleatorio,
• T `e una famiglia di sottoinsiemi di Ω, detti eventi, che rappresentano una proposizione
che sar`a vera o falsa a seconda del risultato dell’esperimento aleatorio,
• P `e una probabilit`a che assegna a ciascun elemento A della famiglia T una valutazione
numerica della possibilit`a di avverarsi della proposizione rappresentata da A.
Esempio 1.1 Lancio di un dado equilibrato. La scelta naturale di (Ω, T, P) per questo
esperimento aleatorio `e: Ω := ¦1, 2, 3, 4, 5, 6¦, T famiglia di tutti i sottoinsiemi di Ω, P(A) `e
il numero di elementi di A diviso per 6 (numero dei casi favorevoli diviso per il numero di
casi possibili).
Esempio 1.2 Lancio di due monete uguali. Una scelta naturale dell’insieme Ω dei risultati
dell’esperimento aleatorio `e l’insieme ¦CC, CT, TC, TT¦. Come T si pu`o prendere la famiglia
di tutti i sottoinsiemi di Ω e cio`e la famiglia costituita da
∅, ¦CC¦, ¦CT¦, ¦TC¦, ¦TT¦, ¦CC, CT¦, ¦CC, TC¦, ¦CC, TT¦, ¦CT, TC¦, ¦CT, TT¦,
¦TC, TT¦, ¦CC, TC, CT¦, ¦TC, CT, TT¦, ¦CC, CT, TT¦, ¦CC, CT, TC, TT¦.
Infine, per ogni A ⊆ Ω, P(A) `e il numero di elementi di A diviso per 4 (numero dei casi
favorevoli diviso per il numero di casi possibili).
Tuttavia un individuo interessato solamente al numero totale di teste o di croci potrebbe
accontentarsi di definire la probabilit`a di su una famiglia pi` u “piccola” considerando il
modello (Ω
t
, T
t
, P
t
) con: Ω
t
= ¦0, 1, 2¦ (pensando che il risultato 0 corrisponde all’uscita
di 2 croci, 1 all’uscita di una testa e una croce,...), T la famiglia di tutti i sottoinsiemi di Ω
t
e P
t
la probabilit`a
P
t
¦0¦ = 1/4, P
t
¦1¦ = 1/2, P
t
¦2¦ = 1/4, ...
Si scelgono quindi Ω, T e P in modo che siano definite o calcolabili le probabilit`a di certe
proposizioni (eventi).
3
4 1. RICHIAMI DI PROBABILIT
`
A
Si suppone inoltre che la famiglia di queste proposizioni sulle quali si calcola P sia chiusa
per unione, intersezione e negazione logica (ovvero che, se `e definita P di A e B, deve esserlo
anche P di A ∪ B, A ∩ B, Ω −A, Ω −B). Condizioni naturali, dette di coerenza, inducono
quindi a scegliere una P che soddisfi la propriet`a, chiamata additivit`a,
P(A∪ B) = P(A) +P(A), per ogni A, B ∈ T tali che A∩ B = ∅.
Si normalizza poi la P ponendo P(Ω) = 1 e si definisce la probabilit`a condizionata
P(A[B) =
P(A∩ B)
P(B)
, per ogni A, B ∈ T tali che P(B) > 0
Le propriet`a elementari della probabilit`a (formula probabilit`a totale, formula di Bayes, ...)
seguono facilmente.
In un modello probabilistico, si vuole infine calcolare semplicemente le probabilit`a di
unioni o intersezioni numerabili di eventi (per esempio la probabilit`a dell’evento descritto
dalla proposizione “si ottiene sempre testa nei lanci pari” in una successione di infiniti lanci di
una moneta). Per questo motivo e per utilizzare strumenti e tecniche di Analisi Matematica
si introducono perci`o i seguenti assiomi:
• la famiglia T degli eventi `e una σ-algebra di sottoinsiemi di Ω (cio`e, se (A
n
)
n≥1
`e
una successione di elementi di T, allora anche ∪
n≥1
A
n
, ∩
n≥1
A
n
, A
c
n
= Ω − A
n
sono
elementi di T)
• (numerabile additivit`a) P `e una misura su T, cio`e, per ogni successione (A
n
)
n≥1
di
elementi disgiunti di T, si ha
P(∪
n≥1
A
n
) =
¸
n≥1
P(A
n
).
Quando si costruisce un modello probabilistico la numerabile additivit`a `e spesso difficile
da verificare per cui eviteremo, altrettanto spesso, di dimostrarla accontentandoci di sapere
che si potrebbe fare (procedendo magari in modo simile a quello della costruzione della
misura di Lebesgue in Analisi Matematica).
I passi “tipici” nella costruzione di (Ω, T, P) sono i seguenti:
1. si individua l’insieme Ω di tutti i possibili risultati dell’esperimento aleatorio,
2. si individua una famiglia H di eventi dei quali si da la probabilit`a,
3. si estende H ad un’algebra (cio`e ad una famiglia chiusa per unione, intersezione e
passaggio al complementare) di sottoinsiemi di Ω e si definisce la P su questi insiemi,
4. si estende ulteriormente H ad una σ-algebra T, si definisce la P sui sottoinsiemi di T
e si dimostra che la P ottenuta `e numerabilmente additiva.
Il passo pi` u difficile di solito `e la verifica della numerabile additivit`a di P. La scelta di
T a partire da H invece `e abbastanza semplice.
Definizione 1.1 Data una famiglia H di sottoinsiemi di Ω si chiama σ-algebra generata
da H e si denota con σ(H) la pi` u piccola σ-algebra di sottoinsiemi di Ω che contiene gli
elementi di H.
La σ-algebra σ(H) `e uguale all’intersezione di tutte le σ-algebre di sottoinsiemi di Ω, tra
le quali la σ-algebra {(Ω) di tutti i sottoinsiemi di Ω, che contengono gli elementi di H.
Infatti si pu`o verificare facilmente che
1.1. VARIABILI ALEATORIE 5
Proposizione 1.2 Data una famiglia (/
i
)
i∈I
di σ-algebre di sottoinsiemi di un insieme Ω,
l’intersezione ∩
i∈I
/
i
`e una σ-algebra di sottoinsiemi di Ω.
Vale la pena di ricordare che, nella costruzione di uno spazio probabilizzato (Ω, T, P), `e
abbastanza facile e naturale scegliere Ω e T ma poi, tanto pi` u grande `e T, tanto pi` u difficile
sar`a costruire la misura di probabilit`a P su T.
1.1 Variabili aleatorie
Le variabili aleatorie sono funzioni del risultato ω di un esperimento aleatorio che sono spesso
molto utili nello studio del modello (descrivono, per esempio nella Statistica Matematica o
nel filtraggio, un’osservazione o informazione parziale su ω).
Notazione R := R ∪ ¦−∞, +∞¦ := [−∞, +∞].
Definizione 1.3 Una variabile aleatoria reale (risp. reale estesa) X su uno spazio proba-
bilizzato (Ω, T, P) `e un’applicazione X : Ω → R (risp. X : Ω → R) tale che, per ogni coppia
di numeri reali a, b l’insieme ¦a < X ≤ b¦ appartenga a T.
Ricordiamo che ¦a < X ≤ b¦ `e una notazione per indicare l’insieme
X
−1
(]a, b]) = ¦ω ∈ Ω [ a < X(ω) ≤ b¦ .
Analogamente, se A `e un sottoinsieme di R, si denota con ¦X ∈ A¦ l’insieme
X
−1
(A) = ¦ω ∈ Ω [ X(ω) ∈ A¦ .
In modo equilvalente si potrebbe definire una variabile aleatoria, reale o reale estesa,
come un’applicazione X : Ω → R (risp. X : Ω → R) tale che, per ogni numero reale r
l’insieme ¦ X ≤ r ¦ appartenga a T. Infatti, per ogni a, b ∈ R, si ha
¦ a < X ≤ b ¦ = ¦ X ≤ b ¦ ∩ (¦ X ≤ a ¦)
c
. (1.1)
Una variabile aleatoria (reale o reale estesa) `e quindi una funzione del risultato ω
dell’esperimento aleatorio della quale siamo in grado di dire qual `e la probabilit`a di os-
servare valori in un certo intervallo ]a, b]. In realt`a, grazie al fatto che T `e una σ-algebra,
sar`a definita la probabilit`a di insiemi del tipo ¦X ∈ A¦ con A sottoinsieme boreliano di R.
Definizione 1.4 Si chiama σ-algebra dei boreliani di R (risp. R) e si denota con B(R)
(risp. B(R)) σ-algebra generata dagli intervalli ]a, b] con a, b ∈ R.
Nel linguaggio dell’Analisi Matematica una variabile aleatoria reale (risp. reale estesa)
`e dunque un’applicazione misurabile. Si pu`o quindi dimostrare, come per le applicazioni
misurabili, che somme, combinazioni lineari, prodotti, ... di variabili aleatorie reali (e reali
estese evitando le forme indeterminate come +∞−∞) sono ancora variabili aleatorie reali.
Gli eventi determinati da X, dei quali cio`e siamo in grado di dire se si sono verificati o
meno osservando il valore di X, formano una σ-algebra.
Definizione 1.5 Data una variabile aleatoria reale (risp. reale estesa) X si chiama σ-
algebra generata da una variabile aleatoria X e si denota σ(X) la sotto − σ-algebra di T
costituita dagli insiemi ¦X ∈ A¦ con A ∈ B(R) (risp. A ∈ B(R)).
6 1. RICHIAMI DI PROBABILIT
`
A
Esempio 1.3 Lancio di due monete. Consideriamo nuovamente l’esperimento aleatorio
descritto nell’Esempio 1.2 questa volta indicando C con 0 e T con 1. In questo modo si pu`o
identificare con Ω l’insieme ¦ (0, 0), (0, 1), (1, 0), (1, 1) ¦. La funzione
X : Ω → R, X(ω
1
, ω
2
) = ω
1

2
.
Indica il numero totale di teste ottenute nel lancio. Si tratta evidentemente di una variabile
aleatoria perch´e, in questo modello, T `e costituita da tutti i sottoinsiemi di Ω e quindi
¦X ∈ A¦ `e un elemento di T qualunque sia A. Si verifica facilmente che la σ-algebra
σ(X)-generata da X `e costituita dagli insiemi
∅, ¦(0, 0)¦, ¦(0, 1), (1, 0)¦, ¦(1, 1)¦,
¦(0, 1), (1, 0), (1, 1)¦, ¦(0, 0), (1, 1)¦, ¦(0, 0), (0, 1), (1, 0)¦, Ω.
Si vede subito che σ(X) `e costituita dagli eventi che siamo in grado di dire se si verificano
o meno conoscendo il solo valore di X.
Proposizione 1.6 Se X, Y sono variabili aleatorie reali ed r, s ∈ R allora rX + sY e XY
sono variabili aleatorie reali. Se (X
n
)
n≥1
`e una successione di variabili aleatorie reali allora
sup
n≥1
X
n
e inf
n≥1
X
n
sono variabili aleatorie reali.
Si pu`o verificare abbastanza facilmente che, se X `e una variabile aleatoria reale, allora
anche X
2
, X
3
, sin(X), arctan(X), . . . sono ancora variabili aleatorie reali. In generale si pu`o
dimostrare la seguente
Proposizione 1.7 Se X `e una variabile aleatoria reale (risp. reale estesa) e g : R → R
(risp. g : R → R) `e una funzione boreliana, cio`e misurabile rispetto alla σ-algebra degli
insiemi boreliani, allora anche g(X) `e una variabile aleatoria reale (risp. reale estesa).
La nozione di legge di una variabile aleatoria `e di fondamentale importanza nel Calcolo
delle Probabilit`a.
Definizione 1.8 Si chiama legge (o distribuzione) di una variabile aleatoria reale X la
misura di probabilit`a µ su B(R) definita da
µ(A) = P¦X ∈ A¦, per ogni A ∈ B(R).
Leggi notevoli su {(N) o B(R)
Delta di Dirac. Legge delta concentrata in x
δ
x
(A) =

1 se x ∈ A,
0 se x / ∈ A.
B(1, p). Legge di Bernoulli di parametro p (p ∈ [0, 1])
µ = (1 −p)δ
0
+pδ
1
.
B(n, p). Legge binomiale di parametri n, p (n ∈ N

, p ∈ [0, 1])
µ =
n
¸
k=0

n
k

δ
k
{(λ). Legge di Poisson di parametro λ (λ > 0)
µ = e
−λ

¸
k=0
λ
k
k!
δ
k
1.2. VALORE ATTESO 7
((p). Legge geometrica di parametro p (p ∈ [0, 1]) (λ > 0)
µ = (1 −p)

¸
k=0
p(1 −p)
k−1
δ
k
N(m, σ
2
). Legge normale o gaussiana N(m, σ
2
)
µ(A) =
1

2π σ

A
e
−(x−m)
2
/2σ
2
dx
c(λ). Legge esponenziale di parametro λ > 0
µ(A) =

]0,+∞[∩A
λe
−λx
dx
Γ(α, λ). Legge Gamma di parametri α, λ > 0
µ(A) =

]0,+∞[∩A
λ
α
x
α−1
Γ(α)
e
−λx
dx
dove Γ `e la funzione Gamma di Eulero definita da
Γ(a) =


0
e
−t
t
a−1
dt.
La legge χ
2
(n) del chi-quadrato con n gradi di libert`a `e la legge Γ(n/2, 1/2).
Legge di Cauchy (mediana m)
µ(A) =
1
π

A
1
1 + (x −m)
2
dx.
B(a, b). Legge beta (a, b > 0)
µ(A) =
Γ(a +b)
Γ(a)Γ(b)

]0,1[∩A
x
a−1
(1 −x)
b−1
dx
Ricordiamo, per quanto ovvio, che due variabili aleatorie con la stessa legge possono
essere molto diverse. Per esempio le (X
n
)
n≥1
, variabili aleatorie di un processo di Bernoulli
di parametro p, hanno tutte la stessa legge B(1, p) ma sono molto diverse tra loro perch´e
X
n
d`a il risultato dell’n-esima prova del processo.
1.2 Valore atteso
La speranza o attesa di una variabile aleatoria reale X, si calcola nel modo ben noto quando
X pu`o prendere solo un numero finito di valori. In questo caso X `e della forma
X =
n
¸
k=1
x
k
1
A
k
, con A
k
∈ T,
dove 1
A
k
denota la funzione indicatrice (o, nel linguaggio dell’Analisi, caratteristica) dell’evento
A
k
(1
A
k
(ω) = 1 se ω ∈ A
k
, 1
A
k
(ω) = 0 se ω / ∈ A
k
) e quindi la sua speranza `e
E[X] =
n
¸
k=1
x
k
P(A
k
).
8 1. RICHIAMI DI PROBABILIT
`
A
Estendiamo poi la definizione alle variabili aleatorie non negative X : Ω → [0, +∞].
Per questo motivo cominciamo con l’osservare che ogni variabile aleatoria non-negativa `e
estremo superiore di una successione non decrescente di variabili aleatorie con un numero
finito di valori. Si pu`o considerare, per esempio, la successione
X
n
=
n2
n
¸
k=0
k2
−n
1
¦k2
−n
<X≤(k+1)2
−n
¦
che soddisfa le condizioni
X
n
(ω) ≤ X
n+1
(ω), e sup
n
X
n
(ω) = lim
n→∞
X
n
(ω) = X(ω) per ogni ω ∈ Ω.
La successione di numeri reali (E[X
n
])
n≥1
`e evidentemente crescente e quindi possiamo
definire
E[X] = sup
n≥1
E[X
n
] = lim
n→∞
E[X
n
].
Si potrebbe dimostrare che E[X] `e indipendente dalla particolare successione non decrescente
di variabili aleatorie con un numero finito di valori scelta. Abbiamo cos`ı definito E[X] per
le variabili aleatorie non negative.
Infine, se X `e una variabile aleatoria reale o reale estesa su uno spazio probabilizzato
(Ω, T, P), definiamo le variabili aleatorie X
+
, X

le variabili aleatorie
X
+
(ω) = max¦X(ω), 0¦, X

(ω) = −min¦X(ω), 0¦.
Definizione 1.9 Si dice che X `e semi-integrabile superiormente (risp. inferiormente) rispetto
a P se
E[X
+
] < +∞,

risp. E[X

] < +∞

.
Se X `e semi-integrabile sia superiormente che inferiormente rispetto a P allora si dice che
X `e integrabile rispetto a P. Se X `e semi-integrabile superiormente o inferiormente rispetto
a P si chiama speranza o attesa, valore atteso, media, valor medio di X e si denota E[X]
la differenza
E[X] = E[X
+
] −E[X

].
Vale ovviamente la convenzione r − ∞ = −∞, r + ∞ = +∞ per ogni numero reale r.
Nel caso in cui E[X] sia un numero reale (cio`e non sia +∞ o −∞), ovvero X sia integrabile,
si dice che X ha speranza finita. Osserviamo che, per definizione, E[X] `e finita se e solo se
E[[X[] `e finita poich´e [X[ = X
+
+X

.
Nel linguaggio dell’Analisi Matematica E[X] `e l’integrale di X rispetto alla misura P
E[X] =


XdP
che si definisce nello stesso modo.
La speranza ha quindi le propriet`a seguenti
Proposizione 1.10 Siano X, Y variabili aleatorie integrabili. Allora
1. P¦ X ∈ ¦−∞, +∞¦ ¦ = P¦ Y ∈ ¦−∞, +∞¦ ¦ = 0 cio`e X e Y hanno valori finiti quasi
certamente,
2. se P¦X ≤ Y ¦ = 1 allora E[X] ≤ E[Y ],
3. per ogni coppia r, s di numeri reali la variabile aleatoria rX + sY `e integrabile e
E[rX +sY ] = rE[X] +sE[Y ].
1.2. VALORE ATTESO 9
Teorema 1.11 Sia (X
n
)
n≥1
una successione non decrescente di variabili aleatorie reali
estese semi-integrabili inferiormente e sia X = sup
n≥1
X
n
= lim
n→+∞
X
n
. Si ha allora
E[X] = sup
n≥1
E[X
n
].
Teorema 1.12 Sia (X
n
)
n≥1
una successione di variabili aleatorie reali estese integrabili.
Supponiamo che:
1. per quasi ogni ω ∈ Ω esista lim
n→∞
X
n
(ω) = X(ω),
2. esista una variabile aleatoria Y integrabile tale che [X
n
(ω)[ ≤ Y (ω) per quasi ogni
ω ∈ Ω.
Si ha allora
E[X] = sup
n≥1
E[X
n
].
Definizione 1.13 Si dice che X ha momento di ordine p (con p intero, p ≥ 1) se E[[X[
p
]
`e finita e, in tal caso, si chiama momento di ordine p il numero reale E[X
p
].
Valgono le diseguaglianze seguenti.
Diseguaglianza di Schwarz. X, Y variabili aleatorie con momento di ordine 2
[E[XY ][
2
≤ E[X
2
]E[Y
2
].
In particolare, prendendo Y = 1, si vede subito che, se X ha momento di ordine 2, allora
ha anche speranza finita e E[X]
2
≤ E[X
2
]. Il numero non negativo
V [X] = E[X
2
] −E[X]
2
= E

(X −E[X])
2

si chiama varianza di X.
Densit`a Simbolo Speranza Varianza
Bernoulli B(1, p) p p(1 −p)
binomiale B(n, p) np np(1 −p)
Poisson P(λ) λ λ
geometrica ((p) 1/p q/p
2
Pascal {(n, p) n/p nq/p
2
uniforme |(a, b) (a +b)/2 (b −a)
2
/12
esponenziale c(λ) 1/λ 1/λ
2
normale N(µ, σ
2
) µ σ
2
gamma Γ(a, λ) a/λ a/λ
2
chi quadrato χ
2
(n) n 2n
beta B(a, b) a/(a +b) ab/(a +b)
2
(a +b + 1)
esponenziale bilatera 0 2/λ
2
Cauchy non definita non definita
Se X e Y hanno momento di ordine 2 si pu`o definire la covarianza di X e Y
Cov[X, Y ] = E[(X −E[X])(Y −E[Y ])] .
Se inoltre X e Y hanno varianza strettamente positiva si definisce il coefficiente di corre-
lazione di X e Y
ρ[X, Y ] =
Cov[X, Y ]

V [X]V [Y ]
10 1. RICHIAMI DI PROBABILIT
`
A
Diseguaglianza di Chebychev. X variabile aleatoria con momento di ordine 2, ε > 0,
P¦[X −E[X][ > ε¦ ≤ ε
−2
V [X].
Diseguaglianza di Jensen. X variabile aleatoria reale, g : R → R funzione convessa. Se
E[X] e E[g(X)] sono finite allora
g(E[X]) ≤ E[g(X)].
Diseguaglianza di Holder. X, Y variabili aleatorie, p, q numeri reali p, q ≥ 1
E[[XY [] ≤ E[[X[
p
]
1
p
E[[Y [
q
]
1
q
.
Lemma di Borel Cantelli. Un problema abbastanza frequente nello studio dei fenomeni
aleatori `e quello di determinare la probabilit`a che si verifichino infiniti eventi tra quelli di
una data successione (A
n
)
n≥1
. L’evento in questione si rappresenta

n≥1

k≥n
A
k
e si indica con limsup
n
A
n
. Si pu`o inoltre rappresentare come l’insieme degli ω ∈ Ω dove la
serie delle funzioni indicatrici
¸
n≥1
1
A
n
(ω)
`e divergente.
Il Lemma di Borel Cantelli d`a una condizione abbastanza semplice per mostrare che
limsup
n
A
n
ha probabilit`a 0.
Teorema 1.14 Data una successione di eventi (A
n
)
n≥1
se
¸
n≥1
IP(A
n
) < ∞, allora IP

limsup
n
A
n

= 0.
1.3 Indipendenza
Definizione 1.15 Due variabili aleatorie reali (risp. reali estese) X, Y su uno spazio prob-
abilizzato (Ω, T, P), sono indipendenti se, per ogni coppia a, b e ogni coppia c, d di numeri
reali si ha
P¦ a < X ≤ b, c < Y ≤ d ¦ = P¦ a < X ≤ b ¦ P¦ c < Y ≤ d ¦ .
Si verifica facilmente (grazie a (1.1)) che due variabili aleatorie X, Y sono indipendenti
se e solo se
P¦ X ≤ r, Y ≤ s ¦ = P¦ X ≤ r ¦ P¦ Y ≤ s ¦
per ogni coppia di numeri reali r, s.
La definizione precedente si generalizza nel modo naturale al caso di n variabili aleatorie.
Si dimostra il seguente
Teorema 1.16 Siano X
1
, . . . , X
n
variabili aleatorie reali (reali estese). Le condizioni seguenti
sono equivalenti:
1. X
1
, . . . , X
n
sono indipendenti,
1.3. INDIPENDENZA 11
2. per ogni n-pla A
1
, . . . , A
n
di sottoinsiemi boreliani di R (risp. R) si ha
P¦ X
1
∈ A
1
, . . . , X
n
∈ A
n
¦ = P¦ X
1
∈ A
1
¦ P¦ X
n
∈ A
n
¦ ,
3. per ogni n-pla g
1
, . . . , g
n
di funzioni boreliane limitate su R (risp. R) si ha
E[g
1
(X
1
) . . . g
n
(X
n
)] = E[g
1
(X
1
)] E[g
n
(X
n
)] .
Corollario 1.17 Siano X, Y variabili aleatorie reali indipendenti con speranza finita. La
variabile aleatoria XY ha speranza finita e
E[XY ] = E[X]E[Y ].
In particolare, se X e Y sono indipendenti, allora non sono correlate.
Variabili aleatorie non correlate, in generale, non sono indipendenti. Tuttavia, se le
variabili aleatorie oltre a essere non correlate hanno legge congiunta gaussiana, allora sono
anche indipendenti.
La definizione di speranza si estende in modo naturale alle variabili aleatorie a valori
complessi separando le loro parti reali e immaginaria. In particolare vale la seguente
Proposizione 1.18 Siano X
1
, . . . , X
n
variabili aleatorie reali. Le condizioni seguenti sono
equivalenti:
1. X
1
, . . . , X
n
sono indipendenti,
2. per ogni n-pla r
1
, . . . , r
n
di numeri reali si ha
E

e
ir
1
X
1
e
ir
n
X
n

= E

e
ir
1
X
1

E

e
ir
n
X
n

.
Funzioni boreliane di variabili aleatorie indipendenti sono, a loro volta, variabili aleatorie
indipendenti. Pi` u precisamente si dimostra il seguente
Teorema 1.19 Siano X
1
, . . . X
n
variabili aleatorie reali indipendenti e siano:
1. m un numero intero tale che 1 ≤ m ≤ n,
2. I
1
, . . . , I
m
una partizione dell’insieme ¦1, . . . , n¦ (ovvero una famiglia di insiemi I
k
disgiunti la cui unione sia ¦1, . . . , n¦) e ciascun insieme I
k
abbia d
k
elementi d
1
+
. . . +d
m
= n,
3. g
1
, . . . , g
m
funzioni boreliane con g
k
: R
d
k
→ R per ogni k = 1, . . . , m.
Allora le variabili aleatorie reali g
1
((X
i
)
i∈I
1
), . . . , g
m
((X
i
)
i∈I
m
) sono indipendenti.
Questo teorema si applica, per esempio, alle variabili aleatorie (X
n
)
n≥1
di un processo
di Bernoulli per dimostrare l’indipendenza delle variabili aleatorie
Y
1
= X
1
+X
2
, Y
2
= X
3
(X
4
+X
5
), Y
3
= g
3
(X
6
, X
7
).
Infinite variabili aleatorie sono indipendenti, per definizione, se e solo se ogni loro sot-
tofamiglia finita `e una famiglia di variabili aleatorie indipendenti nel senso delle definizioni
precedenti. I criteri precedenti permettono quindi di trattare in modo essenzialmente anal-
ogo anche il caso di infinite variabili aleatorie indipendenti.
12 1. RICHIAMI DI PROBABILIT
`
A
Spazio probabilizzato canonico di n variabili aleatorie indipendenti con leggi assegnate. In
molte applicazioni del Calcolo delle Probabilit`a si considera data una n-pla X
1
, . . . , X
n
di
variabili aleatorie reali indipendenti con leggi µ
1
, . . . , µ
n
assegnate supponendo implicita-
mente che siano definite sullo stesso spazio probabilizzato (Ω, T, P).
`
E abbastanza naturale
chiedersi perch´e questo sia possibile ovvero se esiste lo spazio probabilizzato sul quale siano
definite n variabili aleatorie indipendenti ciascuna con la legge assegnata.
Per rispondere alla questione si costruisce lo spazio probabilizzato canonico costituito da
1. l’insieme Ω = R
n
prodotto cartesiano di n copie di R,
2. la σ-algebra B(R
n
), generata dagli insiemi della forma ]a
1
, b
1
] . . . ]a
n
, b
n
] (detti
plurirettangoli),
3. la misura di probabilit`a P su B(R
n
) tale che
P(]a
1
, b
1
] . . . ]a
n
, b
n
]) = µ
1
(]a
1
, b
1
]) µ
n
(]a
n
, b
n
]).
(Si potrebbe dimostrare che esiste un’unica misura di probabilit`a P su B(R
n
) che verifica la
condizione 3.) Si definiscono quindi le X
1
, . . . , X
n
X
k

1
, . . . , ω
n
) = ω
k
, per ogni k = 1, . . . , n.
`
E chiaro che ciascuna X
k
ha legge µ
k
poich´e
¦ r < X
k
≤ s ¦ = ¦ ω ∈ Ω [ r < ω
k
≤ s ¦ = R . . . R]r, s] R. . . R
cio`e ¦ r < X
k
≤ s ¦ `e il plurirettangolo che ha tutti i “lati” uguali a R tranne il k-esimo
uguale a ]r, s] e quindi
P¦ r < X
k
≤ s ¦ = µ
1
(R) µ
k−1
(R)µ
k
(]r, s])µ
k+1
(R) µ
n
(R) = µ
k
(]r, s]).
Inoltre le X
1
, . . . , X
n
sono indipendenti perch´e
¦ a
1
< X
1
≤ b
1
, . . . , a
n
< X
n
≤ b
n
¦ =]a
1
, b
1
] ]a
n
, b
n
]
e quindi, per definizione di P
P¦ a
1
< X
1
≤ b
1
, . . . , a
n
< X
n
≤ b
n
¦ = µ
1
(]a
1
, b
1
]) µ
n
(]a
n
, b
n
])
= P¦ a
1
< X
1
≤ b
1
¦ P¦ a
n
< X
1
≤ b
n
¦.
1.4 Esercizi
Esercizio 1.1 Verificare le formule della media e della varianza della legge Γ(α, λ).
Esercizio 1.2 Verificare le formule della media e della varianza della legge B(a, b).
Esercizio 1.3 Siano X, N due variabili aleatorie indipendenti. Supponiamo che X abbia
legge B(1, p) e N abbia legge di Poisson con parametro λ > 0. Determinare la legge della
variabile aleatoria N
X
(definiamo, per convenzione, 0
0
= 1) e calcolare la speranza di N
X
.
Esercizio 1.4 Siano X
1
, . . . , X
n
variabili aleatorie reali indipendenti con legge normale
N(0, 1). Verificare che X
2
1
+. . . +X
2
n
ha legge Γ(n/2, 1/2).
1.4. ESERCIZI 13
Esercizio 1.5 Siano X, Y due variabili aleatorie reali indipendenti con legge esponenziale
di parametro λ > 0. Verificare che la variabile aleatoria X/(X + Y ) ha legge uniforme su
[0, 1].
Esercizio 1.6 Mostrare che B(R) (risp. B(R)) `e la pi` u piccola σ-algebra di sottoinsiemi di
R (risp. R) che contenga le seguenti famiglie di sottoinsiemi di R (risp. R)
H
1
= ¦ ]a, b[ [ a, b ∈ R¦ ,
H
2
= ¦ [a, b[ [ a, b ∈ R¦ ,
H
3
= ¦ [a, b] [ a, b ∈ R¦ ,
H
4
= ¦ [a, +∞[ [ a ∈ R¦ ,
H
5
= ¦ ]a, +∞[ [ a ∈ R¦ ,
H
6
= ¦ ] −∞, a] [ a ∈ R¦ ,
H
7
= ¦ ] −∞, a[ [ a ∈ R¦ .
Esercizio 1.7 La σ-algebra B(R
d
) dei sottoinsiemi Boreliani di R
d
`e la pi` u piccola σ-algebra
di sottoinsiemi di R
d
che contiene i plurirettangoli
]a
1
, b
1
] . . . ]a
d
, b
d
].
Verificare che B(R
d
) coincide con la pi` u piccola σ-algebra di sottoinsiemi di R
d
che contiene
gli insiemi della forma
A
1
. . . A
d
con A
1
, . . . A
d
∈ B(R).
Esercizio 1.8 Sia (A
n
)
n≥1
una successione non decrescente (cio`e tale che A
n
⊆ A
n+1
per
ogni n ≥ 1) di eventi in uno spazio probabilizzato (Ω, T, P). Mostrare che
P(∪
n≥1
A
n
) = lim
n→∞
P(A
n
).
Mostrare l’analogo risultato per le successioni non crescenti.
Esercizio 1.9 Verificare che una variabile aleatoria reale X `e indipendente da s´e stessa se
e solo se `e costante.
Esercizio 1.10 Dimostrare la Proposizione 1.6.
Esercizio 1.11 Siano X, Y due variabili aleatorie reali indipendenti. Supponiamo che Y ≤
X quasi certamente. Mostrare che esiste una costante c tale che P¦Y ≤ c ≤ X¦ = 1.
Risposta. Osservare che, per ogni c ∈ R l’evento ¦X ≤ c¦ ∩ ¦Y > c¦ `e vuoto e quindi
P¦X ≤ c¦ P¦Y > c¦ = 0.
Esercizio 1.12 Siano X, Y due variabili aleatorie reali indipendenti. Supponiamo che X
abbia densit`a f e Y abbia legge ν. Mostrare che la variabile aleatoria X +Y ha per densit`a
la funzione g data da
g(s) =

R
f(s −y)ν(dy)
Esercizio 1.13 Mostrare con un esempio che l’unione di due σ-algebre non `e necessaria-
mente una σ-algebra.
14 1. RICHIAMI DI PROBABILIT
`
A
Esercizio 1.14 Siano X
1
, . . . , X
d
le coordinate di un punto casuale in R
d
. Supponendo che
le variabili aleatorie X
1
, . . . , X
d
siano indipendenti e abbiano legge normale N(0, 1) calcolare
la distanza media del punto dall’origine.
Esercizio 1.15 Siano X, Y, Z tre variabili aleatorie indipendenti uniformemente distribuite
su [0, 1]. Qual `e la probabilit`a che si possa costruire un triangolo le cui lunghezze dei lati
siano X, Y, Z?
2
Il processo di Bernoulli
I pi` u semplici esperimenti aleatori hanno due soli possibili risultati, di solito denotati con 0
(“insuccesso”) e 1 (“successo”) che hanno probabilit`a rispettivamente 1 − p e p (p ∈]0, 1[).
Un esperimento di questo tipo si chiama prova binaria.
Il processo di Bernoulli `e costituito dalla ripetizione di un numero infinito di prove bi-
narie indipendenti. Questo esperimento aleatorio `e piuttosto importante perch´e: a) sorge
naturalmente in numerose situazioni in campo scientifico e tecnologico, b) si possono calco-
lare in modo abbastanza semplice le probabilit`a di tutti gli eventi in gioco, c) i metodi che
si sviluppano nella loro trattazione si rivelano utili anche nella soluzione di altri problemi.
2.1 Costruzione
Richiamiamo brevemente la costruzione del processo di Bernoulli
L’insieme Ω dei risultati possibili dell’esperimento aleatorio in questione `e costituito dalle
successioni di (ω
k
)
k≥1
di 0 e di 1 cio`e dal prodotto cartesiano
Ω = ¦ 0, 1 ¦
N

= ¦ (ω
k
)
k≥1
[ ω
k
∈ ¦0, 1¦ ¦ .
Il numero ω
k
indica il risultato della k-esima prova (1 successo e 0 insuccesso).
L’insieme Ω non `e numerabile perch´e, ricordando la rappresentazione binaria dei numeri
reali nell’intervallo [0, 1], `e facile convincersi che `e in corripondenza biunivoca con l’intervallo
[0, 1].
Sull’insieme Ω definiamo, le funzioni R
k
“risultato della k-esima prova”
R
k
: Ω → ¦ 0, 1 ¦, R
k
(ω) = ω
k
.
Vogliamo trovare poi una σ-algebra T e una misura di probabilit`a P su T in modo tale che:
(B1) gli eventi ¦ R
k
= 1 ¦ abbiano probabilit`a p fissata,
(B2) gli eventi ¦ R
1
= x
1
¦, ¦ R
2
= x
2
¦, . . . , ¦ R
n
= x
n
¦ siano indipendenti per ogni n ∈ N

e ogni x
1
, . . . , x
n
∈ ¦ 0, 1 ¦.
La scelta naturale di T `e quindi la pi` u piccola σ-algebra di sottoinsiemi di Ω che contenga
questi eventi.
Per definire la probabilit`a su T in modo che gli eventi ¦ R
t
1
= x
t
1
¦, . . . , ¦ R
t
n
= x
t
n
¦
risultino indipendenti dobbiamo porre
IP (∩
n
k=1
¦ R
t
k
= x
t
k
¦) = IP¦ R
t
1
= x
t
1
¦ IP¦ R
t
2
= x
t
2
¦ IP¦ R
t
n
= x
t
n
¦ = p
k
(1 −p)
n−k
15
16 2. IL PROCESSO DI BERNOULLI
dove k `e il numero di x
t
j
eguali a 1 cio`e k = x
t
1
+. . . +x
t
n
.
Gli elementi di T, come abbiamo visto, sono unioni finite di eventi elementari per cui
possiamo costruire in modo naturale una probabilit`a su T.
Proposizione 2.1 Esiste un’unica probabilit`a IP su T tale che
IP¦ R
t
1
= x
t
1
, . . . , R
t
n
= x
t
n
¦ = p
x
t
1
+...+x
t
n
(1 −p)
n−(x
t
1
+...+x
t
n
)
(2.1)
per ogni 0 < t
1
< . . . < t
n
, x
t
1
, . . . , x
t
n
∈ ¦ 0, 1 ¦.
Non dimostriamo questa proposizione accontentandoci di osservare che qualunque evento
“ragionevole” si pu`o esprimere, in modo opportuno, con una successione di unioni, inter-
sezioni e complementari di eventi del tipo ¦ R
t
1
= x
t
1
, . . . , R
t
n
= x
t
n
¦. La sua probabilit`a
si calcola poi utilizzando le regole abituali.
Definizione 2.2 Si chiama processo di Bernoulli di parametro p (p ∈]0, 1[) una succes-
sione (R
n
)
n≥1
di variabili aleatorie indipendenti con legge B(1, p) su un opportuno spazio
(Ω, T, IP). Lo spazio probabilizzato e la successione (R
n
)
n≥1
sono quelli costruiti qui sopra
si chiamano processo di Bernoulli canonico.
Nel processo di Bernoulli `e utile introdurre anche la successione (S
n
)
n≥1
delle variabili
aleatorie che rappresentano il “numero di successi in n prove” ovvero
S
n
= R
1
+. . . +R
n
.
Come sappiamo le S
n
hanno densit`a binomiale B(n, p).
Nel seguito mostriamo come si calcolano varie probabilit`a notevoli del processo di Bernoulli.
2.2 Tempo di attesa del primo successo
Il tempo di attesa del primo successo `e uguale al numero di prove effettuate per ottenere il
primo risultato 1.
Definizione 2.3 Sia (Ω, T, IP), (R
n
)
n≥1
uno schema di Bernoulli. Si chiama tempo di
attesa del primo successo la funzione T : Ω → N

∪ ¦+∞¦ cos`ı definita:
T(ω) = inf ¦ n ≥ 1 [ R
n
(ω) = 1 ¦ ,
con la convenzione inf ∅ = +∞.
Osserviamo che si ha
¦ T = 1 ¦ = ¦ R
1
= 1 ¦, ¦ T = +∞¦ = ∩
n≥1
¦ R
n
= 0 ¦
e, per ogni numero naturale n > 1,
¦ T = n¦ = ¦ R
1
= 0, . . . , R
n−1
= 0, R
n
= 1 ¦
¦ T > n¦ = ¦ R
1
= 0, . . . , R
n−1
= 0, R
n
= 0 ¦
quindi gli insiemi ¦ T = n¦, ¦ T > n¦ sono eventi elementari. In particolare ¦ T = n¦ , ¦ T > n¦ ∈
T, dunque T `e una variabile aleatoria. Le probabilit`a di questi eventi, come abbiamo visto,
sono date da
IP ¦ T = n¦ = p(1 −p)
n−1
, (2.2)
IP ¦ T > n¦ = (1 −p)
n
. (2.3)
La (2.2) mostra che T ha legge geometrica di parametro p. Abbiamo inoltre
IP ¦ T = +∞¦ = lim
n→∞
IP ¦ T > n¦ = 0.
2.3. TEMPO DI ATTESA DELL’N-ESIMO SUCCESSO 17
2.3 Tempo di attesa dell’n-esimo successo
In modo simile possiamo calcolare la probabilit`a che l’n-esimo successo accada ad un certo
istante k.
Il tempo di attesa dell’n-esimo successo si pu`o definire per induzione a partire dal tempo
di attesa del primo successo T
1
introdotto nel Paragrafo 2.2. Infatti, dopo aver definito
T
n−1
, basta definire T
n
: Ω → N

∪ ¦+∞¦ cos`ı:
T
n
(ω) = min ¦k > T
n−1
(ω) [ R
k
(ω) = 1¦ ,
se T
n−1
(ω) < +∞ e l’insieme dei k > T
n−1
(ω) tali che ω
k
= 1 `e non vuoto, T
n
(ω) = +∞
altrimenti.
Per ottenere n successi occorre fare almeno n prove quindi
¦ T
n
= k ¦ = ∅, e perci`o IP¦ T
n
= k ¦ = 0.
per k = 0, 1, . . . , n −1.
Inoltre, per ogni numero naturale k ≥ n, abbiamo poi
¦ T
n
= k ¦ = ¦ S
k−1
= n −1, R
k
= 1 ¦ = ¦ S
k−1
= n −1 ¦ ∩ ¦ R
k
= 1 ¦
perch´e, se k `e l’istante dell’n-esimo successo, allora alla k-esima prova il risultato `e stato
successo e, inoltre, nelle prime k − 1 prove si sono verificati esattamente n − 1 successi. In
particolare l’insieme ¦ T
n
= k ¦ appartiene a T (`e unione finita di eventi elementari).
La rappresentazione
¦ S
k−1
= n −1 ¦ =
¸
F⊆¦0,1,...,k−1¦,card(F)=n−1

(∩
j∈F
¦R
j
= 1¦) ∩


j / ∈F
¦R
j
= 0¦

fa vedere inoltre che gli eventi ¦ S
k−1
= n−1 ¦ e ¦ R
k
= 1 ¦ sono indipendenti (se A
1
, . . . , A
m
sono indipendenti allora A
1
∪ ∪A
m−1
e A
m
sono indipendenti cos`ı come A
1
∩ ∩A
m−1
e A
m
...) quindi
IP¦ T
n
= k ¦ = IP¦ S
k−1
= n −1 ¦ IP¦ R
k
= 1 ¦ =

k −1
n −1

p
n
(1 −p)
k−n
.
Verifichiamo ora che
¸
k≥n
IP¦ T
n
= k ¦ =
¸
k≥n

k −1
n −1

p
n
(1 −p)
k−n
= 1. (2.4)
Per ogni > n si ha
1 −

¸
k=n
IP¦ T
n
= k ¦ = 1 −IP¦ T
n
≤ ¦ = IP¦ T
n
> ¦. (2.5)
Inoltre dall’uguaglianza degli eventi
¦ T
n
> ¦ = ¦ S

< n¦
(l’n-esimo si verifica dopo l’istante se e solo se all’istante il numero di successi `e stretta-
mente minore di n) si ha
IP¦ T
n
> ¦ =
n−1
¸
j=0

j

p
j
(1 −p)
−j
.
18 2. IL PROCESSO DI BERNOULLI
Grazie alla diseguaglianza

j


j
si ha allora
IP¦ T
n
> ¦ ≤
n−1
¸
j=0
(p/(1 −p))
j

j
(1 −p)

.
Dato che, per ogni j fissato
lim
→∞

j
(1 −p)

= 0
e che la somma ha solo un numero finito di termini (n `e fisso!) si trova
IP¦ T
n
= +∞¦ = lim
→∞
IP¦ T
n
> ¦ = 0.
Grazie alla (2.5) si ha allora
lim
→∞

¸
k=n

k −1
n −1

p
n
(1 −p)
k−n
= 1
e l’identit`a (2.4) `e dimostrata.
Definizione 2.4 Siano n ∈ N

e p ∈]0, 1[. La densit`a (p
k
)
k≥0
su N

data da p
k
= 0 per
k = 1, 2, . . . , n −1 e
p
k
=

k −1
n −1

p
n
(1 −p)
k−n
si chiama densit`a di Pascal di parametri n e p e si denota P(n, p).
Nelle applicazioni si considera spesso, invece della T
n
, la variabile aleatoria traslata
V
n
= T
n
−n. Dai calcoli precedenti si deduce subito che
IP¦ V
n
= j ¦ =

n +j −1
n −1

p
n
(1 −p)
j
=

n +j −1
j

p
n
(1 −p)
j
con j ∈ N.
Definizione 2.5 Siano n ∈ N

e p ∈]0, 1[. La densit`a (p
j
)
j≥0
su N

data da
p
j
=

n +j −1
j

p
n
(1 −p)
j
si chiama densit`a binomiale negativa di parametri n e p e si denota NB(n, p).
Questa densit`a si chiama binomiale negativa perch´e si esprime spesso utilizzando un’estensione
della definizione del coefficiente binomiale ai numeri negativi.
Infatti, osservando che, per ogni m, i ∈ N con i ≤ m si ha

m
i

=
m(m−1) . . . (m−i + 1)
i!
,
si estende la definizione agli m strettamente negativi ponendo (per n ∈ N

)

−n
j

:=
(−n)(−n −1) . . . (−n −j + 1)
j!
.
2.4. INDIPENDENZA DEI TEMPI TRA DUE SUCCESSI CONSECUTIVI 19
Un semplice conteggio del numero di segni − mostra che
(−n)(−n −1) . . . (−n −j + 1)
j!
= (−1)
j
n(n + 1) . . . (n +j −1)
j!
= (−1)
j
(n +j −1)!
j!(n −1)!
= (−1)
j

n +j −1
j

.
Dunque la densit`a NB(n, p) si pu`o scrivere nella forma
p
j
=

−n
j

p
n
(p −1)
j
di uso pi` u frequente, come si diceva, nelle applicazioni.
Le figure qui sotto mostrano gli istogrammi delle densit`a binomiali negative NB(4, 0.6)
(a sinistra) e NB(6, 0.6) (a destra).
0 1 2 3 4 5 6 7 8 9 10 12 0 2 4 6 8 10 12 14
Si possono trovare abbastanza semplicemente media e varianza della variabile aleatoria
T
n
−n con legge NB(n, p)
E[T
n
−n] =
n(1 −p)
p
, V [T
n
−n] = V [T
n
] =
n(1 −p)
p
2
.
Lasciamo per esercizio i calcoli (un pochino lunghi).
2.4 Indipendenza dei tempi tra due successi consecutivi
I tempi d’attesa tra gli istanti di successo si definiscono per induzione
U
1
(ω) = T
1
(ω), U
n+1
(ω) = T
n+1
(ω) −T
n
(ω)
per gli ω tali che T
n
(ω) < +∞ per ogni n ≥ 1 e in modo arbitrario per gli ω nell’insieme di
probabilit`a nulla dove T
n
(ω) = +∞ per qualche n.
Teorema 2.6 Le variabili aleatorie U
n
sono indipendenti e hanno tutte legge geometrica di
paramentro p.
20 2. IL PROCESSO DI BERNOULLI
Dimostrazione. Fissiamo n ∈ N

e m
1
, . . . , m
n
∈ N

. L’evento ¦ U
1
= m
1
, . . . , U
n
= m
n
¦
(successo solo agli istanti m
1
, m
1
+ m
2
, . . . , m
1
+ . . . + m
n
) si pu`o evidentemente scrivere
nella forma
¦ R
1
= 0, . . . , R
m
1
−1
= 0, R
m
1
= 1, R
m
1
+1
= 0, . . . , R
m
1
+m
2
−1
= 0,
R
m
1
+m
2
= 1, R
m
1
+m
2
+1
= 0, . . . , R
m
1
+m
2
+...+m
n
−1
= 0, R
m
1
+m
2
+...+m
n
= 1 ¦.
La sua probabilit`a `e quindi (posto q = 1 −p)
IP¦ U
1
= m
1
, . . . , U
n
= m
n
¦ = pq
m
1
−1
pq
m
2
−1
pq
m
n
−1
.
Ora, per ogni k ∈ ¦1, . . . , m¦ fissato, sommando su tutti gli m
i
≥ 1 con i = k, si ha
IP¦ U
k
= m
k
¦ = pq
m
k
−1
.
Ci`o dimostra che U
k
ha densit`a geometrica di parametro p e che vale la condizione del
Teorema 1.16.
Osservando che, per definizione, T
n
= U
1
+. . . +U
n
si pu`o concludere che ogni variabile
aleatoria uguale alla somma di n variabili aleatorie indipendenti con legge geometrica di
parametro p ha legge di Pascal di parametri n e p.
2.5 Canali di comunicazione binari
Il processo di Bernoulli `e un buon modello di un canale di comunicazione binario con errori
casuali nella trasmissione. Una sorgente invia segnali costituiti da d-uple di caratteri a, b. Il
ricevitore (per varie ragioni come disturbo della trasmissione o malfuzionamenti degli appa-
rati) tuttavia potrebbe non ricevere correttamente il carattere trasmesso. Per modellizzare
la trasmissione `e ragionevole supporre che:
• la probabilit`a di non ricevere correttamente ciascun carattere trasmesso sia p ∈]0, 1[,
• gli eventuali errori nella trasmissione di caratteri distinti siano indipendenti.
Convenendo che, nella trasmissione di ciascun carattere, il valore 1 indichi errore e il valore
0 indichi trasmissione corretta, gli errori formeranno una successione di variabili aleatorie
indipendenti (R
n
)
n≥1
con legge B(1, p) ovvero un processo di Bernoulli.
Si potrebbero considerare anche modelli un p`o pi` u complessi nei quali la probabilit`a di
errore `e diversa a seconda che sia stato trasmesso a oppure b.
La probabilit`a che una stringa di d caratteri non venga trasmessa correttamente, cio`e
che almeno uno dei d caratteri ricevuti sia errato, `e
IP¦ S
d
> 0 ¦ = 1 −IP¦ S
d
= 0 ¦ = 1 −(1 −p)
d
.
Una tecnica per diminuire la probabilit`a di errore chiamata “controllo di parit`a” consiste
nell’aggiunta alla sorgente di un (d + 1)-esimo carattere in modo tale che il numero di a o
di b contenuti nella stringa di lunghezza d + 1 inviata sia pari. Il ricevitore controller`a se
il numero di a o di b tra i d + 1 caratteri ricevuti `e pari e, in tal caso, accetter`a la stringa
inviata come corretta altrimenti ne chieder`a la ritrasmissione.
In questo modo una stringa di d caratteri non verr`a trasmessa correttamente solo con un
numero pari, non nullo, di errori sui singoli caratteri. Questo accade se si verifica l’evento
[(d+1)/2]
¸
k=1
¦ S
d+1
= 2k ¦
2.6. PASSEGGIATA CASUALE 21
([(d + 1)/2] denota la parte intera di (d + 1)/2 cio`e il pi` u grande intero minore o uguale a
(d + 1)/2 ovvero (d + 1)/2 se d `e dispari e d/2 se d `e pari) e quindi la probabilit`a che una
stringa di d caratteri non venga trasmessa correttamente con il controllo di partit`a `e
IP

¸
[(d+1)/2]
¸
k=1
¦ S
d+1
= 2k ¦
¸

=
[(d+1)/2]
¸
k=1
IP ¦ S
d+1
= 2k ¦
=
[(d+1)/2]
¸
k=1

d + 1
2k

p
2k
(1 −p)
d+1−2k
Per trovare un’espressione pi` u semplice di questa probabilit`a utilizziamo il seguente
Lemma 2.7 Per ogni n ≥ 1 e p ∈]0, 1[ si ha
[n/2]
¸
k=0

n
2k

p
2k
(1 −p)
n−2k
=
1 + (1 −2p)
n
2
.
Dimostrazione. La formula del binomio di Newton ci permette di scrivere le identit`a
(r +s)
n
=
n
¸
j=0

n
j

s
j
r
n−j
(r −s)
n
=
n
¸
j=0

n
j

(−1)
j
s
j
r
n−j
.
Sommando troviamo quindi
(r +s)
n
+ (r −s)
n
= 2
n
¸
0≤j≤n; j pari

n
j

s
j
r
n−j
da cui segue subito la conclusione ponendo r = 1 −p, s = p.
La probabilit`a di errore con il controllo di parit`a `e quindi
1 + (1 −2p)
(d+1)
2
−(1 −p)
(d+1)
.
Si vede facilmente che, per p piccolo, si ha
1 −(1 −p)
d
≈ dp +o(p),
1 + (1 −2p)
(d+1)
2
−(1 −p)
(d+1)
≈ d(d + 1)p
2
+o(p
2
).
2.6 Passeggiata casuale
Il processo di Bernoulli si utilizza per descrivere la dinamica del moto di un punto che si
muove a caso su Z saltando, ad ogni istante e indipendentemente dai salti precedenti, da un
intero al successivo con probabilit`a p oppure al precedente con probabilit`a 1 − p. Questa
dinamica si chiama abitualmente passeggiata casuale.
Un fenomeno aleatorio del tutto simile si presenta osservando l’andamento del capitale
di un giocatore che ad ogni istante vince o perde una certa quantit`a fissa.
22 2. IL PROCESSO DI BERNOULLI
Lo spostamento del punto dal tempo n al tempo n + 1 `e quindi ben modellizzato dalle
variabili aleatorie 2R
n+1
−1.
Supponendo che, al tempo 0, il punto parta da 0, la posizione al tempo n `e data da
X
n
= X
0
+
n
¸
k=1
(2R
k
−1) = 2S
n
−n.
La posizione iniziale X
0
`e di solito fissa (tipicamente X
0
= 0).
Definizione 2.8 La famiglia di variabili aleatorie (X
n
)
n≥0
si chiama passeggiata casuale
su Z con parametro p. Nel caso in cui p = 1/2 si chiama passeggiata casuale simmetrica.
Nelle varie interpretazioni delle passeggiate casuali si pone spesso il problema di deter-
minare la probabilit`a di ritornare al valore iniziale, di osservare un certo valore massimo o
minimo in un dato intervallo di tempo, il tempo medio impiegato per raggiungere un certo
valore e quantit`a simili.
Tratteremo molti di questi problemi utilizzando metodi di teoria delle martingale ma
risponderemo ad alcune delle domande precedenti con metodi elementari basati sul principio
di riflessione.
Il calcolo della probabilit`a di ritorno in 0 al tempo n della passeggiata casuale con X
0
= 0
`e il pi` u semplice dei problemi precedenti. Infatti, sapendo che S
n
ha legge binomiale B(n, p),
si trova subito che la probabilit`a di ritorno in 0 al tempo n `e nulla se n `e dispari mentre, se
n `e pari
IP ¦ X
n
= 0 ¦ = IP ¦ S
n
= n/2 ¦ =

n
n/2

(pq)
n/2
. (2.6)
In particolare, grazie alla formula di Stirling, per n grande, si ha
IP ¦ X
2n
= 0 ¦ ≈
(4p(1 −p))
n

πn
.
Teorema 2.9 (Principio di riflessione.) Il numero di cammini da (0, −a) a (n, b) (a, b ∈ Z)
che toccano l’asse delle ascisse `e uguale al numero di cammini da (0, a) a (n, b) che toccano
l’asse delle ascisse.
Dimostrazione. Per ogni cammino da (0, −a) a (n, b) (a, b ∈ Z) che tocca sia m l’ultimo
istante in cui il valore raggiunto `e 0. Per ottenere un cammino da (0, a) a (n, b) che tocca
l’asse delle ascisse baster`a cambiare di segno i primi m incrementi del cammino da (0, −a)
a (n, b) (vedi Figura 2.1).
Teorema 2.10 Sia (X
n
)
n≥0
una passeggiata casuale simmetrica su Z con X
0
= 0. Si ha
allora
IP

max
0≤k≤n
X
k
≥ x

= 2IP ¦ X
n
> x¦ +IP ¦ X
n
= x¦
per ogni x > 0. In particolare per x ∈ ¦ 1, . . . , n¦ si ha
IP

max
0≤k≤n
X
k
≥ x

= 2
−n+1
n
¸
y =x+1

n
(n +y)/2

+ 2
−n

n
(n +x)/2

Dimostrazione. Separando i cammini che arrivano in x da quelli che arrivano ad un valore
diverso si ha subito
IP

max
0≤k≤n
X
k
≥ x

= IP

max
0≤k≤n
X
k
≥ x, X
n
= x

+IP

max
0≤k≤n
X
k
≥ x, X
n
= x

.
2.7. IL PROBLEMA DEL BALLOTTAGGIO 23
(0, a)

@
@
@
@
@
@
@
@
@
@
@

@
@
@
@
@
@
@
@
@
@
@

?
?
?
?
?
?
?
?
?

~
~
~
~
~
~
~
~
~
~
~

(n, b)
. . . . . .









. . . . . . . . .

z
z
z
z
z
z
z
z
z
(0, −a)

z
z
z
z
z
z
z
z
z
z
Figure 2.1: Principio di riflessione
Evidentemente gli eventi

max
0≤k≤n
X
k
≥ x, X
n
= x

, ¦ X
n
= x¦
coincidono e quindi le loro probabilit`a sono uguali. Baster`a quindi verificare che
IP

max
0≤k≤n
X
k
≥ x, X
n
= x

= 2IP ¦ X
n
> x¦ .
Questa identit`a segue dal principio di riflessione, infatti il numero di cammini che raggiun-
gono (ed eventualmente superano) il valore x e terminano con un valore diverso da x `e
esattamente doppio del numero di cammini che terminano con un valore strettammente
maggiore di x.
2.7 Il problema del ballottaggio
Calcoleremo ora la probabilit`a che una passaggiata casuale simmetrica, uscente da 0, arrivi
al tempo n ad un valore x > 0 senza ritornare mai in 0 ai tempi 1, 2, . . . , n.
Il problema `e detto del “ballottaggio” perch´e si potrebbe riformulare nel modo seguente:
nello spoglio di una votazione tra due candidati (ignorando le schede bianche e nulle) qual
`e la probabilit`a che il candidato vincente rimanga in vantaggio durante tutta l’operazione?
Sono possibili tuttavia tante altre interpretazioni, per esempio: se un giocatore ad ogni
istante vince o perde una unit`a con uguale probabilit`a, all’inizio del gioco aveva 0 unit`a e
al tempo finale n possiede x (x > 0) unit`a, qual `e la probabilit`a che sia rimasto sempre in
attivo ai tempi 1, 2, . . . , n?
L’evento del quale dobbiamo calcolare la probabilit`a `e
¦ X
1
> 0, X
2
> 0, . . . , X
n−1
> 0 ¦
per la probabilit`a condizionata rispetto all’evento ¦ X
n
= x¦ (supponiamo di sapere gi`a che
il candidato vincente ha x voti pi` u dell’altro oppure che il giocatore vince x unit`a pi` u di
quante ne perda).
Sia N
n,x
il numero totale di cammini da (0, 0) a (n, x) (n, x ∈ N

). Detto s (su) (risp. g
(gi` u) il numero di incrementi positivi (risp. negativi) si ha ovviamente s +g = n e s −g = x
24 2. IL PROCESSO DI BERNOULLI
e risulta evidentemente
N
n,x
=

n
s

=

n
(n +x)/2

.
Iniziamo mostrando un lemma preliminare che si verifica essenzialmente come il principio
di riflessione.
Lemma 2.11 Il numero di cammini da (0, 0) a (n, x) (x ∈ N

) che non toccano l’asse delle
ascisse a tempi strettamente positivi `e uguale a
N
n−1,x−1
−N
n−1,x+1
=
x
n
N
n,x
Dimostrazione. Il numero totale di cammini da (0, 0) a (n, x) che non passano mai da 0 ai
tempi 1, 2, . . . , n `e evidentemente uguale al numero di cammini da (1, 1) a (n, x) che non
passano mai da 0. Questo, a sua volta, (per traslazione) `e uguale al numero di cammini da
(0, 0) a (n −1, x −1) che non passano mai sotto lo 0 ai tempi 1, 2, . . . , n −1.
Per mostrare la formula occorre quindi sottrarre a N
n−1,x−1
il numero di cammini che
passano sotto lo 0. Questo, per il principio di riflessione, `e uguale al numero di cammini che
finiscono in (n −1, x + 1). Infatti, detto m (m > 0) il primo istante dopo 0 in cui X
m
< 0,
l’incremento risulta X
m
− X
m−1
= 2R
m
− 1 = −1. Cambiando questo incremento con un
+1, si ottiene un cammino che arriva in (n −1, x + 1). Viceversa, dato un camino da (0, 0)
che arriva in (n − 1, x + 1), cambiando il primo incremento uguale a +1 in un incremento
−1 si ottiene un cammino da (0, 0) a (n −1, x −1) che passa sotto 0.
Il numero di cammini da (0, 0) a (n −1, x −1) che non passano per 0 `e allora uguale a
N
n−1,x−1
−N
n−1,x+1
=

n −1
(n +x)/2 −1

n −1
(n +x)/2

=
x
n

n
(n +x)/2

=
x
n
N
n,x
.
Ci`o dimostra il lemma.
Teorema 2.12 Se (X
n
)
n≥0
`e una passeggiata casuale simmetrica con X
0
= 0 per ogni
x ∈ ¦ 1, 2, . . . , n¦ tale che n −x sia pari si ha
IP ¦ X
1
> 0, X
2
> 0, . . . , X
n−1
> 0, X
n
= x¦ =
x
n

n
(n +x)/2

2
−n
,
in particolare
IP ¦ X
1
> 0, X
2
> 0, . . . , X
n−1
> 0 [ X
n
= x¦ =
x
n
.
Dimostrazione. La prima formula segue subito dal Lemma 2.11 e dal fatto che ogni cammino
fissato da (0, 0) a (n, x) ha probabilit`a 2
−n
. La seconda `e un’immediata conseguenza della
definizione di probabilit`a condizionata.
2.8 Tempo del primo ritorno in 0
Si chiama tempo del primo ritorno in 0 la variabile aleatoria
Z = inf ¦ n ≥ 1 [ X
n
= 0 ¦
con la convenzione abituale inf ∅ = +∞. Vogliamo calcolare la legge di Z. A questo scopo
iniziamo mostrando una formula notevole sull’uguaglianza tra: la probabilit`a di passaggio
in 0 al tempo 2n e la probabilit`a di non passare mai da 0 ai tempi 1, 2, . . . , 2n.
2.8. TEMPO DEL PRIMO RITORNO IN 0 25
Lemma 2.13 Per ogni n ∈ N

si ha
IP ¦ X
1
= 0, X
2
= 0, . . . , X
2n
= 0 ¦ = IP ¦ X
2n
= 0 ¦ = 2
−2n

2n
n

Dimostrazione. Per simmetria si ha evidentemente
IP ¦ X
1
= 0, X
2
= 0, . . . , X
2n
= 0 ¦ = 2IP ¦ X
1
> 0, X
2
> 0, . . . , X
2n
> 0 ¦ .
Abbiamo inoltre (formula della probabilit`a totale), con le notazioni del paragrafo precedente
e grazie al Teorema 2.12,
IP ¦ X
1
> 0, X
2
> 0, . . . , X
2n
> 0 ¦ =
n
¸
k=1
IP ¦ X
1
> 0, X
2
> 0, . . . , X
2n
= 2k ¦
= 2
−2n
n
¸
k=1
2k
2n
N
2n,2k
,
e quindi, per il Lemma 2.11, abbiamo
IP ¦ X
1
> 0, X
2
> 0, . . . , X
2n
> 0 ¦ = 2
−2n
n
¸
k=1
(N
2n−1,2k−1
−N
2n−1,2k+1
)
= 2
−2n
N
2n−1,1
= 2
−2n

2n −1
n

.
Osservando infine che

2n −1
n

=
(2n −1)!
n!(n −1)!
=
1
2
(2n −1)!(2n)
n!n!
=
1
2
(2n)!
n!n!
=
1
2

2n
n

troviamo
IP ¦ X
1
> 0, X
2
> 0, . . . , X
2n
> 0 ¦ =
1
2
2
−2n

2n
n

=
1
2
IP ¦ X
2n
= 0 ¦
da cui segue subito la conclusione.
Possiamo determinare la legge di Z.
Teorema 2.14 Per ogni numero n ≥ 1 abbiamo
IP ¦ Z = 2n¦ =
1
2n −1
IP ¦ X
2n
= 0 ¦ =
2
−2n
2n −1

2n
n

e IP ¦ Z = +∞¦ = 0.
Dimostrazione. Grazie al Lemma 2.13 valgono le identit`a
IP ¦ Z = 2n¦ = IP ¦ X
1
= 0, X
2
= 0, . . . , X
2n
= 0 ¦
= IP ¦ X
1
= 0, X
2
= 0, . . . , X
2n−2
= 0 ¦ −IP ¦ X
1
= 0, X
2
= 0, . . . , X
2n
= 0 ¦
= 2
−2n
¸
4

2n −2
n −1

2n
n

= 2
−2n

2n
n

2n
2n −1
−1

.
26 2. IL PROCESSO DI BERNOULLI
Troviamo cos`ı la formula cercata per n ∈ N

.
Infine, osservando che l’evento ¦ Z = +∞¦ `e intersezione della successione non crescente
di eventi (¦ Z > 2n¦)
n≥1
ovvero
¦ Z = +∞¦ =
¸
n≥1
¦ Z > 2n¦ ,
abbiamo
IP ¦ Z = +∞¦ = lim
n→∞
IP ¦ Z > 2n¦ .
Per ogni intero n ≥ 1, grazie al Lemma 2.13, sappiamo che
IP ¦ Z > 2n¦ = IP ¦ X
2
= 0, X
4
= 0, . . . , X
2n
= 0 ¦ = 2
−2n

2n
n

e quindi, utilizzando la formula di Stirling
lim
n→∞
n
n
e
−n

2πn
n!
= 1,
si vede facilmente che, per n grande,
2
−2n

2n
n


1

πn
.
Poich´e la successione (1/

πn)
n≥1
`e infinitesima per n tendente all’infinito, possiamo con-
cludere che l’evento ¦ Z = +∞¦ ha probabilit`a nulla.
Utilizzando la formula di Stirling si vede facilmente che, per n grande,
IP ¦ Z = 2n¦ ≈
1
2

π n
3/2
.
In particolare
E[Z] =

¸
n=1
2n IP ¦ Z = 2n¦ = +∞.
Questo mostra che il ritorno in 0 avverr`a quasi certamente ma occorrer`a attendere troppo
tempo.
2.9 Tempo trascorso dall’ultimo passaggio in 0
Secondo una credenza diffusa i ritorni in 0 dovrebbero essere abbastanza frequenti. Il Teo-
rema 2.14 per`o la contraddice cos`ı come il risultato seguente sul tempo trascorso dall’ultimo
passaggio in 0 prima del tempo 2n. Questo `e definito come la variabile aleatoria
V
2n
= 2n −2 max¦ k ≤ n [ X
2k
= 0 ¦.
La legge di V si calcola abbastanza facilmente con la teoria sviluppata.
Teorema 2.15 Per ogni n ∈ N

e k ∈ ¦ 0, 1, . . . , n¦ si ha
IP ¦ V
2n
= 2k ¦ = 2
−2n

2k
k

2n −2k
n −k

. (2.7)
2.9. TEMPO TRASCORSO DALL’ULTIMO PASSAGGIO IN 0 27
Dimostrazione. Si ha infatti
IP ¦ V
2n
= 2k ¦ = IP ¦ X
2n−2k
= 0, X
2n−2k+2
= 0, . . . , X
2n
= 0 ¦
= IP ¦ X
2k
= 0, X
2k+2
−X
2k
= 0, . . . , X
2n
−X
2k
= 0 ¦
e quindi, poich´e X
2k
`e indipendente dal vettore aleatorio (X
2k+2
− X
2k
, . . . , X
2n
− X
2k
),
grazie al Lemma 2.13 troviamo
IP ¦ V
2n
= 2k ¦ = IP ¦ X
2k
= 0 ¦ IP ¦ X
2k+2
−X
2k
= 0, . . . X
2n
−X
2k
= 0 ¦
= IP ¦ X
2k
= 0 ¦ IP ¦ X
2n
−X
2k
= 0 ¦
da cui segue subito la conclusione.
La formula 2.7 mostra che, al tempo 2n, la probabilit`a di non avere osservato passaggi
dallo 0 dal tempo n in poi `e 1/2. Questo risultato mostra, ancora una volta, la “rarit`a” dei
passaggi in 0.
L’istogramma qui sotto si riferisce alla densit`a di V
12
.
0 2 4 6 8 10 12
Vedremo ora come la formula 2.7, per tempi grandi, dia origine alla cosiddetta legge
dell’arco seno. Pi` u precisamente mostriamo che la successione di variabili aleatorie (V
2n
/2n)
n≥1
converge in legge verso la legge dell’arco seno.
Teorema 2.16 Per ogni x ∈]0, 1[ si ha
lim
n→∞
IP ¦ V
2n
≤ 2nx¦ =
2
π
arcsin(

x).
Dimostrazione. Osservando che, grazie alla formula di Stirling, per n grande si ha
IP ¦ V
2n
≤ 2nx¦ =
¸
0≤k≤nx
2
−2n

2k
k

2n −2k
n −k


¸
0≤k≤nx
1
n
1
π

k/n(1 −k/n)
e ricordando la nota approssimazione dell’integrale di una funzione continua con l’integrale
delle funzioni a scala troviamo
lim
n→∞
IP ¦ V
2n
≤ 2nx¦ =

x
0
dy
π

y(1 −y)
=
2
π
arcsin(

x).
L’arco seno appare quindi nella funzione di ripartizione. La densit`a `e pertanto
f(x) =
1
π

x(1 −x)
, per x ∈]0, 1[, f(x) = 0 per x / ∈]0, 1[.
28 2. IL PROCESSO DI BERNOULLI
Dunque la cosiddetta legge dell’arco seno `e la legge beta B(1/2, 1/2).
Osservazione. Studiando il comportamento asintotico della passeggiata casuale simmetrica
si potrebbe dimostrare la legge del logaritmo iterato
limsup
n→∞
X
n

2nlog(log(n))
= 1,
liminf
n→∞
X
n

2nlog(log(n))
= −1.
2.10 Esercizi
Esercizio 2.1 Calcolare la probabilit`a IP(¦ R
1
= 1 ¦ [ ¦ S
n
= k ¦) per k = 0, 1, . . . , n.
Esercizio 2.2 Verificare che una variabile aleatoria Y con densit`a binomiale negativa NB(n, p)
soddisfa
E[Y ] =
n(1 −p)
p
, V [Y ] =
n(1 −p)
p
2
Esercizio 2.3 Sia T
n
il tempo d’attesa dell’n-esimo successo di un processo di Bernoulli e
sia k ≤ n. Calcolare
IP ¦ T
k
= j [ T
n
= m¦
per ogni j ∈ ¦ k, . . . , m − (n − k) ¦. Che cosa si pu`o dire della legge di T
k
rispetto alla
probabilit`a condizionata IP ¦ [ T
n
= m¦ ?
Esercizio 2.4 Un tale gioca n partite in ciascuna delle quali perde o vince 1 moneta con
uguale probabilit`a. Alla fine del gioco possiede x monete (x > 0). Qual `e la probabilit`a che,
durante il gioco, non sia mai rimasto senza monete (tranne, ovviamente, al tempo 0)?
Esercizio 2.5 Siano (R
n
)
n≥1
e (R
t
n
)
n≥1
due processi di Bernoulli con parametri p e p
t
indipendenti. Detti T e T
t
i rispettivi istanti dei primi successi, calcolare la probabilit`a
dell’evento ¦ T ≤ T
t
¦.
Esercizio 2.6 Il valore di portafoglio di azioni ogni giorno aumenta o diminuisce di 0.1 con
probabilit`a 1/2. Se il valore iniziale `e 1 e, dopo 20 giorni `e 1.2 qual `e la probabilit`a che il
valore non sia mai sceso sotto 1?
3
Elementi di teoria generale dei
processi
Sia Ω, T, P) uno spazio probabilizzato fissato e I un insieme totalmente ordinato. L’insieme
I `e l’insieme dei tempi che, di volta in volta, sar`a N, Z, R
+
= [0, +∞[, R, o un intervallo
di R. In questo capitolo introdurremo le definizioni fondamentali e le prime propriet`a dei
processi stocastici.
Definizione 3.1 Un processo stocastico X su (Ω, T, P) `e una famiglia (X
t
)
t∈I
di variabili
aleatorie reali definite su Ω.
I processi stocastici abitualmente si distinguono in varie classi a seconda dell’insieme
dei tempi, dei valori che possono prendere le variabili aleatorie X
t
(in un insieme finito,
numerabile, in un intervallo della retta reale, . . .), della legge delle variabili aleatorie X
t
e
del tipo di dipendenza tra le variabili aleatorie a tempi diversi.
Esempio 3.1 Elenchiamo alcuni tipi di processi stocastici.
1. Processo di Bernoulli e catene di Markov I = N.
2. Processi di Markov con insieme degli stati Z. I = [0, +∞[ ... per esempio i processi di
nascita e morte, le code casuali.
3. Processi stazionari. I = Z oppure I = [0, +∞[ e variabili aleatorie X
t
tali che
per ogni n e ogni t
1
< t
2
< < t
n
, s le variabili aleatorie (X
t
1
, X
t
2
, . . . , X
t
n
) e
(X
t
1
+s
, X
t
2
+s
, . . . , X
t
n
+s
) abbiano la stessa legge.
4. Processi a incrementi indipendenti. I = [0, +∞[, variabili aleatorie X
t
tali che, per
ogni n e ogni t
1
< t
2
< < t
n
gli incrementi X
t
1
− X
0
, X
t
2
− X
t
1
, . . . , X
t
n
− X
t
n−1
siano indipendenti
Di un processo stocastico si osservano abitualmente solo i valori assunti, nell’esperimento
aleatorio modellizzato dallo spazio probabilizzato (Ω, T, P), da un numero finito di variabili
aleatorie (X
t
1
, X
t
2
, . . . , X
t
n
). Secondo questo punto di vista allora due famiglie di variabili
aleatorie (X
t
)
t∈I
, (Y
t
)
t∈I
tali che P¦ X
t
= Y
t
¦ = 1 per ogni t ∈ I descrivono essenzialmente
lo stesso processo
Definizione 3.2 Dati due processi stocastici X = (X
t
)
t∈I
, Y = (Y
t
)
t∈I
su spazio probabi-
lizzato (Ω, T, P) si dice che X `e una modificazione di Y se
P¦ X
t
= Y
t
¦ = 1,
29
30 3. ELEMENTI DI TEORIA GENERALE DEI PROCESSI
per ogni t ∈ I.
Osserviamo che, se X `e una modificazione di Y , allora,
P¦ X
t
1
= Y
t
1
, . . . , X
t
n
= Y
t
n
¦ = 1
per ogni n ∈ N

e ogni t
1
, . . . , t
n
∈ I.
Le leggi di probabilit`a µ
t
1
,...,t
n
su B(R
n
) definite da
µ
t
1
,...,t
n
(A
1
. . . A
n
) = P¦ X
t
1
∈ A
1
, . . . , X
t
n
∈ A
n
¦
(A
1
, . . . , A
n
∈ B(R
n
), t
1
< . . . < t
n
) si chiamano distribuzioni finito-dimensionali del
processo stocastico X. Quindi se X `e una modificazione di Y , allora i due processi hanno le
stesse distribuzioni finito dimensionali.
3.1 Filtrazioni di σ-algebre
Sia (Ω, T, P) uno spazio probabilizzato.
Definizione 3.3 Si chiama filtrazione di T una famiglia (T
t
)
t∈I
di sotto-σ-algebre di T
che sia non decrescente ovvero tale che
T
s
⊆ T
t
per ogni s ≤ t.
La σ-algebra T
t
di solito `e costituita dagli eventi osservabili dal tempo 0 al tempo t.
Esempio 3.2 Sia (X
n
)
n≥1
un processo di Bernoulli di parametro p. La σ-algebra degli
eventi osservabili fino al tempo n `e la pi` u piccola σ-algebra T
n
di sottoinsiemi di T che
contenga gli eventi della forma
¦ X
1
= x
1
, . . . , X
n
= x
n
¦
con x
1
, . . . , x
n
∈ Z. La famiglia (T
n
)
n≥1
`e una filtrazione di sotto-σ-algebre di T.
Definizione 3.4 Dato un processo stocastico X = (X
t
)
t∈I
su uno spazio probabilizzato
(Ω, T, P) si chiama filtrazione naturale di X la filtrazione (T
t
)
t∈I
in cui T
t
`e la pi` u piccola
σ-algebra rispetto alla quale le variabili aleatorie X
s
con s ≤ t siano misurabili.
Definizione 3.5 Un processo stocastico (X
t
)
t∈I
su uno spazio probabilizzato (Ω, T, P) con
una filtrazione (T
t
)
t∈I
di sotto-σ-algebre di T si dice adattato se la variabile aleatoria X
t
`e
T
t
misurabile per ogni t ∈ I.
La filtrazione naturale di un processo stocastico `e la pi` u piccola filtrazione rispetto alla
quale il processo sia adattato.
3.2 Propriet`a delle traiettorie e versioni continue
Sia X = (X
t
)
t∈I
un processo stocastico su uno spazio probabilizzato (Ω, T, P).
Definizione 3.6 Si chiama traiettoria di X relativa a ω la funzione
I ÷ t → X
t
(ω) ∈ R. (3.1)
Nel caso in cui l’insieme dei tempi I `e un intervallo di R si dice che
3.2. PROPRIET
`
A DELLE TRAIETTORIE E VERSIONI CONTINUE 31
(i) X ha traiettorie continue se la funzione 3.1 `e continua per ogni ω ∈ Ω,
(ii) X ha traiettorie regolari (oppure traiettorie c`adl`ag) se la funzione 3.1 `e continua a
destra e ha limite da sinistra per ogni ω ∈ Ω.
La continuit`a in probabilit`a ovvero
lim
s→t
P¦ [X
s
−X
t
[ > ε ¦ = 0
per ogni s, t ∈ I `e una propriet`a molto pi` u debole della continuit`a delle traiettorie.
Definizione 3.7 Si dice che X ammette una versione a traiettorie continue (risp. rego-
lari) se esiste un processo stocastico X
t
a traiettorie continue (risp. regolari) che sia una
modificazione di X.
Definizione 3.8 Si dice che X `e indistinguibile da Y se
P( ∪
t∈I
¦X
t
= Y
t
¦ ) = 0.
`
E chiaro che, se X `e indistinguibile da Y , allora X `e una modificazione di Y . Si verifica
facilmente che, nel caso in cui l’insieme dei tempi I sia numerabile, X `e indistinguibile da
Y se e solo se `e una modificazione di Y . Nel caso in cui I non `e numerabile e dunque un
intervallo (eventualmente illimitato) si ha comunque
Proposizione 3.9 Siano X e Y due processi con traiettorie regolari. Se X `e una modifi-
cazione di Y allora `e anche indistinguibile da Y .
Baster`a infatti osservare che, data la regolarit`a delle traiettorie, preso un sottoinsieme
D di I numerabile e denso, si ha
¸
t∈I
¦ X
t
= Y
t
¦ =
¸
t∈D
¦ X
t
= Y
t
¦ .
In generale, tuttavia, se X `e una modificazione di Y , non `e necessariamente indistinguibile
da Y come mostra il seguente esempio
Esempio 3.3 Sia Ω = [0, 1], T = B([0, 1]) e P la misura di Lebesgue su T. Sia I = [0, +∞[
l’insieme dei tempi. Consideriamo il processo stocastico X cos`ı definito
X
t
(ω) =

1 se ω = t,
0 se ω = t.
e sia Y il processo nullo Y
t
(ω) = 0 per ogni t ∈ I e ogni ω ∈ Ω.
`
E chiaro che X `e una
modificazione di Y ma X non `e indistinguibile da Y perch´e
P( ∪
t∈I
¦X
t
= Y
t
¦ ) = 1.
Nello studio dei processi stocastici `e molto utile sapere se un certo processo ha una mo-
dificazione con traiettorie continue. Questa propriet`a si pu`o verificare applicando il seguente
risultato che d`a anzi una informazione pi` u precisa. Ricordiamo che una funzione g : R → R
si chiama θ-holderiana (0 < θ < 1) se esiste una costante c tale che
[g(t) −g(s)[ ≤ K[t −s[
θ
, per ogni t, s ∈ R.
Una funzione θ-holderiana `e, in particolare, uniformemente continua.
32 3. ELEMENTI DI TEORIA GENERALE DEI PROCESSI
Teorema 3.10 Sia X = (X
t
)
t≥0
un processo stocastico su uno spazio probabilizzato (Ω, T, P).
Se esistano due numeri reali α, β strettamente positivi e una costante C tali che
E[[X
t
−X
s
[
α
] ≤ C[t −s[
1+β
per ogni t, s ≥ 0, allora X ha una modificazione con traiettorie γ-h¨olderiane per ogni γ ∈
]0, β/α[.
Per la dimostrazione si veda “I. Karatzas, S.E. Shreve, Brownian Motion and Stocastic
Calculus (Second Edition) Th.2.8 p.53”.
3.3 Esercizi
Esercizio 3.1 Sia (R
n
)
n≥1
un processo di Bernoulli di parametro p su uno spazio probabi-
lizzato (Ω, T, P). Per ogni n ≥ 1 sia S
n
= R
1
+. . . +R
n
e sia (
n
la pi` u piccola σ-algebra di
sottoinsiemi di T che contenga gli eventi della forma
¦ S
1
= k
1
, . . . , S
n
= k
n
¦
con 0 ≤ k
1
≤ . . . ≤ k
n
interi arbitrari. Verificare che (
n
= T
n
(T
n
`e la σ-algebra definita
nell’Esempio 3.2) per ogni n ≥ 1.
Esercizio 3.2 Con le notazioni dell’esercizio precedente consideriamo il processo stocastico
Y cos`ı definito
Y
n
=

S
n
se n `e dispari,
S
n−1
se n `e pari.
Verificare che Y `e adattato alla filtrazione (T
n
)
n≥1
e che la filtrazione naturale di Y `e
strettamente pi` u piccola della filtrazione naturale di X.
Esercizio 3.3 Mostrare che un processo stocastico X = (X
t
)
t≥0
con la propriet`a seguente
“per ogni t, s ≥ 0 la variabile aleatoria X
t
−X
s
ha legge normale N(0, t−s)” verifica l’ipotesi
del Teorema 3.10
Esercizio 3.4 Mostrare che un processo stocastico X = (X
t
)
t≥0
con la propriet`a seguente
“per ogni t, s ≥ 0 la variabile aleatoria X
t
−X
s
ha legge di Poisson con parametro λ(t −s)”
non verifica l’ipotesi del Teorema 3.10
Esercizio 3.5 Mostrare che un processo stocastico X = (X
t
)
t∈[0,1]
con la propriet`a seguente:
per ogni t, s ≥ 0 le variabili aleatorie X
t
, X
s
hanno legge gaussiana bidimensionale con
media 0 e covarianza
Cov[X
t
, X
s
] = min¦s, t¦ −st
verifica l’ipotesi del Teorema 3.10.
4
Processi puntuali
I processi puntuali sono speciali processi stocastici le cui traiettorie sono costanti a tratti e,
a tempi aleatori, hanno salti di una certa ampiezza che pu`o essere costante oppure aleatoria.
In questo capitolo mostreremo alcuni esempi di processi puntuali con ampiezza dei salti
uguali a 1 e per questo detti anche processi di conteggio. Questi processi possono descrivere
vari fenomeni aleatori come il conteggio del numero di persone che arrivano in una coda
casuale, i guasti di un certo apparato, il decadimento radioattivo ...
4.1 Processo di Poisson
Sia (X
n
)
n≥1
una successione di variabili aleatorie reali indipendenti con legge esponenziale
di parametro λ (λ > 0) e poniamo T
n
= X
1
+ . . . + X
n
per ogni n ≥ 1. Per ogni numero
reale t ≥ 0 definiamo la variabile aleatoria N
t
a valori N ∪ ¦+∞¦
N
t
=
¸
n≥1
1
¦T
n
≤t¦
.
Le X
n
si potrebbero pensare come le durate di certi “pezzi” che vengono sostituiti non
appena si guastano. La variabile aleatoria N
t
rappresenta quindi il numero di guasti
nell’intervallo temporale [0, t].
`
E abbastanza facile trovare la legge di N
t
.
Proposizione 4.1 La variabile aleatoria N
t
ha legge di Poisson di parametro λt per ogni
t > 0. In particolare P¦ N
t
= +∞¦ = 0 per ogni t ≥ 0.
Dimostrazione. Calcoliamo dapprima la probabilit`a dell’evento ¦ N
t
= 0 ¦. Grazie all’identit`a
¦ N
t
= 0 ¦ = ¦ T
1
> t ¦
si ha subito
P¦ N
t
= 0 ¦ = P¦ T
1
> t ¦ = e
−λt
.
Calcoliamo poi la probabilit`a dell’evento ¦ N
t
= k ¦ per ogni k > 0. Grazie all’identit`a
¦ N
t
= k ¦ = ¦ T
k
≤ t, T
k+1
> t ¦ = ¦ T
k
≤ t ¦ −¦ T
k+1
≤ t ¦
si ha quindi, tenendo conto che T
k
e T
k+1
hanno leggi Γ(k, λ) e Γ(k +1, λ) rispettivamente,
P¦ N
t
= k ¦ = P¦ T
k
≤ t ¦ −P¦ T
k+1
≤ t ¦
=

t
0
λ
k
x
k−1
(k −1)!
e
−λx
dx −

t
0
λ
k+1
x
k
k!
e
−λx
dx.
33
34 4. PROCESSI PUNTUALI
Integrando per parti il secondo integrale (si integra λe
−λx
e si deriva x
k
) si trova infine
P¦ N
t
= k ¦ = e
−λt
(λt)
k
k!
e quindi N
t
ha legge di Poisson con parametro λt.
In particolare, dato che N
t
ha speranza finita, la probabilit`a dell’ evento ¦N
t
= +∞¦ `e
nulla.
Si verifica inoltre che il processo (N
t
)
t≥0
ha incrementi indipendenti.
Teorema 4.2 Per ogni intero n ≥ 1 e ogni 0 < t
1
< t
2
< . . . < t
n
le variabili aleatorie
N
t
1
, N
t
2
− N
t
1
, . . . , N
t
n
− N
t
n−1
sono indipendenti e hanno legge di Poisson con parametri
rispettivamente λt
1
, λ(t
2
−t
1
), . . . , λ(t
n
−t
n−1
).
Dimostrazione. Consideriamo, per semplicit`a, il caso di due soli tempi t
1
= t, t
2
= t + s
(t, s > 0) e calcoliamo
P¦ N
t
= h, N
t+s
= h +k ¦ = P¦ T
h
≤ t, T
h+1
> t, T
h+k
≤ t +s, T
h+k+1
> t +s ¦
= P¦ T
h
≤ t, T
h
+X
h+1
> t, T
h
+X
h+1
+ (T
h+k
−T
h+1
) ≤ t +s,
T
h
+X
h+1
+ (T
h+k
−T
h+1
) +X
h+k+1
> t +s ¦
per h > 0, k > 1. Utilizzando l’indipendenza delle quattro variabili aleatorie
T
h
, X
h+1
, (T
h+k
−T
h+1
), X
h+k+1
,
che hanno leggi rispettivamente Γ(h, λ), Γ(1, λ), Γ(k − 1, λ), Γ(1, λ) si vede subito che la
probabilit`a P¦ N
t
= h, N
t+s
= k ¦ `e data da

t
0
λ
h
x
h−1
(h −1)!
e
−λx
dx

t+s−x
t−x
λe
−λy
dy

t+s−(x+y)
0
λ
k−1
z
k−2
(k −2)!
e
−λz
dz


t+s−(x+y+z)
λe
−λw
dw
= λ
h+k
e
−λ(t+s)

t
0
x
h−1
(h −1)!
dx

t+s−x
t−x
dy

t+s−(x+y)
0
z
k−2
(k −2)!
dz
= λ
h+k
e
−λ(t+s)

t
0
x
h−1
(h −1)!
dx

t+s−x
t−x
((t +s) −(x +y))
k−1
(k −1)!
dy
= λ
h+k
e
−λ(t+s)
s
k
k!

t
0
x
h−1
(h −1)!
dx
= e
−λt
(λt)
h
h!
e
−λs
(λs)
k
k!
.
Si ha quindi
P¦ N
t
= h, N
t+s
−N
t
= k ¦ = P¦ N
t
= h, N
t+s
= h +k ¦ = e
−λt
(λt)
h
h!
e
−λs
(λs)
k
k!
.
I due casi in cui h = 0 e k = 0, 1 si trattano in modo analogo e sono pi` u semplici.
La famiglia di variabili aleatorie (N
t
)
t≥0
ha evidentemente traiettorie regolari. Abbiamo
cos`ı costruito una versione del processo di Poisson.
Definizione 4.3 Si chiama processo di Poisson di parametro λ > 0 una famiglia (N
t
)
t≥0
di variabili aleatorie su uno spazio probabilizzato (Ω, T, P) tali che
1. per ogni ω ∈ Ω la traiettoria t → N
t
(ω) `e regolare,
4.1. PROCESSO DI POISSON 35
2. per ogni intero n ≥ 1 e ogni 0 < t
1
< t
2
< . . . < t
n
le variabili aleatorie N
t
1
, N
t
2

N
t
1
, . . . , N
t
n
−N
t
n−1
sono indipendenti e hanno legge di Poisson con parametri rispet-
tivamente λt
1
, λ(t
2
−t
1
), . . . , λ(t
n
−t
n−1
).
Mostreremo ora alcune propriet`a del processo di Poisson di parametro λ > 0.
Proposizione 4.4 Le variabili aleatorie (N
t
/t)
t≥0
convergono verso λ in probabilit`a.
Dimostrazione. Grazie alla diseguaglianza di Chebychev, per ogni ε > 0 si ha
P

N
t
t
−λ

> ε


V [N
t
]
ε
2
t
2
=
λ
ε
2
t
.
La conclusione segue facendo tendere t all’infinito.
Si potrebbe dimostrare che N
t
/t converge quasi certamente verso λ.
Proposizione 4.5 Per ogni s < t ed ogni intero n ≥ 1 la legge di N
s
per la probabilit`a
condizionata P¦ [ N
t
= n¦ `e la legge binomiale B(n, s/t).
Dimostrazione. Per ogni k ∈ ¦ 0, . . . , n¦ si ha infatti
P¦ N
s
= k [ N
t
= n¦ = P¦ N
s
= k, N
t
−N
s
= n −k ¦ /P¦ N
t
= n¦
= P¦ N
s
= k ¦ P¦ N
t
−N
s
= n −k ¦ /P¦ N
t
= n¦
=
e
−λs
(λs)
k
k!

e
−λ(t−s)
(λ(t −s))
n−k
(n −k)!

n!
e
−λt
(λt)
n
=

n
k

s
t

k

1 −
s
t

n−k
.
La Proposizione `e cos`ı dimostrata.
Proposizione 4.6 Siano (N
i
t
)
t≥0
(i = 1, 2) due processi di Poisson indipendenti con para-
metri λ
i
. Il processo (Y
t
)
t≥0
definito da Y
t
= N
1
t
+N
2
t
`e un processo di Poisson con parametro
λ
1

2
.
Osservazione. Il processo di Poisson di parametro λ si potrebbe trovare come limite di una
successione di processi di Bernoulli con parametri p
n
tali che lim
n→∞
np
n
= λ.
In modo pi` u preciso, per ogni n, sia (R
(n)
k
)
k≥1
un processo di Bernoulli di parametro p
n
come sopra. Per ogni t ≥ 0 poniamo
S
(n)
t
=
[nt]
¸
k=1
R
(n)
k
.
`
E chiaro che la variabile aletoria S
(n)
t
ha legge B([nt], p
n
) e quindi, dalla nota propriet`a
asintotica della legge binomiale, segue che S
(n)
t
converge in legge verso una variabile aleatoria
N
t
con legge di Poisson con parametro λt. Inoltre `e chiaro che le variabili aleatorie
S
(n)
s
=
[ns]
¸
k=1
R
(n)
k
, S
(n)
t
−S
(n)
s
=
[nt]
¸
k=[ns]+1
R
(n)
k
sono indipendenti per ogni n e per ogni t > s. Da questo fatto si pu`o dedurre l’indipendenza
di N
s
e N
t
−N
s
. Si pu`o dimostrare l’indipendenza degli incrementi del processo (N
t
)
t≥0
in
modo simile.
36 4. PROCESSI PUNTUALI
4.2 Processi di rinnovi
I processi di conteggio si possono introdurre come il processo di Poisson senza supporre che
le X
n
siano indipendenti ed esponenziali.
Sia (X
n
)
n≥1
una successione di variabili aleatorie reali su uno spazio probabilizzato
(Ω, T, P) tali che P¦ X
n
> 0 ¦ = 1 per ogni n ≥ 1 e poniamo T
n
= X
1
+ . . . + X
n
per ogni
n ≥ 1. Per ogni numero reale t ≥ 0 definiamo la variabile aleatoria N
t
a valori N ∪ ¦+∞¦
N
t
=
¸
n≥1
1
¦T
n
≤t¦
.
Le X
n
si potrebbero pensare come le durate di certi “pezzi” che vengono sostituiti non
appena si guastano. La variabile aleatoria N
t
rappresenta quindi il numero di guasti
nell’intervallo temporale [0, t].
Il processo (N
t
)
t≥0
cos`ı ottenuto `e un processo di conteggio e si chiama senza esplosione
se N
t
`e quasi certamente finita.
Nel caso in cui le variabili aleatorie X
n
siano anche indipendenti ed equidistribuite si
chiama processo di rinnovi.
La speranza di N
t
, cio`e il numero medio di rinnovi nell’intervallo [0, t], si esprime sem-
plicemente in termini della funzione di ripartizione F delle variabili aleatorie X
k
e delle
funzioni di ripartizione F
∗n
(del prodotto di convoluzione di n leggi con funzione di ripar-
tizione F). Quest’ultima si definisce, per induzione, con la formula
F
∗(k+1)
(s) =

]0,s]
F
∗k
(s −r)F(dr) =

]0,s]
F(s −r)F
∗k
(dr)
indicando con F(dr) l’integrazione rispetto alla misura di probabilit`a su ]0, +∞[ associata
alla funzione non decrescente F.
Proposizione 4.7 Sia N = (N
t
)
t≥0
un processo di rinnovi e F la funzione di ripartizione
delle X
k
. Se P¦ X
k
> 0 ¦ = 1 allora speranza di N
t
`e finita ed `e data da
E[N
t
] =

¸
n=1
F
∗n
(t)
Dimostrazione. Si ha infatti
E[N
t
] =
¸
n≥1
P¦ N
t
≥ n¦ =
¸
n≥1
P¦ T
n
≤ t ¦ .
Osservando che le variabili aleatorie T
n
hanno funzioni di ripartizione F
∗n
si trova subito la
formula enunciata.
Rimane da verificare che la speranza di N
t
`e finita. A questo scopo osserviamo che, per
ogni t, n si ha 1
¦ T
n
≤t ¦
≤ e
t−T
n
. integrando e ricordando che le X
k
sono indipendenti ed
equidistribuite abbiamo
P¦ T
n
≤ t ¦ ≤ E

e
t−T
n

= e
t
E

e
−(X
1
+...+X
n
)

= e
t
E

e
−X
1

n
.
Ora, avendo supposto P¦ X
k
> 0 ¦ = 1, risulta E

e
−X
1

< 1 e quindi
E[N
t
] ≤
¸
n≥1
e
t
E

e
−X
1

n

e
t
E

e
−X
1

1 −E[e
−X
1
]
.
In particolare la speranza di N
t
`e finita.
Si potrebbe verificare che tutti i momenti di ordine superiore sono finiti e si esprimono
per mezzo delle F
∗n
. Ci limitiamo, per semplicit`a al secondo
4.2. PROCESSI DI RINNOVI 37
Corollario 4.8 Sia N = (N
t
)
t≥0
un processo di rinnovi e F la funzione di ripartizione delle
X
k
. Se P¦ X
k
> 0 ¦ = 1 allora il momento di ordine 2 di N
t
`e finito.
Dimostrazione. Osserviamo che
N
2
t
=

¸
¸
n≥1
1
¦ T
n
≤t ¦
¸

2
=
¸
n,m≥1
1
¦ T
n
≤t ¦
1
¦ T
m
≤t ¦
=
¸
n≥1
¸
m<n
1
¦ T
n
≤t, T
m
≤t ¦
+
¸
m≥1
¸
n<m
1
¦ T
n
≤t, T
m
≤t ¦
+
¸
n≥1
1
¦ T
n
≤t ¦
= 2
¸
n≥1
¸
m<n
1
¦ T
n
≤t ¦
+
¸
n≥1
1
¦ T
n
≤t ¦
=
¸
n≥1
(2n −1)1
¦ T
n
≤t ¦
poich´e T
m
≤ T
n
per m < n. Utilizzando nuovamente la diseguaglianza P¦ T
n
≤ t ¦ ≤
e
t
E

e
−X
1

n
trovata nella dimostrazione della Proposizione 4.7 e calcolando le somme delle
serie abbiamo
E[N
2
t
] ≤ e
t
¸
n≥2
(2n −1)E

e
−X
1

n
< ∞
perch´e E

e
−X
1

< 1.
Per calcolare la speranza e i momenti di ordine superiore delle varibili aleatorie N
t
si
possono utilizzare opportune equazioni integro-differenziali. La pi` u semplice di queste `e
l’equazione dei rinnovi soddisfatta dalla speranza di N
t
.
Proposizione 4.9 La funzione M : [0, +∞[→ R definita da M(t) = E[N
t
] soddisfa l’equazione
dei rinnovi
M(t) = F(t) +

]0,t]
M(t −s)F(ds).
Dimostrazione. Ricordando la definizione delle F
∗n
si ha infatti
M(t) =
¸
n≥1
P¦ T
n
≤ t ¦
= F(t) +
¸
n≥2
F
∗n
(t)
= F(t) +
¸
n≥2

]0,t]
F
∗(n−1)
(t −s)F(ds).
Cambiando l’indice n della sommatoria con m = n−1 e scambiando sommatoria e integrale
si ha infine
M(t) = F(t) +
¸
m≥1

]0,t]
F
∗m
(t −s)F(ds) = F(t) +

]0,t]
M(t −s)F(ds).
L’equazione dei rinnovi `e cos`ı dimostrata.
L’equazione dei rinnovi permette di trovare, sotto un’ipotesi naturale sulla funzione di
ripartizione F, l’andamento del numero medio di rinnovi per t grandi utilizzando un risultato
di Analisi Matematica che non dimostreremo.
38 4. PROCESSI PUNTUALI
Un punto x ∈ R si dice punto d’incremento per una funzione di ripartizione F se, per
ogni ε > 0, si ha F(x+ε)−F(x−ε) > 0. Una funzione di ripartizione F si dice aritmetica se
esiste un h > 0 tale che i punti d’incremento di F siano tutti nell’insieme ¦ 0, ±h, ±2h, . . . ¦
Teorema 4.10 Se la funzione di ripartizione F delle variabili aleatorie X
k
non `e aritmetica
allora per ogni h > 0
lim
t→∞
E[N
t+h
] −E[N
t
]
t
=
h
µ
dove µ = E[X
k
] (con la convenzione 1/ +∞ = 0).
In particolare il numero medio di salti in un intervallo temporale di ampiezza h `e asin-
toticamente uguale a h/µ.
La distribuzione delle variabili aleatorie N
t
per t grande si determina abbastanza sem-
plicemente utilizzando il teorema limite centrale.
Teorema 4.11 Supponiamo che le variabili aleatorie X
k
abbiano speranza µ e varianza σ
2

2
< ∞). Si ha allora
lim
t→∞
P

N
t
−t/µ
σ

t/µ
3
≤ x
¸
=
1

x
−∞
e
−y
2
/2
dy
per ogni x ∈ R.
Dimostrazione. Indicando con m
t
la parte intera di t/µ +xσ

t/µ
3
abbiamo
P

N
t
−t/µ
σ

t/µ
3
> x
¸
= P¦ N
t
> m
t
¦ = P¦ T
m
t
< t ¦ .
La variabile aleatoria T
m
t
`e somma di m
t
variabili aleatorie indipendenti equidistribuite con
media µ e varianza σ
2
e
¦ T
m
t
< t ¦ =

T
m
t
−m
t
µ
σ

m
t
<
t −m
t
µ
σ

m
t

.
Osservando che
lim
t→∞
t −m
t
µ
σ

m
t
= lim
t→∞
t −µ(t/µ +xσ

t/µ
3
)
σ

t/µ +xσ

t/µ
3
= lim
t→∞
−x

1 +xσ(µt)
−1/2
= −x
per ogni ε > 0 troviamo un t
ε
> 0 tale che
−x −ε <
t −m
t
µ
σ

m
t
< −x +ε
per ogni t > t
ε
. Grazie al teorema limite centrale, abbiamo allora
limsup
t→∞
P

N
t
−t/µ
σ

t/µ
3
> x
¸
≤ lim
t→∞
P

T
m
t
−m
t
µ
σ

m
t
< −x +ε

=
1

−x+ε
−∞
e
−y
2
/2
dy
=
1

+∞
x−ε
e
−y
2
/2
dy
4.2. PROCESSI DI RINNOVI 39
dove l’ultima uguaglianza segue dalla simmetria della densit`a normale N(0, 1) e, inoltre
liminf
t→∞
P

N
t
−t/µ
σ

t/µ
3
> x
¸
≥ lim
t→∞
P

T
m
t
−m
t
µ
σ

m
t
< −x −ε

=
1

−x−ε
−∞
e
−y
2
/2
dy
=
1

+∞
x+ε
e
−y
2
/2
dy
L’affermazione segue allora dall’arbitrariet`a di ε.
Calcoliamo ora la probabilit`a di qualche evento notevole legato al processo di rinnovi.
Supporremo, per semplicit`a, che la legge delle variabili aleatorie X
k
abbia una densit`a f
cio`e
F(s) =

s
0
f(r)dr
per ogni s ≥ 0 e indicheremo analogamente con f
∗k
la densit`a di T
k
.
Probabilit`a di assenza di guasti nell’intervallo [s, t + s] sapendo che si sono verificati k
guasti nell’intervallo [0, s]
P¦ N
t+s
= k [ N
s
= k ¦ =

s
0
f
∗k
(x)dx


t+s−x
f(y)dy
F
∗k
(s) −F
∗(k+1)
(s)
=

s
0
f
∗k
(x)(1 −F(t +s −x))dx
F
∗k
(s) −F
∗(k+1)
(s)
=
F
∗k
(s) −

s
0
f
∗k
(x)F(t +s −x)dx
F
∗k
(s) −F
∗(k+1)
(s)
Probabilit`a di guasto nell’intervallo [s, t + s] sapendo che si sono verificati k guasti
nell’intervallo [0, s]
P¦ N
t+s
> k [ N
s
= k ¦ =

s
0
f
∗k
(x)(F(t +s −x) −F(s −x))dx
F
∗k
(s) −F
∗(k+1)
(s)
Tasso istantaneo di guasto al tempo s sapendo che si sono verificati k guasti nell’intervallo
[0, s] (moltiplicare la formula precedente per t
−1
e far tendere t a 0)

s
0
f
∗k
(x)f(s −x)dx
F
∗k
(s) −F
∗(k+1)
(s)
=
f
∗(k+1)
(s)
F
∗k
(s) −F
∗(k+1)
(s)
Osserviamo che il processo di Poisson con parametro λ ha tassi istantanei di guasto
constanti uguali a λ infatti, ricordando che f
∗k
`e la densit`a Γ(k, λ) possiamo calcolare
f
∗(k+1)
(s)
F
∗k
(s) −F
∗(k+1)
(s)
=
f
∗(k+1)
(s)

s
0
(1 −F(s −r))f
∗k
(r)dr
=
λ
k+1
s
k
e
−λs
/k!

s
0
e
−λ(s−r)
λ
k
r
k−1
e
−λr
dr/(k −1)!
=
λs
k

s
0
kr
k−1
dr
= λ
Questa propriet`a caratterizza il processo di Poisson tra i processi di rinnovo infatti vale
la seguente
40 4. PROCESSI PUNTUALI
Proposizione 4.12 Un processo di rinnovi con tassi istantanei costanti `e un processo di
Poisson.
Dimostrazione. Infatti, considerando il tasso istantaneo di guasto al tempo s sapendo che
non si `e verificato nessun guasto nell’intervallo [0, s], abbiamo
f(s)
1 −F(s)
= λ
ovvero
f(s) = λ


s
f(r)dr.
La funzione f `e pertanto derivabile e soddisfa la relazione f
t
(s) = −λf(s). Ne segue che
f(s) = ce
−λs
con c costante che deve essere uguale a λ perch´e f `e una densit`a. La legge
delle variabili aleatorie X
k
`e quindi la legge esponenziale di parametro λ e il processo di
rinnovi in questione `e un processo di Poisson.
Il processo di Poisson si caratterizza tra i processi di rinnovo anche per l’indipendenza
degli incrementi.
Teorema 4.13 Se processo di rinnovi (N
t
)
t≥0
ha incrementi indipendenti e, inoltre, la legge
dell’incremento N
t+s
−N
s
dipende solo da t, allora (N
t
)
t≥0
`e un processo di Poisson.
Dimostrazione. Baster`a evidentemente dimostrare che il tempo del primo salto T
1
ha legge
esponenziale ovvero, essendo
P¦N
t
= 0¦ = P¦T
1
> t¦ ,
che P¦N
t
= 0¦ = e
−ct
per qualche c > 0.
A questo scopo poniamo ϕ(t) = P¦N
t
= 0¦ e osserviamo che la funzione ϕ `e continua
da destra perch´e ogni traiettoria t → N
t
(ω) `e continua da destra certamente.
La propriet`a degli incrementi fornisce la relazione
ϕ(t) = P¦N
t
= 0¦
= P
¸
N
t
−N
(n−1)t/n
= 0, . . . , N
t
/n = 0
¸
= P
¸
N
t
−N
(n−1)t/n
= 0
¸
P
¸
N
t/n
= 0
¸
= ϕ(t/n)
n
.
Per t = 1 troviamo ϕ(1) = ϕ(1/m)
m
ovvero ϕ(1/m) = ϕ(1)
1/m
e quindi,
ϕ(n/m) = ϕ(1/m)
n
= ϕ(1)
n/m
.
Posto c = −log ϕ(1) > 0, abbiamo allora ϕ(t) = e
−ct
per tutti i t razionali e quindi per tutti
i t reali grazie alla continuit`a da destra di ϕ.
4.3 Lotto economico d’acquisto
Mostreremo ora un’applicazione dei processi puntuali alla determinazione del lotto eco-
nomico d’acquisto. Il problema consiste nell’ottimizzare la gestione delle scorte di un’azienda
acquista un certo prodotto in lotti di una certa quantit`a e lo rivende per unit`a.
Per descrivere il modello supponiamo che:
1. i tempi X
n
trascorsi tra la (n − 1)-esima ed n-esima vendita sono variabili aleatorie
con la stessa speranza m,
4.3. LOTTO ECONOMICO D’ACQUISTO 41
2. il costo di ordinazione K `e indipendente dalla quantit`a di merce ordinata,
3. il costo di stoccaggio per unit`a di merce per unit`a di tempo `e c.
Supporremo inoltre che l’azienda si rifornisca con S unit`a di prodotto non appena il maga-
zzino sia vuoto.
Vogliamo minimizzare i costi dell’ordine e di stoccaggio per unit`a di merce.
Nelle ipotesi fatte le variabili aleatorie
T
n
= X
1
+ +X
n
e N
t
=
¸
n≥1
1
¦ T
n
≤t ¦
sono rispettivamente il tempo necessario per vendere n unit`a e il numero di pezzi venduti
fino al tempo t.
Il costo di stoccaggio di una quantit`a S `e quindi
c


0
(S −N
t
)
+
dt.
Il costo medio di stoccaggio `e perci`o
cE
¸

0
(S −N
t
)
+
dt

= c


0
S
¸
k=1
P¦ S −N
t
≥ k ¦ dt
= c


0
S
¸
k=1
P¦ N
t
≤ S −k ¦ dt
= c


0
S
¸
k=1
P¦ N
t
< S + 1 −k ¦ dt
= c


0
S
¸
h=1
P¦ N
t
< h¦ dt
Osservando che ¦ N
t
< h¦ = ¦ T
h
> t ¦ troviamo la seguente formula per il costo medio di
stoccaggio
cE
¸

0
(S −N
t
)
+
dt

= c
S
¸
h=1


0
P¦ T
h
> t ¦ dt
= c
S
¸
h=1
E[T
h
]
= c
S
¸
h=1
mh
= cmS(S + 1)/2.
Il costo totale di un lotto, ovvero la somma del costo di ordinazione e di stoccaggio, `e quindi
K +
cmS(S + 1)
2
e il costo totale medio per unit`a di merce `e
K
S
+
cm(S + 1)
2
.
42 4. PROCESSI PUNTUALI
Minimizzando (rispetto a S) questa funzione troviamo che la quantit`a di merce da acquistare
per ottimizzare i costi di ordinazione e stoccaggio `e
S =

2K
cm
.
I processi puntuali si applicano a molti altri problemi, per esempio nella teoria dell’affidabilit`a,
nella teoria delle assicurazioni ...
4.4 Esercizi
Esercizio 4.1 Sia (N
t
)
t≥0
un processo di Poisson con parametro λ > 0. Verificare che il
processo (X
t
)
t≥0
definito da X
t
= N
αt
, con α costante strettamente positiva, `e un processo
di Poisson con parametro αλ. Il processo (Y
t
)
t≥0
definito da Y
t
= cN
αt
, dove c `e un’altra
costante strettamente positiva, `e un processo di Poisson? Eventualmente, qual `e il suo
parametro?
Esercizio 4.2 Sia (N
t
)
t≥0
un processo di Poisson con parametro λ > 0 e sia
p
h,k
(t) = P¦ N
t+s
= k [ N
s
= h¦
(verificare che p
h,k
(t) non dipende da s). Mostrare che per ogni t ≥ 0 e ogni h ≤ k si ha
p
t
hk
(t) = −λp
h,k
(t) +λp
h+1,k
(t).
Esercizio 4.3 Sia (N
t
)
t≥0
un processo di rinnovi. Supponiamo che le variabili aleatorie X
k
abbiano legge uniforme su [0, θ]. Calcolare la speranza di N
t
per t ≤ θ.
R. E[N
t
] = e
t/θ
−1
Esercizio 4.4 Sia (N
t
)
t≥0
un processo di rinnovi. Verificare che il tasso istantaneo della
probabilit`a di due o pi` u guasti nell’intervallo [s, s +t] `e nullo ovvero
lim
t→0
1
t
P¦ N
t+s
> k + 1 [ N
s
= k ¦ = 0
Esercizio 4.5 Siano X
1
, . . . , X
n
variabili aleatorie reali indipendenti ed equidistribuite. Si
chiamano statistiche ordinate le variabili aleatorie X
(1)
, . . . , X
(n)
le variabili aleatorie cos`ı
definite ricorsivamente da X
(1)
(ω) = min¦ X
j
(ω) [ 1 ≤ j ≤ n¦ e
X
(k+1)
(ω) = min
¸
X
j
(ω) [ 1 ≤ k ≤ n, X
j
(ω) > X
(k)
(ω)
¸
.
Detta F la funzione di ripartizione delle X
k
ed F
k
la funzione di ripartizione di X
(k)
verificare
che
F
k
(t) =
n
¸
j=k

n
j

F(t)
j
(1 −F(t))
n−j
.
Trovare inoltre la densit`a congiunta del vettore aleatorio (X
(1)
, . . . , X
(n)
) nel caso in cui le
X
1
, . . . , X
n
siano uniformemente distribuite su [0, 1].
Esercizio 4.6 Verificare che, dato un processo di Poisson (N
t
)
t≥0
con tempi di salto (T
n
)
n≥1
si ha
P

¸
1≤j≤n
¦ T
j
≤ t
j
¦

¦N
t
= n¦

=
n!
t
n

t
1
0
dx
1
. . .

t
n−1
x
n−2
dx
n−1

t
n
x
n−1
dx
n
ovvero che la legge congiunta di (T
1
, . . . , T
n
) per la probabilit`a condizionata P¦ [ ¦N
t
= n¦¦
coincide con la legge congiunta delle statistiche ordinate (X
(1)
, . . . , X
(n)
) di un n-campione
(X
1
, . . . , X
n
) della legge uniforme su [0, t].
4.4. ESERCIZI 43
Esercizio 4.7 Sia (N
t
)
t≥0
un processo di Poisson con parametro λ > 0 e sia X = (X
t
)
t≥0
il processo definito da
X
t
= (−1)
N
t
.
Verificare che X `e un processo a valori +1, −1 e calcolare le probabilit`a di transizione
P¦ X
t+s
= j [ X
s
= i ¦
per i, j ∈ ¦−1, 1¦. Calcolare il tempo medio trascorso da X nel valore 1 ovvero
E
¸

0
1
¦X
s
=1¦
ds

.
Esercizio 4.8 La trasformata di Laplace di una funzione F : [0, +∞[→ R limitata `e la
funzione
´
F : [0, +∞[→ R definita da
´
F(λ) =


0
e
−λt
F(t)dt.
Verificare che, considerando la trasformata di Laplace, l’equazione dei rinnovi si esprime nel
modo seguente
´
M(λ) =
´
F(λ) +
´
M(λ)
´
F(λ)
e quindi si trova la soluzione
´
M(λ) =
´
F(λ)
1 −
´
F(λ)
.
44 4. PROCESSI PUNTUALI
5
Catene di Markov a tempo
continuo
Sia (Ω, T, P) uno spazio probabilizzato ed S un insieme finito o numerabile che sar`a consid-
erato come spazio misurabile munito della σ algebra {(S) di tutti i sottoinsiemi di S.
Definizione 5.1 Una famiglia (X
t
)
t≥0
di variabili aleatorie su (Ω, T, P) a valori in S si
chiama catena di Markov se
P
¸
X
t
n+1
= j [ X
t
n
= i
n
, . . . , X
t
1
= i
1
¸
= P
¸
X
t
n+1
= j [ X
t
n
= i
n
¸
(5.1)
per ogni n, i
1
, i
2
, . . . , i
n
, j ∈ S, t
1
< . . . < t
n+1
.
L’identit`a (5.1) `e detta propriet`a di Markov.
Analogamente ai processi di rinnovo considereremo catene di Markov con traiettorie
continue a destra (e con limiti da sinistra).
Definizione 5.2 La probabilit`a di transizione p
ij
(s, t) `e definita da
p
ij
(s, t +s) = P¦X
t+s
= j [ X
s
= i¦ .
La catena di Markov si chiama omogenea se p
ij
(s, t+s) = p
ij
(0, t) per ogni i, j ∈ S, t, s ≥ 0.
D’ora in avanti tratteremo catene di Markov omogenee e denoteremo con p
ij
(t) le prob-
abilit`a di transizione p
ij
(0, t). La famiglia (P
t
)
t≥0
delle matrici (eventualmente infinite)
(P
t
)
ij
= p
ij
(t)
si chiama semigruppo Markoviano. Denotiamo con 1l la matrice (δ
ij
)
i,j∈S
con δ
ij
= 1 se
i = j, δ
ij
= 0 se i = j.
Teorema 5.3 Il semigruppo Markoviano (P
t
)
t≥0
gode delle seguenti propriet`a:
(a) P
0
= 1l,
(b) (p
ij
(t))
t≥0
`e una matrice stocastica per ogni t ≥ 0,
(c) vale l’equazione di Chapman-Kolmogorov P
t+s
= P
t
P
s
per ogni t, s ≥ 0.
45
46 5. CATENE DI MARKOV A TEMPO CONTINUO
Dimostrazione. La condizione (a) vale evidentemente per definizione.
Per verificare la condizione (b) basta osservare che p
ij
(t) ≥ 0 perch´e si tratta di proba-
bilit`a condizionate e
¸
k∈S
p
ik
(t) =
¸
k∈S
P¦ X
t
= k [ X
0
= i ¦ = P¦ Ω [ X
0
= i ¦ = 1.
Infine, grazie alla formula della probabilit`a totale ed alla propriet`a di Markov (5.1), per
ogni t, s ≥ 0, si ha
p
ij
(t +s) = P¦ X
t+s
= j [ X
0
= i ¦
=
¸
k∈S
P¦ X
t+s
= j, X
s
= k [ X
0
= i ¦
=
¸
k∈S
P¦ X
t+s
= j, X
s
= k, X
0
= i ¦
P¦ X
0
= i ¦
=
¸
k∈S
P¦ X
t+s
= j [ X
s
= k, X
0
= i ¦ P¦ X
s
= k, X
0
= i ¦
P¦ X
0
= i ¦
=
¸
k∈S
P¦ X
t+s
= j [ X
s
= k ¦
P¦ X
s
= k, X
0
= i ¦
P¦ X
0
= i ¦
=
¸
k∈S
P¦ X
t+s
= j [ X
s
= k ¦ P¦ X
s
= k [ X
0
= i ¦
=
¸
k∈S
p
ik
(s)p
kj
(t).
La propriet`a (c) `e cos`ı dimostrata.
La propriet`a (c) `e detta propriet`a di semigruppo.
La maggior parte delle informazioni su una catena di Markov a tempo continuo si pu`o
estrarre dal semigruppo Markoviano associato. Questo semigruppo determina, in particolare,
le distribuzioni finito-dimensionali, infatti, per ogni n ≥ 1 e ogni t
1
< t
2
< . . . < t
n
,
i
0
, i
1
, . . . , i
n
∈ S si ha
P¦ X
t
n
= i
n
, . . . , X
t
1
= i
1
, X
0
= i ¦ = p
i
0
i
1
(t
1
)p
i
1
i
2
(t
2
−t
1
) . . . p
i
n−1
i
n
(t
n
−t
n−1
).
D’ora in avanti considereremo catene di Markov continue in probabilit`a.
Proposizione 5.4 Se la catena di Markov (X
t
)
t≥0
`e continua in probabilit`a allora le fun-
zioni t → p
ij
(t) sono continue.
Dimostrazione. Denotiamo P
i
¦ ¦ la probabilit`a condizionata P¦ [ X
0
= i ¦. Per ogni
t, s ≥ 0 (tale che t +s ≥ 0) si ha
[p
ij
(t +s) −p
ij
(t)[ = [P
i
¦ X
t+s
= j ¦ −P
i
¦ X
t
= j ¦[
=

P
i
¦ X
t+s
= j, X
t
= j ¦ +P
i
¦ X
t+s
= j, X
t
= j ¦
−P
i
¦ X
t+s
= j, X
t
= j ¦ −P
i
¦ X
t+s
= j, X
t
= j ¦

= [P
i
¦ X
t+s
= j, X
t
= j ¦ −P
i
¦ X
t+s
= j, X
t
= j ¦[
≤ 2P
i
¦ X
t+s
= X
t
¦
La conclusione `e immediata poich´e, se la catena di Markov `e continua in probabilit`a il
membro destro tende a zero per s → 0.
47
Le probabilit`a di transizione sono dunque continue sotto ipotesi abbastanza deboli. La
propriet`a di continuit`a da destra delle traiettorie, ovvero delle funzioni,
[0, +∞[ ÷ t → X
t
(ω) ∈ S
inoltre non `e restrittiva in tutte le applicazioni e quindi la supporremo sempre verificata nel
seguito.
Si pu`o dimostrare il seguente
Teorema 5.5 Se le probabilit`a di transizione sono continue allora esistono i limiti
q
ij
= lim
t→0
+
p
ij
(t)
t
, per i = j, q
ii
= lim
t→0
+
p
ii
(t) −1
t
, (5.2)
e risulta 0 ≤ q
ij
< ∞ per i = j e q
ii
≤ 0 (eventualmente q
ii
= −∞).
Se l’insieme degli stati S `e finito allora q
ii
> −∞ e valgono le equazioni
d
dt
p
ij
(t) =
¸
k∈S
p
ik
(t)q
kj
, p
ij
(0) = δ
ij
(5.3)
d
dt
p
ij
(t) =
¸
k∈S
q
ik
p
kj
(t), p
ij
(0) = δ
ij
. (5.4)
I numeri q
ij
si chiamano tassi di transizione.
Le equazioni differenziali (5.3) (risp. (5.4)) si chiamano equazioni di Kolmogorov all’avanti
(risp. equazioni di Kolmogorov all’indietro). Integrando uno di questi sistemi di equazioni
differenziali si possono determinare le probabilit`a di transizione almeno nel caso in cui S `e
finito. In questo caso si vede subito che la condizione
¸
j
p
ij
(t) = 1 per ogni i equivale alla
¸
j∈S
q
ij
= 0.
Esempio 5.1 Catena di Markov a due stati. La matrice dei tassi di una catena a due stati
a tempo continuo ha la forma
Q =

−a a
b −b

con a, b > 0 (salvo casi banali). Le probabilit`a di transizione sono quindi date da

p
i1
(t)
p
i2
(t)

= e
tQ

δ
i1
δ
i2

dove e
tQ
`e l’esponenziale della matrice Q ovvero, con facili calcoli
e
tQ
=
1
a +b

b +ae
−t(b+a)
a(1 −e
−t(b+a)
)
b(1 −e
−t(b+a)
) a +be
−t(b+a)

Abbiamo cos`ı trovato la matrice di transizione P
=
e
tQ
.
Nel caso in cui S `e infinito occorre procedere con maggiore cautela in quanto, anche se i
q
ii
sono finiti, la soluzione dei due sistemi non `e necessariamente unica.
Per capire il significato dei tassi di transizione introduciamo il tempo della prima uscita
da uno stato i ∈ S
T
i
(ω) = inf ¦ t ≥ 0 [ X
t
(ω) = i ¦ (5.5)
(con la convenzione abituale inf ∅ = +∞). Le T
i
sono evidentemente variabili aleatorie a
valori [0, +∞] (cio`e sono misurabili rispetto alle opportune σ-algebre).
48 5. CATENE DI MARKOV A TEMPO CONTINUO
Teorema 5.6 Se −∞ < q
ii
< 0 allora la variabile aleatoria T
i
ha legge esponenziale con
parametro −q
ii
.
Dimostrazione. (Cenno) Per ogni s, t ≥ 0 indichiamo con E
i
[s, t +s] l’evento
E
i
[s, t +s] =
¸
s≤r≤t+s
¦ X
r
= i ¦ =
¸
r∈([s,t+s]∩Q)∪¦s,t+s¦
¦ X
r
= i ¦
(la seconda intersezione `e su un insieme di indici numerabile). Per la propriet`a di Markov e
l’omogeneit`a della catena si ha
P
i
¦ T
i
> t +s [ T
i
> s ¦ = P
i
¦ E
i
[s, t +s] [ E
i
[0, s] ¦
= P
i
¦ E
i
[s, t +s] [ X
s
= i ¦
= P
i
¦ E
i
[0, t] ¦
= P
i
¦ T
i
> t ¦ .
La variabile aleatoria T
i
ha dunque la propriet`a detta assenza di memoria. Inoltre, per ogni
n ≥ 1, vale la relazione
¦ T
i
> t ¦ ⊆
¸
X
t/2
n = i, . . . , X
(2
n
−1)t/2
n = i, X
t
= i
¸
e, pi` u precisamente,
¦ T
i
> t ¦ =
¸
n≥1
¸
X
t/2
n = i, . . . , X
(2
n
−1)t/2
n = i, X
t
= i
¸
Poich´e la successione al membro destro `e non crescente abbiamo quindi
P
i
¦ T
i
> t ¦ = lim
n→∞
P
¸
X
t/2
n = i, . . . , X
(2
n
−1)t/2
n = i, X
t
= i
¸
= lim
n→∞
(p
ii
(t/2
n
))
2
n
= lim
n→∞

1 +
tq
ii
2
n
+o(t/2
n
)

2
n
= e
q
ii
t
.
La variabile aleatoria T
i
ha perci`o legge esponenziale con parametro −q
ii
.
Si pu`o verificare che, uscendo da uno stato i, la catena di Markov salta in un altro stato
j con probabilit`a q
ij
/(−q
ii
).
Proposizione 5.7 Per ogni i = j si ha
P¦ X
T
i
= j ¦ =
q
ij
−q
ii
.
Dimostrazione. Consideriamo la successione non crescente (S
n
)
n≥1
di tempi d’arresto dis-
creti
S
n
=

¸
k=0
(k + 1)2
−n
1
¦k2
−n
<T
i
≤(k+1)2
−n
¦
che converge quasi certamente verso T
i
. Grazie alla continuit`a da destra delle traiettorie la
successione di variabili aleatorie (X
S
n
)
n≥1
converge quasi certamente verso X
T
i
e quindi
P¦ X
T
i
= j ¦ = lim
n→∞
P¦ X
S
n
= j ¦ .
49
Abbiamo poi, per ogni n ≥ 1, per la propriet`a di Markov
P¦ X
S
n
= j ¦ =

¸
k=0
P
¸
X
(k+1)2
−n = j, T
i
> k2
−n
¸
=

¸
k=0
P
¸
X
(k+1)2
−n = j [ T
i
> k2
−n
¸
P
¸
T
i
> k2
−n
¸
=

¸
k=0
P
¸
X
(k+1)2
−n = j [ X
k2
−n = i
¸
P
¸
T
i
> k2
−n
¸
=

¸
k=0
p
ij
(2
−n
)P
¸
T
i
> k2
−n
¸
.
Dato che i = j, risulta p
ij
(2
−n
) = q
ij
2
−n
+o
ij
(2
−n
) e quindi
P¦ X
S
n
= j ¦ = (1 +o
ij
(1))2
−n
q
ij

¸
k=0
P
¸
T
i
> k2
−n
¸
= (1 +o
ij
(1))2
−n
q
ij

¸
k=0
P¦ 2
n
T
i
> k ¦
= (1 +o
ij
(1))2
−n
q
ij
E[2
n
T
j
] = (1 +o
ij
(1))
q
ij
−q
ii
.
La conclusione segue facendo tendere n all’infinito.
Teorema 5.8 Supponiamo che
sup
i∈S
(−q
ii
) < +∞ (5.6)
Allora le equazioni di Kolmogorov all’avanti e all’indietro ammettono le probabilit`a di tran-
sizione (p
ij
(t))
t≥0
come unica soluzione.
Dimostrazione. Consideriamo dapprima, per semplicit`a, il caso in cui l’insieme degli stati S
`e finito (in questo caso l’ipotesi del teorema `e banalmente verificata ...). Detta Q la matrice
dei tassi di transizione (q
ij
)
i,j∈S
, per ogni t ≥ 0 indichiamo con e
tQ
l’esponenziale della
matrice tQ. Con facili calcoli si vede subito che
d
dt
e
tQ
= Qe
tQ
= e
tQ
Q
ovvero, gli elementi di matrice (e
tQ
)
ij
soddisfano (5.4) e (5.3). La soluzione dei sistemi
lineari (5.4) e (5.3) `e evidentemente unica.
Nel caso in cui l’insieme degli stati S `e infinito numerabile basta definire l’operatore
lineare Q sullo spazio di Banach

(S) delle funzioni limitate su S con la norma
[f[

= sup
j∈S
[f(j)[.
Grazie all’ipotesi sup
i∈S
(−q
ii
) < +∞, l’operatore Q `e limitato e la sua norma `e
|Q|

= sup
f∈

(S), ]f]

≤1
[Qf[
1
.
50 5. CATENE DI MARKOV A TEMPO CONTINUO
Per ogni f ∈

(S) con [f[

≤ 1 e j ∈ S abbiamo
[(Qf)(j)[ =

¸
k
q
jk
f(k)

≤ −q
jj
[f(j)[ +
¸
k,=j
q
jk
[f(k)[
≤ [f[

¸
−q
jj
+
¸
k,=j
q
jk
¸

= −2q
jj
[f[

.
Prendendo infine il sup su j troviamo
|Q|

≤ 2 sup
j∈S
(−q
jj
) < +∞
per l’ipotesi fatta. Si pu`o quindi definire l’esponenziale dell’operatore Q come
e
tQ
=
¸
n≥0
t
n
Q
n
n!
poich´e la serie converge nella norma uniforme degli operatori lineari su

(S). La di-
mostrazione di completa quindi come nel caso in cui S `e finito.
Definizione 5.9 La matrice Q = (q
ij
)
i,j∈S
si chiama generatore (o generatore infinitesi-
male) del semigruppo Markoviano (P(t))
t≥0
.
Osserviamo che, grazie alla differenziabilit`a delle probabilit`a di transizione p
ij
(t), e
all’omogeneit`a della catena di Markov, la probabilit`a di passare da uno stato i a uno stato
j in un intervallo [t, t +h] “piccolo” `e
P¦ X
t+h
= j [ X
t
= i ¦ =

p
ij
(h) = q
ij
h +o(h) se i = j,
p
ii
(h) = 1 +q
ii
h +o(h) se i = j,
(o(h) `e un infinitesimo di ordine superiore ad h cio`e una funzione tale che lim
h→0
o(h)/h = 0).
Spesso la catena di Markov `e individuata a partire dai tassi q
ij
.
Esempio 5.2 Processi di nascita. Si tratta delle catene di Markov con insieme degli stati
N che rappresenta il numero di individui in una popolazione. Questo numero pu`o solo
aumentare a tempi aleatori per l’arrivo di nuovi individui. I tassi di transizione sono dati
da una successione (λ
n
)
n≥0
di numeri reali positivi; grazie al Teorema 5.6, λ
n
`e l’inverso del
tempo medio di attesa della transizione da n a n+1. Il generatore del processo `e la matrice
Q = (q
ij
)
i,j∈N
con
q
nn+1
= λ
n
, q
nn
= −λ
n
, q
nm
= 0 per m = n, m = n + 1.
Le equazioni di Kolmogorov all’avanti e all’indietro per le p
nm
(t) con m ≥ n (evidentemente
p
nm
(t) = 0 se n > m) si scrivono rispettivamente
p
t
nm
(t) = −λ
m
p
nm
(t) +λ
m−1
p
nm−1
(t), p
nm
(0) = δ
nm
,
p
t
nm
(t) = −λ
n
p
nm
(t) +λ
n
p
n+1 m
(t), p
nm
(0) = δ
nm
.
Nel caso particolare in cui i tassi di nascita sono costanti λ
n
= λ > 0 ritroviamo un processo
di Poisson.
51
Un altro caso notevole `e quello in cui tutti gli individui si riproducono con la stessa
intesit`a e quindi λ
n
= λn. La catena di Markov con cos`ı ottenuta si chiama processo di
Yule. Se la popolazione al tempo 0 `e costituita da i (i ≥ 1) individui, risolvendo per
induzione le equazioni di Kolmogorov all’avanti con la condizione iniziale p
ii
(0) = 1

p
t
ii
(t) = −λi p
ii
(t),
p
t
ik
(t) = −λk p
ik
(t) +λ(k −1)p
i k−1
(t) se k > i
si trova la probabilit`a che la popolazione al tempo t sia costituita da k individui `e
p
ik
(t) =

k −1
k −i

e
−λit

1 −e
−λt

k−i
.
Il numero di individui al tempo t `e quindi una variabile aleatoria con legge di Pascal con
parametri i ed e
−λt
.
Analogamente, con λ
n
= λ(n + 1), si trova
p
ik
(t) =

k
i

e
−λ(i+1)t

1 −e
−λt

k−i
.
Esempio 5.3 Processi di morte. Come nell’Esempio (5.2) l’insieme degli stati N rappre-
senta il numero di individui di una popolazione che per`o, questa volta, pu`o solo diminuire
di una unit`a di volta in volta finch´e arriva a 0. Il generatore infinitesimale del processo `e
una matrice Q = (q
ij
)
i,j∈N
con
q
nn−1
= µ
n
, q
nn
= −µ
n
, q
nm
= 0 per m = n, m = n −1.
Dato che il processo, una volta arrivato in 0, vi si ferma per sempre, si ha evidentemente
p
00
(t) = 1 ovvero µ
0
= 0. Inoltre `e chiaro che, se j > i, allora p
ij
(t) = 0 per ogni t ≥ 0. Le
equazioni di Kolmogorov all’indietro per le altre p
ij
(t) con j ≤ i e t > 0 si scrivono

p
t
ii
(t) = −µ
i
p
ii
(t),
p
t
ij
(t) = −µ
i
p
ij
(t) +µ
i
p
i−1 j
(t) se j < i
Risolvendo per induzione, a partire da p
ii
(t) = e
−µ
i
t
, si trova la probabilit`a p
ij
(t) che la
popolazione al tempo t sia costituita da j individui (con j < i).
Nel caso particolare in cui µ
i
= µi (tassi lineari) si trova
p
ij
(t) =

i
j

e
−µit

e
µt
−1

i−j
=

i
j

e
−µjt

1 −e
−µt

i−j
.
Quindi il numero X
t
di individui al tempo t ha legge binomiale B(i, e
−µt
).
Esempio 5.4 Processi di nascita e morte. L’insieme degli stati `e sempre N ma il numero
di individui della popolazione pu`o aumentare oppure diminuire di una unit`a. Dette (λ
n
)
n≥0
e (µ
n
)
n≥1
le successioni dei tassi di nascita e morte, il generatore del processo `e la matrice
A = (q
ij
)
i,j∈N
con
q
nn+1
= λ
n
, q
nn
= −(λ
n

n
), q
nn−1
= µ
n
, q
nm
= 0 per [m−n[ > 1.
Lo stato di questo processo potrebbe anche indicare la lunghezza di una coda casuale in
cui i tempi di servizio dei clienti e i tempi di attesa tra gli arrivi di due clienti hanno legge
esponenziale (con opportuni parametri).
52 5. CATENE DI MARKOV A TEMPO CONTINUO
Definizione 5.10 Una catena di Markov (X
t
)
t≥0
con insieme degli stati S e probabilit`a di
transizione p
ij
() si chiama irriducibile se, per ogni i, j ∈ S, esiste un tempo t > 0 tali che
p
ij
(t) > 0.
Come nel caso in cui i tempi siano discreti, quindi, una catena di Markov `e irriducibile
se, partendo da ogni stato i abbiamo probabilit`a positiva di arrivare in uno stato j in un
tempo t > 0.
Poich´e spesso la catena di Markov a tempo continuo `e definita per mezzo della matrice
Q dei tassi di transizione, vediamo ora come si esprime l’irriducibilit`a in termini dei q
ij
.
Proposizione 5.11 Sia (P
t
)
t≥0
il semigruppo di transizione di una catena di Markov e sia
Q = (q
ij
)
i,j∈S
il suo generatore. Supponiamo che, per ogni i, j ∈ S, esista un intero n ≥ 1
e stati k
1
, . . . , k
n
tali che i = k
1
, k
1
= k
2
, . . . , k
n
= j e
q
ik
1
q
k
1
k
2
. . . q
k
n−1
k
n
q
k
n
j
> 0.
Allora la catena di Markov `e irriducibile.
Dimostrazione. Se vale la condizione 2. allora per ogni i, j ∈ S, esiste un intero n ≥ 1,
tempi t
1
< . . . < t
n
< t e stati k
1
, . . . , k
n
tali che
p
ik
1
(t
1
)p
k
1
k
2
(t
2
−t
1
) . . . p
k
n−1
k
n
(t
n
−t
n−1
)p
k
n
j
(t −t
n
) > 0.
Si ha quindi
p
ij
(t) ≥ p
ik
1
(t
1
)p
k
1
k
2
(t
2
−t
1
) . . . p
k
n−1
k
n
(t
n
−t
n−1
)p
k
n
j
(t −t
n
) > 0
e la catena di Markov `e irriducibile.
I processi di nascita e i processi di morte non sono irriducibili mentre i processi di nascita
e morte sono irriducibili se “molti” λ
n
e µ
n
sono strettamente positivi.
Definizione 5.12 Una legge di probabilit`a π = (π
i
)
i∈S
su S `e detta invariante per una
catena di Markov (X
t
)
t≥0
con probabilit`a di transizione p
ij
()) se
π
i
=
¸
k∈S
π
k
p
ki
(t) (5.7)
per ogni i ∈ S e t ≥ 0.
Le leggi invarianti si determinano per mezzo del generatore A = (q
ij
)
i,j∈S
del processo.
Proposizione 5.13 Supponiamo che q
ii
> −∞ per ogni i ∈ S e che le (p
ij
(t))
i,j∈S
siano
l’unica soluzione delle equazioni di Kolmogorov all’avanti e all’indietro. Una legge di prob-
abilit`a π = (π
i
)
i∈S
su S `e invariante se e solo se
¸
k∈S
π
k
q
kj
= 0, per ogni j ∈ S.
Dimostrazione. Verifichiamo che la condizione precedente `e necessaria. Derivando in t = 0
la relazione
π
i
=
¸
k∈S
π
k
p
kj
(t)
si trova subito
0 =
d
dt
¸
k∈S
π
k
p
kj
(t)

t=0
=
¸
k∈S
π
k
p
t
kj
(0) =
¸
k∈S
π
k
q
kj
.
53
Lo scambio di derivata e sommatoria, che `e ovviamente lecito nel caso in cui S sia finito, si
giustifica con il teorema della convergenza dominata. Per ogni t > 0 si ha infatti
¸
k,=i
p
ki
(t)
t
=
1 −p
ii
(t)
t
e quindi, dato che il membro destro converge a −q
ii
per t tendente a 0, ne segue che esistono
t
0
> 0 e M
0
> 0 tali che
¸
k,=i
p
ki
(t)
t
< M
0
per ogni t ∈ [0, t
0
]. In particolare 0 ≤ t
−1
p
ki
(t) < M
0
per ogni t ∈ [0, t
0
]. Poich´e
¸
k,=i
π
k
≤ 1
lo scambio di derivata e sommatoria `e cos`ı giustificato.
Viceversa se vale la condizione (5.7) allora derivando (lo scambio di derivata e sommatoria
si gistifica come prima in un intervallo [0, t
0
])
d
dt
¸
k∈S
π
k
p
kj
(t) =
¸
k∈S
π
k
p
t
kj
(t)
=
¸
k,i∈S
π
k
q
ki
p
t
ij
(t)
=
¸
i∈S

¸
k∈S
π
k
q
ki

p
t
ij
(t) = 0
Ne segue che la funzione
¸
k∈S
π
k
p
kj
(t) `e costante e uguale al suo valore in 0, cio`e π
j
e
quindi (π
i
)
i∈S
`e una legge invariante.
Esempio 5.5 Processi di nascita e morte: legge invariante Un processo di nascita e morte
con tassi di transizione (λ
n
)
n≥0
e (µ
n
)
n≥1
ha legge invariante se e solo se si pu`o trovare una
soluzione π = (π
i
)
i∈S
delle equazioni

π
0
= −π
0
λ
0

1
µ
1
,
π
n
= π
n−1
λ
n−1
−π
n

n

n
) +π
n+1
µ
n+1
, n ≥ 1,
che sia una densit`a di probabilit`a su N ovvero tale che
π
n
≥ 0 per ogni n ∈ N e
¸
n≥0
π
n
= 1.
Si verifica facilmente per induzione che, se le µ
n
sono tutte strettamente positive, allora
z
0
= 1, z
n
=
λ
0
λ
1
λ
n−1
µ
1
µ
2
µ
n
n ≥ 1
`e l’unica soluzione del sistema precedente.
La successione (z
n
)
n≥1
`e evidentemente non negativa. Se risulta
Z := 1 +
¸
n≥1
λ
0
λ
1
λ
n−1
µ
1
µ
2
µ
n
< ∞
allora, posto π
n
= Z
−1
z
n
, la successione (π
n
)
n≥0
`e l’unica legge invariante del processo di
nascita e morte.
Se la serie non converge allora il processo non ha legge invariante.
54 5. CATENE DI MARKOV A TEMPO CONTINUO
Teorema 5.14 Le probabilit`a di transizione p
ij
() di una catena di Markov irriducibile sod-
disfano
1. lim
t→∞
p
ij
(t) = π
j
se la catena di Markov ammette una legge invariante (π
i
)
i∈S
,
2. lim
t→∞
p
ij
(t) = 0 se la catena di Markov non ammette nessuna legge invariante.
In particolare, se la catena di Markov irriducibile ammette una legge invariante, allora questa
`e unica.
Nel caso in cui l’insieme degli stati sia finito si pu`o sempre trovare una legge invariante.
Teorema 5.15 Se l’insieme degli stati S `e finito allora esiste almeno una legge di probabilit`a
su S invariante per la catena di Markov.
Dimostrazione. Indichiamo con ´ l’insieme delle leggi di probabilit`a su S ovvero
´ =


i
)
i∈S
[ ν
i
≥ 0,
¸
i
ν
i
= 1
¸
.
`
E chiaro che ´`e un sottoinsieme chiuso e limitato di R
d
per un certo d, quindi `e compatto.
Indichiamo con νP
t
il vettore (νP
t
)
i
=
¸
j
ν
j
p
ij
(t) (i ∈ S) che individua una legge di
probabilit`a su S poich´e ha componenti non negative con somma 1 essendo
¸
i∈S
(νP
t
)
i
=
¸
i,j∈S
ν
j
p
ji
(t) =
¸
j∈S
ν
j
¸
i,j∈S
p
ji
(t) = 1.
Analogamente si verifica che, per ogni t ≥ 0
1
t

t
0
νP
s
ds
`e un elemento di ´, individua cio`e una legge di probabilit`a su S.
Poich´e l’insieme S `e compatto, possiamo trovare una successione (t
n
)
n≥1
divergente a
+∞ tale che la successione di leggi su S
1
t
n

t
n
0
νP
s
ds
converga verso un elemento π di S per n tendente a +∞.
Verifichiamo infine che π `e una legge invariante. Per ogni t > 0 abbiamo
πP
t
= lim
n→∞

1
t
n

t
n
0
νP
s
ds

P
t
= lim
n→∞
1
t
n

t
n
0
νP
s+t
ds
= lim
n→∞
1
t
n

t
n
+t
t
νP
s
ds.
Scrivendo
1
t
n

t
n
+t
t
νP
s
ds =
1
t
n

t
n
0
νP
s
ds +
1
t
n

t
n
+t
t
n
νP
s
ds −
1
t
n

t
0
νP
s
ds
5.1. ESERCIZI 55
e osservando che, per ogni i ∈ S,

t
n
+t
t
n
(νP
s
)
i
ds ≤
¸
j∈S

t
n
+t
t
n
ν
j
ds ≤ t

t
0
(νP
s
)
i
ds ≤
¸
j∈S

t
0
ν
j
ds ≤ t
dalla divergenza di (t
n
)
n≥1
per n → ∞ si vede subito che
lim
n→∞
1
t
n

t
n
+t
t
n
νP
s
ds = 0 = lim
n→∞
1
t
n

t
0
νP
s
ds.
Troviamo quindi
νP
t
= lim
n→∞
1
t
n

t
n
+t
t
νP
s
ds = lim
n→∞
1
t
n

t
n
0
νP
s
ds = π
ovvero π `e una legge invariante.
La quantit`a
1
t

t
0
(νP
s
)
i
ds
`e la frequenza media di soggiorno nello stato i se la catena di Markov ha legge iniziale ν.
Infatti
(νP
s
)
i
=
¸
j
ν
j
p
ji
(s) =
¸
j
P¦ X
s
= i [ X
0
= j ¦P¦ X
0
= j ¦ = E
ν
[1
¦ X
s
=i ¦
]
e quindi
t
−1

t
0
(νP
s
)
i
ds = E
ν
¸
t
−1

t
0
1
¦ X
s
=i ¦
ds

.
5.1 Esercizi
Esercizio 5.1 Un materiale radioattivo `e costituito da n atomi ciascuno dei quali decade
(cio`e si trasforma in uno non radioattivo) in un tempo aleatorio con legge esponenziale
con parametro µ. Calcolare quanto tempo deve passare affinch´e il numero medio di atomi
radioattivi diventi minore di n/2 (tempo di dimezzamento).
Esercizio 5.2 Sia (X
t
)
t≥0
una catena di Markov con insieme dei tempi [0, +∞[, stati
¦ 1, 2, 3 ¦ e matrice dei tassi di transizione

¸
−a a 0
0 −b b
0 0 0
¸

con a e b parametri strettamente positivi. Sapendo che X
0
= 1 (quasi certamente) calcolare:
1. le probabilit`a di transizione p
ij
(t) per ogni i, j ∈ ¦ 1, 2, 3 ¦ e ogni t ≥ 0,
2. il tempo medio trascorso negli stati 1 e 2 partendo da 1.
56 5. CATENE DI MARKOV A TEMPO CONTINUO
Supponiamo che lo stato X
t
rappresenti lo stato di salute di un assicurato, cio`e, precisamente,
1 =sano, 2 =malato 3 =morto, il quale, quando `e sano paga all’assicurazione un premio di
p Euro per unit`a di tempo, quando `e malato riceve dall’assicurazione un pagamento di q
Euro per unit`a di tempo (e da morto non ha nulla a che vedere con l’assicurazione). Quale
deve essere la relazione tra a, b, p, q in modo che la polizza possa ritenersi equa (ovvero tale
che la speranza di quanto pagher`a `e uguale alla speranza di quanto riceverebbe in caso di
malattia)? Risp. p/a = q/b
Esercizio 5.3 Siano (N
t
)
t≥0
ed (M
t
)
t≥0
due processi di Poisson indipendenti con parametri
rispettivi λ e µ strettamente positivi. Verificare che il processo (X
t
)
t≥0
definito X
t
=
(N
t
−M
t
)
+
`e una catena di Markov con insieme dei tempi [0, +∞[, stati N = ¦ 0, 1, 2, . . . ¦
e matrice dei tassi di transizione

¸
−λ λ 0 . . .
µ −(λ +µ) λ . . .
0 µ −(λ +µ) . . .
¸

.
6
Moto browniano
6.1 Moto Browniano e invarianze per cambi di scala
Sia (Ω, T, P) uno spazio probabilizzato, I = [0, +∞[ l’insieme dei tempi, (T
t
)
t≥0
una fil-
trazione di sotto-σ-algebre di T.
Definizione 6.1 Un processo stocastico B = (B
t
)
t≥0
si chiama moto browniano, con pa-
rametro σ
2
> 0, se `e adattato alla filtrazione data, B
0
= 0 e, per ogni t > s, la variabile
aleatoria B
t
−B
s
`e indipendente da T
s
e ha leggi normale N(0, σ
2
(t −s)).
Osserviamo che, dalla condizione di indipendenza di B
t
− B
s
da T
s
segue subito che le
variabili aleatorie B
t
1
, B
t
2
−B
t
1
, . . . , B
t
n
−B
t
n−1
sono indipendenti e hanno rispettivamente
leggi normali con media 0 e varianze σ
2
t
1
, σ
2
(t
2
−t
1
), . . . , σ
2
t
n
per ogni n e ogni t
1
< t
2
. . . <
t
n
.
Dalla definizione data non `e chiaro se un processo stocastico con le propriet`a richieste
effettivamente esiste ed `e tuttaltro che ovvio poterne trovare una versione a traiettorie rego-
lari o continue. Accontentandoci, per il momento, di sapere che lo risposta a questi problemi
`e affermativa diamo la definizione seguente.
Definizione 6.2 Un moto browniano B con traiettorie continue e σ
2
= 1 si chiama moto
browniano standard.
La filtrazione data (T
t
)
t≥0
`e parte integrante della definizione di moto browniano. Tut-
tavia, nel caso in cui siano date le variabili aleatorie (B
t
)
t≥0
senza la filtrazione, diremo che
B `e un moto browniano se lo `e rispetto alla sua filtrazione naturale (T
B
t
)
t≥0
data da
T
B
t
= σ ¦ B
s
[ s ≤ t ¦
Il moto browniano ha le seguenti propriet`a di invarianza per cambiamento di scala nello
spazio o nel tempo
Proposizione 6.3 Sia (B
t
)
t≥0
un moto browniano con parametro σ
2
su uno spazio prob-
abilizzato (Ω, T, P) munito di una filtrazione (T
t
)
t≥0
. Il processo X = (X
t
)
t≥0
definito
da
1. X
t
= cB
t
(c ∈ R) `e un moto browniano con parametro c
2
σ
2
,
2. X
t
= B
αt
(α > 0) `e un moto browniano con parametro ασ
2
rispetto alla filtrazione
(T
α
t
)
t≥0
con T
α
t
= T
αt
.
57
58 6. MOTO BROWNIANO
Dimostrazione. La verifica di 1. e 2. `e molto semplice e sar`a omessa.
L’approssimazione come limite di scala del processo di Bernoulli `e molto utile nell’inter-
pretazione fisica del moto browniano.
Sia (X
n
)
n≥0
un processo di Bernoulli con parametro 1/2. Per ogni t > 0 poniamo
W
(n)
t
=
¸
[nt]
k=1
X
k
−nt/2

n/2
.
Il Teorema limite centrale assicura che le variabili aleatorie W
(n)
t
convergono in legge verso
una variabile aleatoria W
t
che ha legge normale N(0, t). Inoltre, grazie all’indipendenza
delle X
k
, si pu`o verificare che, per ogni s < t, la coppia di variabili aleatorie
W
(n)
s
=
¸
[ns]
k=1
X
k
−ns/2

n/2
, W
(n)
t
−W
(n)
s
=
¸
[nt]
k=[ns]+1
X
k
−n(t −s)/2

n/2
converge in legge verso una variabile aleatoria (W
s
, W
t
− W
s
) normale bidimensionale con
media 0 e matrice di covarianza diagonale diag(s, t −s) ovvero W
s
e W
t
−W
s
sono indipen-
denti e hanno leggi normali N(0, s), N(0, t − s). L’analoga propriet`a vale per una n-pla di
incrementi.
Un’approssimazione simile si pu`o ottenere considerando un’arbitraria successione (Z
n
)
n≥1
di variabili aleatorie indipendenti, equidistribuite con media 0 e varianza σ
2
(non nulla e
finita) definendo
W
(n)
t
=
¸
[nt]
k=1
Z
k
σ

n
.
In particolare, quando le Z
n
prendono solo i valori +1 e −1 con probabilit`a 1/2, si pu`o
approssimare il moto browniano (W
t
)
t≥0
con una successione di passeggiate casuali simme-
triche riscalate.
Applicando il Teorema 3.10 si dimostra subito la proposizione seguente
Teorema 6.4 Un moto browniano (B
t
)
t≥0
ha una modificazione con tutte le traiettorie
1/2 − ε h¨olderiane per ogni ε > 0.
Dimostrazione. Poich´e le variabili aleatorie B
t
− B
s
hanno legge normale N(0, t − s) per
ogni t > s, la variabile aleatoria (B
t
−B
s
)/

t −s ha legge normale N(0, 1), si ha quindi
E
¸

B
t
−B
s

t −s

2n
¸
= M
2n
< ∞
(si potrebbe calcolare M
2n
= (2n)!/2
n
n! ma il valore esatto qui non serve). Ne segue che
E

(B
t
−B
s
)
2n

= M
2n
[t −s[
n
.
La condizione del Teorema 3.10 `e dunque verificata con α = 2n e β = n − 1 qualunque sia
n. Le traiettorie sono dunque
n −1
2n
=
1
2

1
2n
h¨olderiane per ogni n ≥ 1.
Si potrebbe verificare che quasi tutte le traiettorie del moto browniano non sono 1/2-
h¨olderiane. In particolare, quasi tutte le traiettorie non sono derivabili in nessun intervallo.
6.2. PRINCIPIO DI RIFLESSIONE, LEGGE DEL MASSIMO 59
Un’idea (grossolana) del comportamento del moto browniano per tempi grandi `e data
dall’osservazione seguente. Per ogni c, t > 0 e ogni funzione ϕ :]0, +∞[→]0, +∞[ si ha
P

[B
t
[ > cϕ(t)

t
¸
=
2

2πσ

+∞
cϕ(t)
e
−x
2
/2σ
2
dx.
In particolare, se ϕ diverge a +∞ (anche molto lentamente), la probabilit`a di osservare
valori di B
t
/

t fuori dall’intervallo [−cϕ(t), +cϕ(t)] tende a 0 per t tendente a +∞.
Definizione 6.5 Si chiama tempo di occupazione di un sottoinsieme boreliano A di R la
variabile aleatoria non negativa


0
1
¦B
t
∈A¦
dt.
La sua speranza (eventualmente uguale a +∞) si chiama tempo medio di occupazione.
Il tempo medio di occupazione `e quindi


0
P¦B
t
∈ A¦dt.
Il calcolo `e abbastanza facile nel caso in cui A `e un intervallo ] −a, b[ (a, b > 0). Si ha infatti


0
P¦ B
t
∈] −a, b[ ¦dt =


0
dt
1

2πt

b
−a
e
−x
2
/2t
dx
=

b
−a
dx


0
dt
e
−x
2
/2t

2πt
= +∞.
Il moto browniano trascorre quindi un tempo (medio) infinito in ogni intervallo ] −a, b[.
6.2 Principio di riflessione, legge del massimo
Sia (Ω, T, P) uno spazio probabilizzato con una filtrazione (T
t
)
t≥0
e (B
t
)
t≥0
un moto brow-
niano standard.
Per ogni t ≥ 0 definiamo la variabile aleatoria M
t
chiamata massimo della traiettoria
fino al tempo t
M
t
(ω) = max
0≤s≤t
B
s
(ω).
Il principio di riflessione afferma che, per ogni a > 0, ad ogni traiettoria s → B
s
(ω) tale
che M
t
(ω) ≥ a, ne `e associata un’altra s → B
s

t
), il cui grafico `e il simmetrico (o il riflesso
speculare) del primo rispetto alla funzione costante uguale ad a a partire dal primo istante
in cui la traiettoria ω raggiunge a. Per motivi di simmetria si avr`a
B
t
(ω) ≥ a e B
t

t
) ≤ a, oppure B
t
(ω) ≤ a e B
t

t
) ≥ a
ed entrambe le traiettorie avranno massimo maggiore o uguale ad a. Si pu`o quindi pen-
sare che ogni traiettoria (risultato dell’esperimento aleatorio ω) il cui massimo su [0, t] `e
maggiore di a sia in corrispondenza biunivoca con la coppia di traiettorie ω, ω
t
descritta.
Evidentemente solo una tra ω e ω
t
ha valore superiore ad a al tempo t, si ha allora
P¦ M
t
≥ a ¦ = 2P¦ B
t
≥ a ¦ =
2

2πt


a
e
−x
2
/2t
dx.
60 6. MOTO BROWNIANO
La variabile aleatoria M
t
ha quindi densit`a
x →
2

2πt
e
−x
2
/2t
.
La conoscenza della legge delle variabili aleatorie M
t
permette di calcolare facilmente
anche le leggi dell’istante del primo attraversamento di un livello a > 0 dato cio`e della
variabile aleatoria T
a
definita da
T
a
(ω) = inf ¦ s > 0 [ B
s
(ω) ≥ a ¦ .
Infatti, dall’uguaglianza degli eventi,
¦ T
a
< t ¦ = ¦ M
t
> a ¦
si trova subito
P¦ T
a
< t ¦ =
2

2πt


a
e
−x
2
/2t
dx.
Si verifica quindi la seguente
Proposizione 6.6 La variabile aleatoria T
a
`e quasi certamente finita e ha densit`a
f(t) =
ae
−a
2
/2t

2π t
3/2
, per t > 0,
f(t) = 0 per t ≤ 0. In particolare E[ T
a
] = +∞.
Dimostrazione. Per dimostrare che `e quasi certamente finita basta osservare che
P¦ T
a
< ∞¦ = lim
t→∞
P¦ T
a
< t ¦
= lim
t→∞
2

2πt


a
e
−x
2
/2t
dx
(y = x/

t) = lim
t→∞
2


a/

t
e
−y
2
/2
dy
=
2


0
e
−y
2
/2
dy = 1.
La funzione di ripartizione di T
a
`e evidentemente differenziabile in ]0, +∞[ e, inoltre, continua
in 0 perch´e, come abbiamo appena verificato con il cambio di variabili,
P¦ T
a
< t ¦ =
2


a/

t
e
−y
2
/2
dy.
La densit`a di T
a
per t > 0 `e quindi
f(t) =
d
dt
P¦ T
a
< t ¦ =
2


a
2t
3/2
e
−a
2
/2t
.
In particolare si ha quindi
E[T
a
] =
a


0
e
−a
2
/2t
t
1/2
dt = +∞
poich´e la funzione t → t
−1/2
non `e integrabile all’infinito.
6.3. MOTO BROWNIANO D-DIMENSIONALE 61
6.3 Moto browniano d-dimensionale
Sia (Ω, T, P) uno spazio probabilizzato munito di una filtrazione (T
t
)
t≥0
e (B
(k)
t
)
t≥0
(k =
1, . . . , d) d moti browniani indipendenti.
Definizione 6.7 Il processo X = (X
t
)
t≥0
(a valori R
d
) definito da X
t
= (B
(1)
t
, . . . , B
(d)
t
)
si chiama moto browniano d-dimensionale.
Il comportamento del moto browniano multidimensionale dipende dal parametro d. In-
fatti, ricordando che la variabile aleatoria |B
t
/

t|
2
ha legge χ
2
(d) ovvero Γ(d/2, 1/2), i
tempi medi d’occupazione delle d-sfere S(0, r) di centro 0 e raggio r dati da


0
P¦ |B
t
| ≤ r ¦dt =


0
P

|t
−1/2
B
t
|
2
≤ r
2
t
−1
¸
dt
=
2
−d/2
Γ(d/2)


0
dt

r
2
t
−1
0
x
(d−2)/2
e
−x/2
dx
(y = xt) =
2
−d/2
Γ(d/2)


0
dt
1
t
d/2

r
2
0
y
(d−2)/2
e
−y/2t
dy
=
2
−d/2
Γ(d/2)

r
2
0
y
(d−2)/2
dy


0
e
−y/2t
t
d/2
dt.
L’integrale risulta divergente per d = 1, 2 e convergente per d ≥ 3.
Il moto browniano d-dimensionale con d ≥ 3 tende quindi ad allontanarsi da ogni insieme
limitato a differenza del moto browniano uni e bidimensionale.
Questo comportamento `e analogo a quello della passeggiata casuale simmetrica su Z
d
.
6.4 Processo di Bessel
Sia (Ω, T, P) uno spazio probabilizzato munito di una filtrazione (T
t
)
t≥0
e (B
t
)
t≥0
un moto
browniano d-dimensionale standard.
Definizione 6.8 Si chiama processo di Bessel con parametro d il processo (X
t
)
t≥0
definito
da
X
t
= |B
t
| =

B
(1)
t

2
+ +

B
(d)
t

2

1/2
.
La variabile aleatoria al tempo t `e quindi la distanza dall’origine di un moto browniano
d-dimensionale.
Il comportamento del processo di Bessel `e ovviamente determinato dal quello del moto
browniano d-dimensionale. Ci limiteremo quindi ad osservare che, avendo X
t
la stessa legge
di una variabile aleatoria

tZ
1/2
con Z di legge Γ(d/2, 1/2), si ha
E[X
t
] =

tE[Z
1/2
] =

t


0
2
−d/2
z
(d−1)/2
Γ(d/2)
e
−z/2
dz =
Γ((d + 1)/2)
Γ(d/2)

2t
e inoltre E[X
2
t
] = tE[Z] = td da cui
V [X
t
] = t

d −
2Γ((d + 1)/2)
2
Γ(d/2)
2

.
Ricordando che Γ(1) = 1, Γ(1/2) =

π e che Γ(α + 1) = αΓ(α) si trova subito
62 6. MOTO BROWNIANO
d Γ((d + 1)/2)/Γ(d/2) E[X
t
] V [X
t
]
1 1/

π

2t
π
t

1 −
2
π

2

π
2

πt
2
t

2 −
π
2

3
2

π
2

2t
π
t

3 −
8
π

4
3

π
4
3
4

2πt t

4 −

8

6.5 Integrale di funzione rispetto al moto browniano
Vari processi stocastici interessanti si possono scrivere in funzione del moto browniano. La
funzione in questione `e per`o uno speciale integrale rispetto al moto browniano stesso.
L’integrale di una funzione g : [0, +∞[→ R rispetto al moto browniano si costruisce in
un modo diverso dall’integrale rispetto a una misura.
Nel caso in cui la g sia una funzione costante a tratti, cio`e della forma
g(s) =
n
¸
k=1
g(t
k
)1
[t
k
,t
k+1
[
(s)
con t
1
< . . . < t
n+1
, si pone

t
0
g(s)dB
s
=
n
¸
k=1
g(t
k
)

B
t∧t
k+1
−B
t∧t
k

. (6.1)
Si verifica quindi la seguente
Proposizione 6.9 Sia (B
t
)
t≥0
un moto browniano. Per ogni t ≥ 0 si ha
E
¸

t
0
g(s)dB
s

2
¸
= σ
2

t
0
[g(s)[
2
ds. (6.2)
Dimostrazione. Supponiamo, per semplificare le notazioni, che σ
2
= 1. Le variabili aleatorie
B
t
1
∧t
, (B
t∧t
2
−B
t∧t
1
) , . . . ,

B
t∧t
n+1
−B
t∧t
n

sono indipendenti e hanno leggi normali con media 0 e varianze t
1
∧ t, t
2
∧ t − t
1
∧ t, . . .,
t
n+1
∧ t −t
n
∧ t. Si ha quindi
E
¸

t
0
g(s)dB
s

2
¸
=
n
¸
j,k=1
g(t
j
)g(t
k
)E

B
t∧t
j+1
−B
t∧t
j

B
t∧t
k+1
−B
t∧t
k

=
n
¸
k=1
[g(t
k
)[
2
E

B
t∧t
k+1
−B
t∧t
k

2

=
n
¸
k=1
[g(t
k
)[
2
(t ∧ t
k+1
−t ∧ t
k
)
=

t
0
[g(s)[
2
ds.
La Proposizione 6.9 permette di estendere la definizione dell’integrale rispetto al moto
browniano ad ogni funzione g ∈ L
2
[0, t]. Infatti si pu`o trovare una successione (g
n
)
n≥1
di
funzioni continue a tratti tali che
lim
n→∞
g
n
(s) = g(s), per quasi ogni s ∈ [0, t], lim
n,m→∞

t
0
[g
n
(s) −g
m
(s)[
2
ds = 0. (6.3)
6.6. PROCESSO DI ORNSTEIN-UHLENBECK E PONTE BROWNIANO 63
La formula (6.2) assicura allora che
lim
n,m→∞
E
¸

t
0
g
n
(s)dB
s

t
0
g
m
(s)dB
s

2
¸
= 0
e quindi la successione degli integrali delle g
n
rispetto a B `e convergente in L
2
(Ω, T, P).
Poniamo quindi

t
0
g(s)dB
s
:= L
2
− lim
n→∞

t
0
g
n
(s)dB
s
.
Si verifica facilmente che questa definizione non dipende dalla particolare successione scelta
per approssimare g (ogni altra successione con le propriet`a (6.3) darebbe lo stesso limite).
Poniamo inoltre, per ogni intervallo ]s, t]

t
s
g(r)dB
r
=

t
0
g(r)dB
r

s
0
g(r)dB
r
.
Valgono le seguenti formule
Teorema 6.10 Sia (B
t
)
t≥0
un moto browniano. Per ogni g, h ∈ L
2
[0, t] e ogni 0 ≤ a < b ≤
t, 0 ≤ c < d ≤ t si ha
E
¸

b
a
g(s)dB
s
¸
= 0,
E
¸

b
a
g(s)dB
s

d
c
h(s)dB
s
¸
= σ
2

[a,b]∩[c,d]
g(s)h(s)ds.
Dimostrazione. Le formule si verificano direttamente per g e h continue a tratti e si estendono
a tutte le g, h ∈ L
2
([0, t]) per approssimazione cos`ı come abbiamo fatto con la definizione di
integrale.
Osserviamo che l’integrale rispetto al moto browniano `e stato definito in L
2
(Ω, T, P)
perch´e le traiettorie del moto browniano non sono derivabili e quindi non si pu`o definire

t
0
g(s)B
t
s
ds.
6.6 Processo di Ornstein-Uhlenbeck e ponte browniano
Il processo di Ornstein-Uhlenbeck descrive il moto casuale (browniano) di una particella con
attrito. Detta X
t
la posizione (casuale), lo spostamento in un intervallo temporale “piccolo”
`e
dX
t
= −bX
t
dt +σdB
t
dove b, σ > 0 e (B
t
)
t≥0
`e un moto browniano standard. Pi` u precisamente
Definizione 6.11 Si chiama processo di Ornstein-Uhlenbeck il processo (X
t
)
t≥0
definito da
X
t
= X
0
e
−bt

t
0
e
−b(t−s)
dB
s
.
64 6. MOTO BROWNIANO
Se E[X
2
0
] < ∞ e X
0
`e indipendente dalle B
t
si calcola
E[X
t
] = E[X
0
]e
−bt
,
V [X
t
] = V [X
0
]e
−2bt
+
σ
2
2b

1 −e
−2bt

Cov[X
t
, X
s
] = V [X
0
]e
−b(t+s)
+
σ
2
2b

e
−2b(t∧s)
−1

e
−b(t+s)
.
Se la variabile aleatoria X
0
ha legge N(0, σ
2
/(2b)) allora le variabili X
t
1
, X
t
2
, . . . , X
t
n
(per
ogni 0 < t
1
< t
2
< . . . < t
n
) hanno legge congiunta gaussiana.
Definizione 6.12 Si chiama ponte browniano tra a e b nell’intervallo [0, t] il processo
(X
t
)
t≥0
definito da
X
s
= a

1 −
s
t

+
bs
t
+

s
0
t −s
t −r
dB
r
.
Osserviamo che X
0
= a e X
t
= b.
E[X
s
] = a

1 −
s
t

+
bs
t
Cov[X
r
X
s
] = (t −r)(t −s)

r∧s
0
du
(t −u)
2
= (r ∧ s) −
rs
t
.
Nei due casi precedenti abbiamo affermato che i processi ottenuti per mezzo dell’integrale
stocastico rispetto al moto browniano sono processi gaussiani ovvero tutte le variabili X
t
1
, X
t
2
,
. . . , X
t
n
(0 < t
1
< t
2
< . . . < t
n
) hanno legge congiunta gaussiana. Questo fatto segue dalla
proposizione seguente
Proposizione 6.13 Per ogni g ∈ L
2
[0, t] le variabili aleatorie X
t
1
, X
t
2
, . . . , X
t
n
( n ∈ N,
0 < t
1
< t
2
< . . . < t
n
) hanno legge congiunta gaussiana con medie nulle e matrice di
covarianza (C
m
)
1≤,m≤n
data da
C
m
=

t

∧t
m
0
[g(r)[
2
dr.
Dimostrazione. Osserviamo innanzitutto che, nel caso in cui g sia una funzione costante a
tratti, la conclusione segue subito dalla definizione (6.1). Nel caso in cui g sia una funzione
qualunque in L
2
[0, t], consideriamo una successione (g
k
)
k≥1
di funzioni costanti a tratti
con le propriet`a (6.3). Detta (X
(k)
)
k≥1
la successione di processi corrispondenti e posto
u = (u
1
, . . . , u
n
) si ha
E

exp

i

u
1
X
(k)
t
1
+. . . +u
n
X
(k)
t
n

= exp


1
2
'u, C
(k)
u`

per ogni u
1
, . . . , u
n
∈ R. La conclusione segue facendo tendere k a +∞ poich´e la succes-
sione di variabili aleatorie (X
(k)
t
j
)
k≥1
converge in L
2
[0, t] verso la variabile aleatoria X
t
j
e la
succesione di numeri reali (C
(k)
,m
)
k≥1
converge verso C
m
.
6.7. MOTO BROWNIANO GEOMETRICO 65
6.7 Moto browniano geometrico
Sia (B
t
)
t≥0
un moto browniano standard su uno spazio probabilizzato (Ω, T, P) munito di
una filtrazione (T
t
)
t≥0
.
Definizione 6.14 Si chiama moto browniano geometrico il processo (X
t
)
t≥0
definito da
X
t
= e
B
t
, per ogni t ≥ 0.
Osserviamo che si tratta di un processo a valori positivi le cui traiettorie hanno le stesse
propriet`a di quelle del moto browniano. Abbiamo inoltre
E[X
t
] = e
t/2
V [X
t
] = e
t

e
t
−1

Cov[X
t
, X
s
] = e
2(s∧t)
e
(t∨s−s∧t)/2
−e
(t+s)/2
.
6.8 Esercizi
Esercizio 6.1 Sia (B
t
)
t≥0
un moto browniano con parametro σ
2
. Verificare che
E

[B
t
−B
s
[
2n

=
(2n)!
2
n
n!
σ
2n
[t −s[
n
.
Esercizio 6.2 Sia (B
t
)
t≥0
un moto browniano standard. Mostrare che, per ogni t > s > 0,
le variabili aleatorie
1. B
2
t
−B
2
s
e B
2
s
,
2. exp(B
t
) −exp(B
s
) e exp(B
s
)
non sono indipendenti.
Esercizio 6.3 Sia (B
t
)
t≥0
un moto browniano standard. Si consideri il processo X =
(X
t
)
t≥0
definito da X
t
= tB
1/t
per t > 0 e X
0
= 0. Mostrare che, per ogni t > s,
l’incremento X
t
−X
s
ha legge normale N(0, (t −s)). Verificare che il processo (X
t
)
t≥0
(con
X
0
= 0) `e un moto browniano.
R. Legge dell’incremento X
t
−X
s
E

exp

iu(tB
1/t
−sB
1/s
)

= E

exp

iu(t −s)B
1/t
−ius(B
1/s
−B
1/t
)

= E

exp

iu(t −s)B
1/t

E

exp

−ius(B
1/s
−B
1/t
)

= exp


u
2
(t −s)
2
2
1
t

exp


u
2
s
2
2

1
s

1
t

= exp


u
2
(t −s)
2

.
Esercizio 6.4 Verificare che le quasi tutte le traiettorie di un moto browniano standard
non sono funzioni derivabili e non hanno variazione limitata su ogni intervallo.
Esercizio 6.5 Sia (B
t
)
t≥0
un moto browniano standard. Verificare che le variabili aleatorie
X =

π
0
cos(t)dB
t
, Y =

π
0
sin(t)dB
t
sono indipendenti.
66 6. MOTO BROWNIANO
Esercizio 6.6 Sia (B
t
)
t≥0
un moto browniano standard e sia (X
t
)
t≥0
il processo definito
da
X
t
= B
t
+bt.
Determinare la legge del tempo T
a
del primo attraversamento del livello a (a > 0).
Esercizio 6.7 Sia (X
t
)
t≥0
un processo con tutte le traiettorie continue. Verificare che, per
ogni t > 0, e ogni insieme D contenuto in [0, t] numerabile denso si ha
σ(B
s
[ 0 ≤ s ≤ t) = σ(B
r
[ r ∈ D)
7
Speranza condizionale
Sia (Ω, T, P) uno spazio probabilizzato fissato e ( una sotto-σ-algebra di T. La speranza
condizionale di una variabile aleatoria X rispetto alla σ-algebra ( fornisce una valutazione
ragionevole della speranza della variabile aleatoria X supponendo di conoscere l’informazione
data dagli eventi della σ-algebra (.
Definizione 7.1 Sia X una variabile aleatoria reale integrabile. Si chiama versione della
speranza condizionale di X rispetto alla σ-algebra ( ogni variabile aleatoria reale integrabile
V , misurabile rispetto alla σ-algebra ( tale che

G
XdP =

G
V dP (7.1)
per ogni insieme G ∈ (.
La variabile aleatoria V che verifica (7.1) `e essenzialmente unica. Infatti, se V
t
`e un’altra
variabile aleatoria reale integrabile con la stessa propriet`a, allora
E[1
G
V ] = E[1
G
V
t
]
per ogni G ∈ ( e quindi, essendo V e V
t
(-misurabili, risulta P¦V = V
t
¦ = 0.
Ogni versione della speranza condizionale di V rispetto a ( si denota E[V [(].
Per sviluppare l’intuizione sulla speranza condizionale consideriamo alcuni esempi.
Esempio 7.1 Nel caso particolare in cui ( = T si pu`o prendere V = X mentre, nel caso
particolare in cui T = ¦∅, Ω¦, poich´e ogni variabile aleatoria (-misurabile `e quasi certamente
costante, baster`a prendere V = E[X].
Esempio 7.2 Siano X, Y due variabili aleatorie reali indipendenti con X integrabile e sia (
la σ-algebra σ(Y ) generata da Y . Si ha allora E[X[σ(Y )] = E[X]. In questo caso la speranza
condizionale di X rispetto a Y si denota anche con E[X[Y ].
Esempio 7.3 Siano X
1
, . . . , X
n
variabili aleatorie indipendenti con legge di Bernoulli B(1, p)
e sia S
n
= X
1
+. . . +X
n
. Partendo dal calcolo della probabilit`a condizionata
P¦ X

= 1 [ S
n
= k ¦ =
k
n
per ogni ∈ ¦1, . . . , n¦ si trova
E[X

[S
n
] =
S
n
n
.
67
68 7. SPERANZA CONDIZIONALE
7.1 Speranza condizionale di variabili aleatorie integra-
bili
La speranza condizionale di una variabile aleatoria integrabile esiste sempre. Si dimostra
infatti il seguente
Teorema 7.2 Sia (Ω, T, P) uno spazio probabilizzato, ( una sotto σ-algebra di T. Per ogni
variabile aleatoria reale estesa X integrabile esiste E[X[(].
Dimostrazione. Si pu`o supporre che X sia non negativa. Infatti, se cos`ı non fosse,
basterebbe decomporre X nella differenza X
+
− X

, mostrare l’esistenza di E[X
+
[(] e
E[X

[(] e porre E[X[(] = E[X
+
[(] −E[X

[(].
Supponendo quindi X non negativa, chiamiamo Q la misura su ( definita da
Q(G) =

G
XdP
e chiamiamo P la restrizione di P alla σ-algebra (.
`
E chiaro che Q `e assolutamente con-
tinua rispetto a P quindi, per il Teorema di Radon-Nikodym, esiste una V non negativa e
misurabile rispetto alla σ-algebra ( tale che
Q(G) =

G
V dP.
La conclusione segue dalle identit`a

G
XdP = Q(G) =

G
V dP.
La dimostrazione precedente, una semplice applicazione del teorema di Radon-Nikodym,
non `e costruttiva cio`e non fornisce un metodo per calcolare effettivamente E[X[(]. Mostre-
remo quindi il metodo di calcolo in due casi particolari notevoli.
Proposizione 7.3 Supponiamo che ( sia la σ-algebra σ(X
1
) generata da una variabile
aleatoria reale X
1
e che X
1
e X
2
abbiano densit`a congiunta f rispetto alla misura di Lebesgue
su B(R
2
). Siano f
1
e f
2
le densit`a marginali di X
1
e X
2
rispettivamente e g([x
1
)
g(x
2
[x
1
) =

f(x
1
, x
2
)/f
1
(x
1
) se f
1
(x
1
) > 0,
0 altrimenti.
la densit`a condizionata di X
2
rispetto a X
1
. Si ha allora
E[X
2
[ σ(X
1
)] =

R
x
2
g(x
2
[X
1
)dx
2
.
Analogamente, se X
1
, X
2
sono variabili aleatorie con densit`a discreta p, allora, dette p
1
e p
2
le densit`a marginali di X
1
e X
2
e q la densit`a condizionata di X
2
rispetto a X
1
q(x
2
[x
1
) = P¦X
2
= x
2
[ X
1
= x
1
¦
(definita per le x
1
tali che P¦X
1
= x
1
¦ > 0) si ha
E[X
2
[ σ(X
1
)] =
¸
x
2
x
2
q(x
2
[X
1
).
Proposizione 7.4 Sia (X
n
)
n≥1
una catena di Markov con insieme degli stati E e matrice
di transizione T. Per ogni funzione f : E → R limitata si ha
E[ f(X
n+1
) [ σ¦X
n
, . . . , X
0
¦ ] = (Tf)(X
n
).
7.2. PROPRIET
`
A DI MONOTONIA E PROIETTIVIT
`
A 69
7.2 Propriet`a di monotonia e proiettivit`a
Sia (Ω, T, P) uno spazio probabilizzato fissato e ( una sotto σ-algebra di T.
La speranza condizionale ha molte propriet`a analoghe a quelle della speranza
Proposizione 7.5 La speranza condizionale ha le propriet`a seguenti:
1. (linearit`a) se X, Y sono due variabili aleatorie integrabili e a, b ∈ R allora
E[ aX +bY [ ( ] = aE[ X [ ( ] +bE[ Y [ ( ],
2. (normalizzazione) se X = x `e una variabile aleatoria costante allora E[ X [ ( ] = x,
3. (positivit`a) se X `e una variabile aleatoria positiva e integrabile allora E[ X [ ( ] `e
positiva,
4. (monotonia) se X, Y sono due variabili aleatorie integrabili tali che P¦X ≥ Y ¦ = 1
allora E[ X [ ( ] ≥ E[ Y [ ( ].
Dimostrazione. Verifichiamo la prima propriet`a. La variabile aleatoria aE[ X [ ( ] +bE[ Y [
( ] `e evidentemente (-misurabile. Per ogni G ∈ ( si ha

G
(aE[ X [ ( ] +bE[ Y [ ( ]) dP = a

G
E[ X [ ( ] +b

G
E[ Y [ ( ]dP
= a

G
XdP +b

G
Y dP
=

G
(aX +bY ) dP.
Quindi la speranza condizionale `e lineare.
Le altre propriet`a si dimostrano in modo analogo.
Anche la dimostrazione delle due propriet`a seguenti `e solo un esercizio sulla definizione
di speranza condizionale.
Teorema 7.6 Sia X una variabile aleatoria integrabile e siano (, H due sotto σ-algebre di
T tali che H ⊆ (. Si Ha allora
E

E[ X [ ( ]

H

= E[ X [ H]
Teorema 7.7 Sia X una variabile aleatoria integrabile. Per ogni variabile aleatoria V che
sia (-misurabile e limitata si ha
E[ V X [ ( ] = V E[ X [ ( ].
Osserviamo infine che se X `e indipendente dalla σ-algebra ( (e, naturalmente, integra-
bile) ovvero
P(¦ X ∈ A¦ ∩ G) = P(¦ X ∈ A¦) P(G) (7.2)
per ogni A boreliano e G ∈ (, allora
E[ X [ ( ] = E[ X ]. (7.3)
Infatti dalla (7.2) segue subito che

G
f(X)dP = E[ f(X) ] P(G) = E[ f(X) ]

G
dP
per ogni funzione f semplice. Con un tipico procedimento di teoria dell’integrazione la for-
mula precedente si estende alle funzioni f positive e poi a quelle tali che f(X) sia integrabile.
Se X `e integrabile, baster`a per trovare la (7.2).
70 7. SPERANZA CONDIZIONALE
7.3 Diseguaglianza di Jensen
La diseguaglianza di Jensen si enuncia e si dimostra in modo analogo a quella per la speranza.
Proposizione 7.8 Sia X una variabile aleatoria reale integrabile e ϕ : R → R una funzione
convessa. Supponiamo che anche la variabile aleatoria ϕ(X) sia integrabile. Si ha allora
ϕ(E[X[(]) ≤ E[ϕ(X)[(]
Indichiamo con L
p
(Ω, T, P) (1 ≤ p < ∞) lo spazio vettoriale delle variabili aleatorie X
tali che E[[X[
p
] < ∞.
Proposizione 7.9 Se X ∈ L
p
(Ω, T, P) allora E[X[(] ∈ L
p
(Ω, T, P).
Dimostrazione. Basta applicare la diseguaglianza di Jensen prendendo la funzione convessa
ϕ(x) = [x[
p
.
Il Teorema 7.7 si pu`o generalizzare un p`o come segue
Proposizione 7.10 Sia X una variabile aleatoria e V una variabile aleatoria (-misurabile.
Supponiamo che E[[X[
p
] < ∞ e che E[[V [
q
] < ∞ con p, q numeri reali maggiori di 1 tali che
1/p + 1/q = 1. Si ha allora
E[ V X [ ( ] = V E[ X [ ( ]
Dimostrazione. (Cenno) Decomponendo V = V
+
− V

si vede che basta dimostrare la
proposizione nel caso in cui V sia inoltre non negativa.
Per ogni n ≥ 1 la variabile aleatoria V
n
= (V ∧ n) `e limitata, dunque
E[ V
n
X [ ( ] = V
n
E[ X [ ( ]
grazie al Teorema 7.7. La conclusione segue facendo tendere n all’infinito.
7.4 Speranza condizionale e stima
La Proposizione 7.9 assicura, in particolare, che la speranza condizionale di una variabile
aleatoria X di quadrato integrabile ha anch’essa quadrato integrabile.
Si pu`o anzi vedere che la speranza condizionale di X rispetto a una sotto σ-algebra ( di
T `e la migliore approssimazione di X con una variabile aleatoria ( misurabile, di quadrato
integrabile, nel senso seguente
Teorema 7.11 Per ogni variabile aleatoria Z, (-misurabile, di quadrato integrabile, si ha
E

[X −Z[
2

= E

[X −E[ X [ ( ][
2

+E

[E[ X [ ( ] −Z[
2

.
In particolare
min
Z∈1
2
(Ω,(,P)
E

[X −Z[
2

= E

[X −E[ X [ ( ][
2

.
Dimostrazione. Scriviamo
E

[X −Z[
2

= E

((X −E[ X [ ( ]) −(E[ X [ ( ] −Z))
2

= E

(X −E[ X [ ( ])
2

+E

(E[ X [ ( ] −Z)
2

+ 2E[ (X −E[ X [ ( ])(E[ X [ ( ] −Z)] .
Utilizzando le propriet`a della speranza condizionale si verifica che l’ultimo termine della
somma precedente `e nullo.
7.5. SPERANZA CONDIZIONALE RISPETTO A σ(V
1
, . . . , V
N
) 71
7.5 Speranza condizionale rispetto a σ(V
1
, . . . , V
n
)
Il caso in cui la σ-algebra ( `e generata da un vettore V = (V
1
, . . . , V
n
) di variabili aleatorie
reali `e particolarmente significativo nelle applicazioni ed illustra ulteriormente la speranza
condizionale. Mostreremo infatti che, in questo caso, la speranza condizionale di una va-
riabile aleatoria integrabile X rispetto a ( `e una funzione di V
1
, . . . , V
n
. Questa propriet`a
segue essenzialmente dal seguente Teorema.
Teorema 7.12 (Criterio di misurabilit`a di Doob). Sia ( la σ-algebra σ(V
1
, . . . , V
n
) generata
da n variabili aleatorie reali V
1
, . . . , V
n
. Ogni variabile aleatoria (-misurabile limitata X si
scrive nella forma X = g(V ) con g : R
n
→ R boreliana limitata.
Dimostrazione. La σ-algebra ( `e costituita dai sottoinsiemi di Ω della forma ¦ V ∈ B¦ con
B sottoinsieme boreliano di R
n
.
Seguiremo uno schema classico di teoria della misura verificando che l’affermazione vale
per variabili aleatorie X via via pi` u generali.
Per cominciare `e vera per le variabili aleatorie che sono funzioni indicatrici di insiemi
¦ V ∈ B¦ di ( perch´e queste si scrivono
1
¦ V ∈B¦
= 1
B
(V )
quindi g = 1
B
. Dunque, per linearit`a, l’affermazione `e vera per le combinazioni lineari finite
di funzioni indicatrici di insiemi di (, ovvero per le variabili aleatorie (-semplici.
Ricordiamo che ogni variabile aleatoria X, (-misurabile, non-negativa `e limite puntuale
di una successione non decrescente (X
n
)
n≥1
di variabili aleatorie (-semplici. Per ogni n pos-
siamo trovare come sopra una funzione g
n
: R
n
→ R boreliana semplice tale che X
n
= g
n
(V ).
In pi` u la successione (g
n
)
n≥1
`e non decrescente e limitata superiormente da sup
ω∈Ω
[X(ω)[.
Quindi ponendo g = sup
n≥1
g
n
, troviamo X = g(V ).
Infine, decomponendo X nella sua parte positiva X
+
e negativa X

, abbiamo X
+
=
g
+
(V ) e X

= g

(V ), con g
+
, g

boreliane limitate, quindi, posto g = g
+
− g

abbiamo
X = g(V ).
Come conseguenta immediata abbiamo il
Corollario 7.13 Esiste una funzione g : R
n
→ R tale che
E[ X [ σ(V
1
, . . . , V
n
) ] = g(V
1
, . . . , V
n
).
La funzione g dipender`a ovviamente da X. La Proposizione 7.3 `e un caso particolare di
questo corollario.
7.6 Esercizi
Esercizio 7.1 Sia X una variabile aleatoria integrabile e ( la σ-algebra generata da una
variabile aleatoria della forma
Z =
¸
n≥1
a
n
1
A
n
dove (A
n
)
n≥1
`e una partizione di Ω fatta con elementi di T e (a
n
)
n≥1
`e una successione di
numeri reali distinti. Verificare che
E[ X [ ( ] =
¸
n≥1

A
n
XdP
P(A
n
)
1
A
n
.
72 7. SPERANZA CONDIZIONALE
Esercizio 7.2 Siano X
1
, X
2
due variabili aleatorie reali con densit`a gaussiana bidimension-
ale N(m, Γ) dove m = (m
1
, m
2
) `e il vettore delle medie e Γ `e la matrice di covarianza.
Mostrare che
E[ X
2
[ σ(X
1
) ] = m
2
+
Γ
12
Γ
11
(X
1
−m
1
)
Esercizio 7.3 Sia (X
n
)
n≥1
una successione di variabili aleatorie integrabili convergente in
L
1
(Ω, T, P) verso una variabile aleatoria integrabile X cio`e tale che
lim
n→∞
E[[X
n
−X[] = 0.
Mostrare che la successione (V
n
)
n≥1
dove V
n
= E[ X
n
[ ( ] converge in L
1
(Ω, (, P) verso la
variabile aleatoria E[ X [ ( ].
8
Martingale
Le martingale sono una classe di processi stocastici nella quale la dipendenza tra le variabili
aleatorie del processo si esprime in un modo speciale, la cosiddetta propriet`a di martingala.
Questa propriet`a costituisce una relazione di dipendenza che si pu`o verificare in numerose
situazioni ed `e diventata uno strumento fondamentale nella teoria e nelle applicazioni. In
questo capitolo studieremo le propriet`a principali delle martingale e mostreremo qualche
applicazione.
Sia (Ω, T, P) uno spazio probabilizzato munito di una filtrazione (T
t
)
t∈I
.
Definizione 8.1 Un processo (M
t
)
t∈I
`e una martingala se `e adattato, la variabile aleatoria
M
t
`e integrabile per ogni t ∈ I e
E[ M
t
[ T
s
] = M
s
, per ogni s ≤ t.
Esempio 8.1 Sia (N
t
)
t≥0
un processo di Poisson con parametro λ ed (T
t
)
t≥0
la sua fil-
trazione naturale. Il processo (M
t
)
t≥0
definito da
M
t
= N
t
−λt
`e una martingala.
Esempio 8.2 Sia B = (B
t
)
t≥0
un moto browniano standard.
`
E chiaro che B `e una mar-
tingala come pure il processo (X
t
)
t≥0
definito da
X
t
= B
2
t
−t.
Esempio 8.3 Sia I = N e (X
n
)
n≥0
una catena di Markov con insieme degli stati uguale a
un insieme numerabile E e matrice di transizione T = (T
jk
)
jk∈E
. Supponiamo che λ ∈]0, 1]
sia un autovalore della matrice T con autovettore una funzione f : E → R limitata ovvero
(Tf)(j) =
¸
k∈E
T
jk
f(k), per ogni j ∈ E. (8.1)
Il processo (M
n
)
n≥0
definito da
M
n
= λ
−n
f(X
n
)
`e una martingala rispetto alla filtrazione naturale (T
n
)
n≥0
della catena di Markov (X
n
)
n≥0
(T
n
= σ¦ X
j
[ j ≤ n¦).
73
74 8. MARTINGALE
Grazie alla propriet`a di Markov, per ogni n ≥ 0 e ogni funzione g : E
n+1
→ R (dove
E
n+1
denota il prodotto di n + 1 copie dell’insieme E), si ha
E[M
n+1
g(X
n
, . . . , X
0
)]
=
¸
j
n+1
,j
n
,...,j
0
λ
−(n+1)
f(j
n+1
)g(j
n
, j
n−1
, . . . , j
0
)P¦X
n+1
= j
n+1
, X
n
= j
n
, . . . , X
0
= j
0
¦
=
¸
j
n+1
,j
n
,...,j
0
λ
−(n+1)
f(j
n+1
)g(j
n
, j
n−1
, . . . , j
0
)
P¦X
n+1
= j
n+1
[ X
n
= j
n
, . . . , X
0
= j
0
¦ P¦X
n
= j
n
, . . . , X
0
= j
0
¦
=
¸
j
n+1
,j
n
,...,j
0
λ
−(n+1)
f(j
n+1
)g(j
n
, j
n−1
, . . . , j
0
)
P¦X
n+1
= j
n+1
[ X
n
= j
n
¦ P¦X
n
= j
n
, . . . , X
0
= j
0
¦
=
¸
j
n+1
,j
n
,...,j
0
λ
−(n+1)
T
j
n
j
n+1
f(j
n+1
)g(j
n
, j
n−1
, . . . , j
0
)P¦X
n
= j
n
, . . . , X
0
= j
0
¦
=
¸
j
n
,...,j
0
λ
−(n+1)
(Tf)(j
n
)g(j
n
, j
n−1
, . . . , j
0
)P¦X
n
= j
n
, . . . , X
0
= j
0
¦.
Dato che Tf = λf, si ha λ
−(n+1)
(Tf)(j
n
) = λ
−n
f(j
n
) e quindi
E[M
n+1
g(X
n
, . . . , X
0
)] = E[M
n
g(X
n
, . . . , X
0
)]
ovvero, data l’arbitrariet`a di g,
E[ M
n+1
[ T
n
] = M
n
.
Per induzione si deduce subito che E[ M
m
[ T
n
] = M
n
per ogni m ≥ n.
Esempio 8.4 (Schema d’urna) Un’urna contiene inizialmente una pallina blu e una nera.
Si pesca una pallina a caso e si rimette nell’urna insieme ad un’altra pallina dello stesso
colore. Si ripete quindi l’esperimento all’infinito ...
Sia X
n
la frazione di palline blu e Y
n
il numero di palline blu presenti nell’urna dopo
l’n-esimo esperimento. Chiaramente Y
0
= 1, Y
n
= (n + 2)X
n
e
P¦ Y
n+1
= j [ Y
n
= k ¦ =

k/(n + 2) se j = k + 1,
1 −k/(n + 2) se j = k,
0 altrimenti.
La speranza di Y
n+1
per la probabilit`a condizionata P¦ [ Y
n
= k¦ `e pertanto
(k + 1)P¦ Y
n+1
= k + 1 [ Y
n
= k ¦ +kP¦ Y
n+1
= k [ Y
n
= k ¦
=
k(k + 1)
n + 2
+
k(n + 2 −k)
n + 2
=
k(n + 3)
n + 2
e perci`o
E[ Y
n+1
[ σ(Y
n
) ] =
n + 3
n + 2
Y
n
.
Ne segue che la successione (X
n
)
n≥0
X
n
=
Y
n
n + 2
`e una martingala rispetto alla sua filtrazione naturale. In particolare
E[X
n
] = E[ E[X
n
[ σ¦X
0
¦] ] = E[ X
0
] =
1
2
.
8.1. PRIME PROPRIET
`
A, SOTTOMARINGALE, SUPERMARTINGALE 75
Definizione 8.2 Sia (Ω, T, P) uno spazio probabilizzato munito di una filtrazione (T
t
)
t∈I
e
Z una varibile aleatoria reale estesa integrabile. Si chiama martingala chiusa dalla varia-
bile aleatoria Z un processo stocastico (M
t
)
t∈I
tale che M
t
sia una versione della speranza
condizionale di Z rispetto alla σ-algebra T
t
per ogni t ∈ I.
Esempio 8.5 (Rapporti di verosimiglianza) Sia (Y
n
)
n≥0
una successione di variabili aleato-
rie reali indipendenti identicamente distribuite e siano f
0
ed f
1
due densit`a di probabilit`a.
Supponiamo, per semplicit`a, che la funzione f
0
sia strettamente positiva. La successione dei
rapporti di verosimiglianza
X
n
=
f
1
(Y
0
)f
1
(Y
1
) f
1
(Y
n
)
f
0
(Y
0
)f
0
(Y
1
) f
0
(Y
n
)
costituisce un processo stocastico di grande importanza nei metodi sequenziali per i test di
ipotesi statistiche.
Si verifica facilmente che, se le variabile aleatorie f
1
(Y
n
)/f
0
(Y
n
) sono integrabili, allora
E[ X
n+1
[ σ¦Y
0
, . . . , Y
n
¦ ] = X
n
E
¸
f
1
(Y
n+1
)
f
0
(Y
n+1
)

.
Di conseguenza, se f
0
`e la densit`a di tutte le Y
n
, allora (X
n
)
n≥0
`e una martingala rispetto
alla filtrazione (T
n
)
n≥0
con T
n
= σ¦Y
0
, . . . , Y
n
¦. Si ha infatti
E
¸
f
1
(Y
n+1
)
f
0
(Y
n+1
)

=

f
1
(y)
f
0
(y)
f
0
(y)dy =

f
1
(y)dy = 1.
Si dimostra immediatamente che le somme e moltiplicazioni per scalari di martingale
sono ancora martingale.
8.1 Prime propriet`a, sottomaringale, supermartingale
Per studiare le martingale e le loro applicazioni `e utile estendere la Definizione 8.1.
Definizione 8.3 Un processo (X
t
)
t∈I
`e una supermartingala (risp. sottomartingala) se `e
adattato, la variabile aleatoria X
t
`e integrabile per ogni t ∈ I e
E[ X
t
[ T
s
] ≤ X
s
, (risp. ≥) per ogni s ≤ t.
Osserviamo che (X
t
)
t∈I
`e una supermartingala se e solo se il processo (−X
t
)
t∈I
`e una
sottomartingala.
Esempio 8.6 Sia (N
t
)
t≥0
un processo di Poisson di parametro λ > 0. Si verifica facilmente
che il processo (N
t
−ct)
t≥0
(rispetto alla sua filtrazione naturale) `e una sottomartingala se
c < λ e una supermartingala se c > λ.
Le supermartingala e sottomartingale si ottengono spesso con semplici trasformazioni di
martingale, supermartingale o sottomartingale.
Teorema 8.4 Siano X = (X
t
)
t∈I
e Y = (Y
t
)
t∈I
due sottomartingale. Il processo Z =
(Z
t
)
t∈I
definito da
Z
t
(ω) = max¦X
t
(ω), Y
t
(ω)¦
`e una sottomartingala.
76 8. MARTINGALE
Dimostrazione. Il processo Z `e evidentemente adattato e integrabile ([Z
t
[ ≤ [X
t
[ +[Y
t
[ per
ogni t ≥ 0). Per verificare che `e una sottomartingala consideriamo due tempi s < t e un
insieme A ∈ T
s
. Si ha allora

A
Z
s
dP =

A∩¦X
s
≥Y
s
¦
X
s
dP +

A∩¦X
s
<Y
s
¦
Y
s
dP

A∩¦X
s
≥Y
s
¦
X
t
dP +

A∩¦X
s
<Y
s
¦
Y
t
dP

A∩¦X
s
≥Y
s
¦
Z
t
dP +

A∩¦X
s
<Y
s
¦
Z
t
dP
=

A
Z
t
dP.
Ne segue che E[ Z
t
[ T
s
] ≥ Z
s
.
Analogamante il minimo tra supermartingale `e una supermartingala
Corollario 8.5 Se X = (X
t
)
t∈I
`e una martingala allora i processi
X
+
= (X
+
t
)
t≥0
, X

= (X

t
)
t≥0
, [X[ = ([X
t
[)
t≥0
,
sono sottomartingale.
Dimostrazione. Basta osservare che: X
+
`e il massimo tra X e la martingala nulla, X

`e
l’opposto del minimo tra X e la martingala nulla, [X[ `e la somma di X
+
e X

.
Teorema 8.6 Sia X = (X
t
)
t∈I
una martingala e ϕ : R → R una funzione convessa.
Supponiamo che, per ogni t ∈ I, la variabile aleatoria ϕ(X
t
) sia integrabile. Allora il processo
ϕ(X) = (ϕ(X
t
))
t≥0
`e una sottomartingala.
Dimostrazione. Basta ricordare la diseguaglianza di Jensen per la speranza condizionale.
Corollario 8.7 Sia X = (X
t
)
t∈I
una martingala. Se le variabili aleatorie X
t
hanno
quadrato integrabile allora il processo (X
2
t
)
t∈I
`e una sottomartingala.
Dimostrazione. Basta applicare il Teorema 8.6 con ϕ(x) = x
2
.
8.2 Tempi d’arresto
Sia (Ω, T, P) uno spazio probabilizzato munito di una filtrazione (T
t
)
t∈I
. L’insieme dei
tempi I sar`a un sottoinsieme di [0, +∞[ tale che 0 appartenga a I.
Definizione 8.8 Una variabile aleatoria T : Ω → [0, +∞] `e un tempo d’arresto se l’evento
¦T ≤ t¦ appartiene alla σ-algebra T
t
per ogni t ∈ I. Un tempo d’arresto T si chiama
discreto se ha valori in un sottoinsieme discreto D di [0, +∞].
Ricordiamo che un sottoinsieme D di [0, +∞] si chiama discreto se D∩[a, b] `e finito per
ogni intervallo [a, b] (a, b ∈ R).
Osserviamo che, se T `e un tempo d’arresto, anche gli insiemi
¦ T < t ¦ , ¦ T = t ¦
appartengono a T
t
. Si ha infatti
¦ T < t ¦ =
¸
n≥1

T ≤ t −
1
n

, ¦ T = t ¦ = ¦ T ≤ t ¦ −¦ T < t ¦ .
8.2. TEMPI D’ARRESTO 77
Esempio 8.7 (Tempo d’attesa dell’n-mo successo) Sia (X
n
)
n≥1
un processo di Bernoulli
con paramento p ed (T
n
)
n≥1
la sua filtrazione naturale. Le variabili aleatorie T
n
definite da
T
1
(ω) = min¦ k ≥ 1 [ X
k
(ω) = 1 ¦
T
n+1
(ω) = min¦ k > T
n
(ω) [ X
k
(ω) = 1 ¦
(con la convenzione min ∅ = +∞), ovvero i tempi d’attesa dell’n-esimo successo, sono tempi
d’arresto. Infatti
¦ T
1
= 1 ¦ = ¦ X
1
= 1 ¦ ∈ T
1
,
¦ T
1
≤ k ¦ =
¸
1≤≤k
¦ X

= 1 ¦ ∈ T
k
(k > 1),
¦ T
n+1
= k ¦ = ¦ T
n
< k, X
k
= 1 ¦ ∈ T
k
.
Esempio 8.8 (Tempi di salto di un processo di Poisson) I tempi di salto T
n
di un processo
di Poisson sono tempi d’arresto rispetto allla filtrazione naturale del processo. Infatti, come
abbiamo visto,
¦ T
n
≤ t ¦ = ¦ N
t
≥ n¦ ∈ T
t
per ogni t ≥ 0.
Esempio 8.9 (Tempo del primo attraversamento del moto browniano) Sia (B
t
)
t≥0
un moto
browniano standard e a > 0. Il tempo T
a
del primo attraversamento del livello a definito da
T
a
(ω) = inf¦ s ≥ 0 [ B
s
(ω) ≥ a ¦
`e un tempo d’arresto rispetto alla filtrazione naturale del processo. Osserviamo infatti che
¦ T
a
> t ¦ =
¸
s∈[0,t]
¦ B
s
< a ¦ .
Tutti gli insiemi ¦ B
s
> a ¦ (con s ≤ t) appartengono a T
t
ma questo non ci permette
ancora di concludere che l’insieme ¦ T
a
> t ¦ appartiene a T
t
perch´e, l’intersezione nella
formula precedente `e pi` u che numerabile. Grazie alla continuit`a delle traiettorie abbiamo
per`o
¸
s∈[0,t]
¦ B
s
< a ¦ =
¸
n≥1
¸
s∈[0,t]

B
s
≤ a −
1
n

=
¸
n≥1
¸
r∈[0,t]∩Q

B
r
≤ a −
1
n

.
Ne segue che l’insieme ¦ T
a
> t ¦ `e unione numerabile di insiemi di T
t
e perci`o appartiene a
T
t
come pure il suo complementare ¦ T
a
≤ t ¦. Questo dimostra che T
a
`e un tempo d’arresto.
La classe dei tempi d’arresto ha le seguenti propriet`a
Proposizione 8.9 Siano S, T due tempi d’arresto. Le variabili aleatorie S + T, S ∧ T,
S ∨ T sono tempi d’arresto.
Dimostrazione. Si ha infatti, per ogni t > 0,
¦ S ∧ T ≤ t ¦ = ¦ S ≤ t ¦ ∪ ¦ T ≤ t ¦ , ¦ S ∨ T ≤ t ¦ = ¦ S ≤ t ¦ ∩ ¦ T ≤ t ¦ .
Quanto alla somma S +T osserviamo che
¦ S +T > t ¦ = ¦ S > t ¦ ∪ ¦ T > t ¦ ∪ (¦ S ≤ t, T ≤ t ¦ ∩ ¦ S +T > t ¦) .
78 8. MARTINGALE
Gli insiemi ¦ S > t ¦ e ¦ T > t ¦ appartengono a T
t
perch´e S e T sono tempi d’arresto. Inoltre
abbiamo
¦ S ≤ t, T ≤ t ¦ ∩ ¦ S +T > t ¦ =
¸
x,y∈[0,t], x+y>t
¦ S = x, T = y ¦
=
¸
x,y∈[0,t], x+y>t
¸
n≥1

x −
1
n
< S ≤ x, y −
1
n
< T = y

=
¸
s,r∈([0,t]∩(Q∪¦t¦)), s+r>t
¸
n≥1

s −
1
n
< S ≤ s, r −
1
n
< T = r

.
L’insieme ¦ S +T ≤ t ¦ appartiene quindi a T
t
.
Proposizione 8.10 Sia (T
n
)
n≥1
una successione di tempi d’arresto. La variabile aleatoria
sup
n≥1
T
n
`e un tempo d’arresto.
Dimostrazione. Basta osservare che si ha

sup
n≥1
T
n
> t

=
¸
n≥1
¦ T
n
> t ¦,
per ogni t ≥ 0.
L’estremo inferiore di una successione (T
n
)
n≥1
di tempi d’arresto di una filtrazione
(T
t
)
t≥0
potrebbe non essere un tempo d’arresto della stessa filtrazione. Infatti, per ogni
k > 0, si ha

inf
n≥1
T
n
≤ t

=
¸
j≥k

inf
n≥1
T
n
< t +
1
j

=
¸
j≥k
¸
n≥1

T
n
< t +
1
j

e quindi l’insieme ¦ inf
n≥1
T
n
≤ t ¦ appartiene alla σ-algebra T
t+1/k
qualunque sia k. Ne
segue che appartiene alla σ-algebra
T
+
t
=
¸
k≥1
T
t+
1
k
.
`
E chiaro che la σ-algebra T
+
t
`e pi` u grande della σ-algebra T
t
perch´e tutte le T
t+1/k
con-
tengono la T
t
. In moltissime applicazioni per`o si pu`o verificare che T
t
= T
+
t
per ogni
t ≥ 0. Questo succede, per esempio, nel caso della filltrazione naturale del moto browniano
o del processo di Poisson. Quando vale questa propriet`a si dice che la filtrazione (T
t
)
t≥0
`e
continua a destra.
Indipendentemente dal fatto che la filtrazione sia continua a destra possiamo comunque
mostrare la seguente
Proposizione 8.11 Ogni tempo d’arresto limitato `e limite di una successione non-crescente
di tempi d’arresto discreti.
Dimostrazione. Basta considerare la successione
T
n
=
¸
k≥0
(k + 1)2
−n
1
¦k2
−n
<T≤(k+1)2
−n
¦
.
I tempi d’arresto si utilizzano quando si voglia stabilire una regola che indichi, sulla
base delle osservazioni di passato e presente, l’instante in cui si voglia effettuare una certa
operazione.
8.3. TEOREMA D’ARRESTO DISCRETO 79
Esempio 8.10 Una partita a testa e croce in cui un giocatore vinca 1 quando esce testa e
perda 1 quando esce croce si modellizza naturalmente con un processo di Bernoulli (R
n
)
n≥1
con parametro 1/2 (supporremo che il gioco sia equo). Il capitale del giocatore al tempo n
sar`a
X
n
= 2
n
¸
k=1
R
k
−n.
Una “strategia” naturale `e di interrompere il gioco non appena il capitale sia strettamente
positivo ovvero al tempo T
T(ω) = inf¦ n ≥ 1 [ X
n
(ω) > 0 ¦ = inf¦ n ≥ 1 [ X
n
(ω) = 1 ¦.
La variabile aleatoria T `e un tempo d’arresto infatti
¦ T ≤ k ¦ = ¦ T > k ¦
c
= ¦ X
1
< 1, X
2
< 1, . . . , X
k
< 1 ¦
c
∈ T
k
.
`
E chiaro che, ad ogni istante k si pu`o osservare il valore di S
n
e, sulla base dell’osservazione,
decidere se continuare o meno.
Definizione 8.12 Sia X = (X
t
)
t∈I
un processo stocastico con insieme dei tempi I ⊆
[0, +∞[ e sia T un tempo d’arresto discreto a valori in I. Si chiama processo X arrestato
al tempo T e si denota con X
]T
il processo definito da
X
]T
t
(ω) = X
T(ω)∧t
(ω).
Per assicurarsi che la formula precedente definisca effettivamente un processo occorre
verificare che le funzioni X
]T
t
: Ω → R siano variabili aleatorie ovvero che, per ogni r ∈ R,
l’insieme ¦ X
]T
t
≤ r ¦ appartenga a T. Questa verifica `e piuttosto facile perch´e l’insieme dei
valori di T `e numerabile. Si ha infatti
¦ X
]T
t
≤ r ¦ = (∪
s∈D
¦ T = s, X
s∧t
≤ r ¦)
¸
¦ T > t, X
t
≤ r ¦ .
La formula precedente permette inoltre di dimostrare la proposizione seguente
Proposizione 8.13 Sia X = (X
t
)
t∈I
un processo stocastico con insieme dei tempi I ⊆
[0, +∞[ tale che 0 ∈ I e sia T un tempo d’arresto discreto a valori in I. Se il processo X `e
adattato, allora anche il processo arrestato X
]T
`e adattato.
8.3 Teorema d’arresto discreto
Sia (Ω, T, P) uno spazio probabilizzato munito di una filtrazione (T
t
)
t∈I
. L’insieme dei
tempi I sar`a un sottoinsieme di [0, +∞[ tale che 0 appartenga a I.
Teorema 8.14 Sia X = (X
t
)
t∈I
una martingala (risp. supermartingala oppure sottomartin-
gala) e T un tempo d’arresto discreto a valori in I. Il processo arrestato X
]T
`e una mar-
tingala (risp. supermartingala oppure sottomartingala). In particolare, per ogni t ∈ I, si
ha
E[X
t
] = E[X
T∧t
] = E[X
0
] (8.2)
( risp. ≤ oppure ≥) per ogni t ∈ I.
80 8. MARTINGALE
Dimostrazione. Denotiamo con D il sottoinsieme numerabile di I tale che ¦ T ∈ D¦ = Ω.
La Proposizione 8.13 assicura che il processo X
]T
`e adattato. La variabile aleatoria X
T∧t
`e
integrabile per ogni t ∈ I perch´e
[X
T∧t
[ =
¸
s∈D∩[0,t]
1
¦T=s¦
[X
s∧t
[ ≤
¸
s∈D∩[0,t]
[X
s∧t
[
e l’insieme D ∩ [0, t] `e finito.
Verifichiamo infine la propriet`a di martingala. Siano t, s ∈ I con t > s e A ∈ T
s
fissati.
Si ha allora

A
X
T∧s
dP =

A∩¦T≤s¦
X
T
dP +

A∩¦T>s¦
X
s
dP
=

A∩¦T≤s¦
X
T
dP +

A∩¦T>s¦
X
t
dP,
poich´e l’insieme A ∩ ¦T > s¦ appartiene a T
s
. Dato che, per ogni r ∈ D che soddisfa la
diseguaglianza s < r ≤ t l’insieme A∩ ¦T = r¦ appartiene a T
r
, valgono le eguaglianze

A
X
T∧s
dP =

A∩¦T≤s¦
X
T
dP +
¸
r∈D,s<r≤t

A∩¦T=r¦
X
t
dP +

A∩¦T>t¦
X
t
dP
=

A∩¦T≤s¦
X
T
dP +
¸
r∈D,s<r≤t

A∩¦T=r¦
X
r
dP +

A∩¦T>t¦
X
t
dP
=

A∩¦T≤s¦
X
T∧t
dP +
¸
r∈D,s<r≤t

A∩¦T=r¦
X
T∧t
dP +

A∩¦T>t¦
X
T∧t
dP
=

A
X
T∧t
dP.
La formula (8.2) segue immediatamente prendendo s = 0 e A = Ω.
Il Teorema d’arresto discreto (8.14) ammette il seguente
Corollario 8.15 Sia X = (X
t
)
t∈I
una sottomartingala (risp. supermartingala) e T, U due
tempi d’arresto discreti a valori in I tali che T ≤ U. Per ogni t ∈ I si ha allora
E[X
T∧t
] ≤ E[X
U∧t
] (risp. E[X
T∧t
] ≥ E[X
U∧t
].)
Dimostrazione. Per ogni s ∈ I l’insieme ¦ T = s ¦ appartiene alla σ-algebra T
s
e quindi,
dato che il processo arrestato X
]U
`e una sottomartingala, se s ≤ t si ha

¦ T=s ¦
X
T∧t
dP =

¦ T=s ¦
X
s
dP =

¦ T=s ¦
X
U∧s
dP ≤

¦ T=s ¦
X
U∧t
dP.
Sommando sugli s ∈ I ∩ [0, t] si trova quindi

¦ T≤t ¦
X
T∧t
dP ≤

¦ T≤t ¦
X
U∧t
dP.
Dato che le variabili aleatorie X
T∧t
e X
U∧t
coincidono con la variabile aleatoria X
t
sull’insieme
¦ T > t ¦ la conclusione segue immediatamente.
Osservazione. In generale non si pu`o far tendere t all’infinito nella formula (8.2) per
trovare E[X
T
] = E[X
0
]. Per convincersene basta considerare il tempo d’arresto T dell’E-
sempio 8.10. In questo caso infatti X
0
= 0 e X
T
= 1 dunque E[X
0
] = 0 = 1 = E[X
T
].
Il teorema seguente d`a certe condizioni sotto le quali il passaggio al limite `e lecito.
8.4. APPLICAZIONI 81
Teorema 8.16 Sia X = (X
t
)
t∈I
una martingala e T un tempo d’arresto discreto a valori
in I. Supponiamo che T abbia valori in un insieme discreto D e
P¦ T < ∞¦ = 1, E[ [X
T
[ ] < ∞, lim
t→∞,t∈D
E[X
t
1
¦ T>t ¦
] = 0.
Si ha allora E[X
T
] = E[X
0
].
Dimostrazione. Per ogni t ∈ D si ha
E[X
T
] = E[X
T
1
¦ T≤t ¦
] +E[X
T
1
¦ T>t ¦
]
= E[X
T∧t
] −E[X
t
1
¦ T>t ¦
] +E[X
T
1
¦ T>t ¦
]
= E[X
0
] −E[X
t
1
¦ T>t ¦
] +E[X
T
1
¦ T>t ¦
]
grazie al Teorema (8.14). Sotto le ipotesi del teorema si pu`o far tendere t all’infinito e
concludere.
Osservazione. La condizione
lim
t→∞,t∈D
E[X
t
1
¦ T>t ¦
] = 0
`e soddisfatta se vale la condizione P¦ T < ∞¦ = 1 e
sup
t∈I
E

X
2
t

= K < ∞.
Infatti, grazie alla diseguaglianza di Schwarz, si ha

E[X
t
1
¦ T>t ¦
]

2
≤ E

X
2
t

P¦ T > t ¦ ≤ KP¦ T > t ¦
e P¦ T > t ¦ converge verso 0 per t tendente a +∞ perch´e T ha quasi certamente valori
finiti.
8.4 Applicazioni
8.4.1 Passeggiata casuale unidimensionale
Calcoliamo le probabilit`a di uscita da un intervallo [−a, b] (a, b ∈ N

) della passeggiata
casuale simmetrica su Z che parte da 0. Il processo stocastico (X
n
)
n≥1
in questione si pu`o
rappresentare
X
n
=
n
¸
k=1
Y
k
dove le variabili aleatorie Y
k
sono indipendenti, identicamente distribuite con
P¦ Y
k
= 1 ¦ =
1
2
= P¦ Y
k
= −1 ¦.
Sia T il primo istante in cui la passeggiata casuale arriva al bordo dell’intervallo [a, b] ovvero
la variabile aleatoria T : Ω → N

∪ ¦+∞¦ cos`ı definita
T(ω) = inf¦ n ≥ 1 [ X
n
(ω) = −a, oppure X
n
(ω) = b ¦.
Si verifica immediatamente che T `e un tempo d’arresto per la filtrazione naturale (T
n
)
n≥1
del processo (X
n
)
n≥1
data da
T
n
= σ¦ Y
1
, . . . , Y
n
¦.
82 8. MARTINGALE
Inoltre il processo (X
n
)
n≥1
`e una martingala rispetto a questa filtrazione. Per il teorema
d’arresto 8.14 si ha quindi
E[X
T∧n
] = E[X
0
] = 0.
Poich´e P¦ T < ∞¦ = 1 (la passeggiata casuale simmetrica su Z `e ricorrente ...) e inoltre
[X
T∧n
[ ≤ max¦ a, b ¦, grazie al teorema della convergenza dominata, facendo tendere n
all’infinito si ha E[X
T
] = 0 ovvero,
−aP¦ X
T
= −a ¦ +bP¦ X
T
= b ¦ = 0 (8.3)
e inoltre (la variabile aleatoria X
T
prender`a il valore −a o il valore b) si ha
P¦ X
T
= −a ¦ +P¦ X
T
= b ¦ = 1. (8.4)
Dalle equazioni (8.3) e (8.4) si trova quindi
P¦ X
T
= −a ¦ =
b
a +b
, P¦ X
T
= b ¦ =
a
a +b
.
Calcoliamo ora la speranza di T. Consideriamo il processo Z = (Z
n
)
n≥0
definito da
Z
n
= X
2
n
−n.
Grazie al teorema d’arresto discreto, per ogni n ≥ 1, si ha
0 = E[Z
T∧n
] = E[X
2
n
] −E[T ∧ n]
ovvero E[X
2
T∧n
] = E[T ∧ n]. Facendo tendere n all’infinito (applicando il teorema della
convergenza dominata alla successione (X
2
T∧n
)
n≥1
che soddisfa [X
2
T∧n
[ ≤ (max¦a, b¦)
2
e il
teorema della convergenza monotona alla successione non decrescente (T ∧ n)
n≥1
) si ha
E[T] = E[X
2
T
] = a
2
P¦ X
T
= −a ¦ +b
2
P¦ X
T
= b ¦ = ab.
8.4.2 Livello di un bacino
Sia L
n
il livello (aleatorio) al tempo n dell’acqua in un bacino di capacit`a b, Y
n+1
la quantit`a
casuale di acqua che entrer`a o uscir`a (Y
n+1
pu`o assumere valori positivi o negativi) dal bacino
dal tempo n al tempo n + 1. Il livello del bacino al tempo n + 1 `e quindi
L
n+1
= min
¸
(L
n
+Y
n+1
)
+
, b
¸
.
Supponiamo di voler mantenere il livello del bacino al di sopra di un certo valore minimo a.
Le variabili aleatorie Y
n
sono, a loro volta, differenza di due variabili aleatorie E
n
e U
n
che
rappresentano rispettivamente il flusso in entrata e in uscita. La capacit`a b `e un parametro
modificabile in fase di costruzione e il flusso in uscita U
n
`e controllabile, in qualche misura,
nella gestione del bacino.
Sia T il tempo d’arresto (rispetto alla filtrazione naturale del processo (L
n
)
n≥0
)
T(ω) = inf¦ n ≥ 1 [ L
n
(ω) ≤ a ¦.
Per determinare la capacit`a b di solito si cerca di fare in modo che il tempo medio E[T]
della discesa del livello sotto a sia abbastanza grande. A questo scopo si cerca di trovare
qualche valutazione di E[T] in termini di b, a e della legge delle variabili aleatorie E
n
, U
n
.
Supponiamo, per esempio, che
E[ Y
n+1
[ σ¦Y
0
, . . . , Y
n
¦ ] ≤ m (8.5)
E[ exp(−λY
n+1
) [ σ¦Y
0
, . . . , Y
n
¦ ] ≤ 1 (8.6)
8.4. APPLICAZIONI 83
dove m e λ sono due costanti positive.
Mostriamo che E[T] ≥ f(y) dove y = L
0
`e il livello iniziale del bacino e
f(y) =
1
m

e
λ(b−a)
1 −e
−λ(y−a)
λ
−(y −a)

per a ≤ y ≤ b.
Dato che L
0
= y `e costante si verifica facilmente che, per ogni n ≥ 1,
σ¦L
0
, . . . , L
n
¦ ⊆ σ¦Y
0
, . . . , Y
n−1
¦ ⊆ σ¦Y
0
, . . . , Y
n
¦
dunque T `e un tempo d’arresto anche per la filtrazione (T
n
)
n≥0
data da T
n
⊆ σ¦Y
0
, . . . , Y
n
¦.
Verifichiamo inoltre che il processo (X
n
)
n≥0
definito da
X
n
= f(L
n
) +n
`e una sottomartingala rispetto alla stessa filtrazione.
Estendendo la definizione della funzione f ponendo f(y) = 0 per y < a e f(y) = b per
y > b si ha f(L
n+1
) = f(L
n
+Y
n+1
). Poniamo poi
g(y) =
1
m

e
λ(b−a)
1 −e
−λ(y−a)
λ
−(y −a)

per ogni y.
Poich´e la funzione g `e non decrescente per y < b e non crescente per y > b si ha f(y) ≥ g(y)
per ogni y e
E[ X
n+1
[ T
n
] = E[ f(X
n+1
) [ T
n
] + (n + 1)
= E[ f(L
n
+Y
n+1
) [ T
n
] + (n + 1)
≥ E[ g(L
n
+Y
n+1
) [ T
n
] + (n + 1).
Grazie alle diseguaglianze (8.5), (8.6) abbiamo
E[ g(y +Y
n+1
) [ T
n
] =
1
m

e
λ(b−a)
1 −E[ e
−λ(y+Y
n+1
−a)
[ T
n
]
λ
−(y +E[Y
n+1
[ T
n
] −a)

=
1
m

e
λ(b−a)
1 −e
λ(y−a)
E[ e
−λY
n+1
[ T
n
]
λ
−(y−a)


E[Y
n+1
[ T
n
]
m
≥ f(y) −1, per ogni y ∈ [a, b].
Ne segue che
E[ X
n+1
[ T
n
] ≥ f(L
n
) +n = X
n
ovvero il processo (X
n
)
n≥1
`e una sottomartingala. Grazie al Teorema d’arresto discreto
8.14, per ogni n ≥ 1, si ha allora
E[ f(X
T∧n
) ] +E[ (T ∧ n) ] ≥ f(y).
Dato che la funzione f `e limitata (come nell’applicazione precedente) si pu`o far tendere n
all’infinito trovando cos`ı
E[ T ] = lim
n→∞
E[ (T ∧ n) ] ≥ f(y).
Osserviamo che le ipotesi (8.5) e (8.6) sono abbastanza deboli perch´e non si suppone quasi
nulla sulla legge delle Y
n
e sulle loro correlazioni.
Un modello simile si potrebbe utilizzare per valutare il rischio di bancarotta di un’assicura-
zione. In questo caso le E
n
potrebbero rappresentare i premi e le U
n
gli indennizzi versati.
84 8. MARTINGALE
8.5 Diseguaglianza massimale discreta
Sia (Ω, T, P) uno spazio probabilizzato munito di una filtrazione (T
t
)
t∈I
. L’insieme dei
tempi I sar`a un sottoinsieme discreto [0, +∞[ tale che 0 appartenga a I.
Teorema 8.17 Sia (X
t
)
t∈I
una sottomartingala. Per ogni x > 0 e ogni t ∈ I si ha allora
xP

max
s∈I∩[0,t]
X
s
> x

≤ E[X
+
t
].
Dimostrazione. Denotiamo con M
t
la variabile aleatoria M
t
= max
s∈I∩[0,t]
X
s
. Sia T il
tempo d’arresto
T(ω) = inf ¦ s ∈ I ∩ [0, t] [ X
s
(ω) > x¦
(con la convenzione abituale inf ∅ = +∞). Chiaramente si ha
¦ T < ∞¦ =

max
s∈I∩[0,t]
X
s
> x

= ¦ X
T∧t
> x¦
Grazie alla diseguaglianza di Markov e al Corollario 8.15 (applicato alla sottomartingala
(X
]T
)
+
considerando il tempo d’arresto U = t costante) si ha allora
xP

max
s∈I∩[0,t]
X
s
> x

= xP¦ X
T∧t
> x¦
≤ E[X
+
T∧t
] ≤ E[X
+
t
].
8.6 Numero di attraversamenti di un intervallo
Il Teorema 8.17 mostra che il valore massimo delle traiettorie di una sottomartingala discreta
su un intervallo [0, t] si “controlla” con la variabile aleatoria “finale”. Mostreremo ora che un
risultato simile vale per il numero di attraversamenti di un intervallo [a, b] (a, b ∈ R, a < b).
Definiamo prima gli istanti successivi di attraversamento dell’intervallo [a, b] per in-
duzione (con la convenzione abituale inf ∅ = +∞)
T
1
(ω) = inf ¦ r ∈ I ∩ [0, t] [ X
r
(ω) ≥ b ¦ ,
U
1
(ω) = inf ¦ r ∈ I ∩ [0, t] [ r > T
1
(ω), X
r
(ω) ≤ a ¦ , . . .
T
k+1
(ω) = inf ¦ r ∈ I ∩ [0, t] [ r > U
k
(ω), X
r
(ω) ≥ b ¦ ,
U
k+1
(ω) = inf ¦ r ∈ I ∩ [0, t] [ r > T
k+1
(ω), X
r
(ω) ≤ a ¦ .
Le funzioni T
k
e U
k
sono tempi d’arresto e, chiaramente, si ha
T
1
≤ U
1
≤ T
2
≤ U
2
≤ . . . ≤ T
k
≤ U
k
≤ . . .
Il numero di attraversamenti (in discesa) dell’intervallo [a, b] al tempo t `e la variabile aleatoria
J =
¸
k≥1
1
¦ U
k
<∞¦
. (8.7)
Teorema 8.18 Sia (X
t
)
t∈I
una sottomartingala. Per ogni t ∈ I vale la diseguaglianza
E[J] ≤
E[(X
t
−b)
+
]
b −a
(8.8)
8.7. VERSIONI CON TRAIETTORIE REGOLARI 85
Premettiamo alla dimostrazione il seguente
Lemma 8.19 Sia (X
s
)
s∈I
una sottomartingala, T, U due tempi d’arresto a valori in (I ∩
[0, t]) ∪ ¦+∞¦ tali che T ≤ U. Si ha allora

¦ U<+∞¦
(X
T
−X
U
) dP ≤

¦ T<+∞, U=+∞¦
(X
t
−X
T
) dP.
Dimostrazione. Grazie al Corollario 8.15 vale la diseguaglianza E[X
T∧t
] ≤ E[X
U∧t
] ovvero

¦ T<∞¦
X
T
dP +

¦ T=∞¦
X
t
dP ≤

¦ U<∞¦
X
U
dP +

¦ U=∞¦
X
t
dP.
Da questa diseguaglianza si trova subito

¦ T<∞¦
X
T
dP ≤

¦ U<∞¦
X
U
dP +

¦ U=∞,T<∞¦
X
t
dP
e quindi la conclusione.
Dimostrazione del Teorema 8.18. Grazie al Lemma 8.19, per ogni k ≥ 1, si ha
(b −a)P¦ U
k
< ∞¦ ≤

¦ U
k
<∞¦
(X
T
k
−X
U
k
)dP

¦ T
k
<∞,U
k
=∞¦
(X
t
−X
T
k
)dP

¦ T
k
<∞,U
k
=∞¦
(X
t
−b)dP.
Sommando su k si trova la diseguaglianza (8.8).
8.7 Versioni con traiettorie regolari
Mostreremo ora come si costruiscono martingale con traiettorie regolari nel caso in cui
l’insieme dei tempi non sia discreto. Supporremo che l’insieme dei tempi sia l’intervallo
[0, +∞[. Come sempre supporremo fissato uno spazio probabilizzato (Ω, T, P) munito di
una filtrazione (T
t
)
t≥0
.
Proposizione 8.20 Sia X = (X
t
)
t≥0
una sottomartingala positiva e D un sottoinsieme
numerabile di [0, +∞[ tale che sup
s∈D
E[X
s
] = c < +∞. Quasi tutte le traiettorie di X
hanno una restrizione a D che `e una funzione limitata con limiti da destra e da sinistra in
ogni punto di D.
La Proposizione precedente afferma che per quasi tutti gli ω si ha sup
s∈D
X
s
(ω) < ∞ ed
esistono i limiti
lim
s→t

, s∈D
X
s
(ω), lim
s→t
+
, s∈D
X
s
(ω), per ogni t ≥ 0
(se t = 0 si prende in considerazione il solo limite da destra).
Dimostrazione. Sia (D
n
)
n≥1
una successione crescente di sottoinsiemi finiti di D la cui
unione `e uguale a D. Per ogni n ≥ 1 sia
t
n
= max D
n
, U
n
(ω) = max¦ X
s
(ω) [ s ∈ D
n
¦.
86 8. MARTINGALE
La successione di variabili aleatorie reali (U
n
)
n≥1
`e non decrescente ed evidentemente con-
verge puntualmente verso la variabile aleatoria U definita da
U(ω) = sup¦ X
s
(ω) [ s ∈ D¦.
Grazie al Teorema 8.17, per ogni n ≥ 1 e ogni x > 0, si ha
P¦ U
n
> x¦ ≤
1
x

X
t
n
dP ≤
c
x
.
Ne segue che
P¦ U > x¦ = lim
n→∞
P¦ U
n
> x¦ ≤ c/x
e quindi
P¦ U = +∞¦ = lim
x→∞
P¦ U > x¦ = 0,
cio`e la restrizione all’nsieme D di quasi tutte le traiettorie `e limitata.
Mostriamo ora l’esistenza dei limiti da destra e da sinistra. Per ogni coppia a, b di
numeri reali con a < b sia J(a, b) la variabile aleatoria (8.7), numero di attraversamenti
dell’intervallo [a, b] con D insieme dei tempi, e sia J
n
(a, b) la variabile analoga ottenuta
considerando D
n
come insieme dei tempi. Chiaramente la successione di variabili aleatorie
(J
n
(a, b))
n≥1
`e non decrescente converge puntualmente verso la variabile aleatoria
J(a, b)(ω) = sup
n≥1
J
n
(a, b).
Grazie al Teorema 8.18 per ogni n ≥ 1 si ha
E[J
n
(a, b)] ≤ (b −a)
−1
E[(X
t
n
−b)
+
] ≤ (b +c)/(b −a).
Facendo tendere n all’infinito (convergenza monotona) si trova quindi
E[J(a, b)] ≤ (b +c)/(b −a).
L’insieme ¦ J(a, b) = ∞¦ ha quindi probabilit`a nulla come l’insieme
¸
a,b∈Q, a<b
¦ J(a, b) = ∞¦
che `e unione numerabile di insiemi di probabilit`a nulla.
Sia t → X
t
(ω) una traiettoria la cui restrizione a D non ha la propriet`a voluta. Sup-
poniamo, per esempio, che non ammetta limite da sinistra in qualche punto t ∈ [0, +∞[.
`
E
possibile allora trovare due numeri razionali a, b con a < b e una successione (s
k
)
k≥1
in D
crescente verso t tali che
X
s
1
(ω) ≥ b, X
s
2
(ω) ≤ a, X
s
3
(ω) ≥ b, . . .
e quindi J(a, b)(ω) = ∞ cio`e ω appartiene all’insieme di probabilit`a 0.
Se invece la traiettoria t → X
t
(ω) non ammette limite da destra in qualche punto t ∈
[0, +∞[, allora `e possibile trovare due numeri razionali a, b con a < b e, per ogni intero k ≥ 1
indipendente da a e b e degli (s
j
)
k
j=1
in D tali che s
1
> s
2
> . . . > s
k
e
X
s
1
(ω) ≥ b, X
s
2
(ω) ≤ a, X
s
3
(ω) ≥ b, . . .
Ne segue che J(a, b)(ω) ≥ k e perci`o, data l’arbitrariet`a di k, si ha J(a, b)(ω) = ∞ come
prima.
8.7. VERSIONI CON TRAIETTORIE REGOLARI 87
La Proposizione 8.20 permette di costruire martingale con traiettorie regolari adattate
per`o rispetto ad una filtrazione un p`o pi` u grande ovvero la filtrazione (T
t+
)
t≥0
definita da
T
t+
=
¸
s>t
T
s
.
Teorema 8.21 Data una variabile aleatoria Z integrabile esiste un processo X = (X
t
)
t≥0
con traiettorie regolari (e cio`e continue a destra con limiti da sinistra) adattato alla fil-
trazione (T
t+
)
t≥0
tale che
X
t
= E[ Z [ T
t+
]
per ogni t ≥ 0. Il processo X una martingala con traiettorie regolari chiusa dalla variabile
aleatoria Z.
Dimostrazione. Si pu`o supporre, utilizzando eventualmente la decomposizione Z = Z
+
−Z

che Z sia non negativa.
Sia D ⊆ [0, +∞[ numerabile denso e, per ogni s ∈ D, sia X
s
una versione della speranza
condizionale E[ Z [ T
s
]. Il processo (X
s
)
s∈D
`e una martingala positiva tale che E[X
s
] = E[Z]
per ogni s ∈ D. Grazie alla Proposizione 8.20, per ogni t ≥ 0 possiamo quindi definire
X
t
(ω) = lim
s→t
+
X
s
(ω)
per tutti gli ω dell’evento quasi certo che la restrizione a D della traiettoria s → X
s
(ω) sia
regolare e definire poi X
t
(ω) = 0 per tutti gli altri ω.
Il processo cos`ıottenuto `e evidentemente adattato a (T
t+
)
t≥0
poich´e, per ogni numero
reale x e ogni t
t
> t si ha
¦ X
t
> x¦ =
¸
¦ s∈D] t≤s<t

¦
¸
¦ r∈D] t≤r<s, ¦
¦ X
r
> x¦ .
L’insieme ¦ X
t
> x¦ appartiene dunque a tutte le σ-algebre T
t
con t
t
> t cio`e a T
t+
.
La variabile aleatoria X
t
`e integrabile poich´e `e limite puntuale di una successione di
variabili aleatorie uniformemente integrabili (Lemma previsto in Appendice).
Verifichiamo infine la propriet`a di martingala. Siano t, s due numeri reali con s < t e
A ∈ T
s+
e sia (s
n
)
n≥1
una successione di elementi di D ∩ [s, t] convergente verso s. Si ha
allora, per ogni n ≥ 1,

A
X
s
n
dP =

A
X
t
dP.
La conclusione segue subito facendo tendere n all’infinito grazie all’uniforme integrabilit`a
delle variabili aleatorie X
s
n
.
Si verifica, infine, che le traiettorie della martingala (X
t
)
t≥0
sono regolari.
Nelle applicazioni la filtrazione (T
t+
)
t≥0
spesso coincide con la filtrazione (T
t
)
t≥0
. Si
potrebbe dimostrare, per esempio, che la filtrazione naturale di un moto browniano stan-
dard o del processo di Poisson che abbiamo costruito `e continua a destra. Tuttavia questa
propriet`a non vale in generale. Si introduce perci`o la definizione seguente
Definizione 8.22 Sia (Ω, T, P) uno spazio probabilizzato. Una filtrazione (T
t+
)
t≥0
soddisfa
le condizioni abituali se
1. per ogni t ≥ 0 si ha T
t
= T
t+
,
2. ogni evento A ∈ T con P(A) = 0 appartiene a T
0
.
Nel seguito supporremo sempre che la filtrazione in questione soddisfi le condizioni abituali.
88 8. MARTINGALE
8.8 Teorema d’arresto
Mostreremo ora un teorema d’arresto per martingale con insieme dei tempi [0, +∞[. Sup-
poniamo, come al solito, fissato uno spazio probabilizzato (Ω, T, P) e (T
t
)
t≥0
una filtrazione
che soddisfa le condizioni abituali.
Teorema 8.23 Sia X = (X
t
)
t≥0
una martingala con traiettorie regolari e T un tempo
d’arresto. Il processo X
]T
arrestato al tempo T `e una martingala. In particolare si ha
E[X
T∧t
] = E[X
0
] per ogni t ≥ 0.
Il teorema si dimostra approssimando il tempo d’arresto T con una successione non
crescente di tempi d’arresto discreti e utilizzando il seguente lemma
Lemma 8.24 Sia X = (X
t
)
t≥0
una martingala, t > 0 e T la famiglia dei tempi d’arresto
discreti maggiorati da t. La famiglia di variabili aleatorie (X
T
)
T∈J
`e uniformemente inte-
grabile.
Dimostrazione. Un tempo d’arresto discreto T ∈ T si scrive nella forma
T =
n
¸
k=1
t
k
1
¦ T=t
k
¦
con 0 ≤ t
1
< . . . < t
n
≤ t. Il processo X `e una martingala e quindi, per ogni c > 0

¦ X
T
>c ¦
X
T
dP =
n
¸
k=1

¦ X
t
k
>c, T=t
k
¦
X
t
k
dP
=
n
¸
k=1

¦ X
t
k
>c, T=t
k
¦
X
t
dP

n
¸
k=1

¦ X
t
k
>c, T=t
k
¦
[X
t
[ dP
=

¦ X
T
>c ¦
[X
t
[ dP.
Analogamente abbiamo

¦ X
T
<−c ¦
−X
T
dP ≤

¦ X
T
<−c ¦
[X
t
[dP.
Troviamo perci`o la diseguaglianza

¦ ]X
T
]>c ¦
[X
T
[dP ≤

¦ ]X
T
]>c ¦
[X
t
[dP
e quindi, dato che
c P¦ [X
T
[ > c ¦ ≤ E[ [X
T
[ ] ≤ E[ [X
t
[ ],
grazie al Teorema d’arresto discreto per sottomartingale, concludiamo che la famiglia (X
T
)
T∈J
`e uniformemente integrabile.
Dimostrazione del Teorema 8.23. Sia (T
n
)
n≥1
una successione non crescente di tempi
d’arresto discreti a valori in [0, +∞] convergente verso T. Grazie alla continuit`a a destra
delle traiettorie di X, per ogni t ≥ 0 e ogni ω ∈ Ω si ha
X
T∧t
(ω) = lim
n→∞
X
T
n
∧t
(ω).
8.9. DISEGUAGLIANZA DI DOOB 89
Le variabili aleatorie X
T
n
∧t
sono T
t
misurabili (Teorema 8.14) dunque anche la variabile
aleatoria X
T∧t
`e T
t
misurabile. La successione (X
T
n
∧t
)
n≥1
`e uniformemente integrabile per
il Lemma 8.24, dunque la variabile aleatoria X
T∧t
`e integrabile grazie al Teorema 11.7.
Verifichiamo infine la propriet`a di martingala. Fissiamo s < t e un evento A ∈ T
s
.
Poich´e i processi X
]T
n
sono martingale, si ha

A
X
T
n
∧s
dP =

A
X
T
n
∧t
dP.
La conclusione segue facendo tendere n all’infinito.
In modo sostanzialmente analogo si dimostra il teorema d’arresto per sottomartingale e
supermartingale con traiettorie regolari. Nei due casi si ha rispettivamente E[X
T∧t
] ≥ E[X
0
]
e E[X
T∧t
] ≤ E[X
0
].
8.9 Diseguaglianza di Doob
Sia (Ω, T, P) uno spazio probabilizzato munito di una filtrazione (T
t
)
t≥0
e (X
t
)
t≥0
una
martingala con tutte le traiettorie continue a destra tale che E[ [X
t
[
p
] < +∞(con 1 < p < ∞)
per ogni t ≥ 0.
Teorema 8.25 Per ogni t > 0 si ha
E
¸

sup
0≤s≤t
X
s

p

p
p −1

p
E[ [X
t
[
p
] .
8.10 Teorema di convergenza
Sia (Ω, T, P) uno spazio probabilizzato munito di una filtrazione (T
t
)
t≥0
e (X
t
)
t≥0
che
soddisfa le condizioni abituali
Teorema 8.26 Sia Z una variabile aleatoria integrabile e X = (X
t
)
t≥0
una martingala con
traiettorie regolari chiusa dalla variabile aleatoria Z. Sia T

la σ-algebra generata dalle T
s
con s ≥ 0. Si ha allora
lim
t→∞
X
t
= E[ Z [ T

]
quasi certamente e in L
1
(Ω, T, P).
La dimostrazione `e analoga a quella del Teorema 8.21. Infatti si pu`o verificare l’esistenza
dei limiti delle traiettorie all’infinito utilizzando la diseguaglianza sul numero di attraversa-
menti di un intervallo.
8.11 Decomposizione di Doob-Meyer
Ogni sottomartingala (risp. supermartingala) si pu`o essenzialmente decomporre nella somma
di una martingala e di un processo a traiettorie non decrescenti (risp. non crescenti). Il
processo a traiettorie monot`one, inoltre, ha una propriet`a di misurabilit`a pi` u forte della
martingala. Per illustrare questo fatto iniziamo dal caso di una sottomartingala a tempi
discreti.
Sia (Ω, T, P) uno spazio probabilizzato munito di una filtrazione (T
n
)
n≥0
.
Proposizione 8.27 Ogni sottomartingala X = (X
n
)
n≥0
si decompone nella somma di una
martingala e di un processo A = (A
n
)
n≥0
tale che
90 8. MARTINGALE
1. A
0
= 0 e le traiettorie di A sono non decrescenti,
2. per ogni n ≥ 1 la variabile aleatoria A
n
`e T
n−1
misurabile.
Dimostrazione. Dobbiamo trovare una decomposizione X
n
= M
n
+ A
n
con A
n
misurabile
rispetto alla σ-algebra T
n−1
. Grazie alle propriet`a della speranza condizionale, per ogni
n ≥ 0 deve valere l’identit`a
X
n
−A
n
= E[ X
n+1
−A
n+1
[ T
n
] = E[ X
n+1
[ T
n
] −A
n+1
(8.9)
da cui
A
n+1
= A
n
+E[ X
n+1
[ T
n
] −X
n
.
Poniamo quindi A
0
= 0 e, per ogni n ≥ 1,
A
n
=
n
¸
k=1
(A
k−1
+E[ X
k
[ T
k−1
] −X
k−1
) .
Dato che X `e una sottomartingala, si verifica subito che il processo A = (A
n
)
n≥0
ha trai-
ettorie non decrescenti. Infine il processo (X
n
−A
n
)
n≥0
`e una martingala per come `e stato
definito il processo A (a partire dalla formula (8.9)).
La propriet`a 2 del processo A = (A
n
)
n≥0
si esprime dicendo che il processo `e prevedibile.
Infatti, se la variabile aleatoria A
n+1
`e T
n
misurabile, allora il suo valore `e determinato
dalla conoscenza (del verificarsi o meno) degli eventi della σ-algebra T
n
ovvero, al tempo n
si pu`o “prevedere” il valore di A all’istante successivo. Un processo adattato `e ovviamente
prevedibile.
Esempio 8.11 Consideriamo un gioco nel quale la successione dei capitali (M
n
)
n≥0
di un
giocatore che, ad ogni istante, scommette una somma fissa formi una martingala. Suppo-
niamo poi che il giocatore voglia provare a scommettere somme non fisse (con la speranza
di vincere di pi` u) ma variabili (H
n
)
n≥0
, sulla base dei risultati delle scommesse precedenti.
Questa richiesta, insieme al fatto che dovr`a dichiarare quanto scommette prima dell’n-esima
giocata, si esprime dicendo che H
n
deve essere una variabile aleatoria T
n−1
-misurabile. La
domanda naturale `e: potr`a determinare una qualche stategia di puntate (H
n
)
n≥0
in modo
da rendere il gioco a lui favorevole?
Il capitale X
n+1
del giocatore al tempo n + 1 sar`a dato da
X
n+1
= X
n
+H
n
(M
n+1
−M
n
)
e quindi, detto X
0
il capitale al tempo 0, si ha
X
n+1
=
n
¸
k=0
H
k
(M
k+1
−M
k
).
Supponendo che le variabili aleatorie H
n
siano limitate (cosa molto ragionevole) si verifica
facilmente che il processo (X
n
)
n≥0
`e una martingala. Ne segue che il valore medio del
capitale del giocatore al tempo n `e uguale a quello al tempo 0 ovvero la scelta di qualunque
strategia prevedibile (H
n
)
n≥0
(e limitata) non produce vantaggi o svantaggi.
La decomposizione della Proposizione 8.27 ha un analogo risultato a tempi continui. In
questo caso, per`o, la nozione di prevedibilit`a deve essere definita in modo diverso perch´e
non esiste l’istante precedente a un certo istante t.
8.12. ESERCIZI 91
8.12 Esercizi
Esercizio 8.1 Sia (B
t
)
t≥0
un moto browniano standard. Mostrare che il processo (X
t
)
t≥0
definito da X
t
= B
3
t
−3tB
t
`e una martingala.
Esercizio 8.2 Sia (N
t
)
t≥0
un processo di Poisson con parametro λ e u ∈ R. Mostrare che
il processo (X
t
)
t≥0
definito da
X
t
= exp(iuN
t
−λ(e
iu
−1)t)
`e una martingala.
Esercizio 8.3 Sia T un tempo d’arresto e c una costante. Mostrare che cT `e un tempo
d’arresto se e solo se c ≥ 1.
Esercizio 8.4 Sia T un tempo d’arresto tale che T ≥ 1. Mostrare che T
2
`e un tempo
d’arresto.
Esercizio 8.5 Sia (B
t
)
t≥0
un moto browniano standard, ε > 0 e S il primo istante t tale
che, dopo un tempo ε il moto browniano superer`a un livello a > 0 cio`e
S = ¦ t ≥ 0 [ B
t+ε
> a ¦
non `e un tempo d’arresto rispetto alla filtrazione naturale del moto browniano.
Esercizio 8.6 Calcolare le probabilit`a di arrivo in −a oppure in b (a, b ∈ N

) della passeg-
giata casuale su Z che parte da 0 e, ad ogni istante, avanza (risp. arretra) di 1 con probabilit`a
p (risp. q) (p +q = 1) con p = 1/2. Calcolare la speranza del tempo medio di arrivo in −a
oppure in b.
Esercizio 8.7 Sia (M
t
)
t≥0
una martingala di quadrato integrabile. Verificare che se anche
il processo (M
2
t
)
t≥0
`e una martingala allora M
t
= M
0
quasi certamente per ogni t ≥ 0.
Esercizio 8.8 Nell’Esempio 8.10 determinare la legge del tempo d’arresto T.
92 8. MARTINGALE
9
Applicazioni al moto browniano
e catene di Markov
In questo capitolo illustreremo alcune applicazioni della teoria delle martingale, in parti-
colare del teorema d’arresto allo studio delle propriet`a del moto browniano. Mostreremo
inoltre come si possa utilizzare il moto browniano per scrivere le soluzioni di certe equazioni
differenziali a derivate parziali.
9.1 Probabilit`a e tempi d’uscita del moto browniano
Sia [a, b] un intervallo e x ∈]a, b[. Vogliamo calcolare le probabilit`a di uscita dall’estremo a
oppure dall’estremo b del moto browniano che parte da x cio`e del processo (X
t
)
t≥0
definito
da X
t
= x +B
t
con (B
t
)
t≥0
moto browniano standard (che parte da 0).
Il tempo di uscita dall’intervallo [a, b] `e il tempo d’arresto
T = inf ¦ s ≥ 0 [ B
s
∈ ¦ a, b ¦¦ .
Si verifica facilmente che i processi (B
t
)
t≥0
e (B
2
t
−t)
t≥0
sono martingale. Grazie al teorema
d’arresto si ha quindi
0 = E[B
0
] = E[B
T∧t
] = E[X
T∧t
−x] = E[X
T∧t
] −x
0 = E[ B
2
T∧t
−T ∧ t ] = E[(X
T∧t
−x)
2
−T ∧ t]
Rimuoviamo ora il troncamento T ∧t. Osservando che [X
T∧t
[ ≤ max¦[a[, [b[¦ (perch´e X
t
ha
valori in [a, b] prima del tempo T), la seconda relazione, grazie ai teoremi della convergenza
monotona e della convergenza dominata, fornisce
E[T] = sup
t≥0
E[T ∧ t] = lim
t→∞
E[(X
T∧t
−x)
2
] = E[(X
T
−x)
2
]. (9.1)
In particolare quindi E[T] ≤ max¦ (a − x)
2
, (b − x)
2
¦ < +∞ e T ha quasi certamente
valori finiti. Sempre grazie al teorema della convergenza dominata, la prima relazione ci d`a
l’identit`a
E[X
T
] = lim
t→∞
E[X
T∧t
] = x,
ovvero, dato che X
T
pu`o prendere solo i valori a e b,
aP¦ X
T
= a ¦ +bP¦ X
T
= b ¦ = x.
93
94 9. APPLICAZIONI AL MOTO BROWNIANO E CATENE DI MARKOV
Quest’identit`a, insieme alla
aP¦ X
T
= a ¦ +bP¦ X
T
= b ¦ = 1,
ci d`a allora
P¦ X
T
= a ¦ = (b −x)/(b −a), P¦ X
T
= b ¦ = (x −a)/(b −a).
La relazione ci d`a allora
E[T] = E[(X
T
−x)
2
] = (a −x)
2
P¦ X
T
= a ¦ + (b −x)
2
P¦ X
T
= b ¦ = (b −x)(x −a).
9.2 Moto browniano con deriva
Consideriamo ora il problema analogo per il moto browniano con deriva (drift) cio`e il
processo (X
t
)
t≥0
dato da
X
t
= x +B
t
−µt
con µ ∈ R. Il tempo d’uscita dall’intervallo [a, b] `e definito nello stesso modo. Applicando il
teorema d’arresto alle martingale (X
t
−x +µt)
t≥0
e ((X
t
−x +µt)
2
−t)
t≥0
troviamo
E[X
T∧t
−x +µ(T ∧ t)] = 0
E[(X
T∧t
−x +µ(T ∧ t))
2
−µ(T ∧ t)] = 0.
La seconda relazione questa volta coinvolge un’altra quantit`a non nota E[(T ∧ t)
2
] e, man-
dando t all’infinito, E[T
2
]. Non potendo procedere come nel caso in cui µ = 0 consideriamo
altre martingala ovvero la martingala esponenziale (M
t
)
t≥0
data da
M
t
= exp

βB
t

β
2
2
t

= exp

β(X
t
−x) −

β
2
2
−βµ

t

con β ∈ R. La scelta β = 2µ si rivela particolarmente utile poich´e annulla il termine in t
dell’esponenziale. Applicando quindi il teorema d’arresto alla martingala
M
t
= exp (2µ(X
t
−x))
troviamo l’identit`a
E[exp(2µX
T∧t
)] = exp(2µx).
Passando al limite per t → ∞ come abbiamo gi`a fatto nel caso in cui µ = 0 troviamo quindi
il sistema

P¦ X
T
= a ¦ +P¦ X
T
= b ¦ = 1
e
2µa
P¦ X
T
= a ¦ + e
2µb
P¦ X
T
= b ¦ = exp(2µx)
da cui, risolvendo,
P¦ X
T
= a ¦ =
e
2µb
−e
2µx
e
2µb
−e
2µa
, P¦ X
T
= b ¦ =
e
2µx
−e
2µa
e
2µb
−e
2µa
.
Sostituendo nella relazione E[ x −X
T
] = µE[T] si trova infine
E[T] =
(x −a)e
2µb
−(b −a)e
2µx
+ (b −x)e
2µa
µ(e
2µb
−e
2µa
)
.
9.3. MOTO BROWNIANO ED EQUAZIONE DI LAPLACE 95
9.3 Moto browniano ed equazione di Laplace
Mostreremo ora che la soluzione di alcune equazioni a derivate parziali si pu`o scrivere utiliz-
zando il moto browniano. In questo paragrafo (B
t
)
t≥0
`e un moto browniano d-dimensionale
su uno spazio probabilizzato (Ω, T, P) con una filtrazione (T
t
)
t≥0
di sotto σ-algebre di T.
La chiave per ottenere le formule `e il seguente
Teorema 9.1 Sia f una funzione reale su R
d
di classe (
2
limitata con tutte le derivate
parziali di ordine minore o uguale a 2 limitate. Allora il processo (M
t
)
t≥0
definito da
M
f
t
= f(B
t
) −

t
0
1
2
(∆f)(B
s
)ds
`e una martingala.
Dimostreremo questo risultato partendo da un lemma preliminare. I processi considerati
qui sono a valori complessi; per ridursi al caso di processi reali basterebbe separare la parte
reale e quella immaginaria.
Lemma 9.2 Per ogni u ∈ R
d
il processo (M
u
t
)
t≥0
definito da
M
u
t
= e
i¹u,B
t
)
+
[u[
2
2

t
0
e
i¹u,B
r
)
dr
(dove [u[
2
= u
2
1
+. . . +[u
d
[
2
) `e una martingala.
Dimostrazione. Per s < t, grazie all’indipendenza degli incrementi del moto browniano,
abbiamo
E

e
i¹u,B
t
)
[ T
s

= e
i¹u,B
s
)
E

e
i¹u,(B
t
−B
s
))
[ T
s

= e
i¹u,B
s
)
E

e
i¹u,(B
t
−B
s
))

= e
i¹u,B
s
)
e
−]u]
2
(t−s)/2
.
Analogamente
E
¸
[u[
2
2

t
0
e
i¹u,B
r
)
dr

T
s

= E
¸
[u[
2
2

s
0
e
i¹u,B
r
)
dr +
[u[
2
2

t
s
e
i¹u,B
r
)
dr

T
s

=
[u[
2
2

s
0
e
i¹u,B
r
)
dr +
[u[
2
2
E
¸
e
i¹u,B
s
)

t
s
e
i¹u,(B
r
−B
s
))
dr

T
s

=
[u[
2
2

s
0
e
i¹u,B
r
)
dr +
[u[
2
2
e
i¹u,B
s
)
E
¸
t
s
e
i¹u,(B
r
−B
s
))
dr

=
[u[
2
2

s
0
e
i¹u,B
r
)
dr +
[u[
2
2
e
i¹u,B
s
)

t
s
E

e
i¹u,(B
r
−B
s
))

dr
=
[u[
2
2

s
0
e
i¹u,B
r
)
dr +
[u[
2
2
e
i¹u,B
s
)

t
s
e
−]u]
2
(r−s)/2
dr
Calcolando l’integrale troviamo perci`o
E
¸
[u[
2
2

t
0
e
i¹u,B
r
)
dr

T
s

=
[u[
2
2

s
0
e
i¹u,B
r
)
dr +

1 −e
−]u]
2
(t−s)/2

e
i¹u,B
s
)
.
96 9. APPLICAZIONI AL MOTO BROWNIANO E CATENE DI MARKOV
A questo punto si verifica immediatamente che (M
u
t
)
t≥0
`e una martingala.
Osserviamo che
∆e
i¹u,x)
=
d
¸
k=1

2
∂x
2
k
e
i¹u,x)
=
d
¸
k=1
−u
2
k
e
i¹u,x)
= −[u[
2
e
i¹u,x)
.
Il Teorema 9.1 `e quindi verificato per le funzioni f(x) = e
i¹u,x)
che chiameremo, per
brevit`a, funzioni trigonometriche. Estenderemo ora la formula ad una classe pi` u ampia
di funzioni utilizzando la densit`a delle funzioni trigonometriche nelle funzioni (
2
.
`
E noto
infatti che, detto I(R) l’ipercubo I(R) = ¦ x ∈ R
d
[ max
1≤k≤d
[x
k
[ ≤ R¦, per ogni funzione
f ∈ (
2
(R
d
), esiste una successione (f
n
)
n≥1
di combinazioni lineari (a coefficienti complessi)
di funzioni trigonometriche che converge uniformemente verso f insieme con tutte le sue
derivate parziali di ordine minore o eguale a 2 sull’ipercubo I(R). Abbiamo cio`e
lim
n→∞
sup
x∈I(R)
[(f(x) −f
n
(x))[ = 0, lim
n→∞
sup
x∈I(R)
[(∆f)(x) −(∆f
n
)(x))[ = 0.
Sia T
R
il tempo d’uscita del moto browniano da I(R)
T
R
= inf ¦ t ≥ 0 [ [B
t
[ > R¦ .
Le martingale arrestate (M
f
n
]T
R
t
)
t≥0
sono evidentemente limitate (uniformemente in n).
Presi s < t e A ∈ T
s
abbiamo

A
M
f
n
]T
R
s
dP =

A
M
f
n
]T
R
t
dP,
e, quindi, facendo tendere n all’infinito,

A
M
f
T
R
∧s
dP =

A
M
f
T
R
∧t
dP. (9.2)
Abbiamo quindi verificato che i processi arrestati (M
f ]T
R
t
)
t≥0
sono martingale qualunque
sia R > 0. Possiamo ora dimostrare il Teorema 9.1.
Dimostrazione del Teorema 9.1. Cominciamo con l’osservare che i tempi d’arresto T
R
con-
vergono quasi certamente verso +∞ per R tendente all’infinito. Infatti il moto browniano d
dimensionale esce dall’ipercubo I(R) se e solo se una delle sue componenti esce dall’intervallo
[−R, R] cosa che accade quasi certamente per quanto visto nel paragrafo 9.1.
Poich´e la funzione f e tutte le sue derivate parziali di ordine minore o uguale a 2 sono
limitate, le variabili aleatorie M
f
T
R
∧s
e M
f
T
R
∧t
sono uniformemente limitate in R. Facendo
tendere R all’infinito in (9.2) troviamo

A
M
f
s
dP =

A
M
f
t
dP,
per ogni s < t e A ∈ T
s
e quindi (M
f
t
)
t≥0
`e una martingala.
Sia D un sottoinsieme aperto e limitato di R
d
con frontiera di classe (
1
a tratti (per
esempio una sfera ¦ x ∈ R
d
[ [x[ ≤ R¦ o un ipercubo ¦ x ∈ R
d
[ max
1≤k≤d
[x
k
[ < R¦).
Indichiamo con ∂D il bordo di D (che non appartiene all’insieme D) e con
¯
D l’insieme D
con il bordo ovvero
¯
D = D ∪ (∂D). Il problema di Dirichlet in D consiste nel trovare una
funzione u ∈ (
2
(
¯
D), con u ∈ (
2
(D) tale che

(∆u)(x) = 0 x ∈ D
u(x) = f(x) x ∈ ∂D
9.4. MOTO BROWNIANO ED EQUAZIONE DEL CALORE 97
dove f `e una funzione continua su ∂D. La soluzione si pu`o rappresentare per mezzo del
moto browniano d-dimensionale.
Sia (X
x
t
)
t≥0
il moto browniano uscente da x cio`e X
x
t
= x +B
t
. Si ha allora
u(x) = E[ f(X
x
T
) ] , x ∈ D
dove T `e il tempo di uscita da D del moto browniano con origine in x cio`e
T = ¦ t ≥ 0 [ X
x
t
/ ∈ D¦ .
Infatti, grazie al Teorema 9.1, il processo (M
t
)
t≥0
M
t
= u(X
x
t
) −
1
2

t
0
(∆u)(X
x
s
)ds
`e una martingala e quindi, per il teorema d’arresto
u(x) = E[M
0
] = lim
t→∞
E[M
T∧t
] = E[M
T
] = E[u(X
x
T
)] = E[ f(X
x
T
) ] .
L’argomento precedente non `e del tutto preciso perch´e abbiamo dimostrato il Teorema
9.1 supponendo che f sia una funzione di classe (
2
su tutto R
d
. La soluzione u del problema
di Dirichlet `e una funzione di classe (
2
su D e non abbiamo visto se si pu`o estendere ad una
funzione di classe (
2
su R
d
...
9.4 Moto browniano ed equazione del calore
Consideriamo l’equazione del calore


∂t
u(t, x) =
1
2
∆u(t, x), (t, x) ∈ [0, +∞[R
d
u(0, x) = f(x) x ∈ R
d
Supponiamo che f sia di classe (
2
con tutte le derivate di ordine minore o uguale a 2 limitate
(per evitare questioni tecniche).
Sia (X
x
t
)
t≥0
il moto browniano d-dimensionale con origine in x. La soluzione dell’equazione
del calore si pu`o scrivere nella forma
u(t, x) = E[ f(X
x
t
) ] .
Infatti, grazie al Teorema 9.1, il processo (M
t
)
t≥0
definito da
M
f
t
= f(X
x
t
) −
1
2

t
0
(∆f)(X
x
s
)ds
`e una martingala. Abbiamo quindi E[M
t
] = E[M
0
] ovvero
E[f(X
x
t
)] −
1
2

t
0
E[(∆f)(X
x
s
)]ds = f(x).
Le ipotesi che abbiamo fatto su f permettono di scambiare Laplaciano e speranza trovando
cos`ı
u(t, x) −
1
2

t
0
(∆u)(s, x)ds = f(x)
98 9. APPLICAZIONI AL MOTO BROWNIANO E CATENE DI MARKOV
da cui ponendo t = 0 si trova u(0, x) = f(x) e derivando rispetto a t si verifica che u soddisfa
l’equazione del calore.
Il moto browniano si utilizza per scrivere la soluzione di varie equazioni a derivate parziali.
Per esempio la soluzione dell’equazione


∂t
u(t, x) =
1
2
∆u(t, x) +V (x)u(t, x), (t, x) ∈ [0, +∞[R
d
u(0, x) = f(x) x ∈ R
d
si scrive con la cosiddetta formula di Feynman-Kac
u(t, x) = E
¸
f(X
x
t
)e

t
0
V (X
x
r
)dr

.
Anche questa formula si verifica introducendo un’opportuna martingala del moto browniano.
9.5 Moto browniano geometrico
Il tempo d’uscita dall’intervallo [a, b] con 0 < a < 1 < b del processo
X
t
= exp

σB
t
+

µ −
σ
2
2

t

coincide ovviamente con il tempo d’uscita T del processo
Z
t
= σB
t
+

µ −
σ
2
2

t
dall’intervallo [log(a), log(b)]. Supponiamo che µ = σ
2
/2. Applicando il teorema d’arresto
alle martingale
B
t
= Z
t

µ −
σ
2
2

t, M
t
= exp

βB
t

β
2
2
t

,
dove β = σ − 2µ/σ, si trovano le probabilit`a di uscita dalla barriera inferiore o superiore e
il tempo medio di uscita.
Il caso µ = σ
2
/2, in cui (Z
t
)
t≥0
`e un multiplo del mosto browniano, si tratta a parte
considerando le martingale (B
t
)
t≥0
e (B
2
t
−t)
t≥0
. Si trova
P¦ Z
T
= log(a) ¦ =

1 −
log(a)
log(b)

−1
, P¦ Z
T
= log(b) ¦ =

1 −
log(b)
log(a)

−1
e E[T] = σ
−1
log(b/a).
9.6 Martingale e catene di Markov
Sia (X
t
)
t≥0
una catena di Markov a tempo continuo con insieme degli stati S, semigruppo
associato (P
t
)
t≥0
e filtrazione naturale (T
s
)
s≥0
.
Lemma 9.3 Per ogni s < t e ogni f : S → R limitata si ha
E[ f(X
t
) [ T
s
] =
¸
j∈S
f(j)p
X
s
j
(t −s).
In particolare
E[ f(X
t
) [ T
s
] = E[ f(X
t
) [ σ(X
s
)]
9.6. MARTINGALE E CATENE DI MARKOV 99
Dimostrazione. La σ-algebra T
s
`e generata dagli insiemi della forma
A(s
1
, i
1
, . . . , s
n
, i
n
) = ¦ X
s
1
= i
1
, . . . , X
s
n
= i
n
¦
con n ≥ 1, 0 ≤ s
1
≤ . . . ≤ s
n
= s e i
1
, . . . , i
n
∈ S. Baster`a quindi verificare che

A(s
1
,i
1
,...,s
n
,i
n
)
f(X
t
)dP =

A(s
1
,i
1
,...,s
n
,i
n
)
¸
j∈S
f(j)p
X
s
j
(t −s) dP
Il membro destro si scrive nella forma
¸
j∈S

A(s
1
,i
1
,...,s
n
,i
n
)
f(X
t
)dP =
¸
j

A(s
1
,i
1
,...,s
n
,i
n
)∩¦X
t
=j¦
f(j)dP
=
¸
j
f(j)P¦ X
t
= j, X
s
n
= i
n
, . . . , X
s
1
= i
1
¦
=
¸
j
f(j)P¦ X
t
= j, X
s
n
= i
n
, . . . , X
s
1
= i
1
¦
e quindi, grazie alla propriet`a di Markov, `e uguale a
¸
j
f(j)P¦ X
t
= j [ X
s
= i
n
¦ P¦ X
s
n
= i
n
, . . . , X
s
1
= i
1
¦
=
¸
j
f(j)

A(s
1
,i
1
,...,s
n
,i
n
)
p
X
s
j
(t −s)dP
da cui segue subito la conclusione.
Teorema 9.4 Per ogni funzione f : S → R limitata il processo (M
t
)
t≥0
definito da
M
t
= f(X
t
) −

t
0
(Qf)(X
s
)ds
`e una martingala rispetto alla filtrazione naturale della catena di Markov.
Dimostrazione. Baster`a verificare che, per ogni s < t risulta
E[ f(X
t
) −f(X
s
) [ T
s
] = E
¸
t
s
(Qf)(X
r
)dr [ T
s

.
Osserviamo che, grazie al Lemma 9.3 e alle equazioni di Kolmogorov all’avanti, il membro
destro si scrive

t
s
E[ (Qf)(X
r
) [ T
s
] dr =

t
s
¸
j
p
X
s
j
(r −s)(Qf)(j)dr
=

t
s
¸
j,k
p
X
s
j
(r −s)q
jk
f(k)dr
=

t
s
¸
k
p
t
X
s
k
(r −s)f(k)dr
=
¸
k
(p
X
s
k
(t −s) −δ
X
s
k
) f(k)
= E[ f(X
t
) [ T
s
] −f(X
s
).
Si verifica cos`ı che (M
t
)
t≥0
`e una martingala.
Il risultato precedente si generalizza facilmente alle funzioni f non limitate se valgono le
opportune condizioni d’integrabilit`a.
100 9. APPLICAZIONI AL MOTO BROWNIANO E CATENE DI MARKOV
9.7 Esercizi
Esercizio 9.1 Sia [a, b] un intervallo e x ∈]a, b[ un suo punto interno. Detto T il tempo di
uscita da [a, b] del moto browniano (X
x
t
)
t≥0
con origine in x mostrare che
E[ TX
x
T
] = (b −x)(x −a)(x +a +b)/3.
Suggerimento: Si ricordi l’Esercizio 8.1.
Esercizio 9.2 Sia T
a
il tempo del primo attraversamento del livello a del moto browniano
standard con origine in 0. Mostrare che
E

e
−λT
a

= e
−a


10
Processi di Markov
Sia (Ω, T, P) uno spazio probabilizzato, (T
t
)
t≥0
una filtrazione di sotto-σ-algebre di T ed
E un sottoinsieme boreliano di R
d
munito della σ-algebra c indotta dalla σ-algebra B(R
d
)
dei sottoinsiemi boreliani di R
d
. Le variabili aleatorie (X
t
)
t≥0
di un processo di Markov o
markoviano, a valori in E sono dipendenti tra loro in un modo speciale per precisare il quale
introduciamo la seguente definizione.
Definizione 10.1 Un nucleo di transizione o transizione markoviana un’applicazione
p :
¸
(s, t) ∈ R
2
[ s ≤ t
¸
E c → [0, 1]
tale che
1. per ogni s, t e ogni x ∈ E, l’applicazione A → p(s, t, x, A) `e una misura di probabilit`a
su c,
2. per ogni s, t e ogni A ∈ c l’applicazione x → p(s, t, x, A) `e misurabile,
3. (equazione di Chapman-Kolmogorov) per ogni r < s < t, x ∈ E, A ∈ c si ha
p(r, t, x, A) =

E
p(s, t, y, A)p(r, s, x, dy).
Le p(s, t, x, A) si chiamano anche probabilit`a di transizione e rappresentano la probabilit`a
che il processo parta dal punto x al tempo s e arrivi nell’insieme A al tempo t. L’equazione
di Chapman-Kolmogorov si pu`o quindi interpretare come una sorta di “formula della proba-
bilit`a totale” pensando che la probabilit`a di partire da x al tempo r e arrivare in A al tempo
t `e la “somma” delle probabilit`a di partire da x al tempo r, passare per un punto y al tempo
s, e arrivare in A al tempo t.
Definizione 10.2 Un processo (X
t
)
t≥0
a valori in E si chiama markoviano o di Markov,
rispetto alla filtrazione (T
t
)
t≥0
, se
1. `e adattato,
2. (propriet`a di Markov) per ogni s < t ed ogni f : E → R misurabile limitata si ha
E[ f(X
t
) [ T
s
] =

E
f(y)p(s, t, X
s
, dy).
101
102 10. PROCESSI DI MARKOV
Osserviamo che l’equazione di Chapman-Kolmogorov costituisce essenzialmente una con-
dizione necessaria affinch´e valga la relazione
E[ E[ f(X
t
) [ T
s
] [ T
r
] = E[ f(X
t
) [ T
r
]
per ogni r < s < t. Infatti, se A ∈ c,
E[ E[ 1
A
(X
t
) [ T
s
] [ T
r
] = E[ p(s, t, X
s
, A) [ T
r
]
=

E
p(s, t, y, A)p(r, s, X
r
, dy).
Talvolta la filtrazione non `e data esplicitamente. In questi casi, quando di dice che un
processo `e markoviano, si sottointende rispetto alla sua filtrazione naturale.
La transizione markoviana p e la legge iniziale µ della variabile aleatoria X
0
individuano
le leggi congiunte delle variabili aleatorie (X
t
1
, . . . , X
t
n
).
Teorema 10.3 Se (X
t
)
t≥0
`e un processo di Markov con legge iniziale µ e nucleo di tran-
sizione p, per ogni n e ogni t
1
< . . . t
n
si ha
P¦X
t
1
∈ A
1
, . . . , X
t
n
∈ A
n
¦ (10.1)
=

E
µ(dx
0
)

A
1
p(0, t
1
, x
0
, dx
1
) . . .

A
n−1
p(t
n−2
, t
n−1
, x
n−2
, dx
n−1
)p(t
n−1
, t
n
, x
n−1
, A
n
).
Reciprocamente, date una legge di probabilit`a µ su c e un nucleo di transizione p esiste un
processo di Markov (X
t
)
t≥0
, su un opportuno spazio probabilizzato, tale che valga (10.1).
10.1 Semigruppi markoviani
Lo studio dei processi markoviani inizia da quelli omogenei.
Definizione 10.4 Un processo di Markov (X
t
)
t≥0
con nucleo di transizione p si chiama
omogeneo se p(s, t, x, A) = p(s +r, t +r, x, A) per ogni s < t, r ≥ 0, A ∈ c.
In questo caso, la notazione p(s, t, x, A) si semplifica in p(t −s, x, A).
Nel s´eguito, quando non diversamente specificato, tratteremo processi di Markov omo-
genei.
Teorema 10.5 Sia p un nucleo di transizione. L’applicazione
T
t
: L

(E, c) → L

(E, c), (T
t
f)(x) =

E
f(y)p(t, x, dy)
per t ≥ 0 soddisfa le propriet`a seguenti:
1. (identit`a in 0) T
0
f = f per ogni f ∈ L

(E, c),
2. (propriet`a di semigruppo) T
t+s
f = T
t
T
s
f per ogni t, s ≥ 0 e ogni f ∈ L

(E, c),
3. (positivit`a) per ogni f ∈ L

(E, c) non negativa anche la funzione T
t
f `e non negativa,
4. (invarianza costanti) T
t
1
E
= 1
E
per ogni t ≥ 0.
10.1. SEMIGRUPPI MARKOVIANI 103
Dimostrazione. Verifichiamo solo la propriet`a di semigruppo perch´e le altre affermazioni
sono immediate. Per ogni t, s ≥ 0, f ∈ L

(E, c) e ogni x ∈ E, si ha
(T
t
(T
s
f))(x) =

E
(T
s
f)(y)p(t, x, dy)
=

E
p(t, x, dy)

E
f(z)p(s, y, dz)
=

E
f(z)

E
p(s, y, dz)p(t, x, dy).
Grazie all’equazione di Chapman-Kolmogorov, per ogni A ∈ c, si ha

E
p(s, y, A)p(t, x, dy) = p(t +s, x, A)
e quindi
(T
t
(T
s
f))(x) =

E
f(z)p(t +s, x, dz) = (T
t+s
f)(x).
Il teorema `e cos`ı dimostrato.
Definizione 10.6 Una famiglia (T
t
)
t≥0
di operatori lineari su L

(E, c) con le propriet`a
1, 2, 3 e 4 del Teorema 10.5 si chiama semigruppo markoviano.
Ad un nucleo di transizione omogeneo abbiamo associato un semigruppo markoviano.
Reciprocamente `e chiaro che il semigruppo determina univocamente un nucleo di transizione
poich´e, per ogni t ≥ 0, x ∈ E e A ∈ c si ha
(T
t
1
A
)(x) = p(t, x, A).
Grazie al Teorema 10.3, si pu`o quindi affermare che un processo markoviano omogeneo `e
determinato dalla legge iniziale e dal semigruppo markoviano associato.
Lo spazio vettoriale L

(E, c) tuttavia non `e nemmeno uno spazio di Banach e quindi,
per utilizzare gli strumenti dell’Analisi Matematica `e preferibile ridursi a semigruppi marko-
viani i cui operatori T
t
agiscano almeno su spazi di Banach. Per questo motivo nel s´eguito
supporremo che:
tutte le misure p(t, x, ) sono assolutamente continue rispetto a una misura σ-finita µ su c.
Il semigruppo (T
t
)
t≥0
induce allora un semigruppo, che denoteremo sempre nello stesso
modo, su L

(E, c, µ) e, denotando con p(t, x, ) anche le densit`a di queste misure rispetto
a µ, abbiamo
(T
t
f)(x) =

E
f(y)p(t, x, y)µ(dy). (10.2)
Supporremo inoltre che: la funzione
t →

E
g(x)(T
t
)f(x)µ(dx)
`e continua su [0, +∞[ per ogni g ∈ L
1
(E, c, µ), f ∈ L

(E, c, µ).
Un semigruppo markoviano, sotto quest’ipostesi, `e determinato dal suo generatore cio`e
dall’operatore A definito da

E
g(x)(Af)(x)µ(dx) = lim
t→0
+

E
g(x)
(T
t
f)(x) −f(x)
t
µ(dx)
104 10. PROCESSI DI MARKOV
su tutte le funzioni f ∈ L

(E, c, µ) per le quali il limite esiste per ogni g ∈ L
1
(E, c, µ).
La teoria matematica che descrive la relazione `e per`o di livello troppo elevato per gli
scopi di questo corso e quindi ci accontenteremo di qualche cenno. Osserviamo per`o che,
presa una f su cui `e definito il generatore e posto u(t, x) = (T
t
f)(x), si potrebbe verificare
che la funzione u soddisfa
∂u
∂t
= Au(t, x), u(0, x) = f(x).
(La verifica `e immediata supponendo che il generatore sia definito anche sulle funzioni T
t
f
per ogni t > 0). Vedremo tra poco (Teorema 10.8) che, nel caso in cui E sia lo spazio
euclideo, l’operatore A `e un operatore differenziale. Pertanto, almeno in questo caso, si
vede bene che il generatore individua il semigruppo sempre che la soluzione dell’equazione
differenziale alle derivate parziali sia unica.
10.2 Processi markoviani di salto
Consideriamo innanzitutto un processo di Poisson (N
t
)
t≥0
con parametro λ con la sua
filtrazione naturale T
s
= σ(N
r
, 0 ≤ r ≤ s). Si vede subito che, per s < t,
E[ f(N
t
) [ T
s
] = e
−λ(t−s)
¸
k≥0
λ
k
(t −s)
k
k!
f(k +N
s
) = E[ f(N
t
) [ σ(N
s
) ] .
Dunque (N
t
)
t≥0
`e un processo di Markov omogeneo con nucleo di transizione
p : [0, +∞[ N {(N) → [0, 1], p(t, x, B) = e
−λt
¸
k∈B,k≥x
(λt)
k−x
(k −x)!
e il semigruppo markoviano su L

(N, {(N), µ) dove µ `e la misura di conteggio u {(N) `e
(T
t
f)(n) = e
−λt
¸
k≥n
(λt)
(k−n)
(k −n)!
f(k). (10.3)
Si verifica facilmente la propriet`a di continuit`a in t richiesta nel paragrafo percedente.
Proposizione 10.7 Il generatore del semigruppo markoviano del processo di Poisson `e
l’operatore A su L

(N, {(N)) dato da
(Af)(n) = λ(f(n + 1) −f(n)) .
Dimostrazione. Dalla (10.3) abbiamo subito
(T
t
f)(n) −f(n) = e
−λt
¸
k≥n
(λt)
(k−n)
(k −n)!
f(k) −f(n) = e
−λt
¸
k>n
(λt)
(k−n)
(k −n)!
(f(k) −f(n))
e quindi
(T
t
f)(n) −f(n)
t
= e
−λt
λ(f(n + 1) −f(n)) + e
−λt
¸
k>n+1
λ
k−n
t
k−n−1
(k −n)!
(f(k) −f(n)) .
10.3. PROCESSI DI DIFFUSIONE 105
Osservando che

e
−λt
¸
k≥n+2
λ
k−n
t
k−n−1
(k −n)!
(f(k) −f(n))

≤ 2λ|f|

e
−λt
¸
k≥n+2
(λt)
k−n−1
(k −n)!
≤ 2λ|f|

e
−λt
¸
h≥1
(λt)
h
h!
= 2λ|f|

1 −e
−λt

troviamo subito

(T
t
f)(n) −f(n)
t
−λ(f(n + 1) −f(n))

≤ 4λ|f|

1 −e
−λt

per ogni n e quindi
lim
t→0
+
sup
n≥0

(T
t
f)(n) −f(n)
t
−λ(f(n + 1) −f(n))

= 0.
Ne segue che ((T
t
f)−f)/t converge uniformemente verso la funzione n → λ(f(n+1)−f(n))
e cui la conclusione `e immediata.
Nel caso di un processo di nascita e morte con insieme degli stati N, utilizzando le
equazioni di Kolmogorov (all’avanti o all’indietro), si vede che il generatore `e l’operatore
(Af)(n) = λ
n
(f(n + 1) −f(n)) +ω
n
(f(n −1) −f(n))
dove le λ
n
(risp. ω
n
) sono le intensit`a delle transizioni (o salti) dallo stato n allo stato n+1
(risp. n −1).
Pi` u in generale, se il processo pu`o saltare da un punto n ad un altro punto m con
intensit`a λ
nm
allora (sotto opportune ipotesi non molto restrittive sulle intensit`a λ
nm
dei
salti) si trova che il generatore infinitesimale `e
(Af)(n) =
¸
m≥0
λ
nm
(f(m) −f(n)).
10.3 Processi di diffusione
Il moto browniano d-dimensionale (B
t
)
t≥0
`e un processo di Markov omogeneo. Infatti, come
si vede subito utilizzando l’indipendenza degli incrementi, per ogni f ∈ L

(R
d
, B(R
d
), dx)
e ogni s < t si ha
E[ f(B
t
) [ T
s
] =
1
(2π(t −s))
d/2

R
d
f(y) exp


[y −B
s
[
2
2(t −s)

dy.
Il nucleo di transizione `e quindi
p(t, x, E) =
1
(2πt)
d/2

E
e

|y−x|
2
2t
dy
per ogni E ∈ B(R
d
). Il semigruppo relativo `e definito di conseguenza. L’azione del generatore
infinitesimale A si calcola facilmente sulle funzioni di classe (
2
con tutte le derivate di ordine
106 10. PROCESSI DI MARKOV
minore o eguale a 2 limitate. Si ha infatti, grazie al Teorema 9.1
lim
t→0
+
(T
t
f)(x) −f(x)
t
= lim
t→0
+
1
t
E[ f(x +B
t
) −f(x) ]
= lim
t→0
+
1
t
E
¸
t
0
1
2
(∆f)(x +B
s
)ds

= lim
t→0
+
1
2t

t
0
E[ (∆f)(x +B
s
)ds ]
= lim
t→0
+
1
2t

t
0
(T
s
(∆f))(x)ds
=
1
2
(∆f)(x).
Il generatore infinitesimale del moto browniano d-dimensionale `e quindi 1/2 dell’operatore
Laplaciano.
Indichiamo con S
R
(x) = ¦ x ∈ R
d
[ [x[ ≤ R¦ la sfera di centro x e raggio R in R
d
. Si
potrebbe verificare che
lim
t→0
+
1
t
p(t, x, S
R
(x)
c
) = 0, lim
t→0
+
1
t

S
R
(x)
(y
k
−x −k)p(t, x, dy) = 0,
lim
t→0
+
1
t

S
R
(x)
(y
j
−x
j
)(y
k
−x
k
)p(t, x, dy) = δ
jk
dove δ
jk
= 0 se j = k e δ
jk
= 1 se j = k.
Le tre propriet`a precedenti sono tipiche dei processi markoviani detti processi diffusione.
Infatti, se (Ω, T, P) `e uno spazio probabilizzato con una filtrazione (T
t
)
t≥0
di sotto-σ-algebre
di T e
p :]0, +∞[R
d
B(R
d
) → [0, 1]
`e il nucleo di transizione di un processo di Markov omogeneo (X
t
)
t≥0
a traiettorie continue.
Teorema 10.8 Supponiamo che esistano i limiti
lim
t→0
+
1
t
p(t, x, B
R
(x)
c
) = 0, (10.4)
lim
t→0
+
1
t

B
R
(x)
(y
i
−x
i
)p(t, x, dy) = b
i
(x), (10.5)
lim
t→0
+
1
t

B
R
(x)
(y
i
−x
i
)(y
j
−x
j
)p(t, x, dy) = a
ij
(x). (10.6)
Allora le matrici (a
ij
(x))
1≤i,j≤d
sono semidefinite positive e il generatore di (X
t
)
t≥0
`e
(Af)(x) =
1
2
¸
1≤i,j≤d
a
ij
(x)

2
f
∂x
i
∂x
j
(x) +
¸
1≤j≤d
b
j
(x)
∂f
∂x
j
(x). (10.7)
Per la dimostrazione rimandiamo a P. Baldi Equazioni differenziali stocastiche e appli-
cazioni, Pitagora Editrice, Bologna 2000, Prop. 5.20 pp. 98–99.
Un processo markoviano con generatore del tipo (10.7) si chiama processo di diffusione.
La funzione di x a valori matrici (a
ij
(x))
1≤i,j≤d
si chiama covarianza e il campo vettoriale
(b
j
(x))
1≤j≤d
si chiama deriva.
10.4. MARTINGALE DI UN PROCESSO DI MARKOV 107
10.4 Martingale di un processo di Markov
La teoria delle martingale trova un’applicazione naturale nello studio dei processi di Markov.
In questo paragrafo vedremo come si trovano in modo semplice e naturale martingale, sotto
e supermartingale associate ad un processo di Markov.
Il primo risultato, una generalizzazione del Teorema 9.1, `e lo strumento di base per
utilizzare la teoria delle martingale nello studio dei processi di Markov.
Teorema 10.9 Sia f una funzione per la quale `e definito Af. Il processo (M
f
t
)
t≥0
definito
da
M
f
t
= f(X
t
) −

t
0
(Af)(X
s
)ds
`e una martingala.
Dimostrazione. Si ha infatti, grazie al teorema di Fubini,
E[ f(X
t
) −f(X
s
) [ T
s
] = (T
t−s
f)(X
s
) −f(X
s
)
=

t−s
0
(T
r
Af)(X
s
)ds
=

t−s
0
E[ (Af)(X
s+r
) [ T
s
] dr
=

t
s
E[ (Af)(X
r
) [ T
s
] dr
= E
¸
t
s
(Af)(X
r
) dr [ T
s

e quindi
E
¸
f(X
t
) −

t
0
(Af)(X
r
)dr [ T
s

= f(X
s
) −

s
0
(Af)(X
r
)dr
+ E
¸
f(X
t
) −f(X
s
) −

t
s
(Af)(X
r
)dr [ T
s

= f(X
s
) −

s
0
(Af)(X
r
)dr.
Il processo (M
f
t
)
t≥0
`e quindi una martingala.
Il risultato seguente fa intervenire il semigruppo invece del generatore. Premettiamo la
seguente definizione
Definizione 10.10 Una f ∈ L

(E, c, µ) si chiama superarmonica (risp. subarmonica,
armonica) se T
t
f ≤ f (risp. ≥, =) per ogni t ≥ 0.
Le funzioni subarmoniche, superarmoniche o armoniche determinano naturalmente sot-
timartingale, supermartingale e martingale associate al processo markoviano.
Proposizione 10.11 Se f ∈ L

(E, c) `e una funzione superarmonica (risp. subarmonica,
risp. armonica) per il semigruppo markoviano (T
t
)
t≥0
associato al processo (X
t
)
t≥0
allora
il processo (f(X
t
))
t≥0
`e una supermartingala.
108 10. PROCESSI DI MARKOV
Dimostrazione. Basta osservare che il processo (f(X
t
))
t≥0
`e adattato, le variabili aleatorie
f(X
t
) sono ovviamente integrabili perch´e limitate e
E[ f(X
t
) [ T
s
] = (T
t−s
f)(X
s
) ≤ f(X
s
)
per ogni t > s > 0.
Vale la pena di osservare che le conclusioni della proposizione precedente valgono anche
per funzioni f non limitate purch´e le variabili aleatorie (T
r
f)(X
s
) siano integrabili.
10.5 Propriet`a di Feller
Studiando i processi di Markov a valori in uno spazio metrico (o, addirittura, topologico)
E con la σ-algebra c dei boreliani di E si pu`o utilizzare questa propriet`a aggiuntiva che
semplifica le cose. In questo paragrafo consideriamo solo, per semplicit`a, il caso in cui E `e
lo spazio euclideo R
d
con la σ-algebra dei boreliani oppure un insieme numerabile come N,
N
d
, Z, Z
d
con la σ-algebra di tutti i suoi sottoinsiemi.
Un semigruppo markoviano definito da (10.2) `e determinato dalla sua azione sulle fun-
zioni continue e limitate su E poich´e ogni funzione c)-misurabile e limitata `e limite puntuale,
µ-quasi ovunque, di una successione di funzioni continue.
Sia (
0

(E; R) lo spazio di Banach delle funzioni continue su E con limite all’infinito con
la norma
|f|

= sup
x∈E
[f(x)[.
Nel caso in cui E sia uno degli insiemi numerabili elencati sopra, l’unica condizione che deve
soddisfare una f per essere nello spazio (
0

(E; R) `e avere limite all’infinito.
Definizione 10.12 Un semigruppo markoviano (T
t
)
t≥0
si chiama di Feller o felleriano se
1) T
t
f ∈ (
0

(R
d
; R) per ogni f ∈ (
0

(R
d
; R) e ogni t ≥ 0,
2) lim
t→0
|T
t
f −f|

= 0 per ogni f ∈ (
0

(R
d
; R).
Si vede subito che il semigruppo markoviano del processo di Poisson (Proposizione 10.7)
`e felleriano e, con un p`o pi` u di lavoro che lo `e anche il semigruppo del moto browniano.
Se un semigruppo `e felleriano di solito si denota con lo stesso simbolo anche la sua
restrizione a (
0

(E; R). Anche il generatore infinitesimale, sempre denotato con lo stesso
simbolo, `e una restrizione del generatore su L

(E, c, µ ed `e definito da
Dom(A) =

f ∈ (
0

(E; R) [ ∃ lim
t→0
+
(T
t
f −f) per | |

(Af)(x) = lim
t→0
+
T
t
f −f
t
.
Vale la pena si sottolineare il fatto che f appartiene al dominio Dom(A) di A se il limite
precedente esiste per la norma uniforme | |

ovvero
lim
t→0
+
sup
x∈E

t
−1
((T
f
)(x) −f(x)) −Af(x)

= 0.
Proposizione 10.13 Sia (T
t
)
t≥0
un semigruppo markoviano felleriano. Il suo generatore
infinitesimale A ha le propriet`a seguenti:
a) la funzione costante 1
E
appartiene a Dom(A) e A1
E
= 0,
10.6. IRRIDUCIBILIT
`
A E TEMPO DI SOGGIORNO IN UN INSIEME 109
b) (principio del massimo) se x ∈ E `e un punto di massimo assoluto per una funzione
f ∈ Dom(A) allora (Af)(x) ≤ 0.
Dimostrazione. La propriet`a a) segue immediatamente dall’identit`a T
t
1
E
= 1
E
. Per verifi-
care la b) osserviamo che, se x `e un punto di massimo assoluto per f allora, posto c = f(x),
abbiamo
(T
t
f)(y) ≤ (T
t
c1
E
)(y) = c = f(x)
per ogni y ∈ E grazie alla positivit`a di T
t
. Ne segue che
(T
t
f)(x) −f(x)
t
≤ 0
e quindi, prendendo il limite per t → 0
+
, troviamo (Af)(x) ≤ 0.
10.6 Irriducibilit`a e tempo di soggiorno in un insieme
Sia (Ω, T, P) uno spazio probabilizzato e (T
t
)
t≥0
una filtrazione di sotto-σ-algebre di T. Sia
inoltre
p :]0, +∞[E c → [0, 1]
il nucleo di transizione dei processi di Markov omogenei (X
x
t
)
t≥0
a valori un sottoinsieme E
di R
d
con insieme dei tempi [0, +∞[, legge iniziale δ
x
e (T
t
)
t≥0
il semigruppo markoviano
associato. Nel s´eguito supporremo sempre che i processi (X
x
t
)
t≥0
abbiano traiettorie regolari.
Indicheremo con E
x
la speranza rispetto alla misura di probabilit`a P
x
determinata dalla
legge iniziale δ
x
di X
0
e dalla transizione markoviana p. Ricordiamo che il semigruppo
(T
t
)
t≥0
induce un semigruppo, denotato sempre nello stesso modo, su L

(E, c, µ) poich´e
abbiamo supposto che tutte le misure p(t, x, ) (t > 0) siano assolutamente continue rispetto
alla misura di riferimento µ.
Osserviamo che, data la continuit`a a destra delle traiettorie, per ogni funzione f continua
e limitata su E, la funzione t → T
t
f(x) `e pure continua a destra dunque `e misurabile.
Definizione 10.14 Il processo markoviano (X
t
)
t≥0
si chiama irriducibile se, gli unici in-
siemi A ∈ c tali che p(t, x, A) = 0 per µ-quasi ogni x ∈ A
c
e ogni t > 0 soddisfano µ(A) = 0
oppure µ(A
c
) = 0.
Diciamo quindi che un processo markoviano `e irriducibile se (a meno di insiemi µ-
trascurabili) non esiste nessun sottoinsieme (misurabile) proprio di E nel quale il processo,
partendo da fuori di esso, non pu`o entrare.
Proposizione 10.15 Le condizioni seguenti sono equivalenti:
1. il processo (X
t
)
t≥0
`e irriducibile,
2. per ogni A ∈ c tale che T
t
1
A
≤ 1
A
risulta µ(A) = 0 oppure µ(A
c
) = 0.
Dimostrazione. Dato che
(T
t
1
A
)(x) ≤ (T
t
1
E
)(x) = 1
per µ-quasi ogni x ∈ E, `e chiaro che T
t
1
A
≤ 1
A
se e solo se (T
t
1
A
)(x) = 0 per µ-quasi
ogni x ∈ A
c
. L’equivalenza delle due affermazioni segue subito dall’identit`a (T
t
1
A
)(x) =
p(t, x, A).
Per studiare il comportamento del processo, cos`ı come abbiamo fatto per il moto brow-
niano multimensionale e per alcuni processi da questo ottenuti, introduciamo la variabile
aleatoria che rappresenta il tempo trascorso dal processo in un certo insieme
110 10. PROCESSI DI MARKOV
Definizione 10.16 Si chiama tempo di soggiorno del processo (X
t
)
t≥0
nell’insieme A ∈ c
la variabile aleatoria τ
A
a valori [0, +∞]
τ
A
=


0
1
A
(X
s
)ds.
Si chiama tempo medio di soggiorno in A partendo da x la speranza E
x

A
] (eventualmente
uguale a +∞).
Per verificare che τ
A
`e effettivamente una variabile aleatoria basta osservare che, grazie
alla regolarit`a delle traiettorie, l’applicazione definita su [0, +∞[Ω a valori in E
(s, ω) → X
s
(ω)
`e misurabile rispetto alle σ-algebre B([0, +∞[) ⊗T sul dominio e c sul codominio e quindi,
l’applicazione
(s, ω) → 1
A
(X
s
(ω))
ottenuta per composizione con la funzione 1
A
definita su c, `e pure misurabile. La funzione
τ
A
risulta quindi misurabile per il teorema di Fubini.
Una semplice applicazione dello stesso teorema permette di verificare che
Proposizione 10.17 Il tempo medio di soggiorno in un insieme A `e dato da
E
x

A
] =


0
(T
s
1
A
)(x)ds.
Dimostrazione. Si ha infatti
E
x

A
] = E
x
¸

0
1
A
(X
s
)ds

=


0
E
x
[1
A
(X
s
)] ds
=


0
(T
s
1
A
)(x)ds.
Indichiamo con ´
+
(E, c, µ) l’insieme delle funzioni c-misurabili su E a valori [0, +∞].
La definizione degli operatori (T
t
)
t≥0
si estende immediatamente a ´
+
E, c, µ) ponendo
T
t
f = sup
n≥1
(T
t
(f ∧ n)), (f ∈ ´
+
(E, c, µ)) .
Definizione 10.18 Si chiama potenziale associato al semigruppo markoviano (T
t
)
t≥0
l’applicazione
U : ´
+
(E, c, µ) → ´
+
(E, c, µ) definita da
(Uf)(x) =


0
(T
s
f)(x)ds.
Il potenziale di una funzione f non negativa ha la seguente propriet`a.
Proposizione 10.19 Sia f una funzione non negativa. Il potenziale Uf `e una funzione
superarmonica.
Dimostrazione. Per ogni t > 0 si ha infatti
T
t
(Uf) = T
t


0
T
s
fds =


0
T
t+s
fds =


t
T
s
fds ≤


0
T
s
fds = Uf.
10.7. RICORRENZA E TRANSIENZA 111
Esempio 10.1 (Potenziale del processo di Poisson) Sia (T
t
)
t≥0
il semigruppo del processo
di Poisson di parametro λ dato da (10.3). Con semplici calcoli si vede subito che, per ogni
f : N → [0, +∞[ si ha
(Uf)(n) =
¸
k≥n
f(k)
k!


0
e
−λt
(λt)
k
dt
=
1
λ
¸
k≥n
f(k)
k!


0
e
−s
s
k
ds
=
1
λ
¸
k≥n
f(k)
poich´e l’integrale `e uguale a k!. In particolare, il potenziale `e una funzione limitata se la
serie
¸
k
f(k) `e convergente.
Esempio 10.2 (Moto browniano d-dimensionale) Il semigruppo markoviano (T
t
)
t≥0
`e dato
da
(T
t
f)(x) =
1
(2πt)
d/2

R
d
f(y)e
−]y−x]
2
/2t
dy
Consideriamo prima il caso in cui d ≥ 3. Per ogni f boreliana non negativa abbiamo
(Uf)(x) =


0
dt
(2πt)
d/2

R
d
f(y)e
−]y−x]
2
/2t
dy
=

R
d
f(y)dy


0
e
−]y−x]
2
/2t
(2πt)
d/2
dt.
Osserviamo che, con il cambiamento di variabili s = R
2
/2t, si ha


0
e
−R
2
/2t
(2πt)
d/2
dt =
1
π
d/2
R
d−1


0
e
−s
s
d/2−2
ds
=
Γ(d/2 −1)
π
d/2
R
d−2
.
Il potenziale Uf `e quindi
(Uf)(x) =
Γ(d/2 −1)
π
d/2

R
d
f(y)
[y −x[
d−2
dy.
`
E abbastanza facile verificare che, se f `e una funzione a supporto compatto, allora Uf `e una
funzione limitata.
Nei casi in cui d = 1 e d = 2 l’integrale rispetto a t `e divergente (a meno che f sia µ-quasi
ovunque nulla) e, dunque, il potenziale Uf `e infinito.
10.7 Ricorrenza e transienza
I processi di Markov irriducibili si dividono in due classi: quelli il cui tempo medio di
soggiorno negli insiemi limitati `e infinito (processi ricorrenti) e quelli il cui tempo medio di
soggiorno in ogni insieme limitato `e finito (processi transienti). I processi transienti tendono
quindi a muoversi verso l’infinito.
La classificazione dei processi di Markov in transienti e ricorrenti generalizza l’analoga
classificazione delle catene di Markov.
Lo studio del potenziale `e lo strumento fondamentale per stabilire se un processo `e
transiente o ricorrente. Iniziamo quindi con il risultato seguente
112 10. PROCESSI DI MARKOV
Teorema 10.20 Le condizioni seguenti sono equivalenti:
1. esiste una f ∈ L

(E, c, µ) strettamente positiva con potenziale Uf limitato,
2. esiste una f ∈ L

(E, c, µ) non negativa con potenziale Uf finito e strettamente posi-
tivo µ-quasi ovunque,
3. esiste una successione non decrescente (A
n
)
n≥1
di elementi di c la cui unione `e
l’insieme E (a meno di insiemi µ-trascurabili) tali che U1
A
n
sia limitato.
Dimostrazione. 1. ⇒ 2.
`
E evidente poich´e se f `e strettamente positiva allora anche Uf `e
strettamente positivo.
2. ⇒ 1. Sia f ∈ L

(E, c, µ) non negativa con potenziale Uf finito e strettamente positivo
µ-quasi ovunque. Ricordiamo che, grazie alla Proposizione 10.19, il potenziale Uf di f `e
una funzione superarmonica ovvero T
t
Uf ≤ Uf per ogni t ≥ 0 e inoltre, dato che f `e
strettamente positiva, si ha T
t
Uf < Uf per ogni t > 0. Poich´e la funzione r → r/(1 +r) su
[0, +∞[ `e concava, posto g = Uf/(1 +Uf), grazie alla diseguaglianza di Jensen abbiamo
T
t
g(x) = E
x
¸
(Uf)(X
t
)
1 + (Uf)(X
t
)


E
x
[(Uf)(X
t
)]
1 +E
x
[(Uf)(X
t
)]
=
(T
t
Uf)(x)
1 + (T
t
Uf)(x)
.
La funzione r → r/(1 +r) su [0, +∞[ `e inoltre strettamente crescente e quindi
T
t
g(x) ≤
(Uf)(x)
1 + (Uf)(x)
= g(x)
e T
t
g < g per ogni t > 0 perch´e T
t
Uf < Uf per ogni t > 0. Posto h = g −T
1
g abbiamo una
funzione strattamente positiva con
(Uh)(x) =


0
((T
t
g)(x) −(T
t+1
g)(x)) dt =

1
0
(T
t
g)(x)dt ≤ |g|

≤ 1
cio`e con potenziale limitato da 1.
2. ⇒ 3. Basta considerare A
n
= ¦ x ∈ E [ f(x) ≥ 1/n¦ e osservare che 1
A
n
≤ nf da cui
(U1
A
n
)(x) ≤ n(Uf)(x)
poich´e gli operatori T
t
del semigruppo markoviano sono positivi.
3. ⇒ 1. Basta considerare la funzione f definita da
f(x) =
¸
n≥1
2
−n
|U1
A
n
|
−1

1
A
n
(x)
dove | |

indica l’estremo superiore essenziale di U1
A
n
. Questa f `e strettamente positiva
perch´e l’unione degli A
n
`e uguale a E e ha potenziale limitato perch´e
|Uf|


¸
n≥1
2
−n
|U1
A
n
|
−1

|U1
A
n
|

=
¸
n≥1
2
−n
= 1.
Il teorema `e cos`ı dimostrato.
10.8. MISURE INVARIANTI 113
Supponendo che il semigruppo markoviano sia di Feller ovvero che: E `e uno spazio
metrico, c `e la σ-algebra dei boreliani di E e la funzione x → (T
t
f)(x) `e continua per
ogni f continua. Allora si pu`o prendere come successione (A
n
)
n≥1
una successione di sfere
(B(x, r
n
))
n≥1
con centro un qualunque punto di E e raggi r
n
divergenti a +∞.
In modo simile al Teorema 10.20 si dimostra il seguente
Teorema 10.21 Le condizioni seguenti sono equivalenti:
1. per ogni funzione f non negativa e quasi ogni x ∈ E risulta (Uf)(x) = 0 oppure
(Uf)(x) = +∞,
2. per ogni insieme A ∈ c risulta (U1
A
)(x) = 0 oppure (U1
A
)(x) = +∞.
Definizione 10.22 Un processo markoviano si chiama ricorrente se valgono le condizioni
equivalenti del Teorema 10.21, si chiama transiente se valgono le condizioni equivalenti del
Teorema 10.20.
Teorema 10.23 Un processo markoviano irriducibile `e transiente o ricorrente.
Dimostrazione. (idea)Basta dimostrare che la funzione indicatrice dell’insieme delle x ∈ E
tali che (Uf)(x) < +∞ `e subarmonica e quindi, per l’irriducibilit`a l’insieme stesso o il suo
complementare devono avere misura nulla.
Teorema 10.24 Un processo markoviano irriducibile `e transiente se e solo se esiste una
f : E → [0, +∞[ non costante tale che T
t
f ≤ f per ogni t ≥ 0.
Dimostrazione. (idea) Se il processo `e transiente allora esiste una f : E → [0, +∞[ tale che
0 < Uf(x) < +∞ per µ-quasi ogni x. Posto g = Uf si ha allora T
t
g ≤ g. La funzione g non
e’ costante perche’, se lo fosse, si avrebbe T
t
g = g per ogni t ≥ 0. Tuttavia
lim
t→∞
T
t
g = lim
t→∞


t
T
s
fds = 0
e quindi g non pu`o essere costante.
Viceversa, se esiste una f con le propriet`a suddette, detto A il generatore del semigruppo
(T
t
)
t≥0
, poniamo g = −Af. Dato che T
t
f ≤ f per ogni t ≥ 0, la g risulta non negativa. Si
ha inoltre

t
0
T
s
gds =

t
0

d
ds
T
s
fds = [−T
s
f]
t
0
= f −T
s
f ≤ f.
Facendo tendere t all’infinito si vede che Ug ≤ f e dunque abbiamo trovato una g con
potenziale finito µ quasi ovunque.
Nota. La dimostrazione del “viceversa” del teorema precedente `e incompleta per due ra-
gioni: 1) la g potrebbe essere la funzione nulla, 2) la f potrebbe non appartenere al dominio
del generatore A. La dimostrazione completa per`o sarebbe pi` u tecnica e la omettiamo.
10.8 Misure invarianti
Sia (Ω, T, P) uno spazio probabilizzato e (T
t
)
t≥0
una filtrazione di sotto-σ-algebre di T. Sia
inoltre p il nucleo di transizione di un processo di Markov omogeneo (X
t
)
t≥0
a valori in E
con insieme dei tempi [0, +∞[ e (T
t
)
t≥0
il semigruppo markoviano su L

(E, c, µ) associato.
114 10. PROCESSI DI MARKOV
Definizione 10.25 Una misura di probabilit`a ν su c si chiama invariante se, per ogni
f ∈ M
b
(c) e ogni t ≥ 0, si ha

E
f(x)ν(dx) =

E
(T
t
f)(x)ν(dx).
Il semigruppo markoviano agisce sulle misure limitate ν su c nel modo seguente
(νT
t
)(A) =

E
ν(dx)(T
t
1
A
)(x).
In particolare, se g `e una densit`a di probabilit`a su E (ovvero una funzione g non negativa su
E, c-misurabile il cui integrale su E rispetto a µ `e uguale a 1) e ν la misura di probabilit`a
su E di base µ allora si ha
(νT
t
)(A) =

E
µ(dx)g(x)(T
t
1
A
)(x).
In questo caso, indicheremo con gT
t
la densit`a di νT
t
rispetto a µ. Utilizzeremo inoltre la
notazione
'g, T
t
f` :=

E
g(x)(T
t
f(x))µ(dx)
per f ∈ L

(E, c, µ) e g ∈ L
1
(E, c, µ).
Teorema 10.26 Siano g
0
, g

densit`a di probabilit`a su c e (t
n
)
n≥1
una successione diver-
gente a +∞ tale che
lim
n→∞

1
t
n

t
n
0
(g
0
T
s
)ds, f

= ' g

, f ` (10.8)
per ogni f ∈ L

(E, c, µ). Allora g

`e la densit`a di una misura invariante.
Osserviamo che la condizione (10.8) equivale alla convergenza debole in L
1
(E, c, µ) della
successione di densit`a di probabilit`a su E
1
t
n

t
n
0
(g
0
T
s
)ds.
Dimostrazione. Occorre verificare che g

T
t
= g

per ogni t ≥ 0. Si vede subito che
1
t
n

t
n
0
(g
0
T
s
)dsT
t
=
1
t
n

t
n
0
(g
0
T
s+t
)ds
=
1
t
n

t+t
n
t
(g
0
T
s
)ds
=
1
t
n

t
n
0
(g
0
T
s
)ds −
1
t
n

t
0
(g
0
T
s
)ds +
1
t
n

t+t
n
t
n
(g
0
T
s
)ds
per ogni n ≥ 1. Facendo tendere n all’infinito, il primo termine converge (debolmente in
L
1
(E, c, µ)) a g

. Il secondo e il terzo tendono a 0 perch´e gli integrali sono limitati, infatti

t+t
n
t
n
(g
0
T
s
)ds

1

t+t
n
t
n
|(g
0
T
s
)|
1
ds ≤

t+t
n
t
n
|g
0
|
1
ds = t|g
0
|
1
e 1/t
n
tende a 0.
10.8. MISURE INVARIANTI 115
Il Teorema precedente non fornisce un metodo pratico per il calcolo delle densit`a delle
misure invarianti. Per determinarle effettivamente si pu`o partire dall’osservazione che una
densit`a invariante g soddifa la condizione
'g, T
t
f` = 'g, f`
per ogni t ≥ 0 e ogni f ∈ L

(E, c, µ). Ne segue che , derivando in 0,
'g, Af` = 0
per ogni f nel dominio del generatore A. Nel caso in cui A sia un operatore differenziale si
pu`o calcolare g con un’integrazione per parti e risolvendo poi un’equazione differenziale
116 10. PROCESSI DI MARKOV
10.9 Esercizi
Esercizio 10.1 Sia (N
t
)
t≥0
un processo di Poisson con parametro λ > 0. Mostrare che il
processo (X
t
)
t≥0
definito da X
t
= N
t
−λt `e un processo di Markov ricorrente.
Esercizio 10.2 Sia (N
t
)
t≥0
un processo di Poisson con parametro λ >. Mostrare che il
processo (X
t
)
t≥0
definito da
X
t
= (−1)
N
t
`e un processo di Markov, determinare il semigruppo associato e il suo generatore. Mostrare
che il processo (X
t
)
t≥0
`e ricorrente.
11
Appendice
11.1 Somme di variabili aleatorie indipendenti
Nel Calcolo delle Probabilit`a si pone spesso il problema di trovare la legge di una somma di
variabili aleatorie indipendenti con leggi date.
Nel caso particolare di due varibili aleatorie reali X
1
, X
2
con densit`a f
1
, f
2
, come `e ben
noto, la densit`a di X
1
+X
2
`e data dalla funzione f
1
∗ f
2
, chiamata prodotto di convoluzione
di f
1
e f
2
, definita da
(f
1
∗ f
2
)(s) =

R
f
1
(s −r)f
2
(r)dr
In generale si d`a la definizione seguente
Definizione 11.1 Siano X
1
, . . . , X
n
variabili aleatorie reali indipendenti con leggi µ
1
, . . . , µ
n
.
Si chiama prodotto di convoluzione delle µ
1
, . . . , µ
n
la legge della somma X
1
+ +X
n
.
Molte leggi notevoli sono prodotto di convoluzione di un certo numero n di altre leggi.
Certe leggi notevoli sono esprimibili come prodotto di convoluzione di k leggi di probabilit`a
qualunque sia k.
Le leggi di Poisson e normale, per esempio, godono di questa propriet`a. Infatti, per ogni
k ≥ 1, la legge di Poisson di parametro λ `e prodotto di convoluzione di k leggi di Poisson
di parametro λk. Analogamente la legge normale N(µ, σ
2
) `e prodotto di convoluzione di k
leggi normali N(µk, σ
2
k).
Le leggi che godono di questa propriet`a si chiamano infinitamente divisibili e sono carat-
terizzate dal seguente
Teorema 11.2 Una legge di probabilit`a µ su B(R) `e infinitamente divisibile se e solo se la
sua funzione caratteristica ϕ si pu`o rappresentare nella forma
ϕ(t) = exp

itm−
σ
2
t
2
2
+

R

e
itx
−1 −
itx
1 +x
2

ν(dx)

dove m ∈ R, σ
2
≥ 0 e ν `e una misura su B(R) tale che

R
x
2
1 +x
2
ν(dx) < ∞.
117
118 11. APPENDICE
11.2 Speranza di una variabile aleatoria non negativa
Mostreremo la seguente formula notevole sulla speranza di una variabile aleatoria reale estesa
non negativa V definita su uno spazio probabilizzato (Ω, T, P)
E[ V ] =


0
P¦ V > x¦ dx. (11.1)
Infatti, grazie al teorema di Fubini, si ha
E[ V ] =


V (ω)dP(ω)
=


dP(ω)

V (ω)
0
dx
=

Ω·[0,+∞[
1
[0,V (ω)[
(x)dx
=


0
dx


1
¦ V >x ¦
(ω)dP(ω)
=


0
dxP¦ V > x¦ dx.
Osserviamo che la formula (11.1) vale anche scrivendo P¦ V ≥ x¦ al posto di P¦ V > x¦
come si vede s` ubito dalla dimostrazione.
Nel caso in cui la variabile aleatoria V abbia valori in N si pu`o dimostrare analogamente
la formula
E[ V ] =

¸
n=0
P¦ V > n¦ . (11.2)
Questa formula si pu`o anche dedurre immediatamente dalla (11.1) osservando che


0
dxP¦ V > x¦ dx =

¸
n=0

n+1
n
P¦ V > x¦ dx
=

¸
n=0

n+1
n
P¦ V > n¦ dx
=

¸
n=0
P¦ V > n¦ .
11.3 Funzioni α-h¨olderiane
Una funzione f definita su un intervallo [a, b] a valori reali si chiama α-h¨olderiana oppure
h¨olderiana con esponente α se soddisfa la diseguaglianza
[f(t) −f(s)[ ≤ K[t −s[
α
con α ∈]0, 1] e K costante per ogni t, s ∈]a, b[. La costante K potrebbe dipendere da f, a, b
ma, naturalmente, deve essere indipendente da t, s. Nel caso in cui α = 1 la f si dice
lipschitziana.
Una funzione α-h¨olderiana `e anche β-h¨olderiana per ogni β ∈]0, α]. Infatti si ha
[t −s[
α
= [t −s[
α−β
[t −s[
β
≤ (b −a)
α−β
[t −s[
β
11.4. UNIFORME INTEGRABILIT
`
A 119
Una funzione α-holderiana `e continua anzi, addirittura uniformemente continua, ma non
necessariamente derivabile. Basta pensare alla funzione modulo x → [x[ per mostrare una
funzione f : [−1, 1] → R lipschitziana (dunque α-h¨olderiana per ogni α ∈]0, 1]) che non `e
derivabile in tanti punti. Infatti, presa una successione (r
n
)
n≥1
densa in [−1, 1], la funzione
f(x) =
¸
n≥1
2
−n
[x −r
n
[
`e lipschitziana ma non derivabile in ogni punto r
n
.
Il seguente esempio notevole `e utile per capire quanto irregolare pu`o essere una funzione
h¨olderiana.
Proposizione 11.3 Qualunque siano b > 0 e θ ∈]0, 1] la funzione
f : [0, b] → R, f(t) = [t[
θ
soddisfa
[f(t) −f(s)[ ≤ [t −s[
θ
dunque `e θ-h¨olderiana con costante K = 1.
Dimostrazione. Basta verificare la diseguaglianza precedente per ogni t > s ≥ 0. Se θ = 1
si tratta di una nota propriet
`
del modulo. Supponiamo quindi θ ∈]0, 1[.
Ponendo x = s/t basta verificare che, per ogni x ∈ [0, 1] si ha

1 −x
θ

≤ [1 −x[
θ
.
Condideriamo la funzione
ϕ :]0, 1] → R, ϕ(x) =

1 −x
θ

[1 −x[
θ
.
Si verifica facilmente (con la regola dell’Hˆopital) che
ϕ(0) = 1, lim
x→1

ϕ(x) = (1 −x)
1−θ
x
θ−1
= 0.
Inoltre, calcolando la derivata, si trova
ϕ
t
(x) = θ(x
θ−1
−1)(1 −x)
−(θ+1)
≤ 0
per ogni x ∈]0, 1[. Ne segue che la funzione ϕ `e non-crescente su [0, 1] e quindi ϕ(x) ≤
ϕ(0) = 1 per ogni x ∈ [0, 1].
Il caso in cui α > 1 non `e interessante perch´e
lim
t→s
[f(t) −f(s)[ ≤ K lim
t→s
[t −s[
α−1
= 0.
Dunque f `e derivabile con derivata nulla e quindi costante.
11.4 Uniforme integrabilit`a
L’uniforme integrabilit`a `e una propriet`a di una famiglia di funzioni che si utilizza spesso
nei passaggi al limite sotto il segno d’integrale quando non `e possibile applicare il pi` u noto
teoremi sulla convergenza dominata.
Sia (E, c, µ) uno spazio di misura
120 11. APPENDICE
Definizione 11.4 Una famiglia (f
α
)
α∈A
di funzioni reali estese su E, c-misurabili e µ-
integrabili, si chiama uniformemente integrabile se
lim
c→+∞
sup
α∈A

¦ x∈E ] ]f
α
(x)]>c ¦
[f
α
(x)[ µ(dx) = 0. (11.3)
Osserviamo che, se la misura µ `e finita cio`e µ(E) < +∞, allora una famiglia (f
α
)
α∈A
uni-
formemente integrabile `e uniformemente limitata in L
1
(E, c, µ). Infatti, detto c un numero
reale strettamente positivo tale che

¦ x∈E ] ]f
α
(x)]>c ¦
[f
α
(x)[ µ(dx) < 1
per ogni α ∈ A si ha

E
[f
α
(x)[ µ(dx) =

¦ x∈E ] ]f
α
(x)]≤c ¦
[f
α
(x)[ µ(dx) +

¦ x∈E ] ]f
α
(x)]>c ¦
[f
α
(x)[ µ(dx)
≤ cµ(E) + 1.
Come abbiamo detto l’uniforme integrabilit`a `e una condizione pi` u debole dell’uniforme
dominazione. Vale infatti la seguente
Proposizione 11.5 Una famiglia (f
α
)
α∈A
di funzioni reali estese su E, c-misurabili tali
che [f
α
[ ≤ g per qualche funzione reale estesa g, c-misurabile e µ-integrabile `e uniforme-
mente integrabile.
Dimostrazione. Si ha infatti, per ogni α ∈ A e c > 0,

¦ x∈E] ]f
α
(x)]>c ¦
[f
α
(x)[ µ(dx) ≤

¦ x∈E] ]f
α
(x)]>c ¦
g(x)µ(dx) = 0
e, inoltre,
µ¦ x ∈ E [ [f
α
(x)[ > c ¦ ≤
1
c

E
[f
α
(x)[µ(dx) ≤
1
c

E
g(x)µ(dx).
Ne segue che µ¦ x ∈ E [ [f
α
(x)[ > c ¦ converge verso 0 per c tendente all’infinito uniforme-
mente in α ovvero per ogni δ > 0 esiste un c(δ) > 0 tale che
sup
α
µ¦ x ∈ E [ [f
α
(x)[ > c ¦ < δ
per ogni c > c(δ). Dato che la funzione g `e µ-integrabile, per ogni ε > 0 esiste un δ > 0 tale
che se µ(F) < δ allora

F
g(x)µ(dx) < ε.
Si ha quindi, per ogni c > c(δ) e α ∈ A

¦ x∈E] ]f
α
(x)]>c ¦
[f
α
(x)[ µ(dx) ≤

¦ x∈E] ]f
α
(x)]>c ¦
g(x)µ(dx) < ε.
La condizione (11.3) `e cos`ı verificata.
La proposizione seguente d`a un’altra condizione sufficiente per l’uniforme integrabilit`a.
Ricordiamo che una famiglia di funzioni reali estese su E (f
α
)
α∈A
, c-misurabili, `e detta
limitata in L
p
(E, c, µ) se
sup
α∈A

E
[f(x)[
p
µ(dx) < ∞.
11.4. UNIFORME INTEGRABILIT
`
A 121
Proposizione 11.6 Supponiamo che µ(E) < +∞. Una famiglia (f
α
)
α∈A
limitata in L
p
(E, c, µ)
con p > 1 `e uniformemente integrabile.
Dimostrazione. Posto
M :=

sup
α∈A

E
[f
α
(x)[
p
µ(dx)

1/p
,
e q = p/(p − 1), indicando con ¦ [f
α
[ > c ¦ l’insieme ¦ x ∈ E [ [f
α
(x)[ > c ¦, grazie alla
diseguaglianza di H¨older abbiamo

¦ ]f
α
]>c ¦
[f
α
(x)[ µ(dx) ≤ (µ¦ [f
α
[ > c ¦)
1
q

E
[f
α
(x)[
p
µ(dx)
1
p
≤ M (µ¦ [f
α
[ > c ¦)
1
q
Inoltre, come nella dimostrazione della Proposizione 11.5,
µ¦ [f
α
[ > c ¦ ≤
1
c

¦ ]f
α
]>c ¦
[f
α
(x)[µ(dx)

1
c
(µ¦ [f
α
[ > c ¦)
1
q

E
[f
α
(x)[
p
µ(dx)
1
p

M
c
(µ¦ [f
α
[ > c ¦)
1
q
.
Ne segue che, per ogni α
µ¦ [f
α
[ > c ¦ ≤ (M/c)
p
,
La misura dell’insieme ¦ [f
α
[ > c ¦ converge quindi verso 0 per c tendente all’infinito uni-
formemente in α e la conclusione segue come nella Proposizione 11.5.
Mostriamo ora il teorema sul passaggio al limite nell’integrale che si utilizza nella di-
mostrazione del teorema d’arresto. Enunciamo il risultato per successioni ma evidentemente
vale anche per famiglie di funzioni indicizzate, per esempio, da un parametro in un intervallo
(eventualmente illimitato) di R.
Teorema 11.7 Sia (E, c, µ) uno spazio di misura con µ(E) < ∞ ed (f
n
)
n≥1
una suc-
cessione di funzioni reali estese c-misurabili, µ-integrabili, uniformemente integrabili, che
convergano µ-quasi ovunque verso una funzione f. Allora f `e µ-integrabile e
lim
n→∞

E
f
n
(x)µ(dx) =

E
f(x)µ(dx).
Dimostrazione. La funzione f `e µ-integrabile; infatti, grazie al lemma di Fatou,

E
[f(x)[µ(dx) ≤ liminf
n→∞

E
[f
n
(x)[µ(dx) < ∞
poich´e, come abbiamo osservato, se µ(E) < ∞, allora l’uniforme integrabilit`a garantisce che
la successione (f
n
)
n≥1
`e limitata in L
1
(E, c, µ).
Verifichiamo che possono scambiare limite e integrale. Grazie all’uniforme integrabilit`a,
per ogni ε > 0, possiamo trovare un c(ε) > 0 tale che

¦ x∈E] ]f
n
(x)]>c ¦
[f
n
(x)[µ(dx) < ε
122 11. APPENDICE
per ogni n ≥ 1 e ogni c > c(ε). Si ha allora

E
f
n
dµ −

E
fdµ

¦ ]f
n
]≤c ¦
(f
n
−f) dµ

+

¦ ]f
n
]>c ¦
f
n

+

¦ ]f
n
]>c ¦
f dµ

¦ ]f
n
]≤c ¦
(f
n
−f) dµ

+

¦ ]f
n
]>c ¦
f dµ

+ε.
Dato che f `e integrabile e, come nella dimostrazione della Proposizione 11.5,
µ¦ [f
n
[ > c ¦ ≤ c
−1

E
[f
n
[dµ ≤ c
−1
sup
n≥1

E
[f
n
[dµ
per ogni c > 0, prendendo eventualmente un c(ε) pi` u grande del precedente abbiamo quindi

¦ ]f
n
]>c ¦
f dµ

< ε
per ogni n ≥ 1 e c > c(ε) da cui

E
f
n
dµ −

E
fdµ

¦ ]f
n
]≤c ¦
(f
n
−f) dµ

+ 2ε.
Sull’insieme ¦ [f
n
[ ≤ c ¦ si ha evidentemente [f
n
− f[ ≤ c + [f[ e quindi, grazie al teorema
della convergenza dominata,
limsup
n→∞

E
f
n
dµ −

E
fdµ

≤ 2ε.
La conclusione segue dall’arbitrariet`a di ε.
Osserviamo che il teorema precedente `e falso se la misura µ non `e finita come mostra il
seguente controesempio. Consideriamo E = R con la σ-algebra c dei boreliani di R e sia µ
la misura di Lebesgue su E. La successione di funzioni (f
n
)
n≥1
definita da
f
n
(x) = 1
[n,n+1]
`e uniformemente integrabile perch´e l’insieme ¦ x ∈ E [ [f
n
(x)[ > 1 ¦ `e vuoto per ogni n ≥ 1
e converge verso 0. Tuttavia si ha
lim
n→∞

E
f
n
(x)µ(dx) = lim
n→∞
1 = 1 = 0.
Il Teorema 11.7 e la Proposizione 11.5 fanno sorgere spontaneamente la domanda: es-
istono successioni di funzioni uniformemente integrabili, convergenti puntualmente e non
dominate? La risposta `e affermativa come mostra il seguente esempio (e il fatto che, se cos`ı
non fosse, ci saremmo accontentati del classico teorema della convergenza dominata).
Consideriamo lo spazio probabilizzato (E, c, µ) dove E = [0, +∞[, c `e la σ-algebra dei
boreliani di [0, +∞[ e µ `e la misura definita dalla densit`a x → (1 +x)
2
ovvero
µ(B) =

B
dx
(1 +x)
2
11.4. UNIFORME INTEGRABILIT
`
A 123
per ogni boreliano B contenuto in [0, +∞[. Per ogni n ≥ 1 sia f
n
la funzione
f
n
(x) = n
α
1
]n,n+1]
(x)
con α > 0 che `e integrabile su [0, +∞[ poich´e

[0,+∞[
f
n
(x)
(1 +x)
2
dx = n
α

n+1
n
dx
(1 +x)
2
=
n
α
n(n + 1)
.
La successione di funzioni (f
n
)
n≥1
`e dunque limitata in L
1
(E, c, µ) per α ≤ 2. Inoltre `e
uniformemente integrabile per α < 2. Infatti, qualunque sia c > 0 `e chiaro che, per n ≥ c
1/α
si ha

¦ ]f
n
]>c ¦
f
n
dµ =

[0,+∞[
f
n
dµ =
n
α
n(n + 1)
mentre per n < c
1/α
l’integrale qui sopre `e nullo. Per α < 2 si ha quindi
0 ≤ lim
c→∞
sup
n≥1

¦ ]f
n
]>c ¦
f
n
dµ ≤ lim
c→∞
c
c
1/α
(c
1/α
+ 1)
= 0
e la successione (f
n
)
n≥1
`e uniformemente integrabile.
Verifichiamo infine che non `e dominata da nessuna funzione integrabile. Infatti, se g `e
una funzione che soddisfa f
n
≤ g per ogni n ≥ 1, allora si ha
g ≥
¸
n≥1
f
n
e quindi

[0,+∞[
gdµ ≥

[0,+∞[
f
n
dµ =
¸
n≥1
n
α
n(n + 1)
= +∞
per ogni α > 0.
Si potrebbe verificare che l’uniforme integrabilit`a `e condizione necessaria per ottenere la
conclusione del Teorema 11.7.

2

Indice
1 Richiami di probabilit` a 1.1 Variabili aleatorie . . . 1.2 Valore atteso . . . . . 1.3 Indipendenza . . . . . 1.4 Esercizi . . . . . . . . 3 . 5 . 7 . 10 . 12 15 15 16 17 19 20 21 23 24 26 28 29 30 30 32 33 33 36 40 42

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

2 Il processo di Bernoulli 2.1 Costruzione . . . . . . . . . . . . . . . . . . . . . . . 2.2 Tempo di attesa del primo successo . . . . . . . . . . 2.3 Tempo di attesa dell’n-esimo successo . . . . . . . . 2.4 Indipendenza dei tempi tra due successi consecutivi . 2.5 Canali di comunicazione binari . . . . . . . . . . . . 2.6 Passeggiata casuale . . . . . . . . . . . . . . . . . . . 2.7 Il problema del ballottaggio . . . . . . . . . . . . . . 2.8 Tempo del primo ritorno in 0 . . . . . . . . . . . . . 2.9 Tempo trascorso dall’ultimo passaggio in 0 . . . . . . 2.10 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

3 Elementi di teoria generale dei processi 3.1 Filtrazioni di σ-algebre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2 Propriet` delle traiettorie e versioni continue . . . . . . . . . . . . . . . . . . a 3.3 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 Processi puntuali 4.1 Processo di Poisson . . . . . 4.2 Processi di rinnovi . . . . . 4.3 Lotto economico d’acquisto 4.4 Esercizi . . . . . . . . . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

5 Catene di Markov a tempo continuo 45 5.1 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 6 Moto browniano 6.1 Moto Browniano e invarianze per cambi di scala . 6.2 Principio di riflessione, legge del massimo . . . . . 6.3 Moto browniano d-dimensionale . . . . . . . . . . . 6.4 Processo di Bessel . . . . . . . . . . . . . . . . . . 6.5 Integrale di funzione rispetto al moto browniano . 6.6 Processo di Ornstein-Uhlenbeck e ponte browniano 6.7 Moto browniano geometrico . . . . . . . . . . . . . 1 57 57 59 61 61 62 63 65

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . a 9. . . . . . . .6 Irriducibilit` e tempo di soggiorno in a 10. . a . . . . . . .4 Applicazioni . . . . . . . . . . 10. . . . . . . . . . . . . . . . . . . . 8. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .10 Teorema di convergenza . .2 Moto browniano con deriva . . . . . . . . . . . . . . . . . . . . . . . . . . 8. . . . . . . . . . . . . . . .2 Processi markoviani di salto . . . . 9. . . . . . . 8. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10. . . . . . . .1 Prime propriet`. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .5 Diseguaglianza massimale discreta . . . . . . . . . . . . . . . . . . . . . 11. . . . . . . . . . . . . . . . . . .4 Uniforme integrabilit` . . .5 Propriet` di Feller . . . . 8. a 10. . . . . . . . . . . . . . . . . 9. . . . . . . . . . . . . . . . . . . . . . . . .1 Probabilit` e tempi d’uscita del moto browniano . . . . .2 Propriet` di monotonia e proiettivit` . . . . . . . .6 Esercizi . . . . . . . . . . . .4. . . . . . . . .1 Speranza condizionale di variabili aleatorie integrabili 7. . . . . . . . . . . . . . . . . . . . . . Vn ) . . . . . . . . . . . . . . . . .3 Teorema d’arresto discreto . . . . . . . . . . .9 Diseguaglianza di Doob . . . . . . . . . . . . . . 7. . . . . . . . . 9. . .2 Tempi d’arresto . . .4 Moto browniano ed equazione del calore . . .1 Passeggiata casuale unidimensionale . . . . . . . . . . . . . . . . . . . . . . .12 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . 8. . . sottomaringale. . . . . . . . .7 Esercizi . . . . . . . . .3 Moto browniano ed equazione di Laplace . . 7. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .3 Diseguaglianza di Jensen . . . . . . . . . . . . .4. . . . . . . . . . . . . . . . . . . . . . . . . . . . .7 Ricorrenza e transienza . . . . . . . . . . . . . . . . . . . . . . . .5 Speranza condizionale rispetto a σ(V1 . . . . . 8. . . . . . . 9 Applicazioni al moto browniano e catene di Markov 9. . . . . . . . . 8. 8. . . . . . . . . . .1 Semigruppi markoviani . . .4 Martingale di un processo di Markov 10. . . . . 8 Martingale 8. o 11. . . . . . . . . . .4 Speranza condizionale e stima . . . . . . . . . . . .8 Teorema d’arresto . . . . . . . . . . . . . . . . . . . . . .11 Decomposizione di Doob-Meyer . .2 6. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .5 Moto browniano geometrico . . . . . . . . . . . . . . . . . . . . . . 10. . . . . . . . . . . . . . . . . . . . . . . . . 8. . . . . . . . .8 Misure invarianti . . . . . . . . . . . . . . . . . . . . . . . . . . . . .3 Processi di diffusione . . . . . . . . . . . . . 7. . . supermartingale a 8. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9. . . . . . . . . . . a a 7. . . . . . . . . .1 Somme di variabili aleatorie indipendenti . . . . . . . 10. . . . . . . . . . . . . . . .6 Martingale e catene di Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .8 INDICE Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 67 68 69 70 70 71 71 73 75 76 79 81 81 82 84 84 85 88 89 89 89 91 93 93 94 95 97 98 98 100 101 102 104 105 107 108 109 111 113 116 117 117 118 118 119 7 Speranza condizionale 7. . .3 Funzioni α-h¨lderiane . . . . . . . . . . . . . . . . . . . . . . 11 Appendice 11. . . . . . . . . . . . . . . . . . . . 8. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .7 Versioni con traiettorie regolari . . . . . . . . . . 10. . . . . . . .2 Livello di un bacino . . . . . . .9 Esercizi . . . un insieme . . . . . . . . . . . . . . . 9.6 Numero di attraversamenti di un intervallo . . . . . . . . . . . . . . . . . . . . . 10 Processi di Markov 10. . . . . . . . . 8. . . . . . .2 Speranza di una variabile aleatoria non negativa 11. . . . . . . 8. . . . . .

{CT. 3 . 2} (pensando che il risultato 0 corrisponde all’uscita di 2 croci. per ogni A ⊆ Ω. P) per questo esperimento aleatorio `: Ω := {1. T C. a Esempio 1. T T }.. P {1} = 1/2. P ) con: Ω = {0. CT. 4. F . T T }. Infine. si traducono nel modello u matematico. {T C. F la famiglia di tutti i sottoinsiemi di Ω e P la probabilit` a P {0} = 1/4. che rappresentano una proposizione e che sar` vera o falsa a seconda del risultato dell’esperimento aleatorio. 3. {CC. Una scelta naturale dell’insieme Ω dei risultati dell’esperimento aleatorio ` l’insieme {CC. {CC. CT. La scelta naturale di (Ω.1 Lancio di un dado equilibrato. 1 all’uscita di una testa e una croce. T T }. P) nella quale • Ω ` un insieme rappresentante tutti i possibili risultati dell’esperimento aleatorio. Tuttavia un individuo interessato solamente al numero totale di teste o di croci potrebbe accontentarsi di definire la probabilit` di su una famiglia pi` “piccola” considerando il a u modello (Ω . Come F si pu` prendere la famiglia e o di tutti i sottoinsiemi di Ω e cio` la famiglia costituita da e ∅. Si scelgono quindi Ω.. P {2} = 1/4. 5. e • F ` una famiglia di sottoinsiemi di Ω. non siamo in grado di predire con esattezza quello che accadr`. 1. CT. . CT }. {CT. P(A) ` e e il numero di elementi di A diviso per 6 (numero dei casi favorevoli diviso per il numero di casi possibili). 6}. a • P ` una probabilit` che assegna a ciascun elemento A della famiglia F una valutazione e a numerica della possibilit` di avverarsi della proposizione rappresentata da A. {T C.. F e P in modo che siano definite o calcolabili le probabilit` di certe a proposizioni (eventi). {CT }. {CC.. costituito da una terna (Ω. T C. P(A) ` il numero di elementi di A diviso per 4 (numero dei casi e favorevoli diviso per il numero di casi possibili).2 Lancio di due monete uguali. Esempio 1. F. T C. F.. detti eventi. T C}. T T }. CT. {CC. {CC}. detto spazio probabilizzato. F famiglia di tutti i sottoinsiemi di Ω. T C}. 2. {T C}. a Le nozioni intuitive ed empirica pi` comuni sui fenomeni o esperimenti casuali. {T T }. {CC.1 Richiami di probabilit` a Un esperimento casuale o fenomeno casuale ` una situazione nella quale. per mancanza di e informazioni. CT }. T T }. T T }. {CC. secondo u l’interpretazione pi` corrente in campo scientifico e tecnologico. T T }.).

Ac = Ω − An sono n elementi di F) • (numerabile additivit`) P ` una misura su F. . si individua l’insieme Ω di tutti i possibili risultati dell’esperimento aleatorio.1 Data una famiglia H di sottoinsiemi di Ω si chiama σ-algebra generata da H e si denota con σ(H) la pi` piccola σ-algebra di sottoinsiemi di Ω che contiene gli u elementi di H. La σ-algebra σ(H) ` uguale all’intersezione di tutte le σ-algebre di sottoinsiemi di Ω. Ω − B). B ∈ F tali che P(B) > 0 P(B) Le propriet` elementari della probabilit` (formula probabilit` totale. a 3. chiamata additivit`. si definisce la P sui sottoinsiemi di F e si dimostra che la P ottenuta ` numerabilmente additiva. ∩n≥1 An . Per questo motivo e per utilizzare strumenti e tecniche di Analisi Matematica si introducono perci` i seguenti assiomi: o • la famiglia F degli eventi ` una σ-algebra di sottoinsiemi di Ω (cio`. Quando si costruisce un modello probabilistico la numerabile additivit` ` spesso difficile ae da verificare per cui eviteremo. e Il passo pi` difficile di solito ` la verifica della numerabile additivit` di P. Infatti si pu` verificare facilmente che o . si estende ulteriormente H ad una σ-algebra F. per ogni A. B ∈ F tali che A ∩ B = ∅. si vuole infine calcolare semplicemente le probabilit` di a unioni o intersezioni numerabili di eventi (per esempio la probabilit` dell’evento descritto a dalla proposizione “si ottiene sempre testa nei lanci pari” in una successione di infiniti lanci di una moneta). tra e le quali la σ-algebra P(Ω) di tutti i sottoinsiemi di Ω. si estende H ad un’algebra (cio` ad una famiglia chiusa per unione. dette di coerenza. si ha P (∪n≥1 An ) = n≥1 P(An ). deve esserlo e anche P di A ∪ B. P) sono i seguenti: 1. allora anche ∪n≥1 An . altrettanto spesso. A ∩ B.. RICHIAMI DI PROBABILITA Si suppone inoltre che la famiglia di queste proposizioni sulle quali si calcola P sia chiusa per unione.) a a a seguono facilmente. se ` definita P di A e B. cio`. formula di Bayes. La scelta di u e a F a partire da H invece ` abbastanza semplice. 4. 2.. per ogni successione (An )n≥1 di a e e elementi disgiunti di F. In un modello probabilistico. intersezione e negazione logica (ovvero che. intersezione e e passaggio al complementare) di sottoinsiemi di Ω e si definisce la P su questi insiemi. Ω − A. e Definizione 1. inducono quindi a scegliere una P che soddisfi la propriet`. per ogni A. Condizioni naturali. Si normalizza poi la P ponendo P(Ω) = 1 e si definisce la probabilit` condizionata a P(A|B) = P(A ∩ B) . si individua una famiglia H di eventi dei quali si da la probabilit`. che contengono gli elementi di H. di dimostrarla accontentandoci di sapere che si potrebbe fare (procedendo magari in modo simile a quello della costruzione della misura di Lebesgue in Analisi Matematica). a a P(A ∪ B) = P(A) + P(A). F. se (An )n≥1 ` e e e una successione di elementi di F.4 ` 1. I passi “tipici” nella costruzione di (Ω.

b]. +∞} := [−∞. P). reale estesa) X si chiama σalgebra generata da una variabile aleatoria X e si denota σ(X) la sotto − σ-algebra di F costituita dagli insiemi {X ∈ A} con A ∈ B(R) (risp. +∞]. nella costruzione di uno spazio probabilizzato (Ω.5 Data una variabile aleatoria reale (risp.. b]) = {ω ∈ Ω | a < X(ω) ≤ b} . Ricordiamo che {a < X ≤ b} ` una notazione per indicare l’insieme e X −1 (]a. per ogni a. F. reale estesa) X su uno spazio probabilizzato (Ω. si ha { a < X ≤ b } = { X ≤ b } ∩ ({ X ≤ a }) .2 Data una famiglia (Ai )i∈I di σ-algebre di sottoinsiemi di un insieme Ω. un’osservazione o informazione parziale su ω). . Si pu` quindi dimostrare. In modo equilvalente si potrebbe definire una variabile aleatoria. per esempio nella Statistica Matematica o nel filtraggio. se A ` un sottoinsieme di R. si denota con {X ∈ A} l’insieme e X −1 (A) = {ω ∈ Ω | X(ω) ∈ A} . grazie al fatto che F ` una σ-algebra. di variabili aleatorie reali (e reali estese evitando le forme indeterminate come +∞ − ∞) sono ancora variabili aleatorie reali. VARIABILI ALEATORIE 5 Proposizione 1. formano una σ-algebra.1. X : Ω → R) tale che. e Vale la pena di ricordare che. R) e si denota con B(R) (risp. l’intersezione ∩i∈I Ai ` una σ-algebra di sottoinsiemi di Ω. . come per le applicazioni e o misurabili. per ogni numero reale r l’insieme { X ≤ r } appartenga a F. a a 1. A ∈ B(R)). Gli eventi determinati da X.4 Si chiama σ-algebra dei boreliani di R (risp. Notazione R := R ∪ {−∞. per ogni coppia e di numeri reali a. b ∈ R. b l’insieme {a < X ≤ b} appartenga a F.. prodotti. Infatti. b] con a. X : Ω → R) tale che. c (1. In realt`.3 Una variabile aleatoria reale (risp.1) Una variabile aleatoria (reale o reale estesa) ` quindi una funzione del risultato ω e dell’esperimento aleatorio della quale siamo in grado di dire qual ` la probabilit` di ose a servare valori in un certo intervallo ]a. F. Nel linguaggio dell’Analisi Matematica una variabile aleatoria reale (risp. Definizione 1. Definizione 1.1 Variabili aleatorie Le variabili aleatorie sono funzioni del risultato ω di un esperimento aleatorio che sono spesso molto utili nello studio del modello (descrivono.1. reale o reale estesa. b ∈ R. ` e abbastanza facile e naturale scegliere Ω e F ma poi. dei quali cio` siamo in grado di dire se si sono verificati o e meno osservando il valore di X. P) ` un’applicazione X : Ω → R (risp. che somme. reale estesa) ` dunque un’applicazione misurabile. a a Definizione 1. a e sar` definita la probabilit` di insiemi del tipo {X ∈ A} con A sottoinsieme boreliano di R. come un’applicazione X : Ω → R (risp. Analogamente. combinazioni lineari. tanto pi` difficile u e u sar` costruire la misura di probabilit` P su F. tanto pi` grande ` F. B(R)) σ-algebra generata dagli intervalli ]a.

1). {(0.2 questa volta indicando C con 0 e T con 1. B(1. Legge di Poisson di parametro λ (λ > 0) ∞ µ = e−λ k=0 λk δk k! . Si vede subito che σ(X) ` costituita dagli eventi che siamo in grado di dire se si verificano e o meno conoscendo il solo valore di X. 0). In questo modo si pu` o identificare con Ω l’insieme { (0. . {(0. . reale estesa) e g : R → R e e e (risp. 1]) µ = (1 − p)δ0 + pδ1 . Si pu` verificare abbastanza facilmente che. (1. s ∈ R allora rX + sY e XY sono variabili aleatorie reali. arctan(X). Legge binomiale di parametri n. Consideriamo nuovamente l’esperimento aleatorio descritto nell’Esempio 1. 1).7 Se X ` una variabile aleatoria reale (risp. X 3 . Y sono variabili aleatorie reali ed r. {(0. ω2 ) = ω1 + ω2 . p). Ω. 1]) n µ= k=0 n k δk P(λ). Si verifica facilmente che la σ-algebra e σ(X)-generata da X ` costituita dagli insiemi e ∅.8 Si chiama legge (o distribuzione) di una variabile aleatoria reale X la misura di probabilit` µ su B(R) definita da a µ(A) = P{X ∈ A}. p ∈ [0. 0)}. {(0. 0 se x ∈ A. sono ancora variabili aleatorie reali. X(ω1 . F ` costituita da tutti i sottoinsiemi di Ω e quindi e e {X ∈ A} ` un elemento di F qualunque sia A. g : R → R) ` una funzione boreliana. La funzione X : Ω → R. 0). RICHIAMI DI PROBABILITA Esempio 1. allora anche g(X) ` una variabile aleatoria reale (risp. 0)}. p). 1). 1)}. (1. 1). 1)}. 1) }. Proposizione 1. p (n ∈ N∗ . In generale si pu` o dimostrare la seguente Proposizione 1. cio` misurabile rispetto alla σ-algebra degli insiemi boreliani. reale estesa). in questo modello. Si tratta evidentemente di una variabile aleatoria perch´. (1. Se (Xn )n≥1 ` una successione di variabili aleatorie reali allora e supn≥1 Xn e inf n≥1 Xn sono variabili aleatorie reali. (0. . Indica il numero totale di teste ottenute nel lancio. (0. 1)}. a Definizione 1. (1. B(n. sin(X). 0).6 Se X. {(1. Legge di Bernoulli di parametro p (p ∈ [0. se X ` una variabile aleatoria reale. (1. 0)}. / per ogni A ∈ B(R).6 ` 1. Leggi notevoli su P(N) o B(R) Delta di Dirac. 0). e La nozione di legge di una variabile aleatoria ` di fondamentale importanza nel Calcolo e delle Probabilit`. allora o e anche X 2 . (1. {(0. Legge delta concentrata in x δx (A) = 1 se x ∈ A. (1. 0).3 Lancio di due monete.

p) ma sono molto diverse tra loro perch´ e Xn d` il risultato dell’n-esima prova del processo. σ 2 ). σ 2 ) µ(A) = √ 1 2π σ e−(x−m) A 2 /2σ 2 dx E(λ). hanno tutte la stessa legge B(1. Legge normale o gaussiana N (m.2. ae Legge di Cauchy (mediana m) µ(A) = B(a. La legge χ2 (n) del chi-quadrato con n gradi di libert` ` la legge Γ(n/2. λ > 0 µ(A) = ]0. 1Ak (ω) = 0 se ω ∈ Ak ) e quindi la sua speranza ` / e n E[X] = k=1 xk P(Ak ). λ). In questo caso X ` della forma o e n X= k=1 xk 1Ak . caratteristica) dell’evento Ak (1Ak (ω) = 1 se ω ∈ Ak . a 1.2 Valore atteso La speranza o attesa di una variabile aleatoria reale X. si calcola nel modo ben noto quando X pu` prendere solo un numero finito di valori. b). che due variabili aleatorie con la stessa legge possono essere molto diverse. nel linguaggio dell’Analisi. con Ak ∈ F. 1 + (x − m)2 Ricordiamo.1. per quanto ovvio. Legge beta (a. variabili aleatorie di un processo di Bernoulli di parametro p. 1/2).+∞[∩A λα xα−1 −λx e dx Γ(α) dove Γ ` la funzione Gamma di Eulero definita da e ∞ Γ(a) = 0 e−t ta−1 dt. b > 0) µ(A) = Γ(a + b) Γ(a)Γ(b) xa−1 (1 − x)b−1 dx ]0.+∞[∩A λe−λx dx Γ(α. Legge geometrica di parametro p (p ∈ [0. . VALORE ATTESO G(p).1[∩A 1 π A 1 dx. Legge Gamma di parametri α. dove 1Ak denota la funzione indicatrice (o. 1]) (λ > 0) ∞ 7 µ = (1 − p) k=0 p(1 − p)k−1 δk N (m. Per esempio le (Xn )n≥1 . Legge esponenziale di parametro λ > 0 µ(A) = ]0.

. valore atteso. se P{X ≤ Y } = 1 allora E[X] ≤ E[Y ]. media. inferiormente) rispetto e a P se E[X + ] < +∞. F. la successione o n2n Xn = k=0 k2−n 1{k2−n <X≤(k+1)2−n } che soddisfa le condizioni Xn (ω) ≤ Xn+1 (ω). r + ∞ = +∞ per ogni numero reale r. per definizione. E[X − ] < +∞ . La speranza ha quindi le propriet` seguenti a Proposizione 1. +∞} } = 0 cio` X e Y hanno valori finiti quasi e certamente. n≥1 n→∞ Si potrebbe dimostrare che E[X] ` indipendente dalla particolare successione non decrescente e di variabili aleatorie con un numero finito di valori scelta. Allora 1. se X ` una variabile aleatoria reale o reale estesa su uno spazio probabilizzato e (Ω. Infine. e si dice che X ha speranza finita. Vale ovviamente la convenzione r − ∞ = −∞. X − (ω) = − min{X(ω). +∞]. 3. Per questo motivo cominciamo con l’osservare che ogni variabile aleatoria non-negativa ` e estremo superiore di una successione non decrescente di variabili aleatorie con un numero finito di valori. +∞} } = P{ Y ∈ {−∞. definiamo le variabili aleatorie X + . valor medio di X e si denota E[X] la differenza E[X] = E[X + ] − E[X − ]. 2. 0}. Osserviamo che. Se X ` semi-integrabile sia superiormente che inferiormente rispetto a P allora si dice che e X ` integrabile rispetto a P. E[X] ` finita se e solo se e E[|X|] ` finita poich´ |X| = X + + X − .9 Si dice che X ` semi-integrabile superiormente (risp. per esempio. RICHIAMI DI PROBABILITA Estendiamo poi la definizione alle variabili aleatorie non negative X : Ω → [0. P). per ogni coppia r. Y variabili aleatorie integrabili. Si pu` considerare. n n→∞ La successione di numeri reali (E[Xn ])n≥1 ` evidentemente crescente e quindi possiamo e definire E[X] = sup E[Xn ] = lim E[Xn ]. 0}. risp. Nel caso in cui E[X] sia un numero reale (cio` non sia +∞ o −∞). Abbiamo cos` definito E[X] per ı le variabili aleatorie non negative.8 ` 1. Definizione 1. e sup Xn (ω) = lim Xn (ω) = X(ω) per ogni ω ∈ Ω. P{ X ∈ {−∞. X − le variabili aleatorie X + (ω) = max{X(ω). s di numeri reali la variabile aleatoria rX + sY ` integrabile e e E[rX + sY ] = rE[X] + sE[Y ]. e e Nel linguaggio dell’Analisi Matematica E[X] ` l’integrale di X rispetto alla misura P e E[X] = Ω XdP che si definisce nello stesso modo.10 Siano X. ovvero X sia integrabile. Se X ` semi-integrabile superiormente o inferiormente rispetto e e a P si chiama speranza o attesa.

Densit` a Bernoulli binomiale Poisson geometrica Pascal uniforme esponenziale normale gamma chi quadrato beta esponenziale bilatera Cauchy Simbolo B(1. Y ] = V [X]V [Y ] . si vede subito che.13 Si dice che X ha momento di ordine p (con p intero. Y variabili aleatorie con momento di ordine 2 |E[XY ]| ≤ E[X 2 ]E[Y 2 ]. λ) χ2 (n) B(a. Y ] = E [(X − E[X])(Y − E[Y ])] . p) U(a. p ≥ 1) se E[|X|p ] ` finita e. Si ha allora E[X] = sup E[Xn ]. in tal caso. e Valgono le diseguaglianze seguenti. X. Il numero non negativo V [X] = E[X 2 ] − E[X]2 = E (X − E[X])2 si chiama varianza di X. VALORE ATTESO 9 Teorema 1. Y ] ρ[X. p) P (λ) G(p) P(n. prendendo Y = 1.2. σ 2 ) Γ(a. In particolare. Diseguaglianza di Schwarz.1. se X ha momento di ordine 2. Supponiamo che: 1. per quasi ogni ω ∈ Ω esista limn→∞ Xn (ω) = X(ω). si chiama momento di ordine p il numero reale E[X p ].11 Sia (Xn )n≥1 una successione non decrescente di variabili aleatorie reali estese semi-integrabili inferiormente e sia X = supn≥1 Xn = limn→+∞ Xn . allora ha anche speranza finita e E[X]2 ≤ E[X 2 ]. 2.12 Sia (Xn )n≥1 una successione di variabili aleatorie reali estese integrabili. Se inoltre X e Y hanno varianza strettamente positiva si definisce il coefficiente di correlazione di X e Y Cov[X. esista una variabile aleatoria Y integrabile tale che |Xn (ω)| ≤ Y (ω) per quasi ogni ω ∈ Ω. b) Speranza p np λ 1/p n/p (a + b)/2 1/λ µ a/λ n a/(a + b) 0 non definita Varianza p(1 − p) np(1 − p) λ q/p2 nq/p2 (b − a)2 /12 1/λ2 σ2 a/λ2 2n ab/(a + b)2 (a + b + 1) 2/λ2 non definita 2 Se X e Y hanno momento di ordine 2 si pu` definire la covarianza di X e Y o Cov[X. b) E(λ) N (µ. Si ha allora E[X] = sup E[Xn ]. p) B(n. n≥1 Teorema 1. n≥1 Definizione 1.

e Il Lemma di Borel Cantelli d` una condizione abbastanza semplice per mostrare che a lim supn An ha probabilit` 0. Se E[X] e E[g(X)] sono finite allora g(E[X]) ≤ E[g(X)]. q numeri reali p. Y su uno spazio probabilizzato (Ω. q ≥ 1 E[|XY |] ≤ E[|X|p ] p E[|Y |q ] q . sono indipendenti se. . Si dimostra il seguente Teorema 1. . .10 ` 1.3 Indipendenza Definizione 1. X1 . Y sono indipendenti se e solo se P { X ≤ r. Y ≤ s } = P { X ≤ r } P { Y ≤ s } per ogni coppia di numeri reali r. . .15 Due variabili aleatorie reali (risp. Y variabili aleatorie. . Diseguaglianza di Holder. Si pu` inoltre rappresentare come l’insieme degli ω ∈ Ω dove la o serie delle funzioni indicatrici 1An (ω) n≥1 1 1 ` divergente. La definizione precedente si generalizza nel modo naturale al caso di n variabili aleatorie. c < Y ≤ d } = P { a < X ≤ b } P { c < Y ≤ d } . p. Si verifica facilmente (grazie a (1.1)) che due variabili aleatorie X. X variabile aleatoria con momento di ordine 2. b e ogni coppia c. g : R → R funzione convessa. P). X variabile aleatoria reale. 1. RICHIAMI DI PROBABILITA Diseguaglianza di Chebychev. d di numeri reali si ha P { a < X ≤ b.16 Siano X1 . s. a Teorema 1. Diseguaglianza di Jensen. X. P {|X − E[X]| > ε} ≤ ε−2 V [X]. Xn sono indipendenti. . reali estese) X. per ogni coppia a. L’evento in questione si rappresenta ∩n≥1 ∪k≥n Ak e si indica con lim supn An . Lemma di Borel Cantelli. . . Un problema abbastanza frequente nello studio dei fenomeni aleatori ` quello di determinare la probabilit` che si verifichino infiniti eventi tra quelli di e a una data successione (An )n≥1 . F. ε > 0. Xn variabili aleatorie reali (reali estese). P n≥1 allora I P lim sup An n = 0.14 Data una successione di eventi (An )n≥1 se I (An ) < ∞. Le condizioni seguenti sono equivalenti: 1.

. gm funzioni boreliane con gk : Rdk → R per ogni k = 1. . Xn sono indipendenti. . . 2. In particolare. . . . in generale. 2. An di sottoinsiemi boreliani di R (risp. m un numero intero tale che 1 ≤ m ≤ n. Y3 = g3 (X6 . . . . non sono indipendenti. variabili aleatorie indipendenti. se X e Y sono indipendenti. rn di numeri reali si ha E eir1 X1 · · · eirn Xn = E eir1 X1 · · · E eirn Xn . . gn di funzioni boreliane limitate su R (risp. . + dm = n.17 Siano X. I criteri precedenti permettono quindi di trattare in modo essenzialmente analogo anche il caso di infinite variabili aleatorie indipendenti. . . La definizione di speranza si estende in modo naturale alle variabili aleatorie a valori complessi separando le loro parti reali e immaginaria. n} (ovvero una famiglia di insiemi Ik disgiunti la cui unione sia {1. gn (Xn )] = E [g1 (X1 )] · · · E [gn (Xn )] . R) si ha E [g1 (X1 ) . . . In particolare vale la seguente Proposizione 1. . . gm ((Xi )i∈Im ) sono indipendenti. . Funzioni boreliane di variabili aleatorie indipendenti sono.1. . alle variabili aleatorie (Xn )n≥1 di un processo di Bernoulli per dimostrare l’indipendenza delle variabili aleatorie Y1 = X1 + X2 . . . . Pi` precisamente si dimostra il seguente u Teorema 1. . per ogni n-pla g1 .18 Siano X1 . per ogni n-pla A1 . . . Im una partizione dell’insieme {1. 11 Corollario 1. m. . . . . g1 .3. . . Variabili aleatorie non correlate. . Le condizioni seguenti sono equivalenti: 1. . Tuttavia. . n}) e ciascun insieme Ik abbia dk elementi d1 + . allora non sono correlate. allora sono anche indipendenti. . . Infinite variabili aleatorie sono indipendenti. . Xn variabili aleatorie reali indipendenti e siano: 1. Y variabili aleatorie reali indipendenti con speranza finita. . . Y2 = X3 (X4 + X5 ). se le variabili aleatorie oltre a essere non correlate hanno legge congiunta gaussiana. 3. . . . Questo teorema si applica. . . . . X1 . Xn variabili aleatorie reali. Xn ∈ An } = P { X1 ∈ A1 } · · · P { Xn ∈ An } . X7 ). .19 Siano X1 . . . . R) si ha P { X1 ∈ A1 . Allora le variabili aleatorie reali g1 ((Xi )i∈I1 ). per definizione. a loro volta. . . La variabile aleatoria XY ha speranza finita e E[XY ] = E[X]E[Y ]. . I1 . per ogni n-pla r1 . se e solo se ogni loro sottofamiglia finita ` una famiglia di variabili aleatorie indipendenti nel senso delle definizioni e precedenti. 3. INDIPENDENZA 2. per esempio. . .

Xn di a variabili aleatorie reali indipendenti con leggi µ1 .3 Siano X.1 Verificare le formule della media e della varianza della legge Γ(α. 1. . . . . . b1 ]) · · · µn (]an . bn ]) = µ1 (]a1 . . × R×]r. s] × R . p) e N abbia legge di Poisson con parametro λ > 0. Determinare la legge della variabile aleatoria N X (definiamo. . . . . (Si potrebbe dimostrare che esiste un’unica misura di probabilit` P su B(Rn ) che verifica la a condizione 3. . per ogni k = 1. b1 ]) × · · · × µn (]an . . . bn ]) = P{ a1 < X1 ≤ b1 } · · · P{ an < X1 ≤ bn }. . b). bn ] (detti plurirettangoli). Per rispondere alla questione si costruisce lo spazio probabilizzato canonico costituito da 1. b1 ] × .4 Esercizi Esercizio 1. bn ] e quindi. . an < Xn ≤ bn } = µ1 (]a1 . × R cio` { r < Xk ≤ s } ` il plurirettangolo che ha tutti i “lati” uguali a R tranne il k-esimo e e uguale a ]r. . λ). ` E chiaro che ciascuna Xk ha legge µk poich´ e { r < Xk ≤ s } = { ω ∈ Ω | r < ωk ≤ s } = R × . RICHIAMI DI PROBABILITA Spazio probabilizzato canonico di n variabili aleatorie indipendenti con leggi assegnate. Esercizio 1. . Esercizio 1. + Xn ha legge Γ(n/2. . . . .4 Siano X1 . n. . b1 ] × . . . Esercizio 1. . Xn variabili aleatorie reali indipendenti con legge normale 2 2 N (0. . Inoltre le X1 . . s])µk+1 (R) · · · µn (R) = µk (]r. Xn Xk (ω1 . µn assegnate supponendo implicita` mente che siano definite sullo stesso spazio probabilizzato (Ω. generata dagli insiemi della forma ]a1 . . . . Xn sono indipendenti perch´ e { a1 < X1 ≤ b1 . . . ×]an . . l’insieme Ω = Rn prodotto cartesiano di n copie di R. . ×]an . . . per definizione di P P{ a1 < X1 ≤ b1 . 1/2). . Supponiamo che X abbia legge B(1. . 00 = 1) e calcolare la speranza di N X .) Si definiscono quindi le X1 . s] e quindi P{ r < Xk ≤ s } = µ1 (R) · · · µk−1 (R)µk (]r. . . ωn ) = ωk .2 Verificare le formule della media e della varianza della legge B(a. N due variabili aleatorie indipendenti. . bn ]). E abbastanza naturale chiedersi perch´ questo sia possibile ovvero se esiste lo spazio probabilizzato sul quale siano e definite n variabili aleatorie indipendenti ciascuna con la legge assegnata. . 3.12 ` 1. la σ-algebra B(Rn ). . an < Xn ≤ bn } =]a1 . per convenzione. Verificare che X1 + . b1 ] × · · · ×]an . . 1). 2. . In molte applicazioni del Calcolo delle Probabilit` si considera data una n-pla X1 . la misura di probabilit` P su B(Rn ) tale che a P(]a1 . P). s]). . F. .

Esercizio 1.9 Verificare che una variabile aleatoria reale X ` indipendente da s´ stessa se e e e solo se ` costante. . { ] − ∞. B(R)) ` la pi` piccola σ-algebra di sottoinsiemi di e u R (risp. { [a. Ad ∈ B(R). Esercizio 1.10 Dimostrare la Proposizione 1. bd ]. Y due variabili aleatorie reali indipendenti. Supponiamo che Y ≤ X quasi certamente. Esercizio 1. b ∈ R } . n→∞ Mostrare l’analogo risultato per le successioni non crescenti. F. per ogni c ∈ R l’evento {X ≤ c} ∩ {Y > c} ` vuoto e quindi e P{X ≤ c} · P{Y > c} = 0. ×]ad .11 Siano X. . Verificare che B(Rd ) coincide con la pi` piccola σ-algebra di sottoinsiemi di Rd che contiene u gli insiemi della forma A1 × . . P). . Osservare che. Mostrare che P (∪n≥1 An ) = lim P(An ). 1].7 La σ-algebra B(Rd ) dei sottoinsiemi Boreliani di Rd ` la pi` piccola σ-algebra e u di sottoinsiemi di Rd che contiene i plurirettangoli ]a1 . Mostrare che esiste una costante c tale che P {Y ≤ c ≤ X} = 1.13 Mostrare con un esempio che l’unione di due σ-algebre non ` necessariae mente una σ-algebra. +∞[ | a ∈ R } . b] | a. b1 ] × . a[ | a ∈ R } . { [a. Esercizio 1. .6.1. Esercizio 1. +∞[ | a ∈ R } .5 Siano X. Verificare che la variabile aleatoria X/(X + Y ) ha legge uniforme su [0. b ∈ R } . e Esercizio 1. b ∈ R } . Y due variabili aleatorie reali indipendenti. b[ | a. × Ad con A1 . a] | a ∈ R } . { [a. .8 Sia (An )n≥1 una successione non decrescente (cio` tale che An ⊆ An+1 per e ogni n ≥ 1) di eventi in uno spazio probabilizzato (Ω. b[ | a. Y due variabili aleatorie reali indipendenti con legge esponenziale di parametro λ > 0. { ] − ∞. Risposta.12 Siano X. R) che contenga le seguenti famiglie di sottoinsiemi di R (risp. . Esercizio 1. Mostrare che la variabile aleatoria X + Y ha per densit` a a la funzione g data da g(s) = R f (s − y)ν(dy) Esercizio 1. . R) H1 H2 H3 H4 H5 H6 H7 = = = = = = = { ]a.6 Mostrare che B(R) (risp. Supponiamo che X abbia densit` f e Y abbia legge ν.4. { ]a. ESERCIZI 13 Esercizio 1.

Y. Z tre variabili aleatorie indipendenti uniformemente distribuite su [0. . . Z? . Y. Xd le coordinate di un punto casuale in Rd . 1) calcolare la distanza media del punto dall’origine.14 ` 1. . . . 1]. Xd siano indipendenti e abbiano legge normale N (0.15 Siano X. . Esercizio 1. RICHIAMI DI PROBABILITA Esercizio 1.14 Siano X1 . Supponendo che le variabili aleatorie X1 . . . Qual ` la probabilit` che si possa costruire un triangolo le cui lunghezze dei lati e a siano X.

. . L’insieme Ω non ` numerabile perch´. ∗ Vogliamo trovare poi una σ-algebra F e una misura di probabilit` P su F in modo tale che: a (B1) gli eventi { Rk = 1 } abbiano probabilit` p fissata. c) i metodi che a si sviluppano nella loro trattazione si rivelano utili anche nella soluzione di altri problemi. 1[). . La scelta naturale di F ` quindi la pi` piccola σ-algebra di sottoinsiemi di Ω che contenga e u questi eventi. Per definire la probabilit` su F in modo che gli eventi { Rt1 = xt1 }. 2. xn ∈ { 0. . ` facile convincersi che ` in corripondenza biunivoca con l’intervallo e e [0. { Rtn = xtn } a risultino indipendenti dobbiamo porre I (∩n { Rtk = xtk }) = I { Rt1 = xt1 } · I { Rt2 = xt2 } · · · I { Rtn = xtn } = pk (1 − p)n−k P k=1 P P P 15 . ricordando la rappresentazione binaria dei numeri e e reali nell’intervallo [0. Questo esperimento aleatorio ` piuttosto importante perch´: a) sorge e e naturalmente in numerose situazioni in campo scientifico e tecnologico. . { Rn = xn } siano indipendenti per ogni n ∈ N∗ e ogni x1 . Il numero ωk indica il risultato della k-esima prova (1 successo e 0 insuccesso).1 Costruzione Richiamiamo brevemente la costruzione del processo di Bernoulli L’insieme Ω dei risultati possibili dell’esperimento aleatorio in questione ` costituito dalle e successioni di (ωk )k≥1 di 0 e di 1 cio` dal prodotto cartesiano e Ω = { 0. . 1 }N = { (ωk )k≥1 | ωk ∈ {0.2 Il processo di Bernoulli I pi` semplici esperimenti aleatori hanno due soli possibili risultati. { R2 = x2 }. a Un esperimento di questo tipo si chiama prova binaria. . a (B2) gli eventi { R1 = x1 }. 1} } . Rk (ω) = ωk . Il processo di Bernoulli ` costituito dalla ripetizione di un numero infinito di prove bie narie indipendenti. 1 }. . Sull’insieme Ω definiamo. . 1]. b) si possono calcolare in modo abbastanza semplice le probabilit` di tutti gli eventi in gioco. . di solito denotati con 0 u (“insuccesso”) e 1 (“successo”) che hanno probabilit` rispettivamente 1 − p e p (p ∈]0. le funzioni Rk “risultato della k-esima prova” Rk : Ω → { 0. 1]. . 1 }. .

. sono unioni finite di eventi elementari per cui possiamo costruire in modo naturale una probabilit` su F. . Si chiama tempo di P attesa del primo successo la funzione T : Ω → N∗ ∪ {+∞} cos` definita: ı T (ω) = inf { n ≥ 1 | Rn (ω) = 1 } . I ). come abbiamo visto. Definizione 2. . IL PROCESSO DI BERNOULLI dove k ` il numero di xtj eguali a 1 cio` k = xt1 + . . { T > n } sono eventi elementari. Rn = 1 } { T > n } = { R1 = 0. + xtn . < tn .2 Si chiama processo di Bernoulli di parametro p (p ∈]0. P I { T > n } = (1 − p)n . .2 Tempo di attesa del primo successo Il tempo di attesa del primo successo ` uguale al numero di prove effettuate per ottenere il e primo risultato 1. a Nel seguito mostriamo come si calcolano varie probabilit` notevoli del processo di Bernoulli. Rn−1 = 0. a Proposizione 2. per ogni numero naturale n > 1. intero sezioni e complementari di eventi del tipo { Rt1 = xt1 . + R n . p). . . Nel processo di Bernoulli ` utile introdurre anche la successione (Sn )n≥1 delle variabili e aleatorie che rappresentano il “numero di successi in n prove” ovvero Sn = R 1 + . Rn−1 = 0. Lo spazio probabilizzato e la successione (Rn )n≥1 sono quelli costruiti qui sopra P si chiamano processo di Bernoulli canonico.1) 2. xtn ∈ { 0. . Come sappiamo le Sn hanno densit` binomiale B(n. { T = n } = { R1 = 0. Abbiamo inoltre I { T = +∞ } = lim I { T > n } = 0. P P n→∞ { T = +∞ } = ∩n≥1 { Rn = 0 } (2. 1 }. . Le probabilit` di questi eventi.16 2. e e Gli elementi di F. Rn = 0 } quindi gli insiemi { T = n }. con la convenzione inf ∅ = +∞. Rtn = xtn } = pxt1 +. come abbiamo visto. Non dimostriamo questa proposizione accontentandoci di osservare che qualunque evento “ragionevole” si pu` esprimere..1 Esiste un’unica probabilit` I su F tale che a P I { Rt1 = xt1 . in modo opportuno. p) su un opportuno spazio (Ω. Definizione 2. . . xt1 .. a (2. I ). . . . La sua probabilit` a si calcola poi utilizzando le regole abituali. .. .+xtn (1 − p)n−(xt1 +. { T > n } ∈ F.2) (2. Osserviamo che si ha { T = 1 } = { R1 = 1 }. con una successione di unioni.+xtn ) P per ogni 0 < t1 < . . Rtn = xtn }. . . e. . . dunque T ` una variabile aleatoria.3) . 1[) una successione (Rn )n≥1 di variabili aleatorie indipendenti con legge B(1. . .3 Sia (Ω. P La (2. F. In particolare { T = n } . . . (Rn )n≥1 uno schema di Bernoulli.2) mostra che T ha legge geometrica di parametro p. . . F. e a sono date da I { T = n } = p(1 − p)n−1 .

. . nelle prime k − 1 prove si sono verificati esattamente n − 1 successi.) quindi I { Tn = k } = I { Sk−1 = n − 1 } · I { Rk = 1 } = P P P Verifichiamo ora che I { Tn = k } = P k≥n k≥n k−1 n−1 pn (1 − p)k−n . Inoltre. Il tempo di attesa dell’n-esimo successo si pu` definire per induzione a partire dal tempo o di attesa del primo successo T1 introdotto nel Paragrafo 2. k−1 n−1 pn (1 − p)k−n = 1. In particolare l’insieme { Tn = k } appartiene a F (` unione finita di eventi elementari).. se k ` l’istante dell’n-esimo successo. Rk = 1 } = { Sk−1 = n − 1 } ∩ { Rk = 1 } perch´. Infatti. . se Tn−1 (ω) < +∞ e l’insieme dei k > Tn−1 (ω) tali che ωk = 1 ` non vuoto..3 Tempo di attesa dell’n-esimo successo In modo simile possiamo calcolare la probabilit` che l’n-esimo successo accada ad un certo a istante k. .5) Inoltre dall’uguaglianza degli eventi { Tn > } = { S < n } (l’n-esimo si verifica dopo l’istante mente minore di n) si ha se e solo se all’istante n−1 il numero di successi ` strettae I { Tn > } = P j=0 j pj (1 − p) −j . . basta definire Tn : Ω → N∗ ∪ {+∞} cos` ı: Tn (ω) = min {k > Tn−1 (ω) | Rk (ω) = 1} . . (2. Am sono indipendenti allora A1 ∪ · · · ∪ Am−1 e Am sono indipendenti cos` come A1 ∩ · · · ∩ Am−1 ı e Am . n − 1. 1. . abbiamo poi { Tn = k } = { Sk−1 = n − 1. dopo aver definito Tn−1 ... Per ottenere n successi occorre fare almeno n prove quindi { Tn = k } = ∅. . TEMPO DI ATTESA DELL’N -ESIMO SUCCESSO 17 2..card(F )=n−1 (∩j∈F {Rj = 1}) ∩ ∩j ∈F {Rj = 0} / fa vedere inoltre che gli eventi { Sk−1 = n−1 } e { Rk = 1 } sono indipendenti (se A1 . P per k = 0. e perci` o I { Tn = k } = 0.4) Per ogni > n si ha 1− k=n I { Tn = k } = 1 − I { Tn ≤ } = I { Tn > }. allora alla k-esima prova il risultato ` stato e e e successo e. inoltre.2. Tn (ω) = +∞ e altrimenti. e La rappresentazione { Sk−1 = n − 1 } = F ⊆{0.. per ogni numero naturale k ≥ n. .k−1}. P P P (2.1.2.3.

5) si ha allora lim e l’identit` (2. p).18 Grazie alla diseguaglianza ≤ j 2. . osservando che. la variabile aleatoria traslata Vn = Tn − n. invece della Tn . . Dai calcoli precedenti si deduce subito che I { Vn = j } = P con j ∈ N. p). a Nelle applicazioni si considera spesso. a Questa densit` si chiama binomiale negativa perch´ si esprime spesso utilizzando un’estensione a e della definizione del coefficiente binomiale ai numeri negativi. La densit` (pj )j≥0 su N∗ data da a pj = n+j−1 j pn (1 − p)j n+j−1 n−1 pn (1 − p)j = n+j−1 j pn (1 − p)j k−1 n−1 pn (1 − p)k−n = 1 →∞ k=n si chiama densit` binomiale negativa di parametri n e p e si denota N B(n. . Definizione 2. Dato che.5 Siano n ∈ N∗ e p ∈]0. (−n − j + 1) .4) ` dimostrata. i ∈ N con i ≤ m si ha m i = m(m − 1) . Infatti. . La densit` (pk )k≥0 su N∗ data da pk = 0 per a k = 1. per ogni m. n − 1 e k−1 pk = pn (1 − p)k−n n−1 si chiama densit` di Pascal di parametri n e p e si denota P (n. j! . 1[. per ogni j fissato lim j →∞ (1 − p) = 0 e che la somma ha solo un numero finito di termini (n ` fisso!) si trova e I { Tn = +∞ } = lim I { Tn > } = 0. 2. a e Definizione 2. . P P →∞ Grazie alla (2.4 Siano n ∈ N∗ e p ∈]0. (m − i + 1) . . . IL PROCESSO DI BERNOULLI si ha allora n−1 j I { Tn > } ≤ P j=0 (p/(1 − p))j j (1 − p) . . 1[. i! si estende la definizione agli m strettamente negativi ponendo (per n ∈ N∗ ) −n j := (−n)(−n − 1) .

. 0 1 2 3 4 5 6 7 8 9 10 12 0 2 4 6 8 10 12 14 Si possono trovare abbastanza semplicemente media e varianza della variabile aleatoria Tn − n con legge N B(n. come si diceva. p) E[Tn − n] = n(1 − p) . .4. per gli ω tali che Tn (ω) < +∞ per ogni n ≥ 1 e in modo arbitrario per gli ω nell’insieme di probabilit` nulla dove Tn (ω) = +∞ per qualche n. (−n − j + 1) j! n(n + 1) . u Le figure qui sotto mostrano gli istogrammi delle densit` binomiali negative N B(4.6 Le variabili aleatorie Un sono indipendenti e hanno tutte legge geometrica di paramentro p. INDIPENDENZA DEI TEMPI TRA DUE SUCCESSI CONSECUTIVI Un semplice conteggio del numero di segni − mostra che (−n)(−n − 1) . . 0.6) (a destra).6) a (a sinistra) e N B(6. . p) si pu` scrivere nella forma a o pj = −n j pn (p − 1)j di uso pi` frequente. p2 Lasciamo per esercizio i calcoli (un pochino lunghi). a Teorema 2.4 Indipendenza dei tempi tra due successi consecutivi Un+1 (ω) = Tn+1 (ω) − Tn (ω) I tempi d’attesa tra gli istanti di successo si definiscono per induzione U1 (ω) = T1 (ω). 2. p V [Tn − n] = V [Tn ] = n(1 − p) . . j = (−1)j 19 Dunque la densit` N B(n. nelle applicazioni.2. 0. (n + j − 1) j! (n + j − 1)! = (−1)j j!(n − 1)! n+j−1 = (−1)j .

+mn −1 = 0. . . Un = mn } = pq m1 −1 · pq m2 −1 · · · pq mn −1 . . m1 + m2 . p) ovvero un processo di Bernoulli. Rm1 = 1. 1[. . . gli errori formeranno una successione di variabili aleatorie indipendenti (Rn )n≥1 con legge B(1. P Ci` dimostra che Uk ha densit` geometrica di parametro p e che vale la condizione del o a Teorema 1. Rm1 +m2 +1 = 0. Fissiamo n ∈ N∗ e m1 . si ha I { Uk = mk } = pq mk −1 .+mn = 1 }. .20 2. cio` a e che almeno uno dei d caratteri ricevuti sia errato. .. + Un si pu` concludere che ogni variabile o aleatoria uguale alla somma di n variabili aleatorie indipendenti con legge geometrica di parametro p ha legge di Pascal di parametri n e p. mn ∈ N∗ . La sua probabilit` ` quindi (posto q = 1 − p) ae I { U1 = m1 . nella trasmissione di ciascun carattere.. . m} fissato. .. L’evento { U1 = m1 . . 2. . . Rm1 +m2 = 1. . Una sorgente invia segnali costituiti da d-uple di caratteri a. Un = mn } (successo solo agli istanti m1 . Convenendo che. non nullo.5 Canali di comunicazione binari Il processo di Bernoulli ` un buon modello di un canale di comunicazione binario con errori e casuali nella trasmissione. a • gli eventuali errori nella trasmissione di caratteri distinti siano indipendenti. Rm1 +m2 +. . . . accetter` la stringa e a inviata come corretta altrimenti ne chieder` la ritrasmissione. + mn ) si pu` evidentemente scrivere o nella forma { R1 = 0. . Rm1 −1 = 0. il valore 1 indichi errore e il valore 0 indichi trasmissione corretta.16. . per ogni k ∈ {1. Per modellizzare la trasmissione ` ragionevole supporre che: e • la probabilit` di non ricevere correttamente ciascun carattere trasmesso sia p ∈]0. Rm1 +m2 +. . . . a In questo modo una stringa di d caratteri non verr` trasmessa correttamente solo con un a numero pari. b. . m1 + . . . . . Questo accade se si verifica l’evento [(d+1)/2] { Sd+1 = 2k } k=1 . P Ora. . . Rm1 +m2 −1 = 0. Si potrebbero considerare anche modelli un p` pi` complessi nei quali la probabilit` di o u a errore ` diversa a seconda che sia stato trasmesso a oppure b. di errori sui singoli caratteri. Il ricevitore (per varie ragioni come disturbo della trasmissione o malfuzionamenti degli apparati) tuttavia potrebbe non ricevere correttamente il carattere trasmesso. . IL PROCESSO DI BERNOULLI Dimostrazione. Tn = U1 + . per definizione. . . . ` e I { Sd > 0 } = 1 − I { Sd = 0 } = 1 − (1 − p)d . sommando su tutti gli mi ≥ 1 con i = k. . . e La probabilit` che una stringa di d caratteri non venga trasmessa correttamente. P P Una tecnica per diminuire la probabilit` di errore chiamata “controllo di parit`” consiste a a nell’aggiunta alla sorgente di un (d + 1)-esimo carattere in modo tale che il numero di a o di b contenuti nella stringa di lunghezza d + 1 inviata sia pari. . Il ricevitore controller` se a il numero di a o di b tra i d + 1 caratteri ricevuti ` pari e. in tal caso. Rm1 +1 = 0. Osservando che. ..

da un intero al successivo con probabilit` p oppure al precedente con probabilit` 1 − p. per p piccolo. j pari n j sj rn−j da cui segue subito la conclusione ponendo r = 1 − p.7 Per ogni n ≥ 1 e p ∈]0. ad ogni istante e indipendentemente dai salti precedenti. Questa a a dinamica si chiama abitualmente passeggiata casuale. La probabilit` di errore con il controllo di parit` ` quindi a ae 1 + (1 − 2p)(d+1) − (1 − p)(d+1) . 2 Si vede facilmente che. si ha 1 − (1 − p)d 1 + (1 − 2p) 2 (d+1) ≈ dp + o(p). − (1 − p)(d+1) 2. = j=0 n (r + s)n + (r − s)n = 2 0≤j≤n. ≈ d(d + 1)p2 + o(p2 ). Un fenomeno aleatorio del tutto simile si presenta osservando l’andamento del capitale di un giocatore che ad ogni istante vince o perde una certa quantit` fissa. a . 2 Dimostrazione. s = p. La formula del binomio di Newton ci permette di scrivere le identit` a n (r + s)n (r − s)n Sommando troviamo quindi = j=0 n n j n j sj rn−j (−1)j sj rn−j . PASSEGGIATA CASUALE 21 ([(d + 1)/2] denota la parte intera di (d + 1)/2 cio` il pi` grande intero minore o uguale a e u (d + 1)/2 ovvero (d + 1)/2 se d ` dispari e d/2 se d ` pari) e quindi la probabilit` che una e e a stringa di d caratteri non venga trasmessa correttamente con il controllo di partit` ` ae   [(d+1)/2] [(d+1)/2] I  P k=1 { Sd+1 = 2k } = k=1 [(d+1)/2] I { Sd+1 = 2k } P d+1 2k = k=1 p2k (1 − p)d+1−2k Per trovare un’espressione pi` semplice di questa probabilit` utilizziamo il seguente u a Lemma 2.2. 1[ si ha [n/2] k=0 n 2k p2k (1 − p)n−2k = 1 + (1 − 2p)n .6.6 Passeggiata casuale Il processo di Bernoulli si utilizza per descrivere la dinamica del moto di un punto che si muove a caso su Z saltando.

si ha I { X2n = 0 } ≈ P (4p(1 − p))n √ . . b) che toccano e l’asse delle ascisse.) Il numero di cammini da (0. Supponendo che. In particolare per x ∈ { 1. Xn = x +I P 0≤k≤n max Xk ≥ x. IL PROCESSO DI BERNOULLI Lo spostamento del punto dal tempo n al tempo n + 1 ` quindi ben modellizzato dalle e variabili aleatorie 2Rn+1 − 1. il punto parta da 0. Il calcolo della probabilit` di ritorno in 0 al tempo n della passeggiata casuale con X0 = 0 a ` il pi` semplice dei problemi precedenti. b) che tocca e l’asse delle ascisse baster` cambiare di segno i primi m incrementi del cammino da (0. .8 La famiglia di variabili aleatorie (Xn )n≥0 si chiama passeggiata casuale su Z con parametro p. p). Infatti. (2. .9 (Principio di riflessione. Teorema 2. per n grande. −a) a a (n. Nelle varie interpretazioni delle passeggiate casuali si pone spesso il problema di determinare la probabilit` di ritornare al valore iniziale. . Nel caso in cui p = 1/2 si chiama passeggiata casuale simmetrica. se a e e n ` pari e n I { Xn = 0 } = I { Sn = n/2 } = P P (pq)n/2 . b ∈ Z) che toccano l’asse delle ascisse ` uguale al numero di cammini da (0. a) a (n. b) (a. Si ha allora I P 0≤k≤n max Xk ≥ x = 2I { Xn > x } + I { Xn = x } P P per ogni x > 0. La posizione iniziale X0 ` di solito fissa (tipicamente X0 = 0). e Definizione 2.10 Sia (Xn )n≥0 una passeggiata casuale simmetrica su Z con X0 = 0. b) (a. la posizione al tempo n ` data da e n Xn = X0 + k=1 (2Rk − 1) = 2Sn − n. al tempo 0.6) n/2 In particolare. Xn = x . di osservare un certo valore massimo o a minimo in un dato intervallo di tempo. Per ogni cammino da (0. Dimostrazione. Per ottenere un cammino da (0. b ∈ Z) che tocca sia m l’ultimo istante in cui il valore raggiunto ` 0. grazie alla formula di Stirling. −a) a (n. e u si trova subito che la probabilit` di ritorno in 0 al tempo n ` nulla se n ` dispari mentre. −a) a (n. il tempo medio impiegato per raggiungere un certo valore e quantit` simili. b) (vedi Figura 2. πn Teorema 2.22 2. . Separando i cammini che arrivano in x da quelli che arrivano ad un valore diverso si ha subito I P 0≤k≤n max Xk ≥ x =I P 0≤k≤n max Xk ≥ x. n } si ha n I P 0≤k≤n max Xk ≥ x = 2−n+1 y = x+1 n (n + y)/2 + 2−n n (n + x)/2 Dimostrazione. a Tratteremo molti di questi problemi utilizzando metodi di teoria delle martingale ma risponderemo ad alcune delle domande precedenti con metodi elementari basati sul principio di riflessione.1). a) a (n. sapendo che Sn ha legge binomiale B(n.

2. negativi) si ha ovviamente s + g = n e s − g = x u . zz zz z zz zz  z zz zz z zz zz  Figure 2.. Baster` quindi verificare che a a I P max Xk ≥ x. IL PROBLEMA DEL BALLOTTAGGIO (0. ..7. Sia Nn. uscente da 0.. x) (n. .7 Il problema del ballottaggio Calcoleremo ora la probabilit` che una passaggiata casuale simmetrica. a) (0. . . 2. −a)   @  @@ ~ @@ @@ ~~ @@@ ~ @@ @@ ~~ @@ @@ ~~ @@ @@ ~ ~~   ?    ??  ??  ??  ??    . 2. all’inizio del gioco aveva 0 unit` e a a a al tempo finale n possiede x (x > 0) unit`. . .. .. .2. . b) Evidentemente gli eventi max Xk ≥ x. Xn = x . per esempio: se un giocatore ad ogni istante vince o perde una unit` con uguale probabilit`. ... . Xn−1 > 0 } per la probabilit` condizionata rispetto all’evento { Xn = x } (supponiamo di sapere gi` che a a il candidato vincente ha x voti pi` dell’altro oppure che il giocatore vince x unit` pi` di u a u quante ne perda). 0) a (n. Xn = x = 2I { Xn > x } . Detto s (su) (risp.. infatti il numero di cammini che raggiuna gono (ed eventualmente superano) il valore x e terminano con un valore diverso da x ` e esattamente doppio del numero di cammini che terminano con un valore strettammente maggiore di x. qual ` la probabilit` che sia rimasto sempre in a e a attivo ai tempi 1.. { Xn = x } 0≤k≤n coincidono e quindi le loro probabilit` sono uguali. P 0≤k≤n Questa identit` segue dal principio di riflessione.x il numero totale di cammini da (0. n? L’evento del quale dobbiamo calcolare la probabilit` ` ae { X1 > 0. . . .. arrivi a al tempo n ad un valore x > 0 senza ritornare mai in 0 ai tempi 1.1: Principio di riflessione 23 (n. . . n. X2 > 0. g (gi` ) il numero di incrementi positivi (risp. Il problema ` detto del “ballottaggio” perch´ si potrebbe riformulare nel modo seguente: e e nello spoglio di una votazione tra due candidati (ignorando le schede bianche e nulle) qual ` la probabilit` che il candidato vincente rimanga in vantaggio durante tutta l’operazione? e a Sono possibili tuttavia tante altre interpretazioni. x ∈ N∗ ).

11 e dal fatto che ogni cammino fissato da (0. . 0) a (n − 1.x n Dimostrazione. x) che non passano mai da 0 ai tempi 1. X2 > 0. . x − 1) che passa sotto 0. si ottiene un cammino che arriva in (n − 1.x−1 il numero di cammini che passano sotto lo 0. .12 Se (Xn )n≥0 ` una passeggiata casuale simmetrica con X0 = 0 per ogni e x ∈ { 1.24 e risulta evidentemente Nn. (per traslazione) ` uguale al numero di cammini da e (0. x + 1).x = n s = 2. 0) a (n − 1. x + 1). 0) a (n. n Dimostrazione. a 2. . n ` evidentemente uguale al numero di cammini da (1.x−1 − Nn−1. Il numero totale di cammini da (0. x + 1). dato un camino da (0. X2 > 0. Lemma 2. per il principio di riflessione. . cambiando il primo incremento uguale a +1 in un incremento −1 si ottiene un cammino da (0. . 2. a . 1) a (n. A questo scopo iniziamo mostrando una formula notevole sull’uguaglianza tra: la probabilit` di passaggio a in 0 al tempo 2n e la probabilit` di non passare mai da 0 ai tempi 1. 2n. x) che non e passano mai da 0. o Teorema 2. . . x − 1) che non passano per 0 ` allora uguale a e Nn−1. IL PROCESSO DI BERNOULLI n (n + x)/2 . . . x) ha probabilit` 2−n . Questo. . x − 1) che non passano mai sotto lo 0 ai tempi 1. Iniziamo mostrando un lemma preliminare che si verifica essenzialmente come il principio di riflessione.x+1 = x Nn. 0) a (n − 1. . l’incremento risulta Xm − Xm−1 = 2Rm − 1 = −1. Viceversa.x+1 = = Ci` dimostra il lemma. n − 1. . a sua volta. 2. . n 2−n . .x−1 − Nn−1. Cambiando questo incremento con un +1. 0) a (n. . Vogliamo calcolare la legge di Z. . . La seconda ` un’immediata conseguenza della a e definizione di probabilit` condizionata. detto m (m > 0) il primo istante dopo 0 in cui Xm < 0.8 Tempo del primo ritorno in 0 Z = inf { n ≥ 1 | Xn = 0 } Si chiama tempo del primo ritorno in 0 la variabile aleatoria con la convenzione abituale inf ∅ = +∞. . . Il numero di cammini da (0. x) (x ∈ N∗ ) che non toccano l’asse delle ascisse a tempi strettamente positivi ` uguale a e Nn−1. x n n−1 (n + x)/2 − 1 n (n + x)/2 = − n−1 (n + x)/2 x Nn. Infatti. Xn−1 > 0 | Xn = x } = P x n n (n + x)/2 x . 2.11 Il numero di cammini da (0. 0) a (n. n } tale che n − x sia pari si ha I { X1 > 0. Per mostrare la formula occorre quindi sottrarre a Nn−1. La prima formula segue subito dal Lemma 2. 0) che arriva in (n − 1.x . . Xn−1 > 0. . 2. . Xn = x } = P in particolare I { X1 > 0. Questo. . ` uguale al numero di cammini che e finiscono in (n − 1.

. X2n > 0 } = P k=1 I { X1 > 0. .12.13 Per ogni n ∈ N∗ si ha I { X1 = 0. X2 > 0. X2 = 0. X2 > 0. abbiamo 2 −2n k=1 2k N2n. n I { X1 > 0. X2n = 0 } = I { X2n = 0 } = 2−2n P P Dimostrazione.2k+1 ) 2n − 1 n .2k . Per simmetria si ha evidentemente I { X1 = 0. . .14 Per ogni numero n ≥ 1 abbiamo I { Z = 2n } = P e I { Z = +∞ } = 0. . . . . X2n > 0 } = P = Osservando infine che 2n − 1 n troviamo I { X1 > 0. Grazie al Lemma 2. . X2 > 0. X2 = 0. per il Lemma 2. . X2 = 0. .2k−1 − N2n−1. Possiamo determinare la legge di Z. . X2n = 0 } = 2I { X1 > 0. . 2n n I { X1 > 0. . X2n−2 = 0 } − I { X1 = 0. X2 = 0. X2n = 0 } P P = I { X1 = 0. . 2n − 1 1 2−2n I { X2n = 0 } = P 2n − 1 2n − 1 2n n . . = 2 −2n k=1 (N2n−1. . . . TEMPO DEL PRIMO RITORNO IN 0 Lemma 2. X2n = 0 } P P 2n − 2 2n = 2−2n 4 − n−1 n = 2−2n 2n n 2n −1 . .2. X2n = 2k } P n = e quindi. . . . . . . . . . 2−2n N2n−1. . P Dimostrazione. X2n > 0 } . . .8.11.13 valgono le identit` a I { Z = 2n } = I { X1 = 0. . . . . . P P 2n n 25 Abbiamo inoltre (formula della probabilit` totale). . . . X2 > 0. X2n > 0 } = P da cui segue subito la conclusione. con le notazioni del paragrafo precedente a e grazie al Teorema 2. X2 > 0. X2 = 0.1 = 2−2n 1 (2n − 1)!(2n) 1 (2n)! 1 (2n − 1)! = = = n!(n − 1)! 2 n!n! 2 n!n! 2 2n n 1 −2n 2 2 2n n = 1 I { X2n = 0 } P 2 Teorema 2.

.15 Per ogni n ∈ N∗ e k ∈ { 0. P 2 πn In particolare E[Z] = n=1 ∞ 2n · I { Z = 2n } = +∞. possiamo cone e cludere che l’evento { Z = +∞ } ha probabilit` nulla. a Utilizzando la formula di Stirling si vede facilmente che. Teorema 2. La legge di V si calcola abbastanza facilmente con la teoria sviluppata. . 1. 2. (2. X4 = 0. sappiamo che I { Z > 2n } = I { X2 = 0. IL PROCESSO DI BERNOULLI Troviamo cos` la formula cercata per n ∈ N∗ . . utilizzando la formula di Stirling √ nn e−n 2πn lim = 1. osservando che l’evento { Z = +∞ } ` intersezione della successione non crescente e di eventi ({ Z > 2n })n≥1 ovvero { Z = +∞ } = n≥1 { Z > 2n } . X2n = 0 } = 2−2n P P e quindi. . 1 I { Z = 2n } ≈ √ 3/2 . .9 Tempo trascorso dall’ultimo passaggio in 0 Secondo una credenza diffusa i ritorni in 0 dovrebbero essere abbastanza frequenti. . abbiamo I { Z = +∞ } = lim I { Z > 2n } . P P n→∞ Per ogni intero n ≥ 1. . n } si ha I { V2n = 2k } = 2−2n P 2k k 2n − 2k n−k . Il Teorema 2.14 per` la contraddice cos` come il risultato seguente sul tempo trascorso dall’ultimo o ı passaggio in 0 prima del tempo 2n. per n grande. Questo ` definito come la variabile aleatoria e V2n = 2n − 2 max{ k ≤ n | X2k = 0 }. . n→∞ n! si vede facilmente che. πn 2n n √ Poich´ la successione (1/ πn)n≥1 ` infinitesima per n tendente all’infinito.26 2.13. ı Infine. P Questo mostra che il ritorno in 0 avverr` quasi certamente ma occorrer` attendere troppo a a tempo. 2−2n 2n n 1 ≈√ .7) . per n grande. grazie al Lemma 2.

Pi` precisamente mostriamo che la successione di variabili aleatorie (V2n /2n)n≥1 u converge in legge verso la legge dell’arco seno. Osservando che. la “rarit`” dei e a passaggi in 0.13 troviamo I { V2n = 2k } = I { X2k = 0 } I { X2k+2 − X2k = 0. . . poich´ X2k ` indipendente dal vettore aleatorio (X2k+2 − X2k . X2n − X2k = 0 } P 27 e quindi.9. Si ha infatti I { V2n = 2k } = I { X2n−2k = 0. f (x) = 0 per x ∈]0. X2k+2 − X2k = 0. X2n − X2k = 0 } P P P = I { X2k = 0 } I { X2n − X2k = 0 } P P da cui segue subito la conclusione. TEMPO TRASCORSO DALL’ULTIMO PASSAGGIO IN 0 Dimostrazione. . . . . . per x ∈]0. X2n = 0 } P P = I { X2k = 0. . L’istogramma qui sotto si riferisce alla densit` di V12 . per tempi grandi. Teorema 2. e e grazie al Lemma 2. X2n − X2k ). 1[ si ha n→∞ lim I { V2n ≤ 2nx } = P √ 2 arcsin( x). a 0 2 4 6 8 10 12 Vedremo ora come la formula 2. . grazie alla formula di Stirling.7. la probabilit` di non avere osservato passaggi a dallo 0 dal tempo n in poi ` 1/2. / . per n grande si ha I { V2n ≤ 2nx } = P 0≤k≤nx 2−2n 1 nπ 2k k 1 2n − 2k n−k ≈ 0≤k≤nx k/n(1 − k/n) e ricordando la nota approssimazione dell’integrale di una funzione continua con l’integrale delle funzioni a scala troviamo x n→∞ lim I { V2n ≤ 2nx } = P 0 dy π y(1 − y) = √ 2 arcsin( x). 1[. X2n−2k+2 = 0. π Dimostrazione. π L’arco seno appare quindi nella funzione di ripartizione. La densit` ` pertanto ae f (x) = 1 π x(1 − x) . ancora una volta.7 mostra che. . La formula 2. .16 Per ogni x ∈]0. al tempo 2n. . dia origine alla cosiddetta legge dell’arco seno. . 1[. . . Questo risultato mostra.2.

non sia mai rimasto senza monete (tranne. 2. calcolare la probabilit` a dell’evento { T ≤ T }. 1/2). p) a soddisfa n(1 − p) n(1 − p) E[Y ] = .6 Il valore di portafoglio di azioni ogni giorno aumenta o diminuisce di 0.1 con probabilit` 1/2. V [Y ] = p p2 Esercizio 2. Calcolare I { Tk = j | Tn = m } P per ogni j ∈ { k. lim inf n→∞ = −1. n. .2 qual ` la probabilit` che il a e e e a valore non sia mai sceso sotto 1? . .2 Verificare che una variabile aleatoria Y con densit` binomiale negativa N B(n. dopo 20 giorni ` 1. a e a durante il gioco. . . ovviamente. Alla fine del gioco possiede x monete (x > 0). Esercizio 2. . Studiando il comportamento asintotico della passeggiata casuale simmetrica si potrebbe dimostrare la legge del logaritmo iterato lim sup n→∞ Xn 2n log(log(n)) Xn 2n log(log(n)) = 1. .10 Esercizi Esercizio 2. Detti T e T i rispettivi istanti dei primi successi. Se il valore iniziale ` 1 e. a P Esercizio 2. 1. IL PROCESSO DI BERNOULLI Dunque la cosiddetta legge dell’arco seno ` la legge beta B(1/2.4 Un tale gioca n partite in ciascuna delle quali perde o vince 1 moneta con uguale probabilit`.3 Sia Tn il tempo d’attesa dell’n-esimo successo di un processo di Bernoulli e sia k ≤ n.1 Calcolare la probabilit` I ({ R1 = 1 } | { Sn = k }) per k = 0.28 2. m − (n − k) }.5 Siano (Rn )n≥1 e (Rn )n≥1 due processi di Bernoulli con parametri p e p indipendenti. . al tempo 0)? Esercizio 2. Qual ` la probabilit` che. Che cosa si pu` dire della legge di Tk rispetto alla o probabilit` condizionata I { · | Tn = m } ? a P Esercizio 2. e Osservazione. .

I = [0. . I processi stocastici abitualmente si distinguono in varie classi a seconda dell’insieme dei tempi. In questo capitolo introdurremo le definizioni fondamentali e le prime propriet` dei a processi stocastici. F. Definizione 3. per ogni n e ogni t1 < t2 < · · · < tn gli incrementi Xt1 − X0 . . numerabile. Esempio 3. 29 .. I = Z oppure I = [0. nell’esperimento aleatorio modellizzato dallo spazio probabilizzato (Ω. in un intervallo della retta reale. R+ = [0. Processi di Markov con insieme degli stati Z. . Secondo questo punto di vista allora due famiglie di variabili aleatorie (Xt )t∈I . Y = (Yt )t∈I su spazio probabilizzato (Ω. Processi a incrementi indipendenti. della legge delle variabili aleatorie Xt e del tipo di dipendenza tra le variabili aleatorie a tempi diversi. 1. . R. Xtn − Xtn−1 siano indipendenti Di un processo stocastico si osservano abitualmente solo i valori assunti. . variabili aleatorie Xt tali che. sar` N. . di volta in volta. F. . .). . L’insieme I ` l’insieme dei tempi che. o un intervallo e a di R. P) si dice che X ` una modificazione di Y se e P { Xt = Yt } = 1. Processo di Bernoulli e catene di Markov I = N. dei valori che possono prendere le variabili aleatorie Xt (in un insieme finito. +∞[. le code casuali. . . Xt2 . +∞[. . P) ` una famiglia (Xt )t∈I di variabili e aleatorie reali definite su Ω. . .2 Dati due processi stocastici X = (Xt )t∈I . da un numero finito di variabili aleatorie (Xt1 . +∞[ e variabili aleatorie Xt tali che per ogni n e ogni t1 < t2 < · · · < tn .. 2. I = [0. P) uno spazio probabilizzato fissato e I un insieme totalmente ordinato. 3.3 Elementi di teoria generale dei processi Sia Ω. P). Xt2 +s . 4. s le variabili aleatorie (Xt1 . F. .1 Elenchiamo alcuni tipi di processi stocastici. Xtn +s ) abbiano la stessa legge. +∞[ . per esempio i processi di nascita e morte.1 Un processo stocastico X su (Ω. . F. Xtn ) e (Xt1 +s . Xt2 − Xt1 . . Xtn ). Processi stazionari. . Xt2 . Z. . (Yt )t∈I tali che P { Xt = Yt } = 1 per ogni t ∈ I descrivono essenzialmente lo stesso processo Definizione 3.

allora i due processi hanno le e stesse distribuzioni finito dimensionali. 3.2 Propriet` delle traiettorie e versioni continue a Sia X = (Xt )t∈I un processo stocastico su uno spazio probabilizzato (Ω. . An ∈ B(Rn ). e Definizione 3.. . e P { Xt1 = Yt1 . . xn ∈ Z. . Definizione 3.. . . . tn ∈ I. La filtrazione naturale di un processo stocastico ` la pi` piccola filtrazione rispetto alla e u quale il processo sia adattato. allora.4 Dato un processo stocastico X = (Xt )t∈I su uno spazio probabilizzato (Ω. e Esempio 3.1) Nel caso in cui l’insieme dei tempi I ` un intervallo di R si dice che e . .. P) si chiama filtrazione naturale di X la filtrazione (Ft )t∈I in cui Ft ` la pi` piccola e u σ-algebra rispetto alla quale le variabili aleatorie Xs con s ≤ t siano misurabili. . . La famiglia (Fn )n≥1 ` una filtrazione di sotto-σ-algebre di F. se X ` una modificazione di Y . La σ-algebra Ft di solito ` costituita dagli eventi osservabili dal tempo 0 al tempo t.tn su B(Rn ) definite da a µt1 . Le leggi di probabilit` µt1 . Xn = xn } con x1 . . ELEMENTI DI TEORIA GENERALE DEI PROCESSI Osserviamo che. < tn ) si chiamano distribuzioni finito-dimensionali del processo stocastico X.6 Si chiama traiettoria di X relativa a ω la funzione I t → Xt (ω) ∈ R. Definizione 3. P) uno spazio probabilizzato.5 Un processo stocastico (Xt )t∈I su uno spazio probabilizzato (Ω. . F. . F. Xtn ∈ An } (A1 . . t1 < . P) con una filtrazione (Ft )t∈I di sotto-σ-algebre di F si dice adattato se la variabile aleatoria Xt ` e Ft misurabile per ogni t ∈ I. 3. . (3.. . F. . . . F. P). . . . Xtn = Ytn } = 1 per ogni n ∈ N∗ e ogni t1 .tn (A1 × .3 Si chiama filtrazione di F una famiglia (Ft )t∈I di sotto-σ-algebre di F che sia non decrescente ovvero tale che Fs ⊆ Ft per ogni s ≤ t. . . . . Definizione 3.1 Filtrazioni di σ-algebre Sia (Ω.30 per ogni t ∈ I. × An ) = P { Xt1 ∈ A1 .. La σ-algebra degli eventi osservabili fino al tempo n ` la pi` piccola σ-algebra Fn di sottoinsiemi di F che e u contenga gli eventi della forma { X1 = x1 . 3.. .2 Sia (Xn )n≥1 un processo di Bernoulli di parametro p. ... Quindi se X ` una modificazione di Y .

` 3.2. PROPRIETA DELLE TRAIETTORIE E VERSIONI CONTINUE (i) X ha traiettorie continue se la funzione 3.1 ` continua per ogni ω ∈ Ω, e

31

(ii) X ha traiettorie regolari (oppure traiettorie c`dl`g) se la funzione 3.1 ` continua a a a e destra e ha limite da sinistra per ogni ω ∈ Ω. La continuit` in probabilit` ovvero a a
s→t

lim P { |Xs − Xt | > ε } = 0

per ogni s, t ∈ I ` una propriet` molto pi` debole della continuit` delle traiettorie. e a u a Definizione 3.7 Si dice che X ammette una versione a traiettorie continue (risp. regolari) se esiste un processo stocastico X a traiettorie continue (risp. regolari) che sia una modificazione di X. Definizione 3.8 Si dice che X ` indistinguibile da Y se e P ( ∪t∈I {Xt = Yt } ) = 0. ` E chiaro che, se X ` indistinguibile da Y , allora X ` una modificazione di Y . Si verifica e e facilmente che, nel caso in cui l’insieme dei tempi I sia numerabile, X ` indistinguibile da e Y se e solo se ` una modificazione di Y . Nel caso in cui I non ` numerabile e dunque un e e intervallo (eventualmente illimitato) si ha comunque Proposizione 3.9 Siano X e Y due processi con traiettorie regolari. Se X ` una modifie cazione di Y allora ` anche indistinguibile da Y . e Baster` infatti osservare che, data la regolarit` delle traiettorie, preso un sottoinsieme a a D di I numerabile e denso, si ha { Xt = Yt } =
t∈I t∈D

{ Xt = Yt } .

In generale, tuttavia, se X ` una modificazione di Y , non ` necessariamente indistinguibile e e da Y come mostra il seguente esempio Esempio 3.3 Sia Ω = [0, 1], F = B([0, 1]) e P la misura di Lebesgue su F. Sia I = [0, +∞[ l’insieme dei tempi. Consideriamo il processo stocastico X cos` definito ı Xt (ω) = 1 0 se ω = t, se ω = t.

` e sia Y il processo nullo Yt (ω) = 0 per ogni t ∈ I e ogni ω ∈ Ω. E chiaro che X ` una e modificazione di Y ma X non ` indistinguibile da Y perch´ e e P ( ∪t∈I {Xt = Yt } ) = 1. Nello studio dei processi stocastici ` molto utile sapere se un certo processo ha una moe dificazione con traiettorie continue. Questa propriet` si pu` verificare applicando il seguente a o risultato che d` anzi una informazione pi` precisa. Ricordiamo che una funzione g : R → R a u si chiama θ-holderiana (0 < θ < 1) se esiste una costante c tale che |g(t) − g(s)| ≤ K|t − s|θ , per ogni t, s ∈ R.

Una funzione θ-holderiana `, in particolare, uniformemente continua. e

32

3. ELEMENTI DI TEORIA GENERALE DEI PROCESSI

Teorema 3.10 Sia X = (Xt )t≥0 un processo stocastico su uno spazio probabilizzato (Ω, F, P). Se esistano due numeri reali α, β strettamente positivi e una costante C tali che E [|Xt − Xs |α ] ≤ C|t − s|1+β per ogni t, s ≥ 0, allora X ha una modificazione con traiettorie γ-h¨lderiane per ogni γ ∈ o ]0, β/α[. Per la dimostrazione si veda “I. Karatzas, S.E. Shreve, Brownian Motion and Stocastic Calculus (Second Edition) Th.2.8 p.53”.

3.3

Esercizi

Esercizio 3.1 Sia (Rn )n≥1 un processo di Bernoulli di parametro p su uno spazio probabilizzato (Ω, F, P). Per ogni n ≥ 1 sia Sn = R1 + . . . + Rn e sia Gn la pi` piccola σ-algebra di u sottoinsiemi di F che contenga gli eventi della forma { S1 = k1 , . . . , Sn = kn } con 0 ≤ k1 ≤ . . . ≤ kn interi arbitrari. Verificare che Gn = Fn (Fn ` la σ-algebra definita e nell’Esempio 3.2) per ogni n ≥ 1. Esercizio 3.2 Con le notazioni dell’esercizio precedente consideriamo il processo stocastico Y cos` definito ı Sn se n ` dispari, e Yn = Sn−1 se n ` pari. e Verificare che Y ` adattato alla filtrazione (Fn )n≥1 e che la filtrazione naturale di Y ` e e strettamente pi` piccola della filtrazione naturale di X. u Esercizio 3.3 Mostrare che un processo stocastico X = (Xt )t≥0 con la propriet` seguente a “per ogni t, s ≥ 0 la variabile aleatoria Xt −Xs ha legge normale N (0, t−s)” verifica l’ipotesi del Teorema 3.10 Esercizio 3.4 Mostrare che un processo stocastico X = (Xt )t≥0 con la propriet` seguente a “per ogni t, s ≥ 0 la variabile aleatoria Xt − Xs ha legge di Poisson con parametro λ(t − s)” non verifica l’ipotesi del Teorema 3.10 Esercizio 3.5 Mostrare che un processo stocastico X = (Xt )t∈[0,1] con la propriet` seguente: a per ogni t, s ≥ 0 le variabili aleatorie Xt , Xs hanno legge gaussiana bidimensionale con media 0 e covarianza Cov[Xt , Xs ] = min{s, t} − st verifica l’ipotesi del Teorema 3.10.

4

Processi puntuali
I processi puntuali sono speciali processi stocastici le cui traiettorie sono costanti a tratti e, a tempi aleatori, hanno salti di una certa ampiezza che pu` essere costante oppure aleatoria. o In questo capitolo mostreremo alcuni esempi di processi puntuali con ampiezza dei salti uguali a 1 e per questo detti anche processi di conteggio. Questi processi possono descrivere vari fenomeni aleatori come il conteggio del numero di persone che arrivano in una coda casuale, i guasti di un certo apparato, il decadimento radioattivo ...

4.1

Processo di Poisson

Sia (Xn )n≥1 una successione di variabili aleatorie reali indipendenti con legge esponenziale di parametro λ (λ > 0) e poniamo Tn = X1 + . . . + Xn per ogni n ≥ 1. Per ogni numero reale t ≥ 0 definiamo la variabile aleatoria Nt a valori N ∪ {+∞} Nt =
n≥1

1{Tn ≤t} .

Le Xn si potrebbero pensare come le durate di certi “pezzi” che vengono sostituiti non appena si guastano. La variabile aleatoria Nt rappresenta quindi il numero di guasti nell’intervallo temporale [0, t]. ` E abbastanza facile trovare la legge di Nt . Proposizione 4.1 La variabile aleatoria Nt ha legge di Poisson di parametro λt per ogni t > 0. In particolare P{ Nt = +∞ } = 0 per ogni t ≥ 0. Dimostrazione. Calcoliamo dapprima la probabilit` dell’evento { Nt = 0 }. Grazie all’identit` a a { N t = 0 } = { T1 > t } si ha subito P{ Nt = 0 } = P{ T1 > t } = e−λt . Calcoliamo poi la probabilit` dell’evento { Nt = k } per ogni k > 0. Grazie all’identit` a a { Nt = k } = { Tk ≤ t, Tk+1 > t } = { Tk ≤ t } − { Tk+1 ≤ t } si ha quindi, tenendo conto che Tk e Tk+1 hanno leggi Γ(k, λ) e Γ(k + 1, λ) rispettivamente, P{ Nt = k } = P{ Tk ≤ t } − P{ Tk+1 ≤ t }
t

=
0

λk xk−1 −λx e dx − (k − 1)! 33

t 0

λk+1 xk −λx e dx. k!

. . Utilizzando l’indipendenza delle quattro variabili aleatorie Th . Nt+s = k } ` data da a e t 0 λh xh−1 −λx e dx (h − 1)! t t+s−x t+s−(x+y) λe−λy dy t−x 0 t+s−x λk−1 z k−2 −λz e dz (k − 2)! z k−2 dz (k − 2)! ∞ λe−λw dw t+s−(x+y+z) = λh+k e−λ(t+s) 0 t xh−1 dx (h − 1)! x dx (h − 1)! t h−1 h−1 t+s−(x+y) dy t−x t+s−x t−x 0 = λh+k e−λ(t+s) = λh+k e−λ(t+s) s k! 0 k ((t + s) − (x + y))k−1 dy (k − 1)! x dx (h − 1)! 0 (λt)h −λs (λs)k = e−λt ·e . . .2 Per ogni intero n ≥ 1 e ogni 0 < t1 < t2 < . Nt+s = h + k } = P{ Th ≤ t. h! k! Si ha quindi P{ Nt = h. dato che Nt ha speranza finita. . h! k! I due casi in cui h = 0 e k = 0. F. Th+k+1 > t + s } = P{ Th ≤ t. Xh+1 . per semplicit`. . . Γ(1. Nt+s = h + k } = e−λt (λt)h −λs (λs)k ·e . Th + Xh+1 + (Th+k − Th+1 ) ≤ t + s. e . In particolare. . λ). P) tali che 1. per ogni ω ∈ Ω la traiettoria t → Nt (ω) ` regolare. u La famiglia di variabili aleatorie (Nt )t≥0 ha evidentemente traiettorie regolari. t2 = t + s a (t. il caso di due soli tempi t1 = t. Nt+s − Nt = k } = P{ Nt = h. Ntn − Ntn−1 sono indipendenti e hanno legge di Poisson con parametri rispettivamente λt1 . s > 0) e calcoliamo P{ Nt = h. . λ(t2 − t1 ). . che hanno leggi rispettivamente Γ(h. Nt2 − Nt1 . la probabilit` dell’ evento {Nt = +∞} ` a e nulla. ı Definizione 4. Th + Xh+1 + (Th+k − Th+1 ) + Xh+k+1 > t + s } per h > 0. λ). Teorema 4. λ) si vede subito che la probabilit` P{ Nt = h. Abbiamo cos` costruito una versione del processo di Poisson. (Th+k − Th+1 ). Th+k ≤ t + s. Xh+k+1 . λ(tn − tn−1 ).34 4. λ). < tn le variabili aleatorie Nt1 . PROCESSI PUNTUALI Integrando per parti il secondo integrale (si integra λe−λx e si deriva xk ) si trova infine P{ Nt = k } = e−λt (λt)k k! e quindi Nt ha legge di Poisson con parametro λt. Dimostrazione. Γ(k − 1. 1 si trattano in modo analogo e sono pi` semplici. Si verifica inoltre che il processo (Nt )t≥0 ha incrementi indipendenti.3 Si chiama processo di Poisson di parametro λ > 0 una famiglia (Nt )t≥0 di variabili aleatorie su uno spazio probabilizzato (Ω. Th+1 > t. Γ(1. Consideriamo. Th + Xh+1 > t. k > 1.

per ogni intero n ≥ 1 e ogni 0 < t1 < t2 < . a Dimostrazione. Mostreremo ora alcune propriet` del processo di Poisson di parametro λ > 0. . dalla nota propriet` a (n) asintotica della legge binomiale. Si pu` dimostrare l’indipendenza degli incrementi del processo (Nt )t≥0 in o modo simile.4. sia (Rk )k≥1 un processo di Bernoulli di parametro pn u come sopra. . 1− k t t St (n) = k=1 Rk . . Si potrebbe dimostrare che Nt /t converge quasi certamente verso λ. .6 Siano (Nti )t≥0 (i = 1. s/t). 2 t2 ε ε t La conclusione segue facendo tendere t all’infinito. < tn le variabili aleatorie Nt1 . 2) due processi di Poisson indipendenti con parametri λi . Il processo (Yt )t≥0 definito da Yt = Nt1 +Nt2 ` un processo di Poisson con parametro e λ1 + λ 2 . (n) In modo pi` preciso. . . Grazie alla diseguaglianza di Chebychev. e ı Proposizione 4. . PROCESSO DI POISSON 35 2.1. . . Nt2 − Nt1 . a Proposizione 4. pn ) e quindi. Per ogni k ∈ { 0. Osservazione. per ogni ε > 0 si ha P Nt −λ >ε t ≤ V [Nt ] λ = 2 . . . λ(tn − tn−1 ). e Dimostrazione. λ(t2 − t1 ). . per ogni n. Proposizione 4. Il processo di Poisson di parametro λ si potrebbe trovare come limite di una successione di processi di Bernoulli con parametri pn tali che limn→∞ npn = λ. Nt − Ns = n − k } /P { Nt = n } = P { Ns = k } P { Nt − Ns = n − k } /P { Nt = n } = = La Proposizione ` cos` dimostrata. (n) St (n) (n) − Ss = k=[ns]+1 Rk (n) sono indipendenti per ogni n e per ogni t > s. .5 Per ogni s < t ed ogni intero n ≥ 1 la legge di Ns per la probabilit` a condizionata P { · | Nt = n } ` la legge binomiale B(n.4 Le variabili aleatorie (Nt /t)t≥0 convergono verso λ in probabilit`. Da questo fatto si pu` dedurre l’indipendenza o di Ns e Nt − Ns . Ntn − Ntn−1 sono indipendenti e hanno legge di Poisson con parametri rispettivamente λt1 . Per ogni t ≥ 0 poniamo [nt] e−λs (λs)k e−λ(t−s) (λ(t − s))n−k n! · · −λt k! (n − k)! e (λt)n s k s n−k n . Inoltre ` chiaro che le variabili aleatorie e [ns] (n) Ss = k=1 [nt] Rk . (n) (n) ` E chiaro che la variabile aletoria St ha legge B([nt]. segue che St converge in legge verso una variabile aleatoria Nt con legge di Poisson con parametro λt. . . n } si ha infatti P { Ns = k | Nt = n } = P { Ns = k.

s] F (s − r)F ∗k (dr) indicando con F (dr) l’integrazione rispetto alla misura di probabilit` su ]0. Osservando che le variabili aleatorie Tn hanno funzioni di ripartizione F ∗n si trova subito la formula enunciata. n si ha 1{ Tn ≤t } ≤ et−Tn . si esprime seme plicemente in termini della funzione di ripartizione F delle variabili aleatorie Xk e delle funzioni di ripartizione F ∗n (del prodotto di convoluzione di n leggi con funzione di ripartizione F ). avendo supposto P { Xk > 0 } = 1. . F. Rimane da verificare che la speranza di Nt ` finita. per semplicit` al secondo a . La speranza di Nt . Per ogni numero reale t ≥ 0 definiamo la variabile aleatoria Nt a valori N ∪ {+∞} Nt = n≥1 1{Tn ≤t} . per e ogni t. 1 − E [e−X1 ] In particolare la speranza di Nt ` finita. La variabile aleatoria Nt rappresenta quindi il numero di guasti nell’intervallo temporale [0. . Le Xn si potrebbero pensare come le durate di certi “pezzi” che vengono sostituiti non appena si guastano.+Xn ) = et E e−X1 Ora. Quest’ultima si definisce. con la formula F ∗(k+1) (s) = ]0. e Nel caso in cui le variabili aleatorie Xn siano anche indipendenti ed equidistribuite si chiama processo di rinnovi. e Si potrebbe verificare che tutti i momenti di ordine superiore sono finiti e si esprimono per mezzo delle F ∗n . per induzione.2 Processi di rinnovi I processi di conteggio si possono introdurre come il processo di Poisson senza supporre che le Xn siano indipendenti ed esponenziali.7 Sia N = (Nt )t≥0 un processo di rinnovi e F la funzione di ripartizione delle Xk . +∞[ associata a alla funzione non decrescente F . Ci limitiamo. t]. Si ha infatti E[Nt ] = n≥1 P { Nt ≥ n } = n≥1 P { Tn ≤ t } . P) tali che P{ Xn > 0 } = 1 per ogni n ≥ 1 e poniamo Tn = X1 + . Se P{ Xk > 0 } = 1 allora speranza di Nt ` finita ed ` data da e e ∞ E [Nt ] = n=1 F ∗n (t) Dimostrazione. risulta E e−X1 < 1 e quindi E[Nt ] ≤ n≥1 n . PROCESSI PUNTUALI 4. + Xn per ogni n ≥ 1. A questo scopo osserviamo che.. integrando e ricordando che le Xk sono indipendenti ed equidistribuite abbiamo P { Tn ≤ t } ≤ E et−Tn = et E e−(X1 +. Sia (Xn )n≥1 una successione di variabili aleatorie reali su uno spazio probabilizzato (Ω. Il processo (Nt )t≥0 cos` ottenuto ` un processo di conteggio e si chiama senza esplosione ı e se Nt ` quasi certamente finita.36 4. t].. et E e−X1 n ≤ et E e−X1 . Proposizione 4. cio` il numero medio di rinnovi nell’intervallo [0.s] F ∗k (s − r)F (dr) = ]0.

Ricordando la definizione delle F ∗n si ha infatti M (t) = n≥1 P { Tn ≤ t } F ∗n (t) n≥2 = F (t) + = F (t) + n≥2 F ∗(n−1) (t − s)F (ds). Se P{ Xk > 0 } = 1 allora il momento di ordine 2 di Nt ` finito. Per calcolare la speranza e i momenti di ordine superiore delle varibili aleatorie Nt si possono utilizzare opportune equazioni integro-differenziali.t] Dimostrazione. e Dimostrazione.m≥1 = n≥1 m<n 1{ Tn ≤t.8 Sia N = (Nt )t≥0 un processo di rinnovi e F la funzione di ripartizione delle Xk . . ]0. Proposizione 4. +∞[→ R definita da M (t) = E[Nt ] soddisfa l’equazione dei rinnovi M (t) = F (t) + M (t − s)F (ds). Utilizzando nuovamente la diseguaglianza P { Tn ≤ t } ≤ e n et E e−X1 trovata nella dimostrazione della Proposizione 4. Osserviamo che  2 Nt2 =  n≥1 1{ Tn ≤t }  1{ Tn ≤t } 1{ Tm ≤t } = n.t] M (t − s)F (ds).4. PROCESSI DI RINNOVI 37 Corollario 4.7 e calcolando le somme delle serie abbiamo n E[Nt2 ] ≤ et (2n − 1)E e−X1 < ∞ n≥2 perch´ E e e −X1 < 1. e ı L’equazione dei rinnovi permette di trovare. ]0. l’andamento del numero medio di rinnovi per t grandi utilizzando un risultato di Analisi Matematica che non dimostreremo. sotto un’ipotesi naturale sulla funzione di ripartizione F .t] Cambiando l’indice n della sommatoria con m = n − 1 e scambiando sommatoria e integrale si ha infine M (t) = F (t) + m≥1 ]0.2. Tm ≤t } + n≥1 1{ Tn ≤t } = 2 n≥1 m<n 1{ Tn ≤t } + n≥1 1{ Tn ≤t } = n≥1 (2n − 1)1{ Tn ≤t } poich´ Tm ≤ Tn per m < n.t] F ∗m (t − s)F (ds) = F (t) + ]0. Tm ≤t } + m≥1 n<m 1{ Tn ≤t.9 La funzione M : [0. La pi` semplice di queste ` u e l’equazione dei rinnovi soddisfatta dalla speranza di Nt . L’equazione dei rinnovi ` cos` dimostrata.

Teorema 4.38 4. per ogni t > tε . } Teorema 4. Si ha allora lim P Nt − t/µ σ t/µ3 ≤x 1 =√ 2π x t→∞ e−y −∞ 2 /2 dy per ogni x ∈ R.10 Se la funzione di ripartizione F delle variabili aleatorie Xk non ` aritmetica e allora per ogni h > 0 E[Nt+h ] − E[Nt ] h lim = t→∞ t µ dove µ = E[Xk ] (con la convenzione 1/ + ∞ = 0). In particolare il numero medio di salti in un intervallo temporale di ampiezza h ` asine toticamente uguale a h/µ. Dimostrazione.11 Supponiamo che le variabili aleatorie Xk abbiano speranza µ e varianza σ 2 (σ 2 < ∞). . ±h. Grazie al teorema limite centrale. Indicando con mt la parte intera di t/µ + xσ P Nt − t/µ σ t/µ3 >x t/µ3 abbiamo = P { Nt > mt } = P { Tmt < t } . abbiamo allora lim sup P t→∞ Nt − t/µ σ t/µ3 >x ≤ = = t→∞ lim P Tmt − mt µ < −x + ε √ σ mt −x+ε 1 √ 2π 1 √ 2π e−y −∞ +∞ 2 /2 dy e−y x−ε 2 /2 dy . La distribuzione delle variabili aleatorie Nt per t grande si determina abbastanza semplicemente utilizzando il teorema limite centrale. . Una funzione di ripartizione F si dice aritmetica se esiste un h > 0 tale che i punti d’incremento di F siano tutti nell’insieme { 0. per ogni ε > 0. La variabile aleatoria Tmt ` somma di mt variabili aleatorie indipendenti equidistribuite con e media µ e varianza σ 2 e { Tmt < t } = Osservando che t − µ(t/µ + xσ t/µ3 ) t − mt µ = lim = lim √ t→∞ t→∞ t→∞ σ mt σ t/µ + xσ t/µ3 lim per ogni ε > 0 troviamo un tε > 0 tale che −x − ε < t − mt µ < −x + ε √ σ mt −x 1 + xσ(µt)−1/2 = −x Tmt − mt µ t − mt µ < √ √ σ mt σ mt . ±2h. PROCESSI PUNTUALI Un punto x ∈ R si dice punto d’incremento per una funzione di ripartizione F se. si ha F (x + ε) − F (x − ε) > 0. .

4. λ) possiamo calcolare e a f ∗(k+1) (s) F ∗k (s) − F ∗(k+1) (s) = = = s (1 0 f ∗(k+1) (s) − F (s − r))f ∗k (r)dr λk+1 sk e−λs /k! − 1)! s −λ(s−r) k k−1 −λr e λ r e dr/(k 0 k s 0 λs =λ krk−1 dr Questa propriet` caratterizza il processo di Poisson tra i processi di rinnovo infatti vale a la seguente . a Probabilit` di assenza di guasti nell’intervallo [s. ricordando che f ∗k ` la densit` Γ(k. 1) e. per semplicit`. inoltre a lim inf P t→∞ 39 Nt − t/µ σ t/µ3 >x ≥ = = t→∞ lim P Tmt − mt µ < −x − ε √ σ mt −x−ε 1 √ 2π 1 √ 2π e−y −∞ +∞ 2 /2 dy e−y x+ε 2 /2 dy L’affermazione segue allora dall’arbitrariet` di ε. t + s] sapendo che si sono verificati k guasti a nell’intervallo [0. s] P { Nt+s = k | Ns = k } = = = s 0 s 0 f ∗k (x)dx F ∗k (s) − ∞ f (y)dy t+s−x ∗(k+1) (s) F f ∗k (x)(1 − F (t + s − x))dx F ∗k (s) − F ∗(k+1) (s) s F ∗k (s) − 0 f ∗k (x)F (t + s − x)dx F ∗k (s) − F ∗(k+1) (s) Probabilit` di guasto nell’intervallo [s. s] P { Nt+s > k | Ns = k } = s 0 f ∗k (x)(F (t + s − x) − F (s − x))dx F ∗k (s) − F ∗(k+1) (s) Tasso istantaneo di guasto al tempo s sapendo che si sono verificati k guasti nell’intervallo [0.2. t + s] sapendo che si sono verificati k a guasti nell’intervallo [0. a Calcoliamo ora la probabilit` di qualche evento notevole legato al processo di rinnovi. PROCESSI DI RINNOVI dove l’ultima uguaglianza segue dalla simmetria della densit` normale N (0. a Supporremo. s] (moltiplicare la formula precedente per t−1 e far tendere t a 0) s ∗k f (x)f (s − x)dx 0 ∗k (s) − F ∗(k+1) (s) F = F ∗k (s) f ∗(k+1) (s) − F ∗(k+1) (s) Osserviamo che il processo di Poisson con parametro λ ha tassi istantanei di guasto constanti uguali a λ infatti. che la legge delle variabili aleatorie Xk abbia una densit` f a a cio` e s F (s) = 0 f (r)dr per ogni s ≥ 0 e indicheremo analogamente con f ∗k la densit` di Tk .

PROCESSI PUNTUALI Proposizione 4. Baster` evidentemente dimostrare che il tempo del primo salto T1 ha legge a esponenziale ovvero. essendo P {Nt = 0} = P {T1 > t} . a 4. i tempi Xn trascorsi tra la (n − 1)-esima ed n-esima vendita sono variabili aleatorie con la stessa speranza m. . inoltre. Dimostrazione. abbiamo e f (s) =λ 1 − F (s) ovvero f (s) = λ s ∞ f (r)dr. Posto c = − log ϕ(1) > 0. Per t = 1 troviamo ϕ(1) = ϕ(1/m)m ovvero ϕ(1/m) = ϕ(1)1/m e quindi. A questo scopo poniamo ϕ(t) = P {Nt = 0} e osserviamo che la funzione ϕ ` continua e da destra perch´ ogni traiettoria t → Nt (ω) ` continua da destra certamente.3 Lotto economico d’acquisto Mostreremo ora un’applicazione dei processi puntuali alla determinazione del lotto economico d’acquisto.13 Se processo di rinnovi (Nt )t≥0 ha incrementi indipendenti e. . la legge dell’incremento Nt+s − Ns dipende solo da t. s]. . abbiamo allora ϕ(t) = e−ct per tutti i t razionali e quindi per tutti i t reali grazie alla continuit` da destra di ϕ. allora (Nt )t≥0 ` un processo di Poisson. che P {Nt = 0} = e−ct per qualche c > 0. La legge e e a delle variabili aleatorie Xk ` quindi la legge esponenziale di parametro λ e il processo di e rinnovi in questione ` un processo di Poisson.40 4. Il problema consiste nell’ottimizzare la gestione delle scorte di un’azienda acquista un certo prodotto in lotti di una certa quantit` e lo rivende per unit`. Infatti.12 Un processo di rinnovi con tassi istantanei costanti ` un processo di e Poisson. e e La propriet` degli incrementi fornisce la relazione a ϕ(t) = P {Nt = 0} = P Nt − N(n−1)t/n = 0. Teorema 4. Ne segue che e f (s) = ce−λs con c costante che deve essere uguale a λ perch´ f ` una densit`. a a Per descrivere il modello supponiamo che: 1. . . e Il processo di Poisson si caratterizza tra i processi di rinnovo anche per l’indipendenza degli incrementi. Nt /n = 0 = P Nt − N(n−1)t/n = 0 · · · P Nt/n = 0 = ϕ(t/n)n . e Dimostrazione. La funzione f ` pertanto derivabile e soddisfa la relazione f (s) = −λf (s). considerando il tasso istantaneo di guasto al tempo s sapendo che non si ` verificato nessun guasto nell’intervallo [0. ϕ(n/m) = ϕ(1/m)n = ϕ(1)n/m .

il costo di stoccaggio per unit` di merce per unit` di tempo ` c. Il costo di stoccaggio di una quantit` S ` quindi a e ∞ c 0 (S − Nt )+ dt. a a e 41 Supporremo inoltre che l’azienda si rifornisca con S unit` di prodotto non appena il magaa zzino sia vuoto. ovvero la somma del costo di ordinazione e di stoccaggio.4. a Nelle ipotesi fatte le variabili aleatorie Tn = X1 + · · · + Xn e Nt = n≥1 1{ Tn ≤t } sono rispettivamente il tempo necessario per vendere n unit` e il numero di pezzi venduti a fino al tempo t. e a 3. Vogliamo minimizzare i costi dell’ordine e di stoccaggio per unit` di merce. LOTTO ECONOMICO D’ACQUISTO 2. ` quindi e K+ cmS(S + 1) 2 e il costo totale medio per unit` di merce ` a e K cm(S + 1) + .3. Il costo totale di un lotto. Il costo medio di stoccaggio ` perci` e o ∞ ∞ S cE 0 (S − Nt ) dt + = c 0 k=1 ∞ S P{ S − Nt ≥ k } dt P{ Nt ≤ S − k } dt 0 k=1 ∞ S = c = c 0 k=1 ∞ S P{ Nt < S + 1 − k } dt P{ Nt < h } dt 0 h=1 = c Osservando che { Nt < h } = { Th > t } troviamo la seguente formula per il costo medio di stoccaggio ∞ S ∞ cE 0 (S − Nt ) dt + = c h=1 S 0 P{ Th > t } dt E[Th ] h=1 S = c = c h=1 mh = cmS(S + 1)/2. S 2 . il costo di ordinazione K ` indipendente dalla quantit` di merce ordinata.

t]. . cm I processi puntuali si applicano a molti altri problemi. R. . ` un processo di Poisson? Eventualmente. Xn ) della legge uniforme su [0. PROCESSI PUNTUALI Minimizzando (rispetto a S) questa funzione troviamo che la quantit` di merce da acquistare a per ottimizzare i costi di ordinazione e stoccaggio ` e S= 2K .k (t) non dipende da s). Verificare che il processo (Xt )t≥0 definito da Xt = Nαt . a nella teoria delle assicurazioni . . .k (t).42 4.3 Sia (Nt )t≥0 un processo di rinnovi. . qual ` il suo e e parametro? Esercizio 4. con α costante strettamente positiva. θ]. . Supponiamo che le variabili aleatorie Xk abbiano legge uniforme su [0.5 Siano X1 . 1]. . . Xn siano uniformemente distribuite su [0. . . Esercizio 4.2 Sia (Nt )t≥0 un processo di Poisson con parametro λ > 0 e sia ph. Xn variabili aleatorie reali indipendenti ed equidistribuite.k (t) = P { Nt+s = k | Ns = h } (verificare che ph. . j j=k Trovare inoltre la densit` congiunta del vettore aleatorio (X(1) . . Detta F la funzione di ripartizione delle Xk ed Fk la funzione di ripartizione di X(k) verificare che n n n−j Fk (t) = F (t)j (1 − F (t)) . . . . . . dato un processo di Poisson (Nt )t≥0 con tempi di salto (Tn )n≥1 si ha     n! t1 tn−1 tn P { Tj ≤ tj } {Nt = n} = n dx1 . dove c ` un’altra e costante strettamente positiva.. Il processo (Yt )t≥0 definito da Yt = cNαt . . Esercizio 4. . . .4 Esercizi Esercizio 4.. . . . 4. X(n) ) di un n-campione (X1 . . Tn ) per la probabilit` condizionata P { · | {Nt = n}} a coincide con la legge congiunta delle statistiche ordinate (X(1) . .k (t) + λph+1. Calcolare la speranza di Nt per t ≤ θ. . . . Verificare che il tasso istantaneo della probabilit` di due o pi` guasti nell’intervallo [s. E[Nt ] = et/θ − 1 Esercizio 4. X(n) le variabili aleatorie cos` ı definite ricorsivamente da X(1) (ω) = min{ Xj (ω) | 1 ≤ j ≤ n } e t→0 X(k+1) (ω) = min Xj (ω) | 1 ≤ k ≤ n.1 Sia (Nt )t≥0 un processo di Poisson con parametro λ > 0. Si chiamano statistiche ordinate le variabili aleatorie X(1) . dxn−1 dxn   t 0 xn−2 xn−1 1≤j≤n ovvero che la legge congiunta di (T1 .6 Verificare che. ` un processo e di Poisson con parametro αλ. . X(n) ) nel caso in cui le a X1 . .4 Sia (Nt )t≥0 un processo di rinnovi. s + t] ` nullo ovvero a u e 1 lim P { Nt+s > k + 1 | Ns = k } = 0 t Esercizio 4. Xj (ω) > X(k) (ω) . per esempio nella teoria dell’affidabilit`. Mostrare che per ogni t ≥ 0 e ogni h ≤ k si ha phk (t) = −λph.

7 Sia (Nt )t≥0 un processo di Poisson con parametro λ > 0 e sia X = (Xt )t≥0 il processo definito da Xt = (−1)Nt . considerando la trasformata di Laplace. +∞[→ R limitata ` la e funzione F : [0. j ∈ {−1. Calcolare il tempo medio trascorso da X nel valore 1 ovvero ∞ E 0 1{Xs =1} ds . ESERCIZI 43 Esercizio 4. Verificare che.4. 1}. +∞[→ R definita da ∞ F (λ) = 0 e−λt F (t)dt. .8 La trasformata di Laplace di una funzione F : [0.4. l’equazione dei rinnovi si esprime nel modo seguente M (λ) = F (λ) + M (λ)F (λ) e quindi si trova la soluzione M (λ) = F (λ) 1 − F (λ) . Verificare che X ` un processo a valori +1. Esercizio 4. −1 e calcolare le probabilit` di transizione e a P { Xt+s = j | Xs = i } per i.

44 4. PROCESSI PUNTUALI .

a e a Analogamente ai processi di rinnovo considereremo catene di Markov con traiettorie continue a destra (e con limiti da sinistra). t + s) = P {Xt+s = j | Xs = i} . . La catena di Markov si chiama omogenea se pij (s. P) a valori in S si chiama catena di Markov se P Xtn+1 = j | Xtn = in . (b) (pij (t))t≥0 ` una matrice stocastica per ogni t ≥ 0. Xt1 = i1 = P Xtn+1 = j | Xtn = in per ogni n. . L’identit` (5. in . .1) . 45 (5. i1 .j∈S con δij = 1 se l i = j. D’ora in avanti tratteremo catene di Markov omogenee e denoteremo con pij (t) le probabilit` di transizione pij (0.1 Una famiglia (Xt )t≥0 di variabili aleatorie su (Ω. Denotiamo con 1 la matrice (δij )i. . P) uno spazio probabilizzato ed S un insieme finito o numerabile che sar` consida erato come spazio misurabile munito della σ algebra P(S) di tutti i sottoinsiemi di S. < tn+1 . . i2 . t) per ogni i. . . t) ` definita da a e pij (s. t).1) ` detta propriet` di Markov. j ∈ S. La famiglia (Pt )t≥0 delle matrici (eventualmente infinite) a (Pt )ij = pij (t) si chiama semigruppo Markoviano. . t+s) = pij (0. j ∈ S. Definizione 5. s ≥ 0. δij = 0 se i = j. Teorema 5. F. F. s ≥ 0. t. t1 < .2 La probabilit` di transizione pij (s. e (c) vale l’equazione di Chapman-Kolmogorov Pt+s = Pt Ps per ogni t. .5 Catene di Markov a tempo continuo Sia (Ω.3 Il semigruppo Markoviano (Pt )t≥0 gode delle seguenti propriet`: a (a) P0 = 1 l. Definizione 5. .

Xt = j } − Pi { Xt+s = j. X0 = i } = pi0 i1 (t1 )pi1 i2 (t2 − t1 ) . Xt = j } −Pi { Xt+s = j. . Xt = j } + Pi { Xt+s = j. per a a ogni t. s ≥ 0. i1 . in particolare. le distribuzioni finito-dimensionali. a e a La maggior parte delle informazioni su una catena di Markov a tempo continuo si pu` o estrarre dal semigruppo Markoviano associato. X0 = i } P { X0 = i } P { Xt+s = j | Xs = k. Xt = j } = |Pi { Xt+s = j. i0 .46 5. Xs = k | X0 = i } P { Xt+s = j. . Per ogni a t. < tn . . a e ı La propriet` (c) ` detta propriet` di semigruppo. Xs = k.4 Se la catena di Markov (Xt )t≥0 ` continua in probabilit` allora le fune a zioni t → pij (t) sono continue. pin−1 in (tn − tn−1 ). se la catena di Markov ` continua in probabilit` il e e e a membro destro tende a zero per s → 0. s ≥ 0 (tale che t + s ≥ 0) si ha |pij (t + s) − pij (t)| = |Pi { Xt+s = j } − Pi { Xt = j }| = Pi { Xt+s = j. Xt1 = i1 . Questo semigruppo determina. X0 = i } P { X0 = i } P { Xt+s = j | Xs = k } k∈S = k∈S = k∈S = = k∈S P { Xs = k. . k∈S = La propriet` (c) ` cos` dimostrata. . a Proposizione 5. Dimostrazione. Infine. . . Xt = j } − Pi { Xt+s = j. D’ora in avanti considereremo catene di Markov continue in probabilit`. per ogni n ≥ 1 e ogni t1 < t2 < . Xt = j }| ≤ 2Pi { Xt+s = Xt } La conclusione ` immediata poich´. in ∈ S si ha P { Xtn = in . . infatti. Per verificare la condizione (b) basta osservare che pij (t) ≥ 0 perch´ si tratta di probae bilit` condizionate e a pik (t) = k∈S k∈S P { Xt = k | X0 = i } = P { Ω | X0 = i } = 1. CATENE DI MARKOV A TEMPO CONTINUO Dimostrazione.1). . X0 = i } P { Xs = k. grazie alla formula della probabilit` totale ed alla propriet` di Markov (5. X0 = i } P { X0 = i } P { Xt+s = j | Xs = k } P { Xs = k | X0 = i } pik (s)pkj (t). si ha pij (t + s) = P { Xt+s = j | X0 = i } = k∈S P { Xt+s = j. La condizione (a) vale evidentemente per definizione. Denotiamo Pi { · } la probabilit` condizionata P { · | X0 = i }. . . . .

j∈S Esempio 5. qik pkj (t). a a [0. qii = lim + t→0 pii (t) − 1 .1 Catena di Markov a due stati. k∈S pij (0) = δij pij (0) = δij . +∞[ t → Xt (ω) ∈ S inoltre non ` restrittiva in tutte le applicazioni e quindi la supporremo sempre verificata nel e seguito.2) e risulta 0 ≤ qij < ∞ per i = j e qii ≤ 0 (eventualmente qii = −∞). Le Ti sono evidentemente variabili aleatorie a valori [0.47 Le probabilit` di transizione sono dunque continue sotto ipotesi abbastanza deboli. e Per capire il significato dei tassi di transizione introduciamo il tempo della prima uscita da uno stato i ∈ S Ti (ω) = inf { t ≥ 0 | Xt (ω) = i } (5.5) (con la convenzione abituale inf ∅ = +∞). Le equazioni differenziali (5. la soluzione dei due sistemi non ` necessariamente unica. La a propriet` di continuit` da destra delle traiettorie. Si pu` dimostrare il seguente o Teorema 5. Se l’insieme degli stati S ` finito allora qii > −∞ e valgono le equazioni e d pij (t) dt d pij (t) dt = k∈S pik (t)qkj . ı Nel caso in cui S ` infinito occorre procedere con maggiore cautela in quanto. La matrice dei tassi di una catena a due stati a tempo continuo ha la forma −a a Q= b −b con a. t per i = j. +∞] (cio` sono misurabili rispetto alle opportune σ-algebre). e . (5.4)) si chiamano equazioni di Kolmogorov all’avanti (risp. In questo caso si vede subito che la condizione j pij (t) = 1 per ogni i equivale alla qij = 0. Integrando uno di questi sistemi di equazioni differenziali si possono determinare le probabilit` di transizione almeno nel caso in cui S ` a e finito. con facili calcoli e etQ = 1 a+b b + ae−t(b+a) b(1 − e−t(b+a) ) a(1 − e−t(b+a) ) a + be−t(b+a) Abbiamo cos` trovato la matrice di transizione P= etQ . anche se i e qii sono finiti. (5. ovvero delle funzioni.3) (risp.4) = I numeri qij si chiamano tassi di transizione. equazioni di Kolmogorov all’indietro).5 Se le probabilit` di transizione sono continue allora esistono i limiti a qij = lim + t→0 pij (t) .3) (5. t (5. Le probabilit` di transizione sono quindi date da a pi1 (t) pi2 (t) = etQ δi1 δi2 dove etQ ` l’esponenziale della matrice Q ovvero. b > 0 (salvo casi banali).

. per ogni a n ≥ 1. t] } Pi { T i > t } . Grazie alla continuit` da destra delle traiettorie la a successione di variabili aleatorie (XSn )n≥1 converge quasi certamente verso XTi e quindi P { XTi = j } = lim P { XSn = j } . La variabile aleatoria Ti ha dunque la propriet` detta assenza di memoria.t+s]∩Q)∪{s. Inoltre. Dimostrazione. a Proposizione 5. u { Ti > t } = n≥1 Xt/2n = i. . Xt = i Poich´ la successione al membro destro ` non crescente abbiamo quindi e e Pi { T i > t } = = n→∞ lim P Xt/2n = i. t + s] l’evento Ei [s. (Cenno) Per ogni s. vale la relazione { Ti > t } ⊆ e. la catena di Markov salta in un altro stato o j con probabilit` qij /(−qii ). s] } Pi { Ei [s. . uscendo da uno stato i. .48 5.7 Per ogni i = j si ha P { XTi = j } = qij . t + s] | Ei [0. . Per la propriet` di Markov e e a l’omogeneit` della catena si ha a Pi { T i > t + s | T i > s } = = = = Pi { Ei [s. t + s] | Xs = i } Pi { Ei [0. n→∞ . CATENE DI MARKOV A TEMPO CONTINUO Teorema 5.6 Se −∞ < qii < 0 allora la variabile aleatoria Ti ha legge esponenziale con parametro −qii . La variabile aleatoria Ti ha perci` legge esponenziale con parametro −qii . t ≥ 0 indichiamo con Ei [s. . . Xt = i lim (pii (t/2 )) n 2n n→∞ = lim n→∞ tqii 1 + n + o(t/2n ) 2 2n = eqii t . . . −qii Dimostrazione. .t+s} { Xr = i } (la seconda intersezione ` su un insieme di indici numerabile). . X(2n −1)t/2n = i. . X(2n −1)t/2n = i. X(2n −1)t/2n = i. o Si pu` verificare che. Xt = i Xt/2n = i. Consideriamo la successione non crescente (Sn )n≥1 di tempi d’arresto discreti ∞ Sn = k=0 (k + 1)2−n 1{k2−n <Ti ≤(k+1)2−n } che converge quasi certamente verso Ti . pi` precisamente. t + s] = s≤r≤t+s { Xr = i } = r∈([s.

6) Allora le equazioni di Kolmogorov all’avanti e all’indietro ammettono le probabilit` di trana sizione (pij (t))t≥0 come unica soluzione.4) e (5. gli elementi di matrice (etQ )ij soddisfano (5. per ogni t ≥ 0 indichiamo con etQ l’esponenziale della matrice tQ. per semplicit`. Consideriamo dapprima. k=0 = Dato che i = j. per ogni n ≥ 1.3) ` evidentemente unica. per la propriet` di Markov a ∞ P { X Sn = j } = k=0 ∞ P X(k+1)2−n = j. Con facili calcoli si vede subito che d tQ e = QetQ = etQ Q dt ovvero. risulta pij (2−n ) = qij 2−n + oij (2−n ) e quindi ∞ P { X Sn = j } = = = (1 + oij (1))2 −n qij k=0 ∞ P Ti > k2−n P { 2n T i > k } k=0 (1 + oij (1))2−n qij (1 + oij (1))2 −n qij E[2n Tj ] = (1 + oij (1)) qij .49 Abbiamo poi.8 Supponiamo che sup(−qii ) < +∞ i∈S (5. La soluzione dei sistemi lineari (5.j∈S . Teorema 5. j∈S Grazie all’ipotesi supi∈S (−qii ) < +∞. . −qii La conclusione segue facendo tendere n all’infinito. l’operatore Q ` limitato e la sua norma ` e e Q ∞ = f∈ sup ∞ (S). Detta Q la matrice e e dei tassi di transizione (qij )i.. Dimostrazione.). |f | ∞ ≤1 |Qf |1 .4) e (5..3). e Nel caso in cui l’insieme degli stati S ` infinito numerabile basta definire l’operatore e lineare Q sullo spazio di Banach ∞ (S) delle funzioni limitate su S con la norma |f |∞ = sup |f (j)|. Ti > k2−n P X(k+1)2−n = j | Ti > k2−n P Ti > k2−n k=0 ∞ = = k=0 ∞ P X(k+1)2−n = j | Xk2−n = i P Ti > k2−n pij (2−n )P Ti > k2−n . il caso in cui l’insieme degli stati S a ` finito (in questo caso l’ipotesi del teorema ` banalmente verificata .

grazie al Teorema 5. CATENE DI MARKOV A TEMPO CONTINUO (S) con |f |∞ ≤ 1 e j ∈ S abbiamo |(Qf )(j)| = k qjk f (k) qjk |f (k)| k=j ≤ −qjj |f (j)| +  ≤ |f |∞ −qjj +  qjk  k=j = −2qjj |f |∞ . t + h] “piccolo” ` e P { Xt+h = j | Xt = i } = pij (h) = qij h + o(h) pii (h) = 1 + qii h + o(h) se i = j. Le equazioni di Kolmogorov all’avanti e all’indietro per le pnm (t) con m ≥ n (evidentemente pnm (t) = 0 se n > m) si scrivono rispettivamente pnm (t) = −λm pnm (t) + λm−1 pn m−1 (t). la probabilit` di passare da uno stato i a uno stato a a j in un intervallo [t. Il generatore del processo ` la matrice e Q = (qij )i. Si pu` quindi definire l’esponenziale dell’operatore Q come o etQ = n≥0 tn Qn n! ∞ poich´ la serie converge nella norma uniforme degli operatori lineari su e mostrazione di completa quindi come nel caso in cui S ` finito. qn n = −λn . se i = j. . pnm (t) = −λn pn m (t) + λn pn+1 m (t). Si tratta delle catene di Markov con insieme degli stati N che rappresenta il numero di individui in una popolazione.6. (o(h) ` un infinitesimo di ordine superiore ad h cio` una funzione tale che limh→0 o(h)/h = 0). e a a all’omogeneit` della catena di Markov. Prendendo infine il sup su j troviamo Q ∞ ≤ 2 sup(−qjj ) < +∞ j∈S per l’ipotesi fatta. La di- Definizione 5. Osserviamo che. e e Spesso la catena di Markov ` individuata a partire dai tassi qij . m = n + 1. e Esempio 5. e (S).j∈S si chiama generatore (o generatore infinitesimale) del semigruppo Markoviano (P (t))t≥0 . qn m = 0 per m = n. I tassi di transizione sono dati da una successione (λn )n≥0 di numeri reali positivi. pn m (0) = δn m .j∈N con qn n+1 = λn .2 Processi di nascita.50 Per ogni f ∈ ∞ 5. Nel caso particolare in cui i tassi di nascita sono costanti λn = λ > 0 ritroviamo un processo di Poisson. λn ` l’inverso del e tempo medio di attesa della transizione da n a n + 1. pn m (0) = δn m . grazie alla differenziabilit` delle probabilit` di transizione pij (t).9 La matrice Q = (qij )i. Questo numero pu` solo o aumentare a tempi aleatori per l’arrivo di nuovi individui.

una volta arrivato in 0. La catena di Markov con cos` ottenuta si chiama processo di a ı Yule.j∈N con qn n+1 = λn . a partire da pii (t) = e−µi t . pij (t) = −µi pij (t) + µi pi−1 j (t) se j < i Risolvendo per induzione. il generatore del processo ` la matrice e A = (qij )i. Nel caso particolare in cui µi = µi (tassi lineari) si trova pij (t) = i j e−µit eµt − 1 i−j = i j e−µjt 1 − e−µt i−j . Come nell’Esempio (5. qn m = 0 per |m − n| > 1.j∈N con qn n−1 = µn . si trova la probabilit` pij (t) che la a popolazione al tempo t sia costituita da j individui (con j < i). . Il numero di individui al tempo t ` quindi una variabile aleatoria con legge di Pascal con e parametri i ed e−λt . e−µt ). Analogamente. si ha evidentemente p00 (t) = 1 ovvero µ0 = 0. Inoltre ` chiaro che. Dette (λn )n≥0 o a e (µn )n≥1 le successioni dei tassi di nascita e morte.4 Processi di nascita e morte. m = n − 1. Esempio 5.3 Processi di morte.51 Un altro caso notevole ` quello in cui tutti gli individui si riproducono con la stessa e intesit` e quindi λn = λn. Quindi il numero Xt di individui al tempo t ha legge binomiale B(i. Il generatore infinitesimale del processo ` a e e una matrice Q = (qij )i. si trova pik (t) = k i e−λ(i+1)t 1 − e−λt k−i . se j > i. allora pij (t) = 0 per ogni t ≥ 0. Dato che il processo. Esempio 5. qn n = −(λn + µn ). risolvendo per e induzione le equazioni di Kolmogorov all’avanti con la condizione iniziale pii (0) = 1 pii (t) = −λi pii (t). qn n = −µn . L’insieme degli stati ` sempre N ma il numero e di individui della popolazione pu` aumentare oppure diminuire di una unit`. Lo stato di questo processo potrebbe anche indicare la lunghezza di una coda casuale in cui i tempi di servizio dei clienti e i tempi di attesa tra gli arrivi di due clienti hanno legge esponenziale (con opportuni parametri). questa volta. Le e equazioni di Kolmogorov all’indietro per le altre pij (t) con j ≤ i e t > 0 si scrivono pii (t) = −µi pii (t). pik (t) = −λk pik (t) + λ(k − 1)pi k−1 (t) se k > i si trova la probabilit` che la popolazione al tempo t sia costituita da k individui ` a e pik (t) = k−1 k−i e−λit 1 − e−λt k−i . qn n−1 = µn . con λn = λ(n + 1).2) l’insieme degli stati N rappresenta il numero di individui di una popolazione che per`. vi si ferma per sempre. qn m = 0 per m = n. pu` solo diminuire o o di una unit` di volta in volta finch´ arriva a 0. Se la popolazione al tempo 0 ` costituita da i (i ≥ 1) individui.

Poich´ spesso la catena di Markov a tempo continuo ` definita per mezzo della matrice e e Q dei tassi di transizione.j∈S il suo generatore. . Definizione 5. . pkn−1 kn (tn − tn−1 )pkn j (t − tn ) > 0 e la catena di Markov ` irriducibile. j ∈ S. . .j∈S del processo. . . esista un intero n ≥ 1 e stati k1 . . Una legge di probabilit` π = (πi )i∈S su S ` invariante se e solo se a e πk qkj = 0. . . Come nel caso in cui i tempi siano discreti. . . pkn−1 kn (tn − tn−1 )pkn j (t − tn ) > 0. . . < tn < t e stati k1 . Verifichiamo che la condizione precedente ` necessaria. . .7) per ogni i ∈ S e t ≥ 0. j ∈ S. kn tali che pik1 (t1 )pk1 k2 (t2 − t1 ) . per ogni i. CATENE DI MARKOV A TEMPO CONTINUO Definizione 5. . k∈S per ogni j ∈ S.13 Supponiamo che qii > −∞ per ogni i ∈ S e che le (pij (t))i. una catena di Markov ` irriducibile e se. tempi t1 < . . per ogni i. a Proposizione 5. kn = j e qik1 qk1 k2 . k1 = k2 . Le leggi invarianti si determinano per mezzo del generatore A = (qij )i. allora per ogni i. e I processi di nascita e i processi di morte non sono irriducibili mentre i processi di nascita e morte sono irriducibili se “molti” λn e µn sono strettamente positivi. esiste un intero n ≥ 1. j ∈ S. . quindi. Derivando in t = 0 e la relazione πi = πk pkj (t) k∈S si trova subito 0= d dt πk pkj (t) k∈S t=0 = k∈S πk pkj (0) = k∈S πk qkj . .j∈S siano l’unica soluzione delle equazioni di Kolmogorov all’avanti e all’indietro. vediamo ora come si esprime l’irriducibilit` in termini dei qij . kn tali che i = k1 .12 Una legge di probabilit` π = (πi )i∈S su S ` detta invariante per una a e catena di Markov (Xt )t≥0 con probabilit` di transizione pij (·)) se a πi = k∈S πk pki (t) (5. Dimostrazione. Se vale la condizione 2. Supponiamo che. Si ha quindi pij (t) ≥ pik1 (t1 )pk1 k2 (t2 − t1 ) . Proposizione 5. esiste un tempo t > 0 tali che pij (t) > 0. . Allora la catena di Markov ` irriducibile.11 Sia (Pt )t≥0 il semigruppo di transizione di una catena di Markov e sia Q = (qij )i. e Dimostrazione.52 5. partendo da ogni stato i abbiamo probabilit` positiva di arrivare in uno stato j in un a tempo t > 0.10 Una catena di Markov (Xt )t≥0 con insieme degli stati S e probabilit` di a transizione pij (·) si chiama irriducibile se. . qkn−1 kn qkn j > 0.

t0 ].i∈S = = i∈S k∈S πk qki pij (t) = 0 Ne segue che la funzione k∈S πk pkj (t) ` costante e uguale al suo valore in 0. Poich´ k=i πk ≤ 1 e lo scambio di derivata e sommatoria ` cos` giustificato. . la successione (πn )n≥0 ` l’unica legge invariante del processo di e nascita e morte. Si verifica facilmente per induzione che. allora z0 = 1.5 Processi di nascita e morte: legge invariante Un processo di nascita e morte con tassi di transizione (λn )n≥0 e (µn )n≥1 ha legge invariante se e solo se si pu` trovare una o soluzione π = (πi )i∈S delle equazioni π0 = −π0 λ0 + π1 µ1 . t0 ].7) allora derivando (lo scambio di derivata e sommatoria si gistifica come prima in un intervallo [0. se le µn sono tutte strettamente positive. e ı Viceversa se vale la condizione (5. posto πn = Z −1 zn .53 Lo scambio di derivata e sommatoria. In particolare 0 ≤ t−1 pki (t) < M0 per ogni t ∈ [0. πn = πn−1 λn−1 − πn (λn + µn ) + πn+1 µn+1 . Per ogni t > 0 si ha infatti 1 − pii (t) pki (t) = t t k=i e quindi. dato che il membro destro converge a −qii per t tendente a 0. ne segue che esistono t0 > 0 e M0 > 0 tali che pki (t) < M0 t k=i per ogni t ∈ [0. t0 ]) d dt πk pkj (t) k∈S = k∈S πk pkj (t) πk qki pij (t) k. si e giustifica con il teorema della convergenza dominata. e La successione (zn )n≥1 ` evidentemente non negativa. Se risulta e Z := 1 + n≥1 λ0 λ1 · · · λn−1 <∞ µ1 µ2 · · · µn allora. zn = λ0 λ1 · · · λn−1 µ1 µ2 · · · µn n≥1 ` l’unica soluzione del sistema precedente. Se la serie non converge allora il processo non ha legge invariante. πn = 1. cio` πj e e e quindi (πi )i∈S ` una legge invariante. che sia una densit` di probabilit` su N ovvero tale che a a πn ≥ 0 per ogni n ∈ N e n≥0 n ≥ 1. che ` ovviamente lecito nel caso in cui S sia finito. e Esempio 5.

e e Indichiamo con νPt il vettore (νPt )i = j νj pij (t) (i ∈ S) che individua una legge di probabilit` su S poich´ ha componenti non negative con somma 1 essendo a e (νPt )i = i∈S i.j∈S pji (t) = 1. CATENE DI MARKOV A TEMPO CONTINUO Teorema 5.15 Se l’insieme degli stati S ` finito allora esiste almeno una legge di probabilit` e a su S invariante per la catena di Markov. limt→∞ pij (t) = 0 se la catena di Markov non ammette nessuna legge invariante. Dimostrazione. limt→∞ pij (t) = πj se la catena di Markov ammette una legge invariante (πi )i∈S . Per ogni t > 0 abbiamo e πPt = = lim 1 tn 0 tn +t tn n→∞ νPs ds Pt 0 tn 1 n→∞ tn 1 = lim n→∞ tn lim Scrivendo 1 tn tn +t νPs+t ds νPs ds. se la catena di Markov irriducibile ammette una legge invariante. per ogni t ≥ 0 1 t t νPs ds 0 ` un elemento di M. In particolare. individua cio` una legge di probabilit` su S. i νi = 1 . possiamo trovare una successione (tn )n≥1 divergente a e e +∞ tale che la successione di leggi su S 1 tn tn νPs ds 0 converga verso un elemento π di S per n tendente a +∞. e Nel caso in cui l’insieme degli stati sia finito si pu` sempre trovare una legge invariante.j∈S νj pji (t) = j∈S νj i. t νPs ds = t 1 tn tn νPs ds + 0 1 tn tn +t νPs ds − tn 1 tn t νPs ds 0 . allora questa ` unica. Analogamente si verifica che. Indichiamo con M l’insieme delle leggi di probabilit` su S ovvero a M= (νi )i∈S | νi ≥ 0. 2.14 Le probabilit` di transizione pij (·) di una catena di Markov irriducibile soda disfano 1. ` E chiaro che M ` un sottoinsieme chiuso e limitato di Rd per un certo d. Verifichiamo infine che π ` una legge invariante. o Teorema 5. quindi ` compatto.54 5. e e a Poich´ l’insieme S ` compatto.

0 νPs ds = lim 1 n→∞ tn tn νPs ds = π 0 ovvero π ` una legge invariante. 2.5. tn +t tn +t 55 (νPs )i ds tn t ≤ j∈S tn t νj ds ≤ t νj ds ≤ t j∈S 0 (νPs )i ds 0 ≤ dalla divergenza di (tn )n≥1 per n → ∞ si vede subito che 1 n→∞ tn lim Troviamo quindi νPt = lim 1 n→∞ tn tn +t t tn +t tn νPs ds = 0 = lim 1 n→∞ tn t νPs ds. j ∈ { 1. 2. le probabilit` di transizione pij (t) per ogni i.2 Sia (Xt )t≥0 una catena di Markov con insieme dei tempi [0. Sapendo che X0 = 1 (quasi certamente) calcolare: 1. e La quantit` a 1 t t (νPs )i ds 0 ` la frequenza media di soggiorno nello stato i se la catena di Markov ha legge iniziale ν. il tempo medio trascorso negli stati 1 e 2 partendo da 1. stati { 1. per ogni i ∈ S.1. 3 } e ogni t ≥ 0. ESERCIZI e osservando che. 3 } e matrice dei tassi di transizione   −a a 0  0 −b b  0 0 0 con a e b parametri strettamente positivi. e Infatti (νPs )i = j νj pji (s) = j P{ Xs = i | X0 = j }P{ X0 = j } = Eν [1{ Xs =i } ] e quindi t t t−1 0 (νPs )i ds = Eν t−1 0 1{ Xs =i } ds . a 2. .1 Esercizi Esercizio 5. Esercizio 5. 5. +∞[. Calcolare quanto tempo deve passare affinch´ il numero medio di atomi e radioattivi diventi minore di n/2 (tempo di dimezzamento).1 Un materiale radioattivo ` costituito da n atomi ciascuno dei quali decade e (cio` si trasforma in uno non radioattivo) in un tempo aleatorio con legge esponenziale e con parametro µ.

. q in modo che la polizza possa ritenersi equa (ovvero tale che la speranza di quanto pagher` ` uguale alla speranza di quanto riceverebbe in caso di ae malattia)? Risp. . il quale. precisamente.. } e e matrice dei tassi di transizione   −λ λ 0 . 0 µ −(λ + µ) . . e 1 =sano. quando ` sano paga all’assicurazione un premio di e p Euro per unit` di tempo. 1. CATENE DI MARKOV A TEMPO CONTINUO Supponiamo che lo stato Xt rappresenti lo stato di salute di un assicurato.. +∞[. Quale a deve essere la relazione tra a. . 2.56 5. . .3 Siano (Nt )t≥0 ed (Mt )t≥0 due processi di Poisson indipendenti con parametri rispettivi λ e µ strettamente positivi.. p/a = q/b Esercizio 5. . quando ` malato riceve dall’assicurazione un pagamento di q a e Euro per unit` di tempo (e da morto non ha nulla a che vedere con l’assicurazione). Verificare che il processo (Xt )t≥0 definito Xt = + (Nt − Mt ) ` una catena di Markov con insieme dei tempi [0. cio`. p. b. 2 =malato 3 =morto.  µ −(λ + µ) λ . stati N = { 0..

Bt2 − Bt1 . P) uno spazio probabilizzato. Xt = Bαt (α > 0) ` un moto browniano con parametro ασ 2 rispetto alla filtrazione e α α (Ft )t≥0 con Ft = Fαt .1 Un processo stocastico B = (Bt )t≥0 si chiama moto browniano. . per il momento. 57 . .2 Un moto browniano B con traiettorie continue e σ 2 = 1 si chiama moto browniano standard.1 Moto Browniano e invarianze per cambi di scala Sia (Ω. Il processo X = (Xt )t≥0 definito da 1. per ogni t > s. . Definizione 6. la variabile e aleatoria Bt − Bs ` indipendente da Fs e ha leggi normale N (0. Btn − Btn−1 sono indipendenti e hanno rispettivamente leggi normali con media 0 e varianze σ 2 t1 . σ 2 (t − s)). con parametro σ 2 > 0. B0 = 0 e. . σ 2 (t2 −t1 ). di sapere che lo risposta a questi problemi ` affermativa diamo la definizione seguente. . se ` adattato alla filtrazione data. F. e Osserviamo che. σ 2 tn per ogni n e ogni t1 < t2 . < tn . . +∞[ l’insieme dei tempi. F. .6 Moto browniano 6.3 Sia (Bt )t≥0 un moto browniano con parametro σ 2 su uno spazio probabilizzato (Ω. I = [0. Xt = cBt (c ∈ R) ` un moto browniano con parametro c2 σ 2 . e 2. P) munito di una filtrazione (Ft )t≥0 . La filtrazione data (Ft )t≥0 ` parte integrante della definizione di moto browniano. nel caso in cui siano date le variabili aleatorie (Bt )t≥0 senza la filtrazione. e Definizione 6. dalla condizione di indipendenza di Bt − Bs da Fs segue subito che le variabili aleatorie Bt1 . diremo che B B ` un moto browniano se lo ` rispetto alla sua filtrazione naturale (Ft )t≥0 data da e e B Ft = σ { Bs | s ≤ t } Il moto browniano ha le seguenti propriet` di invarianza per cambiamento di scala nello a spazio o nel tempo Proposizione 6. Tute tavia. . . (Ft )t≥0 una filtrazione di sotto-σ-algebre di F. Dalla definizione data non ` chiaro se un processo stocastico con le propriet` richieste e a effettivamente esiste ed ` tuttaltro che ovvio poterne trovare una versione a traiettorie regoe lari o continue. Accontentandoci. .

la coppia di variabili aleatorie o (n) Ws = [ns] k=1 Xk − ns/2 √ . Sia (Xn )n≥0 un processo di Bernoulli con parametro 1/2. o Dimostrazione. Poich´ le variabili aleatorie Bt − Bs hanno legge normale N (0. t − s) ovvero Ws e Wt − Ws sono indipendenti e hanno leggi normali N (0. equidistribuite con media 0 e varianza σ 2 (non nulla e finita) definendo [nt] Zk (n) √ . o . n/2 (n) Wt − (n) Ws = [nt] k=[ns]+1 Xk − n(t − s)/2 √ n/2 converge in legge verso una variabile aleatoria (Ws . La verifica di 1. la variabile aleatoria (Bt − Bs )/ t − s ha legge normale N (0. quando le Zn prendono solo i valori +1 e −1 con probabilit` 1/2. 1). si pu` a o approssimare il moto browniano (Wt )t≥0 con una successione di passeggiate casuali simmetriche riscalate. t − s) per e √ ogni t > s. In particolare. Wt − Ws ) normale bidimensionale con media 0 e matrice di covarianza diagonale diag(s. Ne segue che E (Bt − Bs )2n = M2n |t − s|n . grazie all’indipendenza delle Xk .10 ` dunque verificata con α = 2n e β = n − 1 qualunque sia e n.58 6. Applicando il Teorema 3. Wt = k=1 σ n In particolare. L’analoga propriet` vale per una n-pla di a incrementi. n/2 (n) Il Teorema limite centrale assicura che le variabili aleatorie Wt convergono in legge verso una variabile aleatoria Wt che ha legge normale N (0. Le traiettorie sono dunque 1 1 n−1 = − 2n 2 2n h¨lderiane per ogni n ≥ 1. per ogni s < t. quasi tutte le traiettorie non sono derivabili in nessun intervallo. MOTO BROWNIANO Dimostrazione. si pu` verificare che. t). La condizione del Teorema 3. ` molto semplice e sar` omessa. N (0. Un’approssimazione simile si pu` ottenere considerando un’arbitraria successione (Zn )n≥1 o di variabili aleatorie indipendenti. si ha quindi E Bt − Bs √ t−s 2n = M2n < ∞ (si potrebbe calcolare M2n = (2n)!/2n n! ma il valore esatto qui non serve). t − s). Per ogni t > 0 poniamo Wt (n) = [nt] k=1 Xk − nt/2 √ . o Si potrebbe verificare che quasi tutte le traiettorie del moto browniano non sono 1/2h¨lderiane.4 Un moto browniano (Bt )t≥0 ha una modificazione con tutte le traiettorie 1/2 − ε h¨lderiane per ogni ε > 0. Inoltre. s). e 2. e a L’approssimazione come limite di scala del processo di Bernoulli ` molto utile nell’intere pretazione fisica del moto browniano.10 si dimostra subito la proposizione seguente Teorema 6.

b[ }dt 0 = 0 b dt √ dx −a 1 2πt ∞ b −a 2 e−x 2 /2t dx = 0 e−x /2t dt √ = +∞. LEGGE DEL MASSIMO 59 Un’idea (grossolana) del comportamento del moto browniano per tempi grandi ` data e dall’osservazione seguente. 0≤s≤t Il principio di riflessione afferma che. t > 0 e ogni funzione ϕ :]0. 2πt Il moto browniano trascorre quindi un tempo (medio) infinito in ogni intervallo ] − a. b > 0). oppure Bt (ω) ≤ a e Bt (ω ) ≥ a ed entrambe le traiettorie avranno massimo maggiore o uguale ad a.2 Principio di riflessione. la probabilit` di osservare a √ valori di Bt / t fuori dall’intervallo [−cϕ(t). Per ogni t ≥ 0 definiamo la variabile aleatoria Mt chiamata massimo della traiettoria fino al tempo t Mt (ω) = max Bs (ω).2. Evidentemente solo una tra ω e ω ha valore superiore ad a al tempo t.5 Si chiama tempo di occupazione di un sottoinsieme boreliano A di R la variabile aleatoria non negativa ∞ 1{Bt ∈A} dt. +∞[ si ha √ P |Bt | > cϕ(t) t =√ 2 2πσ +∞ cϕ(t) e−x 2 /2σ 2 dx. si ha allora P { Mt ≥ a } = 2P { Bt ≥ a } = √ 2 2πt ∞ a e−x 2 /2t dx. ω descritta. . +cϕ(t)] tende a 0 per t tendente a +∞. PRINCIPIO DI RIFLESSIONE. Definizione 6. b[. legge del massimo Sia (Ω. per ogni a > 0. ne ` associata un’altra s → Bs (ω ). F. Il tempo medio di occupazione ` quindi e ∞ P{Bt ∈ A}dt. t] ` e maggiore di a sia in corrispondenza biunivoca con la coppia di traiettorie ω. Per motivi di simmetria si avr` a Bt (ω) ≥ a e Bt (ω ) ≤ a. ad ogni traiettoria s → Bs (ω) tale che Mt (ω) ≥ a. se ϕ diverge a +∞ (anche molto lentamente). il cui grafico ` il simmetrico (o il riflesso e e speculare) del primo rispetto alla funzione costante uguale ad a a partire dal primo istante in cui la traiettoria ω raggiunge a. In particolare. P) uno spazio probabilizzato con una filtrazione (Ft )t≥0 e (Bt )t≥0 un moto browniano standard.6. b[ (a. Si ha infatti e e ∞ ∞ P{ Bt ∈] − a. 0 La sua speranza (eventualmente uguale a +∞) si chiama tempo medio di occupazione. 6. Si pu` quindi peno sare che ogni traiettoria (risultato dell’esperimento aleatorio ω) il cui massimo su [0. +∞[→]0. Per ogni c. 0 Il calcolo ` abbastanza facile nel caso in cui A ` un intervallo ] − a.

dt 2π 2t3/2 e−a /2t dt = +∞ t1/2 2 poich´ la funzione t → t−1/2 non ` integrabile all’infinito. per t > 0. Infatti. MOTO BROWNIANO La conoscenza della legge delle variabili aleatorie Mt permette di calcolare facilmente anche le leggi dell’istante del primo attraversamento di un livello a > 0 dato cio` della e variabile aleatoria Ta definita da Ta (ω) = inf { s > 0 | Bs (ω) ≥ a } . Per dimostrare che ` quasi certamente finita basta osservare che e P { Ta < ∞ } = = t→∞ 2 2 2πt ∞ a e−x 2 /2t dx. lim P { Ta < t } lim √ ∞ 2 2 e−x /2t dx t→∞ 2πt a ∞ √ 2 −y 2 /2 (y = x/ t) = lim √ dy √ e t→∞ 2π a/ t ∞ 2 2 e−y /2 dy = 1. inoltre. continua e in 0 perch´. dall’uguaglianza degli eventi. = √ 2π 0 La funzione di ripartizione di Ta ` evidentemente differenziabile in ]0. e 2 P { Ta < t } = √ 2π La densit` di Ta per t > 0 ` quindi a e f (t) = In particolare si ha quindi a E[Ta ] = √ 2π ∞ 0 ∞ a/ t √ e−y 2 /2 dy.6 La variabile aleatoria Ta ` quasi certamente finita e ha densit` e a ae−a /2t f (t) = √ . { T a < t } = { Mt > a } si trova subito P { Ta < t } = √ Si verifica quindi la seguente Proposizione 6. 2πt 6.60 La variabile aleatoria Mt ha quindi densit` a x→ √ 2 −x2 /2t e . d 2 a −a2 /2t P { Ta < t } = √ e . +∞[ e. e e . 2π t3/2 f (t) = 0 per t ≤ 0. come abbiamo appena verificato con il cambio di variabili. Dimostrazione. In particolare E[ Ta ] = +∞.

. . In√ fatti. .7 Il processo X = (Xt )t≥0 (a valori Rd ) definito da Xt = (Bt . Questo comportamento ` analogo a quello della passeggiata casuale simmetrica su Zd . .4 Processo di Bessel Sia (Ω. r) di centro 0 e raggio r dati da ∞ ∞ (1) (d) P{ Bt ≤ r }dt 0 = 0 P 2−d/2 Γ(d/2) 2−d/2 Γ(d/2) 2−d/2 Γ(d/2) t−1/2 Bt ∞ 2 ≤ r2 t−1 dt r 2 t−1 = (y = xt) = = dt 0 ∞ 0 x(d−2)/2 e−x/2 dx 1 td/2 0 ∞ r2 dt 0 r2 y (d−2)/2 e−y/2t dy e−y/2t dt. Il moto browniano d-dimensionale con d ≥ 3 tende quindi ad allontanarsi da ogni insieme limitato a differenza del moto browniano uni e bidimensionale. Il comportamento del moto browniano multidimensionale dipende dal parametro d. . Ci limiteremo quindi ad osservare che. P) uno spazio probabilizzato munito di una filtrazione (Ft )t≥0 e (Bt )t≥0 un moto browniano d-dimensionale standard. Γ(1/2) = √ 2Γ((d + 1)/2)2 Γ(d/2)2 . MOTO BROWNIANO D-DIMENSIONALE 61 6. . Il comportamento del processo di Bessel ` ovviamente determinato dal quello del moto e browniano d-dimensionale. d) d moti browniani indipendenti. 2 e convergente per d ≥ 3. e 6. F. .3 Moto browniano d-dimensionale (k) Sia (Ω. Bt ) si chiama moto browniano d-dimensionale. . si ha E[Xt ] = √ tE[Z 1/2 ] = √ ∞ t 0 2−d/2 z (d−1)/2 −z/2 Γ((d + 1)/2) √ 2t e dz = Γ(d/2) Γ(d/2) 2 e inoltre E[Xt ] = tE[Z] = td da cui V [Xt ] = t d − Ricordando che Γ(1) = 1. π e che Γ(α + 1) = αΓ(α) si trova subito .3. F. La variabile aleatoria al tempo t ` quindi la distanza dall’origine di un moto browniano e d-dimensionale. Definizione 6. Definizione 6. avendo Xt la stessa legge √ di una variabile aleatoria tZ 1/2 con Z di legge Γ(d/2. i tempi medi d’occupazione delle d-sfere S(0. P) uno spazio probabilizzato munito di una filtrazione (Ft )t≥0 e (Bt )t≥0 (k = 1. 1/2). 1/2). ricordando che la variabile aleatoria Bt / t 2 ha legge χ2 (d) ovvero Γ(d/2.6.8 Si chiama processo di Bessel con parametro d il processo (Xt )t≥0 definito da Xt = Bt = Bt (1) 2 + · · · + Bt (d) 2 1/2 . td/2 y (d−2)/2 dy 0 0 L’integrale risulta divergente per d = 1.

1) Si verifica quindi la seguente Proposizione 6. tn+1 ∧ t − tn ∧ t. t]. t2 ∧ t − t1 ∧ t. Si ha quindi t 2 n E 0 g(s)dBs = j. Nel caso in cui la g sia una funzione costante a tratti.k=1 n g(tj )g(tk )E |g(tk )|2 E k=1 n Bt∧tj+1 − Bt∧tj 2 Bt∧tk+1 − Bt∧tk = = k=1 t Bt∧tk+1 − Bt∧tk |g(tk )|2 (t ∧ tk+1 − t ∧ tk ) |g(s)|2 ds. . < tn+1 .9 Sia (Bt )t≥0 un moto browniano. cio` della forma e n g(s) = k=1 g(tk )1[tk .3) . . 0 = La Proposizione 6. Infatti si pu` trovare una successione (gn )n≥1 di o funzioni continue a tratti tali che t n→∞ lim gn (s) = g(s).tk+1 [ (s) con t1 < .2) Dimostrazione. si pone t n g(s)dBs = 0 k=1 g(tk ) Bt∧tk+1 − Bt∧tk . 0 (6.m→∞ lim |gn (s) − gm (s)|2 ds = 0. (Bt∧t2 − Bt∧t1 ) . La funzione in questione ` per` uno speciale integrale rispetto al moto browniano stesso. . e o L’integrale di una funzione g : [0. t]. (6. per quasi ogni s ∈ [0.9 permette di estendere la definizione dell’integrale rispetto al moto browniano ad ogni funzione g ∈ L2 [0. . n. Bt∧tn+1 − Bt∧tn sono indipendenti e hanno leggi normali con media 0 e varianze t1 ∧ t. +∞[→ R rispetto al moto browniano si costruisce in un modo diverso dall’integrale rispetto a una misura. (6.5 Integrale di funzione rispetto al moto browniano Vari processi stocastici interessanti si possono scrivere in funzione del moto browniano. . . Per ogni t ≥ 0 si ha t 2 t E 0 g(s)dBs = σ2 0 |g(s)|2 ds. che σ 2 = 1. MOTO BROWNIANO E[Xt ] 2t π πt 2 V [Xt ] t 1− t 2− t 3− t 4− 2 π π 2 8 π 9π 8 2 √ π √ 3 π 4 2 √ 3 4 2t π 2πt 6.62 d 1 2 3 4 Γ((d + 1)/2)/Γ(d/2) √ 1/ π √ π 2 6. .. Le variabili aleatorie Bt1 ∧t . . per semplificare le notazioni. . Supponiamo.

6.6. PROCESSO DI ORNSTEIN-UHLENBECK E PONTE BROWNIANO La formula (6.2) assicura allora che
t n,m→∞ t 2

63

lim E
0

gn (s)dBs −
0

gm (s)dBs

=0

e quindi la successione degli integrali delle gn rispetto a B ` convergente in L2 (Ω, F, P). e Poniamo quindi
t t

g(s)dBs := L2 − lim
0

n→∞

gn (s)dBs .
0

Si verifica facilmente che questa definizione non dipende dalla particolare successione scelta per approssimare g (ogni altra successione con le propriet` (6.3) darebbe lo stesso limite). a Poniamo inoltre, per ogni intervallo ]s, t]
t t s

g(r)dBr =
s 0

g(r)dBr −
0

g(r)dBr .

Valgono le seguenti formule Teorema 6.10 Sia (Bt )t≥0 un moto browniano. Per ogni g, h ∈ L2 [0, t] e ogni 0 ≤ a < b ≤ t, 0 ≤ c < d ≤ t si ha
b

E
a b d

g(s)dBs h(s)dBs
c

=

0,

E
a

g(s)dBs

= σ2
[a,b]∩[c,d]

g(s)h(s)ds.

Dimostrazione. Le formule si verificano direttamente per g e h continue a tratti e si estendono a tutte le g, h ∈ L2 ([0, t]) per approssimazione cos` come abbiamo fatto con la definizione di ı integrale. Osserviamo che l’integrale rispetto al moto browniano ` stato definito in L2 (Ω, F, P) e perch´ le traiettorie del moto browniano non sono derivabili e quindi non si pu` definire e o
t

g(s)Bs ds.
0

6.6

Processo di Ornstein-Uhlenbeck e ponte browniano

Il processo di Ornstein-Uhlenbeck descrive il moto casuale (browniano) di una particella con attrito. Detta Xt la posizione (casuale), lo spostamento in un intervallo temporale “piccolo” ` e dXt = −bXt dt + σdBt dove b, σ > 0 e (Bt )t≥0 ` un moto browniano standard. Pi` precisamente e u Definizione 6.11 Si chiama processo di Ornstein-Uhlenbeck il processo (Xt )t≥0 definito da
t

Xt = X0 e−bt + σ
0

e−b(t−s) dBs .

64
2 Se E[X0 ] < ∞ e X0 ` indipendente dalle Bt si calcola e

6. MOTO BROWNIANO

E[Xt ] = E[X0 ]e−bt , σ2 1 − e−2bt 2b σ 2 −2b(t∧s) e − 1 e−b(t+s) . Cov[Xt , Xs ] = V [X0 ]e−b(t+s) + 2b V [Xt ] = V [X0 ]e−2bt + Se la variabile aleatoria X0 ha legge N (0, σ 2 /(2b)) allora le variabili Xt1 , Xt2 , . . . , Xtn (per ogni 0 < t1 < t2 < . . . < tn ) hanno legge congiunta gaussiana.

Definizione 6.12 Si chiama ponte browniano tra a e b nell’intervallo [0, t] il processo (Xt )t≥0 definito da s s bs t−s Xs = a 1 − + + dBr . t t t−r 0 Osserviamo che X0 = a e Xt = b. s bs + t t
r∧s 0

E[Xs ] = a 1 −

Cov[Xr Xs ] = (t − r)(t − s)

rs du = (r ∧ s) − . 2 (t − u) t

Nei due casi precedenti abbiamo affermato che i processi ottenuti per mezzo dell’integrale stocastico rispetto al moto browniano sono processi gaussiani ovvero tutte le variabili Xt1 , Xt2 , . . . , Xtn (0 < t1 < t2 < . . . < tn ) hanno legge congiunta gaussiana. Questo fatto segue dalla proposizione seguente Proposizione 6.13 Per ogni g ∈ L2 [0, t] le variabili aleatorie Xt1 , Xt2 , . . . , Xtn ( n ∈ N, 0 < t1 < t2 < . . . < tn ) hanno legge congiunta gaussiana con medie nulle e matrice di covarianza (C m )1≤ ,m≤n data da
t ∧tm

C

m

=
0

|g(r)|2 dr.

Dimostrazione. Osserviamo innanzitutto che, nel caso in cui g sia una funzione costante a tratti, la conclusione segue subito dalla definizione (6.1). Nel caso in cui g sia una funzione qualunque in L2 [0, t], consideriamo una successione (gk )k≥1 di funzioni costanti a tratti con le propriet` (6.3). Detta (X (k) )k≥1 la successione di processi corrispondenti e posto a u = (u1 , . . . , un ) si ha E exp i u1 Xt1 + . . . + un Xtn
(k) (k)

= exp −

1 u, C (k) u 2

per ogni u1 , . . . , un ∈ R. La conclusione segue facendo tendere k a +∞ poich´ la succese (k) sione di variabili aleatorie (Xtj )k≥1 converge in L2 [0, t] verso la variabile aleatoria Xtj e la succesione di numeri reali (C
(k) ,m )k≥1

converge verso C

m.

6.7. MOTO BROWNIANO GEOMETRICO

65

6.7

Moto browniano geometrico

Sia (Bt )t≥0 un moto browniano standard su uno spazio probabilizzato (Ω, F, P) munito di una filtrazione (Ft )t≥0 . Definizione 6.14 Si chiama moto browniano geometrico il processo (Xt )t≥0 definito da Xt = eBt , per ogni t ≥ 0.

Osserviamo che si tratta di un processo a valori positivi le cui traiettorie hanno le stesse propriet` di quelle del moto browniano. Abbiamo inoltre a E[Xt ] = et/2 V [Xt ] = et et − 1 Cov[Xt , Xs ] = e2(s∧t) e(t∨s−s∧t)/2 − e(t+s)/2 .

6.8

Esercizi
(2n)! 2n σ |t − s|n . 2n n!

Esercizio 6.1 Sia (Bt )t≥0 un moto browniano con parametro σ 2 . Verificare che E |Bt − Bs |2n =

Esercizio 6.2 Sia (Bt )t≥0 un moto browniano standard. Mostrare che, per ogni t > s > 0, le variabili aleatorie
2 2 2 1. Bt − Bs e Bs ,

2. exp(Bt ) − exp(Bs ) e exp(Bs ) non sono indipendenti. Esercizio 6.3 Sia (Bt )t≥0 un moto browniano standard. Si consideri il processo X = (Xt )t≥0 definito da Xt = tB1/t per t > 0 e X0 = 0. Mostrare che, per ogni t > s, l’incremento Xt − Xs ha legge normale N (0, (t − s)). Verificare che il processo (Xt )t≥0 (con X0 = 0) ` un moto browniano. e R. Legge dell’incremento Xt − Xs E exp iu(tB1/t − sB1/s ) = E exp iu(t − s)B1/t − ius(B1/s − B1/t ) = E exp iu(t − s)B1/t · E exp −ius(B1/s − B1/t ) 1 1 − s t u2 (t − s)2 1 u2 s2 = exp − · exp − 2 t 2 2 u (t − s) = exp − . 2

Esercizio 6.4 Verificare che le quasi tutte le traiettorie di un moto browniano standard non sono funzioni derivabili e non hanno variazione limitata su ogni intervallo. Esercizio 6.5 Sia (Bt )t≥0 un moto browniano standard. Verificare che le variabili aleatorie
π π

X=
0

cos(t)dBt ,

Y =
0

sin(t)dBt

sono indipendenti.

per ogni t > 0. t] numerabile denso si ha σ(Bs | 0 ≤ s ≤ t) = σ(Br | r ∈ D) . e ogni insieme D contenuto in [0. MOTO BROWNIANO Esercizio 6. Esercizio 6.6 Sia (Bt )t≥0 un moto browniano standard e sia (Xt )t≥0 il processo definito da Xt = Bt + bt. Verificare che.66 6. Determinare la legge del tempo Ta del primo attraversamento del livello a (a > 0).7 Sia (Xt )t≥0 un processo con tutte le traiettorie continue.

3 Siano X1 . La speranza condizionale di una variabile aleatoria X rispetto alla σ-algebra G fornisce una valutazione ragionevole della speranza della variabile aleatoria X supponendo di conoscere l’informazione data dagli eventi della σ-algebra G. Partendo dal calcolo della probabilit` condizionata a P { X = 1 | Sn = k } = per ogni ∈ {1.2 Siano X. Si chiama versione della speranza condizionale di X rispetto alla σ-algebra G ogni variabile aleatoria reale integrabile V . n k n . Esempio 7. Infatti. baster` prendere V = E[X]. Xn variabili aleatorie indipendenti con legge di Bernoulli B(1. risulta P{V = V } = 0. Si ha allora E[X|σ(Y )] = E[X]. . . F. Ogni versione della speranza condizionale di V rispetto a G si denota E[V |G]. poich´ ogni variabile aleatoria G-misurabile ` quasi certamente e e costante. P) uno spazio probabilizzato fissato e G una sotto-σ-algebra di F. allora a E [1G V ] = E [1G V ] per ogni G ∈ G e quindi.1 Nel caso particolare in cui G = F si pu` prendere V = X mentre. Ω}. . Definizione 7. In questo caso la speranza condizionale di X rispetto a Y si denota anche con E[X|Y ].1) per ogni insieme G ∈ G. se V ` un’altra e e variabile aleatoria reale integrabile con la stessa propriet`. Y due variabili aleatorie reali indipendenti con X integrabile e sia G la σ-algebra σ(Y ) generata da Y . p) e sia Sn = X1 + . nel caso o particolare in cui F = {∅. + Xn . . Esempio 7. . Per sviluppare l’intuizione sulla speranza condizionale consideriamo alcuni esempi. La variabile aleatoria V che verifica (7. a Esempio 7. . . n} si trova E[X |Sn ] = 67 Sn .1 Sia X una variabile aleatoria reale integrabile. misurabile rispetto alla σ-algebra G tale che XdP = G G V dP (7. .7 Speranza condizionale Sia (Ω. . .1) ` essenzialmente unica. essendo V e V G-misurabili.

Si ha allora a E[X2 | σ(X1 )] = R x2 g(x2 |X1 )dx2 . se X1 . F. . Per ogni variabile aleatoria reale estesa X integrabile esiste E[X|G]. Si dimostra infatti il seguente Teorema 7. . G una sotto σ-algebra di F. altrimenti. La conclusione segue dalle identit` a XdP = Q(G) = G G V dP. . X2 sono variabili aleatorie con densit` discreta p.3 Supponiamo che G sia la σ-algebra σ(X1 ) generata da una variabile aleatoria reale X1 e che X1 e X2 abbiano densit` congiunta f rispetto alla misura di Lebesgue a su B(R2 ).1 Speranza condizionale di variabili aleatorie integrabili La speranza condizionale di una variabile aleatoria integrabile esiste sempre. E chiaro che Q ` assolutamente cone tinua rispetto a P quindi. . se cos` non fosse. x2 )/f1 (x1 ) 0 se f1 (x1 ) > 0. esiste una V non negativa e misurabile rispetto alla σ-algebra G tale che Q(G) = G V dP.4 Sia (Xn )n≥1 una catena di Markov con insieme degli stati E e matrice di transizione T . o ı basterebbe decomporre X nella differenza X + − X − . La dimostrazione precedente. P) uno spazio probabilizzato. Proposizione 7. Proposizione 7. . Per ogni funzione f : E → R limitata si ha E [ f (Xn+1 ) | σ{Xn . la densit` condizionata di X2 rispetto a X1 .68 7. allora. Supponendo quindi X non negativa. Dimostrazione. per il Teorema di Radon-Nikodym. Si pu` supporre che X sia non negativa. SPERANZA CONDIZIONALE 7. Siano f1 e f2 le densit` marginali di X1 e X2 rispettivamente e g(·|x1 ) a g(x2 |x1 ) = f (x1 . chiamiamo Q la misura su G definita da Q(G) = G XdP ` e chiamiamo P la restrizione di P alla σ-algebra G. dette p1 a e p2 le densit` marginali di X1 e X2 e q la densit` condizionata di X2 rispetto a X1 a a q(x2 |x1 ) = P {X2 = x2 | X1 = x1 } (definita per le x1 tali che P {X1 = x1 } > 0) si ha E[X2 | σ(X1 )] = x2 x2 q(x2 |X1 ). Mostree e remo quindi il metodo di calcolo in due casi particolari notevoli. Infatti. mostrare l’esistenza di E[X + |G] e E[X − |G] e porre E[X|G] = E[X + |G] − E[X − |G]. non ` costruttiva cio` non fornisce un metodo per calcolare effettivamente E[X|G]. Analogamente. una semplice applicazione del teorema di Radon-Nikodym.2 Sia (Ω. X0 } ] = (T f )(Xn ).

Y sono due variabili aleatorie integrabili tali che P{X ≥ Y } = 1 allora E[ X | G ] ≥ E[ Y | G ]. La speranza condizionale ha molte propriet` analoghe a quelle della speranza a Proposizione 7. (linearit`) se X. Per ogni variabile aleatoria V che sia G-misurabile e limitata si ha E[ V X | G ] = V E[ X | G ]. Con un tipico procedimento di teoria dell’integrazione la formula precedente si estende alle funzioni f positive e poi a quelle tali che f (X) sia integrabile. e 3. Osserviamo infine che se X ` indipendente dalla σ-algebra G (e. Si Ha allora E E[X | G ] H = E[X | H] Teorema 7. integrae bile) ovvero P ({ X ∈ A } ∩ G) = P ({ X ∈ A }) · P (G) (7.6 Sia X una variabile aleatoria integrabile e siano G.2). H due sotto σ-algebre di F tali che H ⊆ G. Quindi la speranza condizionale ` lineare. (monotonia) se X.2. La variabile aleatoria aE[ X | G ] + bE[ Y | a G ] ` evidentemente G-misurabile. Se X ` integrabile. Verifichiamo la prima propriet`. F. 4.3) dP per ogni funzione f semplice.7 Sia X una variabile aleatoria integrabile. a Anche la dimostrazione delle due propriet` seguenti ` solo un esercizio sulla definizione a e di speranza condizionale. Per ogni G ∈ G si ha e (aE[ X | G ] + bE[ Y | G ]) dP G = a G E[ X | G ] + b G E[ Y | G ]dP = a G XdP + b G Y dP = G (aX + bY ) dP. Y sono due variabili aleatorie integrabili e a. e Le altre propriet` si dimostrano in modo analogo. allora E [ X | G ] = E[ X ].2) per ogni A boreliano e G ∈ G. Teorema 7. 2.2 Propriet` di monotonia e proiettivit` a a Sia (Ω. baster` per trovare la (7. PROPRIETA DI MONOTONIA E PROIETTIVITA 69 7. P) uno spazio probabilizzato fissato e G una sotto σ-algebra di F.2) segue subito che f (X)dP = E[ f (X) ] · P(G) = E[ f (X) ] · G G (7. e a .5 La speranza condizionale ha le propriet` seguenti: a 1. Dimostrazione. (normalizzazione) se X = x ` una variabile aleatoria costante allora E[ X | G ] = x. Infatti dalla (7. (positivit`) se X ` una variabile aleatoria positiva e integrabile allora E[ X | G ] ` a e e positiva.` ` 7. naturalmente. b ∈ R allora a E[ aX + bY | G ] = aE[ X | G ] + bE[ Y | G ].

G-misurabile. Si ha allora E[ V X | G ] = V E[ X | G ] Dimostrazione. P). Per ogni n ≥ 1 la variabile aleatoria Vn = (V ∧ n) ` limitata. P) (1 ≤ p < ∞) lo spazio vettoriale delle variabili aleatorie X tali che E[|X|p ] < ∞. Il Teorema 7. Si ha allora ϕ(E[X|G]) ≤ E[ϕ(X)|G] Indichiamo con Lp (Ω. Supponiamo che anche la variabile aleatoria ϕ(X) sia integrabile.11 Per ogni variabile aleatoria Z. (Cenno) Decomponendo V = V + − V − si vede che basta dimostrare la proposizione nel caso in cui V sia inoltre non negativa.9 Se X ∈ Lp (Ω. La conclusione segue facendo tendere n all’infinito.G. Basta applicare la diseguaglianza di Jensen prendendo la funzione convessa ϕ(x) = |x|p . Scriviamo E |X − Z|2 = E ((X − E[ X | G ]) − (E[ X | G ] − Z)) 2 = E (X − E[ X | G ])2 + E (E[ X | G ] − Z)2 + 2E [ (X − E[ X | G ])(E[ X | G ] − Z)] . dunque e E[ Vn X | G ] = Vn E[ X | G ] grazie al Teorema 7. Si pu` anzi vedere che la speranza condizionale di X rispetto a una sotto σ-algebra G di o F ` la migliore approssimazione di X con una variabile aleatoria G misurabile. Supponiamo che E[|X|p ] < ∞ e che E[|V |q ] < ∞ con p. e . si ha E |X − Z|2 = E |X − E[ X | G ]|2 + E |E[ X | G ] − Z|2 . SPERANZA CONDIZIONALE 7.4 Speranza condizionale e stima La Proposizione 7.P) min E |X − Z|2 = E |X − E[ X | G ]|2 .7 si pu` generalizzare un p` come segue o o Proposizione 7.9 assicura.3 Diseguaglianza di Jensen La diseguaglianza di Jensen si enuncia e si dimostra in modo analogo a quella per la speranza.10 Sia X una variabile aleatoria e V una variabile aleatoria G-misurabile. In particolare Z∈L2 (Ω. F. q numeri reali maggiori di 1 tali che 1/p + 1/q = 1. di quadrato e integrabile. che la speranza condizionale di una variabile aleatoria X di quadrato integrabile ha anch’essa quadrato integrabile. 7. Utilizzando le propriet` della speranza condizionale si verifica che l’ultimo termine della a somma precedente ` nullo. Proposizione 7. Proposizione 7.70 7. di quadrato integrabile. F.8 Sia X una variabile aleatoria reale integrabile e ϕ : R → R una funzione convessa. Dimostrazione. in particolare. Dimostrazione. F. P) allora E[X|G] ∈ Lp (Ω.7. nel senso seguente Teorema 7.

Mostreremo infatti che. Dunque. Verificare che E[ X | G ] = n≥1 An XdP P(An ) 1An . posto g = g + − g − abbiamo X = g(V ). abbiamo X + = g + (V ) e X − = g − (V ). per linearit`. . .13 Esiste una funzione g : Rn → R tale che E[ X | σ(V1 . . La funzione g dipender` ovviamente da X. Per ogni n possiamo trovare come sopra una funzione gn : Rn → R boreliana semplice tale che Xn = gn (V ). . La Proposizione 7.7. . troviamo X = g(V ). G-misurabile. . . . . . . Vn ) ] = g(V1 . decomponendo X nella sua parte positiva X + e negativa X − . . u Per cominciare ` vera per le variabili aleatorie che sono funzioni indicatrici di insiemi e { V ∈ B } di G perch´ queste si scrivono e 1{ V ∈B } = 1B (V ) quindi g = 1B . . In pi` la successione (gn )n≥1 ` non decrescente e limitata superiormente da supω∈Ω |X(ω)|. Vn . . . . . . la speranza condizionale di una variabile aleatoria integrabile X rispetto a G ` una funzione di V1 . La σ-algebra G ` costituita dai sottoinsiemi di Ω della forma { V ∈ B } con e B sottoinsieme boreliano di Rn . Vn . . . . . Vn ) Il caso in cui la σ-algebra G ` generata da un vettore V = (V1 . Questa propriet` e a segue essenzialmente dal seguente Teorema. Ricordiamo che ogni variabile aleatoria X. . in questo caso. . Seguiremo uno schema classico di teoria della misura verificando che l’affermazione vale per variabili aleatorie X via via pi` generali. Vn ). .5. Infine. quindi.12 (Criterio di misurabilit` di Doob). VN ) 71 7.3 ` un caso particolare di a e questo corollario. g − boreliane limitate. ovvero per le variabili aleatorie G-semplici. l’affermazione ` vera per le combinazioni lineari finite a e di funzioni indicatrici di insiemi di G. .5 Speranza condizionale rispetto a σ(V1 . .1 Sia X una variabile aleatoria integrabile e G la σ-algebra generata da una variabile aleatoria della forma Z= an 1An n≥1 dove (An )n≥1 ` una partizione di Ω fatta con elementi di F e (an )n≥1 ` una successione di e e numeri reali distinti. . Dimostrazione. . Vn ) di variabili aleatorie e reali ` particolarmente significativo nelle applicazioni ed illustra ulteriormente la speranza e condizionale. Teorema 7. con g + . 7. Ogni variabile aleatoria G-misurabile limitata X si scrive nella forma X = g(V ) con g : Rn → R boreliana limitata. non-negativa ` limite puntuale e di una successione non decrescente (Xn )n≥1 di variabili aleatorie G-semplici. . SPERANZA CONDIZIONALE RISPETTO A σ(V1 . Vn ) generata a da n variabili aleatorie reali V1 . . Sia G la σ-algebra σ(V1 . Come conseguenta immediata abbiamo il Corollario 7.6 Esercizi Esercizio 7. . u e Quindi ponendo g = supn≥1 gn . .

72 7. e e Mostrare che Γ12 (X1 − m1 ) E [ X2 | σ(X1 ) ] = m2 + Γ11 Esercizio 7. P) verso la variabile aleatoria E[ X | G ]. P) verso una variabile aleatoria integrabile X cio` tale che e n→∞ lim E[|Xn − X|] = 0.3 Sia (Xn )n≥1 una successione di variabili aleatorie integrabili convergente in L1 (Ω. G. Mostrare che la successione (Vn )n≥1 dove Vn = E[ Xn | G ] converge in L1 (Ω. m2 ) ` il vettore delle medie e Γ ` la matrice di covarianza. SPERANZA CONDIZIONALE Esercizio 7. X2 due variabili aleatorie reali con densit` gaussiana bidimensiona ale N (m. Γ) dove m = (m1 .2 Siano X1 . . F.

Esempio 8. la cosiddetta propriet` di martingala.1) Il processo (Mn )n≥0 definito da Mn = λ−n f (Xn ) ` una martingala rispetto alla filtrazione naturale (Fn )n≥0 della catena di Markov (Xn )n≥0 e (Fn = σ{ Xj | j ≤ n }). Definizione 8. Supponiamo che λ ∈]0.2 Sia B = (Bt )t≥0 un moto browniano standard.1 Sia (Nt )t≥0 un processo di Poisson con parametro λ ed (Ft )t≥0 la sua filtrazione naturale. 1] sia un autovalore della matrice T con autovettore una funzione f : E → R limitata ovvero (T f )(j) = k∈E Tjk f (k). E chiaro che B ` una mare tingala come pure il processo (Xt )t≥0 definito da 2 Xt = Bt − t. In e questo capitolo studieremo le propriet` principali delle martingale e mostreremo qualche a applicazione.8 Martingale Le martingale sono una classe di processi stocastici nella quale la dipendenza tra le variabili aleatorie del processo si esprime in un modo speciale.3 Sia I = N e (Xn )n≥0 una catena di Markov con insieme degli stati uguale a un insieme numerabile E e matrice di transizione T = (Tjk )jk∈E . a Questa propriet` costituisce una relazione di dipendenza che si pu` verificare in numerose a o situazioni ed ` diventata uno strumento fondamentale nella teoria e nelle applicazioni. e ` Esempio 8. Il processo (Mt )t≥0 definito da Mt = Nt − λt ` una martingala. per ogni j ∈ E. Esempio 8. F. la variabile aleatoria e e Mt ` integrabile per ogni t ∈ I e e E [ Mt | Fs ] = Ms .1 Un processo (Mt )t∈I ` una martingala se ` adattato. 73 . per ogni s ≤ t. Sia (Ω. (8. P) uno spazio probabilizzato munito di una filtrazione (Ft )t∈I .

j0 = ·P{Xn+1 = jn+1 | Xn = jn . .. per ogni n ≥ 0 e ogni funzione g : E n+1 → R (dove a E n+1 denota il prodotto di n + 1 copie dell’insieme E). X0 )] = E [Mn g(Xn . . a E [ Mn+1 | Fn ] = Mn . . .jn . .74 8. Chiaramente Y0 = 1. . jn−1 .. . Si pesca una pallina a caso e si rimette nell’urna insieme ad un’altra pallina dello stesso colore. . X0 = j0 } λ−(n+1) f (jn+1 )g(jn . X0 )] = jn+1 . . Si ripete quindi l’esperimento all’infinito . . . .. j0 ) jn+1 . X0 = j0 } · P{Xn = jn .j0 λ −(n+1) f (jn+1 )g(jn . Esempio 8. . . . Dato che T f = λf . . Sia Xn la frazione di palline blu e Yn il numero di palline blu presenti nell’urna dopo l’n-esimo esperimento. X0 )] ovvero. X0 = j0 }. Xn = jn . . . .. .. . .. . . n+2 ` una martingala rispetto alla sua filtrazione naturale.jn . . data l’arbitrariet` di g. . si ha λ−(n+1) (T f )(jn ) = λ−n f (jn ) e quindi E [Mn+1 g(Xn . X0 = j0 } = jn+1 . X0 = j0 } = jn . P { Yn+1 = j | Yn = k } =  0 altrimenti. . . . j0 )P{Xn = jn . . .jn ... j0 )P{Xn = jn ...  k/(n + 2) 1 − k/(n + 2) se j = k. 2 n+3 Yn .jn . . .j0 λ −(n+1) Tjn jn+1 f (jn+1 )g(jn . . jn−1 .. Yn = (n + 2)Xn e  se j = k + 1. .. . jn−1 . . La speranza di Yn+1 per la probabilit` condizionata P{· | Yn = k} ` pertanto a e (k + 1)P { Yn+1 = k + 1 | Yn = k } + kP { Yn+1 = k | Yn = k } k(n + 3) k(k + 1) k(n + 2 − k) + = = n+2 n+2 n+2 e perci` o E [ Yn+1 | σ(Yn ) ] = Ne segue che la successione (Xn )n≥0 Xn = Yn n+2 1 . In particolare e E[Xn ] = E [ E [Xn | σ{X0 }] ] = E[ X0 ] = . . ... . . . jn−1 . .. .. . ... . si ha E [Mn+1 g(Xn . MARTINGALE Grazie alla propriet` di Markov. jn−1 . Per induzione si deduce subito che E [ Mm | Fn ] = Mn per ogni m ≥ n. ... . . j0 ) ·P{Xn+1 = jn+1 | Xn = jn } · P{Xn = jn . .. ..j0 λ−(n+1) (T f )(jn )g(jn .4 (Schema d’urna) Un’urna contiene inizialmente una pallina blu e una nera.j0 λ−(n+1) f (jn+1 )g(jn . . j0 )P{Xn+1 = jn+1 . . . X0 = j0 } = jn+1 . .

4 Siano X = (Xt )t∈I e Y = (Yt )t∈I due sottomartingale. . e . . .2 Sia (Ω. se le variabile aleatorie f1 (Yn )/f0 (Yn ) sono integrabili. Teorema 8. SOTTOMARINGALE. Esempio 8. allora (Xn )n≥0 ` una martingala rispetto e a e alla filtrazione (Fn )n≥0 con Fn = σ{Y0 . Le supermartingala e sottomartingale si ottengono spesso con semplici trasformazioni di martingale.` 8. allora E [ Xn+1 | σ{Y0 . Il processo Z = (Zt )t∈I definito da Zt (ω) = max{Xt (ω). .3 Un processo (Xt )t∈I ` una supermartingala (risp. f0 (Yn+1 ) Di conseguenza. se f0 ` la densit` di tutte le Yn . SUPERMARTINGALE 75 Definizione 8.1 Prime propriet`. Si verifica facilmente che. La successione dei a rapporti di verosimiglianza Xn = f1 (Y0 )f1 (Y1 ) · · · f1 (Yn ) f0 (Y0 )f0 (Y1 ) · · · f0 (Yn ) costituisce un processo stocastico di grande importanza nei metodi sequenziali per i test di ipotesi statistiche. sottomaringale.1. per semplicit`. . Yt (ω)} ` una sottomartingala. supermartingale a Per studiare le martingale e le loro applicazioni ` utile estendere la Definizione 8. . Esempio 8. Si dimostra immediatamente che le somme e moltiplicazioni per scalari di martingale sono ancora martingale. . la variabile aleatoria Xt ` integrabile per ogni t ∈ I e e E [ Xt | Fs ] ≤ Xs . PRIME PROPRIETA.1.6 Sia (Nt )t≥0 un processo di Poisson di parametro λ > 0. 8. Osserviamo che (Xt )t∈I ` una supermartingala se e solo se il processo (−Xt )t∈I ` una e e sottomartingala. e Definizione 8. ≥) per ogni s ≤ t. supermartingale o sottomartingale. . a a Supponiamo.5 (Rapporti di verosimiglianza) Sia (Yn )n≥0 una successione di variabili aleatorie reali indipendenti identicamente distribuite e siano f0 ed f1 due densit` di probabilit`. Yn }. Si chiama martingala chiusa dalla variabile aleatoria Z un processo stocastico (Mt )t∈I tale che Mt sia una versione della speranza condizionale di Z rispetto alla σ-algebra Ft per ogni t ∈ I. Si verifica facilmente che il processo (Nt − ct)t≥0 (rispetto alla sua filtrazione naturale) ` una sottomartingala se e c < λ e una supermartingala se c > λ. (risp. P) uno spazio probabilizzato munito di una filtrazione (Ft )t∈I e Z una varibile aleatoria reale estesa integrabile. F. che la funzione f0 sia strettamente positiva. Yn } ] = Xn E f1 (Yn+1 ) . Si ha infatti E f1 (Yn+1 ) = f0 (Yn+1 ) f1 (y) f0 (y)dy = f0 (y) f1 (y)dy = 1. sottomartingala) se ` e e adattato.

+∞[ tale che 0 appartenga a I. b ∈ R). Osserviamo che. |X| = (|Xt |)t≥0 . L’insieme dei tempi I sar` un sottoinsieme di [0. MARTINGALE Dimostrazione. 8. Basta osservare che: X + ` il massimo tra X e la martingala nulla. Basta ricordare la diseguaglianza di Jensen per la speranza condizionale. X − ` e e l’opposto del minimo tra X e la martingala nulla. Un tempo d’arresto T si chiama discreto se ha valori in un sottoinsieme discreto D di [0.2 Tempi d’arresto Sia (Ω. Si ha infatti {T < t} = n≥1 {T = t} T ≤t− 1 n . a Definizione 8. Basta applicare il Teorema 8.76 8. Ricordiamo che un sottoinsieme D di [0. Dimostrazione. {T = t} = {T ≤ t} − {T < t}. per ogni t ∈ I. e Dimostrazione. Allora il processo ϕ(X) = (ϕ(Xt ))t≥0 ` una sottomartingala.5 Se X = (Xt )t∈I ` una martingala allora i processi e + X + = (Xt )t≥0 . Corollario 8.7 Sia X = (Xt )t∈I una martingala. Supponiamo che. Si ha allora Zs dP A = A∩{Xs ≥Ys } Xs dP + A∩{Xs <Ys } Ys dP Yt dP A∩{Xs <Ys } ≤ A∩{Xs ≥Ys } Xt dP + Zt dP + A∩{Xs ≥Ys } A∩{Xs <Ys } ≤ = A Zt dP Zt dP.6 Sia X = (Xt )t∈I una martingala e ϕ : R → R una funzione convessa. sono sottomartingale.6 con ϕ(x) = x2 . +∞] si chiama discreto se D ∩ [a. +∞] ` un tempo d’arresto se l’evento e {T ≤ t} appartiene alla σ-algebra Ft per ogni t ∈ I. se T ` un tempo d’arresto. Analogamante il minimo tra supermartingale ` una supermartingala e Corollario 8. − X − = (Xt )t≥0 .8 Una variabile aleatoria T : Ω → [0. b] ` finito per e ogni intervallo [a. +∞]. Ne segue che E[ Zt | Fs ] ≥ Zs . e Dimostrazione. la variabile aleatoria ϕ(Xt ) sia integrabile. P) uno spazio probabilizzato munito di una filtrazione (Ft )t∈I . Il processo Z ` evidentemente adattato e integrabile (|Zt | ≤ |Xt | + |Yt | per e ogni t ≥ 0). Per verificare che ` una sottomartingala consideriamo due tempi s < t e un e insieme A ∈ Fs . appartengono a Ft . F. b] (a. . anche gli insiemi e {T < t}. Se le variabili aleatorie Xt hanno 2 quadrato integrabile allora il processo (Xt )t∈I ` una sottomartingala. |X| ` la somma di X + e X − . e Teorema 8.

t] { Bs < a } . Questo dimostra che Ta ` un tempo d’arresto. Tutti gli insiemi { Bs > a } (con s ≤ t) appartengono a Ft ma questo non ci permette ancora di concludere che l’insieme { Ta > t } appartiene a Ft perch´.t] n≥1 s∈[0.9 Siano S. sono tempi d’arresto.7 (Tempo d’attesa dell’n-mo successo) Sia (Xn )n≥1 un processo di Bernoulli con paramento p ed (Fn )n≥1 la sua filtrazione naturale. . e La classe dei tempi d’arresto ha le seguenti propriet` a Proposizione 8. { Tn+1 = k } = { Tn < k.8 (Tempi di salto di un processo di Poisson) I tempi di salto Tn di un processo di Poisson sono tempi d’arresto rispetto allla filtrazione naturale del processo. Osserviamo infatti che e { Ta > t } = s∈[0. Xk = 1 } ∈ Fk . Le variabili aleatorie Tn definite da T1 (ω) = min{ k ≥ 1 | Xk (ω) = 1 } Tn+1 (ω) = min{ k > Tn (ω) | Xk (ω) = 1 } (con la convenzione min ∅ = +∞). come abbiamo visto. Infatti. Esempio 8. { Tn ≤ t } = { Nt ≥ n } ∈ Ft per ogni t ≥ 0. {S ∨ T ≤ t} = {S ≤ t} ∩ {T ≤ t}.t]∩Q Br ≤ a − 1 n .9 (Tempo del primo attraversamento del moto browniano) Sia (Bt )t≥0 un moto browniano standard e a > 0. Ne segue che l’insieme { Ta > t } ` unione numerabile di insiemi di Ft e perci` appartiene a e o Ft come pure il suo complementare { Ta ≤ t }. l’intersezione nella e formula precedente ` pi` che numerabile. Si ha infatti. Infatti { T1 = 1 } = { X1 = 1 } ∈ F1 . T ≤ t } ∩ { S + T > t }) .8. Le variabili aleatorie S + T . ovvero i tempi d’attesa dell’n-esimo successo. Grazie alla continuit` delle traiettorie abbiamo e u a per` o { Bs < a } = s∈[0. S ∧ T . Esempio 8. per ogni t > 0.t] Bs ≤ a − 1 n = n≥1 r∈[0.2. S ∨ T sono tempi d’arresto. {S ∧ T ≤ t} = {S ≤ t} ∪ {T ≤ t}. Dimostrazione. Quanto alla somma S + T osserviamo che { S + T > t } = { S > t } ∪ { T > t } ∪ ({ S ≤ t. TEMPI D’ARRESTO 77 Esempio 8. { T1 ≤ k } = 1≤ ≤k { X = 1 } ∈ Fk (k > 1). Il tempo Ta del primo attraversamento del livello a definito da Ta (ω) = inf{ s ≥ 0 | Bs (ω) ≥ a } ` un tempo d’arresto rispetto alla filtrazione naturale del processo. T due tempi d’arresto.

per esempio.t]. In moltissime applicazioni per` si pu` verificare che Ft = Ft per ogni o o t ≥ 0.r∈([0. L’estremo inferiore di una successione (Tn )n≥1 di tempi d’arresto di una filtrazione (Ft )t≥0 potrebbe non essere un tempo d’arresto della stessa filtrazione. Basta osservare che si ha sup Tn > t n≥1 = n≥1 { Tn > t }. Quando vale questa propriet` si dice che la filtrazione (Ft )t≥0 ` a e continua a destra. MARTINGALE Gli insiemi { S > t } e { T > t } appartengono a Ft perch´ S e T sono tempi d’arresto.y∈[0. x+y>t n≥1 = = 1 1 < S ≤ x.t]. Basta considerare la successione Tn = k≥0 (k + 1)2−n 1{k2−n <T ≤(k+1)2−n } .t]∩(Q∪{t})). x+y>t { S = x. . I tempi d’arresto si utilizzano quando si voglia stabilire una regola che indichi.y∈[0. Infatti. si ha inf Tn ≤ t = j≥k n≥1 n≥1 inf Tn < t + 1 j = j≥k n≥1 Tn < t + 1 j e quindi l’insieme { inf n≥1 Tn ≤ t } appartiene alla σ-algebra Ft+1/k qualunque sia k.11 Ogni tempo d’arresto limitato ` limite di una successione non-crescente e di tempi d’arresto discreti. Ne segue che appartiene alla σ-algebra + Ft = k≥1 + ` E chiaro che la σ-algebra Ft ` pi` grande della σ-algebra Ft perch´ tutte le Ft+1/k cone u e + tengono la Ft . e Dimostrazione.78 8. Proposizione 8. s+r>t n≥1 L’insieme { S + T ≤ t } appartiene quindi a Ft . Dimostrazione. La variabile aleatoria supn≥1 Tn ` un tempo d’arresto.10 Sia (Tn )n≥1 una successione di tempi d’arresto. Indipendentemente dal fatto che la filtrazione sia continua a destra possiamo comunque mostrare la seguente 1 Ft+ k . nel caso della filltrazione naturale del moto browniano o del processo di Poisson. y − < T = y n n s− 1 1 < S ≤ s. l’instante in cui si voglia effettuare una certa operazione. Proposizione 8. s. r − < T = r n n . Questo succede. per ogni k > 0. per ogni t ≥ 0. T = y } x− x. sulla base delle osservazioni di passato e presente. T ≤ t } ∩ { S + T > t } = x. Inoltre e abbiamo { S ≤ t.

8. Definizione 8. supermartingala oppure sottomartingala) e T un tempo d’arresto discreto a valori in I.14 Sia X = (Xt )t∈I una martingala (risp. |T e e l’insieme { Xt ≤ r } appartenga a F. allora anche il processo arrestato X |T ` adattato. ≤ oppure ≥) per ogni t ∈ I. .3. o decidere se continuare o meno.3 Teorema d’arresto discreto Sia (Ω. ad ogni istante k si pu` osservare il valore di Sn e. Il processo arrestato X |T ` una mare tingala (risp. supermartingala oppure sottomartingala). per ogni r ∈ R. +∞[ e sia T un tempo d’arresto discreto a valori in I. +∞[ tale che 0 ∈ I e sia T un tempo d’arresto discreto a valori in I. Xk < 1 } ∈ Fk . . si ha E[Xt ] = E[XT ∧t ] = E[X0 ] (8. Una “strategia” naturale ` di interrompere il gioco non appena il capitale sia strettamente e positivo ovvero al tempo T T (ω) = inf{ n ≥ 1 | Xn (ω) > 0 } = inf{ n ≥ 1 | Xn (ω) = 1 }. L’insieme dei tempi I sar` un sottoinsieme di [0. X2 < 1. per ogni t ∈ I.13 Sia X = (Xt )t∈I un processo stocastico con insieme dei tempi I ⊆ [0. Questa verifica ` piuttosto facile perch´ l’insieme dei valori di T ` numerabile. In particolare.10 Una partita a testa e croce in cui un giocatore vinca 1 quando esce testa e perda 1 quando esce croce si modellizza naturalmente con un processo di Bernoulli (Rn )n≥1 con parametro 1/2 (supporremo che il gioco sia equo). P) uno spazio probabilizzato munito di una filtrazione (Ft )t∈I . Si chiama processo X arrestato al tempo T e si denota con X |T il processo definito da Xt (ω) = XT (ω)∧t (ω). a Teorema 8. La variabile aleatoria T ` un tempo d’arresto infatti e { T ≤ k } = { T > k }c = { X1 < 1.12 Sia X = (Xt )t∈I un processo stocastico con insieme dei tempi I ⊆ [0. . . TEOREMA D’ARRESTO DISCRETO 79 Esempio 8. Per assicurarsi che la formula precedente definisca effettivamente un processo occorre |T verificare che le funzioni Xt : Ω → R siano variabili aleatorie ovvero che. Se il processo X ` e adattato. Xt ≤ r } . sulla base dell’osservazione. . Il capitale del giocatore al tempo n sar` a n Xn = 2 k=1 Rk − n. La formula precedente permette inoltre di dimostrare la proposizione seguente Proposizione 8. Xs∧t ≤ r }) |T |T c { T > t.2) ( risp. F. ` E chiaro che. +∞[ tale che 0 appartenga a I. Si ha infatti e { Xt ≤ r } = (∪s∈D { T = s. e 8.

E[XT ∧t ] ≥ E[XU ∧t ].10.s<r≤t A∩{T =r} Xr dP + XT ∧t dP + r∈D.s<r≤t A∩{T =r} Xt dP + A∩{T >t} Xt dP Xt dP A∩{T >t} = A∩{T ≤s} XT dP + r∈D. t] ` finito.) Dimostrazione. La Proposizione 8.2) segue immediatamente prendendo s = 0 e A = Ω. Dato che le variabili aleatorie XT ∧t e XU ∧t coincidono con la variabile aleatoria Xt sull’insieme { T > t } la conclusione segue immediatamente. s ∈ I con t > s e A ∈ Fs fissati. per ogni r ∈ D che soddisfa la e diseguaglianza s < r ≤ t l’insieme A ∩ {T = r} appartiene a Fr . dato che il processo arrestato X |U ` una sottomartingala. Dato che. Siano t.14) ammette il seguente Corollario 8. a Si ha allora XT ∧s dP A = A∩{T ≤s} XT dP + A∩{T >s} Xs dP Xt dP.80 8. valgono le eguaglianze XT ∧s dP A = A∩{T ≤s} XT dP + r∈D. MARTINGALE Dimostrazione. t] si trova quindi XT ∧t dP ≤ { T ≤t } { T ≤t } XU ∧t dP. Osservazione. La variabile aleatoria XT ∧t ` e e integrabile per ogni t ∈ I perch´ e |XT ∧t | = s∈D∩[0. Per ogni s ∈ I l’insieme { T = s } appartiene alla σ-algebra Fs e quindi.13 assicura che il processo X |T ` adattato. Per ogni t ∈ I si ha allora E[XT ∧t ] ≤ E[XU ∧t ] (risp. Per convincersene basta considerare il tempo d’arresto T dell’Esempio 8. A∩{T >s} = A∩{T ≤s} XT dP + poich´ l’insieme A ∩ {T > s} appartiene a Fs . A XT ∧t dP A∩{T >t} = La formula (8. se s ≤ t si ha e XT ∧t dP = { T =s } { T =s } Xs dP = { T =s } XU ∧s dP ≤ { T =s } XU ∧t dP. In generale non si pu` far tendere t all’infinito nella formula (8. Il teorema seguente d` certe condizioni sotto le quali il passaggio al limite ` lecito. a e .15 Sia X = (Xt )t∈I una sottomartingala (risp. In questo caso infatti X0 = 0 e XT = 1 dunque E[X0 ] = 0 = 1 = E[XT ]. Sommando sugli s ∈ I ∩ [0. Il Teorema d’arresto discreto (8. Denotiamo con D il sottoinsieme numerabile di I tale che { T ∈ D } = Ω. U due tempi d’arresto discreti a valori in I tali che T ≤ U . supermartingala) e T.t] |Xs∧t | e l’insieme D ∩ [0.s<r≤t A∩{T =r} = A∩{T ≤s} XT ∧t dP + XT ∧t dP. e Verifichiamo infine la propriet` di martingala.t] 1{T =s} |Xs∧t | ≤ s∈D∩[0.2) per o trovare E[XT ] = E[X0 ].

b] ovvero la variabile aleatoria T : Ω → N∗ ∪ {+∞} cos` definita ı T (ω) = inf{ n ≥ 1 | Xn (ω) = −a. .16 Sia X = (Xt )t∈I una martingala e T un tempo d’arresto discreto a valori in I.t∈D lim E[Xt 1{ T >t } ] = 0. .14). . si ha E[Xt 1{ T >t } ] 2 2 ≤ E Xt P{ T > t } ≤ KP{ T > t } e P{ T > t } converge verso 0 per t tendente a +∞ perch´ T ha quasi certamente valori e finiti. b ∈ N∗ ) della passeggiata a casuale simmetrica su Z che parte da 0. oppure Xn (ω) = b }. Si verifica immediatamente che T ` un tempo d’arresto per la filtrazione naturale (Fn )n≥1 e del processo (Xn )n≥1 data da Fn = σ{ Y1 . La condizione t→∞. Dimostrazione.4.8. Supponiamo che T abbia valori in un insieme discreto D e P{ T < ∞ } = 1. Osservazione.4 8. b] (a.t∈D E[ |XT | ] < ∞. . . 2 Sia T il primo istante in cui la passeggiata casuale arriva al bordo dell’intervallo [a. Il processo stocastico (Xn )n≥1 in questione si pu` o rappresentare n Xn = k=1 Yk dove le variabili aleatorie Yk sono indipendenti. grazie alla diseguaglianza di Schwarz. Per ogni t ∈ D si ha E[XT ] = E[XT 1{ T ≤t } ] + E[XT 1{ T >t } ] = E[XT ∧t ] − E[Xt 1{ T >t } ] + E[XT 1{ T >t } ] = E[X0 ] − E[Xt 1{ T >t } ] + E[XT 1{ T >t } ] grazie al Teorema (8. Sotto le ipotesi del teorema si pu` far tendere t all’infinito e o concludere. Si ha allora E[XT ] = E[X0 ]. 8. lim E[Xt 1{ T >t } ] = 0 ` soddisfatta se vale la condizione P{ T < ∞ } = 1 e e 2 sup E Xt = K < ∞. t→∞.4.1 Applicazioni Passeggiata casuale unidimensionale Calcoliamo le probabilit` di uscita da un intervallo [−a. APPLICAZIONI 81 Teorema 8. identicamente distribuite con P{ Yk = 1 } = 1 = P{ Yk = −1 }. Yn }. t∈I Infatti.

Yn } ] ≤ 1 (8. e nella gestione del bacino. differenza di due variabili aleatorie En e Un che rappresentano rispettivamente il flusso in entrata e in uscita. Supponiamo di voler mantenere il livello del bacino al di sopra di un certo valore minimo a.4) (8. Poich´ P{ T < ∞ } = 1 (la passeggiata casuale simmetrica su Z ` ricorrente . Dalle equazioni (8. b})2 e il teorema della convergenza monotona alla successione non decrescente (T ∧ n)n≥1 ) si ha 2 E[T ] = E[XT ] = a2 P{ XT = −a } + b2 P{ XT = b } = ab. . Per determinare la capacit` b di solito si cerca di fare in modo che il tempo medio E[T ] a della discesa del livello sotto a sia abbastanza grande. a+b (8. Il livello del bacino al tempo n + 1 ` quindi e Ln+1 = min (Ln + Yn+1 )+ . in qualche misura. . Yn } ] ≤ m E [ exp(−λYn+1 ) | σ{Y0 . Le variabili aleatorie Yn sono.4) si trova quindi P{ XT = −a } = b . MARTINGALE Inoltre il processo (Xn )n≥1 ` una martingala rispetto a questa filtrazione.2 Livello di un bacino Sia Ln il livello (aleatorio) al tempo n dell’acqua in un bacino di capacit` b. b }. per ogni n ≥ 1.5) (8. −aP{ XT = −a } + bP{ XT = b } = 0 e inoltre (la variabile aleatoria XT prender` il valore −a o il valore b) si ha a P{ XT = −a } + P{ XT = b } = 1. grazie al teorema della convergenza dominata. Consideriamo il processo Z = (Zn )n≥0 definito da 2 Zn = Xn − n. che E [ Yn+1 | σ{Y0 . La capacit` b ` un parametro a e modificabile in fase di costruzione e il flusso in uscita Un ` controllabile. per esempio. . Sia T il tempo d’arresto (rispetto alla filtrazione naturale del processo (Ln )n≥0 ) T (ω) = inf{ n ≥ 1 | Ln (ω) ≤ a }. Grazie al teorema d’arresto discreto. Yn+1 la quantit` a a casuale di acqua che entrer` o uscir` (Yn+1 pu` assumere valori positivi o negativi) dal bacino a a o dal tempo n al tempo n + 1.4. a e della legge delle variabili aleatorie En . . a+b P{ XT = b } = a . Un .14 si ha quindi E[XT ∧n ] = E[X0 ] = 0..3) Calcoliamo ora la speranza di T . .) e inoltre e e |XT ∧n | ≤ max{ a.82 8. Facendo tendere n all’infinito (applicando il teorema della 2 2 convergenza dominata alla successione (XT ∧n )n≥1 che soddisfa |XT ∧n | ≤ (max{a.3) e (8. . b . . facendo tendere n all’infinito si ha E[XT ] = 0 ovvero. .. Per il teorema e d’arresto 8. A questo scopo si cerca di trovare qualche valutazione di E[T ] in termini di b.6) . 8. si ha 2 0 = E[ZT ∧n ] = E[Xn ] − E[T ∧ n] 2 ovvero E[XT ∧n ] = E[T ∧ n]. Supponiamo. a loro volta.

Yn−1 } ⊆ σ{Y0 . . (8. Yn }. si ha allora E[ f (XT ∧n ) ] + E[ (T ∧ n) ] ≥ f (y). . . n→∞ Osserviamo che le ipotesi (8. per ogni y ∈ [a.5) e (8. e Estendendo la definizione della funzione f ponendo f (y) = 0 per y < a e f (y) = b per y > b si ha f (Ln+1 ) = f (Ln + Yn+1 ). . Grazie al Teorema d’arresto discreto e 8. . .8. 83 Dato che L0 = y ` costante si verifica facilmente che. Mostriamo che E[T ] ≥ f (y) dove y = L0 ` il livello iniziale del bacino e e f (y) = 1 m eλ(b−a) 1 − e−λ(y−a) − (y − a) λ per a ≤ y ≤ b. b]. APPLICAZIONI dove m e λ sono due costanti positive.5). .4. . . Un modello simile si potrebbe utilizzare per valutare il rischio di bancarotta di un’assicurazione. per ogni n ≥ 1. . . Poich´ la funzione g ` non decrescente per y < b e non crescente per y > b si ha f (y) ≥ g(y) e e per ogni y e E [ Xn+1 | Fn ] = E [ f (Xn+1 ) | Fn ] + (n + 1) = E [ f (Ln + Yn+1 ) | Fn ] + (n + 1) ≥ E [ g(Ln + Yn+1 ) | Fn ] + (n + 1). Yn } dunque T ` un tempo d’arresto anche per la filtrazione (Fn )n≥0 data da Fn ⊆ σ{Y0 . Ne segue che E [ Xn+1 | Fn ] ≥ f (Ln ) + n = Xn ovvero il processo (Xn )n≥1 ` una sottomartingala.6) sono abbastanza deboli perch´ non si suppone quasi e nulla sulla legge delle Yn e sulle loro correlazioni. e Verifichiamo inoltre che il processo (Xn )n≥0 definito da Xn = f (Ln ) + n ` una sottomartingala rispetto alla stessa filtrazione. . .14. per ogni n ≥ 1. Grazie alle diseguaglianze (8. Ln } ⊆ σ{Y0 . Poniamo poi g(y) = 1 m eλ(b−a) 1 − e−λ(y−a) − (y − a) λ per ogni y. . . .6) abbiamo E [ g(y + Yn+1 ) | Fn ] = = 1 m eλ(b−a) 1 − E[ e−λ(y+Yn+1 −a) | Fn ] − (y + E[Yn+1 | Fn ] − a) λ 1 E[Yn+1 | Fn ] 1 − eλ(y−a) E[ e−λYn+1 | Fn ] eλ(b−a) −(y−a) − m λ m ≥ f (y) − 1. . In questo caso le En potrebbero rappresentare i premi e le Un gli indennizzi versati. e σ{L0 . Dato che la funzione f ` limitata (come nell’applicazione precedente) si pu` far tendere n e o all’infinito trovando cos` ı E[ T ] = lim E[ (T ∧ n) ] ≥ f (y).

Per ogni t ∈ I vale la diseguaglianza E[J] ≤ E[(Xt − b)+ ] b−a (8. a Teorema 8.t] 8. Per ogni x > 0 e ogni t ∈ I si ha allora xP max Xs > x + ≤ E[Xt ].t] Dimostrazione. Mostreremo ora che un risultato simile vale per il numero di attraversamenti di un intervallo [a.15 (applicato alla sottomartingala (X |T )+ considerando il tempo d’arresto U = t costante) si ha allora xP max Xs > x = xP { XT ∧t > x } + + ≤ E[XT ∧t ] ≤ E[Xt ]. ∩ [0. (8. MARTINGALE 8. chiaramente.17 Sia (Xt )t∈I una sottomartingala.7) Teorema 8. . L’insieme dei tempi I sar` un sottoinsieme discreto [0. +∞[ tale che 0 appartenga a I. t] | r > Uk (ω). . a < b). Chiaramente si ha {T < ∞} = max Xs > x = { XT ∧t > x } s∈I∩[0.t] Xs . . Definiamo prima gli istanti successivi di attraversamento dell’intervallo [a.8) . P) uno spazio probabilizzato munito di una filtrazione (Ft )t∈I . . F.18 Sia (Xt )t∈I una sottomartingala. t] | r > T1 (ω). ∩ [0. b] per induzione (con la convenzione abituale inf ∅ = +∞) T1 (ω) U1 (ω) Tk+1 (ω) Uk+1 (ω) = = = = inf { r inf { r inf { r inf { r ∈I ∈I ∈I ∈I ∩ [0.17 mostra che il valore massimo delle traiettorie di una sottomartingala discreta su un intervallo [0. b] (a. . Xr (ω) ≤ a } . Denotiamo con Mt la variabile aleatoria Mt = maxs∈I∩[0.5 Diseguaglianza massimale discreta Sia (Ω.t] Grazie alla diseguaglianza di Markov e al Corollario 8. b ∈ R. . t] | Xr (ω) ≥ b } . t] si “controlla” con la variabile aleatoria “finale”. t] | Xs (ω) > x } (con la convenzione abituale inf ∅ = +∞). . si ha T1 ≤ U1 ≤ T2 ≤ U2 ≤ . s∈I∩[0. ≤ Tk ≤ Uk ≤ . Xr (ω) ≤ a } . Xr (ω) ≥ b } . t] | r > Tk+1 (ω). Le funzioni Tk e Uk sono tempi d’arresto e.6 Numero di attraversamenti di un intervallo Il Teorema 8. s∈I∩[0.84 8. b] al tempo t ` la variabile aleatoria e J= k≥1 1{ Uk <∞ } . Sia T il tempo d’arresto T (ω) = inf { s ∈ I ∩ [0. ∩ [0. Il numero di attraversamenti (in discesa) dell’intervallo [a.

per ogni k ≥ 1.7. Grazie al Lemma 8. . Proposizione 8. U due tempi d’arresto a valori in (I ∩ [0. Supporremo che l’insieme dei tempi sia l’intervallo [0. Come sempre supporremo fissato uno spazio probabilizzato (Ω. s∈D lim Xs (ω). s→t+ . Grazie al Corollario 8.20 Sia X = (Xt )t≥0 una sottomartingala positiva e D un sottoinsieme numerabile di [0.8. Dimostrazione del Teorema 8. F.Uk =∞ } ≤ ≤ { Tk <∞.18.7 Versioni con traiettorie regolari Mostreremo ora come si costruiscono martingale con traiettorie regolari nel caso in cui l’insieme dei tempi non sia discreto.8). si ha (b − a)P{ Uk < ∞ } ≤ { Uk <∞ } (XTk − XUk )dP (Xt − XTk )dP { Tk <∞. Per ogni n ≥ 1 sia e tn = max Dn . U =+∞ } (Xt − XT ) dP. P) munito di una filtrazione (Ft )t≥0 . La Proposizione precedente afferma che per quasi tutti gli ω si ha sups∈D Xs (ω) < ∞ ed esistono i limiti s→t− . Dimostrazione.T <∞ } Xt dP e quindi la conclusione. Sia (Dn )n≥1 una successione crescente di sottoinsiemi finiti di D la cui unione ` uguale a D. Da questa diseguaglianza si trova subito XT dP ≤ { T <∞ } { U <∞ } XU dP + { U =∞. per ogni t ≥ 0 (se t = 0 si prende in considerazione il solo limite da destra). Un (ω) = max{ Xs (ω) | s ∈ Dn }.Uk =∞ } (Xt − b)dP. Quasi tutte le traiettorie di X hanno una restrizione a D che ` una funzione limitata con limiti da destra e da sinistra in e ogni punto di D. Sommando su k si trova la diseguaglianza (8. s∈D lim Xs (ω). T .15 vale la diseguaglianza E[XT ∧t ] ≤ E[XU ∧t ] ovvero XT dP + { T <∞ } { T =∞ } Xt dP ≤ { U <∞ } XU dP + { U =∞ } Xt dP. +∞[. +∞[ tale che sups∈D E[Xs ] = c < +∞. 8. VERSIONI CON TRAIETTORIE REGOLARI Premettiamo alla dimostrazione il seguente 85 Lemma 8. Dimostrazione. Si ha allora (XT − XU ) dP ≤ { U <+∞ } { T <+∞. t]) ∪ {+∞} tali che T ≤ U .19.19 Sia (Xs )s∈I una sottomartingala.

e quindi J(a. Ne segue che J(a. . b)(ω) ≥ k e perci`. Xs2 (ω) ≤ a. . Supa ` poniamo. > sk e j=1 Xs1 (ω) ≥ b. numero di attraversamenti dell’intervallo [a. . +∞[. Chiaramente la successione di variabili aleatorie (Jn (a. . allora ` possibile trovare due numeri razionali a. e sia Jn (a. b) la variabile analoga ottenuta considerando Dn come insieme dei tempi. x→∞ cio` la restrizione all’nsieme D di quasi tutte le traiettorie ` limitata. Xs2 (ω) ≤ a. b).18 per ogni n ≥ 1 si ha E[Jn (a. E possibile allora trovare due numeri razionali a. e e Mostriamo ora l’esistenza dei limiti da destra e da sinistra. b)(ω) = sup Jn (a. MARTINGALE La successione di variabili aleatorie reali (Un )n≥1 ` non decrescente ed evidentemente cone verge puntualmente verso la variabile aleatoria U definita da U (ω) = sup{ Xs (ω) | s ∈ D }. b)(ω) = ∞ cio` ω appartiene all’insieme di probabilit` 0. n≥1 Grazie al Teorema 8.b∈Q. Xs3 (ω) ≥ b. . Per ogni coppia a. . .17. per ogni n ≥ 1 e ogni x > 0. b) = ∞ } ha quindi probabilit` nulla come l’insieme a { J(a. per ogni intero k ≥ 1 e indipendente da a e b e degli (sj )k in D tali che s1 > s2 > . b con a < b e una successione (sk )k≥1 in D crescente verso t tali che Xs1 (ω) ≥ b. b) la variabile aleatoria (8. . Grazie al Teorema 8. Facendo tendere n all’infinito (convergenza monotona) si trova quindi E[J(a. che non ammetta limite da sinistra in qualche punto t ∈ [0. b)] ≤ (b − a)−1 E[(Xtn − b)+ ] ≤ (b + c)/(b − a). x e quindi P{ U = +∞ } = lim P{ U > x } = 0. +∞[. per esempio. si ha P{ Un > x } ≤ Ne segue che P{ U > x } = lim P{ Un > x } ≤ c/x n→∞ 1 x Xtn dP ≤ c . b di numeri reali con a < b sia J(a. b))n≥1 ` non decrescente converge puntualmente verso la variabile aleatoria e J(a. Xs3 (ω) ≥ b. L’insieme { J(a. b)] ≤ (b + c)/(b − a). data l’arbitrariet` di k.7).86 8. b) = ∞ } a. . b] con D insieme dei tempi. e a Sia t → Xt (ω) una traiettoria la cui restrizione a D non ha la propriet` voluta. si ha J(a. e a Se invece la traiettoria t → Xt (ω) non ammette limite da destra in qualche punto t ∈ [0. a<b che ` unione numerabile di insiemi di probabilit` nulla. b)(ω) = ∞ come o a prima. b con a < b e.

Si introduce perci` la definizione seguente a o Definizione 8.7. Sia D ⊆ [0. sia Xs una versione della speranza condizionale E[ Z | Fs ].20 permette di costruire martingale con traiettorie regolari adattate per` rispetto ad una filtrazione un p` pi` grande ovvero la filtrazione (Ft+ )t≥0 definita da o o u Ft+ = s>t Fs . . Siano t. Si ha allora. Verifichiamo infine la propriet` di martingala. per ogni t ≥ 0 si ha Ft = Ft+ . infine. Una filtrazione (Ft+ )t≥0 soddisfa le condizioni abituali se 1. Il processo (Xs )s∈D ` una martingala positiva tale che E[Xs ] = E[Z] e per ogni s ∈ D. che la filtrazione naturale di un moto browniano standard o del processo di Poisson che abbiamo costruito ` continua a destra. P) uno spazio probabilizzato. +∞[ numerabile denso e.22 Sia (Ω. per ogni n ≥ 1. Teorema 8. Tuttavia questa e propriet` non vale in generale. per ogni s ∈ D. Si pu` supporre. L’insieme { Xt > x } appartiene dunque a tutte le σ-algebre Ft con t > t cio` a Ft+ . utilizzando eventualmente la decomposizione Z = Z + −Z − o che Z sia non negativa. Dimostrazione. Grazie alla Proposizione 8.8. Nel seguito supporremo sempre che la filtrazione in questione soddisfi le condizioni abituali. } { Xr > x } . Si verifica. ogni evento A ∈ F con P(A) = 0 appartiene a F0 . Il processo X una martingala con traiettorie regolari chiusa dalla variabile aleatoria Z. e La variabile aleatoria Xt ` integrabile poich´ ` limite puntuale di una successione di e e e variabili aleatorie uniformemente integrabili (Lemma previsto in Appendice). Il processo cos` ıottenuto ` evidentemente adattato a (Ft+ )t≥0 poich´. per ogni t ≥ 0 possiamo quindi definire Xt (ω) = lim Xs (ω) + s→t per tutti gli ω dell’evento quasi certo che la restrizione a D della traiettoria s → Xs (ω) sia regolare e definire poi Xt (ω) = 0 per tutti gli altri ω. s due numeri reali con s < t e a A ∈ Fs+ e sia (sn )n≥1 una successione di elementi di D ∩ [s. VERSIONI CON TRAIETTORIE REGOLARI 87 La Proposizione 8. 2.20. per esempio. F. t] convergente verso s. Si potrebbe dimostrare.21 Data una variabile aleatoria Z integrabile esiste un processo X = (Xt )t≥0 con traiettorie regolari (e cio` continue a destra con limiti da sinistra) adattato alla file trazione (Ft+ )t≥0 tale che Xt = E[ Z | Ft+ ] per ogni t ≥ 0. che le traiettorie della martingala (Xt )t≥0 sono regolari. La conclusione segue subito facendo tendere n all’infinito grazie all’uniforme integrabilit` a delle variabili aleatorie Xsn . Nelle applicazioni la filtrazione (Ft+ )t≥0 spesso coincide con la filtrazione (Ft )t≥0 . Xsn dP = A A Xt dP. per ogni numero e e reale x e ogni t > t si ha { Xt > x } = { s∈D | t≤s<t } { r∈D | t≤r<s.

Dimostrazione.24 Sia X = (Xt )t≥0 una martingala. e Dimostrazione del Teorema 8. come al solito. Il processo X ` una martingala e quindi. T =tk } Xtk dP Xt dP k=1 n { Xtk >c.23. Sia (Tn )n≥1 una successione non crescente di tempi d’arresto discreti a valori in [0. < tn ≤ t.23 Sia X = (Xt )t≥0 una martingala con traiettorie regolari e T un tempo d’arresto. per ogni c > 0 e n XT dP { XT >c } = k=1 n { Xtk >c.8 Teorema d’arresto Mostreremo ora un teorema d’arresto per martingale con insieme dei tempi [0. +∞[. per ogni t ≥ 0 e ogni ω ∈ Ω si ha XT ∧t (ω) = lim XTn ∧t (ω). F. T =tk } |Xt | dP |Xt | dP. La famiglia di variabili aleatorie (XT )T ∈T ` uniformemente intee grabile.88 8. Il teorema si dimostra approssimando il tempo d’arresto T con una successione non crescente di tempi d’arresto discreti e utilizzando il seguente lemma Lemma 8. { XT >c } = Analogamente abbiamo −XT dP ≤ { XT <−c } |Xt |dP. T =tk } = ≤ k=1 { Xtk >c. In particolare si ha e E[XT ∧t ] = E[X0 ] per ogni t ≥ 0. Grazie alla continuit` a destra a delle traiettorie di X. { XT <−c } Troviamo perci` la diseguaglianza o |XT |dP ≤ { |XT |>c } { |XT |>c } |Xt |dP e quindi. Teorema 8. MARTINGALE 8. concludiamo che la famiglia (XT )T ∈T ` uniformemente integrabile. Il processo X |T arrestato al tempo T ` una martingala. dato che c P{ |XT | > c } ≤ E[ |XT | ] ≤ E[ |Xt | ]. Un tempo d’arresto discreto T ∈ T si scrive nella forma n T = k=1 tk 1{ T =tk } con 0 ≤ t1 < . . +∞] convergente verso T . t > 0 e T la famiglia dei tempi d’arresto discreti maggiorati da t. fissato uno spazio probabilizzato (Ω. n→∞ . grazie al Teorema d’arresto discreto per sottomartingale. . P) e (Ft )t≥0 una filtrazione che soddisfa le condizioni abituali. Supponiamo.

14) dunque anche la variabile aleatoria XT ∧t ` Ft misurabile. F. P). DISEGUAGLIANZA DI DOOB 89 Le variabili aleatorie XTn ∧t sono Ft misurabili (Teorema 8. P) uno spazio probabilizzato munito di una filtrazione (Fn )n≥0 . Infatti si pu` verificare l’esistenza e o dei limiti delle traiettorie all’infinito utilizzando la diseguaglianza sul numero di attraversamenti di un intervallo. La successione (XTn ∧t )n≥1 ` uniformemente integrabile per e e il Lemma 8. Teorema 8. 1 8.10 Teorema di convergenza Sia (Ω. e Verifichiamo infine la propriet` di martingala. Sia F∞ la σ-algebra generata dalle Fs con s ≥ 0. a Poich´ i processi X |Tn sono martingale. si ha e XTn ∧s dP = A A XTn ∧t dP.8.25 Per ogni t > 0 si ha p E sup Xs 0≤s≤t ≤ p p−1 p E [ |Xt |p ] . ha una propriet` di misurabilit` pi` forte della o a a u martingala. 8. Per illustrare questo fatto iniziamo dal caso di una sottomartingala a tempi discreti. La dimostrazione ` analoga a quella del Teorema 8. P) uno spazio probabilizzato munito di una filtrazione (Ft )t≥0 e (Xt )t≥0 che soddisfa le condizioni abituali Teorema 8. Sia (Ω. F.9 Diseguaglianza di Doob Sia (Ω.21. In modo sostanzialmente analogo si dimostra il teorema d’arresto per sottomartingale e supermartingale con traiettorie regolari. F. La conclusione segue facendo tendere n all’infinito. supermartingala) si pu` essenzialmente decomporre nella somma o di una martingala e di un processo a traiettorie non decrescenti (risp.7. dunque la variabile aleatoria XT ∧t ` integrabile grazie al Teorema 11. non crescenti). Proposizione 8.24. inoltre. Il processo a traiettorie monot`ne. Si ha allora lim Xt = E[ Z | F∞ ] t→∞ quasi certamente e in L (Ω. F.26 Sia Z una variabile aleatoria integrabile e X = (Xt )t≥0 una martingala con traiettorie regolari chiusa dalla variabile aleatoria Z.9.11 Decomposizione di Doob-Meyer Ogni sottomartingala (risp. Nei due casi si ha rispettivamente E[XT ∧t ] ≥ E[X0 ] e E[XT ∧t ] ≤ E[X0 ]. P) uno spazio probabilizzato munito di una filtrazione (Ft )t≥0 e (Xt )t≥0 una martingala con tutte le traiettorie continue a destra tale che E[ |Xt |p ] < +∞ (con 1 < p < ∞) per ogni t ≥ 0.27 Ogni sottomartingala X = (Xn )n≥0 si decompone nella somma di una martingala e di un processo A = (An )n≥0 tale che . Fissiamo s < t e un evento A ∈ Fs . 8.

per ogni n ≥ 1 la variabile aleatoria An ` Fn−1 misurabile. Dato che X ` una sottomartingala. si ha n Xn+1 = k=0 Hk (Mk+1 − Mk ). Supponiamo poi che il giocatore voglia provare a scommettere somme non fisse (con la speranza di vincere di pi`) ma variabili (Hn )n≥0 .90 1. Supponendo che le variabili aleatorie Hn siano limitate (cosa molto ragionevole) si verifica facilmente che il processo (Xn )n≥0 ` una martingala. al tempo n si pu` “prevedere” il valore di A all’istante successivo. per ogni n ≥ 1. n (8. u Questa richiesta. La propriet` 2 del processo A = (An )n≥0 si esprime dicendo che il processo ` prevedibile.9) An = k=1 (Ak−1 + E[ Xk | Fk−1 ] − Xk−1 ) . 2.11 Consideriamo un gioco nel quale la successione dei capitali (Mn )n≥0 di un giocatore che. per`. Grazie alle propriet` della speranza condizionale. . In questo caso. Infine il processo (Xn − An )n≥0 ` una martingala per come ` stato e e definito il processo A (a partire dalla formula (8. insieme al fatto che dovr` dichiarare quanto scommette prima dell’n-esima a giocata. a e Infatti. si esprime dicendo che Hn deve essere una variabile aleatoria Fn−1 -misurabile. A0 = 0 e le traiettorie di A sono non decrescenti. allora il suo valore ` determinato e e dalla conoscenza (del verificarsi o meno) degli eventi della σ-algebra Fn ovvero. Esempio 8. la nozione di prevedibilit` deve essere definita in modo diverso perch´ o a e non esiste l’istante precedente a un certo istante t. se la variabile aleatoria An+1 ` Fn misurabile. Poniamo quindi A0 = 0 e. ad ogni istante. detto X0 il capitale al tempo 0. La decomposizione della Proposizione 8. per ogni a n ≥ 0 deve valere l’identit` a Xn − An = E[ Xn+1 − An+1 | Fn ] = E[ Xn+1 | Fn ] − An+1 da cui An+1 = An + E[ Xn+1 | Fn ] − Xn . e 8. sulla base dei risultati delle scommesse precedenti.9)). Dobbiamo trovare una decomposizione Xn = Mn + An con An misurabile rispetto alla σ-algebra Fn−1 . si verifica subito che il processo A = (An )n≥0 ha traie ettorie non decrescenti.27 ha un analogo risultato a tempi continui. Un processo adattato ` ovviamente o e prevedibile. MARTINGALE Dimostrazione. La domanda naturale `: potr` determinare una qualche stategia di puntate (Hn )n≥0 in modo e a da rendere il gioco a lui favorevole? Il capitale Xn+1 del giocatore al tempo n + 1 sar` dato da a Xn+1 = Xn + Hn (Mn+1 − Mn ) e quindi. Ne segue che il valore medio del e capitale del giocatore al tempo n ` uguale a quello al tempo 0 ovvero la scelta di qualunque e strategia prevedibile (Hn )n≥0 (e limitata) non produce vantaggi o svantaggi. scommette una somma fissa formi una martingala.

5 Sia (Bt )t≥0 un moto browniano standard. Esercizio 8. e Esercizio 8. dopo un tempo ε il moto browniano superer` un livello a > 0 cio` a e S = { t ≥ 0 | Bt+ε > a } non ` un tempo d’arresto rispetto alla filtrazione naturale del moto browniano. e Esercizio 8. Calcolare la speranza del tempo medio di arrivo in −a oppure in b. ESERCIZI 91 8. ε > 0 e S il primo istante t tale che.8 Nell’Esempio 8.1 Sia (Bt )t≥0 un moto browniano standard. b ∈ N∗ ) della passega giata casuale su Z che parte da 0 e. Esercizio 8. avanza (risp. . Mostrare che il processo (Xt )t≥0 3 definito da Xt = Bt − 3tBt ` una martingala. Verificare che se anche il processo (Mt2 )t≥0 ` una martingala allora Mt = M0 quasi certamente per ogni t ≥ 0.7 Sia (Mt )t≥0 una martingala di quadrato integrabile. Mostrare che cT ` un tempo e d’arresto se e solo se c ≥ 1.12 Esercizi Esercizio 8.2 Sia (Nt )t≥0 un processo di Poisson con parametro λ e u ∈ R.8.4 Sia T un tempo d’arresto tale che T ≥ 1. Mostrare che T 2 ` un tempo e d’arresto. ad ogni istante. arretra) di 1 con probabilit` a p (risp.6 Calcolare le probabilit` di arrivo in −a oppure in b (a. Mostrare che il processo (Xt )t≥0 definito da Xt = exp(iuNt − λ(eiu − 1)t) ` una martingala. q) (p + q = 1) con p = 1/2.3 Sia T un tempo d’arresto e c una costante. e Esercizio 8. e Esercizio 8.12. Esercizio 8.10 determinare la legge del tempo d’arresto T .

MARTINGALE .92 8.

Sempre grazie al teorema della convergenza dominata. dato che XT pu` prendere solo i valori a e b. 93 . 9. 2 Si verifica facilmente che i processi (Bt )t≥0 e (Bt − t)t≥0 sono martingale.1 Probabilit` e tempi d’uscita del moto browniano a Sia [a. Grazie al teorema d’arresto si ha quindi 0 = E[B0 ] = E[BT ∧t ] = E[XT ∧t − x] = E[XT ∧t ] − x 2 0 = E[ BT ∧t − T ∧ t ] = E[(XT ∧t − x)2 − T ∧ t] Rimuoviamo ora il troncamento T ∧ t. t→∞ ovvero. fornisce E[T ] = sup E[T ∧ t] = lim E[(XT ∧t − x)2 ] = E[(XT − x)2 ]. t≥0 t→∞ (9. b }} . Il tempo di uscita dall’intervallo [a. b] ` il tempo d’arresto e T = inf { s ≥ 0 | Bs ∈ { a. (b − x)2 } < +∞ e T ha quasi certamente valori finiti. Osservando che |XT ∧t | ≤ max{|a|. grazie ai teoremi della convergenza monotona e della convergenza dominata. b[. b] un intervallo e x ∈]a.9 Applicazioni al moto browniano e catene di Markov In questo capitolo illustreremo alcune applicazioni della teoria delle martingale. o aP{ XT = a } + bP{ XT = b } = x. b] prima del tempo T ). in particolare del teorema d’arresto allo studio delle propriet` del moto browniano. la seconda relazione. la prima relazione ci d` a l’identit` a E[XT ] = lim E[XT ∧t ] = x. Mostreremo a inoltre come si possa utilizzare il moto browniano per scrivere le soluzioni di certe equazioni differenziali a derivate parziali.1) In particolare quindi E[T ] ≤ max{ (a − x)2 . |b|} (perch´ Xt ha e valori in [a. Vogliamo calcolare le probabilit` di uscita dall’estremo a a oppure dall’estremo b del moto browniano che parte da x cio` del processo (Xt )t≥0 definito e da Xt = x + Bt con (Bt )t≥0 moto browniano standard (che parte da 0).

E[T 2 ]. 9. APPLICAZIONI AL MOTO BROWNIANO E CATENE DI MARKOV Quest’identit`. e2µb − e2µa Sostituendo nella relazione E[ x − XT ] = µE[T ] si trova infine E[T ] = (x − a)e2µb − (b − a)e2µx + (b − x)e2µa . b] ` definito nello stesso modo. risolvendo. La scelta β = 2µ si rivela particolarmente utile poich´ annulla il termine in t e dell’esponenziale. Applicando il e teorema d’arresto alle martingale (Xt − x + µt)t≥0 e ((Xt − x + µt)2 − t)t≥0 troviamo E[XT ∧t − x + µ(T ∧ t)] = 0 E[(XT ∧t − x + µ(T ∧ t))2 − µ(T ∧ t)] = 0. Non potendo procedere come nel caso in cui µ = 0 consideriamo altre martingala ovvero la martingala esponenziale (Mt )t≥0 data da Mt = exp βBt − β2 t 2 = exp β(Xt − x) − β2 − βµ t 2 con β ∈ R.94 9. P{ XT = b } = (x − a)/(b − a). La relazione ci d` allora a E[T ] = E[(XT − x)2 ] = (a − x)2 P{ XT = a } + (b − x)2 P{ XT = b } = (b − x)(x − a). Applicando quindi il teorema d’arresto alla martingala Mt = exp (2µ(Xt − x)) troviamo l’identit` a E[exp(2µXT ∧t )] = exp(2µx).2 Moto browniano con deriva Consideriamo ora il problema analogo per il moto browniano con deriva (drift) cio` il e processo (Xt )t≥0 dato da Xt = x + Bt − µt con µ ∈ R. µ (e2µb − e2µa ) . La seconda relazione questa volta coinvolge un’altra quantit` non nota E[(T ∧ t)2 ] e. mana dando t all’infinito. P { XT = a } = e2µb − e2µx . insieme alla a aP{ XT = a } + bP{ XT = b } = 1. ci d` allora a P{ XT = a } = (b − x)/(b − a). e2µb − e2µa P { XT = b } = e2µx − e2µa . Il tempo d’uscita dall’intervallo [a. Passando al limite per t → ∞ come abbiamo gi` fatto nel caso in cui µ = 0 troviamo quindi a il sistema P { XT = a } + P { XT = b } = 1 e2µa P { XT = a } + e2µb P { XT = b } = exp(2µx) da cui.

(Br −Bs ) ei 0 s u.Bs u. P) con una filtrazione (Ft )t≥0 di sotto σ-algebre di F.Bt | Fs = = = ei ei ei u.Br |u|2 i e 2 |u|2 i dr + e 2 u.Br dr Fs = |u|2 2 s ei 0 u. .(Bt −Bs ) (t−s)/2 | Fs . abbiamo E ei u. Lemma 9. Allora il processo (Mt )t≥0 definito da t Mtf = f (Bt ) − 0 1 (∆f )(Bs )ds 2 ` una martingala.Br dr (dove |u|2 = u2 + . Per s < t. e Dimostreremo questo risultato partendo da un lemma preliminare.Br dr + dr + dr + |u|2 E ei 2 |u|2 i e 2 dr Fs dr dr s t u. .Br u.Bt + |u|2 2 t ei 0 u.Br t dr Fs ei u.Bs s e−|u| 2 (r−s)/2 dr Calcolando l’integrale troviamo perci` o E |u|2 2 t ei 0 u. e 1 Dimostrazione. MOTO BROWNIANO ED EQUAZIONE DI LAPLACE 95 9. + |ud |2 ) ` una martingala. per ridursi al caso di processi reali basterebbe separare la parte reale e quella immaginaria. grazie all’indipendenza degli incrementi del moto browniano.3.Bs E ei E ei e−|u| 2 u.Bs E s t ei E ei s t u.2 Per ogni u ∈ Rd il processo (Mtu )t≥0 definito da Mtu = ei u.9. Analogamente E |u|2 2 t ei 0 u.1 Sia f una funzione reale su Rd di classe C 2 limitata con tutte le derivate parziali di ordine minore o uguale a 2 limitate.Br dr + 1 − e−|u| 2 (t−s)/2 ei u.Bs u.3 Moto browniano ed equazione di Laplace Mostreremo ora che la soluzione di alcune equazioni a derivate parziali si pu` scrivere utilizo zando il moto browniano.Br dr + |u|2 2 t ei s u.Bs u. I processi considerati qui sono a valori complessi. In questo paragrafo (Bt )t≥0 ` un moto browniano d-dimensionale e su uno spazio probabilizzato (Ω.Br ei 0 u.(Br −Bs ) ei ei 0 s u.(Br −Bs ) u.(Bt −Bs ) u. . La chiave per ottenere le formule ` il seguente e Teorema 9.Bs .Br dr Fs = E = = = = |u|2 2 |u|2 2 |u|2 2 |u|2 2 |u|2 2 s 0 s s ei 0 u.Bs u. F.

per ogni funzione f ∈ C 2 (Rd ). Poich´ la funzione f e tutte le sue derivate parziali di ordine minore o uguale a 2 sono e f f limitate.x ∆ei u. Estenderemo ora la formula ad una classe pi` ampia a u ` di funzioni utilizzando la densit` delle funzioni trigonometriche nelle funzioni C 2 . le variabili aleatorie MTR ∧s e MTR ∧t sono uniformemente limitate in R. Infatti il moto browniano d dimensionale esce dall’ipercubo I(R) se e solo se una delle sue componenti esce dall’intervallo [−R. A e.96 9.1 ` quindi verificato per le funzioni f (x) = ei u.1. per ogni s < t e A ∈ Fs e quindi (Mtf )t≥0 ` una martingala. f MTR ∧s dP = f MTR ∧t dP. )t≥0 sono martingale qualunque Dimostrazione del Teorema 9. f Ms n |TR dP = f |TR Mt n A dP. n→∞ x∈I(R) lim sup |(∆f )(x) − (∆fn )(x))| = 0.x = k=1 ∂2 i e ∂x2 k = k=1 −u2 ei k u. e Osserviamo che d d u. Abbiamo cio` e n→∞ x∈I(R) lim sup |(f (x) − fn (x))| = 0. funzioni trigonometriche. Il problema di Dirichlet in D consiste nel trovare una ¯ funzione u ∈ C 2 (D). Sia TR il tempo d’uscita del moto browniano da I(R) TR = inf { t ≥ 0 | |Bt | > R } . facendo tendere n all’infinito.2) A A Abbiamo quindi verificato che i processi arrestati (Mt sia R > 0.2) troviamo f Ms dP = A A Mtf dP. Possiamo ora dimostrare il Teorema 9.1.1.x . con u ∈ C 2 (D) tale che (∆u)(x) = 0 u(x) = f (x) x∈D x ∈ ∂D . quindi. Cominciamo con l’osservare che i tempi d’arresto TR convergono quasi certamente verso +∞ per R tendente all’infinito. Il Teorema 9. f |TR (9. detto I(R) l’ipercubo I(R) = { x ∈ Rd | max1≤k≤d |xk | ≤ R }. per e brevit`. E noto a infatti che. esiste una successione (fn )n≥1 di combinazioni lineari (a coefficienti complessi) di funzioni trigonometriche che converge uniformemente verso f insieme con tutte le sue derivate parziali di ordine minore o eguale a 2 sull’ipercubo I(R). Facendo tendere R all’infinito in (9.x = −|u|2 ei u. APPLICAZIONI AL MOTO BROWNIANO E CATENE DI MARKOV A questo punto si verifica immediatamente che (Mtu )t≥0 ` una martingala. ¯ Indichiamo con ∂D il bordo di D (che non appartiene all’insieme D) e con D l’insieme D ¯ con il bordo ovvero D = D ∪ (∂D).x che chiameremo. Le martingale arrestate (Mt n Presi s < t e A ∈ Fs abbiamo f |TR )t≥0 sono evidentemente limitate (uniformemente in n). R] cosa che accade quasi certamente per quanto visto nel paragrafo 9. e Sia D un sottoinsieme aperto e limitato di Rd con frontiera di classe C 1 a tratti (per esempio una sfera { x ∈ Rd | |x| ≤ R } o un ipercubo { x ∈ Rd | max1≤k≤d |xk | < R }).

+∞[×Rd x ∈ Rd Supponiamo che f sia di classe C 2 con tutte le derivate di ordine minore o uguale a 2 limitate (per evitare questioni tecniche). Si ha allora e x x u(x) = E [ f (XT ) ] . x) = f (x) ∂ ∂t u(t. x) = E [ f (Xt ) ] . Abbiamo quindi E[Mt ] = E[M0 ] ovvero e x E[f (Xt )] − 1 2 t x E[(∆f )(Xs )]ds = f (x). 9. La soluzione u del problema di Dirichlet ` una funzione di classe C 2 su D e non abbiamo visto se si pu` estendere ad una e o funzione di classe C 2 su Rd .4 Moto browniano ed equazione del calore = 1 ∆u(t.1 supponendo che f sia una funzione di classe C 2 su tutto Rd . x) − (∆u)(s.4. 2 u(0..9. il processo (Mt )t≥0 x Mt = u(Xt ) − 1 2 t x (∆u)(Xs )ds 0 ` una martingala e quindi. La soluzione dell’equazione del calore si pu` scrivere nella forma o x u(t. x Sia (Xt )t≥0 il moto browniano uscente da x cio` Xt = x + Bt . x) ∈ [0. grazie al Teorema 9. x∈D dove T ` il tempo di uscita da D del moto browniano con origine in x cio` e e x T = { t ≥ 0 | Xt ∈ D } . x)ds = f (x) 2 0 . 0 Le ipotesi che abbiamo fatto su f permettono di scambiare Laplaciano e speranza trovando cos` ı 1 t u(t. MOTO BROWNIANO ED EQUAZIONE DEL CALORE 97 dove f ` una funzione continua su ∂D. Infatti. x Sia (Xt )t≥0 il moto browniano d-dimensionale con origine in x. / Infatti. grazie al Teorema 9.1.1.. La soluzione si pu` rappresentare per mezzo del e o moto browniano d-dimensionale. il processo (Mt )t≥0 definito da x Mtf = f (Xt ) − 1 2 t x (∆f )(Xs )ds 0 ` una martingala. x). t→∞ L’argomento precedente non ` del tutto preciso perch´ abbiamo dimostrato il Teorema e e 9. x) Consideriamo l’equazione del calore (t. per il teorema d’arresto e x x u(x) = E[M0 ] = lim E[MT ∧t ] = E[MT ] = E[u(XT )] = E [ f (XT ) ] .

si trovano le probabilit` di uscita dalla barriera inferiore o superiore e a il tempo medio di uscita. x) + V (x)u(t.3 Per ogni s < t e ogni f : S → R limitata si ha E [ f (Xt ) | Fs ] = j∈S f (j)pXs j (t − s). log(b)]. In particolare E [ f (Xt ) | Fs ] = E [ f (Xt ) | σ(Xs )] . x) = f (x) e derivando rispetto a t si verifica che u soddisfa l’equazione del calore. Il caso µ = σ 2 /2. 2 u(0. x) (t. x). si tratta a parte e 2 considerando le martingale (Bt )t≥0 e (Bt − t)t≥0 . 2 dove β = σ − 2µ/σ. Mt = exp βBt − β2 t . Lemma 9.6 Martingale e catene di Markov Sia (Xt )t≥0 una catena di Markov a tempo continuo con insieme degli stati S. x) = f (x) si scrive con la cosiddetta formula di Feynman-Kac t ∂ ∂t u(t. Anche questa formula si verifica introducendo un’opportuna martingala del moto browniano. in cui (Zt )t≥0 ` un multiplo del mosto browniano.98 9. Supponiamo che µ = σ 2 /2. +∞[×Rd x ∈ Rd x u(t. Per esempio la soluzione dell’equazione = 1 ∆u(t. Applicando il teorema d’arresto alle martingale Bt = Zt − µ − σ2 2 t. semigruppo associato (Pt )t≥0 e filtrazione naturale (Fs )s≥0 . 9. P{ ZT = log(b) } = 1− log(b) log(a) −1 9. APPLICAZIONI AL MOTO BROWNIANO E CATENE DI MARKOV da cui ponendo t = 0 si trova u(0.5 Moto browniano geometrico σ2 2 Il tempo d’uscita dall’intervallo [a. x) ∈ [0. b] con 0 < a < 1 < b del processo Xt = exp σBt + µ − t coincide ovviamente con il tempo d’uscita T del processo Zt = σBt + µ − σ2 2 t dall’intervallo [log(a). 1− log(a) log(b) −1 . Si trova P{ ZT = log(a) } = e E[T ] = σ −1 log(b/a). Il moto browniano si utilizza per scrivere la soluzione di varie equazioni a derivate parziali. x) = E f (Xt )e 0 x V (Xr )dr .

. Baster` verificare che.i1 ..sn ..i1 . .. Si verifica cos` che (Mt )t≥0 ` una martingala. Xsn = in . grazie al Lemma 9.i1 . . ≤ sn = s e i1 .. . il membro destro si scrive t t E [ (Qf )(Xr ) | Fs ] dr s = s t j pXs j (r − s)(Qf )(j)dr pXs j (r − s)qjk f (k)dr s t j. ı e Il risultato precedente si generalizza facilmente alle funzioni f non limitate se valgono le opportune condizioni d’integrabilit`. Xs1 = i1 } j = = j f (j)P { Xt = j. .in )∩{Xt =j} f (j)dP f (j)P { Xt = j. . . . .. a .in ) pXs j (t − s)dP da cui segue subito la conclusione. .i1 . Xsn = in } con n ≥ 1.. sn .4 Per ogni funzione f : S → R limitata il processo (Mt )t≥0 definito da t Mt = f (Xt ) − 0 (Qf )(Xs )ds ` una martingala rispetto alla filtrazione naturale della catena di Markov.sn .k = = s k pXs k (r − s)f (k)dr (pXs k (t − s) − δXs k ) f (k) = k = E [ f (Xt ) | Fs ] − f (Xs ). in ) = { Xs1 = i1 . . . in ∈ S. Baster` quindi verificare che a f (Xt )dP = A(s1 . .. . . .. . Teorema 9. per ogni s < t risulta a t E [ f (Xt ) − f (Xs ) | Fs ] = E s (Qf )(Xr )dr | Fs ....i1 . .6. grazie alla propriet` di Markov. MARTINGALE E CATENE DI MARKOV Dimostrazione. e Dimostrazione.. Xsn = in .. . .sn . .3 e alle equazioni di Kolmogorov all’avanti..sn .. La σ-algebra Fs ` generata dagli insiemi della forma e A(s1 .in ) j∈S 99 f (j)pXs j (t − s) dP Il membro destro si scrive nella forma f (Xt )dP j∈S A(s1 . .sn .in ) A(s1 . Xs1 = i1 } e quindi.9. ` uguale a a e f (j)P { Xt = j | Xs = in } P { Xsn = in . . ... Osserviamo che. . 0 ≤ s1 ≤ .. .. Xs1 = i1 } j = j f (j) A(s1 . i1 ..in ) = j A(s1 .

100

9. APPLICAZIONI AL MOTO BROWNIANO E CATENE DI MARKOV

9.7

Esercizi

Esercizio 9.1 Sia [a, b] un intervallo e x ∈]a, b[ un suo punto interno. Detto T il tempo di x uscita da [a, b] del moto browniano (Xt )t≥0 con origine in x mostrare che
x E[ T XT ] = (b − x)(x − a)(x + a + b)/3.

Suggerimento: Si ricordi l’Esercizio 8.1. Esercizio 9.2 Sia Ta il tempo del primo attraversamento del livello a del moto browniano standard con origine in 0. Mostrare che E e−λTa = e−a
√ 2λ

10

Processi di Markov
Sia (Ω, F, P) uno spazio probabilizzato, (Ft )t≥0 una filtrazione di sotto-σ-algebre di F ed E un sottoinsieme boreliano di Rd munito della σ-algebra E indotta dalla σ-algebra B(Rd ) dei sottoinsiemi boreliani di Rd . Le variabili aleatorie (Xt )t≥0 di un processo di Markov o markoviano, a valori in E sono dipendenti tra loro in un modo speciale per precisare il quale introduciamo la seguente definizione. Definizione 10.1 Un nucleo di transizione o transizione markoviana un’applicazione p: tale che 1. per ogni s, t e ogni x ∈ E, l’applicazione A → p(s, t, x, A) ` una misura di probabilit` e a su E, 2. per ogni s, t e ogni A ∈ E l’applicazione x → p(s, t, x, A) ` misurabile, e 3. (equazione di Chapman-Kolmogorov) per ogni r < s < t, x ∈ E, A ∈ E si ha p(r, t, x, A) =
E

(s, t) ∈ R2 | s ≤ t × E × E → [0, 1]

p(s, t, y, A)p(r, s, x, dy).

Le p(s, t, x, A) si chiamano anche probabilit` di transizione e rappresentano la probabilit` a a che il processo parta dal punto x al tempo s e arrivi nell’insieme A al tempo t. L’equazione di Chapman-Kolmogorov si pu` quindi interpretare come una sorta di “formula della probao bilit` totale” pensando che la probabilit` di partire da x al tempo r e arrivare in A al tempo a a t ` la “somma” delle probabilit` di partire da x al tempo r, passare per un punto y al tempo e a s, e arrivare in A al tempo t. Definizione 10.2 Un processo (Xt )t≥0 a valori in E si chiama markoviano o di Markov, rispetto alla filtrazione (Ft )t≥0 , se 1. ` adattato, e 2. (propriet` di Markov) per ogni s < t ed ogni f : E → R misurabile limitata si ha a E [ f (Xt ) | Fs ] =
E

f (y)p(s, t, Xs , dy).

101

102

10. PROCESSI DI MARKOV

Osserviamo che l’equazione di Chapman-Kolmogorov costituisce essenzialmente una condizione necessaria affinch´ valga la relazione e E [ E [ f (Xt ) | Fs ] | Fr ] = E [ f (Xt ) | Fr ] per ogni r < s < t. Infatti, se A ∈ E, E [ E [ 1A (Xt ) | Fs ] | Fr ] = E [ p(s, t, Xs , A) | Fr ] =
E

p(s, t, y, A)p(r, s, Xr , dy).

Talvolta la filtrazione non ` data esplicitamente. In questi casi, quando di dice che un e processo ` markoviano, si sottointende rispetto alla sua filtrazione naturale. e La transizione markoviana p e la legge iniziale µ della variabile aleatoria X0 individuano le leggi congiunte delle variabili aleatorie (Xt1 , . . . , Xtn ). Teorema 10.3 Se (Xt )t≥0 ` un processo di Markov con legge iniziale µ e nucleo di trane sizione p, per ogni n e ogni t1 < . . . tn si ha P {Xt1 ∈ A1 , . . . , Xtn ∈ An } =
E

(10.1) p(tn−2 , tn−1 , xn−2 , dxn−1 )p(tn−1 , tn , xn−1 , An ).
An−1

µ(dx0 )
A1

p(0, t1 , x0 , dx1 ) . . .

Reciprocamente, date una legge di probabilit` µ su E e un nucleo di transizione p esiste un a processo di Markov (Xt )t≥0 , su un opportuno spazio probabilizzato, tale che valga (10.1).

10.1

Semigruppi markoviani

Lo studio dei processi markoviani inizia da quelli omogenei. Definizione 10.4 Un processo di Markov (Xt )t≥0 con nucleo di transizione p si chiama omogeneo se p(s, t, x, A) = p(s + r, t + r, x, A) per ogni s < t, r ≥ 0, A ∈ E. In questo caso, la notazione p(s, t, x, A) si semplifica in p(t − s, x, A). Nel s´guito, quando non diversamente specificato, tratteremo processi di Markov omoe genei. Teorema 10.5 Sia p un nucleo di transizione. L’applicazione Tt : L∞ (E, E) → L∞ (E, E), per t ≥ 0 soddisfa le propriet` seguenti: a 1. (identit` in 0) T0 f = f per ogni f ∈ L∞ (E, E), a 2. (propriet` di semigruppo) Tt+s f = Tt Ts f per ogni t, s ≥ 0 e ogni f ∈ L∞ (E, E), a 3. (positivit`) per ogni f ∈ L∞ (E, E) non negativa anche la funzione Tt f ` non negativa, a e 4. (invarianza costanti) Tt 1E = 1E per ogni t ≥ 0. (Tt f )(x) =
E

f (y)p(t, x, dy)

6 Una famiglia (Tt )t≥0 di operatori lineari su L∞ (E. Per questo motivo nel s´guito e supporremo che: tutte le misure p(t.10. dz)p(t. Il semigruppo (Tt )t≥0 induce allora un semigruppo. Ad un nucleo di transizione omogeneo abbiamo associato un semigruppo markoviano. 3 e 4 del Teorema 10. ·) anche le densit` di queste misure rispetto a a µ. E. E) tuttavia non ` nemmeno uno spazio di Banach e quindi. su L∞ (E. A)p(t. E) con le propriet` a 1. x. y. y. ·) sono assolutamente continue rispetto a una misura σ-finita µ su E. x. x. x. e per utilizzare gli strumenti dell’Analisi Matematica ` preferibile ridursi a semigruppi markoe viani i cui operatori Tt agiscano almeno su spazi di Banach. per ogni A ∈ E.2) Supporremo inoltre che: la funzione t→ E g(x)(Tt )f (x)µ(dx) ` continua su [0. s ≥ 0. Grazie al Teorema 10. e ı Definizione 10. Per ogni t. Verifichiamo solo la propriet` di semigruppo perch´ le altre affermazioni a e sono immediate. dz) = (Tt+s f )(x). abbiamo (Tt f )(x) = E f (y)p(t.1. E) e ogni x ∈ E. x. A) E e quindi (Tt (Ts f ))(x) = E f (z)p(t + s. SEMIGRUPPI MARKOVIANI 103 Dimostrazione. µ). dy) p(t. x. Reciprocamente ` chiaro che il semigruppo determina univocamente un nucleo di transizione e poich´. f ∈ L∞ (E. Grazie all’equazione di Chapman-Kolmogorov.3. si ha (Tt (Ts f ))(x) = E (Ts f )(y)p(t. sotto quest’ipostesi.5 si chiama semigruppo markoviano. x. dy) E E = = E f (z)p(s. (10. x. x ∈ E e A ∈ E si ha e (Tt 1A )(x) = p(t. f ∈ L∞ (E. che denoteremo sempre nello stesso modo. Il teorema ` cos` dimostrato. ` determinato dal suo generatore cio` e e dall’operatore A definito da g(x)(Af )(x)µ(dx) = lim + t→0 g(x) E E (Tt f )(x) − f (x) µ(dx) t . dz) f (z) E p(s. si pu` quindi affermare che un processo markoviano omogeneo ` o e determinato dalla legge iniziale e dal semigruppo markoviano associato. E. Lo spazio vettoriale L∞ (E. dy). y. A). +∞[ per ogni g ∈ L1 (E. y)µ(dy). si ha p(s. denotando con p(t. e Un semigruppo markoviano. x. per ogni t ≥ 0. dy) = p(t + s. µ). µ) e. 2. x. E.

E [ f (Nt ) | Fs ] = e−λ(t−s) k≥0 λk (t − s)k f (k + Ns ) = E [ f (Nt ) | σ(Ns ) ] . B) = e−λt k∈B.8) che. x) = (Tt f )(x). nel caso in cui E sia lo spazio euclideo. per s < t. p(t.7 Il generatore del semigruppo markoviano del processo di Poisson ` e l’operatore A su L∞ (N. Si vede subito che. a a Proposizione 10. µ) per le quali il limite esiste per ogni g ∈ L1 (E. si potrebbe verificare e che la funzione u soddisfa ∂u = Au(t. Dimostrazione.3) abbiamo subito (Tt f )(n) − f (n) = e−λt k≥n (λt)(k−n) f (k) − f (n) = e−λt (k − n)! k>n (λt)(k−n) (f (k) − f (n)) (k − n)! e quindi (Tt f )(n) − f (n) = e−λt λ (f (n + 1) − f (n)) + e−λt t λk−n tk−n−1 (f (k) − f (n)) . E. x). E. almeno in questo caso. 1]. Dalla (10.104 10. si e vede bene che il generatore individua il semigruppo sempre che la soluzione dell’equazione differenziale alle derivate parziali sia unica. x. 10. P(N). Osserviamo per` che. (k − n)! (10.2 Processi markoviani di salto Consideriamo innanzitutto un processo di Poisson (Nt )t≥0 con parametro λ con la sua filtrazione naturale Fs = σ(Nr .3) Si verifica facilmente la propriet` di continuit` in t richiesta nel paragrafo percedente. (La verifica ` immediata supponendo che il generatore sia definito anche sulle funzioni Tt f e per ogni t > 0). (k − n)! k>n+1 . ∂t u(0. k! Dunque (Nt )t≥0 ` un processo di Markov omogeneo con nucleo di transizione e p : [0. Vedremo tra poco (Teorema 10. µ) dove µ ` la misura di conteggio u P(N ) ` e e (Tt f )(n) = e−λt k≥n (λt)(k−n) f (k). o presa una f su cui ` definito il generatore e posto u(t. +∞[ ×N × P(N) → [0. P(N)) dato da (Af )(n) = λ (f (n + 1) − f (n)) . PROCESSI DI MARKOV su tutte le funzioni f ∈ L∞ (E. Pertanto. La teoria matematica che descrive la relazione ` per` di livello troppo elevato per gli e o scopi di questo corso e quindi ci accontenteremo di qualche cenno. l’operatore A ` un operatore differenziale. 0 ≤ r ≤ s). µ).k≥x (λt)k−x (k − x)! e il semigruppo markoviano su L∞ (N. x) = f (x).

utilizzando le equazioni di Kolmogorov (all’avanti o all’indietro). Pi` in generale. dy per ogni E ∈ B(Rd ). e Nel caso di un processo di nascita e morte con insieme degli stati N. x.3 Processi di diffusione Il moto browniano d-dimensionale (Bt )t≥0 ` un processo di Markov omogeneo. ωn ) sono le intensit` delle transizioni (o salti) dallo stato n allo stato n + 1 a (risp. E) = 1 (2πt)d/2 e− E |y−x|2 2t 1 (2π(t − s))d/2 f (y) exp − Rd |y − Bs |2 2(t − s) dy. PROCESSI DI DIFFUSIONE Osservando che e−λt k≥n+2 105 λk−n tk−n−1 (f (k) − f (n)) (k − n)! ≤ 2λ f ∞e −λt k≥n+2 (λt)k−n−1 (k − n)! ≤ 2λ f = troviamo subito 2λ f ∞e −λt h≥1 (λt)h h! ∞ 1 − e−λt (Tt f )(n) − f (n) − λ (f (n + 1) − f (n)) ≤ 4λ f t per ogni n e quindi lim sup n≥0 ∞ 1 − e−λt t→0+ (Tt f )(n) − f (n) − λ (f (n + 1) − f (n)) = 0.10. come e si vede subito utilizzando l’indipendenza degli incrementi. dx) e ogni s < t si ha E [ f (Bt ) | Fs ] = Il nucleo di transizione ` quindi e p(t. si vede che il generatore ` l’operatore e (Af )(n) = λn (f (n + 1) − f (n)) + ωn (f (n − 1) − f (n)) dove le λn (risp. 10. B(Rd ). Il semigruppo relativo ` definito di conseguenza. Infatti. per ogni f ∈ L∞ (Rd . L’azione del generatore e infinitesimale A si calcola facilmente sulle funzioni di classe C 2 con tutte le derivate di ordine . n − 1). t Ne segue che ((Tt f ) − f )/t converge uniformemente verso la funzione n → λ(f (n + 1) − f (n)) e cui la conclusione ` immediata.3. se il processo pu` saltare da un punto n ad un altro punto m con u o intensit` λnm allora (sotto opportune ipotesi non molto restrittive sulle intensit` λnm dei a a salti) si trova che il generatore infinitesimale ` e (Af )(n) = m≥0 λnm (f (m) − f (n)).

Prop. La funzione di x a valori matrici (aij (x))1≤i. Un processo markoviano con generatore del tipo (10.j≤d si chiama covarianza e il campo vettoriale (bj (x))1≤j≤d si chiama deriva. a Infatti. grazie al Teorema 9.7) si chiama processo di diffusione.8 Supponiamo che esistano i limiti 1 p(t. se (Ω.j≤d ∂2f (x) + ∂xi ∂xj bj (x) 1≤j≤d ∂f (x). Baldi Equazioni differenziali stocastiche e applicazioni. x. Pitagora Editrice. dy) = aij (x).4) (10. SR (x)c ) = 0. 5. x. dy) = bi (x).7) Per la dimostrazione rimandiamo a P. Si ha infatti.106 10. BR (x)c ) = 0. x. 1] ` il nucleo di transizione di un processo di Markov omogeneo (Xt )t≥0 a traiettorie continue. ∂xj (10.j≤d sono semidefinite positive e il generatore di (Xt )t≥0 ` e (Af )(x) = 1 2 aij (x) 1≤i. t 1 t 1 lim t→0+ t lim (yk − x − k)p(t. t→0+ t BR (x) 1 (yi − xi )(yj − xj )p(t. x. +∞[×Rd × B(Rd ) → [0. lim t→0+ t BR (x) t→0+ lim (10. P) ` uno spazio probabilizzato con una filtrazione (Ft )t≥0 di sotto-σ-algebre e di F e p :]0. Si potrebbe verificare che lim 1 p(t.5) (10. 2 = lim + Il generatore infinitesimale del moto browniano d-dimensionale ` quindi 1/2 dell’operatore e Laplaciano.6) Allora le matrici (aij (x))1≤i. x. 98–99. Indichiamo con SR (x) = { x ∈ Rd | |x| ≤ R } la sfera di centro x e raggio R in Rd . Le tre propriet` precedenti sono tipiche dei processi markoviani detti processi diffusione. dy) = δjk SR (x) dove δjk = 0 se j = k e δjk = 1 se j = k.1 lim (Tt f )(x) − f (x) t = 1 E [ f (x + Bt ) − f (x) ] t t 1 1 (∆f )(x + Bs )ds = lim E t→0+ t 0 2 t→0+ t→0+ lim 1 t E [ (∆f )(x + Bs )ds ] t→0 2t 0 1 t = lim (Ts (∆f ))(x)ds t→0+ 2t 0 1 = (∆f )(x).20 pp. F. dy) = 0. PROCESSI DI MARKOV minore o eguale a 2 limitate. . SR (x) t→0+ t→0+ (yj − xj )(yk − xk )p(t. e Teorema 10. Bologna 2000. x. t 1 lim (yi − xi )p(t.

Il processo (Mtf )t≥0 definito e da t Mtf = f (Xt ) − 0 (Af )(Xs )ds ` una martingala. Il primo risultato.11 Se f ∈ L∞ (E. E.10 Una f ∈ L∞ (E. µ) si chiama superarmonica (risp. Teorema 10. grazie al teorema di Fubini. e Il risultato seguente fa intervenire il semigruppo invece del generatore. armonica) per il semigruppo markoviano (Tt )t≥0 associato al processo (Xt )t≥0 allora il processo (f (Xt ))t≥0 ` una supermartingala. ` lo strumento di base per e utilizzare la teoria delle martingale nello studio dei processi di Markov. Premettiamo la seguente definizione Definizione 10. Il processo (Mtf )t≥0 ` quindi una martingala. supermartingale e martingale associate al processo markoviano.9 Sia f una funzione per la quale ` definito Af . e . subarmonica. Proposizione 10. In questo paragrafo vedremo come si trovano in modo semplice e naturale martingale. E [ f (Xt ) − f (Xs ) | Fs ] = (Tt−s f )(Xs ) − f (Xs ) t−s = 0 t−s (Tr Af )(Xs )ds E [ (Af )(Xs+r ) | Fs ] dr 0 t = = s E [ (Af )(Xr ) | Fs ] dr t = E s (Af )(Xr ) dr | Fs e quindi t s E f (Xt ) − 0 (Af )(Xr )dr | Fs = f (Xs ) − 0 (Af )(Xr )dr t + E f (Xt ) − f (Xs ) − s s (Af )(Xr )dr | Fs = f (Xs ) − 0 (Af )(Xr )dr. superarmoniche o armoniche determinano naturalmente sottimartingale. una generalizzazione del Teorema 9. =) per ogni t ≥ 0.4.10. subarmonica. e Dimostrazione. Le funzioni subarmoniche. armonica) se Tt f ≤ f (risp. MARTINGALE DI UN PROCESSO DI MARKOV 107 10. sotto e supermartingale associate ad un processo di Markov. Si ha infatti.4 Martingale di un processo di Markov La teoria delle martingale trova un’applicazione naturale nello studio dei processi di Markov.1. e risp. ≥. E) ` una funzione superarmonica (risp.

Nd . x∈E Nel caso in cui E sia uno degli insiemi numerabili elencati sopra. Il suo generatore infinitesimale A ha le propriet` seguenti: a a) la funzione costante 1E appartiene a Dom(A) e A1E = 0. Zd con la σ-algebra di tutti i suoi sottoinsiemi. R) ` avere limite all’infinito. sempre denotato con lo stesso simbolo. Proposizione 10. e e µ-quasi ovunque.12 Un semigruppo markoviano (Tt )t≥0 si chiama di Feller o felleriano se 1) Tt f ∈ C 0 (Rd .2) ` determinato dalla sua azione sulle fune zioni continue e limitate su E poich´ ogni funzione E)-misurabile e limitata ` limite puntuale. R).13 Sia (Tt )t≥0 un semigruppo markoviano felleriano. con un p` pi` di lavoro che lo ` anche il semigruppo del moto browniano. Anche il generatore infinitesimale. addirittura. In questo paragrafo consideriamo solo. per semplicit`. R) per ogni f ∈ C 0 (Rd . t Vale la pena si sottolineare il fatto che f appartiene al dominio Dom(A) di A se il limite precedente esiste per la norma uniforme · ∞ ovvero t→0+ x∈E lim sup t−1 ((Tf )(x) − f (x)) − Af (x) = 0. 2) limt→0 Tt f − f ∞ = 0 per ogni f ∈ C 0 (Rd . E. Si vede subito che il semigruppo markoviano del processo di Poisson (Proposizione 10. di una successione di funzioni continue. Basta osservare che il processo (f (Xt ))t≥0 ` adattato. µ ed ` definito da e e Dom(A) = (Af )(x) = f ∈ C 0 (E. Sia C 0 (E. R) | ∃ lim (Tt f − f ) t→0+ per · ∞ t→0+ lim Tt f − f . e 10. R) lo spazio di Banach delle funzioni continue su E con limite all’infinito con la norma f ∞ = sup |f (x)|. e o u e Se un semigruppo ` felleriano di solito si denota con lo stesso simbolo anche la sua e restrizione a C 0 (E. il caso in cui E ` a e lo spazio euclideo Rd con la σ-algebra dei boreliani oppure un insieme numerabile come N. l’unica condizione che deve soddisfare una f per essere nello spazio C 0 (E. Z. topologico) E con la σ-algebra E dei boreliani di E si pu` utilizzare questa propriet` aggiuntiva che o a semplifica le cose. e Definizione 10.5 Propriet` di Feller a Studiando i processi di Markov a valori in uno spazio metrico (o. Un semigruppo markoviano definito da (10.108 10.7) ` felleriano e. ` una restrizione del generatore su L∞ (E. R). Vale la pena di osservare che le conclusioni della proposizione precedente valgono anche per funzioni f non limitate purch´ le variabili aleatorie (Tr f )(Xs ) siano integrabili. . R) e ogni t ≥ 0. PROCESSI DI MARKOV Dimostrazione. le variabili aleatorie e f (Xt ) sono ovviamente integrabili perch´ limitate e e E [ f (Xt ) | Fs ] = (Tt−s f )(Xs ) ≤ f (Xs ) per ogni t > s > 0.

partendo da fuori di esso. o Proposizione 10. il processo (Xt )t≥0 ` irriducibile. Dimostrazione. se x ` un punto di massimo assoluto per f allora. cos` come abbiamo fatto per il moto browı niano multimensionale e per alcuni processi da questo ottenuti. E. Osserviamo che. 1] x il nucleo di transizione dei processi di Markov omogenei (Xt )t≥0 a valori un sottoinsieme E d di R con insieme dei tempi [0. la funzione t → Tt f (x) ` pure continua a destra dunque ` misurabile. e abbiamo (Tt f )(y) ≤ (Tt c1E )(y) = c = f (x) per ogni y ∈ E grazie alla positivit` di Tt . troviamo (Af )(x) ≤ 0. Dato che (Tt 1A )(x) ≤ (Tt 1E )(x) = 1 per µ-quasi ogni x ∈ E. Per verifia a care la b) osserviamo che.` 10. F. La propriet` a) segue immediatamente dall’identit` Tt 1E = 1E . Ricordiamo che il semigruppo (Tt )t≥0 induce un semigruppo. per ogni funzione f continua a e limitata su E. x. Ne segue che a (Tt f )(x) − f (x) ≤0 t e quindi. per ogni A ∈ E tale che Tt 1A ≤ 1A risulta µ(A) = 0 oppure µ(Ac ) = 0. x. legge iniziale δx e (Tt )t≥0 il semigruppo markoviano x associato. IRRIDUCIBILITA E TEMPO DI SOGGIORNO IN UN INSIEME 109 b) (principio del massimo) se x ∈ E ` un punto di massimo assoluto per una funzione e f ∈ Dom(A) allora (Af )(x) ≤ 0. +∞[. posto c = f (x). ·) (t > 0) siano assolutamente continue rispetto alla misura di riferimento µ.14 Il processo markoviano (Xt )t≥0 si chiama irriducibile se. e 2. su L∞ (E. P) uno spazio probabilizzato e (Ft )t≥0 una filtrazione di sotto-σ-algebre di F. non pu` entrare. gli unici insiemi A ∈ E tali che p(t. Per studiare il comportamento del processo. introduciamo la variabile aleatoria che rappresenta il tempo trascorso dal processo in un certo insieme . x. e Indicheremo con Ex la speranza rispetto alla misura di probabilit` Px determinata dalla a legge iniziale δx di X0 e dalla transizione markoviana p. denotato sempre nello stesso modo. A) = 0 per µ-quasi ogni x ∈ Ac e ogni t > 0 soddisfano µ(A) = 0 oppure µ(Ac ) = 0. +∞[×E × E → [0. data la continuit` a destra delle traiettorie.6 Irriducibilit` e tempo di soggiorno in un insieme a Sia (Ω. µ) poich´ e abbiamo supposto che tutte le misure p(t.6. Dimostrazione. L’equivalenza delle due affermazioni segue subito dall’identit` (Tt 1A )(x) = a p(t. A). 10. e e Definizione 10. ` chiaro che Tt 1A ≤ 1A se e solo se (Tt 1A )(x) = 0 per µ-quasi e ogni x ∈ Ac . prendendo il limite per t → 0+ . Diciamo quindi che un processo markoviano ` irriducibile se (a meno di insiemi µe trascurabili) non esiste nessun sottoinsieme (misurabile) proprio di E nel quale il processo.15 Le condizioni seguenti sono equivalenti: 1. Nel s´guito supporremo sempre che i processi (Xt )t≥0 abbiano traiettorie regolari. Sia inoltre p :]0.

Il potenziale U f ` una funzione e superarmonica. Per ogni t > 0 si ha infatti ∞ ∞ ∞ ∞ Tt (U f ) = Tt 0 Ts f ds = 0 Tt+s f ds = t Ts f ds ≤ 0 Ts f ds = U f. µ) l’insieme delle funzioni E-misurabili su E a valori [0. E. e l’applicazione (s. . ω) → Xs (ω) ` misurabile rispetto alle σ-algebre B([0.19 Sia f una funzione non negativa. La funzione e τA risulta quindi misurabile per il teorema di Fubini. +∞] ∞ τA = 0 1A (Xs )ds. E. E. Si chiama tempo medio di soggiorno in A partendo da x la speranza Ex [τA ] (eventualmente uguale a +∞). E. +∞]. µ)) . Dimostrazione. Per verificare che τA ` effettivamente una variabile aleatoria basta osservare che. PROCESSI DI MARKOV Definizione 10. µ) → M+ (E. Indichiamo con M+ (E. µ) definita da ∞ (U f )(x) = 0 (Ts f )(x)ds. Il potenziale di una funzione f non negativa ha la seguente propriet`. +∞[×Ω a valori in E a (s. µ) ponendo Tt f = sup(Tt (f ∧ n)). Dimostrazione.18 Si chiama potenziale associato al semigruppo markoviano (Tt )t≥0 l’applicazione U : M+ (E. Definizione 10. +∞[) ⊗ F sul dominio e E sul codominio e quindi. a Proposizione 10. La definizione degli operatori (Tt )t≥0 si estende immediatamente a M+ E.17 Il tempo medio di soggiorno in un insieme A ` dato da e ∞ Ex [τA ] = 0 (Ts 1A )(x)ds. ` pure misurabile.16 Si chiama tempo di soggiorno del processo (Xt )t≥0 nell’insieme A ∈ E la variabile aleatoria τA a valori [0. ω) → 1A (Xs (ω)) ottenuta per composizione con la funzione 1A definita su E. grazie e alla regolarit` delle traiettorie. l’applicazione definita su [0. E. n≥1 (f ∈ M+ (E. Si ha infatti ∞ Ex [τA ] = Ex 0 ∞ 1A (Xs )ds Ex [1A (Xs )] ds = 0 ∞ = 0 (Ts 1A )(x)ds. Una semplice applicazione dello stesso teorema permette di verificare che Proposizione 10.110 10.

In particolare. Con semplici calcoli si vede subito che. dunque. π d/2 Rd−2 f (y) dy. La classificazione dei processi di Markov in transienti e ricorrenti generalizza l’analoga classificazione delle catene di Markov. Per ogni f boreliana non negativa abbiamo ∞ (U f )(x) = 0 dt (2πt)d/2 f (y)e−|y−x| Rd ∞ 2 2 /2t dy = Rd f (y)dy 0 e−|y−x| /2t dt.3).2 (Moto browniano d-dimensionale) Il semigruppo markoviano (Tt )t≥0 ` dato e da 2 1 f (y)e−|y−x| /2t dy (Tt f )(x) = d/2 (2πt) Rd Consideriamo prima il caso in cui d ≥ 3. allora U f ` una e e funzione limitata. il potenziale ` una funzione limitata se la e e e serie k f (k) ` convergente.1 (Potenziale del processo di Poisson) Sia (Tt )t≥0 il semigruppo del processo di Poisson di parametro λ dato da (10. (2πt)d/2 Osserviamo che. con il cambiamento di variabili s = R2 /2t.10. se f ` una funzione a supporto compatto. Iniziamo quindi con il risultato seguente . per ogni f : N → [0. si ha ∞ 0 e−R /2t dt (2πt)d/2 2 = = 1 π d/2 Rd−1 0 ∞ e−s sd/2−2 ds Γ(d/2 − 1) .7 Ricorrenza e transienza I processi di Markov irriducibili si dividono in due classi: quelli il cui tempo medio di soggiorno negli insiemi limitati ` infinito (processi ricorrenti) e quelli il cui tempo medio di e soggiorno in ogni insieme limitato ` finito (processi transienti). e Esempio 10. Nei casi in cui d = 1 e d = 2 l’integrale rispetto a t ` divergente (a meno che f sia µ-quasi e ovunque nulla) e. Lo studio del potenziale ` lo strumento fondamentale per stabilire se un processo ` e e transiente o ricorrente. RICORRENZA E TRANSIENZA 111 Esempio 10. il potenziale U f ` infinito.7. |y − x|d−2 Il potenziale U f ` quindi e (U f )(x) = Γ(d/2 − 1) π d/2 Rd ` E abbastanza facile verificare che. I processi transienti tendono e quindi a muoversi verso l’infinito. +∞[ si ha (U f )(n) = k≥n f (k) k! ∞ e−λt (λt)k dt 0 ∞ = = 1 λ 1 λ k≥n f (k) k! f (k) e−s sk ds 0 k≥n poich´ l’integrale ` uguale a k!. e 10.

µ) non negativa con potenziale U f finito e strettamente positivo µ-quasi ovunque. esiste una f ∈ L∞ (E. il potenziale U f di f ` e una funzione superarmonica ovvero Tt U f ≤ U f per ogni t ≥ 0 e inoltre. ⇒ 1. ⇒ 3. µ) non negativa con potenziale U f finito e strettamente positivo µ-quasi ovunque. 3. 2. ⇒ 1. E. e 3. 1 + (Tt U f )(x) La funzione r → r/(1 + r) su [0.20 Le condizioni seguenti sono equivalenti: 10. si ha Tt U f < U f per ogni t > 0. grazie alla diseguaglianza di Jensen abbiamo e Tt g(x) = Ex ≤ = (U f )(Xt ) 1 + (U f )(Xt ) Ex [(U f )(Xt )] 1 + Ex [(U f )(Xt )] (Tt U f )(x) . +∞[ ` concava. PROCESSI DI MARKOV 1. esiste una successione non decrescente (An )n≥1 di elementi di E la cui unione ` e l’insieme E (a meno di insiemi µ-trascurabili) tali che U 1An sia limitato. Posto h = g − T1 g abbiamo una e funzione strattamente positiva con ∞ 1 (U h)(x) = 0 ((Tt g)(x) − (Tt+1 g)(x)) dt = 0 (Tt g)(x)dt ≤ g ∞ ≤1 cio` con potenziale limitato da 1. E evidente poich´ se f ` strettamente positiva allora anche U f ` e e e strettamente positivo. Sia f ∈ L∞ (E. e ı . Questa f ` strettamente positiva e perch´ l’unione degli An ` uguale a E e ha potenziale limitato perch´ e e e Uf ∞ ≤ n≥1 2−n U 1An −1 ∞ · U 1An ∞ = n≥1 2−n = 1. ⇒ 2. E. Basta considerare An = { x ∈ E | f (x) ≥ 1/n } e osservare che 1An ≤ nf da cui (U 1An )(x) ≤ n(U f )(x) poich´ gli operatori Tt del semigruppo markoviano sono positivi. ` Dimostrazione. e 2. Il teorema ` cos` dimostrato. dato che f ` e strettamente positiva. Basta considerare la funzione f definita da f (x) = n≥1 2−n U 1An −1 ∞ 1An (x) dove · ∞ indica l’estremo superiore essenziale di U 1An . 2. +∞[ ` inoltre strettamente crescente e quindi e Tt g(x) ≤ (U f )(x) = g(x) 1 + (U f )(x) e Tt g < g per ogni t > 0 perch´ Tt U f < U f per ogni t > 0. posto g = U f /(1 + U f ).112 Teorema 10. Poich´ la funzione r → r/(1 + r) su e [0. esiste una f ∈ L∞ (E. grazie alla Proposizione 10. µ) strettamente positiva con potenziale U f limitato. 1.19. E. Ricordiamo che.

(idea)Basta dimostrare che la funzione indicatrice dell’insieme delle x ∈ E tali che (U f )(x) < +∞ ` subarmonica e quindi. poniamo g = −Af . 0 ds 0 0 Facendo tendere t all’infinito si vede che U g ≤ f e dunque abbiamo trovato una g con potenziale finito µ quasi ovunque. . 2) la f potrebbe non appartenere al dominio del generatore A. detto A il generatore del semigruppo a (Tt )t≥0 . La funzione g non e’ costante perche’.21 Le condizioni seguenti sono equivalenti: 1. E. La dimostrazione del “viceversa” del teorema precedente ` incompleta per due rae gioni: 1) la g potrebbe essere la funzione nulla. Posto g = U f si ha allora Tt g ≤ g. per ogni funzione f non negativa e quasi ogni x ∈ E risulta (U f )(x) = 0 oppure (U f )(x) = +∞. se esiste una f con le propriet` suddette.8. MISURE INVARIANTI 113 Supponendo che il semigruppo markoviano sia di Feller ovvero che: E ` uno spazio e metrico. per l’irriducibilit` l’insieme stesso o il suo e a complementare devono avere misura nulla. +∞[ tale che e 0 < U f (x) < +∞ per µ-quasi ogni x. µ) associato. P) uno spazio probabilizzato e (Ft )t≥0 una filtrazione di sotto-σ-algebre di F. (idea) Se il processo ` transiente allora esiste una f : E → [0.20. Teorema 10. Dato che Tt f ≤ f per ogni t ≥ 0.10. Definizione 10. Si ha inoltre t t d Ts gds = − Ts f ds = [−Ts f ]t = f − Ts f ≤ f. per ogni insieme A ∈ E risulta (U 1A )(x) = 0 oppure (U 1A )(x) = +∞. la g risulta non negativa. Dimostrazione.8 Misure invarianti Sia (Ω. o Viceversa.22 Un processo markoviano si chiama ricorrente se valgono le condizioni equivalenti del Teorema 10. si chiama transiente se valgono le condizioni equivalenti del Teorema 10.21. 2. Teorema 10.24 Un processo markoviano irriducibile ` transiente se e solo se esiste una e f : E → [0. si avrebbe Tt g = g per ogni t ≥ 0. Sia inoltre p il nucleo di transizione di un processo di Markov omogeneo (Xt )t≥0 a valori in E con insieme dei tempi [0. In modo simile al Teorema 10. Tuttavia ∞ t→∞ lim Tt g = lim t→∞ Ts f ds = 0 t e quindi g non pu` essere costante. Nota. F. E ` la σ-algebra dei boreliani di E e la funzione x → (Tt f )(x) ` continua per e e ogni f continua. rn ))n≥1 con centro un qualunque punto di E e raggi rn divergenti a +∞. +∞[ non costante tale che Tt f ≤ f per ogni t ≥ 0. o u 10. La dimostrazione completa per` sarebbe pi` tecnica e la omettiamo.23 Un processo markoviano irriducibile ` transiente o ricorrente. se lo fosse. Allora si pu` prendere come successione (An )n≥1 una successione di sfere o (B(x. +∞[ e (Tt )t≥0 il semigruppo markoviano su L∞ (E.20 si dimostra il seguente Teorema 10. e Dimostrazione.

g∞ densit` di probabilit` su E e (tn )n≥1 una successione divera a gente a +∞ tale che 1 tn (g0 Ts )ds. Si vede subito che 1 tn tn (g0 Ts )dsTt 0 = = = 1 tn 1 tn 1 tn tn (g0 Ts+t )ds 0 t+tn (g0 Ts )ds t tn (g0 Ts )ds − 0 1 tn t (g0 Ts )ds + 0 1 tn t+tn (g0 Ts )ds tn per ogni n ≥ 1. Allora g∞ ` la densit` di una misura invariante. 0 Dimostrazione. Facendo tendere n all’infinito. µ). Teorema 10. .25 Una misura di probabilit` ν su E si chiama invariante se. f = g∞ . Utilizzeremo inoltre la a notazione g(x)(Tt f (x))µ(dx) g. µ). e a Osserviamo che la condizione (10.26 Siano g0 . E. Tt f := E per f ∈ L (E. Il semigruppo markoviano agisce sulle misure limitate ν su E nel modo seguente (νTt )(A) = E ν(dx)(Tt 1A )(x). µ)) a g∞ .114 10. Occorre verificare che g∞ Tt = g∞ per ogni t ≥ 0.8) lim n→∞ tn 0 per ogni f ∈ L∞ (E. indicheremo con gTt la densit` di νTt rispetto a µ. E. E-misurabile il cui integrale su E rispetto a µ ` uguale a 1) e ν la misura di probabilit` e a su E di base µ allora si ha (νTt )(A) = E µ(dx)g(x)(Tt 1A )(x). si ha f (x)ν(dx) = E E (Tt f )(x)ν(dx). E. E. per ogni a f ∈ Mb (E) e ogni t ≥ 0. f (10. µ) della successione di densit` di probabilit` su E a a 1 tn tn ∞ 1 (g0 Ts )ds. µ) e g ∈ L (E. Il secondo e il terzo tendono a 0 perch´ gli integrali sono limitati. In particolare. PROCESSI DI MARKOV Definizione 10. infatti e t+tn t+tn t+tn (g0 Ts )ds tn 1 ≤ tn (g0 Ts ) 1 ds ≤ tn g0 1 ds = t g0 1 e 1/tn tende a 0. il primo termine converge (debolmente in L1 (E. se g ` una densit` di probabilit` su E (ovvero una funzione g non negativa su e a a E.8) equivale alla convergenza debole in L1 (E. E. In questo caso.

Nel caso in cui A sia un operatore differenziale si pu` calcolare g con un’integrazione per parti e risolvendo poi un’equazione differenziale o . E. Ne segue che .10. Tt f = g. Af = 0 per ogni f nel dominio del generatore A. f per ogni t ≥ 0 e ogni f ∈ L∞ (E. g.8. derivando in 0. Per determinarle effettivamente si pu` partire dall’osservazione che una o densit` invariante g soddifa la condizione a g. MISURE INVARIANTI 115 Il Teorema precedente non fornisce un metodo pratico per il calcolo delle densit` delle a misure invarianti. µ).

2 Sia (Nt )t≥0 un processo di Poisson con parametro λ >. Mostrare che il processo (Xt )t≥0 definito da Xt = Nt − λt ` un processo di Markov ricorrente. e Esercizio 10.116 10. Mostrare e che il processo (Xt )t≥0 ` ricorrente.9 Esercizi Esercizio 10. e .1 Sia (Nt )t≥0 un processo di Poisson con parametro λ > 0. determinare il semigruppo associato e il suo generatore. PROCESSI DI MARKOV 10. Mostrare che il processo (Xt )t≥0 definito da Xt = (−1)Nt ` un processo di Markov.

per ogni a k ≥ 1. σ 2 ) ` prodotto di convoluzione di k e leggi normali N (µk.11 Appendice 11. . . Infatti. Si chiama prodotto di convoluzione delle µ1 . . . . Certe leggi notevoli sono esprimibili come prodotto di convoluzione di k leggi di probabilit` a qualunque sia k. σ 2 ≥ 0 e ν ` una misura su B(R) tale che e x2 ν(dx) < ∞. µn la legge della somma X1 + · · · + Xn . . . Le leggi di Poisson e normale.2 Una legge di probabilit` µ su B(R) ` infinitamente divisibile se e solo se la a e sua funzione caratteristica ϕ si pu` rappresentare nella forma o ϕ(t) = exp itm − σ 2 t2 + 2 eitx − 1 − R itx 1 + x2 ν(dx) dove m ∈ R. . la densit` di X1 + X2 ` data dalla funzione f1 ∗ f2 . σ 2 k). chiamata prodotto di convoluzione a e di f1 e f2 . definita da (f1 ∗ f2 )(s) = R f1 (s − r)f2 (r)dr In generale si d` la definizione seguente a Definizione 11. come ` ben a e noto. per esempio. Xn variabili aleatorie reali indipendenti con leggi µ1 . . X2 con densit` f1 . . Molte leggi notevoli sono prodotto di convoluzione di un certo numero n di altre leggi. µn . Analogamente la legge normale N (µ. .1 Somme di variabili aleatorie indipendenti Nel Calcolo delle Probabilit` si pone spesso il problema di trovare la legge di una somma di a variabili aleatorie indipendenti con leggi date. f2 . . la legge di Poisson di parametro λ ` prodotto di convoluzione di k leggi di Poisson e di parametro λk.1 Siano X1 . 1 + x2 117 R . godono di questa propriet`. Le leggi che godono di questa propriet` si chiamano infinitamente divisibili e sono carata terizzate dal seguente Teorema 11. Nel caso particolare di due varibili aleatorie reali X1 .

La costante K potrebbe dipendere da f.1) osservando che o ∞ ∞ n+1 dxP { V > x } dx = 0 n=0 ∞ n n+1 P { V > x } dx P { V > n } dx n=0 ∞ n = = n=0 P{V > n}. s. b] a valori reali si chiama α-h¨lderiana oppure o h¨lderiana con esponente α se soddisfa la diseguaglianza o |f (t) − f (s)| ≤ K|t − s|α con α ∈]0.1) Infatti.V (ω)[ (x)dx Ω×[0. grazie al teorema di Fubini. APPENDICE 11. 11.1) vale anche scrivendo P { V ≥ x } al posto di P { V > x } come si vede s`bito dalla dimostrazione. P) ∞ E[V ] = 0 P { V > x } dx. deve essere indipendente da t. (11.3 Funzioni α-h¨lderiane o Una funzione f definita su un intervallo [a. u Nel caso in cui la variabile aleatoria V abbia valori in N si pu` dimostrare analogamente o la formula ∞ E[V ] = n=0 P{V > n}. b ma. 1] e K costante per ogni t. s ∈]a.2) Questa formula si pu` anche dedurre immediatamente dalla (11. naturalmente. si ha E[V ] = Ω V (ω) V (ω)dP(ω) dP(ω) Ω 0 = = dx 1[0.2 Speranza di una variabile aleatoria non negativa Mostreremo la seguente formula notevole sulla speranza di una variabile aleatoria reale estesa non negativa V definita su uno spazio probabilizzato (Ω. F. Una funzione α-h¨lderiana ` anche β-h¨lderiana per ogni β ∈]0. b[. Nel caso in cui α = 1 la f si dice lipschitziana. Infatti si ha o e o |t − s|α = |t − s|α−β · |t − s|β ≤ (b − a)α−β · |t − s|β . α]. (11. Osserviamo che la formula (11.118 11.+∞[ ∞ = 0 ∞ dx Ω 1{ V >x } (ω)dP(ω) = 0 dxP { V > x } dx. a.

Infatti. 1[. E. x→1− lim ϕ(x) = (1 − x)1−θ xθ−1 = 0. Inoltre. calcolando la derivata.` 11. b] → R.3 Qualunque siano b > 0 e θ ∈]0. |1 − x|θ f (t) = |t|θ Si verifica facilmente (con la regola dell’Hˆpital) che o ϕ(0) = 1. la funzione f (x) = n≥1 2−n |x − rn | ` lipschitziana ma non derivabile in ogni punto rn . soddisfa |f (t) − f (s)| ≤ |t − s|θ dunque ` θ-h¨lderiana con costante K = 1. ma non e necessariamente derivabile. 1[. si trova ϕ (x) = θ(xθ−1 − 1)(1 − x)−(θ+1) ≤ 0 per ogni x ∈]0. 1]) che non ` o e derivabile in tanti punti. t→s Dunque f ` derivabile con derivata nulla e quindi costante. e Il seguente esempio notevole ` utile per capire quanto irregolare pu` essere una funzione e o h¨lderiana. presa una successione (rn )n≥1 densa in [−1. Basta verificare la diseguaglianza precedente per ogni t > s ≥ 0. Il caso in cui α > 1 non ` interessante perch´ e e t→s lim |f (t) − f (s)| ≤ K lim |t − s|α−1 = 0. Sia (E.4. 1] la funzione f : [0.4 Uniforme integrabilit` a L’uniforme integrabilit` ` una propriet` di una famiglia di funzioni che si utilizza spesso a e a nei passaggi al limite sotto il segno d’integrale quando non ` possibile applicare il pi` noto e u teoremi sulla convergenza dominata. Ne segue che la funzione ϕ ` non-crescente su [0. µ) uno spazio di misura . 1] e quindi ϕ(x) ≤ e ϕ(0) = 1 per ogni x ∈ [0. per ogni x ∈ [0. 1] → R. Se θ = 1 ` si tratta di una nota proprietdel modulo. Basta pensare alla funzione modulo x → |x| per mostrare una funzione f : [−1. ϕ(x) = 1 − xθ . o Proposizione 11. Supponiamo quindi θ ∈]0. 1] → R lipschitziana (dunque α-h¨lderiana per ogni α ∈]0. e o Dimostrazione. 1] si ha 1 − xθ ≤ |1 − x|θ . e 11. 1]. Ponendo x = s/t basta verificare che. addirittura uniformemente continua. UNIFORME INTEGRABILITA 119 Una funzione α-holderiana ` continua anzi. 1]. Condideriamo la funzione ϕ :]0.

Si ha infatti. E. E-misurabile e µ-integrabile ` uniformee mente integrabile. µ { x ∈ E | |fα (x)| > c } ≤ 1 c |fα (x)|µ(dx) ≤ E 1 c g(x)µ(dx). ` detta e limitata in Lp (E. Vale infatti la seguente Proposizione 11. per ogni α ∈ A e c > 0.3) ` cos` verificata. allora una famiglia (fα )α∈A unie e formemente integrabile ` uniformemente limitata in L1 (E. µ) se sup α∈A E |f (x)|p µ(dx) < ∞. per ogni c > c(δ) e α ∈ A |fα (x)| µ(dx) ≤ { x∈E | |fα (x)|>c } { x∈E | |fα (x)|>c } g(x)µ(dx) < ε. E Ne segue che µ { x ∈ E | |fα (x)| > c } converge verso 0 per c tendente all’infinito uniformemente in α ovvero per ogni δ > 0 esiste un c(δ) > 0 tale che sup µ { x ∈ E | |fα (x)| > c } < δ α per ogni c > c(δ).120 11. inoltre. E. Come abbiamo detto l’uniforme integrabilit` ` una condizione pi` debole dell’uniforme ae u dominazione. E-misurabili tali che |fα | ≤ g per qualche funzione reale estesa g. per ogni ε > 0 esiste un δ > 0 tale e che se µ(F ) < δ allora g(x)µ(dx) < ε.5 Una famiglia (fα )α∈A di funzioni reali estese su E. Dato che la funzione g ` µ-integrabile. F Si ha quindi. . |fα (x)| µ(dx) ≤ { x∈E | |fα (x)|>c } { x∈E | |fα (x)|>c } g(x)µ(dx) = 0 e. e ı La proposizione seguente d` un’altra condizione sufficiente per l’uniforme integrabilit`. La condizione (11.4 Una famiglia (fα )α∈A di funzioni reali estese su E. E-misurabili. si chiama uniformemente integrabile se c→+∞ α∈A lim sup |fα (x)| µ(dx) = 0. APPENDICE Definizione 11. a a Ricordiamo che una famiglia di funzioni reali estese su E (fα )α∈A . { x∈E | |fα (x)|>c } (11. se la misura µ ` finita cio` µ(E) < +∞. E-misurabili e µintegrabili. Dimostrazione. Infatti. detto c un numero e reale strettamente positivo tale che |fα (x)| µ(dx) < 1 { x∈E | |fα (x)|>c } per ogni α ∈ A si ha |fα (x)| µ(dx) = E { x∈E | |fα (x)|≤c } |fα (x)| µ(dx) + { x∈E | |fα (x)|>c } |fα (x)| µ(dx) ≤ cµ(E) + 1. µ).3) Osserviamo che.

` 11. µ). uniformemente integrabili. E. Posto 1/p M := sup α∈A E |fα (x)|p µ(dx) . se µ(E) < ∞. E. µ { |fα | > c } ≤ ≤ ≤ Ne segue che. a per ogni ε > 0. grazie alla diseguaglianza di H¨lder abbiamo o |fα (x)| µ(dx) ≤ (µ { |fα | > c }) { |fα |>c } 1 q |fα (x)| µ(dx) E p 1 p ≤ M (µ { |fα | > c }) q 1 Inoltre. E. per esempio. come abbiamo osservato. c |fα (x)| µ(dx) E p 1 p n→∞ f (x)µ(dx). µ) uno spazio di misura con µ(E) < ∞ ed (fn )n≥1 una successione di funzioni reali estese E-misurabili.5. per ogni α µ { |fα | > c } ≤ (M/c)p . La funzione f ` µ-integrabile. grazie al lemma di Fatou. e Verifichiamo che possono scambiare limite e integrale. Mostriamo ora il teorema sul passaggio al limite nell’integrale che si utilizza nella dimostrazione del teorema d’arresto. allora l’uniforme integrabilit` garantisce che e a la successione (fn )n≥1 ` limitata in L1 (E. e q = p/(p − 1). Una famiglia (fα )α∈A limitata in Lp (E. infatti. indicando con { |fα | > c } l’insieme { x ∈ E | |fα (x)| > c }. Allora f ` µ-integrabile e e lim fn (x)µ(dx) = E E 1 c |fα (x)|µ(dx) { |fα |>c } 1 1 (µ { |fα | > c }) q c 1 M (µ { |fα | > c }) q .6 Supponiamo che µ(E) < +∞. µ) con p > 1 ` uniformemente integrabile. che convergano µ-quasi ovunque verso una funzione f .4.7 Sia (E. La misura dell’insieme { |fα | > c } converge quindi verso 0 per c tendente all’infinito uniformemente in α e la conclusione segue come nella Proposizione 11. e Dimostrazione. possiamo trovare un c(ε) > 0 tale che |fn (x)|µ(dx) < ε { x∈E | |fn (x)|>c } . come nella dimostrazione della Proposizione 11.5. Enunciamo il risultato per successioni ma evidentemente vale anche per famiglie di funzioni indicizzate. Teorema 11. da un parametro in un intervallo (eventualmente illimitato) di R. µ-integrabili. e |f (x)|µ(dx) ≤ lim inf E n→∞ E |fn (x)|µ(dx) < ∞ poich´. UNIFORME INTEGRABILITA 121 Proposizione 11. Dimostrazione. Grazie all’uniforme integrabilit`.

convergenti puntualmente e non dominate? La risposta ` affermativa come mostra il seguente esempio (e il fatto che.7 e la Proposizione 11. E n→∞ n→∞ Il Teorema 11.5. Tuttavia si ha lim fn (x)µ(dx) = lim 1 = 1 = 0. µ) dove E = [0.5 fanno sorgere spontaneamente la domanda: esistono successioni di funzioni uniformemente integrabili. come nella dimostrazione della Proposizione 11. e µ{ |fn | > c } ≤ c−1 E |fn |dµ ≤ c−1 sup n≥1 E |fn |dµ per ogni c > 0. La conclusione segue dall’arbitrariet` di ε. +∞[ e µ ` la misura definita dalla densit` x → (1 + x)2 ovvero e a µ(B) = B dx (1 + x)2 . se cos` e ı non fosse. lim sup n→∞ E fn dµ − E f dµ ≤ 2ε. La successione di funzioni (fn )n≥1 definita da fn (x) = 1[n. E ` la σ-algebra dei e boreliani di [0. Consideriamo lo spazio probabilizzato (E. Consideriamo E = R con la σ-algebra E dei boreliani di R e sia µ la misura di Lebesgue su E. grazie al teorema della convergenza dominata. Dato che f ` integrabile e. Si ha allora fn dµ − E E 11. APPENDICE f dµ ≤ ≤ (fn − f ) dµ + { |fn |≤c } { |fn |>c } fn dµ + { |fn |>c } f dµ (fn − f ) dµ + { |fn |≤c } { |fn |>c } f dµ + ε. +∞[.122 per ogni n ≥ 1 e ogni c > c(ε). prendendo eventualmente un c(ε) pi` grande del precedente abbiamo quindi u f dµ < ε { |fn |>c } per ogni n ≥ 1 e c > c(ε) da cui fn dµ − E E f dµ ≤ (fn − f ) dµ + 2ε. a Osserviamo che il teorema precedente ` falso se la misura µ non ` finita come mostra il e e seguente controesempio. E. ci saremmo accontentati del classico teorema della convergenza dominata).n+1] ` uniformemente integrabile perch´ l’insieme { x ∈ E | |fn (x)| > 1 } ` vuoto per ogni n ≥ 1 e e e e converge verso 0. { |fn |≤c } Sull’insieme { |fn | ≤ c } si ha evidentemente |fn − f | ≤ c + |f | e quindi.

UNIFORME INTEGRABILITA per ogni boreliano B contenuto in [0. Per ogni n ≥ 1 sia fn la funzione fn (x) = nα 1]n. µ) per α ≤ 2. allora si ha g≥ n≥1 fn e quindi gdµ ≥ [0. Infatti.+∞[ mentre per n < c1/α l’integrale qui sopre ` nullo. qualunque sia c > 0 ` chiaro che.7.` 11.4. Infatti.n+1] (x) con α > 0 che ` integrabile su [0.+∞[ dx nα = . Inoltre ` e e uniformemente integrabile per α < 2. E. +∞[ poich´ e e fn (x) dx = nα (1 + x)2 n+1 n 123 [0. (1 + x)2 n(n + 1) La successione di funzioni (fn )n≥1 ` dunque limitata in L1 (E. +∞[. . per n ≥ c1/α e si ha nα fn dµ = fn dµ = n(n + 1) { |fn |>c } [0.+∞[ fn dµ = n≥1 nα = +∞ n(n + 1) per ogni α > 0.+∞[ [0. e Verifichiamo infine che non ` dominata da nessuna funzione integrabile. se g ` e e una funzione che soddisfa fn ≤ g per ogni n ≥ 1. Per α < 2 si ha quindi e 0 ≤ lim sup fn dµ ≤ lim { |fn |>c } c + 1) c→∞ n≥1 c→∞ c1/α (c1/α =0 e la successione (fn )n≥1 ` uniformemente integrabile. Si potrebbe verificare che l’uniforme integrabilit` ` condizione necessaria per ottenere la ae conclusione del Teorema 11.

Sign up to vote on this title
UsefulNot useful