Cours de Calcul stochastique

Master 2IF EVRY
Monique Jeanblanc
Septembre 2006
2
Contents
1 G´en´eralit´es 7
1.1 Tribu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.1.1 D´efinition d’une tribu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.1.2 Mesurabilit´e . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.1.3 Tribu engendr´ee . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2 Probabilit´e . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2.1 D´efinition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2.2 Propri´et´es . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2.3 Ensembles n´egligeables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.3 Loi de probabilit´e . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.3.1 Existence d’une v.a. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.3.2 Esp´erance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.3.3 Int´egrabilit´e uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.3.4 Ind´ependance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.3.5 Probabilit´es ´equivalentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.4 Variables gaussiennes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.5 Convergence de v.a. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.5.1 Convergence presque sˆ ure . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.5.2 Convergence quadratique, ou convergence dans L
2
(Ω) . . . . . . . . . . . . . . . 13
1.5.3 Convergence en probabilit´e . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.5.4 Convergence en loi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.6 Processus stochastiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.6.1 Filtration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.6.2 Processus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.6.3 Processus croissant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.6.4 Processus Gaussiens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.7 Esp´erance conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.7.1 Cas discret . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.7.2 Esp´erance conditionnelle par rapport `a une tribu . . . . . . . . . . . . . . . . . . 16
1.7.3 Esp´erance conditionnelle par rapport `a une variable . . . . . . . . . . . . . . . . 16
1.7.4 Propri´et´es de l’esp´erance conditionnelle . . . . . . . . . . . . . . . . . . . . . . . 17
1.7.5 Variance conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.7.6 Formule de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.8 Loi conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.8.1 D´efinition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.8.2 Cas Gaussien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.9 Martingales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.9.1 Cas discret . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.9.2 Cas continu. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.10 Temps d’arrˆet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.10.1 D´efinitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.10.2 Th´eor`eme d’arrˆet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.10.3 Processus de Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.11 Rappels d’analyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.11.1 D´erivation sous le signe somme . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3
4 CONTENTS
1.11.2 Espace complet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.11.3 Th´eor`eme de Lebesgue domin´e . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2 LE MOUVEMENT BROWNIEN 23
2.1 Le mouvement Brownien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.1.1 D´efinition. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.1.2 G´en´eralisation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.2 Promenade al´eatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.3 Propri´et´es . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.3.1 Processus gaussien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.3.2 Une notation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.3.3 Scaling . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.3.4 Propri´et´e de Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.3.5 Equation de la chaleur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.3.6 Trajectoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.3.7 Propri´et´es de martingale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.3.8 Temps d’atteinte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.3.9 Brownien multidimensionnel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.4 Int´egrale de Wiener . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.4.1 D´efinition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.4.2 Propri´et´es . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.4.3 Processus li´e `a l’int´egrale stochastique . . . . . . . . . . . . . . . . . . . . . . . . 33
2.4.4 Int´egration par parties . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.5 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.5.1 Le brownien g´eom´etrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.5.2 Processus d’Ornstein-Uhlenbeck . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.5.3 Mod`ele de Vasicek . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3 INT
´
EGRALE STOCHASTIQUE 39
3.1 D´efinition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.1.1 Cas de processus ´etag´es . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.1.2 Cas g´en´eral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.2 Propri´et´es . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.2.1 Lin´earit´e. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.2.2 Propri´et´es de martingale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.2.3 Un exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.2.4 Martingale locale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.2.5 In´egalit´e maximale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.3 Processus d’Itˆo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.3.1 D´efinition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.3.2 Propri´et´es . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.3.3 Int´egrale par rapport `a un processus d’Itˆo. . . . . . . . . . . . . . . . . . . . . . 42
3.3.4 Crochet d’un processus d’Itˆo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.4 Lemme d’Itˆo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.4.1 Premi`ere forme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.4.2 Fonction d´ependant du temps . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.4.3 Cas multidimensionnel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.4.4 Cas du Brownien multidimensionnel. . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.4.5 Application `a la formule de Black et Scholes . . . . . . . . . . . . . . . . . . . . . 47
4 EQUATIONS DIFFERENTIELLES STOCHASTIQUES 49
4.1 Equations diff´erentielles stochastiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.1.1 D´efinition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.1.2 Th´eor`eme d’existence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.1.3 Propri´et´e de Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
4.1.4 Th´eor`eme de comparaison . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
4.1.5 Exemple : Martingale exponentielle . . . . . . . . . . . . . . . . . . . . . . . . . 50
CONTENTS 5
4.2 Equations aux d´eriv´ees partielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.2.1 Probl`eme parabolique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.2.2 G´en´eralisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.2.3 Formule de Black et Scholes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.2.4 Formule de Feynman-Kac . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
5 EXEMPLES DE PROCESSUS D’ITO 55
5.1 Le brownien g´eom´etrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
5.2 Mod`ele de Cox-Ingersoll-Ross . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
5.3 Processus de Bessel et carr´e de Bessel . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
5.4 Definitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
5.4.1 Euclidian norm of n-dimensional Brownian motion . . . . . . . . . . . . . . . . . 58
5.4.2 General definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
5.4.3 Scaling properties . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
5.4.4 Absolute continuity . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
5.5 Properties . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
5.5.1 Additivity of BESQ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
5.5.2 Bessel functions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
5.5.3 Transition densities . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
5.5.4 Hitting times for Bessel processes . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
5.5.5 Laplace transforms . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
5.6 Cox-Ingersoll-Ross processes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
5.6.1 CIR processes and BESQ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
5.6.2 Transition probabilities for a CIR process . . . . . . . . . . . . . . . . . . . . . . 65
5.6.3 CIR model for spot rate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
6 CHANGEMENT DE PROBABILIT
´
E 67
6.1 Th´eor`eme de Girsanov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
6.1.1 Changement de probabilit´e . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
6.1.2 Th´eor`eme de Girsanov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
6.1.3 Remarques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
6.1.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
6.1.5 Cas vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
6.2 Application aux mod`eles financiers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
6.2.1 Application `a la valorisation d’un actif contingent en march´e complet . . . . . . 71
6.2.2 Arbitrages . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
6.2.3 Hedging methodology . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
6.2.4 Arbitrage et mme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
6.2.5 Cas g´en´eral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
6.3 Probabilit´e forward-neutre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
6.3.1 D´efinitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
6.3.2 Changement de num´eraire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
6.3.3 Changement de num´eraire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
6.3.4 Valorisation d’une option sur obligation `a coupons . . . . . . . . . . . . . . . . . 77
Begin at the beginning, and go on till you come to the end. Then, stop.
L. Caroll, Alice’s Adventures in Wonderland
6 CONTENTS
Chapter 1
G´en´eralit´es
Dans ce chapitre aride sont rassembl´ees les notions de base de th´eorie des probabilit´es qui seront utilis´ees
dans tout le cours
1
. Ces notions ne seront pas reprises dans le cours. L’espace de probabilit´e sur lequel
on travaille est not´e Ω. Pour les d´emonstrations et de plus amples informations, consulter les ouvrages
de Breiman [?], Grimmett et Stirzaker [?], Jacod et Protter [?] ou encore Williams [?]. Voir aussi des
exercices dans [?] ou dans [?].
1.1 Tribu
L’espace Ω est un espace abstrait dont les ´el´ements sont not´es ω. Un sous-ensemble de Ω est un
´ev´enement. Dans certaines parties de cours, on pr´ecisera la structure de Ω en construisant explicitement
cet espace. Dans la plupart des cas, la structure de Ω n’a pas de rˆole `a jouer. Par contre, lorsque l’on
veut construire une variable al´eatoire de loi donn´ee, un choix judicieux de Ω s’impose : il est impossible
de construire une v.a. sur un espace quelconque donn´e `a l’avance. Cette difficult´e s’accroit quand il
s’agit de construire plusieurs v.a. (ou une suite) ind´ependantes. Nous n’aborderons pas ces probl`emes ici
(Voir Breiman [?]). On pourra regarder le paragraphe concernant l’existence d’une v.a. (voir ci-dessous)
pour une approche du probl`eme.
1.1.1 D´efinition d’une tribu
D´efinition 1.1.1 Une tribu (σ-algebra en Anglais) sur Ω est une famille de parties de Ω, contenant
l’ensemble vide, stable par passage au compl´ementaire, union d´enombrable et intersection d´enombrable.
Une tribu contient donc l’espace Ω.
Un espace mesurable est un espace muni d’une tribu.
Proposition 1.1.1 Une intersection de tribus est une tribu.
Attention : ce n’est pas vrai pour la r´eunion : une r´eunion de tribus n’est pas une tribu.
Soit T une tribu. Une sous-tribu de T est une tribu ( telle que ( ⊂ T, soit A ∈ ( implique A ∈ T.
La plus petite tribu contenant une famille d’ensembles est l’intersection de toutes les tribus qui conti-
ennent cette famille. Elle est en g´en´eral difficile (voire impossible) `a d´ecrire plus pr´ecisement.
Exemple 1.1.1 Tribu des bor´eliens de IR. C’est la plus petite tribu contenant tous les intervalles
ouverts (ou ferm´es, ou ouverts `a droite ferm´es `a gauche...). On la note B
IR
. On peut trouver des sous
ensembles de IR qui ne sont pas des bor´eliens, mais ils sont difficiles `a exhiber. Voir Neveu [?].
1
Give us the tools, and we will finish the work. Winston Churchill, February 9, 1941.
7
8 G´en´eralit´es
1.1.2 Mesurabilit´e
D´efinition 1.1.2 Soit (Ω, T) et (E, c) deux espaces mesurables. Une application f de Ω dans E est
dite (T, c) mesurable si f
−1
(A) ∈ T, ∀A ∈ c, o` u
f
−1
(A)
def
= ¦ω ∈ Ω[f(ω) ∈ A¦.
Lorsqu’il n’y a pas d’ambigu¨ıt´e sur les tribus employ´ees, on dit simplement que f est mesurable.
Une fonction f de IR dans IR est bor´elienne si elle est (B
IR
, B
IR
)-mesurable, soit f
−1
(A) ∈ B
IR
, ∀A ∈
B
IR
. Il suffit que cette propri´et´e soit v´erifi´ee pour les intervalles A.
Les fonctions continues sont bor´eliennes.
D´efinition 1.1.3 Soit (Ω, T) un espace mesurable. Une variable al´eatoire r´eelle (v.a.r.) X est une
application mesurable de (Ω, T) dans IR ( donc telle que X
−1
(A) ∈ T, ∀A ∈ B
IR
).
Une constante est une v.a. de mˆeme qu’une fonction indicatrice d’ensemble de la tribu T.
Proposition 1.1.2 Si X est une v.a.r. (-mesurable et f une fonction bor´elienne, f(X) est (-mesurable.
Une v.a. ( mesurable est limite croissante de v.a. du type
n
¸
i=1
a
i
11
A
i
avec A
i
∈ (. Une fonction
bor´elienne est limite croissante de fonctions du type
n
¸
i=1
a
i
11
A
i
o` u A
i
est un intervalle.
1.1.3 Tribu engendr´ee
D´efinition 1.1.4 La tribu engendr´ee par une famille d’ensembles / est la plus petite tribu contenant
cette famille, on la note σ(/). Elle est l’intersection de toutes les tribus contenant /.
Si T
1
et T
2
sont deux tribus, on note T
1
∨T
2
la tribu engendr´ee par T
1
∪T
2
. C’est la plus petite tribu
contenant les deux tribus T
1
et T
2
.
D´efinition 1.1.5 La tribu engendr´ee par une variable al´eatoire X d´efinie sur (Ω, T) est l’ensemble des
parties de Ω qui s’´ecrivent X
−1
(A) o` u A ∈ B
IR
. On note cette tribu σ(X).
La tribu σ(X) est contenue dans T. C’est la plus petite tribu sur Ω rendant X mesurable.
Une v.a.r. X est (-mesurable si σ(X) ⊂ (.
Propri´et´e: si Y est une application de Ω dans IR, σ(X) mesurable (c’est-`a-dire telle que Y
−1
(A) ∈
σ(X), ∀A ∈ B
IR
ou encore σ(Y ) ⊂ σ(X)), il existe une fonction bor´elienne f, de IR dans IR telle que
Y = f(X), et r´eciproquement.
D´efinition 1.1.6 La tribu engendr´ee par une famille de variables al´eatoires (X
t
, t ∈ [0, T]) est la plus
petite tribu contenant les ensembles ¦X
−1
t
(A)¦ pour tout t ∈ [0, T] et A ∈ B
IR
. On la note σ(X
t
, t ≤ T).
1.2 Probabilit´e
1.2.1 D´efinition
Une probabilit´e sur (Ω, T) est une application P de T dans [0, 1] telle que
a) P(Ω) = 1,
b) P(∪

n=0
A
n
) =
¸

n=0
P(A
n
) pour des A
n
appartenant `a T deux `a deux disjoints.
Notation: P(A) =

A
dP =


11
A
dP o` u 11
A
(fonction indicatrice) est la fonction d´efinie sur Ω par
11
A
(ω) = 1 si ω ∈ A et 11
A
(ω) = 0 si ω / ∈ A.
July 8, 2006 9
1.2.2 Propri´et´es
On a P(A) +P(A
c
) = 1 pour tout A appartenant `a T.
Si A ⊂ B, alors P(A) ≤ P(B) et P(B) = P(A) +P(B −A), o` u B −A = B ∩ A
c
.
Si les A
n
forment une suite croissante (resp. d´ecroissante) d’´el´ements de T, c’est-`a-dire si A
n
⊂ A
n+1
(resp. A
n
⊃ A
n+1
), et si A = ∪
n
A
n
(resp. A = ∩
n
A
n
) alors A appartient `a T et P(A) = limP(A
n
).
Th´eor`eme de classe monotone: Soit P et Q deux probabilit´es sur (Ω, T, P) telles que P(A) = Q(A)
pour tout A ∈ (, o` u ( est une famille stable par intersection finie et engendrant T. Alors P = Q sur T.
Remarque: on prendra soin, pour appliquer ce th´eor`eme, de v´erifier la stabilit´e par intersection de (
(c’est-` a-dire de montrer que si C
1
∈ (, C
2
∈ (, l’intersection C
1
∩ C
2
appartient `a ().
1.2.3 Ensembles n´egligeables
Un ensemble est dit n´egligeable s’il est de probabilit´e nulle.
Une union d´enombrable d’ensembles n´egligeables est n´egligeable.
Une propri´et´e est vraie presque surement (p.s.) si elle est vraie en dehors d’un ensemble n´egligeable.
On dit aussi que la propri´et´e est vraie pour presque tout ω.
Un espace (Ω, T, P) est dit complet s’il contient tous les ensembles G tels que inf¦P(F) : F ∈ T, G ⊂
F¦ = 0.
1.3 Loi de probabilit´e
D´efinition 1.3.1 Soit X une variable al´eatoire d´efinie sur (Ω, T, P). La loi de X est la probabilit´e P
X
sur (IR, B
IR
) d´efinie par P
X
(A) = P¦ω; X(ω) ∈ A¦ = P(X ∈ A), ∀A ∈ B
IR
.
On d´efinit aussi la fonction de r´epartition de la variable X. C’est la fonction croissante d´efinie sur IR
par F(x) = P(X ≤ x).
Certains auteurs utilisent P(X < x) comme fonction de r´epartition. Les deux expressions ne diff´erent
qu’en un nombre au plus d´enombrable de valeurs de x, et les modifications sont minimes. La fonction de
r´epartition que nous utilisons ici est continue `a droite, l’autre d´efinition conduit `a une fonction continue
`a gauche, les deux fonctions ´etant ´egales en tout point de continuit´e.
La densit´e f(x) d’une variable al´eatoire est la d´eriv´ee de la fonction de r´epartition (si cette d´eriv´ee
existe). On peut alors ´ecrire P(X ∈ A) =

A
f(x)dx. En particulier P(X ∈ [a, b] ) =

b
a
f(x)dx. Il nous
arrivera alors d’utiliser la notation diff´erentielle P(X ∈ dx) pour d´esigner f(x)dx.
Lorsque deux v.a. ont mˆeme loi (ou mˆeme fonction de r´epartition, ou mˆeme densit´e) on dit qu’elles
sont ´egales en loi. On utilisera tr`es souvent la remarque ´el´ementaire suivante : si X et Y sont deux v.a.
telles que P(X ≤ a) = P(Y ≤ a), ∀a ∈ IR, alors X et Y ont mˆeme loi, ce que l’on notera X
loi
= Y .
1.3.1 Existence d’une v.a.
Pour construire une v.a. de loi donn´ee (par exemple une gaussienne), on choisit comme espace Ω = IR.
Ensuite, on d´efinit une v.a. (une application de Ω dans IR de fa¸con simple: X : ω → ω est l’application
identi´e. Il reste `a construire une probabilit´e P sur Ω = IR telle que X aie une loi gaussienne. Soit
P(dω) =
1


exp −
ω
2
2
dω. La fonction de r´epartition de X est
F
X
(x) = P(X < x) =

11
ω<x
P(dω) =

x
−∞
1


exp −
ω
2
2
dω .
D’o’u X est une v.a. Gaussienne.
Si l’on souhaite construire deux v.a. ind´ependantes de loi gaussienne: on recommence, sur un autre
espace: soit Ω = Ω
1

2
, sur chacun des Ω
i
= IR, on construit une v.a. et une probabilit´e telle
que la v.a. soit de loi gaussienne et on pose P = P
1
⊗ P
2
. Si on souhaite construire une v.a. de loi
exponentielle, on choisit Ω = IR
+
.
10 G´en´eralit´es
1.3.2 Esp´erance
L’esp´erance d’une variable al´eatoire X est par d´efinition la quantit´e


XdP que l’on note E(X) ou
E
P
(X) si l’on d´esire pr´eciser quelle est la probabilit´e utilis´ee sur Ω. Cette quantit´e peut ne pas exister.
Pour calculer cette int´egrale, on passe dans “l’espace image” et on obtient, par d´efinition de la loi de
probabilit´e


XdP =

IR
xdP
X
(x).
Il existe des variables al´eatoires qui n’ont pas d’esp´erance, c’est-`a-dire pour lesquelles l’int´egrale


XdP
n’a pas de sens. On dit que X est int´egrable si [X[ a une esp´erance finie. On note L
1
(Ω) l’ensemble
des v.a. int´egrables.( ou L
1
(Ω, P) si l’on veut pr´eciser la probabilit´e utilis´ee). L’espace L
1
(Ω) contient
les constantes, les v.a. born´ees et les v.a. major´ees en valeur absolue par une v.a. int´egrable.
De la mˆeme fa¸con, on d´efinit pour toute fonction bor´elienne Φ telle que Φ(X) soit int´egrable (ce qui a
lieu par exemple si Φ est born´ee)
E(Φ(X)) =


Φ(X)dP =

IR
Φ(x)dP
X
(x).
Si X admet une densit´e f, on a E(X) =

IR
xf(x)dx et E(Φ(X)) =

IR
Φ(x)f(x)dx.
Si l’on connait E(Φ(X)) pour toute fonction Φ bor´elienne born´ee, on connait la loi de X: l’´egalit´e
E(Φ(X)) = E(Φ(Y )) pour toute fonction bor´elienne born´ee Φ implique l’´egalit´e en loi de X et Y .
Attention : l’´egalit´e en loi n’est pas l’´egalit´e presque sure. Par exemple, si X est une gaussienne
centr´ee, on a X
loi
= −X et ces deux variables ne sont pas ´egales presque surement.
En fait, il suffit que l’´egalit´e E(Φ(X)) = E(Φ(Y )) soit v´erifi´ee pour une classe suffisamment riche de
fonctions, par exemple pour les fonctions indicatrices de bor´eliens, ou d’intervalles, ou pour les fonctions
de la forme e
λx
, λ ∈ IR pour avoir X
loi
= Y .
La fonction caract´eristique d’une v.a.r. est la transform´ee de Fourier de la loi de X, c’est-`a-dire la
fonction
ψ(t) = E(e
itX
) =

IR
e
itx
P
X
(dx).
Si X admet une densit´e f(x), la fonction caract´eristique de X est

IR
e
itx
f(x) dx. La fonction car-
act´eristique caract´erise la loi de X au sens o` u la connaissance de cette fonction d´etermine la loi de la
variable. Si la transform´ee de Fourier ψ appartient `a L
1
(dx), c’est-`a-dire si son module est int´egrable par
rapport `a la mesure de Lebesgue dx, la densit´e associ´ee (unique) est donn´ee par la formule d’inversion
f(x) =
1


−∞
e
−itx
φ(t)dt
La fonction Ψ(λ)
def
= E(e
λX
) que l’on appelle transform´ee de Laplace caract´erise aussi la loi d’une
variable. Mais dans ce cas il n’y a pas de formule d’inversion simple. Pour connaˆıtre la loi d’un couple
(X, Y ), il suffit de connaˆıtre E(exp(λX+µY )) pour tout couple (λ, µ). Lorsque la v.a. X est positive,
on utilise de pr´ef´erence E(e
−λX
) comme transform´ee de Laplace, d´efinie alors pour tout λ ≥ 0.
Exemple 1.3.1 Exemple fondamental : Si X est une variable gaussienne de loi ^(m, σ
2
), on a
E(e
λX
) = exp(λm+
λ
2
σ
2
2
), ∀λ ∈ IR
et r´eciproquement.
Proposition 1.3.1 Propri´et´es de l’esp´erance a. L’esp´erance est lin´eaire par rapport `a la variable,
c’est `a dire
E(aX +bY ) = aE(X) +bE(Y ),
a et b ´etant des r´eels.
b. L’esp´erance est croissante: si X ≤ Y (p.s), on a E(X) ≤ E(Y ).
c. In´egalit´e de Jensen : si Φ est une fonction convexe, telle que Φ(X) est int´egrable, E(Φ(X)) ≥
Φ(E(X)).
July 8, 2006 11
1.3.3 Int´egrabilit´e uniforme
Une famille de v.a. (X
i
, i ∈ I) est dite uniform´ement int´egrable si sup
i

|X
i
|≥a
[X
i
[dP → 0 quand
a → ∞.
S’il existe Y ∈ L
1
(P) telle que [X
i
[ ≤ Y, ∀i, la famille (X
i
, i ∈ I) est uniform´ement int´egrable.
1.3.4 Ind´ependance
D´efinition 1.3.2 Deux sous-tribus T
1
et T
2
sont ind´ependantes si
P(A∩ B) = P(A)P(B), ∀A ∈ T
1
, ∀B ∈ T
2
.
Pour que deux tribus T
1
et T
2
soient ind´ependantes, il faut et il suffit que P(A ∩ B) = P(A)P(B),
∀A ∈ (
1
, ∀B ∈ (
2
o` u (
i
est une famille stable par intersection telle que σ((
i
) = T
i
.
D´efinition 1.3.3 Une variable al´eatoire X est ind´ependante d’une sous-tribu ( si les tribus σ(X) et (
sont ind´ependantes.
Proposition 1.3.2 La v.a. X est ind´ependante de la sous-tribu ( si et seulement si
P ¦A∩ (X ≤ x)¦ = P(A)P(X ≤ x), ∀x ∈ IR, ∀A ∈ (.
Deux variables (X, Y ) sont ind´ependantes si les tribus σ(X) et σ(Y ) sont ind´ependantes.
Proposition 1.3.3 Les v.a. X et Y sont ind´ependantes si et seulement si
P ¦(X ≤ x) ∩ (Y ≤ y)¦ = P(X ≤ x)P(Y ≤ y), ∀x ∈ IR, ∀y ∈ IR.
Si X et Y sont ind´ependantes, E(XY ) = E(X)E(Y ). (La r´eciproque n’est pas vraie)
Si X et Y sont ind´ependantes, f(X) et g(Y ) aussi.
Si X et Y sont ind´ependantes, on peut calculer E(ϕ(X, Y )) de deux fa¸cons :
E(ϕ(X, Y )) = E(f(X)) = E(g(Y )), avec f(x) = E(ϕ(x, Y )), g(y) = E(ϕ(X, y))
Proposition 1.3.4 Les v.a. X et Y sont ind´ependantes si et seulement si
E(f(X) g(Y )) = E(f(X)) E(g(Y )) pour toutes fonctions f et g bor´eliennes born´ees.
Il suffit que cette ´egalit´e ait lieu pour une classe suffisamment riche de fonctions f et g, par exemple
pour les fonctions indicatrices. Si X et Y sont `a valeurs positives, il suffit que l’´egalit´e soit v´erifi´ee pour
f(x) = exp(−λx) et g(x) = exp(−µx) pour tous λ, µ positifs.
Une famille de sous-tribus (T
i
, i ∈ IN) est ind´ependante si toutes les sous familles finies le sont, c’est-`a-
dire si P(∩
1≤i≤n
A
i
) =
¸
1≤i≤n
P(A
i
), ∀A
i
∈ T
i
, ∀n. Mˆeme d´efinition pour une famille non d´enombrable.
Mˆeme d´efinition pour une famille de variables al´eatoires.
1.3.5 Probabilit´es ´equivalentes
D´efinition 1.3.4 Deux probabilit´es P et Q d´efinies sur le mˆeme espace (Ω, T) sont dites ´equivalentes
si elles ont mˆemes ensembles n´egligeables, c’est `a dire si
P(A) = 0 ⇐⇒ Q(A) = 0.
Une propri´et´e vraie P p.s. est alors vraie Q p.s.
Si P et Q sont ´equivalentes, il existe une variable Y , strictement positive, T-mesurable, d’esp´erance 1
sous P appel´ee densit´e de Radon-Nikodym telle que dQ = Y dP ou encore Q(A) =

A
Y dP. On ´ecrit
´egalement cette relation sous la forme
dQ
dP
= Y . R´eciproquement, si Y est une v.a. strictement positive,
T-mesurable, d’esp´erance 1 sous P, la relation E
Q
(Z) = E
P
(ZY ) d´efinit une probabilit´e Q ´equivalente
`a P. Elle est facile `a m´emoriser par la r`egle de calcul formel suivante:
E
Q
(Z) =

ZdQ =

Z
dQ
dP
dP =

ZY dP = E
P
(ZY )
12 G´en´eralit´es
On a aussi
dP
dQ
=
1
Y
.
Si Y est seulement positive, on a P(A) = 0 =⇒ Q(A) = 0 et on dit que Q est absolument continue par
rapport `a P.
Exemple 1.3.2 1. Soit U une variable de Bernoulli sous P d´efinie par
P(U = 0) = 1 −p, P(U = 1) = p.
Soit Y la variable d´efinie par Y = λU +µ(1−U). Elle est d’esp´erance 1 pour λp+µ(1−p) = 1, λ, µ > 0.
Soit dQ = Y dP, on a Q(U = 1) = λp. Sous Q , U est une variable de Bernoulli de param`etre λp.
2. Si X est une v.a. de loi ^(m, σ
2
) sous P et soit Y = exp¦h(X −m) −
1
2
h
2
σ
2
¦. Soit dQ = Y dP.
Sous Q, X est une v.a. de loi ^(m+hσ
2
, σ
2
).
D´emonstration : Il suffit de calculer E
Q
¦exp(λX)¦) = E
P
¦Y exp(λX)¦ et de v´erifier que E
Q
(exp λX) =
exp[λ(m+hσ
2
) +
λ
2
σ
2
2
] .
3. Soit X est un vecteur gaussien sous P et U une variable telle que le vecteur (X, U) soit gaussien.
On pose dQ = Y dP avec Y = exp(U −E
P
(U) −
1
2
Var
P
U), le vecteur X est gaussien sous Q, de mˆeme
covariance que sous P.
1.4 Variables gaussiennes
Une variable X est gaussienne de loi ^(m, σ
2
) si elle a pour densit´e
^(m, σ
2
)(x) =
1
σ


exp −
(x −m)
2

2
.
On consid`ere qu’une v.a. constante suit une loi gaussienne de variance nulle, ce qui correspond `a une
masse de Dirac. La mesure de Dirac δ
a
au point a est une probabilit´e sur IR telle que

IR
f(x)δ
a
(dx) =
f(a) et correspond `a une v.a. constante ´egale `a a.
D´efinition 1.4.1 Un vecteur X = (X
1
, X
2
, . . . , X
n
)
T
est gaussien
2
si toute combinaison lin´eaire
¸
n
i=1
a
i
X
i
est une variable gaussienne `a valeurs r´eelles.
On caract´erise la loi de X par son vecteur esp´erance et sa matrice de covariance
Γ = [σ
i,j
]
i=1,n; j=1,n
o` u σ
i,j
= E(X
i
X
j
) −E(X
i
)E(X
j
). La loi de X admet une densit´e si la matrice Γ est inversible.
Si deux variables forment un couple gaussien de covariance nulle, elles sont ind´ependantes.
Si (X, Y ) est un vecteur Gaussien, il existe α tel que X −αY est ind´ependant de X.
Si X et Y sont des gaussiennes ind´ependantes, aX + bY est une gaussienne et le couple (X, Y ) est
gaussien. Ce n’est en g´en´eral pas vrai si les variables ne sont pas ind´ependantes.
Enfin, nous rappelons une nouvelle fois le r´esultat important suivant
Proposition 1.4.1 Si X est une variable gaussienne de loi ^(m, σ
2
), on a, pour tout λ r´eel, E(e
λX
) =
exp(λm+
λ
2
σ
2
2
) . R´eciproquement si pour tout λ ∈ IR, E(e
λX
) = exp(λm+
λ
2
σ
2
2
), la variable X est de
loi ^(m, σ
2
).
1.5 Convergence de v.a.
L’espace (Ω, T, P) est fix´e. Toutes les variables al´eatoires sont d´efinies sur cet espace.
On distingue plusieurs types de convergence:
2
L’exposant
T
d´esigne la transposition
July 8, 2006 13
1.5.1 Convergence presque sˆ ure
Une suite de variables al´eatoires X
n
converge p.s. vers X si pour presque tout ω,
X
n
(ω) → X(ω) quand n → ∞.
On note X
n
p.s.
→ X
Cette notion de convergence d´epend du choix de P. Si Q est ´equivalente `a P et si X
n
P.p.s.
→ X, on a
X
n
Q.p.s.
→ X.
Th´eor`eme de convergence monotone: Si X
n
est une suite de variables al´eatoires monotone (soit X
n

X
n+1
) et si X = lim
p.s.
X
n
, on a E(X) = limE(X
n
) .
Th´eor`eme de Lebesgue domin´e: Si X
n
est une suite de variables al´eatoires convergeant p.s. vers X et
s’il existe une variable al´eatoire Y int´egrable telle que [X
n
[ ≤ Y , alors E(X
n
) converge vers E(X).
Th´eor`eme 1.5.1 Loi des grands nombres. Si (X
i
, i ≥ 1) est une suite de v.a. ´equidistribu´ees,
ind´ependantes d’esp´erance finie,
1
n
¸
n
i=1
X
i
converge p.s. vers E(X
1
).
1.5.2 Convergence quadratique, ou convergence dans L
2
(Ω)
On note |X|
2
def
=


X
2
dP =

E(X
2
). On identifie deux v.a. ´egales p.s., ainsi on d´efinit ainsi la
norme [[ [[ sur l’espace des v.a. de carr´e int´egrable. On dit que X ∈ L
2
(Ω) (ou L
2
(Ω, P)) si |X|
2
< ∞.
Soit X
n
∈ L
2
et X ∈ L
2
. La suite de variables al´eatoires (X
n
) converge en moyenne quadratique (dans
L
2
(Ω)) vers X si
(|X
n
−X|
2
)
2
= E(X
n
−X)
2
→ 0 quand n → ∞.
Cette notion de convergence d´epend du choix de P.
Si X
n
→ X dans L
2
(Ω), on a E(X
2
n
) → E(X
2
). La r´eciproque est fausse.
L’espace L
2
(Ω) est un espace de Hilbert muni du produit scalaire 'X, Y ` =


XY dP. En parti-
culier, il est complet.
Si une suite converge dans L
2
, il existe une sous-suite qui converge p.s.
Si une suite uniform´ement int´egrable (par exemple born´ee) converge p.s., elle converge dans L
2
.
Th´eor`eme : (Loi des grands nombres) Si (X
i
, i ≥ 1) est une suite de v.a. ´equidistribu´ees, ind´ependantes
de variance finie ,
1
n
¸
n
i=1
X
i
converge en moyenne quadratique vers E(X
1
).
Si une suite de v.a. gaussiennes converge en moyenne quadratique, la limite est une variable gaussienne.
Soit p > 1. On note |X|
p
la quantit´e positive d´efinie par (|X|
p
)
p
:=


[X[
p
dP = E([X[
p
). On
d´efinit ainsi une norme sur l’espace L
p
(Ω) des v.a. X telles que |X|
p
< ∞. Une suite de v.a. X
n
dans
L
p
converge s’il existe X tel que E(X
n
− X)
p
→ 0. La convergence dans L
p
pour p > 1 implique la
convergence dans L
q
pour tout q, 1 < q < p.
1.5.3 Convergence en probabilit´e
Une suite de variables al´eatoires X
n
converge en probabilit´e vers X si
∀ > 0 P([X
n
−X[ ≥ ) → 0 quand n → ∞.
On note X
n
P
→ X.
La convergence p.s. implique la convergence en probabilit´e.
La convergence en probabilit´e implique qu’une sous-suite converge p.s.
La convergence quadratique implique la convergence en probabilit´e.
1.5.4 Convergence en loi
Une suite de variables al´eatoires X
n
converge en loi vers X si E(Φ(X
n
)) → E(Φ(X)) quand n → ∞
pour toute fonction Φ continue born´ee.
14 G´en´eralit´es
On note X
n
L
→ X. La convergence en loi est ´egalement d´efinie par la convergence simple des fonctions
caract´eristiques, soit Ψ
n
(t) → Ψ(t) pour tout t, o` u Ψ
n
d´esigne la fonction caract´eristique de X
n
et Ψ
celle de X.
Si X est une v.a. de fonction de r´epartition F continue, et si X
n
est une suite de v.a. de fonction
de r´epartition F
n
telles que F
n
(x) converge vers F(x) pour tout x, alors X
n
converge en loi vers X et
r´eciproquement.
La convergence en probabilit´e implique la convergence en loi.
Th´eor`eme 1.5.2 Th´eor`eme Central limite Si (X
i
, i ≥ 1) est une suite de v.a. ´equidistribu´ees,
ind´ependantes, de variance finie σ
2
¸
n
i=1
X
i
−nE(X
1
)
σ

n
L
→ N(0, 1) .
1.6 Processus stochastiques
1.6.1 Filtration
On va s’int´eresser `a des ph´enom`enes d´ependant du temps. Ce qui est connu `a la date t est rassembl´e
dans une tribu T
t
, c’est l’information `a la date t.
D´efinition 1.6.1 Une filtration est une famille croissante de sous tribus de T, c’est-`a-dire telle que
T
t
⊂ T
s
pour tout t ≤ s.
On demande souvent que les ensembles n´egligeables soient contenus dans T
0
.
On parle d’hypoth`eses habituelles si
- les ensembles n´egligeables sont contenus dans T
0
,
- La filtration est continue `a droite au sens o` u T
t
= ∩
s>t
T
s
.
Une filtration G est dite plus grosse que F si T
t
⊂ (
t
, ∀t.
1.6.2 Processus
Un processus stochastique (ou fonction al´eatoire) est une famille de variables al´eatoires (X
t
; t ∈ [0, ∞[)
d´efinies sur le mˆeme espace de probabilit´e .
D´efinition 1.6.2 Un processus stochastique X = (X
t
, t ≥ 0) est dit adapt´e (par rapport `a une filtration
T
t
) si X
t
est T
t
-mesurable pour tout t.
On dit que le processus est `a trajectoires continues (ou est continu) si les applications t → X
t
(ω) sont
continues pour presque tout ω.
Un processus est dit c`adl`ag (continu `a droite, pourvu de limites `a gauche) si ses trajectoires sont
continues `a droite, pourvues de limites `a gauche. Mˆeme d´efinition pour c`agl`ad.
A un processus stochastique X on associe sa filtration naturelle T
X
t
, c’est `a dire la famille croissante
de tribus T
X
t
= σ¦X
s
, s ≤ t¦.
On utilise souvent des processus dit pr´evisibles. La d´efinition pr´ecise est la suivante: Soit (Ω, T, P) un
espace muni d’une filtration (T
t
). On appelle tribu des pr´evisibles
3
la tribu sur (0, ∞) Ω engendr´ee
par les rectangles de la forme
]s, t] A, 0 ≤ s ≤ t, A ∈ T
s
.
Un processus est pr´evisible si et seulement si l’application (t, ω) → X
t
(ω) est mesurable par rapport `a
la tribu des pr´evisibles. Pas d’affolement: il suffit de savoir que les processus c`ag sont pr´evisibles.
On dit que deux processus X et Y sont ´egaux `a une modification pr`es si X
t
= Y
t
p.s. ∀t.
Deux processus sont ´egaux en loi X
loi
= Y si pour tout (t
1
, t
2
, . . . , t
n
) et pour tout n on a (X
t
1
, X
t
2
, . . . , X
t
n
)
loi
=
(Y
t
1
, Y
t
2
, . . . , Y
t
n
).
On trouvera chapitre 8 d’autres d´efinitions concernant des propri´et´es de mesurabilit´e.
3
L’exp´erience est une lanterne accroch´ee dans le dos, qui n’´eclaire que le chemin parcouru. Confucius / Clifton
July 8, 2006 15
1.6.3 Processus croissant
Un processus A = (A
t
, t ≥ 0) est un processus croissant si A
0
= 0 et t → A
t
est une fonction croissante,
c’est-`a-dire
A
t
(ω) ≤ A
s
(ω), ∀t ≤ s, p.s.
Sauf mention du contraire, les processus croissants sont pris continus `a droite.
Un processus V = (V
t
, t ≥ 0) est dit `a variation born´ee sur [0, t] si
sup
t
i
¸
i
[V
t
i+1
−V
t
i
[ ≤ K ,
le sup ´etant pris sur les subdivisions 0 ≤ t
0
≤ . . . ≤ t
i
≤ t
i+1
≤ t.
Un processus V = (V
t
, t ≥ 0) est dit `a variation finie sur [0, t] si
sup
t
i
¸
i
[V
t
i+1
−V
t
i
[ < ∞,
le sup ´etant pris sur les subdivisions 0 ≤ t
0
≤ . . . ≤ t
i
≤ t
i+1
≤ t . Un processus V = (V
t
, t ≥ 0) est dit
`a variation finie s’il est `a variation finie sur [0, t] pour tout t. Il est alors la diff´erence de deux processus
croissants (et r´eciproquement).
1.6.4 Processus Gaussiens
Un processus X est gaussien si toute combinaison lin´eaire finie de (X
t
, t ≥ 0) est une variable al´eatoire
gaussienne, c’est-`a-dire si
∀n, ∀t
i
, 1 ≤ i ≤ n, ∀a
i
,
n
¸
i=1
a
i
X
t
i
est une v.a.r. gaussienne.
Un processus gaussien est caract´eris´e par son esp´erance et sa covariance.
Un espace gaussien est un sous-espace (vectoriel ferm´e) de L
2
(Ω) form´e de v.a.r. gaussiennes centr´ees.
L’espace gaussien engendr´e par un processus gaussien est le sous espace de L
2
(Ω) engendr´e par les
v.a.r. centr´ees (X
t
− E(X
t
), t ≥ 0), c’est-`a-dire le sous-espace form´e par les combinaisons lin´eaires de
ces variables centr´ees et leurs limites en moyenne quadratique.
1.7 Esp´erance conditionnelle
L’espace (Ω, T, P) est fix´e.
1.7.1 Cas discret
Rappel: Soit A et B deux ´ev`enements (sous-ensembles de Ω). On d´efinit la probabilit´e conditionnelle
de A quand B par P(A[B) =
P(A∩B)
P(B)
, pour tout B tel que P(B) = 0.
Propri´et´e: P(. [B) est une probabilit´e sur Ω.
On peut d´efinir l’esp´erance d’une variable par rapport `a cette loi. Consid´erons le cas d’une variable
X `a valeurs dans (x
1
, x
2
, . . . , x
n
). Soit B fix´e et Q(A) := P(A[B). On a alors en d´esignant par E
Q
l’esp´erance par rapport `a Q:
E
Q
(X) =
¸
j
x
j
Q(X = x
j
) =
¸
j
x
j
P(X = x
j
∩ B)
P(B)
.
On peut ´ecrire P(X = x
j
∩ B) =

B
11
X=x
j
dP (o` u 11
X=x
j
est la fonction qui vaut 1 si ω ∈ (X = x
j
)
c’est-`a-dire si X(ω) = x
j
) et en remarquant que
¸
j
x
j
11
X=x
j
= X on a :
¸
j
x
j
P(X = x
j
∩ B)
P(B)
=
1
P(B)

B
XdP,
16 G´en´eralit´es
ce que l’on peut lire

B
E
Q
(X)dP = E
Q
(X)P(B) =

B
XdP.
On note E(X[B) = E
Q
(X) . Soit alors B la tribu engendr´ee par B et E(X[B) la variable al´eatoire
d´efinie par E(X[B) = E(X[B)1
B
+E(X[B
c
)1
B
c . On a

D
E(X[B)dP =

D
XdP
pour tout ´el´ement D ∈ B. On appelle esp´erance conditionnelle de X quand B cette variable al´eatoire
B-mesurable.
Un cas particulier int´eressant est celui o` u l’´ev`enement B est li´e `a une v.a.:
Soient X et Y deux v.a. `a valeurs dans (x
1
, x
2
, . . . , x
n
) (resp (y
1
, . . . , y
d
)), telles que ∀i, P(Y = y
i
) = 0.
On peut alors d´efinir P(X = x
j
[Y = y
i
) = µ(x
j
; y
i
). On remarque que pour tout y
i
, µ(.; y
i
) d´efinit une
probabilit´e sur (x
1
, x
2
, . . . , x
n
). On peut donc d´efinir l’esp´erance de X par rapport `a cette loi par
E(X[Y = y
i
) =
¸
j
x
j
P(X = x
j
[Y = y
i
) =
¸
j
x
j
µ(x
j
; y
i
) =
1
P(Y = y
i
)

Y =y
i
XdP.
On d´efinit ainsi une fonction Ψ telle que Ψ(y
i
) = E(X[Y = y
i
) .
IL est facile de v´erifier que
¸
i
P(Y = y
i
)E(X[Y = y
i
) =
¸
i
P(Y = y
i
)Ψ(y
i
) = E(Ψ(Y )) = E(E(X[Y )) = E(X)
On note Ψ(Y ) = E(X[Y ) . C’est l’esp´erance conditionnelle de X quand Y ou encore l’esp´erance
conditionnelle de X par rapport `a Y . Cette fonction est caract´eris´ee par
a) Ψ(Y ) est Y -mesurable,
b) E(Φ(Y )X) = E(Φ(Y )Ψ(Y )) pour toute fonction Φ.
(Il suffit par lin´earit´e de v´erifier b) pour Φ = 11
y
i
.)
1.7.2 Esp´erance conditionnelle par rapport `a une tribu
Soit X une v.a.r. (int´egrable) d´efinie sur (Ω, T, P) et ( une sous-tribu de T.
D´efinition 1.7.1 L’esp´erance conditionnelle E(X[( ) de X quand ( est l’unique variable al´eatoire
a. (-mesurable
b. telle que

A
E(X[( )dP =

A
XdP, ∀A ∈ (.
C’est aussi l’unique (`a une ´egalit´e p.s. pr`es) variable (-mesurable telle que
E[E(X[( )Y ] = E(XY )
pour toute variable Y , (-mesurable born´ee.
Il en r´esulte que si X est de carr´e int´egrable, E(X[() est la projection de X sur l’espace des variables
al´eatoires ( mesurables, de carr´e int´egrable, c’est-`a-dire la variable al´eatoire ( mesurable qui minimise
E[(X −Y )
2
] parmi les v.a. Y , ( mesurables.
1.7.3 Esp´erance conditionnelle par rapport `a une variable
On d´efinit l’esp´erance conditionnelle d’une variable X (int´egrable) par rapport `a Y comme ´etant
l’esp´erance conditionnelle de X par rapport `a la tribu σ(Y ). On la note E(X[Y ). C’est une vari-
able mesurable par rapport `a la tribu engendr´ee par Y , donc c’est une fonction de Y : il existe ψ de IR
dans IR bor´elienne telle que E(X[Y ) = ψ(Y ).
L’esp´erance conditionnelle E(X[Y ) est caract´eris´ee par
a) c’est une variable σ(Y ) mesurable
July 8, 2006 17
b)

A
E(X[Y )dP =

A
XdP ∀A ∈ σ(Y ).
La propri´et´e b) est ´equivalente `a E(E(X[Y )φ(Y )) = E(Xφ(Y )) pour toute fonction φ bor´elienne
born´ee , ou `a

Y ∈B
E(X[Y )dP =

Y ∈B
XdP pour tout B ∈ B.
On utilise souvent la notation E(X[Y = y ) pour d´esigner la valeur de ψ en y. On a alors
a’) E(X[Y = y ) est une fonction bor´elienne
b’)

B
E(X[Y = y )dP
Y
(y) =

IR×B
xdP
X,Y
(x, y) ∀B ∈ B
IR
.
1.7.4 Propri´et´es de l’esp´erance conditionnelle
a) Lin´earit´e. Soit a et b deux constantes. E(aX +bY [( ) = aE(X[( ) +bE(Y [( ).
b) Croissance. Soit X et Y deux v. a. telles que X ≤ Y . Alors E(X[( ) ≤ E(Y [( ).
c) E[E(X[( )] = E(X).
d) Si X est (-mesurable, E(X[( ) = X.
e) Si Y est (-mesurable, E(XY [( ) = Y E(X[( ).
f) Si X est ind´ependante de (, E(X[( ) = E(X).
g) Si ( est la tribu grossi`ere (compos´ee de l’ensemble vide et de Ω), E(X[() = E(X).
h) Si ( et H sont deux tribus telles que H ⊂ ( alors E(X[H) = E(E(X[H) [( ) = E(E(X[( ) [H). On
note souvent E(E(X[H) [( ) = E(X[H [( )
i) Si (X, Y ) sont ind´ependantes, et φ une fonction bor´elienne born´ee, E(φ(X, Y )[Y ) = [E(φ(X, y))]
y=Y
.
Cette derni`ere ´egalit´e signifie que, pour calculer E(φ(X, Y )[Y ) lorsque les variables X et Y sont
ind´ependantes, on explicite la fonction Ψ telle que Ψ(y) = E(φ(X, y)), puis on remplace y par Y
pour obtenir la v.a. Ψ(Y ).
On verra d’autres propri´et´es de l’esp´erance conditionnelle dans le polycopi´e d’exercices. On utilisera
sans mod´eration la formule E

b
a
X
s
ds[(

=

b
a
E

X
s
[(

ds d´es que l’un des deux membres existe.
Remarque tr`es importante: les ´egalit´es pr´ec´edentes ne sont vraies que p.s. et `a condition que les v.a.
soient int´egrables.
1.7.5 Variance conditionnelle
On d´efinit Var (X[() = E(X
2
[() −E
2
(X[(). C’est une v.a. positive, en vertu de l’in´egalit´e de Jensen:
Soit φ une fonction convexe. On a E(φ(X)[T) ≥ φ(E(X[T)).
1.7.6 Formule de Bayes
Soit P une probabilit´e et Q une probabilit´e ´equivalente `a P d´efinie par dQ = LdP. On peut exprimer
l’esp´erance conditionnelle d’une variable sous Q en fonction de l’esp´erance conditionnelle sous P :
E
Q
(X[() =
E
P
(LX[()
E
P
(L[()
.
D´ emonstration: Il s’agit de trouver Z v.a. (-mesurable telle que
E
Q
(ZY ) = E
Q
(XY )
pour toute v.a. Y (-mesurable. On ´ecrit E
Q
(ZY ) = E
P
(LZY ) = E
P
(ZY E
P
(L[()) et E
Q
(XY ) =
E
P
(LXY ) = E
P
(Y E
P
(LX[()) en utilisant la (-mesurabilit´e de Z, Y . L’´egalit´e devant ˆetre v´erifi´ee
pour tout Y , il vient ZE
P
(L[() = E
P
(LX[(), d’o` u l’expression de Z. ´
18 G´en´eralit´es
1.8 Loi conditionnelle
1.8.1 D´efinition
Soit (X, Y ) deux v.a.r. La loi conditionnelle de X quand Y est la famille de lois sur IR not´ee µ(y, dx)
index´ees par y (qui d´ecrit l’ensemble des valeurs prises par Y ) telle que
E[Φ(X)[Y = y] =


−∞
Φ(x)µ(y, dx)
pour toute fonction Φ bor´elienne born´ee. La propri´et´e s’´etend aux fonctions Φ int´egrables par rapport
`a µ. Lorsque l’on connait cette loi conditionnelle, les calculs d’esp´erance et de variance conditionnelle
se r´eduisent `a des calculs d’esp´erance et de variance. En effet E[X[Y = y] =


−∞
xµ(y, dx) est, pour
tout y, l’esp´erance d’une v.a. de loi µ(y, dx).
Si le couple (X, Y ) a une densit´e f(x, y), on peut montrer que
µ(y, dx) =
f(x, y)dx

IR
f(u, y)du
1.8.2 Cas Gaussien
Si le couple de v.a.r. (X, Y ) est gaussien (avec une densit´e ou non), la densit´e conditionnelle de
X `a Y est une loi gaussienne d’esp´erance lin´eaire en Y et de variance c ind´ependante de Y . Il est
alors facile de retrouver la valeur de l’esp´erance: E(X[Y ) = aY + b implique E(X) = aE(Y ) + b et
E(XY ) = E(Y E(X[Y )) = E(aY
2
) +bE(Y ), d’o` u
a =
Cov(X, Y )
V arY
, b = E(X) −aE(Y ) , c = E(X
2
[Y ) −E
2
(X[Y ) = E(X
2
) −E[(aY +b)
2
]
Ceci se g´en´eralise `a un vecteur multidimensionnel : si (X, Y ) est un vecteur gaussien, la densit´e condi-
tionnelle de X `a Y est une loi gaussienne d’esp´erance lin´eaire en Y et de variance c ind´ependante de
Y .
1.9 Martingales
1.9.1 Cas discret
On se donne une filtration, c’est-`a-dire une famille de sous-tribus T
n
croissante (telle que T
n
⊂ T
n+1
).
La tribu T
0
contient les n´egligeables.
D´efinition 1.9.1 ef Une suite de v.a.r. (X
n
, n ∈ IN) est une T
n
-martingale si
X
n
est int´egrable, ∀n ∈ IN
X
n
est T
n
-mesurable, ∀n ∈ IN
E(X
n+1
[T
n
) = X
n
, ∀n ∈ IN.
Propri´et´e: E(X
n+p
[T
n
) = X
n
, ∀n ∈ IN, ∀p ∈ IN.
Exemple: Si X
n
= Y
1
+ . . . + Y
n
o` u les Y
i
sont ind´ependantes ´equidistribu´ees centr´ees, X
n
est une
martingale.
Cas multidimensionnel: Une famille de vecteurs (S
n
, n ≥ 0) telle que S
n
est `a valeurs dans IR
d
est une
martingale, si les familles (S
i
n
, n ∈ IN) sont des martingales ∀i, 1 ≤ i ≤ d.
1.9.2 Cas continu.
On se donne une filtration, c’est-`a-dire une famille de sous-tribus T
t
croissante (telle que T
s
⊂ T
t
, ∀s ≤
t.)
July 8, 2006 19
D´efinition 1.9.2 Une famille de variables al´eatoires (X
t
, t ∈ [0, ∞[) est une martingale par rapport `a
la filtration (T
t
) si
X
t
est T
t
-mesurable et int´egrable pour tout t.
E(X
t
[T
s
) = X
s
, ∀s ≤ t.
Propri´et´es:
Si X est une martingale E(X
t
) = E(X
0
), ∀t.
Si (X
t
, t ≤ T) est une martingale, le processus est compl`etement d´etermin´e par sa valeur terminale:
X
t
= E(X
T
[T
t
). Cette derni`ere propri´et´e est d’un usage tr`es fr´equent en finance.
D´efinition 1.9.3 Une famille de variables al´eatoires (X
t
, t ∈ [0, ∞[) est une surmartingale (resp. sous-
martingale) par rapport `a la filtration (T
t
) si
X
t
est T
t
-mesurable et int´egrable pour tout t
E(X
t
[T
s
) ≤ X
s
, ∀s ≤ t (resp. E(X
t
[T
s
) ≥ X
s
).
Exemple 1.9.1 Si X est une martingale, alors, X
2
est une sous martingale. Si X est une martingale
et A un processus croissant, X +A est une sous-martingale.
On dira que X est une martingale si la filtration de r´ef´erence est la filtration naturelle de X. On fera
attention: la propri´et´e de martingale d´epend de la filtration et une F-martingale n’est en g´en´eral pas
une G martingale si G est plus grosse que F.
Une martingale continue `a variation born´ee est ´egale `a une constante.
En effet si M est une telle martingale et V sa variation,
E(M
2
t
) = E
¸

¸
(M
t
i+1
−M
t
i

2

≤ E

V
t
sup [M
t
i+1
−M
t
i
[

≤ KE

sup [M
t
i+1
−M
t
i
[

et le membre de droite converge p.s. vers 0 quand on raffine la partition.
Proposition 1.9.1 In´egalit´e de Doob Si X est une martingale continue,
E(sup
s≤T
X
2
s
) ≤ 4E(X
2
T
) .
1.10 Temps d’arrˆet
On travaille sur un espace muni d’une filtration (T
t
). On note T

= σ(∪
t
T
t
).
1.10.1 D´efinitions
D´efinition 1.10.1 Un temps d’arrˆet est une variable al´eatoire τ `a valeur dans IR ∪ ¦+∞¦ telle que
¦τ ≤ t¦ ∈ T
t
, ∀t ∈ IR.
Une constante positive est un temps d’arrˆet.
On associe `a un temps d’arrˆet τ la tribu T
τ
dite des ´ev´enements ant´erieurs `a τ, d´efinie
4
par T
τ
= ¦A ∈
T

[A∩ ¦τ ≤ t¦ ∈ T
t
, ∀t ∈ IR¦ .
Propri´et´es: Si T est un temps d’arrˆet, T est T
T
mesurable.
Si S et T sont des temps d’arrˆet, S ∧T est un temps d’arrˆet. En particulier T ∧t est un temps d’arrˆet.
Si S et T sont des temps d’arrˆet tels que S ≤ T, on a T
S
⊂ T
T
.
Soit (X
t
, t ≥ 0) un processus et T un temps d’arrˆet fini. On d´efinit X
T
par X
T
(ω) = X
T(ω)
(ω) .
Si un processus X est continu et adapt´e, X
T
est T
T
-mesurable.
4
“L’essentiel est de comprendre” Scipion, dans Caligula, Camus
20 G´en´eralit´es
1.10.2 Th´eor`eme d’arrˆet
Si T est un temps d’arrˆet et M une (T
t
)-martingale, le processus Z d´efini par Z
t
def
= M
t∧T
est une (T
t
)
martingale. En particulier, E(M
t∧T
) = E(M
0
).
Th´eor`eme 1.10.1 Th´eor`eme d’arrˆet de Doob: (Optional Sampling Theorem)
Si M est une (T
t
)-martingale continue et si S et T sont deux temps d’arrˆet tels que S ≤ T ≤ K, K
´etant une constante finie, M
T
est int´egrable et
E(M
T
[T
S
) = M
S
.
Ce r´esultat s’´etend `a tous les temps d’arrˆet si la martingale est uniform´ement int´egrable.
Si M est uniform´ement int´egrable, on peut montrer que M
t
converge p.s. et dans L
1
vers M

quand
t → ∞ et que M
S
= E(M

[T
S
)
Proposition 1.10.1 Si pour tout temps d’arrˆet born´e E(X
T
) = E(X
0
), le processus X est une mar-
tingale.
Remarque 1.10.1 Attention, si E(X
t
) = E(X
0
) pour tout t, le processus X n’est pas une n´ecessairement
martingale. Un contre exemple est X
t
=

t
0
M
u
du o` u M est une martingale d’esp´erance nulle.
Si M est une surmartingale positive et τ un temps d’arrˆet, E(M
τ
) ≤ E(M
0
) o` u on pose M

= 0.
D´efinition 1.10.2 Un processus M adapt´e c`agl`ad est une martingale locale s’il existe une suite crois-
sante de temps d’arrˆets τ
n
telle que τ
n
→ ∞ et (M
t∧τ
n
, t ≥ 0) est une martingale pour tout n.
Une martingale locale positive est une surmartingale. Une martingale locale uniform´ement int´egrable
est une martingale.
1.10.3 Processus de Markov
Cette notion est assez difficile, mais d’un usage constant. En langage vernaculaire, un processus est de
Markov si son comportement dans le futur ne d´epend du pass´e qu`a travers le pr´esent.
5
Soyons plus
pr´ecis.
Soit X un processus et (T
t
) sa filtration canonique. On dit que le processus est de Markov si, pour
tout t, pour toute variable born´ee Y ∈ T

l’´egalit´e
E(Y ◦ θ
t
[T
t
) = E(Y ◦ θ
t
[X
t
)
o` u θ est l’op´erateur de translation d´efini sur les applications coordonn´ees par X
u
◦ θ
s
= X
u+s
.
Essayons une autre d´efinition. Pour tout n, pour toute fonction born´ee F d´efinie sur IR
n
, pour tous
t
1
< t
2
< < t
n
E(F(X
s+t
1
, X
s+t
2
, , X
s+t
n
)[T
s
) = E(F(X
s+t
1
, X
s+t
2
, , X
s+t
n
)[X
s
) .
Ceci implique en particulier que pour toute fonction f bor´elienne born´ee
E(f(X
t
)[T
s
) = E(f(X
t
)[X
s
) , ∀t > s .
Le processus est dit de Markov fort si la propri´et´e pr´ec´edente est vraie pour tout couple de temps
d’arrˆet finis T, S avec T > S.
5
“L’avenir est la projection du pass´e, conditionn´ee par le pr´esent”. G. Braque.
July 8, 2006 21
1.11 Rappels d’analyse
1.11.1 D´erivation sous le signe somme
Soit F(x) =


−∞
f(x, y)dy. Si f est continue et admet une d´eriv´ee partielle par rapport `a x ∂
x
f(x, y)
continue born´ee en valeur absolue par g(y), [∂
x
f(x, y)[ ≤ g(y) o` u g est une fonction int´egrable, alors
F

(x) =


−∞

x
f(x, y)dy.
1.11.2 Espace complet
Un espace norm´e est dit complet si toute suite de Cauchy converge, i.e. si [[x
n
− x
m
[[ → 0 quand
n, m → ∞ implique l’existence de x tel que x
n
→ x. L’ espace IR muni de la norme habituelle, l’espace
des fonctions L
2
(IR) muni de la norme [[f[[ =

IR
f
2
(x)dx, l’espace des v.a. L
2
(Ω) muni de la norme
[[X[[ =

E(X
2
) sont des espaces complet.
1.11.3 Th´eor`eme de Lebesgue domin´e
Soit f
n
une suite de fonctions int´egrables qui converge (simplement) vers une fonction f (f
n
(x) →
f(x), ∀x). S’il existe g int´egrable telle que [f
n
(x)[ ≤ g(x), ∀x, alors

IR
f
n
(x)dx converge vers

IR
f(x)dx.
La fonction f est une fonction en escalier s’il existe une subdivision (t
i
, t
i
≤ t
i+1
, i = 0, . . . , n)
telle que f est constante, ´egale `a f
i
sur ]t
i
, t
i+1
] et nulle hors de [t
0
, t
n+1
]. On peut alors ´ecrire
f =
¸
n
i=1
f
i−1
11
]t
i−1
,t
i
]
.
22 G´en´eralit´es
Chapter 2
LE MOUVEMENT BROWNIEN
Le botaniste Robert Brown observe en 1828 le mouvement irr´egulier de particules de pollen en suspension
dans l’eau. En 1877, Delsaux explique les changements incessants de direction de trajectoire par les
chocs entre les particules de pollen et les mol´ecules d’eau. Un mouvement de ce type est qualifi´e de
“mouvement au hasard”.
En 1900, Bachelier, en vue d’´etudier les cours de la Bourse met en ´evidence le caract`ere “markovien”
du mouvement Brownien : la position d’une particule `a l’instant t + s d´epend de sa position en t, et
ne d´epend pas de sa position avant t. Il convient d’insister sur le caract`ere pr´ecurseur de Bachelier et
le fait que la th´eorie du mouvement Brownien a ´et´e d´evelopp´ee pour la Bourse, avant de l’ˆetre pour la
Physique.
En 1905, Einstein d´etermine la densit´e de transition du mouvement Brownien par l’interm´ediaire de
l’´equation de la chaleur et relie ainsi le mouvement Brownien et les ´equations aux d´eriv´ees partielles de
type parabolique. La mˆeme ann´ee, Smoluchowski d´ecrit le mouvement Brownien comme une limite de
promenades al´eatoires.
La premi`ere ´etude math´ematique rigoureuse est faite par N. Wiener (1923) qui exhibe ´egalement
une d´emonstration de l’existence du Brownien. P. L´evy (1948) s’int´eresse aux propri´et´es fines des
trajectoires du Brownien. Depuis, le mouvement Brownien continue de passionner les probabilistes,
aussi bien pour l’´etude de ses trajectoires que pour la th´eorie de l’int´egration stochastique (Wiener, Itˆo,
Watanabe, Meyer, Yor, LeGall, Salminen, Durrett, Chung, Williams, Knight, Pitman,...).
2.1 Le mouvement Brownien
On se donne un espace (Ω, T, P) et un processus (B
t
, t ≥ 0) sur cet espace.
2.1.1 D´efinition.
Le processus (B
t
, t ≥ 0) est un mouvement Brownien (standard) si
a) P(B
0
= 0) = 1 (le mouvement Brownien est issu de l’origine).
b) ∀s ≤ t, B
t
−B
s
est une variable r´eelle de loi gaussienne, centr´ee de variance (t −s).
c) ∀n, ∀t
i
, 0 ≤ t
0
≤ t
1
. . . ≤ t
n
, les variables (B
t
n
−B
t
n−1
, . . . , B
t
1
−B
t
0
, B
t
0
) sont ind´ependantes.
La propri´et´e b) est la stationarit´e des accroissements du mouvement Brownien, la propri´et´e c) traduit
que le mouvement Brownien est `a accroissements ind´ependants. On peut aussi ´ecrire c) sous la forme
´equivalente suivante:
c’) Soit s ≤ t. La variable B
t
−B
s
est ind´ependante de la tribu du pass´e avant s, soit σ(B
u
, u ≤ s).
Nous ne d´emontrons pas l’existence du mouvement Brownien (MB dans la suite). On pourra consulter
l’ouvrage de Karatzas et Shreve (1988). On le construit sur “l’espace canonique ” Ω = ((IR
+
, IR) des
fonctions continues de IR
+
dans IR par B
t
(ω) = ω(t) et on munit cet espace d’une mesure (mesure de
Wiener) telle que B soit un MB.
23
24 Le mouvement Brownien
La filtration naturelle est T
t
= σ¦B
s
, s ≤ t¦. On lui ajoute de fa¸con implicite les n´egligeables. On
peut montrer qu’elle v´erifie alors les conditions habituelles.
On s’autorisera `a noter B(t
i
) au lieu de B
t
i
la valeur de la trajectoire en t
i
pour des raisons de lisibilit´e.
2.1.2 G´en´eralisation.
Le processus X
t
= a + B
t
est un Brownien issu de a. On dit que X est un Brownien g´en´eralis´e ou un
MB de drift µ si X
t
= x +µt +σB
t
o` u B est un mouvement Brownien. La variable X
t
est une variable
gaussienne d’esp´erance x +µt et de variance σ
2
t.
Les v.a. (X
t
i+1
−X
t
i
, t
0
≤ t
1
. . . ≤ t
n
) sont ind´ependantes.
2.2 Promenade al´eatoire
On peut montrer que le mouvement Brownien s’obtient comme limite de promenades al´eatoires renor-
malis´ees. Cette propri´et´e est exploit´ee pour des simulations.
Soit, sur un espace de probabilit´e (Ω, T, {) une famille de variables al´eatoires de Bernoulli ind´ependan-
tes ´equidistribu´ees
P(X
i
= 1) = P(X
i
= −1) =
1
2
, i ∈ IN

.
On associe `a cette famille la suite (S
n
, n ≥ 0) d´efinie par
S
0
= 0, S
n
=
n
¸
i=1
X
i
On dit que la suite S
n
est une promenade
1
al´eatoire. (Jeu de pile ou face).
On a E(S
n
) = 0, Var (S
n
) = n.
-
6
O
1 2

S
1
S
2
d
d
d
d
d
d
d
d

d
d
d

n
S
n
@
@
@
Promenade al´eatoire
Remarquons que la suite (S
m
−S
n
, m ≥ n) est ind´ependante de (S
0
, S
1
, . . . , S
n
) et que S
m
−S
n
a
1
“Charmante promenade, n’est-ce-pas?” Le professeur Tournesol. Tintin et les Picaros. 1964.
July 8, 2006 25
mˆeme loi que S
m−n
.
On proc`ede alors `a une double renormalisation. Soit N fix´e
* on ram`ene l’intervalle de temps [0, N] `a [0, 1]
* on change l’´echelle des valeurs prises par S
n
.
Plus pr´ecis´ement, on d´efinit une famille de variables al´eatoires index´ees par les r´eels de la forme
k
N
,
k ∈ IN, par
U k
N
=
1

N
S
k
.
On a
E

U k
N

= 0 et Var

U k
N

=
k
N
.
Les propri´et´es d’ind´ependance et de stationarit´e de la promenade al´eatoire restent v´erifi´ees, soit
• si k ≥ k

, U k
N
−Uk

N
est ind´ependante de (U
p
N
; p ≤ k

)
• si k ≥ k

, U k
N
−Uk

N
a mˆeme loi que Uk−k

N
.
On d´efinit un processus `a temps continu (U
t
, t ≥ 0) `a partir de U k
N
en imposant `a la fonction
t → U
t
d’ˆetre affine entre
k
N
et
k+1
N
. Pour cela, N ´etant fix´e, on remarque que pour tout t ∈ IR
+
il
existe k(t) ∈ IN unique tel que
k(t)
N
≤ t <
k(t)+1
N
et on pose
U
N
t
= U k
N
+N

t −
k
N

Uk+1
N
−U k
N
)
o` u k = k(t).
Pour t = 1 on a U
N
1
=
1

N
S
N
. Le th´eor`eme central-limite implique alors que U
N
1
converge en loi
vers une variable al´eatoire gaussienne centr´ee r´eduite.
On montre alors que le processus U
N
converge (au sens de la convergence en loi) vers un mouvement
Brownien B.
En particulier U
N
t
L
→ B
t
et (U
N
t
1
, . . . , U
N
t
k
)
L
→ (B
t
1
, . . . , B
t
k
) pour tout k-uple (t
1
, . . . , t
k
).
2.3 Propri´et´es
Dans ce qui suit, B = (B
t
, t ≥ 0) est un mouvement Brownien et T
t
= σ¦B
s
, s ≤ t¦ est sa filtration
naturelle.
2.3.1 Processus gaussien
Proposition 2.3.1 Le processus B est un processus gaussien, sa loi est caract´eris´ee par son esp´erance
nulle et sa covariance Cov(B
t
, B
s
) = s ∧ t.
D´ emonstration: Le caract`ere gaussien r´esulte de
¸
n
i=0
a
i
B
t
i
=
¸
n
i=0
b
i
(B
t
i+1
− B
t
i
) avec a
i
= b
i

b
i+1
, i ≤ n −1 , a
n
= b
n
. La covariance est ´egale `a E(B
t
B
s
) car le processus est centr´e. Si s ≤ t,
E(B
t
B
s
) = E((B
t
−B
s
)B
s
+B
2
s
) = E(B
t
−B
s
)E(B
s
) +E(B
2
s
) = s
´ On peut g´en´eraliser: Le processus (X
t
= x +µt +σB
t
, t ≥ 0) est un processus gaussien d’esp´erance
x +µt et de covariance E[(X
t
−E(X
t
)) (X
s
−E(X
s
))] = σ
2
(s ∧ t).
2.3.2 Une notation
Il nous arrivera de noter E
x
(f(B
s
)) l’esp´erance de f(B
s
) quand B est un Brownien issu de x, sans
toujours faire cette pr´ecision. Cette quantit´e est ´egale `a E(f(x +B
s
)) o` u B est un Brownien issu de 0
. De la mˆeme fa¸con, nous utiliserons la notation P
x
(B
s
∈ A) pour P(x +B
s
∈ A) et P
x
(B
s
∈ da) pour
la densit´e de la v.a. B
s
o` u B est un Brownien partant de x.
26 Le mouvement Brownien
2.3.3 Scaling
Proposition 2.3.2 Si (B
t
, t ≥ 0) est un mouvement Brownien, alors
i) le processus
ˆ
B d´efini par
ˆ
B
t
= −B
t
est un mouvement Brownien.
ii) le processus
˜
B d´efini par
˜
B
t
=
1
c
B
c
2
t
est un mouvement Brownien. (Propri´et´e de scaling)
iii) le processus
¯
B d´efini par
¯
B
t
= tB1
t
, ∀t > 0 ,
¯
B
0
= 0 est un mouvement Brownien.
D´ emonstration: Il suffit de v´erifier le caract`ere Gaussien de ces processus et d’en calculer esp´erance
et covariance. ´
2.3.4 Propri´et´e de Markov
La propri´et´e de Markov du mouvement Brownien est utilis´ee sous la forme (un peu plus forte que
la propri´et´e de Markov) : pour tout s, le processus (W
t
, t ≥ 0) d´efini par W
t
def
= B
t+s
− B
s
est un
mouvement Brownien ind´ependant de T
s
.
Th´eor`eme 2.3.1 Pour f bor´elienne born´ee, E(f(B
u
) [T
t
) = E(f(B
u
) [σ(B
t
) ) pour u > t.
D´ emonstration: On fait apparaitre les accroissements et on utilise les propri´et´es de l’esp´erance con-
ditionnelle :
E(f(B
u
) [T
t
) = E(f(B
u
−B
t
+B
t
) [T
t
) = Φ(u −t, B
t
)
avec Φ(u − t, x) = E(f(B
u
− B
t
+ x)) = E(f(Y + x)) o` u Y a mˆeme loi que B
u
− B
t
, soit une loi
^(0, u −t). Par les mˆemes arguments, E(f(B
u
) [σ(B
t
) ) = Φ(u −t, B
t
). On a tr`es pr´ecisement
Φ(s, x) =
1

2πs

IR
f(y) exp −
(y −x)
2
2s
dy
´
Une autre fa¸con de d´ecrire cette propri´et´e est de dire que, pour u > t, conditionnellement `a B
t
, la
v.a. B
u
est de loi gaussienne d’esp´erance B
t
et de variance u −t. Alors
E(11
B
u
≤x
[T
t
) = E(11
B
u
≤x
[σ(B
t
) ) = E(11
B
u
≤x
[B
t
)
pour t ≤ u.
Proposition 2.3.3 Propri´et´e de Markov forte:
Soit T un temps d’arrˆet `a valeurs finies. On a alors E(f(B
T+s
) [T
T
) = E(f(B
T+s
) [σ(B
T
) ). En
particulier, pour tout temps d’arrˆet fini T, le processus (W
t
, t ≥ 0) d´efini par W
t
def
= B
t+T
−B
T
est un
mouvement Brownien ind´ependant de T
T
.
2.3.5 Equation de la chaleur
Soit g(t, x) la densit´e gaussienne centr´ee de variance t. On note
q(t, x, y) =
1

2πt
exp −
(y −x)
2
2t
= g(t, x −y)
la densit´e de transition du mouvement Brownien. C’est de fa¸con heuristique, la probabilit´e pour que
le mouvement Brownien soit en y sachant que t instants auparavant, il se trouvait en x, c’est aussi la
densit´e conditionnelle
P(B
t+s
∈ dy[B
s
= x) = q(t, x, y) dy
La densit´e de transition q v´erifie l’´equation “forward”
∂q
∂t
(t, x, y) =
1
2

2
q
∂y
2
(t, x, y)
et l’´equation “backward”
∂q
∂t
(t, x, y) =
1
2

2
q
∂x
2
(t, x, y) .
July 8, 2006 27
En utilisant cette notation et la stationarit´e des accroissements du MB, on obtient que pour toute
fonction f bor´elienne born´ee
E(f(B
T
)[B
t
= x) =


−∞
f(y) q(T −t, x, y) dy .
Si l’on note u(t, x; f) la fonction
u(t, x; f) =


−∞
f(y)q(t, x, y) dy = E(f(B
t
+x)) (2.1)
= E(f(B
t+s
)[B
s
= x) =


−∞
f(x +y)g(t, y)dy (2.2)
cette fonction v´erifie (utiliser (2.1), l’´equation backward et le th´eor`eme de d´erivation sous le signe
int´egral)

u(0, x; f) = f(x)

∂u
∂t
+
1
2

2
u
∂x
2
= 0
(2.3)
Pour calculer E(f(B
T
)), il suffit de r´esoudre l’´equation aux d´eriv´ees partielles (2.3) et de remarquer
que E(f(B
T
)) = u(T, 0; f).
On peut ´ecrire, en utilisant E(f(B
t
+x)) = u(t, x; f)
E(f(B
T
+x)) −f(x) = u(T, x; f) −u(0, x; f) =

T
0
∂u
∂t
(s, x; f) ds =
1
2

T
0

2
u
∂x
2
(s, x; f) ds .
En remarquant que (utiliser (2.2) et le th´eor`eme de d´erivation sous le signe int´egral)

2
u
∂x
2
(t, x; f) =


−∞
f

(x +y)g(t, y)dy = u(t, x; f

) = E(f

(B
t
+x)) , (2.4)
on obtient
E(f(B
T
+x)) = f(x) +
1
2

T
0
E(f

(B
s
+x)) ds .
Cette formule sera g´en´eralis´ee dans le prochain chapitre en utilisant le lemme d’Itˆo.
La fonction v(t, x; f) = u(T −t, x; f) est solution de

v(T, x) = f(x)
∂v
∂t
+
1
2

2
v
∂x
2
= 0
(2.5)
et v´erifie v(0, x; f) = E(f(B
T
+x)).
Proposition 2.3.4 Si f est une fonction de classe C
1
b
en temps et C
2
b
en espace,
E(f(t, x +B
t
)) = f(0, x) +

t
0
E[
1
2
f

xx
(s, x +B
s
) +f

t
(s, x +B
s
)] ds
D´ emonstration: Soit u(t, x; f) = E(f(t, x + B
t
)). Il est facile de v´erifier, en utilisant (2.3) et (2.4)
que
du
dt
(t, x; f) = u(t, x; ∂
t
f) +
1
2
u(t, x; ∂
xx
f)
En effet, on ´ecrit u(t, x; f) = F(t, t, x; f) avec F(s, t, x; f) = E(f(s, x + B
t
)). Il reste `a utiliser le
th´eor`eme de d´erivation des fonctions compos´ees:
du
dt
(t, x; f) =
∂F
∂s
(t, t, x; f) +
∂F
∂t
(t, t, x; f) = E(
∂f
∂t
(s, x +B
t
)) +
1
2
u(t, x; ∂
xx
f)
En int´egrant par rapport `a t
u(t, x; f) −u(0, x; f) =

t
0
E[f
t
(s, x +B
s
) +
1
2

xx
f(s, x +B
s
)] ds
28 Le mouvement Brownien
´
On peut g´en´eraliser ce r´esultat au processus X d´efini par X
t
= x+µt +σB
t
. La fonction u(t, x; f) =
E(f(t, x +µt +σB
t
)) v´erifie
du
dt
(t, x; f) =
1
2
σ
2
u(t, x; ∂
xx
f) +µu(t, x; ∂
x
f) +u(t, x; ∂
t
f)
et u(0, x; f) = f(x). On d´efinit L le g´en´erateur du processus par l’op´erateur
L(f) =
1
2
σ
2

xx
f +µ∂
x
f
Proposition 2.3.5 Si f est une fonction de classe C
1
b
en temps et C
2
b
en espace,
E(f(t, x +µt +σB
t
)) = f(0, x) +

t
0
E[Lf(s, x +µs +σB
s
) +∂
t
f(s, x +µs +σB
s
)] ds
Th´eor`eme 2.3.2 Si u est telle que Lu = 0 alors u(t, B
t
) est une martingale.
D´ emonstration: Les accroissements du Brownien sont ind´ependants.
E(u(t, B
t
)[T
s
) = E(u(s +t −s, x +B
t−s
)[
x=B
s
= E(u
s,x
(t −s, B
t−s
))[
x=B
s
avec u
s,x
(t, y) = u(s +t, x +y). On a alors
E(u
s,x
(t −s, B
t−s
)) = u
s,x
(0, 0) +

t
0
Lu
s,x
(w, B
w
)dw
Par hypoth`ese, L(u) = 0 donc Lu
s,x
= 0. Il en r´esulte
E(u(t, B
t
)[T
s
) = u
s,x
(0, 0)[
x=B
s
= u(s, B
s
)
et le th´eor`eme est ´etabli. Nous verrons ce r´esultat important dans un contexte plus g´en´eral en application
du lemme d’Itˆo. ´
2.3.6 Trajectoires
Nous admettons les r´esultats suivants:
Les trajectoires du mouvement Brownien sont continues.
Les trajectoires du mouvement Brownien sont p.s. “nulle part diff´erentiables”.
Th´eor`eme 2.3.3 Soit n fix´e et t
j
=
j
2
n
t pour j variant de 0 `a 2
n
. Alors
¸
2
n
j=1
[B(t
j
) −B(t
j−1
)]
2
→ t
quand n → ∞, la convergence ayant lieu en moyenne quadratique et p.s..
D´ emonstration: Soit Z
n
t
=
¸
2
n
j=1
[B(t
j
)−B(t
j−1
)]
2
. Pour ´etabluir la convergence en moyenne quadra-
tique, on doit montrer que E((Z
n
t
− t)
2
) → 0, soit, puisque E(Z
n
t
) = t, Var(Z
n
t
) → 0 ce qui se d´eduit
de
Var(Z
n
t
) =
2
n
¸
j=1
Var[B(t
j
) −B(t
j−1
)]
2
=
2
n
¸
j=1
2

t
2
n

2
= 2
n+1
t
2
2
2n
(Nous avons utilis´e que si X est de loi ^(0, σ
2
), la variance de X
2
est 2σ
4
). On en d´eduit que
E(
¸

n=1
(Z
n
t
− t)
2
) =
¸

n=1
t
2
n
< ∞. D’o` u
¸

n=1
(Z
n
t
− t)
2
< ∞ et le terme g´en´eral de la s´erie
converge p.s. vers 0. ´
Proposition 2.3.6 Soit σ une subdivision de l’intervalle [0, t] caract´eris´ee par 0 = t
0
≤ t
1
. . . ≤ t
n
= t.
Soit V
t
la variation de la trajectoire du Brownien sur [0, t] d´efinie par V
t
(ω) = sup
σ
¸
i
[B
t
i+1
(ω) −
B
t
i
(ω)[. Alors V
t
(ω) = ∞ p.s.
D´ emonstration: sup
σ
¸
i
[B
t
i+1
− B
t
i
[ ≥ sup
n
¸
2
n
k=0
[Y
k
[ avec Y
k
= B
t

k+1
− B
t

k
o` u les points sont
choisis comme pr´ec´edemment: t

k
=
k
2
n
t. On peut majorer Z
n
t
:
Z
n
t
≤ (sup
k
[B
t

k+1
−B
t

k
[)
2
n
¸
k=0
[Y
k
[ .
Quand n → ∞, le terme sup [B
t
k+1
−B
t
k
[ tend p.s. vers 0, par continuit´e uniforme des trajectoires sur
[0, t]. Le terme
¸
2
n
k=0
[Y
k
[ est croissant en n et ne peut avoir de limite finie sans que Z
n
t
ne converge
vers 0, ce qui n’est pas le cas. ´
July 8, 2006 29
2.3.7 Propri´et´es de martingale
a. Cas du Brownien
Proposition 2.3.7 Le processus B est une martingale. Le processus (B
2
t
−t, t ≥ 0) est une martingale.
R´eciproquement, si X est un processus continu tel que X et (X
2
t
−t, t ≥ 0) sont des martingales, X est
un mouvement Brownien.
D´ emonstration: Nous ne d´emontrons que la partie directe. La r´eciproque est plus difficile `a ´etablir
(Voir Revuz-Yor) mais tr`es utile.
L’id´ee est d’utiliser l’ind´ependance des accroissements pour calculer les esp´erances conditionnelles, et
d’utiliser la propri´et´e E(X[() = E(X) quand X et ( sont ind´ependantes. Soit s ≤ t.
E(B
t
[T
s
) = E(B
t
−B
s
[T
s
) +E(B
s
[T
s
) = 0 +B
s
De mˆeme E((B
t
−B
s
)
2
[T
s
) = t −s et
E((B
t
−B
s
)
2
[T
s
) = E(B
2
t
+B
2
s
−2B
t
B
s
[T
s
) = E(B
2
t
[T
s
) +B
2
s
−2B
s
E(B
t
[T
s
) = E(B
2
t
[T
s
) −B
2
s
On obtient alors
E(B
2
t
−t[T
s
) = B
2
s
−s .
´
Proposition 2.3.8 Soit B
1
et B
2
deux MB ind´ependants. Le produit B
1
B
2
est une martingale.
D´ emonstration: On peut le faire en utilisant le lemme suivant : Soit T et ( deux tribus, X et Y deux
v.a. telles que X∨T et ( sont ind´ependantes ainsi que Y ∨( et T. Alors E(XY [T∨() = E(X[T)E(Y [().
Une autre m´ethode est d’utiliser que
1

2
(B
1
+B
2
) est un processus gaussien de covariance t ∧ s, donc
un mouvement Brownien et par suite
1
2
(B
1
(t) +B
2
(t))
2
−t est une martingale. Comme
1
2
(B
1
(t) +B
2
(t))
2
−t =
1
2
(B
2
1
(t) −t) +
1
2
(B
2
2
(t) −t) +B
1
(t)B
2
(t) ,
le r´esultat suit. ´
D´efinition 2.3.1 On dit que B est un ((
t
)-mouvement Brownien si B et (B
2
t
− t, t ≥ 0) sont des
((
t
)-martingales.
Les propri´et´es donn´ees dans la d´efinition 2.1.1. sont v´erifi´ees. Si B est un ((
t
)-mouvement Brownien,
c’est bien sˆ ur un MB pour sa propre filtration.
Proposition 2.3.9 Pour tout λ r´eel, le processus
(exp(λB
t

1
2
λ
2
t), t ≥ 0)
est une martingale.
R´eciproquement, si X est un processus continu tel que (exp(λX
t

1
2
λ
2
t), t ≥ 0) est une martingale,
pour tout λ r´eel, le processus X est un brownien.
D´ emonstration: Par ind´ependance
E(exp¦λ(B
t
−B
s
) −
1
2
λ
2
(t −s)¦[T
s
) = E(exp¦λ(B
t
−B
s
) −
1
2
λ
2
(t −s)¦)
L’esp´erance du second membre se calcule comme une transform´ee de Laplace d’une variable gaussienne.
On trouve
E(exp¦λ(B
t
−B
s
) −
1
2
λ
2
(t −s)¦) = 1
et
E(exp¦λB
t

1
2
λ
2
t¦[T
s
) = exp¦λB
s

1
2
λ
2

La r´eciproque, facile, utilise la caract´erisation des v.a. gaussiennes au moyen de leur transform´ee de
Laplace. ´
30 Le mouvement Brownien
b. G´en´eralisation
Proposition 2.3.10 Soit (Ω, T, T
t
, P) et B un (T
t
)-brownien sur cet espace. Si X
t
= µt +σB
t
, alors,
pour tout β r´eel, (exp(βX
t
−(µβ +
1
2
σ
2
β
2
) t), t ≥ 0) est une (T
t
)-martingale.
R´eciproquement, si X est un processus continu tel que (exp (βX
t
− (µβ +
1
2
σ
2
β
2
) t), t ≥ 0) est une T
t
-martingale, il existe un T
t
-brownien B tel que X
t
= µt +σB
t
.
D´ emonstration: Nous savons que (exp(λB
t

1
2
λ
2
t), t ≥ 0) est une martingale. il reste `a utiliser
que B
t
=
1
σ
(X
t
−µt) et de poser λ = βσ. ´
2.3.8 Temps d’atteinte
a. Cas du Brownien
Proposition 2.3.11 Soit (B
t
, t ≥ 0) un mouvement Brownien et a un nombre r´eel. Soit
T
a
= inf¦t ≥ 0; B
t
= a¦ .
Alors T
a
est un temps d’arrˆet fini p.s. tel que E(T
a
) = ∞ et pour λ ≥ 0
E(exp −λT
a
) = exp(−[a[

2λ) . (2.6)
D´ emonstration: La v.a. T
a
est un temps d’arrˆet. En effet, pour a > 0, on a
T
a
= inf¦t ≥ 0; B
t
≥ a¦
On en d´eduit
¦T
a
≤ t¦ = ¦sup
s≤t
B
s
≥ a¦ = ¦∀ ∃s ∈ I Q : B
s
> a −¦
=


∈I Q
+ ∪
s≤t, s∈I Q
¦B
s
> a −¦

.
La pr´esence de I Q est indispensable pour garder la d´enombrabilit´e. L’´egalit´e pr´ec´edente montre que
¦T
a
≤ t¦ est obtenu `a partir d’op´erations d´enombrables d’union et d’intersection d’´el´ements de T
t
,
donc appartient `a cette tribu.
Pour calculer la transform´ee de Laplace de la loi de T
a
, soit E(e
−λT
a
), on utilise que t ∧ T
a
est un
temps d’arrˆet born´e (par t) et le th´eor`eme d’arrˆet de Doob:
∀t , E[exp(λB
t∧T
a

λ
2
2
(t ∧ T
a
))] = 1
Lorsque t → ∞, sur l’ensemble o` u T
a
est fini on a B
t∧T
a
→ B
T
a
= a et
exp

λB
t∧T
a

λ
2
2
(t ∧ T
a
)

→ exp(λa −
λ
2
2
T
a
)
Sur l’ensemble o` u T
a
est infini, B
t∧T
a
≤ a et (t ∧ T
a
) = t → ∞, par suite
exp

λB
t∧T
a

λ
2
2
(t ∧ T
a
)

→ 0 .
On obtient, apr`es passage `a la limite, en utilisant le th´eor`eme de Lebesgue domin´e
(on majore exp

λB
t∧T
a

λ
2
2
(t ∧ T
a
)

par e
λa
),
E(11
T
a
<∞
exp(−
λ
2
2
T
a
)) = exp(−aλ) ,
on en d´eduit que T
a
est fini (faire λ = 0) et la transform´ee de Laplace de T
a
. Pour obtenir E(T
a
), on
d´erive par rapport `a λ et on fait λ = 0.
July 8, 2006 31
On pourrait aussi dire que pour a > 0 et λ > 0, la martingale
exp(λB
t∧T
a

λ
2
2
(t ∧ T
a
))
est born´ee (par exp(λa)) donc est uniform´ement int´egrable et on applique le th´eor`eme d’arrˆet avec
t = ∞.
Pour a < 0, on peut remarquer que T
a
= inf¦t ≥ 0; B
t
= a¦ = inf¦t ≥ 0; W
t
= −a¦, avec W = −B.
Il serait faux de conclure que E(exp −λT
a
) = exp(−a

2λ) pour tout a car, pour a < 0 et λ > 0, le
membre de gauche est plus petit que 1 et celui de droite serait plus grand que 1. Il convient donc d’ˆetre
vigilant en appliquant le th´eor`eme de Doob. ´
Par inversion de la transform´ee de Laplace, on obtient la densit´e de T
a
qui est, pour a > 0
P(T
a
∈ dt) =
a

2πt
3
exp


a
2
2t

dt
On verra, plus loin, une autre m´ethode pour obtenir ce r´esultat.
Avec des m´ethodes analogues, on ´etablit les r´esultats suivants. Soit
´
T
a
= inf¦t ≥ 0; [B
t
[ = a¦ avec
a > 0
E(exp −λ
´
T
a
) =

cosh (a

2λ)

−1
. (2.7)
Si a ≤ 0 ≤ b on a P(T
a
< T
b
) =
b
b−a
.
Si c et d sont des r´eels positifs et T = T
c
∧ T
−d
on a
E[exp(−
λ
2
2
T)11
T=T
c
] =
sinh (λd)
sinh (λ(c +d))
E[exp(−
λ
2
2
T)] =
cosh (λ(c −d)/2)
cosh(λ(c +d)/2)
.
b. G´en´eralisation
Si X
t
= µt + B
t
et T
µ
a
= inf¦t ≥ 0; X
t
= a¦ on peut montrer, en utilisant la martingale (exp(βX
t

(µβ +
1
2
σ
2
β
2
) t), t ≥ 0) que pour µ > 0, λ > 0 (on pose λ = (µβ +
1
2
σ
2
β
2
))
E(exp −λT
µ
a
) = exp(µa −[a[

µ
2
+ 2λ). (2.8)
On obtient P(T
a
< ∞) en faisant λ = 0. Cette quantit´e n’est ´egale `a 1 que si µ et a sont de mˆeme
signe.
2.3.9 Brownien multidimensionnel
Soit B
t
= (B
(1)
t
, B
(2)
t
, . . . , B
(n)
t
)
T
un processus n-dimensionnel (l’exposant
T
note la transposition d’un
vecteur). On dit que B est un Brownien multidimensionnel si les processus (B
(i)
, i ≤ n) sont des brown-
iens ind´ependants. C’est un processus `a accroissements ind´ependants. Pour chaque (a, b), le processus
aB
(1)
t
+bB
(2)
t
est un processus gaussien. Il est facile de v´erifier que B
t
def
=
1

a
2
+b
2
(aB
(1)
t
+bB
(2)
t
) est
un MB (C4est un processus Gaussien, calculer son esp´erance et sa covariance).
Si B est un brownien n-dimensionnel, on a E(B
T
t
B
s
) = n(s ∧ t).
Le processus n-dimensionnel B est un mouvement Brownien si et seulement si les processus B
(i)
et
B
(i)
B
(j)
−δ
i,j
t sont des martingales (avec δ
i,j
= 0 pour i = j et δ
i,i
= 1.
D´efinition 2.3.2 Les mouvements Browniens `a valeurs r´eelles B
1
et B
2
sont corr´el´es de coefficient de
corr´elation ρ si B
1
(t)B
2
(t) −ρt est une martingale.
32 Le mouvement Brownien
On “ d´ecorrele” les MB en introduisant le processus B
3
d´efini par B
3
(t) =
1

1 −ρ
2
(B
2
(t) − ρB
1
(t)).
Ce processus est une martingale; en ´ecrivant
(B
3
(t))
2
−t =
1
1 −ρ
2
[(B
2
(t))
2

2
(B
1
(t))
2
−2ρB
2
(t)B
1
(t) −t(1 −ρ
2
)]
=
1
1 −ρ
2
[(B
2
(t))
2
−t +ρ
2
[(B
1
(t))
2
−t] −2ρ[B
2
(t)B
1
(t) −ρt]
on montre que (B
3
(t))
2
− t est une martingale, d’o` u B
3
est un MB. On peut montrer que B
3
est
ind´ependant de B
1
, nous donnerons une d´emonstration plus tard. Il est facile de v´erifier que le produit
B
1
B
3
est une martingale. Dans ce cas, il existe un Brownien B
(3)
, ind´ependant de B
(2)
tel que B
(1)
=
ρB
(2)
+

1 −ρ
2
B
(3)
et, pour tout (a, b) le processus B
t
def
=
1

a
2
+b
2
+ 2ρab
(aB
(1)
+ bB
(2)
) est un
mouvement Brownien.
2.4 Int´egrale de Wiener
2.4.1 D´efinition
On note L
2
(IR
+
) l’ensemble des (classes d’´equivalence des) fonctions bor´eliennes f de IR
+
dans IR de
carr´e int´egrable, c’est-`a-dire telles que

+∞
0
[f(s)[
2
ds < ∞.
C’est un espace de Hilbert pour la norme [[f[[
2
=


0
f
2
(s) ds

1/2
.
a. Fonctions en escalier
Pour f = 11
]u,v]
, on pose

+∞
0
f(s)dB
s
= B(v) −B(u).
Soit f une fonction en escalier, de la forme f(x) =
¸
i=n
i=1
f
i−1
11
]t
i−1
,t
i
]
on pose

+∞
0
f(s)dB
s
=
¸
i=n
i=1
f
i−1
(B(t
i
) −B(t
i−1
)) .
La variable al´eatoire I(f)
def
=

+∞
0
f(s)dB
s
est une variable gaussienne d’esp´erance nulle et de variance

+∞
0
f
2
(s)ds. En effet, I(f) est gaussienne car le processus B est gaussien, centr´ee car B est centr´e.
De plus
Var(I(f)) =
i=n
¸
i=1
f
2
i−1
Var (B(t
i
) −B(t
i−1
)) =
i=n
¸
i=1
f
2
i−1
(t
i
−t
i−1
) =

+∞
0
f
2
(s)ds = |f|
2
.
L’int´egrale est lin´eaire : I(f +g) = I(f) +I(g). Si f et g sont des fonctions en escalier E(I(f) I(g)) =

R
+
f(s) g(s) ds. En effet
Var (I(f +g)) = = Var[I(f) +I(g)] = Var (I(f)) + Var (I(g)) + 2E(I(f)I(g))
=


0
(f +g)
2
(s)ds =


0
f
2
(s)ds +


0
g
2
(s)ds + 2


0
f(s)g(s)ds
b. Cas g´en´eral
On montre en analyse que, si f ∈ L
2
(IR
+
), il existe une suite f
n
de fonctions en escalier qui converge
(dans L
2
(IR
+
)) vers f, c’est-`a-dire qui v´erifie


0
[f
n
−f[
2
(x) dx →
n→∞
0.
Dans ce cas, la suite f
n
est de Cauchy dans L
2
(IR
+
). La suite de v.a. F
n
=


0
f
n
(s) dB
s
est une suite
de Cauchy dans l’espace de Hilbert L
2
(Ω) (en effet [[F
n
− F
m
[[
2
= [[f
n
− f
m
[[
2

n,m→∞
0), donc elle
July 8, 2006 33
est convergente. Il reste `a v´erifier que la limite ne d´epend que de f et non de la suite f
n
choisie (Voir
les d´etails dans Revuz-Yor). On pose
I(f)
def
=


0
f(s) dB
s
= lim
n→∞


0
f
n
(s) dB
s
la limite ´etant prise dans L
2
(Ω).
On dit que I(f) est l’int´egrale stochastique (ou int´egrale de Wiener) de f par rapport `a B.
Le sous-espace de L
2
(Ω) form´e par les v.a.


0
f(s)dB
s
co¨ıncide avec l’espace gaussien engendr´e par le
mouvement Brownien.
2.4.2 Propri´et´es
L’application f → I(f) est lin´eaire et isom´etrique de L
2
(IR
+
) dans L
2
(Ω): la lin´earit´e signifie que
I(f + g) = I(f) + I(g) et l’isom´etrie que la norme de I(f) est ´egale `a la norme de f. La norme de
I(f) est la norme L
2
(Ω) d´efinie par [[I(f)[[
2
= E( (I(f))
2
), la norme de f est la norme L
2
(IR
+
), soit
[[f[[
2
=


0
f
2
(s)ds .
La propri´et´e d’isom´etrie implique E (I(f) I(g)) =

IR
+
f(s)g(s) ds.
Soit f ∈ L
2
(IR
+
). La variable I(f) est une v.a. gaussienne centr´ee de variance

IR
+
f
2
(s)ds appartenant
`a l’espace gaussien engendr´e par (B
t
, t ≥ 0) et elle v´erifie pour tout t
E

B
t

IR
+
f(s)dB
s

=

t
0
f(s)ds . (2.9)
D´ emonstration: Il suffit de remarquer que E

B(t)

IR
+
f(s)dB
s

= E

t
0
dB
s

IR
+
f(s)dB
s

. ´
La propri´et´e (2.9) est en fait une caract´erisation de l’int´egrale stochastique au sens o` u si pour tout
t, E(ZB
t
) =

t
0
f(s)ds, alors Z =


0
f(s)dB
s
.
2.4.3 Processus li´e `a l’int´egrale stochastique
On d´efinit pour f ∈ L
2
(IR
+
) la variable al´eatoire

t
0
f(s)dB
s
=

+∞
0
11
[0,t]
(s)f(s)dB
s
.
On peut de la mˆeme fa¸con d´efinir

t
0
f(s)dB
s
pour f telle que

T
0
[f(s)[
2
ds < ∞, ∀T, ce qui permet de
d´efinir l’int´egrale stochastique pour une classe plus grande de fonctions. On notera L
2
loc
cette classe de
fonctions.
Th´eor`eme 2.4.1 Soit f ∈ L
2
loc
et M
t
=

t
0
f(s)dB
s
.
a) Le processus M est une martingale continue, la v.a. M
t
est d’esp´erance 0 et de variance

t
0
f
2
(s) ds.
b) Le processus M est un processus gaussien centr´e de covariance

t∧s
0
f
2
(u) du `a accroissements
ind´ependants.
c) Le processus (M
2
t

t
0
f
2
(s) ds , t ≥ 0) est une martingale.
d) Si f et g sont dans L
2
loc
, on a E(

t
0
f(u)dB
u

s
0
g(u)dB
u
) =

t∧s
0
f(u)g(u)du.
D´ emonstration: On commence par le cas o` u la fonction f est ´etag´ee et on passe `a la limite. Pour
v´erifier que M est une martingale, pour f =
¸
i=n
i=1
f
i−1
11
]t
i−1
,t
i
]
, on montre que
0 = E(M
t
−M
s
[T
s
) = E(

t
s
f(u)dB
u
[T
s
) (2.10)
Supposons que t
i
< s < t ≤ t
i+1
. Dans ce cas E(

t
s
f(u)dB
u
[T
s
) = f
i
E((B
t
− B
s
)[T
s
) et (2.10) est
34 Le mouvement Brownien
v´erifi´ee.
Supposons que t
i
< s ≤ t
i+1
≤ t
j
< t ≤ t
j+1
. Dans ce cas
E(

t
s
f(u)dB
u
[T
s
) = E(f
j
(B
t
−B
t
j
) +
j−1
¸
k=i+1
f
k
(B
t
k+1
−B
t
k
) +f
i
(B
t
i+1
−B
s
)[T
s
)
= f
j
E(B
t
−B
t
j
[T
s
) +
j−1
¸
k=i+1
f
k
E(B
t
k+1
−B
t
k
[T
s
) +f
i
E(B
t
i+1
−B
s
[T
s
) = 0
Les autres cas sont analogues. En particulier
E(M
2
t
−M
2
s
[T
s
) = E((M
t
−M
s
)
2
[T
s
) = E

t
s
f(u)dB
u

2
[T
s

= E(
¸
f(t
k
)(B
t
k+1
∧t
−B
t
k
∧t
)
2
[T
s
) =
¸
f
2
(t
k
)((t
k+1
∧ t) −(t
k
∧ t))
´
2.4.4 Int´egration par parties
Th´eor`eme 2.4.2 Si f est une fonction de classe C
1
,

t
0
f(s) dB
s
= f(t)B(t) −

t
0
f

(s)B
s
ds.
D´ emonstration: Il suffit, d’apr`es (2.9), de v´erifier que pour tout u, E[B
u

t
0
f(s) dB
s
] = E(B
u
[f(t)B
t

t
0
f

(s)B
s
ds]). Le premier membre vaut

t∧u
0
f(s)ds, on calcule le second au moyen des deux ´egalit´es
E(B
u
f(t)B
t
) = f(t)(t∧u), E(B
u

t
0
f

(s)B
s
ds) =

t
0
f

(s)(s∧u)ds. L’´egalit´e r´esulte alors de l’application
de la formule d’int´egration par parties classique pour calculer des expressions du type

b
0
sf

(s)ds. ´
On peut aussi ´ecrire cette formule
d(B
t
f(t)) = f(t)dB
t
+B
t
f

(t)dt .
2.5 Exemples
2.5.1 Le brownien g´eom´etrique
D´efinition 2.5.1 Soit B un mouvement Bownien, b et σ deux constantes. Le processus
X
t
= X
0
exp¦(b −
1
2
σ
2
)t +σB
t
¦
est appell´e Brownien g´eom´etrique.
Ce processus est aussi appell´e processus“log-normal”. En effet, dans ce cas
lnX
t
=

b −
1
2
σ
2

t +σB
t
+ ln x
et la variable qui est `a droite suit une loi normale. On a imm´ediatement
Proposition 2.5.1 Le processus X
t
e
−bt
est une martingale.
En ´ecrivant
X
t
= X
s
exp¦(b −
1
2
σ
2
)(t −s) +σ(B
t
−B
s

July 8, 2006 35
on ´etablit que X est Markovien. Le caract`ere Markovien de X et les propri´et´es du MB permettent de
calculer les esp´erances conditionnelles:
E(X
t
[T
s
) = X
s
E(exp¦(b −
1
2
σ
2
)(t −s) +σ(B
t
−B
s
)¦[T
s
)
= X
s
exp(b(t −s))E(exp¦(−
1
2
σ
2
)(t −s) +σ(B
t
−B
s
)¦[T
s
)
= X
s
exp(b(t −s))E(exp¦(−
1
2
σ
2
)(t −s) +σB
t−s
¦)
= X
s
e
b(t−s)
= E(X
t
[X
s
)
o` u nous avons utilis´e la propri´et´e de martingale de l’exponentielle du MB. Remarquons que nous avons
utilis´e que X
t
loi
= X
s
˜
X
t−s
avec
˜
X
t−s
ind´ependant de X
t
et de mˆeme loi que X
t−s
.
De la mˆeme fa¸con, en notant G une v.a. de loi ^(0, 1)
E(f(X
t
)[T
s
) = E(f(X
t
)[X
s
) = E(f(xexp¦(b −
1
2
σ
2
)(t −s) +σ(B
t
−B
s
)¦)
x=X
s
= E(f(xexp¦(b −
1
2
σ
2
)(t −s) +σG

t −s¦)
x=X
s
=


−∞
f(X
s
exp¦(b −
1
2
σ
2
)(t −s) +σy

t −s¦)q(1, 0, y)dy .
Ce processus est tr`es souvent utilis´e pour mod´eliser le prix d’un actif financier. Le rendement de
l’actif entre deux dates est mesur´e par la diff´erence des logarithmes des cours et est donn´e par la variable
gaussienne

b −
1
2
σ
2

(t −s) +σ(B
t
−B
s
) .
Il est facile de calculer les moments d’un Brownien g´eom´etrique; par exemple E(X
t
) = X
0
e
bt
(Utiliser,
par exemple, la propri´et´e de martingale) . Pour calculer le moment d’ordre 2, il suffit de faire les
transformations ´evidentes suivantes
E(X
2
t
) = X
2
0
E(exp¦(2b −σ
2
)t + 2σB
t
¦) = X
2
0
E(exp¦(2b +σ
2
)t −
1
2
(2σ)
2
t + (2σ)B
t
¦)
= X
2
0
exp[(2b +σ
2
)t]
On en d´eduit VarX
t
= x
2
e
2bt
(e
σ
2
t
−1).
Le ratio de Sharpe est
E(X
t
) −x

VarX
t
2.5.2 Processus d’Ornstein-Uhlenbeck
Th´eor`eme 2.5.1 L’´equation de Langevin
V
t
= −

t
0
aV
s
ds +σB
t
+V
0
, (2.11)
a pour unique solution
V
t
= e
−ta
V
0
+

t
0
e
−(t−s)a
σdB
s
. (2.12)
On ´ecrit l’´equation (2.11) sous forme condens´ee
dV
t
+aV
t
dt = σdB
t
, V
0
donn´e
les donn´ees du probl`eme sont la variable al´eatoire V
0
, le Brownien B et les constantes a et σ.
36 Le mouvement Brownien
D´ emonstration: Soit X = (X
t
, t ≥ 0) le processus d´efini par le second membre de (2.12). Nous
allons v´erifier que X est solution de l’´equation (2.11). En utilisant la formule d’int´egration par parties,
on transforme l’int´egrale

t
0
e
−(t−s)a
σdB
s
= σe
−at

t
0
e
sa
dB
s
= σe
−at
[e
at
B
t
−a

t
0
e
sa
B
s
ds)
On en d´eduit que X
t
= e
−ta
V
0
+σB
t
−σe
−at
a

t
0
e
sa
B
s
ds. On s’attache ensuite au calcul de

t
0
X
s
ds =

t
0
e
−sa
V
0
ds +σ

t
0
B
s
ds −aσ

t
0
e
−as

s
0
e
ua
B
u
du

ds
L’int´egrale double qui apparait au second membre est

t
0
due
ua
B
u

t
u
dse
−as
=
1
a

t
0
B
s
ds −e
−at

t
0
e
−as
ds

ce qui conduit `a
a

t
0
X
s
ds = V
0
(1 −e
−at
) +σa

t
0
e
a(s−t)
B
s
ds = −X
t
+σB
t
+V
0
d’o` u X v´erifie (2.11). ´
On peut ´egalement poser Y
t
= e
−at
V
t
et appliquer la formule d’int´egration par parties (sous r´esrve
qu’elle s’applique `a V
t
)
dY
t
= e
−at
dV
t
−ae
−at
V
t
dt = e
−at
σdB
t
dont la solution est Y
t
= Y
0
+

t
0
e
−as
σdB
s
.
Proposition 2.5.2 Si V
0
est une v.a.r. gaussienne ind´ependante du brownien (en particulier si V
0
est
une constante), le processus V , appell´e processus d’Ornstein-Uhlenbeck est gaussien d’esp´erance et de
covariance
E(V
t
) = e
−ta
E(V
0
),
cov[V
s
, V
t
] = e
−sa
ve
−ta
+

s
0
e
−(s−u)a
σ
2
e
−(t−u)a
du, s ≤ t
si v d´esigne la variance de V
0
.
Le processus V est un processus de Markov.
D´ emonstration: En effet, d’apr´es (2.12), E(V
t
) = e
−ta
E(V
0
) car l’esp´erance de l’int´egrale stochastique
est nulle (la fonction e
sa
est de carr´e int´egrable sur tout intervalle fini). Toujours d’apr`es (2.12),
cov[V
s
, V
t
] = cov(V
0
e
−as
+σe
−as

s
0
e
au
dB
u
, V
0
e
−at
+σe
−at

t
0
e
au
dB
u
)
= cov(V
0
e
−as
, V
0
e
−at
) +σ
2
e
−as
e
−at
cov(

s
0
e
au
dB
u
,

t
0
e
au
dB
u
)
= ve
−as
e
−at

2
e
−as
e
−at

s∧t
0
e
2au
du,
Le caract`ere gaussien
2
est facile `a ´etablir.
L’unicit´e se montre en v´erifiant que si V
1
et V
2
sont solutions, V
1
− V
2
est solution d’une ´equation
diff´erentielle d´eterministe. ´
En particulier, si V
0
est une constante (v = 0)
cov[V
s
, V
t
] =
σ
2
2a
e
−a(s+t)
(e
2as
−1)
et Var(V
t
) =
σ
2
2a
(1 −exp −2at).
2
“An interesting study in the laws of probability.” H. Poirot, Sad Cypress, A. Christie.
July 8, 2006 37
En ´ecrivant V
s
= e
−sa
V
0
+

s
0
e
−(s−u)a
σdB
u
et V
s
e
(s−t)a
= e
−ta
V
0
+

s
0
e
−(t−u)a
σdB
u
on en d´eduit,
pour s ≤ t
V
t
= V
s
e
−(t−s)a
+

t
s
e
−(t−u)a
σdB
u
ou encore
V
t+s
= V
s
e
−ta
+

t
0
e
−(t−u)a
σd
¯
B
u
o` u le processus
¯
B d´efini par
¯
B
u
= B
s+u
−B
s
est un MB ind´ependant de T
s
(donc de V
s
).
En particulier E(f(V
t+s
)[T
s
) = E(f(V
s
e
−ta
+Y )[T
s
) = E(f(V
t+s
)[V
s
) (dans cette ´egalit´e Y est une
v.a. ind´ependante de T
s
) ce qui ´etablit le caract`ere markovien de V . Le calcul explicite peut se faire
en utilisant que
E(f(V
(x)
s
e
−ta
+Y )[T
s
) = Ψ(V
(x)
s
)
avec Ψ(y) = E(f(ye
−ta
+ Y )) = E(f(V
(y)
t
)) o` u V
(x)
est la solution de l’´equation de valeur initiale x,
soit V
(x)
t
= e
−ta
x +

t
0
e
−(t−s)a
σdB
s
.
Proposition 2.5.3 La variable al´eatoire

t
0
V
s
ds est une v.a. gaussienne, de moyenne V
0
1−e
−at
a
et de
variance −
σ
2
2a
3
(1 −e
−at
)
2
+
σ
2
a
2
(t −
1 −e
−at
a
).
D´ emonstration: Voir le paragraphe suivant. ´
2.5.3 Mod`ele de Vasicek
Une g´en´eralisation du mod`ele pr´ec´edent est l’´equation
dr
t
= a(b −r
t
)dt +σdB
t
. (2.13)
Sous cette forme, elle est utilis´ee pour ´etudier l’´evolution des taux d’int´erˆet (mod`ele de Vasicek). La
forme explicite de la solution est
r
t
= (r
0
−b)e
−at
+b +σ

t
0
e
−a(t−u)
dB
u
.
(Il suffit de poser r
t
−b = V
t
, le processus V est alors solution de l‘´equation de Langevin. L’´egalit´e
r
t
= (r
s
−b)e
−a(t−s)
+b +σ

t
s
e
−a(t−u)
dB
u
, s ≤ t
´etablit le caract`ere Markovien de r. Si r
0
est une constante, r
t
est une variable gaussienne de moyenne
(r
0
−b)e
−at
+b, et de variance
σ
2
2a
(1 −exp −2at). En particulier, ce n’est pas une variable positive. Le
processus r est gaussien de covariance Cov(r
s
, r
t
) =
σ
2
2a
e
−a(s+t)
(e
2as
−1) pour s ≤ t.
L’expression explicite de (r
t
, t ≥ s) en fonction de r
s
montre que, conditionnellement `a T
s
, la v.a.
r
t+s
est variable gaussienne de moyenne (r
s
− b)e
−at
+ b, et de variance
σ
2
2a
(1 − exp −2at). De mˆeme,
conditionnellement `a T
s
, le processus (r
t+s
, t ≥ 0) est un processus de Vasicek de param`etres (a, b, σ)
et de condition initiale r
s
.
On en d´eduit
Proposition 2.5.4 Pout s < t, l’esp´erance et le variance conditionnelle de r sont
E(r
t
[r
s
) = (r
s
−b)e
−a(t−s)
+b
var
s
(r
t
) =
σ2
2a
(1 −e
−2a(t−s)
)
38 Le mouvement Brownien
Proposition 2.5.5 La variable

t
0
r
s
ds est une variable gaussienne de moyenne
E(

t
0
r
s
ds) = bt + (r
0
−b)
1 −e
−at
a
et de variance −
σ
2
2a
3
(1 −e
−at
)
2
+
σ
2
a
2
(t −
1 −e
−at
a
).
D´ emonstration: Par d´efinition r
t
= r
0
+abt −a

t
0
r
s
ds +σB
t
. D’o` u

t
0
r
s
ds =
1
a
[−r
t
+r
0
+abt +σB
t
] =
1
a
[−(r
0
−b)e
−at
−b −σ

t
0
e
−a(t−u)
dB
u
+r
0
+abt +σB
t
].
Plus g´en´eralement, on a, pour t ≥ s
E(

t
s
r
u
du[T
s
) = b(t −s) + (r
s
−b)
1 −e
−a(t−s)
a
= M(t, s)
Var
s
(

t
s
r
u
du) = −
σ
2
2a
3
(1 −e
−a(t−s)
)
2
+
σ
2
a
2
(t −s −
1 −e
−a(t−s)
a
) = V (t, s)
o` u Var
s
d´esigne la variance conditionnelle par rapport `a T
s
.
La variable

t
s
r
u
du est une variable gaussienne dont on connait, conditionnellement `a T
s
l’esp´erance
et la variance. On en d´eduit
E(exp −

t
s
r
u
du[T
s
) = exp(−M(t, s) +
1
2
V (t, s)) .
Ces calculs sont utiles pour valoriser des z´ero-coupons en finance : si B(t, T) est la valeur d’un ZC
de maturit´e T, on a B(t, T) = E(exp

T
t
r
u
du

[T
t
) et
B(t, T) = exp
¸
b(T −t) + (r
t
−b)
1 −e
−a(T−t)
a

σ
2
4a
3
(1 −e
−a(T−t)
)
2
+
σ
2
2ta
2
(T −t −
1 −e
−a(T−t)
a
)

.
Chapter 3
INT
´
EGRALE STOCHASTIQUE
On se donne un espace (Ω, T, P) et un mouvement Brownien B sur cet espace. On d´esigne par T
t
=
σ(B
s
, s ≤ t) la filtration naturelle du mouvement Brownien.
3.1 D´efinition
On veut g´en´eraliser
1
l’int´egrale de Wiener et d´efinir

t
0
θ
s
dB
s
pour des processus stochastiques θ.
3.1.1 Cas de processus ´etag´es
On dit qu’un processus θ est ´etag´e (ou ´el´ementaire) s’il existe une suite de r´eels t
j
, 0 ≤ t
0
≤ t
1
. . . ≤ t
n
et
une suite de variables al´eatoires θ
j
telles que θ
j
soit T
t
j
-mesurable, appartienne `a L
2
(Ω) et que θ
t
= θ
j
pour tout t ∈]t
j
, t
j+1
], soit θ
s
(ω) =
¸
n−1
j=0
θ
j
(ω)11
]t
j
,t
j+1
]
(s) .
On d´efinit alors


0
θ
s
dB
s
=
n−1
¸
j=0
θ
j
(B(t
j+1
) −B(t
j
)).
On a E(


0
θ
s
dB
s
) = 0 et Var (


0
θ
s
dB
s
) = E[


0
θ
2
s
ds].
On obtient

t
0
θ
s
dB
s
=
n−1
¸
j=0
θ
j
(B(t
j+1
∧ t) −B(t
j
∧ t)).
ce qui ´etablit la continuit´e de l’application t →

t
0
θ
s
dB
s
. Si T
j
, 0 ≤ T
0
≤ T
1
. . . ≤ T
n
est une suite
croissante de temps d’arrˆet, et si θ
s
=
¸
n−1
j=0
θ
j
11
]T
j
,T
j+1
]
(s) o` u θ
j
est une suite de variables al´eatoires
telles que θ
j
soit T
T
j
-mesurable, appartienne `a L
2
(Ω), on d´efinit alors

t
0
θ
s
dB
s
=
n−1
¸
j=0
θ
j
(B(T
j+1
∧ t) −B(T
j
∧ t)).
3.1.2 Cas g´en´eral
On peut prolonger la d´efinition de l’int´egrale de Wiener `a une classe plus grande de processus. On perd
le caract`ere gaussien de l’int´egrale, ce qui est d´eja le cas pour le cas de processus ´etag´e.
On d´efinit les processus c`agl`ad de carr´e int´egrable (appartenant `a L
2
(Ω IR
+
) ) comme l’ensemble Γ
des processus θ adapt´es continus `a gauche limit´es `a droite, (T
t
)-adapt´es tels que
|θ|
2
def
= E[


0
θ
2
t
dt] < ∞.
1
“Je marche vers mon but, je vais mon chemin; je sauterai par dessus les h´esitants.” Ainsi parlait Zarathoustra.
Nietzsche.
39
40 Int´egrale stochastique
Les processus ´etag´es appartiennent `a Γ. On dit que θ
n
converge vers θ dans L
2
(ΩIR
+
) si |θ −θ
n
|
2
→ 0
quand n → ∞.
L’application θ → [[θ[[ d´efinit une norme qui fait de Γ un espace complet.
On peut d´efinir


0
θ
s
dB
s
pour tous les processus θ de Γ: on approche θ par des processus ´etag´es,
soit θ = lim
n→∞
θ
n
o` u θ
n
=
¸
k(n)
j=1
˜
θ
n
j
1
]t
j
,t
j+1
]
, avec
˜
θ
n
j
∈ T
t
j
la limite ´etant au sens de L
2
(Ω IR).
L’int´egrale


0
θ
s
dB
s
est alors la limite dans L
2
(Ω) des sommes
¸
k(n)
j=1
˜
θ
n
j
(B(t
j+1
)−B(t
j
)) dont l’esp´erance
est 0 et la variance E[
¸
j
˜
θ
2
j
(t
j+1
−t
j
)].
On a alors E(


0
θ
s
dB
s
) = 0 et E


0
θ
s
dB
s

2
= E(


0
θ
2
s
ds).
On note

t
0
θ
s
dB
s
def
=


0
θ
s
11
[0,t]
(s) dB
s
. Si θ est ´etag´e

t
0
θ
s
dB
s
=
¸
i
θ
i
(B
t
i+1
∧t
−B
t
i
∧t
).
Plus g´en´eralement, si τ est un temps d’arrˆet, le processus 11
]0,τ]
(t) est adapt´e et on d´efinit

τ∧t
0
θ
s
dB
s
=

t
0
θ
s
11
]0,τ]
(s)dB
s
3.2 Propri´et´es
On note Λ l’ensemble L
2
loc
(Ω IR
+
) des processus θ adapt´es c`agl`ad v´erifiant E(

t
0
θ
2
s
(ω)ds) < ∞, ∀t.
3.2.1 Lin´earit´e.
Soit a et b des constantes et (θ
i
; i = 1, 2) deux processus de Λ. On a

t
0


1
s
+bθ
2
s

dB
s
= a

t
0
θ
1
s
dB
s
+b

t
0
θ
2
s
dB
s
3.2.2 Propri´et´es de martingale
Proposition 3.2.1 Soit
M
t
=

t
0
θ
s
dB
s
o` u θ ∈ Λ.
a)
Le processus M est une martingale
`a trajectoires continues.
b) Soit N
t
=

t
0
θ
s
dB
s

2

t
0
θ
2
s
ds. Le processus (N
t
, t ≥ 0) est une martingale.
D´ emonstration: Toutes ces propri´et´es se d´emontrent pour des processus ´etag´es, puis pour les
processus de Λ par passage `a la limite. ´
La propri´et´e de martingale s’´ecrit
E

t
0
θ
u
dB
u
[T
s

=

s
0
θ
u
dB
u
, ∀t ≥ s,
ou
E

t
s
θ
u
dB
u
[T
s

= 0
et implique en particulier que E(

t
s
θ
u
dB
u
) = 0.
La propri´et´e b) ´equivaut `a E
¸

t
s
θ
u
dB
u

2
[T
s
¸
= E
¸
t
s
θ
2
u
du[T
s

.
July 8, 2006 41
Si l’on veut d´efinir M
t
pour t ≤ T, il suffit de demander que θ ∈ L
2
(Ω[0, T]), c’est `a dire E(

T
0
θ
2
t
dt) <
∞ et que θ soit adapt´e. Sous cette condition, (M
t
, t ≤ T) est encore une martingale.
Corollaire 3.2.1 L’esp´erance de M
t
est nulle et sa variance est ´egale `a

t
0
E ¦θ
s
¦
2
ds.
Soit φ ∈ Λ. E

t
0
θ
s
dB
s

t
0
φ
s
dB
s

= E

t
0
θ
s
φ
s
ds

.
Si M
t
(θ) =

t
0
θ
s
dB
s
et M
t
(ϕ) =

t
0
ϕ
s
dB
s
, le processus
M
t
(θ)M
t
(ϕ) −

t
0
θ
s
ϕ
s
ds
est une martingale.
D´ emonstration: Il suffit de remarquer que

t
0

s

s
)dB
s
et

t
0

s

s
)dB
s

2

t
0

s

s
)
2
ds
sont des martingales. ´
Proposition 3.2.2 Soit τ un temps d’arrˆet et θ un processus F
B
-adapt´e tel que E

τ
0
θ
2
s
ds

< ∞.
Alors E

τ
0
θ
s
dB
s

= 0 et E

τ
0
θ
s
dB
s

2
= E

τ
0
θ
2
s
d
s

.
Application: si θ = 1 et τ = inf¦t : B
t
+ νt = a¦. Pour aν > 0, on a E(τ) < ∞ et par suite
E(B
τ
) = 0 = a −νE(τ).
3.2.3 Un exemple
Proposition 3.2.3 Pour tout t on a

t
0
B
s
dB
s
=
1
2
(B
2
t
−t)
D´ emonstration: Par d´efinition

t
0
B
s
dB
s
= lim
¸
B
t
i
(B
t
i+1
−B
t
i
)
L’´egalit´e
2
n
¸
i=0
B
t
i
(B
t
i+1
−B
t
i
) =
n
¸
i=0
(B
2
t
i+1
−B
2
t
i
) −
n
¸
i=0
(B
t
i+1
−B
t
i
)
2
montre que

t
0
B
s
dB
s
=
1
2
[B
2
t
−lim
n
n
¸
i=0
(B
t
i+1
−B
t
i
)
2
] =
1
2
[B
2
t
−t]. ´
3.2.4 Martingale locale
On peut d´efinir

t
0
θ
s
dB
s
pour des processus adapt´es c`agl`ad qui n’appartiennent pas n´ecessairement `a
L
2
(ΩIR), mais qui v´erifient pour tout t,

t
0
θ
2
(s, ω) ds < ∞p.s. Dans ce cas M n’est pas une martingale
mais une martingale locale et E(M
t
) peut ˆetre non nul. On utilise souvent qu’une martingale locale
positive est une surmartingale (appliquer le lemme de Fatou).
3.2.5 In´egalit´e maximale
On a souvent besoin de majorations d’int´egrales stochastiques. L’in´egalit´e de Doob conduit `a
Proposition 3.2.4 Soit θ ∈ Λ
E([sup
s≤T

s
0
θ
u
dB
u
]
2
) ≤ 4E([

T
0
θ
u
dB
u
]
2
) = 4

T
0
E[θ
2
u
]du
42 Int´egrale stochastique
3.3 Processus d’Itˆo
3.3.1 D´efinition
Un processus X est un processus d’Itˆo si
X
t
= x +

t
0
b
s
ds +

t
0
σ
s
dB
s
o` u b est un processus adapt´e tel que

t
0
[b
s
[ ds existe (au sens Lebesgue) p.s. pour tout t, et σ un
processus appartenant `a Λ.
On utilise la notation plus concise suivante

dX
t
= b
t
dt +σ
t
dB
t
,
X
0
= x
Le coefficient b est le drift ou la d´erive, σ est le coefficient de diffusion.
L’´ecriture dX
t
= b
t
dt +σ
t
dB
t
est unique (sous r´eserve que les processus b et σ v´erifient les conditions
d’int´egrabilit´e). Ceci signifie que si
dX
t
= b
t
dt +σ
t
dB
t
=
˜
b
t
dt + ˜ σ
t
dB
t
alors b =
˜
b; σ = ˜ σ. En particulier, si X est une martingale locale alors b = 0 et r´eciproquement.
On peut d´efinir un processus d’Itˆo pour des coefficients de diffusion tels que

t
0
σ
2
s
ds < ∞P.p.s.
mais on perd la propri´et´e de martingale de l’int´egrale stochastique. La partie x +

t
0
b
s
ds est la partie
`a variation finie. Si un processus A `a variation finie ets une martingale, il est constant. En effet, si
A
0
= 0 = 0, A
2
t
= 2

t
0
A
s
dA
s
et par suite E(A
2
t
) = 0.
3.3.2 Propri´et´es
Si σ appartient `a Λ, on a E(X
t
) = E(X
0
) +

t
0
E(b
s
)ds, et
∀t ≥ s, E(X
t
[T
s
) = X
0
+

s
0
b
u
du +E(

t
s
b
u
du[T
s
) +

s
0
σ
u
dB
u
= X
s
+E(

t
s
b
u
du[T
s
).
Si b ≡ 0 et σ ∈ Λ, le processus X est une martingale continue.
On verra que la r´eciproque est vraie: sous certaines conditions d’int´egrabilit´e et de mesurabilit´e, toute
martingale continue s’´ecrit x +

t
0
φ
s
dB
s
.
3.3.3 Int´egrale par rapport `a un processus d’Itˆo.
Soit X un processus d’Itˆo de d´ecomposition dX
t
= b
t
dt + σ
t
dB
t
. On note (sous r´eserve de conditions
d’int´egrabilit´e)

t
0
θ
s
dX
s
def
=

t
0
θ
s
b
s
ds +

t
0
θ
s
σ
s
dB
s
.
3.3.4 Crochet d’un processus d’Itˆo
Soit Z une martingale continue de carr´e int´egrable (telle que E(sup
t
Z
2
t
) < ∞). On peut montrer (Voir
Revuz-Yor) qu’il existe un processus croissant continu A tel que (Z
2
t
−A
t
, t ≥ 0) est une martingale. Le
processus A est appell´e le “crochet oblique”, ou le crochet de Z. On le note tr`es souvent A
t
= 'Z, Z`
t
ou encore 'Z`
t
.
Id´ ee de la preuve
Z
2
t
= Z
2
0
+
¸
(Z
2
t∧t
k+1
−Z
2
t∧t
k
)
= Z
2
0
+ 2
¸
Z
t∧t
k
(Z
t∧t
k+1
−Z
t∧t
k
) +
¸
(Z
t∧t
k+1
−Z
t∧t
k
)
2
→ Z
2
0
+ 2

t
0
Z
s
dZ
s
+A
t
.
July 8, 2006 43
En utilisant ce vocabulaire cher aux probabilistes, nous avons ´etabli que le crochet du Brownien est
t et que le crochet de l’int´egrale stochastique (M
t
=

t
0
θ
s
dB
s
) est

t
0
θ
2
s
ds.
Si M et N sont deux martingales locales continues, on d´efinit leur crochet par
< M, N >
t
=
1
2
(< M +N, M +N >
t
− < M, M >
t
− < N, N >
t
) .
C’est l’unique processus `a variation finie tel que le processus MN− < M, N > est une martingale
locale. Le crochet de deux int´egrales stochastiques X
t
= x +

t
0
H
s
dB
s
, Y
t
= y +

t
0
K
s
dB
s
est
< X, Y >
t
=

t
0
H
s
K
s
ds.
Proposition 3.3.1 Le crochet de deux martingales continues M et N est ´egal `a la variation quadratique
de ces processus
< M, N >
t
= lim
n
¸
i=1
(M
t
i+1
−M
t
i
) (N
t
i+1
−N
t
i
)
Il en r´esulte que si P et Q sont ´equivalentes, le crochet de M sous P et sous Q sont ´egaux. On dit
que deux martingales continues sont orthogonales si leur crochet est nul, ou si leur produit est une
martingale.
Si M est une martingale locale continue, on a ´equivalence entre E'M`
t
< ∞ et (M
s
, s ≤ t) est une
martingale L
2
born´ee.
On ´etend la d´efinition du crochet aux processus d’Itˆo: si
dX
i
(t) = b
i
(t)dt +σ
i
(t)dB
t
, i = 1, 2
sont deux processus d’Itˆo, leur crochet est par d´efinition le crochet de leur partie martingale. Cela tient
`a la propri´et´e 3.3.1.
Nous en d´eduisons une nouvelle forme de la d´efinition de Browniens corr´el´es: deux Browniens sont
corr´el´es si leur crochet est ρt. On d´efinit le crochet du processus d’Itˆo X comme ´etant le crochet de sa
partie martingale. Le crochet de X est A
t
= 'X`
t
=

t
0
σ
2
s
ds. On caract´erise le mouvement Brownien
en disant que c’est une martingale continue d’esp´erance nulle et de crochet t.
3.4 Lemme d’Itˆo
Dans ce qui suit, X est un processus d’Itˆo de d´ecomposition dX
t
= b
t
dt + σ
t
dB
t
. Nous renvoyons `a
Revuz-Yor pour la d´emonstration bas´ee sur la formule de Taylor et la propri´et´e 3.3.1 du crochet.
3.4.1 Premi`ere forme
Th´eor`eme 3.4.1 Soit f une fonction de IR dans IR, de classe C
2
`a d´eriv´ees born´ees. Alors
f(X
t
) = f(X
0
) +

t
0
f

(X
s
)dX
s
+
1
2

t
0
f

(X
s

2
s
ds.
Id´ ee de la preuve
f(X
t
) = f(X
0
) +
¸
f(X
t
k+1
) −f(X
t
k
)
f(X
t
k+1
) −f(X
t
k
) = f

(X
t
k
)(X
t
k+1
−X
t
k
) +
1
2
f

(X
t
k
(X
t
k+1
−X
t
k
)
2
+o((X
t
k+1
−X
t
k
))
et on passe `a la limite.
Sous forme condens´ee
df(X
t
) = f

(X
t
)dX
t
+
1
2
f

(X
t

2
t
dt,
44 Int´egrale stochastique
ou encore
df(X
t
) = f

(X
t
)b
t
dt +
1
2
f

(X
t
) σ
2
t
dt +f

(X
t

t
dB
t
,
et en utilisant le crochet
df(X
t
) = f

(X
t
)b
t
dt +
1
2
f

(X
t
) d'X`
t
+f

(X
t

t
dB
t
.
La condition de bornitude des d´eriv´ees n’est exig´ee que pour l’existence des int´egrales et pour la
propri´et´e de martingale de l’int´egrale stochastique.
La formule est facile `a m´emoriser en notant sa ressemblance avec la formule de Taylor, sous la forme
df(X
t
) = f

(X
t
)dX
t
+
1
2
f

(X
t
)dX
t
dX
t
,
et la r`egle de multiplication
dt dt = 0, dt dB
t
= 0, dB
t
dB
t
= dt
Applications: 1.) Calcul de E(f(X
t
)) et de E(f(X
t
) [T
s
) (si f

et σ sont born´es)
E(f(X
t
)) = E(f(X
0
)) +E

t
0
[f

(X
s
)b
s
+
1
2
f

(X
s

2
s
]ds

= E(f(X
0
)) +

t
0
E[f

(X
s
)b
s
+
1
2
f

(X
s

2
s
]ds

.
On retrouve, pour X
t
= B
t
, les r´esultats de la proposition 4, chapitre 2.
On obtient ´egalement
E(f(X
t
) [T
s
) = f(X
s
) +E

t
s
[f

(X
u
)b(u) +
1
2
f

(X
u

2
u
]du[T
s

= f(X
s
) +

t
s
E[f

(X
u
)b(u) +
1
2
f

(X
u

2
u
[T
s
]du.
On prendra garde `a ne pas intervertir int´egrale et conditionnement pour des int´egrales stochastiques.
2.) Calcul de

t
0
B
s
dB
s
=
1
2
(B
2
t
−t).
3.) Calcul de d(exp X
t
) = (expX
t
)(dX
t
+
1
2
σ
2
t
dt).
4.) Une solution de dS
t
= S
t
(µdt +σdW
t
) est S
t
= xe
X
t
avec X
t
= (µ−
1
2
σ
2
)t +σW
t
. On peut montrer
que c’est la seule solution.(Voir Sect. ??)).
Proposition 3.4.1 Supposons que
X
t
= X
0
+

t
0
b(X
s
) ds +

t
0
σ(X
s
) dB
s
o` u b et σ sont des fonctions de IR dans IR born´ees. Si f est une fonction de IR dans IR de classe C
2
`a
d´eriv´ees born´ees et v´erifiant
∀x, b(x)f

(x) +
1
2
σ
2
(x)f

(x) = 0,
le processus f(X) est une martingale.
D´ emonstration: Cela r´esulte directement de la formule d’Itˆo. ´
Les fonctions f telles que 3.1 est v´erifi´ee sont les fonctions d’´echelle. Elles sont d´etermin´ees `a deux
constantes pr`es par les fonctions b et σ par
f(x) =

x
c
exp

−2

u
c
b(v)/σ
2
(v) dv

du.
On peut affaiblir la condition sur la bornitude des d´eriv´ees qui n’est utilis´ee que pour assurer
l’existence des int´egrales et la propri´et´e de martingale.
L’op´erateur L qui `a f ∈ C
2
fait correspondre Lf(x) = b(x)f

(x) +
1
2
σ
2
(x)f

(x) est le g´en´erateur
infinit´esimal de la diffusion X ou aussi le Dynkin. Il v´erifie
Lf(x) = lim
t→0
E
x
(f(X
t
)) −f(x)
t
.
July 8, 2006 45
3.4.2 Fonction d´ependant du temps
Th´eor`eme 3.4.2 Soit f une fonction d´efinie sur IR
+
IR de classe C
1
par rapport `a t, de classe C
2
par rapport `a x, `a d´eriv´ees born´ees, on a
f(t, X
t
) = f(0, X
0
) +

t
0
f

t
(s, X
s
)ds +

t
0
f

x
(s, X
s
)dX
s
+
1
2

t
0
f

xx
(s, X
s

2
s
ds.
Ce que l’on note
df(t, X
t
) = [f

t
(t, X
t
) +
1
2
f

xx
(t, X
t

2
t
]dt +f

x
(t, X
t
)dX
t
= f

t
(t, X
t
)dt +f

x
(t, X
t
)dX
t
+
1
2
f

xx
(t, X
t
)d'X`
t
Applications:
1.) Soit X un processus tel que
X
t
= X
0
+

t
0
b(s, X
s
) ds +

t
0
σ(s, X
s
) dB
s
.
Si f est une fonction de IR
+
IR dans IR telle que σf

x
est born´ee et
f

t
(t, x) +b(t, x)f

x
(t, x) +
1
2
σ
2
(t, x)f

xx
(t, x) = 0
alors (f(t, X
t
), t ≥ 0) est une martingale.
L’op´erateur L d´efini sur les fonctions de C
1,2
par
L(f)(t, x) = b(t, x)f

x
(t, x) +
1
2
σ
2
(t, x)f

xx
(t, x)
est le g´en´erateur infinit´esimal de la diffusion.
Si f est une fonction de IR
+
IR dans IR telle que σf

x
est born´ee et
f

t
(t, x) +b(t, x)f

x
(t, x) +
1
2
σ
2
(t, x)f

xx
(t, x) = rf(t, x) (3.1)
alors (e
−rt
f(t, X
t
), t ≥ 0) est une martingale. Dans ce cas, e
−rt
f(t, X
t
) = E(e
−rT
f(T, X
T
)[T
t
). Si f
v´erifie f(T, x) = h(x) et est solution de (3.1), on a e
−rt
f(t, X
t
) = E(e
−rT
h(X
T
)[T
t
).
2.) Soit X un processus (Brownien g´eom´etrique) tel que
dX
t
= X
t
(rdt +σdB
t
),
o` u r et σ sont des constantes. Alors le processus (e
−rt
X
t
, t ≥ 0) est une martingale. Il suffit de remar-
quer que d(e
−rt
X
t
) = e
−rt
X
t
σdB
t
et de v´erifier les conditions d’int´egrabilit´e.
La solution de dX
t
= X
t
(rdt +σdB
t
), X
0
= x o` u r et σ sont des constantes est X
t
= xexp(rt +σB
t

1
2
σ
2
t). On dit que X est un Brownien g´eom´etrique, ou processus log-normal.
3 .) Soit X un processus dX
t
= X
t
(b(t)dt +σ(t)dB
t
), o` u b et σ sont des fonctions (X est dit Brownien
g´eom´etrique `a coefficients d´eterministes). Alors le processus (exp

t
0
b(s)ds

X
t
, t ≥ 0) est une
martingale.
3.4.3 Cas multidimensionnel
Th´eor`eme 3.4.3 Soit (X
i
, i = 1, 2) deux processus d’Itˆo tels que
dX
i
(t) = b
i
(t)dt +σ
i
(t)dB
t
.
Soit f une fonction de IR
2
dans IR de classe (
2
. On a
df(X
1
(t), X
2
(t)) = f

1
(X
1
(t), X
2
(t)) dX
1
(t) +f

2
(X
1
(t), X
2
(t)) dX
2
(t)
+
1
2

f

11
σ
2
1
(t) + 2f

12
σ
1
(t)σ
2
(t) +f

22
σ
2
2
(t)

(X
1
(t), X
2
(t)) dt
o` u f

i
d´esigne la d´eriv´ee par rapport `a x
i
, i = 1, 2 et f

ij
la d´eriv´ee seconde par rapport `a x
i
, x
j
.
46 Int´egrale stochastique
Sous forme condens´ee, on ´ecrit
df(X
1
, X
2
)(t) =
2
¸
i=1
f

i
(X
1
(t), X
2
(t)) dX
i
(t) +
1
2
¸
i,j
f

ij
(X
1
(t), X
2
(t))σ
i
σ
j
dt
Int´egration par parties, crochet
La formule d’Itˆo montre que d[X
1
X
2
](t) = X
1
(t) dX
2
(t) +X
2
(t) dX
1
(t) +σ
1
(t)σ
2
(t) dt.
Cette formule est connue sous le nom d’int´egration par parties. La quantit´e σ
1
(t)σ
2
(t) correspond au
crochet de X
1
, X
2
, not´e < X
1
, X
2
> et d´efini comme le processus `a variation finie < X
1
, X
2
>
t
=

t
0
σ
1
(s)σ
2
(s)ds.
3.4.4 Cas du Brownien multidimensionnel.
Th´eor`eme 3.4.4 Soit (X
i
, i = 1, 2) deux processus d’Itˆo tels que
dX
i
(t) = b
i
(t) dt +σ
i
(t)dB
i
(t)
o` u B
1
et B
2
sont deux Browniens ind´ependants. On a
df(X
1
(t), X
2
(t)) = f

1
(X
1
(t), X
2
(t)) dX
1
(t) +f

2
(X
1
(t), X
2
(t)) dX
2
(t)
+
1
2
[f

11
(X
1
(t), X
2
(t))σ
2
1
(t) +f

22
(X
1
(t), X
2
(t))σ
2
2
(t)] dt.
Cas g´en´eral : Soit (X
t
, t ≥ 0) un processus d’Itˆo multidimensionnel de composantes (X
i
(t), i ≤ n), tel
que dX
t
= u
t
dt +v
t
dB
t
, soit

dX
1
dX
2
. . .
dX
n
¸
¸
¸
¸
=

u
1
u
2
. . .
u
n
¸
¸
¸
¸
dt +

v
1,1
v
1,2
. . . . . . v
1,p
v
2,1
v
2,2
. . . . . . v
2,p
. . . . . . . . . . . . . . .
v
p,1
v
p,2
. . . . . . v
n,p
¸
¸
¸
¸

dB
1
dB
2
. . .
dB
p
¸
¸
¸
¸
Soit f une fonction d´efinie sur IR
+
R
n
de classe C
1,2
. Alors
df(t, X
t
) = f

t
(t, X
t
)dt +
n
¸
i=1
f

i
(t, X
t
)dX
i
(t) +
1
2
n
¸
i,j=1
f

ij
(t, X
t
)dX
i
(t) dX
j
(t)
o` u l’on utilise les conventions d’´ecriture
dB
i
dB
j
= δ
ij
dt, dB
i
dt = 0, dtdt = 0
Cas corr´el´e:
Th´eor`eme 3.4.5 Soit (X
i
, i = 1, 2) deux processus d’Itˆo tels que
dX
i
(t) = b
i
(t) dt +σ
i
(t)dB
i
(t)
o` u B
1
et B
2
sont deux Browniens de corr´elation ρ. On a
df(X
1
(t), X
2
(t)) = f

1
(X
1
(t), X
2
(t)) dX
1
(t) +f

2
(X
1
(t), X
2
(t)) dX
2
(t)
+
1
2
[f

11
(X
1
(t), X
2
(t))σ
2
1
(t) + 2f

12
(X
1
(t), X
2
(t))ρσ
1
(t)σ
2
(t) +f

22
(X
1
(t), X
2
(t))σ
2
2
(t)] dt.
On doit modifier la table de multiplication en ´ecrivant dB
1
dB
2
= ρdt. On remarque que si B
1
et B
2
sont ind´ependants, ils sont non corr´el´es (et r´eciproquement) ce qui est heureux pour la terminologie,
mais pas tout `a fait trivial (voir ce qui suit).
July 8, 2006 47
Application
Revenons au Browniens corr´el´es. On note B
i
les browniens corr´el´es et B
3
le brownien construit au
moyen de B
1
et B
2
par
B
3
=
1

1 −ρ
2
(B
2
−ρB
1
) .
Soit M
i
(λ, t) = exp(λB
i
(t) −
1
2
λ
2
t). Ces processus sont des martingales pour toute valeur de λ
et dM
i
(t) = λM
i
(t)dB
i
(t). D’o` u, en utilisant que le crochet de B
3
et B
1
est nul (par lin´earit´e)
d[M
1
M
3
](t) = M
1
(t)dM
3
(t) + M
3
(t)dM
1
(t). Ce produit est une martingale, ce qui implique, apr`es
un petit calcul que
E (exp (λB
1
(t) +µB
3
(t))) = E (exp [λB
1
(t)]) E (exp (µB
3
(t)])
d’o` u l’ind´ependance souhait´ee de B
1
(t) et B
3
(t). Pour obtenir l’ind´ependance des processus, utiliser
M
i
(t) = exp(

t
0
λ(s)dB
i
(s) −
1
2

t
0
λ
2
(s)ds).
3.4.5 Application `a la formule de Black et Scholes
APT ´evaluation
On suppose avoir un march´e financier o` u il y a :
1) un actif sans risque dont le prix S
0
v´erifie dS
0
(t) = S
0
(t)rdt o` u r est une constante
2) un actif risqu´e dont le prix S(t) v´erifie
dS(t) = S(t)(bdt +σdB
t
),
o` u B est un mouvement Brownien, et b, σ des constantes. On ´etudie un actif contingent de payoff h(S
T
).
Le cas d’un call Europ´een correspond `a h(x) = (x −K)
+
.
Le prix d’un call de maturit´e T et de prix d’exercice K est une fonction C(t, S(t)).
On se constitue un portefeuille compos´e d’un call et de β
t
parts de l’actif risqu´e. La valeur de ce
portefeuille est V
t
= C(t, S
t
) + β
t
S
t
. On suppose que dV
t
= dC
t
+ β
t
dS
t
(Cette condition est une
condition d’autofinancement et ne doit ˆetre en aucun cas confondue avec une formule d’Itˆo).
En utilisant la formule d’Itˆo, on a
dV
t
=

∂C
∂x
S
t
b +
∂C
∂t
+
1
2

2
C
∂2x
2
σ
2
S
2
t

dt +β
t
bS
t
dt +

∂C
∂x
σS
t

t
σS
t

dB
t
.
Le portefeuille est sans risque si
∂C
∂x
σS
t

t
σS
t
= 0, soit β
t
= −
∂C
∂x
et de rendement r si dV
t
= rV
t
dt
soit dC
t

t
dS
t
= r(C
t

t
S
t
)dt d’o` u, en rempla¸cant β par sa valeur
rS
t
∂C
∂x
(t, S
t
) +
∂C
∂t

2
S
2
t
1
2

2
C
∂x
2
(t, S
t
) −rC(t, S
t
) = 0
avec C(T, S
T
) = h(S
T
). Soit, en notant que S
t
est une v.a. qui admet une densit´e strictement positive
sur IR
+
(et qui prend toutes les valeurs de IR
+
)
rx
∂C
∂x
(t, x) +
∂C
∂t
(t, x) +σ
2
x
2
1
2

2
C

2
x
(t, x) −rC(t, x) = 0 , ∀w ≥ 0, ∀t ≥ 0
avec C(T, x) = h(x).
L’´equation aux d´eriv´ees partielles peut ˆetre r´esolue par des m´ethodes classiques d’EDP.
Portefeuille dupliquant
On reprend l’´etude de la valorisation d’un actif contingent de payoff h(S
T
) sur un sous jacent de
dynamique
dS
t
= S
t
(b dt +σdW
t
) .
On note C(t, S
t
) la valeur de l’actif contingent `a la date t. On constitue un portefeuille constitu´e de α
t
parts de l’actif sans risque et γ
t
parts de l’actif risqu´e. Sa valeur `a l’instant t est V
t
:= α
t
S
0
t

t
S
t
. On
suppose que dV
t
= α
t
dS
0
t

t
dS
t
(hypoth`ese d’autofinancement).
48 Int´egrale stochastique
Le portefeuille duplique l’actif contingent si α
t
S
0
t

t
S
t
= C(t, S
t
), soit en identifiant les termes en
dt et dW
t
dans dV
t
et dC
t
: (on utilise l’unicit´e de la d´ecomposition d’un processus d’Itˆo en processus `a
variation finie et martingale) : γ
t
S
t
σ =
∂C
∂x
(t, S
t
) S
t
σ, soit γ
t
=
∂C
∂x
(t, S
t
) et
α
t
rS
0
t
+bγ
t
S
t
=
∂C
∂x
(t, S
t
) S
t
b +
∂C
∂t
(t, S
t
) +
1
2

2
C
∂x
2
(t, S
t
) σ
2
S
2
t
= α
t
rS
0
t
+S
t
∂C
∂x
(t, S
t
)
En utilisant α
t
S
0
t

t
S
t
= C(t, S
t
) on obtient α
t
S
0
t
= C(t, S
t
) −S
t
∂C
∂x
(t, S
t
), d’o` u
∂C
∂x
(t, S
t
) S
t
r +
∂C
∂t
+
1
2

2
C
∂x
2
(t, S
t
) σ
2
S
2
t
−rC(t, S
t
) = 0
et C(T, S
T
) = h(S
T
).
Le processus S prend ses valeurs dans IR
+
, r´esoudre l’´equation pr´ec´edente pour un call europ´een
revient `a ´etudier
xr
∂C
∂x
(t, x) +
∂C
∂t
(t, x) +σ
2
x
2
1
2

2
C
∂x
2
(t, x) −rC(t, x) = 0 , x ≥ 0 (3.2)
C(T, x) = (x −K)
+
.
On peut r´esoudre cette ´equation, et on trouve
C(t, x) = x^(d
1
) −Ke
−r(T−t)
^(d
2
)
avec
d
1
=
1
σ

T −t

ln

x
Ke
−r(T−t)

+
1
2
σ

T −t, d
2
= d
1
−σ

T −t
la quantit´e C
x
(t, x) = ^(d
1
) repr´esente la couverture (le nombre de parts d’actif sous jacent utilis´ees
pour r´epliquer l’option)
Remarque 3.4.1 En interpr´etant l’´equation (3.2), (qui correspond `a chercher f telle que e
−rt
f(t, X
t
)
est une martingale) on voit que C(t, x) = E(e
−r(T−t)
(Y
T
−K)
+
[T
t
) avec dY
t
= Y
t
(rdt +σdB
t
). Cette
remarque est fondamentale en finance.
Chapter 4
EQUATIONS DIFFERENTIELLES
STOCHASTIQUES
4.1 Equations diff´erentielles stochastiques
4.1.1 D´efinition
Une ´equation diff´erentielle stochastique est une ´equation de la forme
X
t
= x +

t
0
b(s, X
s
) ds +

t
0
σ(s, X
s
) dB
s
(4.1)
ou sous forme condens´ee

dX
t
= b(t, X
t
)dt +σ(t, X
t
) dB
t
,
X
0
= x
L’inconnue est le processus X. Le probl`eme est, comme pour une ´equation diff´erentielle ordinaire, de
montrer que sous certaines conditions sur les coefficients, l’´equation diff´erentielle a une unique solution.
Il est utile de pr´eciser les donn´ees.
D´efinition 4.1.1 Soit b et σ deux fonctions de IR
+
IR
n
`a valeurs r´eelles donn´ees. On se donne
´egalement un espace (Ω, T, P) muni d’une filtration (T
t
) et un (T
t
) mouvement brownien B sur cet
espace. Une solution de (4.1) est un processus X continu (T
t
)-adapt´e tel que les int´egrales

t
0
b(s, X
s
) ds
et

t
0
σ(s, X
s
) dB
s
ont un sens et l’´egalit´e
X
t
= x +

t
0
b(s, X
s
) ds +

t
0
σ(s, X
s
) dB
s
est satisfaite pour tout t, P p.s. ( .
4.1.2 Th´eor`eme d’existence
Th´eor`eme 4.1.1 On suppose que
a- les fonctions b et σ sont continues,
b- il existe K tel que pour tout t ∈ [0, T], x ∈ IR, y ∈ IR
i) [b(t, x) −b(t, y)[ +[σ(t, x) −σ(t, y)[ ≤ K[x −y[
ii) [b(t, x)[
2
+[σ(t, x)[
2
≤ K
2
(1 +[x[
2
)
c- La condition initiale X
0
est ind´ependante de (B
t
, t ≥ 0) et est de carr´e int´egrable,
alors il existe une unique solution de (4.1) `a trajectoires continues pout t ≤ T. De plus cette solution
v´erifie
E( sup
0≤t≤T
[X
t
[
2
) < ∞.
La d´emonstration repose sur une m´ethode de pont fixe. A un processus U on associe le processus
Φ(U) par Φ(U)
t
= x+

t
0
b(s, U
s
)ds+

t
0
σ(s, U
s
)dB
s
. Sous les hypoth`eses du th´eor`eme 4.1.1, la solution
49
50 EDS
est adapt´ee `a la filtration naturelle du MB. On parle alors de solution forte. L’unicit´e se traduit par :
si X et Y sont deux solutions, P p.s.∀t ∈ [0, T] X
t
= Y
t
.
Ce th´eor`eme se g´en´eralise au cas de processus `a valeurs dans IR
n
. Dans la pratique, ce th´eor`eme est
parfois insuffisant.
On peut ´enoncer un th´eor`eme sur IR:
Th´eor`eme 4.1.2 Soit ρ une fonction bor´elienne de ]0, ∞[ dans lui-mˆeme telle que l’int´egrale de (ρ)
−1
au voisinage de 0 diverge (par exemple ρ(x) =

x). Si [σ(s, x) − σ(s, y)[
2
≤ ρ([x − y[) et b est
lipschitzienne, soit [b(s, x) − b(s, y)[ ≤ K
t
[x − y[ pour tout x, y ∈ IR et s ≤ t, il existe une unique
solution de (4.1).
On trouvera dans Revuz-Yor (Ch IX, paragraphe 3) d’autres r´esultats.
4.1.3 Propri´et´e de Markov
On note (X
t,x
s
, s ≥ t) la solution de (4.1) partant de x `a l’instant t, soit
X
t,x
s
= x +

s
t
b(u, X
t,x
u
) du +

s
t
σ(u, X
t,x
u
) dB
u
.
Sous les conditions du th´eor`eme 4.1.1, on peut montrer que
X
0,x
s
= X
t,X
0,x
t
s
, s ≥ t.
ce qui montre que la solution de (4.1) est un processus de Markov par rapport `a la filtration T
t
:
E(f(X
s
)[T
t
) = E(f(X
s
)[X
t
) = Φ(s, t, X
t
)
o` u Φ(s, t, x) = E(f(X
t,x
s
)) , s ≥ t. Ce r´esultat est extr´emement important et permet de calculer facile-
ment des esp´erances conditionnelles. En particulier si
X
t,x
s
= x +

s
t
b(X
t,x
u
) du +

s
t
σ(X
t,x
u
) dB
u
on obtient un processus de Markov homog`ene
E(f(X
s
)[T
t
) = E(f(X
s
)[X
t
) = Φ(s, t, X
t
) = Ψ(s −t, X
t
)
o` u Φ(s, t, x) = E(f(X
t,x
s
)) = E(f(X
0,x
s−t
)) et Ψ(u, x) = E(f(X
0,x
u
)).
Attention: un couple (X, Y ) peut ˆetre Markovien sans que ses composantes le soient.
4.1.4 Th´eor`eme de comparaison
Th´eor`eme 4.1.3 Th´eor`eme de Comparaison. Soit
dX
i
(t) = b
i
(X
i
(t))dt +σ(X
i
(t))dW
t
, i = 1, 2
o` u b
i
est Lipschitz et [σ(x) −σ(y)]
2
≤ k[x −y[. Supposons que X
1
(0) ≥ X
2
(0) et b
1
(x) ≥ b
2
(x). Alors
X
1
(t) ≥ X
2
(t)
(Voir [RY] chap. 9, par. 3 pour une d´emonstration).
4.1.5 Exemple : Martingale exponentielle
Proposition 4.1.1 Soit θ ∈ Λ et Z
0
une constante. La solution de dZ
t
= θ
t
Z
t
dB
t
est
Z
t
= Z
0
exp[

t
0
θ
s
dB
s

1
2

t
0
θ
2
s
ds]
Si de plus E(exp[
1
2

T
0
θ
2
s
ds]) < ∞, le processus (Z
t
, t ≤ T) est une martingale d’esp´erance Z
0
.
July 8, 2006 51
D´ emonstration: Par d´efinition, Z est une martingale locale. On v´erifie que Z
t
= Z
0
exp[

t
0
θ
s
dB
s

1
2

t
0
θ
2
s
ds] est solution de l’´equation propos´ee en utilisant la formule d’Itˆo. En notant U
t
:=

t
0
θ
s
dB
s

1
2

t
0
θ
2
s
ds, on a dU
t
= θ
t
dB
t

1
2
θ
2
t
dt, d’o` u dZ
t
= (exp U
t
)(dU
t
+
1
2
θ
2
t
dt) = θ
t
Z
t
dB
t
. ´
Le processus Z, not´e c(θB)
t
est appel´e l’exponentielle de Dol´eans-Dade de θB. C’est une
martingale locale positive si Z
0
> 0. Il est plus d´elicat de v´erifier que c’est une martingale. La
condition E(exp[
1
2

T
0
θ
2
s
ds]) < ∞ est la condition de Novikov. Sous cette condition, E(Z
T
) = Z
0
, et
(Z
t
, t ≤ T) est une martingale. Sinon, c’est une martingale locale positive, donc une surmartingale, et
E(Z
t
) ≤ Z
0
. On ne connait pas de conditions “plus faciles” `a v´erifier que la condition de Novikov, sauf
dans le cas suivant.
Lemme 4.1.1 Soit f telle que [f(t, x) −f(t, y)[ ≤ C[x −y[ et sup [f(s, 0)[ ≤ C. Alors,

t
0
f(s, B
s
)dB
s

1
2

t
0
f(s, B
s
)
2
ds
est une martingale.
4.2 Equations aux d´eriv´ees partielles
On se donne deux fonctions b et σ de [0, T] IR dans IR, v´erifiant les hypoth`eses du th´eor`eme 4.1.1
concernant l’existence de solution d’EDS. Soit A l’op´erateur d´efini sur les fonctions de C
1,2
par
Af(t, x) := f

t
(t, x) +f

x
(t, x)b(t, x) +
1
2
f

xx
(t, x)σ
2
(t, x).
Soit (X
x,t
u
, u ≥ t) le processus d’Itˆo d´efini par
X
x,t
u
= X
x,t
t
+

u
t
b(s, X
x,t
s
) ds +

u
t
σ(s, X
x,t
s
) dB
s
, u ≥ t (4.2)
avec une condition initiale en t: X
x,t
t
= x. On remarque que Af(t, x) = f

t
(t, x) + Lf(t, x) o` u L est le
g´en´erateur infinit´esimal de X.
4.2.1 Probl`eme parabolique
On cherche les solutions du probl`eme (parabolique) suivant, avec une “donn´ee terminale”, c’est-`a-dire
une fonction g de IR dans IR qui va pr´eciser la valeur de la solution de l’´equation aux d´eriv´ees partielles
en T.

Af(t, x) = 0, ∀x ∈ IR, ∀t ∈ [0, T]
f(T, x) = g(x) ∀x ∈ IR.
(4.3)
Si f est une solution du probl`eme parabolique (4.3), et X une solution de (4.2), la formule d’Itˆo conduit
`a
f(u, X
x,t
u
) = f(t, x) +

u
t
f

x
(s, X
x,t
s
)σ(s, X
x,t
s
)dB
s
,
en particulier en T, on a
f(T, X
x,t
T
) = g(X
x,t
T
) = f(t, x) +

T
t
f

x
(s, X
x,t
s
)σ(s, X
x,t
s
) dB
s
et si l’int´egrale est une martingale (conditions d’int´egrabilit´e sur f

x
et σ) on en d´eduit f(t, x) =
E(g(X
x,t
T
)).
Th´eor`eme 4.2.1 Sous des conditions de r´egularit´e, la solution du probl`eme parabolique
Af(t, x) = 0, ∀x ∈ IR, ∀t ∈ [0, T]
f(T, x) = g(x) ∀x ∈ IR
52 EDS
est donn´ee par f(t, x) = E(g(X
x,t
T
)), o` u X
x,t
est le processus d’Itˆo d´efini par
X
x,t
u
= X
x,t
t
+

u
t
b(s, X
x,t
s
) ds +

u
t
σ(s, X
x,t
s
) dB
s
, u ≥ t
avec une condition initiale en t: X
x,t
t
= x.
On ´ecrit souvent ce r´esultat sous la forme ´equivalente suivante f(t, x) = E
x,t
(g(X
T
)), o` u X est le
processus d’Itˆo d´efini par
dX
s
= b(s, X
s
) ds +σ(s, X
s
) dB
s
l’esp´erance ´etant prise sous la probabilit´e P
x,t
qui est telle que processus X prend la valeur x `a l’instant
t.
4.2.2 G´en´eralisation
Soit α une constante positive. On cherche les solutions du probl`eme (parabolique) suivant
Af(t, x) = αf(t, x), ∀x ∈ IR, ∀t ∈ [0, T] (4.4)
f(T, x) = g(x). (4.5)
Si f est solution de (4.4), et X une solution de (4.2), la formule d’Itˆo entre t et T conduit `a
f(T, X
x,t
T
) exp(−αT) = f(t, x) exp(−αt) +

T
t
f

x
(s, X
x,t
s
)[exp −αs]σ(s, X
x,t
s
)dB
s
,
et si l’int´egrale est une martingale (conditions d’int´egrabilit´e sur f

x
et σ ) on en d´eduit f(t, x) =
E[exp(−α(T − t))g(X
x,t
T
)]. En exploitant le caract`ere Markovien, on a aussi f(t, x) = E(exp(−α(T −
t))g(X
T
) [X
t
= x) o` u
X
s
= X
0
+

s
0
b(u, X
u
) du +

s
0
σ(u, X
u
) dB
u
Th´eor`eme 4.2.2 La solution du probl`eme
αf(t, x) = f

t
(t, x) +f

x
(t, x)b(t, x) +
1
2
f

xx
(t, x)σ
2
(t, x)
f(T, x) = g(x)
est donn´ee par
f(t, x) = E
x,t
[ exp(−α(T −t))g(X
T
)].
4.2.3 Formule de Black et Scholes
On a vu que l’´evaluation d’une option Europ´eene revenait `a r´esoudre l’EDP
xr
∂C
∂x
(t, x) +
∂C
∂t
(t, x) +σ
2
x
2
1
2

2
C

2
x
(t, x) −rC(t, x) = 0 , x ≥ 0
et C(T, x) = (x −K)
+
.
Le processus S prend ses valeurs dans IR
+
, r´esoudre l’´equation pr´ec´edente pour un call europ´een
revient `a ´etudier
xr
∂C
∂x
(t, x) +
∂C
∂t
(t, x) +σ
2
x
2
1
2

2
C

2
x
(t, x) −rC(t, x) = 0 , x ≥ 0
et C(T, x) = (x −K)
+
.
Grˆ ace aux r´esultats pr´ec´edents sur les ´equations aux d´eriv´ees partielles, on voit que
C(t, x) = E(e
−r(T−t)
(S
x,t
T
−K)
+
)
July 8, 2006 53
o` u dS
x,t
u
= S
x,t
u
(rdu +σdB
u
), et S
x,t
t
= x.
Le calcul de l’esp´erance se fait en remarquant que S
x,t
T
= xe
σ(T−t)G+(r−σ
2
/2)(T−t)
o` u G est une gaussi-
enne. Explicitons le calcul pour t = 0
E(e
−rT
(S
x
T
−K)
+
) = E(e
−rT
(S
x
T
11
S
T
≥K
−Ke
−rT
P(S
T
≥ K))
= e
−rT
xE(e
σ

T G+(r−σ
2
/2)(T)
11
σ

T G+(r−σ
2
/2)(T)≥ln(K/x)
)
−Ke
−rT
P(σ

T G+ (r −σ
2
/2)(T) ≥ ln(K/x))) .
Il suffit alors d’utiliser des calculs portant sur des variables gaussiennes. Nous verrons plus loin que le
calcul du premier terme se d´eduit du second.
Remarque: Ces calculs permettent de calculer le ’Delta’ de l’option et de montrer facilement que
∂C
∂x
= N(d
1
). Pla¸cons nous dans le cas t = 0. La formule ´etablie plus haut s’´ecrit
C(0, x) = E
Q
(e
−rT
(xM
T
−K)
+
) (4.6)
o` u S
t
= xM
t
. En d´erivant sous le signe esp´erance par rapport `a x, on obtient
∂C
∂x
(0, x) = E
Q
(e
−rT
M
T
1
xM
T
≥K
) = ^(d
1
)
4.2.4 Formule de Feynman-Kac
Th´eor`eme 4.2.3 Soit k : IR → IR
+
une fonction continue et g : IR → IR continue telle que:


−∞
[g(x +y)[e
−|y|


dy < ∞ ∀x ∈ IR, α > 0
Alors la fonction f d´efinie par:
f(x) = E
x
¸

0
dt g(B
t
) exp

−αt −

t
0
k(B
s
)ds

(4.7)
est l’unique solution C
2
born´ee de:
(α +k)f =
1
2
f

+g (4.8)
D´ emonstration: Dans (4.7), E
x
signifie que le Brownien est issu de x. Nous ne donnons ici qu’une
id´ee de la d´emonstration. Consid´erons le processus `a variation born´ee (Z
t
: t ≥ 0) d´efini par:
Z
t
= αt +

t
0
k(B
s
)ds
Le lemme d’Itˆo appliqu´e au processus
U
t
def
= f(B
t
)e
−Z
t
+

t
0
g(B
s
)e
−Z
s
ds
o` u f est une fonction de classe C
2
montre que
dU
t
= f

(B
t
)e
−Z
t
dB
t
+

1
2
f

(B
t
) −(α +k(B
s
))f(B
t
) +g(B
t
)

e
−Z
t
dt
Le processus U est une martingale si sa partie `a variation finie est nulle i.e.:
1
2
f

(x) −(α +k(x))f(x) +g(x) = 0
Il reste `a remarquer que
u(0, B
0
) = u(0, x) = f(x)
et `a v´erifier que E(f(B
t
)e
−Z
t
) → 0.
Les conditions de positivit´e sur α et k et de bornitude sur g garantissant l’existence d’une solution
continue et born´ee `a l’´equation diff´erentielle. ´
La formule (4.7) nous donne en particulier la transform´ee de Laplace en temps de exp −

t
0
k(B
s
)ds
et aussi celle de g(B
t
) exp −λ

t
0
k(B
s
)ds, donc la loi du couple (B
t
,

t
0
k(B
s
)ds).
54 EDS
Une application
Par application de la formule pr´ec´edente `a k(x) = β11
x≥0
et g(x) = 1, on obtient que pour α > 0 et
β > 0, la fonction f d´efinie par:
f(x)
def
= E
x
¸

0
dt exp

−αt −β

t
0
11
[0,∞)
(B
s
)ds

(4.9)
est solution de l’´equation diff´erentielle suivante:

αf(x) =
1
2
f

(x) −βf(x) + 1 x ≥ 0
αf(x) =
1
2
f

(x) + 1 x ≤ 0
L’unique solution born´ee et continue de cette EDO est donn´ee par:
f(x) =

Ae
−x

2(α+β)
+
1
α+β
x ≥ 0
Be
x


+
1
α
x ≤ 0
En imposant la continuit´e de f et f

en z´ero, on trouve
A =

α +β −

α
(α +β)

α
Soit A
+
t
def
=

t
0
11
[0,∞[
(B
s
) ds. Nous avons obtenu
f(0) =


0
dte
−αt
E
0

e
−βA
+
t

=
1

α(α +β)
En utilisant l’´egalit´e


0
dte
−αt

t
0
du
e
−βu
π

u(t−u)

=
1

α(α +β)
on en d´eduit que la densit´e de A
+
t
est donn´ee par:
P(A
+
t
∈ du) =
du
π

u(t −u)
11
(u<t)
(4.10)
La loi de A
+
t
est donc une loi arcsinus sur [0, t], ce nom provenant de la fonction de r´epartition de cette
loi :
P(A
+
t
≤ θ) =

θ
0
1
π

s(t−s)
ds =

θ/t
0
1
π

u(1−u)
du =
2
π
arcsin

θ
t
(4.11)
On obtient aussi une ´egalit´e en loi int´eressante
P(A
+
t
≤ θ) = P(A
+
1

θ
t
) (4.12)
ce qui montre que A
+
t
loi
= tA
+
1
, ce que l’on peut aussi obtenir par scaling. ´
Chapter 5
EXEMPLES DE PROCESSUS
D’ITO
La partie en Anglais est partie d’un chapitre d’un livre `a paraitre chez Springer. Merci de me signaler
tout faute de frappe.
5.1 Le brownien g´eom´etrique
On consid`ere l’´equation diff´erentielle stochastique suivante
dX
t
= X
t
b
t
dt +X
t
σ
t
dB
t
, X
0
= x (5.1)
o` u b et σ sont des processus adapt´es born´es. Pla¸cons nous dans le cas de coefficients d´eterministes.
Cette ´equation admet une solution unique (Voir th´eor`eme d’existence)
x exp

t
0
b(s)ds +

t
0
σ(s)dB
s

1
2

t
0
σ
2
(s)ds

(il suffit d’appliquer la formule d’Itˆo).
On ´ecrit souvent (5.1) sous la forme
dX
t
X
t
= b(t)dt +σ(t)dB
t
.
La martingale M
t
= X
t
e
−bt
est solution de dM
t
= M
t
σdB
t
.
Th´eor`eme 5.1.1 La solution de dX
t
= X
t
[bdt +σdB
t
] s’´ecrit
X
t
= X
0
exp¦(b −
1
2
σ
2
)t +σB
t
¦
ou encore
X
t
= X
s
exp¦(b −
1
2
σ
2
)(t −s) +σ(B
t
−B
s

Il est facile de v´erifier que l’´equation dX
t
= X
t
[bdt +σdB
t
], X
0
= x a une unique solution. Soit Y une
seconde solution. Nous savons que X ne s’annule pas et
d(1/X
t
) =
1
X
t
[µdt −σdB
t
]
avec µ = −b +σ
2
. Nous pouvons d´efinir Z
t
= Y
t
/X
t
. Ce processus v´erifie
dZ
t
= Z
t
[(µ +b −σ
2
)dt + (σ −σ)dB
t
= 0
soit dZ
t
= 0, ce qui est une ´equation diff´erentielle ordinaire, de solution Z
t
= Z
0
.
55
56 Exemples
5.2 Mod`ele de Cox-Ingersoll-Ross
Pour mod´eliser des taux, Cox- Ingersoll-Ross ´etudient l’´equation suivante
dr
t
= k(θ −r
t
)dt +σ

r
t
dB
t
(5.2)
L’unique solution est un processus positif pour kθ ≥ 0 (utiliser le second th´eor`eme d’existence. Voir
Ikeda-Watanabe). ll n’est pas possible d’obtenir une formule explicite. Soit r
x
le processus solution de
(5.2) avec r
x
0
= x. On peut montrer que, si T
x
0
def
= inf¦t ≥ 0 : r
x
t
= 0¦ et 2kθ ≥ σ
2
alors P(T
x
0
= ∞) = 1.
Si 0 ≤ 2kθ < σ
2
et k > 0 alors P(T
x
0
< ∞) = 1 et si k < 0 on a P(T
x
0
< ∞) ∈]0, 1[ .
Cependant, on peut calculer l’esp´erance de la v.a. r
t
au moyen de l’´egalit´e E(r
t
) = r
0
+ k(θt −

t
0
E(r
s
)ds), en admettant que l’int´egrale stochastique est une martingale, ce qui est le cas. On calcule
sans difficult´es suppl´ementaires l’esp´erance conditionnelle, en utilisant le caract`ere Markovien:
Th´eor`eme 5.2.1 Soit r le processus v´erifiant
dr
t
= k(θ −r
t
)dt +σ

r
t
dB
t
.
L’esp´erance conditionnelle et la variance conditionnelle sont donn´ees par
E(r
t
[T
s
) = r
s
e
−k(t−s)
+θ(1 −e
−k(t−s)
),
Var(r
t
[T
s
) = r
s
σ
2
(e
−k(t−s)
−e
−2k(t−s)
)
k
+
θσ
2
(1 −e
−k(t−s)
)
2
2k
.
D´ emonstration: Par d´efinition, on a pour s ≤ t
r
t
= r
s
+k

t
s
(θ −r
u
)du +σ

t
s

r
u
dB
u
,
et en appliquant la formule d’Itˆo
r
2
t
= r
2
s
+ 2k

t
s
(θ −r
u
)r
u
du + 2σ

t
s
(r
u
)
3/2
dB
u

2

t
s
r
u
du
= r
2
s
+ (2kθ +σ
2
)

t
s
r
u
du −2k

t
s
r
2
u
du + 2σ

t
s
(r
u
)
3/2
dB
u
.
En admettant que les int´egrales stochastiques qui interviennent dans les ´egalit´es ci-dessus sont d’esp´erance
nulle, on obtient, pour s = 0
E(r
t
) = r
0
+k

θt −

t
0
E(r
u
)du

,
et
E(r
2
t
) = r
2
0
+ (2kθ +σ
2
)

t
0
E(r
u
)du −2k

t
0
E(r
2
u
)du.
Soit Φ(t) = E(r
t
). En r´esolvant l’´equation Φ(t) = r
0
+k(θt −

t
0
Φ(u)du) qui se transforme en l’´equation
diff´erentielle Φ

(t) = k(θ −Φ(t)) et Φ(0) = r
0
, on obtient
E[r(t)] = θ + (r
0
−θ)e
−kt
.
De la mˆeme fa¸con, on introduit ψ(t) = E(r
2
t
) et en r´esolvant Ψ

(t) = (2kθ+σ
2
)Φ(t)−2kΨ(t), on calcule
Var [r
t
] =
σ
2
k
(1 −e
−kt
)[r
0
e
−kt
+
θ
2
(1 −e
−kt
)] .
L’esp´erance et la variance conditionnelle de r s’obtiennent en appliquant la propri´et´e de Markov :
E(r
t
[T
s
) = θ + (r
s
−θ)e
−k(t−s)
= r
s
e
−k(t−s)
+θ(1 −e
−k(t−s)
),
Var(r
t
[T
s
) = r
s
σ
2
(e
−k(t−s)
−e
−2k(t−s)
)
k
+
θρ
2
(1 −e
−k(t−s)
)
2
2k
.
´.
On va utiliser les m´ethodes du chapitre pr´ec´edent pour calculer E

exp −

T
t
r
u
du[T
t

.
July 8, 2006 57
Calcul du prix d’un z´ero-coupon
Proposition 5.2.1 Soit
dr
t
= a(b −r
t
)dt +σ

r
t
dB
t
.
Alors
E

exp −

T
t
r
u
du[T
t

= G(t, r
t
)
avec
G(t, x) = Φ(T −t) exp[−xΨ(T −t)]
Ψ(s) =
2(e
γs
−1)
(γ +a)(e
γs
−1) + 2γ
, Φ(s) =

2γe
(γ+a)
s
2
(γ +a)(e
γs
−1) + 2γ

2ab
ρ
2
, γ
2
= a
2
+ 2ρ
2
.
D´ emonstration: Soit r
x,t
la solution de
dr
x,t
s
= a(b −r
x,t
s
)ds +ρ

r
x,t
s
dB
s
, r
x,t
t
= x
et R
t
s
= exp

s
t
r
x,t
u
du

. La propri´et´e de Markov implique qu’il existe G telle que
exp

s
t
r
x,t
u
du[T
t

= G(t, r
t
)
On admet que G est de classe C
1,2
. On applique la formule d’Itˆo `a G(s, r
x,t
s
)R
t
s
qui est une martingale.
Il vient
G(T, r
x,t
T
)R
t
T
= G(t, x) +

T
t
R
t
s
(−r
x,t
s
G+
∂G
∂t
+a(b −r
x,t
s
)
∂G
∂x
+
1
2
σ
2
r
x,t
s

2
G
∂x
2
)(s, r
s
)ds +M
T
−M
t
o` u M
t
est une int´egrale stochastique. Si l’on choisit G telle que
−xG+
∂G
∂t
+a(b −x)
∂G
∂x
+
1
2
σ
2
x

2
G
∂x
2
= 0 (5.3)
et G(T, x) = 1, ∀x, il vient
R
t
T
= R
t
G(t, r
t
) +M
T
−M −t,
o` u M est une martingale. En particulier, E

exp

T
0
r
s
ds

= E(R
T
) = R
0
G(0, x). En se pla¸cant
entre t et T, on obtient
E

exp

T
t
r
x,t
u
du

= G(t, x)
Il reste `a calculer la solution de l’´equation aux d´eriv´ees partielles (5.3). Un calcul assez long montre
que
1
G(t, x) = Φ(T −t) exp[−xΨ(T −t)]
avec
Ψ(s) =
2(e
γs
−1)
(γ +a)(e
γs
−1) + 2γ
Φ(s) =

2γe
(γ+a)
s
2
(γ +a)(e
γs
−1) + 2γ

2ab
ρ
2
γ
2
= a
2
+ 2σ
2
.
´
Si l’on note B(t, T) le prix du zero-coupon,
dB(t, T) = B(t, T) (r
t
dt +σ(T −t, r
t
)dB
t
)
avec σ(u, r) = σΨ(u)

r
1
“Vous leur conseillerez donc de faire le calcul. Elles [les grandes personnes] adorent les chiffres: ¸ca leur plaira. Mais
ne perdez pas votre temps `a ce pensum. C’est inutile. Vous avez confiance en moi.” Le petit prince, A. de St Exup´ery.
Gallimard. 1946. p. 59.
58 Exemples
5.3 Processus de Bessel et carr´e de Bessel
Pour des d´etails sur les processus de Bessel, voir Revuz-Yor. Bessel processes are intensively used in
Finance, to model the dynamics of asset prices and/or of spot rate or as a computational tool. An
intensive study is made in Going and Yor [?]. Applications to finance can be found in Leblanc’s thesis
and in Szatzschneider [?, ?].
5.4 Definitions
5.4.1 Euclidian norm of n-dimensional Brownian motion
Let n > 1 and B = (B
1
, B
2
, . . . , B
n
) be a n-dimensional Brownian motion and define a process X as
X
t
= [[B
t
[[, i.e., X
2
t
=
¸
n
i=1
(B
i
)
2
(t). Itˆo’s formula leads to dX
2
t
=
¸
n
i=1
2B
i
(t)dB
i
(t) +ndt.
The process β defined as

t
=
1
X
t
B
t
dB
t
=
1
[[B
t
[[
n
¸
i=1
B
i
(t)dB
i
(t), β
0
= 0,
is a continuous martingale as a sum of martingales and the bracket of β is t (the process (β
2
t
−t, t ≥ 0)
is a martingale). Therefore, β is a Brownian motion and the equality d(X
2
t
) = 2B
t
dB
t
+ ndt can be
written as
d(X
2
t
) = 2X
t

t
+ndt .
Using Itˆo’s formula again, we get that,
dX
t
= dβ
t
+
n −1
2
dt
X
t
where β is a Brownian motion, and, setting V
t
= X
2
t
dV
t
= 2

V
t

t
+ndt .
We shall say that X is a Bessel process (BES) with dimension n, and V is a squared Bessel process
(BESQ) of dimension n.
5.4.2 General definition
Let W be a real valued Brownian motion. Using the elementary inequality [

x −

y[ ≤

[x −y[, the
existence theorem ?? proves that for every δ ≥ 0 and α ≥ 0 , the equation
dZ
t
= δ dt + 2

[Z
t
[ dW
t
, Z
0
= α
admits a unique strong solution. The solution is called the squared Bessel process of dimension δ, in
short BESQ
δ
. In particular, if α = 0 and δ = 0, the obvious solution Z ≡ 0 is the unique solution.
From the comparison theorem 4.1.3, if 0 ≤ δ ≤ δ

and if ρ and ρ

are squared Bessel processes with
dimension δ and δ

starting at the same point, then 0 ≤ ρ
t
≤ ρ

t
a.s.
In the case δ > 2, the squared Bessel process BESQ
δ
starting at α will never reach 0 and is a transient
process (ρ
t
goes to infinity as t goes to infinity). If 0 < δ < 2, the process ρ reaches 0 in finite time
and is reflected instantaneously. If δ = 0 the process remains at 0 as soon as it reaches it. Therefore, Z
satisfies Z
t
≥ 0 for all t and we do not need the absolute value under the square root.
D´efinition 5.4.1 (BESQ
δ
) For every δ ≥ 0 and α ≥ 0, the unique strong solution to the equation
ρ
t
= α +δt + 2

t
0

ρ
s
dW
s
is called a squared Bessel process with dimension δ, starting at α and is denoted by BESQ
δ
.
D´efinition 5.4.2 (BES
δ
) Let ρ be a BESQ
δ
starting at α. The process R =

ρ is called a Bessel
process of dimension δ, starting at a =

α and is denoted BES
δ
.
July 8, 2006 59
D´efinition 5.4.3 The number ν = (δ/2) −1 (or δ = 2(ν +1)) is called the index of the Bessel process,
and a Bessel process with index ν is denoted as BES
(ν)
.
We use the notation
()
for an index, whereas there are no bracket for the dimension. A Bessel Process
R with index ν ≥ 0 (i.e. δ ≥ 2) is a diffusion process which takes values in IR
+
and has infinitesimal
generator
L =
1
2
d
2
dx
2
+
2ν + 1
2x
d
dx
=
1
2
d
2
dx
2
+
δ −1
2x
d
dx
.
Therefore, for any f ∈ C
2
c
, the processes
f(R
t
) −

t
0
Lf(R
s
)ds
are martingales.
For δ > 1, a BES
δ
satisfies E

t
0
ds
R
s

< ∞ and is the solution of
R
t
= α +W
t
+
δ −1
2

t
0
1
R
s
ds . (5.4)
In terms of the index
R
t
= α +W
t
+ (ν +
1
2
)

t
0
1
R
s
ds .
For δ = 1, the BES
1
is R
t
= [B
t
[ = β
t
+ L
t
where B and β are Brownian motions and L is the local
time of Brownian motion B. For δ < 1, it is necessary to introduce the principal value of the integral

t
0
ds
R
s
in this case, we have
R
t
= α +W
t
+
δ −1
2
p.v.

t
0
1
R
s
ds , (5.5)
where the principal value is defined as
p.v.

t
0
1
R
s
ds =


0
x
δ−2
(L
x
t
−L
0
t
)dx
and the family of local times is defined via the occupation time formula

t
0
φ(R
s
)ds =


0
φ(x)L
x
t
x
δ−1
dx.
In the same way, the infinitesimal generator of the Bessel squared process ρ is
/ = 2x
d
2
dx
2

d
dx
hence, for any f ∈ C
2
K
, the processes
f(ρ
t
) −

t
0
/f(ρ
s
)ds
are martingales.
A scale function for a BES
(ν)
is s(x) = x
−2ν
for ν < 0, s(x) = 2 ln x for ν = 0 and s(x) = −x
−2ν
for
ν > 0.
A scale function for a BESQ
(ν)
is s(x) = ln x for ν = 0, s(x) = −x
−ν
for ν > 0 and s(x) = x
−ν
for
ν < 0.
60 Exemples
5.4.3 Scaling properties
Proposition 5.4.1 If (ρ
t
, t ≥ 0) is a BESQ
δ
starting at x, then (
1
c
ρ
ct
, t ≥ 0) is a BESQ
δ
starting at
x/c.
D´ emonstration: From
ρ
t
= x + 2

t
0

ρ
s
dW
s
+δ t
we deduce that
1
c
ρ
ct
=
x
c
+
2
c

ct
0

ρ
s
dW
s
+
δ
c
ct =
x
c
+ 2

t
0

ρ
s
c

1/2
1

c
dW
sc
+δt .
Setting u
t
=
1
c
ρ
ct
, we obtain
u
t
=
x
c
+ 2

t
0

u
s
d

W
s
+δ t
where (

W
t
=
1

c
W
tc
, t ≥ 0) is a Brownian motion. ´
5.4.4 Absolute continuity
On the canonical space Ω = C(IR
+
, IR
+
), we denote by R the canonical map R
t
(ω) = ω(t), by {
t
=
σ(R
s
, s ≤ t) the canonical filtration and by P
(ν)
α
(or P
δ
α
) the law of the Bessel Process of index ν (of
dimension δ), starting at α, i.e., such that P
(ν)
α
(R
0
= α) = 1. The law of BESQ
δ
starting at x on the
canonical space C(IR
+
, IR
+
) is denoted by Q
δ
x
.
Proposition 5.4.2 The following absolute continuity relation between a BES
(ν)
process (with ν ≥ 0)
and a BES
(0)
holds
P
(ν)
x
[
R
t
=

R
t
x

ν
exp


ν
2
2

t
0
ds
R
2
s

P
(0)
x
[
R
t
, (5.6)
where P
(ν)
is the law of a BES with index ν.
D´ emonstration: Under P
(0)
, the canonical process R satisfies
dR
t
= dW
t
+
1
2R
t
dt .
The process
L
t
=

R
t
x

ν
exp


ν
2
2

t
0
ds
R
2
s

is a non-negative P
(0)
-martingale. Indeed, Itˆo’s formula leads to
dL
t
= νL
t
ln(R
t
)dW
t
,
hence, the process L is a local martingale. Obviously, sup
t≤T
L
t
≤ sup
t≤T
(R
t
/x)
ν
. The process R
2
is a
squared Bessel process of dimension 2, and is equal in law to B
2
t
+
˜
B
2
y
where B and
˜
B are independent
BM, hence R
k
t
is integrable for k ≥ 2. The process R is a submartingale as a sum of a martingale and
an increasing process, and Doob’s inequality (??) implies that
E[(sup
t≤T
R
t
)
k
] ≤ C
k
E[R
k
T
].
From Girsanov’s theorem, it follows that
dR
t

1
2R
t
dt −d'R, ν ln R`
t
= dR
t

1
R
t
(ν +
1
2
)dt
is a Brownian motion under P
(ν)
x
= L
t
P
(0)
x
.
Remarque 5.4.1 If the index is negative, then the absolute continuity relation holds before T
0
, the
first hitting time of 0:
P
(ν)
x
[
R
t
∩{t<T
0
}
=

R
t
x

ν
exp


ν
2
2

t
0
ds
R
2
s

P
(0)
x
[
R
t
.
July 8, 2006 61
5.5 Properties
5.5.1 Additivity of BESQ
An important property, due to Shiga-Watanabe, is the additivity of the family BESQ. Let us denote
by P ∗ Q the convolution of P and Q.
Proposition 5.5.1 Q
δ
x
∗ Q
δ

y
= Q
δ+δ

x+y
D´ emonstration: The proposition is just a way to tell that the sum of two independent BESQ is a
BESQ. The proof is trivial in the case where δ and δ

are integers. In the general case, let X and Y be
two independent BESQ starting at x (resp. y) and with dimension δ (resp. δ

)and Z = X +Y . Then
Z
t
= x +y + (δ +δ

)t + 2

t
0

X
s
dB
1
s
+

Y
s
dB
2
s

.
Let B
3
a third Brownian motion independent of (B
1
, B
2
). The process W defined as
W
t
=

t
0
11
{Z
s
>0}

X
s
dB
1
s
+

Y
s
dB
2
s

Z
s

+

t
0
11
{Z
s
=0}
dB
3
s
is a Brownian motion (this is a martingale with increasing process equal to t) and
Z
t
= x +y + (δ +δ

)t + 2

t
0

Z
s
dW
s
.
´
5.5.2 Bessel functions
The modified Bessel function I
ν
and K
ν
satisfy the Bessel differential equation
x
2
u

(x) +xu

(x) −(x
2

2
)u(x) = 0
and is given by :
I
ν
(z) =

z
2

ν ∞
¸
n=0
z
2n
2
2n
n! Γ(ν +n + 1)
K
ν
(z) =
π(I
−ν
(z) −I
ν
(z))
2 sin πz
5.5.3 Transition densities
Let E
δ
x
denote the expectation under Q
δ
x
. We get now easily the Laplace transform of ρ
t
, where ρ is a
BESQ
δ
. In fact, Proposition 5.5.1 leads to
E
δ
x
[exp(−λρ
t
)] = E
1
x
[exp(−λρ
t
)]

E
1
0
[exp(−λρ
t
)]

δ−1
and since under Q
1
x
, the r.v. ρ
t
is the square of a Gaussian variable, it is easy to check that E
1
x
[exp(−λρ
t
)] =
1

1 + 2λt
exp(−
λx
1 + 2λt
). Therefore
E
δ
x
[exp(−λρ
t
)] =
1
(1 + 2λt)
δ/2
exp(−
λx
1 + 2λt
) . (5.7)
Bessel and Bessel squared processes are Markov processes and their transition densities are known.
Inverting the Laplace transform (5.7) provides the transition density q
(ν)
t
of a BESQ
(ν)
as
q
(ν)
t
(x, y) =
1
2t

y
x

ν/2
exp


x +y
2t

I
ν
(

xy
t
) (5.8)
62 Exemples
and the Bessel process of index ν has a transition density p
(ν)
t
defined by
p
(ν)
t
(x, y) =
y
t

y
x

ν
exp(−
x
2
+y
2
2t
)I
ν
(
xy
t
) , (5.9)
where I
ν
is the usual modified Bessel function with index ν.
For x = 0, the transition probability of the BESQ
(ν)
(resp. of a BES
(ν)
) is
q
(ν)
(0, y) = (2t)
−(ν+1)
[Γ(ν + 1)]
−1
y
ν
exp


y
2t

p
(ν)
(0, y) = 2
−ν
t
−(ν+1)
[Γ(ν + 1)]
−1
y
2ν+1
exp


y
2
2t

.
(See the Appendix for definition of Bessel functions.)
Exercice 5.5.1 (from Az´ema-Yor [?]). Let X be a BES
3
. Prove that 1/X is a local martingale, but
not a martingale. Establish that
E(1/X
1
[{
u
) =
1
X
u

2
π
Φ(
X
u
1 −u
) ,
where Φ(a) =

a
0
dye
−y
2
/2
.
5.5.4 Hitting times for Bessel processes
For a BES
δ
(See, e.g. Kent [?] or Pitman-Yor [?] prop. 2.3)
E
(ν)
a
(e
−λT
b
) =

b
a

ν
K
ν
(a

2λ)
K
ν
(b

2λ)
, for b < a (5.10)
E
(ν)
a
(e
−λT
b
) =

b
a

ν
I
ν
(a

2λ)
I
ν
(b

2λ)
, for a < b (5.11)
Remark that, for a > b, P
(ν)
a
(T
b
< ∞) = (b/a)

. Indeed, P
(ν)
a
(T
b
< ∞) = lim
λ→0
E
(ν)
a
(e
−λT
b
), and it
is well known that K
ν
(z) ∼ c(ν)z
−ν
for z close to 0.
In particular, for a 3-dimensional Bessel process
E
3
0
(exp −
λ
2
2
T
b
) =
λb
sinh λb
and, more generally
E
3
a
(exp −
λ
2
2
T
b
) =
b
a
sinh λa
sinh λb
From inversion of Laplace transform,
P
3
0
(T
b
∈ dt) =
π
2
2b
2

Σ
n∈Z
(−1)
n+1
n
2
e
−n
2
π
2
t/(2b
2
)

dt
Exercice 5.5.2 The power of a Bessel process is another Bessel process time-changed
q[R
(ν)
t
]
1/q
loi
= R
(νq)
(

t
0
ds
[R
(ν)
s
]
2/p
)
where
1
p
+
1
q
= 1, ν > −
1
q
.
July 8, 2006 63
5.5.5 Laplace transforms
Proposition 5.5.2
E
(ν)
r
¸
exp(−aR
2
t

µ
2
2

t
0
ds
R
2
s
)

= E
(γ)
r
¸
R
t
r

ν−γ
exp(−aR
2
t
)

(5.12)
where γ
2
= µ
2

2
.
D´ emonstration: Let (R
t
, t ≥ 0) be a BES
(ν)
starting from r > 0.
From
1
x
α
=
1
Γ(α)


0
dv exp(−vx)v
α−1
, it follows that
E
(ν)
r
¸
1
(R
t
)

=
1
Γ(α)


0
dv v
α−1
E
(ν)
r
[exp(−vR
2
t
)] .
Therefore, for any α ≥ 0, the equality
E
(ν)
r

1
(R
t
)

=
1
Γ(α)

1/2t
0
dv v
α−1
(1 −2tv)
ν−α
exp(−r
2
v)
follows from the identity E
(ν)
r
[exp(−vR
2
t
)] =
1
(1 + 2vt)
1+ν
exp


r
2
v
1 + 2vt

and a change of variable.
We can also compute, using (5.6)
E
(ν)
r
¸
exp(−aR
2
t

µ
2
2

t
0
ds
R
2
s
)

= E
(0)
r
¸
R
t
r

ν
exp(−aR
2
t

µ
2

2
2

t
0
ds
R
2
s
)

= E
(γ)
r
¸
R
t
r

ν−γ
exp(−aR
2
t
)

where γ =

µ
2

2
. The quantity E
(γ)
r
¸
R
t
r

ν−γ
exp(−aR
2
t
)

can be computed with the help of the
first part of this section
E
(γ)
r
¸
1
R
t


exp(−aR
2
t
)

=
1
Γ(α)


0
dvv
α−1
E
(γ)
r
[exp(−(v +a)R
2
t
)]
=
1
Γ(α)


0
dv v
α−1
(1 + 2(v +a)t)
−(1+γ)
exp


r
2
(v +a)
1 + 2(v +a)t

therefore
E
(ν)
r
¸
exp

−aR
2
t

µ
2
2

t
0
ds
R
2
s

=
1
Γ(α) r
ν−γ


0
dv v
α−1
(1 + 2(v +a)t)
−(1+γ)
exp


r
2
(v +a)
1 + 2(v +a)t

where α =
1
2
(γ −ν) =
1
2
(

µ
2

2
−ν).
Exercice 5.5.3 Prove, using the same method that
E
(ν)
r
¸
1
R
α
t
exp(−
µ
2
2

t
0
ds
R
2
s
)

= E
(0)
r
¸
R
ν
t
r
ν
R
α
t
exp(−
µ
2

2
2

t
0
ds
R
2
s
)

= E
(γ)
¸
R
ν−γ−α
t
r
ν−γ

Proposition 5.5.3 For a BESQ
δ
, we have
Q
δ
x
¸
exp(−
1
2
b
2

1
0
ρ
s
ds)

= (cosh b)
−δ/2
exp


1
2
xb tanh b

. (5.13)
64 Exemples
D´ emonstration: For any locally bounded function F the process
Z
t
def
= exp
¸
t
0
F(s)

ρ
s
dW
s

1
2

t
0
F
2
(s)ρ
s
ds

is a local martingale. The BESQ
δ
process ρ satisfies dρ
t
= 2

ρ
t
dW
t
+δ dt, therefore
Z
t
= exp
¸
1
2

t
0
F(s)d(ρ
s
−δs) −
1
2

t
0
F
2
(s)ρ
s
ds

.
If F is differentiable, an integration by parts leads to

t
0
F(s)dρ
s
= F(t)ρ
t
−F(0)ρ
0

t
0
ρ
s
dF(s)
and
Z
t
= exp
¸
1
2
(F(t)ρ
t
−F(0)x −δ

t
0
F(s)ds) −
1
2

t
0
[F
2
(s)ρ
s
ds +ρ
s
dF(s)]

Let us choose F =
Φ

Φ
where Φ satisfies for a given b
Φ

= b
2
Φ, Φ(0) = 1, Φ

(1) = 0 .
It is easy to check that Φ(t) = cosh(bt) −(tanh b) sinh(bt). Then,
Z
t
= exp
¸
1
2
(F(t)ρ
t
−F(0)x −δ ln Φ(t)) −
b
2
2

t
0
ρ
s
ds

is a martingale and
1 = E(Z
0
) = E(Z
1
) = E

exp
¸

1
2

(0) −
δ
2
ln Φ(1) −
b
2
2

1
0
R
s
ds

.
From Φ(1) = 1/ cosh b and Φ

(0) = −b tanhb we get the result. ´
Exercice 5.5.4 We can extend the previous result and prove that the Laplace transform of the process,
i.e.
E
¸
exp

t
0
duφ(u)r
u

is known. More generally, let µ be a positive, diffuse Radon measure on IR
+
. The Sturm-Liouville
equation Φ

= µΦ has a unique solution Φ
µ
, which is positive, non-increasing on [0, ∞[ and such that
Φ
µ
(0) = 1. Let Ψ
µ
(t) = Φ
µ
(t)

t
0
ds
Φ
2
(s)
.
1. Prove that Ψ is a solution of the Sturm-Liouville equation and that Ψ
µ
(0) = 0, Ψ

µ
(0) = 1, and
satisfies the Wronskian relation
W(Φ
µ
, Ψ
µ
) = Φ
µ
Ψ

µ
−Φ

µ
Ψ
µ
= 1 .
2. Prove that, for every t ≥ 0, one has
Q
δ
x

exp


1
2

t
0
X
s
dµ(s)

=
1

Ψ

µ
(t)

δ/2
exp

x
2

Φ

µ
(0) −
Φ

µ
(t)
ψ

µ
(t)

Q
δ
x

exp


1
2


0
X
s
dµ(s)

= (Φ
µ
(∞))
δ/2
exp

x
2
Φ

µ
(0)

July 8, 2006 65
5.6 Cox-Ingersoll-Ross processes
5.6.1 CIR processes and BESQ
The Cox-Ingersoll-Ross (CIR) process is the solution of
dr
t
= k(θ −r
t
) dt +σ

r
t
dW
t
. (5.14)
Change of time
The change of time A(t) = σ
2
t/4 reduces the study of the solution of (5.14) to the case σ = 2 : indeed,
if Z
t
= r
σ
2
t/4
, then
dZ
t
= k

(θ −Z
t
) dt + 2

Z
t
dB
t
with k

= kσ
2
/4 and B is a Brownian motion.
The CIR process (5.14) is a space-time changed BESQ process: more precisely,
r
t
= e
−kt
ρ(
σ
2
4k
(e
kt
−1))
where (ρ(s), s ≥ 0) is a BESQ
δ
(α) process, with δ =
4kθ
σ
2
. (If needed, see the following theorem ??). In
particular, if
4kθ
σ
2
> 2, the process does not hit 0.
From the second theorem on the existence of solutions to SDE, the equation (5.14)admits a unique
non-negative solution. Let us assume that 2kθ ≥ σ
2
and denote T
x
0
def
= inf¦t ≥ 0 : r
x
t
= 0¦ the first
hitting time of 0. Then, P(T
x
0
= ∞) = 1, i.e., the process r does not reach 0. In the case 0 ≤ 2kθ < σ
2
and k > 0, then P(T
x
0
< ∞) = 1. If k < 0, then P(T
x
0
< ∞) ∈]0, 1[ .
5.6.2 Transition probabilities for a CIR process
From the expression of a CIR process as a change of time of a square Bessel process, we obtain using
the density of the squared Bessel process given in (5.8)
Proposition 5.6.1 The transition density P(r
t
∈ dr[r
s
= ρ) = f(r; t −s, ρ)dr is given by
f(r, t, ρ) =
e
kt
2c

re
kt
ρ

ν/2
exp


ρ +re
kt
2c

I
ν

1
c

ρre
kt

where c =
σ
2
4k
(e
kt
−1) and ν =
2kθ
σ
2
−1.
In particular, denoting by r
t
(ρ) the CIR process with initial value r
0
(ρ) = ρ, the random variable
Y
t
= r
t
(ρ)e
kt
/c has density
P(Y
t
∈ dy) =
e
−α/2

ν/2
e
−y/2
y
ν/2
I
ν
(

yα)dy
where α = ρ/c. This law is a non-central chi-square with δ = 2(ν + 1) degrees of freedom, and α the
parameter of non-centrality.
If we denote by χ
2
(δ, α; y) the cumulative distribution function of this law, we obtain
P(r
T
> µ[r
0
= ρ) = 1 −χ
2
(

σ
2
,
ρ
c
;
Ke
µT
c
)
with c =
σ
2
4k
(e
kT
−1).
Exercice 5.6.1 Let X
i
, i = 1, . . . , n be n independent random variables with X
i
loi
= ^(m
i
, 1). Check
that
¸
i
X
2
i
has a non-central chi-square with d degrees of freedom, and
¸
m
2
i
non-centrality parameter.
66 Exemples
5.6.3 CIR model for spot rate
The Cox-Ingersoll-Ross model for interest rate is the object of many studies since the seminal paper of
Cox et al. [?] where the authors assume that the riskless rate r follows a square root process under the
historical probability given by
dr
t
=
˜
k(
˜
θ −r
t
) dt +σ

r
t
d
˜
W
t
where
˜
k(
˜
θ −r) defines a mean reverting drift pulling the interest rate toward its long term value θ with
a speed of adjustment equal to
˜
k. In the risk adjusted economy, the dynamics are supposed to be given
by :
dr
t
= (
˜
k(
˜
θ −r
t
) −λr
t
)dt +σ

r
t
dW
t
= k(θ −r
t
)dt +σ

r
t
dW
t
where (W
t
, t ≥ 0) is a Brownian motion under the risk adjusted probability Q, k =
˜
k + λ, θ =
˜
k(
˜
θ/k),
and where λ denotes the market price of risk. Therefore, we shall establish formulae under a general
dynamics of the form (??). Even if no closed-form expression can be written for r
t
, it is remarkable
that the Laplace transform of the process, i.e.
E
¸
exp

t
0
duφ(u)r
u

is known (See Exercise 5.5.4). In particular, the expectation and the variance of the random variable
r
t
can be computed. Dufresne has obtained formulae for the moments.
Chapter 6
CHANGEMENT DE
PROBABILIT
´
E
On travaille avec un espace (Ω, T, T
t
, P) et un horizon fini T.
6.1 Th´eor`eme de Girsanov
6.1.1 Changement de probabilit´e
Proposition 6.1.1 Soient P et Q deux probabilit´es sur (Ω, T
T
). On suppose P et Q ´equivalentes. Alors
il existe (L
t
, t ≤ T), P − (T
t
)-martingale strictement positive telle que Q = L
T
P sur T
T
et Q
|F
t
=
L
t
P
|F
t
, c’est-`a-dire telle que E
Q
(X) = E
P
(L
t
X) pour toute variable X Q-int´egrable T
t
-mesurable pour
t ≤ T. De plus, L
0
= 1 et E
P
(L
t
) = 1, ∀t ≤ T
D´ emonstration: Si la restriction de P et Q `a T
T
sont ´equivalentes, il existe une v.a. L
T
T
T
-mesurable
telle que Q = L
T
P sur T
T
(Th´eor`eme de Radon-Nikodym). On dit que L
T
est la densit´e de Q par
rapport `a P et E
Q
(X) = E
P
(L
T
X) pour toute variable X T
T
-mesurable et Q-int´egrable (Voir Rappels,
chap. 1). En particulier, L
T
est strictement positive et E
P
(L
T
) = 1. Soit L
t
= E
P
(L
T
[T
t
). Par
construction (L
t
, t ≤ T) est une martingale et est la densit´e T
t
-mesurable de Radon-Nikodym de Q par
rapport `a P sur T
t
. En effet, si X est T
t
-mesurable et Q int´egrable (par exemple born´ee),
E
Q
(X) = E
P
(L
T
X) = E
P
[E
P
(XL
T
[T
t
)] = E
P
[XE
P
(L
T
[T
t
)] = E
P
(XL
t
).
´
Il est `a remarquer que dans ce cas, on a P = (L
T
)
−1
Q et E
P
(Y ) = E
Q
(L
−1
T
Y ) et (L
−1
t
, t ≤ T) est
une Q-martingale.
On parlera de la loi
1
d’une variable (d’un processus) sous P ou sous Q suivant que l’espace est muni
de la probabilit´e P ou Q. Une propri´et´e vraie P-p.s. est vraie Q-p.s. Il convient de faire attention aux
propri´et´es d’int´egrabilit´e, une v.a. P int´egrable n’est pas n´ecessairement Q-int´egrable.
Proposition 6.1.2 On a ´equivalence entre M est une Q-martingale et LM est une P-martingale.
D´ emonstration: Soit M une Q-martingale. En utilisant la formule de Bayes et la propri´et´e de P-
martingale de L, on obtient, pour s ≤ t,
M
s
= E
Q
(M
t
[T
s
) =
E
P
(L
t
M
t
[T
s
)
L
s
D’o` u le r´esultat. La r´eciproque r´esulte de la formule de Bayes . ´
1
“ Les lois doivent tellement ˆetre propres au peuple pour lesquelles elles sont faites, que c’est un tr`es grand hasard si
celles d’une nation peuvent convenir `a une autre”. Montesquieu.
67
68 Changement de probabilit´e
6.1.2 Th´eor`eme de Girsanov
On peut d´emontrer le r´esultat suivant, connu sous le nom de th´eor`eme de Girsanov
Th´eor`eme 6.1.1 Soit (B
t
, t ≥ 0) un mouvement brownien sur un espace (Ω, T, P) et (T
t
) sa filtration
canonique. Soit
L
t
:= exp[

t
0
θ
s
dB
s

1
2

t
0
θ
2
s
ds], t ≤ T
o` u θ est un processus (T
t
)-adapt´e (autrement dit dL
t
= L
t
θ
t
dB
t
). On suppose E(L
T
) = 1. Soit
dQ[
F
T
def
= L
T
dP[
F
T
. Le processus B
t
s’´ecrit B
t
:=
˜
B
t
+

t
0
θ
s
ds o` u
˜
B est un Q-mouvement brownien.
Sous la condition de Novikov E
P
(exp
1
2

T
0
θ
2
s
ds) < ∞, L
T
est une variable positive d’esp´erance 1 sous
P et L est une P-martingale.
Si L n’est pas d’esp´erance 1, L est une surmartingale d’esp´erance strictement plus petite que 1. Nous
verrons plus loin pourquoi nous utilisons des martingales L de cette forme.
D´ emonstration: Dans le cas θ = m (constante) on utilise la caract´erisation du Brownien par
la propri´et´e de martingale de exp(λB
t

λ
2
2
t). Il faut donc montrer que exp(λ
˜
B
t

λ
2
2
t) est une Q-
martingale, ou que
L
t
exp(λ(B
t
−mt) −
λ
2
2
t) = exp((λ +m)B
t

1
2
[2mλ + (m
2

2
)]t)
est une P-martingale, ce qui est ´evident. Dans le cas g´en´eral, on peut facilement v´erifier que
˜
B est une
Q-martingale, car
˜
BL est une P-martingale. Le crochet de la Q-semi martingale B est le mˆeme que
celui de sa partie martingale, soit celui de la Q-martingale
˜
B. Le crochet ne d´ependant pas du choix de
la probabilit´e, le crochet de B est t, et le crochet de
˜
B est aussi t.
On peut ´egalement v´erifier que
˜
B
2
t
−t est une Q-martingale, car (
˜
B
2
t
− t)L
t
est une P martingale.
´
Une fa¸con d’utiliser le th´eor`eme de Girsanov est la g´en´eralisation suivante
Proposition 6.1.3 Soit Z une P-martingale locale continue et Q d´efinie sur T
t
par
dQ = exp(Z
t

1
2
'Z`
t
)dP = L
t
dP.
On suppose que Q est une probabilit´e. Si N est une P-martingale locale continue, le processus (N
t

'N, Z`
t
= N
t

1
L
t
'N, L`
t
, t ≥ 0) est une Q-martingale locale continue de crochet 'N`
t
.
D´ emonstration: La martingale L
t
= exp(Z
t

1
2
'Z`
t
) v´erifie dL
t
= L
t
dZ
t
. Le processus (N
t

'N, Z`
t
, t ≥ 0) est une Q-martingale locale: il suffit de v´erifier que (L
t
N
t
− L
t
'N, Z`
t
, t ≥ 0) est une
P-martingale locale par application de la formule d’Itˆo. Le crochet de N ne d´epend pas de la probabilit´e
sous laquelle on travaille (sous r´eserve que cette probabilit´e soit ´equivalente `a la probabilit´e de d´epart),
car le crochet est d´efini comme limite des variations quadratiques. ´
Une autre fa¸con d’´ecrire ce r´esultat est de se placer sur l’espace canonique. On obtient ainsi l’absolue
continuit´e de W (loi du Brownien) et W
(ν)
(loi du Brownien de drift ν).
W
(ν)
[
F
t
= exp(νW
t

ν
2
2
t)W[
F
t
. (6.1)
Quelques mots d’explications. Dans le membre de droite, W est l’application canonique. Elle est not´ee
W pour faire penser au Brownien mais pourrait ˆetre not´ee X comme nous allons le faire (comme dans
une int´egrale, la variable muette peut s’appeller x ou y). Cette ´ecriture traduit que
W
(ν)
(F(X
u
, u ≤ t)) = W(exp(νX
t

ν
2
2
t)F(X
u
, u ≤ t))
July 8, 2006 69
pour toute fonctionnelle F.
Regardons le cas particulier F(X
u
, u ≤ t)) = f(X
t
). Le terme W
(ν)
(F(X
u
, u ≤ t)) est alors W
(ν)
(f(X
t
)) =
E(f(W
t
+νt)) o` u dans le terme de droite W est un brownien (et donc (W
t
+νt, t ≥ 0) un Brownien de drift
ν). Le terme W(exp(νX
t

ν
2
2
t)F(X
u
, u ≤ t)) est W(exp(νX
t

ν
2
2
t)f(X
t
)) = E((exp(νW
t

ν
2
2
t)f(W
t
))
o` u dans le terme de droite W est un brownien. Le th´eor`eme de Girsanov nous dit que si W est un
brownien sous P et dQ[
F
t
= exp(νW
t

ν
2
2
t)dP[
F
t
, alors
E
P
(exp(νW
t

ν
2
2
t)f(W
t
)) = E
Q
(f(W
t
)) = E
Q
(f(
˜
W
t
+νt)))
o` u
˜
W est un Brownien sous Q. C’est exactement l’´ecriture (6.1).
Remarquer que ceci se g´en´eralise au cas o` u t est un temps d’arrˆet et aussi au cas o` u le changement de
probabilit´e est de la forme exp(

t
0
θ
s
dW
s

1
2

t
0
θ
2
s
ds).
On parle de formule de Cameron-Martin quand θ est d´eterministe.
6.1.3 Remarques
En utilisant les formules exponentielles d´eja vues, on remarque que L est solution de dL
t
= L
t
θ
t
dB
t
, L
0
=
1. Il convient de remarquer que P s’obtient en fonction de Q par dP = L
−1
T
dQ, avec
L
−1
T
= exp[−

T
0
θ(s)dB
s
+
1
2

T
0
θ
2
(s)ds].
Cette formule est souvent utile, mais il faut se souvenir que B est un brownien sous P. Si l’on veut
´ecrire L en terme de Brownien sous Q, on obtient L
−1
T
= exp[−

T
0
θ(s)d
˜
B
s

1
2

T
0
θ
2
(s)ds].
Le processus (L
−1
t
, t ≥ 0) est une Q martingale, et si X ∈ T
T
on a E
P
(X) = E
Q
(L
−1
T
X).
6.1.4 Exercices
a. Calcul de E(B
t
exp[

T
0
θ
s
dB
s

1
2

T
0
θ
2
s
ds]) pour t < T et θ d´eterministe.
Si l’on veut calculer I = E(B
t
exp[

T
0
θ
s
dB
s

1
2

T
0
θ
2
s
ds]), o` u B est un brownien, on effectue le change-
ment de probabilit´e avec L
t
= exp[

t
0
θ
s
dB
s

1
2

T
0
θ
2
s
ds] et on a
I = E
P
(L
T
B
t
) = E
P
(L
t
B
t
) = E
Q
(B
t
) = E
Q
(
˜
B
t
+

t
0
θ
s
ds) =

t
0
E
Q

s
) ds =

t
0
θ
s
ds.
Utilisons sur cet exemple la notation (6.1).
I = W(X
t
exp(

T
0
θ
s
dX
s

1
2

T
0
θ
2
s
ds)) = W
(θ)
(X
t
) = W(X
t
+

t
0
θ
s
ds)
On peut en guise d’application calculer E(B
t
exp B
t
).
b. Calcul de I = E(exp[−αB
2
t

b
2
2

t
0
dsB
2
s
]) o` u B est un brownien issu de a
On pose x = a
2
et on d´efinit P
b
par dP
b
= L
t
dP avec
L
t
= exp[−
b
2
(B
2
t
−x −t) −
b
2
2

t
0
dsB
2
s
]
En utilisant la formule d’int´egration par parties, on a
L
t
= exp[−b

t
0
B
s
dB
s

b
2
2

t
0
dsB
2
s
]
70 Changement de probabilit´e
et L est une P martingale. Sous P
b
, (
˜
B
t
= B
t
+b

t
0
ds B
s
, t ≥ 0) est un brownien issu de a et β
t
=
˜
B
t
−a
est un brownien issu de 0. Sous P
b
, on a
B
t
= a +β
t
−b

t
0
ds B
s
donc B est un processus d’Ornstein-Uhlenbeck sous P
b
et B
t
est une v.a. gaussienne d’esp´erance ae
−bt
et de variance
1
2b
(1 −e
−2bt
). On a
I = E
b
(L
−1
t
exp[−αB
2
t

b
2
2

t
0
dsB
2
s
]) = E
b
[exp[−αB
2
t
+
b
2
(B
2
t
−x −t)))
Il reste quelques calculs simples et longs pour obtenir
I = (cosh bt + 2
α
b
sinh bt)
−1/2
exp[−
xb
2
1 +

b
coth bt
coth bt +

b
] .
d. Temps d’atteinte
Proposition 6.1.4 Si X est le processus d´efini par X
t
= νt + B
t
et si T
ν
a
= inf¦t ≥ 0; X
t
= a¦ est le
temps d’atteinte de a, on a pour λ tel que ν
2
+ 2λ > 0,
E(exp(−λT
ν
a
)) = exp(νa −[a[

ν
2
+ 2λ) .
D´ emonstration: Il suffit de remarquer que pour λ > 0,
E (exp(−λT
ν
a
))) = E(11
(T
ν
a
<∞)
exp(−λT
ν
a
)) = W
(ν)
(exp(−λT
a
)11
(T
a
<∞)
)
= W(exp(νX
T
a −
1
2
ν
2
T
a
) exp(−λT
a
)11
(T
<
a
∞)
)
= e
νa
W[exp(−
1
2

2
+ 2λ)T
a
)]
´
On verra dans la section ?? d’autres applications. Remarque P(T
ν
a
< ∞) = 1 si aν > 0 et
P(T
ν
a
< ∞) < 1 sinon. On obtient
P(T
ν
a
∈ dt) =
dt

2πt
3
ae
νa
exp(−
1
2
(
a
2
t

2
t)) .
6.1.5 Cas vectoriel
Mouvement Brownien standard
Si B
(1)
et B
(2)
sont ind´ependants sous P et si dQ = L
t
dP avec L
t
= L
1
t
L
2
t
et
L
i
t
= exp
¸
t
0
θ
(i)
s
dB
(i)
s

1
2

t
0

(i)
s
)
2
ds

on v´erifie que dL
t
= L
t

(1)
t
dB
(1)
t

(2)
t
dB
(2)
t
) et que, sous Q ,
¯
B
(i)
t
= B
(i)
t

t
0
θ
(i)
(s)ds sont des MB
ind´ependants.
Cas de MB corr´el´es
Soit B
(1)
et B
(2)
deux MB de coefficient de corr´elation ρ sous P, T
t
la filtration naturelle du couple
B
(1)
, B
(2)
et dQ[
F
t
= L
t
dP[
F
t
avec dL
t
= L
t

(1)
dB
(1)
t

(2)
dB
(2)
t
). Sous Q,
¯
B
(i)
t
= B
(i)
t

t
0

(i)
(s) +
ρθ
(j)
(s))ds sont des MB de corr´elation ρ sous Q. (Mais l’´egalit´e entre L et le produit L
1
L
2
n a pas
lieu.) En effet, pour montrer que
¯
B
(1)
est un Q-MB, il suffit de v´erifier que LB
(1)
est une Q-martingale
locale. La formule d’Itˆo conduit `a
d(LB
(1)
) = LB
(1)

1
dB
(1)

2
dB
(2)
) +L(dB
(1)
−(θ
1
+ρθ
2
)dt) +L(θ
1
dt +θ
2
ρdt)
July 8, 2006 71
6.2 Application aux mod`eles financiers
Soit S v´erifiant
dS(t) = S(t)[b(t)dt +σ(t)dW
t
].
On peut trouver une (et une seule) probabilit´e Q ´equivalente `a P telle que
dS(t) = S(t)[r(t)dt +σ(t)dB
t
]
o` u B est un Q-mouvement Brownien, et r est le taux sans risque. Il suffit de prendre dQ[
F
t
= L
t
dP[
F
t
avec L solution de L
0
= 1, dL
t
= L
t
θ(t)dW
t
avec θ(t) = −σ
−1
(t)(b(t)−r(t)), sous r´eserve d’int´egrabilit´e
de θ. En effet
dB
t
= dW
t
−θ(t)dt = dW
t
+
b(t) −r(t)
σ(t)
dt
est un Q-MB et
b(t)dt +σ(t)dW
t
= b(t)dt +σ(t)[dB
t
+θ(t)dt] = r(t)dt +σ(t)dB
t
La probabilit´e Q est appell´ee probabilit´e risque neutre. Soit R
t
= exp

t
0
r(s) ds

le coefficient
d’actualisation. Le processus SR des prix actualis´es v´erifie d(S
t
R
t
) = S
t
R
t
σ
t
dB
t
, et est une Q-
martingale locale.
6.2.1 Application `a la valorisation d’un actif contingent en march´e complet
On se place dans le cas r constant. Soit V
t
la valeur en t d’un portefeuille auto-finan¸cant dupliquant
l’actif contingent ζ o` u ζ est une v.a. positive T
T
mesurable, int´egrable (on admet l’existence d’un tel
portefuille pour le moment). Dans le cas d’un call europ´een, ζ est ´egale `a (S
T
−K)
+
.
Proposition 6.2.1 Le processus V R est une Q-martingale et
E
Q
(R
T
V
T
[T
t
) = E
Q
[R
T
ζ [T
t
] = V
t
R
t
.
D´ emonstration: Admettons l’existence d’un portefeuille de duplication α, π tel que V
t
:= α
t
S
0
t

t
S
t
et V
T
= ζ. La condition d’autofinancement est, par d´efinition dV
t
= α
t
dS
0
t
+ π
t
dS
t
. Si on note
˜
V
t
:= e
−rt
V
t
et
˜
S
t
:= e
−rt
S
t
, les valeurs actualis´ees on montre facilement que d
˜
V
t
= π
t
d
˜
S
t
soit
˜
V
t
= V
0
+

t
0
π
s
d
˜
S
s
= V
0
+

t
0
π
s
S
s
R
s
σ
s
d
¯
B
s
. (6.2)
On remarque qu’`a tout processus π et `a toute valeur initiale x on peut associer un α tel que le couple
(α, π) soit autofinancant de valeur initiale x. Il suffit de calculer
˜
V
t
= V
0
+

t
0
π
s
d
˜
S
s
et de choisir α
t
tel
que V
t
= e
rt
˜
V
t
= α
t
S
0
t

t
S
t
.
Le processus
¯
V est une int´egrale stochastique par rapport `a une Q-martingale, c’est donc une Q
martingale locale. Si c’est une martingale,
˜
V
t
= E
Q
(
˜
V
T
[T
t
) = E
Q
(e
−rT
ζ [T
t
). (6.3)
Le portefeuille de couverture s’obtient au moyen de (6.2). Comme nous l’avons dit, si l’on connait
π, il reste `a poser α
t
=
1
S
0
t
(V
t
−π
t
S
t
) =
˜
V
t
−π
t
˜
S
t
.
Il reste `a prouver l’existence de π ce qui est obtenu au moins th´eoriquement au moyen d’un th´eor`eme
de repr´esentation (Voir chapitre sur les compl´ements).
La m´ethode est alors la suivante: pour ´evaluer ζ, il faut identifier la probabilit´e risque neutre, calculer
E
Q
(e
−rT
ζ [T
t
) et identifier le π. On peut remarquer que, puisque ζ est positif, la valeur V
t
du porte-
feuille de duplication aussi.
Dans le cas du mod`ele de Black et Scholes, dS(t) = S(t)[bdt +σ dB
t
] o` u b et σ sont constants,
dS
t
= S(t)(rdt +σd
˜
B
t
)
72 Changement de probabilit´e
o` u
˜
B est un Q-MB et S est un Brownien g´eom´etrique. On a dQ = L
t
dP avec dL
t
= L
t
θdB
t
pour
θ = −
µ −r
σ
. Le MB
˜
B est d
˜
B = dB −θdt.
On peut donc calculer l’esp´erance conditionnelle (6.3) dans le cas ζ = (S
T
− K)
+
. Il est facile de
v´erifier (utiliser la propri´et´e de Markov) que V
t
= F(t, S
t
) avec F(t, x) = xN(d
1
) − Ke
−r(T−t)
N(d
2
)
(cf. formule de Black-Scholes).
Soit
˜
F(t, x) := e
−rt
F(t, x). La formule d’Itˆo montre que
˜
F(t, S
t
) =
˜
F(0, S
0
) +

t
0
∂F
∂x
(u, S
u
)d
˜
S
u
en tenant compte du fait que
˜
F(t, S
t
) est une martingale. On retrouve l’EDP d’´evaluation en ´ecrivant
que le drift de
˜
F(t, S
t
) est nul
On peut donc prendre
π
t
=
∂F
∂x
(t, S
t
).
Le terme
∂F
∂x
(t, S
t
) est appell´e le Delta du call, et on parle de Delta hedging.
On obtient ´egalement
V
t
= E
Q
(e
−r(T−t)
(S
T
−K)
+
)[T
t
)
= e
−rt
E
Q
(S
T
e
−rT
11
S
T
>K
) −Ke
−rt
E
Q
(e
−rT
11
S
T
>K
)
Le premier terme peut se calculer `a la main. On peut aussi ´ecrire que S
t
e
−rt
/S
0
est une martingale
positive d’esp´erance 1 et faire un changement de probabilit´e. On pose S
t
e
−rt
= S
0
M
t
o` u M est la
Q-martingale dM
t
= σM
t
dB
t
. C’est une martingale positive d’esp´erance 1, on peut donc l’utiliser
comme changement de probabilit´e. Soit
ˆ
Q = M
t
dQ. Sous
ˆ
Q, le processus
ˆ
B = B − σdt est un MB et
dS
t
= S
t
(rdt +σ(d
ˆ
B
t
+σdt)) = S
t
(r +σ
2
)dt +σd
ˆ
B) soit
S
T
= S
0
exp[(r +σ
2

σ
2
2
)T +σ
ˆ
B
T
] = S
0
exp[(r +
σ
2
2
)T +σ
ˆ
B
T
]
E
Q
(S
T
e
−rT
11
S
T
>K
) = S
0
E
Q
(M
T
11
S
T
>K/S
0
) = S
0
ˆ
Q(S
T
> K/S
0
)
et nous savons calculer cette quantit´e qui s’´ecrit
ˆ
Q(
ˆ
B
T
>
1
σ
ln(K/S
0
) −(r +
σ
2
2
)T).
Voir le paragraphe sur le changement de num´eraire.
6.2.2 Arbitrages
Un arbitrage est une possibilit´e d’investir dans le march´e financier sans mise de fonds (avec une richesse
initiale nulle) et de terminer avec un portefuille de valeur positive quelque soit l’´evolution du march´e,
non identiquement nul. En termes probabilistes, c’est un portefuille π adapt´e tel que la valeur terminale
de la strat´egie auto-financante associ´ee soit positive:
V
0
(π) = 0, V
T
(π) ≥ 0, E(V
T
) > 0 .
L’hypoth`ese de non arbitrage stipule que l’on doit exclure de telles opportunit´es du mod`ele.
6.2.3 Hedging methodology
Let S be a semi-martingale which represents the price of the risky asset and denote by (T
S
t
, t ≥ 0) the
filtration generated by S. A contingent claim H is an T
S
T
-measurable random variable where T is a
fixed horizon. An hedging portfolio consists of a pair of predictable processes (π
0
t
, π
t
; t ≥ 0) such that,
if V
t

0
, π) = π
0
t
e
rt

t
S
t
is the t-time value of the portfolio, the self-financing condition
dV
t

0
, π) = rπ
0
t
e
rt
dt +π
t
dS
t
July 8, 2006 73
holds and V
T
= H. The value V
t
= V
t

0
, π) is the t-time price of H. In particular if
˜
V
t
= e
−rt
V
t
is the
discounted value of the portfolio, Itˆo’s formula implies that
˜
V
t
= V
0
+

t
0
π
s
d
˜
S
s
. Hence, a self-financing
strategy (π
0
, π) is characterized by the knowledge of its initial value V
0
and of its risky part π. Some
technical hypotheses (integrability of π and existence of a lower bound for V ) have to be taken into
account in order to avoid arbitrage strategies as doubling strategies. The first theorem of asset pricing
states that the market is arbitrage free if and only if there exists a probability Q (called an equivalent
martingale measure, in short emm), equivalent to P such that discounted prices are Q-martingales. A
market is said to be complete if any contingent claim H admits an hedging portfolio. From the second
theorem of asset pricing, an arbitrage free market is complete if and only if there exists a unique emm.
In that case, the price V
t
(H) of the contingent claim H is defined as the value of the hedging portfolio
and is given by
V
t
(H) = e
rt
E
Q
(He
−rT
[T
S
t
) .
Indeed, from the definition, the discounted value of an hedging portfolio is a stochastic integral with
respect to the discounted value of the asset, hence is a Q-martingale. (We avoid here the distinction
between local martingales and martingales). The uniqueness of the emm is linked with the predictable
representation property of the discounted price process
¯
S, which states that any T
S
T
-measurable ran-
dom variable can be written as x +

T
0
π
s
d
˜
S
s
for a predictable process π. In that case, denoting by L
the Radon-Nikodym density of the emm (i.e. dQ[
F
t
= L
t
dP[
F
t
) a process Z is the t-time value of a
self-financing portfolio if and only if the process (L
t
˜
Z
t
, t ≥ 0) is a P-martingale (i.e. the discounted
process
˜
Z is a Q-martingale).
In the Black and Scholes framework, the market is shown to be complete. Indeed, the Brownian
motion enjoys the predictable representation property, whence the existence of an hedging strategy is
obtained from the obvious remark that the filtration generated by S is equal to the filtration generated
by B, and from the hypothesis that σ and S do not vanish.
In order to hedge contingent claims, the explicit value of the hedging portfolio π is crucial. In a
Markovian setting, it can be obtained from the hedging price process V as follows.
Let us recall that a Markov process X is an F-adapted process such that for t ≥ s and for every bounded
Borelian function f, E(f(X
t
)[T
s
) = E(f(X
t
)[X
s
). The process X is a strong Markov process if for any
finite stopping time τ and any bounded Borelian function f, E(f(X
τ+t
)[T
T
) = E(f(X
τ+t
)[X
T
). The
infinitesimal generator of a Markov process is the operator L defined on a set D of smooth functions
such that for f ∈ D, the process f(t, X
t
) −

t
0
Tf(s, X
s
)ds is a martingale. The solution of a stochastic
differential equation dX
t
= a(t, X
t
)dt +σ(t, X
t
)dW
t
where a and σ are Lipschitz function is a Markov
process (see Karatzas and Shreve (1999)) with generator T(f) = ∂
t
f +a(t, x)∂
x
f +
1
2
σ
2
(t, x)∂
xx
f.
Let S be a solution of dS
t
= S
t
(µ(t, S
t
)dt + σ(t, S
t
)dW
t
), and assume that S is a Markov process. If
moreover, the contingent claim is of European type, i.e. H = h(S
T
), then V
t
(H) is a function of t and
S
t
, say V
t
(H) = v(t, S
t
). Thanks to the martingale property of the discounted prices and using Itˆo’s
formula, one gets that h satisfies the so-called evaluation equation

t
v(t, x) +r(t)x∂
x
v(t, x) +
1
2
σ
2
(t, x)x
2

xx
v(t, x) = r(t)v(t, x)
with the boundary condition v(T, x) = h(x) and the risky part π of the hedging strategy is given by
the derivative of v with respect to the second variable.
In a more general setting, one can use Malliavin’s derivative (see Nualart (1995) for more comments).
For h ∈ L
2
([0, T]), let W(h) =

T
0
h(s)dW
s
. For a smooth function f, the derivative of a random variable
of the form F = f(W(h
1
), . . . , W(h
n
)) is defined as the process (D
t
F, t ≤ T) by
D
t
F =
n
¸
i=1
∂f
∂x
i
(W(h
1
), . . . , W(h
n
))h
i
(t) .
It is noticeable that this derivative can be interpreted as a Fr`echet derivative. The Clark-Ocone repre-
sentation formula states that
F = E(F) +

T
0
E(D
t
F[T
t
)dW
t
.
74 Changement de probabilit´e
As an example, the derivative of F = f(W
T
) is f

(W
T
), hence
f(W
T
) = E(f(W
T
)) +

T
0
E(f

(W
T
)[T
t
)dW
t
.
6.2.4 Arbitrage et mme
On peut montrer que l’hypoth`ese d’absence d’opportunit´e d’arbitrage ´equivaut `a l’existence d’une prob-
abilit´e Q telle que sous Q les prix actualis´es sont des martingales. Ce th´eor`eme est tr`es difficile et
n´ecessite quelques hypoth`eses techniques. On consultera [?] et, dans le cas g´en´eral [?].
6.2.5 Cas g´en´eral
Lorsqu’il existe une unique probabilit´e telle que les actifs actualis´es sont des martingales, on ´evalue
les actifs de la mˆeme fa¸con. De telles probabilit´es sont appell´ees mesures martingale ´equivalentes
(MME). Il se peut qu’il existe plusieurs (et dans ce cas c’est une infinit´e) MME. Dans ce cas, le march´e
n’est pas complet, et l’on peut associer `a toute v.a. ζ = h(S
T
) une fourchette de prix d´efinie par
] inf
Q
E
Q
(e
−rT
h(S
T
), sup
Q
E
Q
(e
−rT
h(S
T
)[. On peut montrer que la borne sup´erieure de la fourchette
de prix est la plus petite valeur initiale d’un portefeuille de surcouverture.
6.3 Probabilit´e forward-neutre
Diff´erentes approches sont utilis´ees en temps continu pour ´etudier la structure par terme des taux. La
premi`ere consiste `a mod`eliser le prix des z´ero-coupons en respectant l’hypoth`ese d’A.O.A. et `a en d´eduire
l’expression du taux spot. Une autre approche utilise le taux spot comme variable explicative. Nous
allons ´evoquer ici comment un changement de probabilit´e permet de valoriser facilement des produits
sur taux.
6.3.1 D´efinitions
On donne les mˆemes d´efinitions qu’en temps discret. On appelle z´ero-coupon de maturit´e T, un titre
versant un franc `a la date T, et ne donnant aucun flux entre t et T. On suppose
2
que, pour tout T, il
existe un z´ero-coupon de maturit´e T.
Le prix `a la date t d’un z´ero-coupon d’´ech´eance T est not´e P(t, T). On a P(T, T) = 1.
Si S(t) est le prix d’un actif financier en unit´es de la date t, on appelle prix forward de S le prix
exprim´e en unit´es de la date T, soit S
F
(t) =
S(t)
P(t, T)
.
On introduit le rendement `a l’´ech´eance
3
en t, soit Y (t, T) d´efini par
P(t, T) = exp −(T −t)Y (t, T).
Le taux spot forward en t pour la maturit´e T est
f(t, T) = −
¸
∂ ln P(t, θ)
∂θ

θ=T
.
On a alors Y (t, T) =
1
T −t

T
t
f(t, u) du.
Le taux spot instantan´e est
r(t) = lim
T→t
Y (t, T) := −
¸
∂ ln P(t, T)
∂T

T=t
= f(t, t).
2
cette hypoth`ese n’est pas r´ealis´ee en pratique.
3
yield to maturity.
July 8, 2006 75
La courbe des taux est la fonction θ → Y (t, θ).
Le facteur d’actualisation est
R(t) := exp −

t
0
r(s) ds.
On peut `a chaque instant t observer une gamme des taux, c’est-`a-dire la famille s → Y (t, s +t) des
taux d’int´erˆet de maturit´e s + t au jour t. On d´esire ´etudier le comportement de la courbe Y (t, θ) en
fonction de la courbe des taux aujourd’hui, c’est `a dire Y (0, θ).
Dans un mod`ele d´eterministe, on doit avoir
P(t, T) = P(t, u)P(u, T), ∀ t ≤ u ≤ T ,
pour ´eviter les opportunit´es d’arbitrage. On en d´eduit, sous une hypoth`ese de diff´erentiabilit´e, l’existence
d’une fonction r telle que P(t, T) = exp −

T
t
r(s) ds. On v´erifie que, comme dans le mod`ele discret,
on a f(t, T) = f(0, T) = r(T) , ∀ t ≤ T et Y (t, T) =
1
T−t

T
t
r(u) du. Le rendement `a l’´ech´eance est la
valeur moyenne du taux spot.
Dans un mod`ele stochastique, on se donne comme toujours un espace probabilis´e muni d’une filtra-
tion T
t
que l’on supposera ˆetre une filtration Brownienne. On suppose qu’`a la date t, le prix P(t, .)
des z´ero-coupons est connu, c’est-`a-dire que les variables P(t, .) sont T
t
-mesurables. Pour expliciter
l’hypoth`ese d’A.O.A., on suppose que les processus P(. , T) sont positifs, adapt´es, continus et que
P(t, T) est d´erivable par rapport `a T de d´eriv´ee continue.¡
On suppose qu’il existe une probabilit´e Q sous laquelle les prix actualis´es sont des martingales de
carr´e int´egrable : sous Q, le processus R(t)P(t, T) est une martingale. Cette propri´et´e est vraie pour
tout T, pour ´eviter les opportunit´es d’arbitrage entre des produits de maturit´es diff´erentes.
Cette propri´et´e entraˆıne des r´esultats int´eressants. Tout d’abord, puisque P(T, T) = 1, on obtient
que P(0, T) = E
Q
(R(T)), et que
P(t, T) = E
Q
[exp −

T
t
r(u) du[T
t
]
6.3.2 Changement de num´eraire
a. Probabilit´e forward-neutre
La valeur `a la date t d’un flux d´eterministe F re¸cu `a la date T est
FP(t, T) = F E
Q
[exp −

T
t
r(u) du[T
t
].
Si ce flux est al´eatoire, la valeur `a la date t de ce flux est
E
Q
[F exp −

T
t
r(u) du[T
t
].
Il est possible d’interpr´eter cette formule en l’´ecrivant F
c
P(t, T), o` u F
c
est l’´equivalent certain
4
de F et
est d´efini par
F
c
=
1
P(t, T)
E
Q
[F exp −

T
t
r(u) du[T
t
].
Nous allons ´ecrire cette derni`ere ´egalit´e en utilisant un changement de probabilit´e.
Par hypoth´ese A.O.A, le processus R(t)P(t, T) est une Q-martingale, son esp´erance est constante,
´egale `a P(0, T).
4
“Je pr´ef`ere la certitude aux calculs des probabilit´es” Pr´evert, La Tour, Oeuvres compl`etes, Ed. Pl´eiade, p.247
76 Changement de probabilit´e
Pour tout T, le processus ζ
T
t
:=
R(t)P(t, T)
P(0, T)
est une Q-martingale positive d’esp´erance 1. On peut
donc utiliser ζ
T
t
comme densit´e de changement de probabilit´e. Soit Q
T
la mesure de probabilit´e d´efinie
sur (Ω, T
T
) par Q
T
(A) = E
Q

T
t
1
A
) pour tout A ∈ T
t
. Lorsque T est fix´e, on notera ζ
t
= ζ
T
t
.
D´efinition 6.3.1 La probabilit´e Q
T
d´efinie sur T
T
, par
dQ
T
dQ
= ζ
T
t
est appel´ee probabilit´e forward-
neutre de maturit´e T.
Avec cette notation
E
Q
T
(F [T
t
) = E
Q
(F
ζ
T
ζ
t
[T
t
) = F
c
.
Lorsque F est la valeur d’un titre, l’´equivalent certain F
c
est appell´e le prix `a terme de F.
Lorsque r est d´eterministe, Q
T
= Q.
La mesure Q
T
est la martingale mesure associ´ee au choix du z´ero-coupon de maturit´e T comme
num´eraire, comme l’explicite la propri´et´e suivante.
Proposition 6.3.1 Si X est un processus de prix, le prix forward (X
t
/P(t, T), 0 ≤ t ≤ T) est une
martingale sous Q
T
.
Soit T fix´e. Soit X un processus de prix. Par d´efinition de la martingale mesure Q, le processus des
prix actualis´es (X
t
R(t), t ≥ 0) est une Q-martingale. Nous voulons montrer que (X
t
/P(t, T); t ≤ T)
est une Q
T
-martingale, ce qui ´equivaut `a (X
t
ζ
t
/P(t, T) est une Q martingale. Comme X
t
ζ
t
/P(t, T) =
X
t
R(t)/P(0, T), c’est imm´ediat.
On peut aussi d´etailler: D’apr`es la formule du changement de probabilit´e dans les esp´erances condition-
nelles on a
E
Q
T
¸
X
t
P(t, T)
[T
s

=
E
Q

X
t
ζ
t
P(t,T)
[T
s

E
Q

t
[T
s
]
=
E
Q
[X
t
R
t
[T
s
]
P(0, T)ζ
s
=
X
s
P(s, T)
. ´
b. Contrats forward et futures
Un contrat forward est l’engagement d’acheter le sous jacent au prix pr´evu au moment de la signature
du contrat. Il n’y a aucun versement d’argent `a la signature.
Proposition 6.3.2 Le prix `a la date t d’un contrat forward de maturit´e T sur un actif dont le processus
de prix est V (s) est
G(t) = E
Q
T
(V (T)[T
t
) .
Le prix d’un contrat future (prix future) est
H(t) = E
Q
(V (T)[T
t
) .
Si r est d´eterministe, prix future et forward sont ´egaux.
c. Taux spot
Proposition 6.3.3 Le taux spot forward f(t, T) est une Q
T
-martingale
f(t, T) = E
Q
T
[r
T
[T
t
] , t ≤ T,
´egale au prix forward d’un contrat ´ecrit sur le taux spot.
En particulier f(0, T) = E
Q
T
(r(T)) est le prix `a la date 0 d’un contrat forward ´ecrit sur le taux spot
de mˆeme maturit´e.
Le prix d’un z´ero-coupon s’exprime en fonction du taux spot par
P(t, T) = exp

T
t
E
Q
s
[r
s
[T
t
] ds

, t ≤ T.
July 8, 2006 77
Par d´efinition, le taux forward f(t, T) est ´egal `a lim
h→0
P(t,T+h)−P(t,T)
hP(t,T)
. Le processus P(t, T + h)
est un processus de prix, donc
P(t,T+h)
P(t,T)
est une Q
T
-martingale; il en r´esulte que
f(t, T) = − lim
h→0
1
h
E
Q
T
¦(P(T, T +h) −1) [T
t
¦,
soit f(t, T) = E
Q
T
[r
T
[T
t
]. Par d´efinition ln P(t, T) = −

T
t
f(t, s)ds, d’o` u
P(t, T) = exp

T
t
E
Q
s
[r
s
[T
t
] ds

. ´
d. Prix forward, prix future
On peut pr´eciser la relation entre prix forward et prix future. Soit Z une variable int´egrable T
T
mesurable et Z
u
= E
Q
(Z[F
u
)
E
Q
T
(Z [T
t
) = E
Q
(Z [T
t
) −

T
t
Cov
Q
u
(Z
u
, r(u) [T
t
) du.
o` u Cov
Q
u
(X, Y [T
t
) = E
Q
u
(XY [T
t
) −E
Q
u
(X[T
t
)E
Q
u
(Y [T
t
).
En particulier
E
Q
T
(Z) = E
Q
(Z) −

T
0
Cov
Q
u
(Z, r(u)) du.
Proposition 6.3.4 Le prix `a la date 0 d’un contrat forward de maturit´e T ´ecrit sur Z est le prix `a la
date 0 d’un contrat future de mˆeme nature moins un biais de covariance.
6.3.3 Changement de num´eraire
Il peut ˆetre utile de faire un autre changement de num´eraire, par exemple de choisir un actif S comme
unit´e mon´etaire.
6.3.4 Valorisation d’une option sur obligation `a coupons
Le prix d’une option Europ´eenne de payoff h(T) `a la date T est donn´e par
C(t) = R
−1
t
E
Q
[h(T)R
T
[T
t
] .
Consid´erons une option de maturit´e T sur un produit qui verse des flux d´eterministes F
n
aux dates
T
n
, T < T
n
< T
n+1
et soit V (t) =
¸
N
n=1
F
n
P(t, T
n
).
Th´eor`eme 6.3.1 Le prix d’une option Europ´eenne de prix d’exercice K et de maturit´e T sur un produit
qui verse des flux F
n
aux dates T
n
est
C(0) =
N
¸
n=1
F
n
P(0, T
n
)Q
n
[V (T) > K] −KP(0, T)Q
T
[V (T) > K]
o` u Q
n
est la probabilit´e forward neutre de maturit´e T
n
.
Par d´efinition
C(0) = E
Q
(R
T
(V (T) −K)
+
) = E
Q

R
T

N
¸
n=1
F
n
P(T, T
n
) −K

+
¸
¸
,
78 Changement de probabilit´e
ce qui s’´ecrit
C(0) =
N
¸
n=1
F
n
E
Q
[R
T
P(T, T
n
)1
{V (T)>K}
] −KE
Q
[R
T
1
{V (T)>K}
].
Par d´efinition de Q
n
, on a
E
Q
[R
T
P(T, T
n
)1
{V (T)>K}
] = P(0, T
n
)E
Q
n
[1
{V (T)>K}
]
ce qui donne le r´esultat. ´
Le livre n’est pas termin´e.
La fin n’a pas ´et´e ´ecrite, elle n’a jamais ´et´e trouv´ee.
M. Duras, L’´et´e 80. Editions de Minuit.
Bibliography
[1] J. Az´ema and M. Yor. Etude d’une martingale remarquable. In J. Az´ema and M. Yor, editors,
S´eminaire de Probabilit´es XXIII, volume 1557 of Lecture Notes in Maths., pages 88–130. Springer-
Verlag, 1989.
[2] L. Breiman. Probability. Addison-Wesley, Reading MA, 1968.
[3] M. Chesney, B. Marois, and R. Wojakowski. Les options de change. Economica, Paris, 1995.
[4] R. Cont and P. Tankov. Financial modeling with jump processes. Chapman & Hall/CRC, 2004.
[5] J.C. Cox, J.E. Ingersoll, and S.A. Ross. A theory of term structure of interest rates. Econometrica,
53:385–408, 1985.
[6] C. Dellacherie and P.A. Meyer. Probabilit´es et Potentiel, chapitres I-IV. Hermann, Paris, 1975.
English translation : Probabilities and potentiel, chapters I-IV, North-Holland, (1978).
[7] P. Devolder. Finance Stochastique. Presses de l’universit´e de Bruxelles, Bruxelles, 1991.
[8] R. Durrett. Stochastic Calculus: a Practical Introduction. CRC press, Boca Raton, 1996.
[9] R. Elliott. Stochastic Calculus and Applications. Springer, Berlin, 1982.
[10] R. Elliott and P. E. Kopp. Mathematics of Financial markets. Springer Finance, Berlin, 1999.
[11] A. G¨oing-Jaeschke and M. Yor. A survey and some generalizations of Bessel processes. Bernoulli,
9:313–349, 2003.
[12] N. Ikeda and S. Watanabe. Stochastic differential equations and diffusion processes. North Holland,
second edition, 1989.
[13] I. Karatzas. Lectures on the mathematics of finance. American Mathematical Society, Providence,
1997.
[14] I. Karatzas and S.E. Shreve. Brownian Motion and Stochastic Calculus. Springer-Verlag, Berlin,
1991.
[15] J.T. Kent. Some probabilistic properties of Bessel functions. Annals of Probability, 6:760–770,
1978.
[16] N.V. Krylov. Controlled difusion processes. Springer-Verlag, Berlin, 19.
[17] R.S.R. Liptser and A.N. Shiryaev. Theory of Martingales. Kluver, 1996.
[18] M. Musiela and M. Rutkowski. Martingale Methods in Financial Modelling. Springer-Verlag,
Heidelberg-Berlin-New York, second edition, 2005.
[19] J. Neveu. Bases math´ematiques des probabilit´es. Masson, Paris, 1964.
[20] B. Øksendal. Stochastic Differential Equations. Springer-Verlag, Berlin, sixth edition, 1998.
[21] J.W. Pitman and M. Yor. A decomposition of Bessel bridges. Z. Wahr. Verw. Gebiete, 59:425–457,
1982.
79
80 Changement de probabilit´e
[22] S.R. Pliska. Introduction to mathematical finance. Blackwell, Oxford, 1997.
[23] Ph. Protter. Stochastic Integration and differential equations. Springer, Berlin, second, version 2.1.
edition, 2005.
[24] D. Revuz and M. Yor. Continuous Martingales and Brownian Motion. Springer Verlag, Berlin,
third edition, 1999.
[25] L.C.G. Rogers and D. Williams. Diffusions, Markov processes and Martingales, Vol 1. Foundations.
Cambridge University Press, Cambridge, second edition, 2000.
[26] W. Szatzschneider. Comments about CIR model as a part of a financial market. Preprint, 2001.
[27] W. Szatzschneider. Extended Cox, Ingersoll and Ross model. Preprint, 2001.
[28] P. Wilmott. Derivatives; The Theory and Practice of financial Engineering. University Edition,
John Wiley, Chischester, 1998.
July 8, 2006 81
Commentaires sur certains ouvrages
Les ouvrages suivants sont `a la biblioth´eque. Un conseil: achetez en un ou deux, apr`es les avoir consult´es
et approfondissez les. Vous ne pourrez pas tous les connaitre, mais essayez d’ˆetre pointu sur un domaine.
Calcul stochastique
K.L. Chung et D. Williams, [3] Bon livre, se limite aux int´egrales stochastique.
R. Durrett [5] Ouvrage contenant de nombreux r´esultats tr´es pr´ecis, un peu difficile en premi`ere lecture.
I. Karatzas et S.Shreve, [7] Tr`es bon ouvrage. Contient `a peu pr`es tout ce dont vous pourrez avoir
besoin.
Mikosch, T. Elementary Stochastic calculus with finance in view. Excellent ouvrage d’introduction au
calcul stochastique.
B. Oksendal, [10] Excellent livre, relativement simple, abordant de nombreux probl`emes li´es au calcul
stochastique.
D. Revuz et M. Yor, [12] Incontournable pour les r´esultats les plus pr´ecis concernant le MB.
L.C.G. Rogers et D. Williams [?] Ouvrage assez difficile, mais contient de nombreux r´esultats utiles ne
se trouvant pas facilement. Tr`es agr´eable `a lire.
Sur les processus `a sauts, processus de Levy:
C. Dellacherie et P.A. Meyer, [?] 4 volumes. Les deux premiers contiennent tous les r´esultats sur les
martingales non continues. Pour les math´ematiciens professionnels.
R. Elliott,[?] Beaucoup de choses sur les processus `a sauts.
N.Ikeda et S. Watanabe,[?] Pour les experts de calcul stochastique.
R.S.R. Liptser et A.N. Shiryaev, [?]Tout sur les martingales non continues.
P. Protter, [?] Contient en particulier les processus discontinus et les processus de L´evy.
Cont et Tankov [?] Le plus appropri´e
CONTROLE STOCHASTIQUE
W. H.Fleming et R. W. Rishel,[?] Un incontournable sur le cas stochastique en temps continu, de niveau
tr`es ´elev´e.
N. V. Krylov,[?] Pour math´ematiciens sp´ecialistes de diffusion.
FINANCE
Les ouvrages de Bingham et Kiesel, Bj¨ork, sont recommand´es.
La revue Risk contient de nombreux articles sur des sujets ”chauds”
Biais, B. and Bj¨ork, T. and Cvitani´c, J. and El Karoui, N. and Jouini, E. and Rochet, J.C.,[1] Cet
ouvrage contient des cours de l’´ecole d’´et´e sur la structure par terme des taux (Bj¨ork), l’optimisation
sous contraintes (Cvitanic), les ´equations r´etrogrades (El Karoui)... Excellent.
Chesney, M. and Marois, B. and Wojakowski, R. ,[2] De nombreux exemples d’options exotiques sur les
taux. Les formules en temps continu sont en annexe, de nombreuses valorisation sur des arbres.
E Overhaus, M. and Ferraris, A. and Knudsen, T. and Milward, R. and Nguyen-Ngoc, L and Schindl-
mayr, G. . Equity derivatives, Theory and applications. Un petit bijou en ce qui concerne les processus
de L´evy appliqu´es `a la finance.
P. Devolder,[4] On y trouve un appendice qui contient les r´esultats principaux de calcul stochastique.
Elliott, R.J. et Kopp. E.[?]Excellent surtout en ce qui concerne les options am´ericaines.
Karatzas, I., [6]Excellent ouvrage sur les probl`emes d’optimisation et choix de portefeuille.
D. Lamberton et B. Lapeyre,[8]Tr`es bon cours de calcul stochastique. Enonc´es pr´ecis, d´emonstrations,
exercices non corrig´es.
Shiryaev: ce qu’il existe de plus complet parmi les livres sur les processsus `a sauts
EVALUATION:
Haug : toutes les formules sur les prix d’options
Pelsser, A. Efficient methods for valuing interest rate derivatives.
82 index
Pliska, S.R., [11] Ouvrage excellent sur les march´es en temps discret la valorisation et les probl`emes
d’optimisation.
Kat, H.M. Structured Equity Derivatives.
Gibson, R. L’´evaluation des options. Un peu ancien, mais tr`es bien fait.
Hull, J.C. Options, futures and other derivatives.
Jarrow, R. and Turnbull. Derivative securities.
Kwok, Y.K. Mathematical models of financial derivatives.
Kallianpur, G. and Karandikar, R.L. . Introduction to option pricing theory.
TAUX:
Musiela, M. and Rutkowski, M. , [9]Excellent ouvrage de haut niveau. Ouvrage de r´ef´erence pour la
structure par terme des taux, LIBOR...
Rebonato, R., Interest-rate option Models, snd edition.
Brigo, D. and Mercurio, F. Interest rate models. Theory and practice.
PRATICIENS:
Wilmott, P. Une tr`es bonne s´erie d’ouvrages pour praticiens.
Taleb, N. Dynamic hedging Les m´ethodes de couverture.
DIVERS:
Risque de d´efaut: Bielecki, T. and Rutkowski, M. . Credit risk : Modelling valuation and Hedging. Le
plus complet sur le sujet.
Les ´ev`enements rares, le risque : Embrecht, P. and Kl¨ uppelberg, C. and Mikosh, T. . Modelling
Extremal Events.
Volatilit´e stochastique : Fouque, J-P. and Papanicolaou, G. and Sircar, X. . Derivatives in financial
markets with stochastic volatilities.
Ou trouver differents articles d’introduction aux probl`emes de finance : Simon ed. , Encyclop´edie des
march´es financiers, Economica
Index
Absolute continuity
BES, 60
Bessel
modified - function, 61, 62
process, 58
squared process, 58
Change of time
for CIR, 65
Clark-Ocone, 74
Condition de Novikov, 68
Convergence
quadratique, 13
en loi, 13
en probabilit´e, 13
presque sˆ ure, 12
Crochet
oblique, 42
Ensembles
n´egligeables, 9
Equation
de Langevin, 35
parabolique, 51
Equations
diff´erentielles stochastiques, 49
Espace complet, 9
Espace mesurable, 7
Exponentielle de Dol´eans-Dade, 51
Filtration, 14
Fonction
en escalier, 21, 32
Fonction bor´elienne, 8
Formule
de Bayes, 17
de Feynman-Kac, 53
G´en´erateur infinit´esimal, 44
Hypoth`eses habituelles, 14
Index, 59
Int´egrabilit´e uniforme, 10
Int´egrale
de Wiener, 32
Int´egration par parties, 34
Laplace transform of
hitting time for a BES, 62
Lemme d’Itˆo, 43
Loi
de l’arc sinus, 54
Loi conditionnelle, 17
Martingale
exponentielle, 50
locale, 20
Mesure
de Dirac, 12
Mouvement Brownien, 23
g´en´eralis´e, 24
g´eom´etrique, 34, 55
Novikov, 51
Process
CIR -, 65
Processus
´etag´e, 39
adapt´e, 14
c`adl`ag, 14
c`al`ag, 14
continu, 14
croissant, 14
d’Itˆo, 41
gaussiens, 15
pr´evisible, 14
Processus de
CIR, 57
Cox-Ingersoll-Ross, 56
Markov, 20
Ornstein-Uhlenbeck, 36
Vasicek, 37
Promenade al´eatoire, 24
Propri´et´e de Markov, 26, 50
Scale function
for Bessel Processes, 59
Scaling, 26
for squared Bessel processes , 60
Sturm-Liouville equation, 64
Temps d’arrˆet, 19
Temps d’atteinte, 30
loi du -, 31
transform´ee de Laplace du -, 30
Th´eor`eme
83
84 index
d’arrˆet de Doob, 19
de Lebesgue domin´e, 13
Th´eor`eme de
Girsanov, 68
Trajectoires, 28
Transform´ee
de Fourier, 10
de Laplace, 10
Transition density
for a BES, 62
for a BESQ, 61
for a CIR, 65
Tribu, 7
engendr´ee, 8
Tribu engendr´ee, 8
Variance conditionnelle, 17

2

Contents
1 G´n´ralit´s e e e 1.1 Tribu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1.1 D´finition d’une tribu . . . . . . . . . . . . . . . . . . e 1.1.2 Mesurabilit´ . . . . . . . . . . . . . . . . . . . . . . . . e 1.1.3 Tribu engendr´e . . . . . . . . . . . . . . . . . . . . . e 1.2 Probabilit´ . . . . . . . . . . . . . . . . . . . . . . . . . . . . e 1.2.1 D´finition . . . . . . . . . . . . . . . . . . . . . . . . . e 1.2.2 Propri´t´s . . . . . . . . . . . . . . . . . . . . . . . . . ee 1.2.3 Ensembles n´gligeables . . . . . . . . . . . . . . . . . . e 1.3 Loi de probabilit´ . . . . . . . . . . . . . . . . . . . . . . . . . e 1.3.1 Existence d’une v.a. . . . . . . . . . . . . . . . . . . . 1.3.2 Esp´rance . . . . . . . . . . . . . . . . . . . . . . . . . e 1.3.3 Int´grabilit´ uniforme . . . . . . . . . . . . . . . . . . e e 1.3.4 Ind´pendance . . . . . . . . . . . . . . . . . . . . . . . e 1.3.5 Probabilit´s ´quivalentes . . . . . . . . . . . . . . . . . e e 1.4 Variables gaussiennes . . . . . . . . . . . . . . . . . . . . . . . 1.5 Convergence de v.a. . . . . . . . . . . . . . . . . . . . . . . . 1.5.1 Convergence presque sˆre . . . . . . . . . . . . . . . . u 1.5.2 Convergence quadratique, ou convergence dans L2 (Ω) 1.5.3 Convergence en probabilit´ . . . . . . . . . . . . . . . e 1.5.4 Convergence en loi . . . . . . . . . . . . . . . . . . . . 1.6 Processus stochastiques . . . . . . . . . . . . . . . . . . . . . 1.6.1 Filtration . . . . . . . . . . . . . . . . . . . . . . . . . 1.6.2 Processus . . . . . . . . . . . . . . . . . . . . . . . . . 1.6.3 Processus croissant . . . . . . . . . . . . . . . . . . . . 1.6.4 Processus Gaussiens . . . . . . . . . . . . . . . . . . . 1.7 Esp´rance conditionnelle . . . . . . . . . . . . . . . . . . . . . e 1.7.1 Cas discret . . . . . . . . . . . . . . . . . . . . . . . . 1.7.2 Esp´rance conditionnelle par rapport ` une tribu . . . e a 1.7.3 Esp´rance conditionnelle par rapport ` une variable . e a 1.7.4 Propri´t´s de l’esp´rance conditionnelle . . . . . . . . ee e 1.7.5 Variance conditionnelle . . . . . . . . . . . . . . . . . 1.7.6 Formule de Bayes . . . . . . . . . . . . . . . . . . . . . 1.8 Loi conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . 1.8.1 D´finition . . . . . . . . . . . . . . . . . . . . . . . . . e 1.8.2 Cas Gaussien . . . . . . . . . . . . . . . . . . . . . . . 1.9 Martingales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.9.1 Cas discret . . . . . . . . . . . . . . . . . . . . . . . . 1.9.2 Cas continu. . . . . . . . . . . . . . . . . . . . . . . . 1.10 Temps d’arrˆt . . . . . . . . . . . . . . . . . . . . . . . . . . . e 1.10.1 D´finitions . . . . . . . . . . . . . . . . . . . . . . . . e 1.10.2 Th´or`me d’arrˆt . . . . . . . . . . . . . . . . . . . . e e e 1.10.3 Processus de Markov . . . . . . . . . . . . . . . . . . . 1.11 Rappels d’analyse . . . . . . . . . . . . . . . . . . . . . . . . . 1.11.1 D´rivation sous le signe somme . . . . . . . . . . . . . e 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 7 7 8 8 8 8 9 9 9 9 10 11 11 11 12 12 13 13 13 13 14 14 14 15 15 15 15 16 16 17 17 17 18 18 18 18 18 18 19 19 20 20 21 21

4

CONTENTS 1.11.2 Espace complet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.11.3 Th´or`me de Lebesgue domin´ . . . . . . . . . . . . . . . . . . . . . . . . . . . . e e e 21 21 23 23 23 24 24 25 25 25 26 26 26 28 29 30 31 32 32 33 33 34 34 34 35 37 39 39 39 39 40 40 40 41 41 41 42 42 42 42 42 43 43 45 45 46 47 49 49 49 49 50 50 50

2 LE MOUVEMENT BROWNIEN 2.1 Le mouvement Brownien . . . . . . . . . . . . 2.1.1 D´finition. . . . . . . . . . . . . . . . . e 2.1.2 G´n´ralisation. . . . . . . . . . . . . . e e 2.2 Promenade al´atoire . . . . . . . . . . . . . . e 2.3 Propri´t´s . . . . . . . . . . . . . . . . . . . . ee 2.3.1 Processus gaussien . . . . . . . . . . . 2.3.2 Une notation . . . . . . . . . . . . . . 2.3.3 Scaling . . . . . . . . . . . . . . . . . 2.3.4 Propri´t´ de Markov . . . . . . . . . . ee 2.3.5 Equation de la chaleur . . . . . . . . . 2.3.6 Trajectoires . . . . . . . . . . . . . . . 2.3.7 Propri´t´s de martingale . . . . . . . . ee 2.3.8 Temps d’atteinte . . . . . . . . . . . . 2.3.9 Brownien multidimensionnel . . . . . . 2.4 Int´grale de Wiener . . . . . . . . . . . . . . e 2.4.1 D´finition . . . . . . . . . . . . . . . . e 2.4.2 Propri´t´s . . . . . . . . . . . . . . . . ee 2.4.3 Processus li´ ` l’int´grale stochastique ea e 2.4.4 Int´gration par parties . . . . . . . . . e 2.5 Exemples . . . . . . . . . . . . . . . . . . . . 2.5.1 Le brownien g´om´trique . . . . . . . e e 2.5.2 Processus d’Ornstein-Uhlenbeck . . . 2.5.3 Mod`le de Vasicek . . . . . . . . . . . e

. . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

´ 3 INTEGRALE STOCHASTIQUE 3.1 D´finition . . . . . . . . . . . . . . . . . . . . . . . e 3.1.1 Cas de processus ´tag´s . . . . . . . . . . . e e 3.1.2 Cas g´n´ral . . . . . . . . . . . . . . . . . . e e 3.2 Propri´t´s . . . . . . . . . . . . . . . . . . . . . . . ee 3.2.1 Lin´arit´. . . . . . . . . . . . . . . . . . . . e e 3.2.2 Propri´t´s de martingale . . . . . . . . . . . ee 3.2.3 Un exemple . . . . . . . . . . . . . . . . . . 3.2.4 Martingale locale . . . . . . . . . . . . . . . 3.2.5 In´galit´ maximale . . . . . . . . . . . . . . e e 3.3 Processus d’Itˆ . . . . . . . . . . . . . . . . . . . . o 3.3.1 D´finition . . . . . . . . . . . . . . . . . . . e 3.3.2 Propri´t´s . . . . . . . . . . . . . . . . . . . ee 3.3.3 Int´grale par rapport ` un processus d’Itˆ. e a o 3.3.4 Crochet d’un processus d’Itˆ . . . . . . . . o 3.4 Lemme d’Itˆ . . . . . . . . . . . . . . . . . . . . . o 3.4.1 Premi`re forme . . . . . . . . . . . . . . . . e 3.4.2 Fonction d´pendant du temps . . . . . . . . e 3.4.3 Cas multidimensionnel . . . . . . . . . . . . 3.4.4 Cas du Brownien multidimensionnel. . . . . 3.4.5 Application ` la formule de Black et Scholes a

4 EQUATIONS DIFFERENTIELLES STOCHASTIQUES 4.1 Equations diff´rentielles stochastiques . . . . . . . . . . . . e 4.1.1 D´finition . . . . . . . . . . . . . . . . . . . . . . . . e 4.1.2 Th´or`me d’existence . . . . . . . . . . . . . . . . . e e 4.1.3 Propri´t´ de Markov . . . . . . . . . . . . . . . . . . ee 4.1.4 Th´or`me de comparaison . . . . . . . . . . . . . . . e e 4.1.5 Exemple : Martingale exponentielle . . . . . . . . .

. . . . . . . Caroll. . . 5. .5. . . . . . . . . . .1 CIR processes and BESQ . . . . . . . . . . e 5. . .2. . . . . . . . . and go on till you come to the end. . . . . . .1 Th´or`me de Girsanov . e e 5. e e 4. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .1. .2. . . . . . . . . . . . . . . . . . . . . . . .3 Remarques . .2 Transition probabilities for a CIR process .1. . . . . . . . . . . . . . .5. . . . . . . . . . . .2. . . . . . e 6. . . . . . . . . . . . . . 5. . . . . . . . . . . .5 Cas g´n´ral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .2 Mod`le de Cox-Ingersoll-Ross . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .1 Additivity of BESQ . . . . . . . .2. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .4 Formule de Feynman-Kac . . . . . . . . . . . . . . . . . . . . . . . .5. . . . . . . . 5. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .3 CIR model for spot rate . . . . 5 51 51 52 52 53 55 55 56 58 58 58 58 60 60 61 61 61 61 62 63 65 65 65 66 67 67 67 68 69 69 70 71 71 72 72 74 74 74 74 75 77 77 5 EXEMPLES DE PROCESSUS D’ITO 5. . e e 4. . .2. . . . . . . . Alice’s Adventures in Wonderland . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .3 Formule de Black et Scholes 4.1 Probl`me parabolique . . . . . . . . . . . . . . . . . . . . 6. 5. . . . . . . . . . . . . . . . . . . .4 Hitting times for Bessel processes . . . . . . . . . . . . . . . . . . 6. . . . . . . . .1 D´finitions . . . . . . . . . .3 Scaling properties . . . . . . .1.3 Processus de Bessel et carr´ de Bessel . . . . . . . . . . . . . . . . . . . . . e 6. . . . . . . . . . . e 5. . . . . . . . . . . . . . . . . . . . . . . . . . . .5 Properties . . 6. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .3. . . . . . . . . . . 5. . . . . . 5.4 Absolute continuity . . . . . . . . . . . . . . . . . . . . . . . . e 6. . . . . . . . . . . . . . . . . . . . . . . . Then. . ´ 6 CHANGEMENT DE PROBABILITE 6. . . . . . .CONTENTS 4. . . . 6. . . . . . . . . . . . . . . . . . . . . . . . 6. . . . . . . . . . . . . . . .5. . . . . . . . . . . . . . 6. . . . . . . . . . . . . . . . . .2 Application aux mod`les financiers . . . 5. . . . 5. . . . . .2 G´n´ralisation . . . . . . .1. . . .4. . . . . . . . . . . . . . . . . . e 6. . . . . . . . . . . . . . . . . . . . . . . stop. . . . . . . . . . . . . . . . . . . . .4. . . . . . . . . . . . . . . . . . .1 Euclidian norm of n-dimensional Brownian motion 5. . . . . . 5. . . . . 5. e 6. . . . . . . . . . . . . . e e 6. . . . . .1 Le brownien g´om´trique . . . . . . . . . .4 Valorisation d’une option sur obligation ` coupons . .1 Application ` la valorisation d’un actif contingent en a 6. . . . . . . . . . . . . .2. . . . . . . . . . . .4. . . . . . .2 Bessel functions . . . .6. . . .3 Hedging methodology . . .4 Definitions . . L. . . . . . . . . . . . march´ complet e . . . . . . . . . . . . . . . . . . . . . . . . . . .5 Laplace transforms . . . . . . . . . . . . . . . . . . .5.1. . .2 Arbitrages . . . . . . . . . . . . . . . . . . . .6.3 Transition densities . . . . . . . . . . . . . . . . . .3 Changement de num´raire . .3. .4 Exercices . . . . . .2. . . . . . . . .4. . . . . . . . . . . . . . . .2 Th´or`me de Girsanov . . . . . . . . . . . . . . . . . . . . . . . .2. . . . . . . . . .3 Probabilit´ forward-neutre . . . . . . e e 6. 5. . . . 5. . . . . . . . . . . . e 4. . .2 Changement de num´raire . . . . . . . . . . . . . . . . . . .3. . . . . . . . . . . . . .5 Cas vectoriel . . . . . . . .2. . . . . . . . . . e 6. . Begin at the beginning. . . . . . . . . . . . e e 6. . . . . . . . . . . . . . . . . . . . . . . . . . . . .2 Equations aux d´riv´es partielles . . . . . . . . .2 General definition . . . . . .6. . . 5. . . .4 Arbitrage et mme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .6 Cox-Ingersoll-Ross processes . . . . .3. . . . . . . . . . . . . a .1 Changement de probabilit´ . . . . . . . . . . . . . . . . . . . . . .

6 CONTENTS .

e e a e e e R. 1. Dans la plupart des cas. 1941. Proposition 1. la structure de Ω n’a pas de rˆle ` jouer. L’espace de probabilit´ sur lequel e on travaille est not´ Ω. mais ils sont difficiles ` exhiber. contenant e l’ensemble vide.Chapter 1 G´n´ralit´s e e e Dans ce chapitre aride sont rassembl´es les notions de base de th´orie des probabilit´s qui seront utilis´es e e e e dans tout le cours1 .1.). La plus petite tribu contenant une famille d’ensembles est l’intersection de toutes les tribus qui contiennent cette famille. R e a 1 Give us the tools. e e e Une tribu contient donc l’espace Ω. lorsque l’on o a veut construire une variable al´atoire de loi donn´e. stable par passage au compl´mentaire. Un sous-ensemble de Ω est un ee e ´v´nement. on pr´cisera la structure de Ω en construisant explicitement e e e cet espace. Par contre. Winston Churchill. Nous n’aborderons pas ces probl`mes ici e e (Voir Breiman [?]). Attention : ce n’est pas vrai pour la r´union : une r´union de tribus n’est pas une tribu.a.a. e e Soit F une tribu. Dans certaines parties de cours. sur un espace quelconque donn´ ` l’avance. Une sous-tribu de F est une tribu G telle que G ⊂ F. Elle est en g´n´ral difficile (voire impossible) ` d´crire plus pr´cisement.1 D´finition d’une tribu e D´finition 1.1. On la note BI .1. Jacod et Protter [?] ou encore Williams [?]. C’est la plus petite tribu contenant tous les intervalles Exemple 1. consulter les ouvrages e e de Breiman [?]. union d´nombrable et intersection d´nombrable. soit A ∈ G implique A ∈ F. Un espace mesurable est un espace muni d’une tribu. Pour les d´monstrations et de plus amples informations. (voir ci-dessous) pour une approche du probl`me.1 Tribu des bor´liens de I ouverts (ou ferm´s. Voir aussi des exercices dans [?] ou dans [?]. e 1.1 Une intersection de tribus est une tribu. 7 . On pourra regarder le paragraphe concernant l’existence d’une v. (ou une suite) ind´pendantes.1 Tribu L’espace Ω est un espace abstrait dont les ´l´ments sont not´s ω.1. Grimmett et Stirzaker [?]. Ces notions ne seront pas reprises dans le cours.a. February 9.1 Une tribu (σ-algebra en Anglais) sur Ω est une famille de parties de Ω.. and we will finish the work.. Cette difficult´ s’accroit quand il ea e s’agit de construire plusieurs v. ou ouverts ` droite ferm´s ` gauche. un choix judicieux de Ω s’impose : il est impossible e e de construire une v. Voir Neveu [?]. On peut trouver des sous e a e a R ensembles de I qui ne sont pas des bor´liens.

Il suffit que cette propri´t´ soit v´rifi´e pour les intervalles A. On la note σ(Xt . ∀A ∈ BI ou encore σ(Y ) ⊂ σ(X)).2 Si X est une v. F) dans I ( donc telle que X −1 (A) ∈ F.3 Tribu engendr´e e D´finition 1. ıt´ e Une fonction f de I dans I est bor´lienne si elle est (BI . F) est l’ensemble des e e e e parties de Ω qui s’´crivent X −1 (A) o` A ∈ BI .1.1. e u R La tribu σ(X) est contenue dans F.a.2. C’est la plus petite tribu sur Ω rendant X mesurable. t ∈ [0.1. C’est la plus petite tribu e contenant les deux tribus F1 et F2 .1. et r´ciproquement.2 Mesurabilit´ e D´finition 1. e D´finition 1.2 1. ∞ b) P (∪∞ An ) = n=0 P (An ) pour des An appartenant ` F deux ` deux disjoints.1. D´finition 1. o` u f −1 (A) = {ω ∈ Ω |f (ω) ∈ A }. 1 u 1. G mesurable est limite croissante de v. R R e R R R BI . e Proposition 1.1. F) et (E. T ]) est la plus e e e −1 petite tribu contenant les ensembles {Xt (A)} pour tout t ∈ [0. t ≤ T ). de I dans I telle que e R R R Y = f (X).a. 1] telle que e a) P (Ω) = 1. il existe une fonction bor´lienne f .1 Probabilit´ e D´finition e Une probabilit´ sur (Ω. R 1. on dit simplement que f est mesurable. f (X) est G-mesurable. du type n i=1 ai 1 Ai avec Ai ∈ G.2 Soit (Ω. Propri´t´: si Y est une application de Ω dans I σ(X) mesurable (c’est-`-dire telle que Y −1 (A) ∈ ee R. T ] et A ∈ BI . de mˆme qu’une fonction indicatrice d’ensemble de la tribu F.r.4 La tribu engendr´e par une famille d’ensembles A est la plus petite tribu contenant e e cette famille. Elle est l’intersection de toutes les tribus contenant A. Si F1 et F2 sont deux tribus. E) deux espaces mesurables. F) est une application P de F dans [0. Une application f de Ω dans E est e dite (F. ∀A ∈ E. BI )-mesurable. G-mesurable et f une fonction bor´lienne. On note cette tribu σ(X). R R Une constante est une v.1.a. F) un espace mesurable. E) mesurable si f −1 (A) ∈ F .) X est une e e e application mesurable de (Ω.1. e ∀A ∈ def D´finition 1.r.a.r. soit f −1 (A) ∈ BI . a a n=0 Notation: P (A) = A dP = Ω 1 A dP o` 1 A (fonction indicatrice) est la fonction d´finie sur Ω par 1 u 1 e 1 A (ω) = 1 si ω ∈ A et 1 A (ω) = 0 si ω ∈ A. a σ(X). Une fonction 1 bor´lienne est limite croissante de fonctions du type e i=1 ai 1 Ai o` Ai est un intervalle.a. Une v.8 G´n´ralit´s e e e 1.3 Soit (Ω. on la note σ(A). ee e e R Les fonctions continues sont bor´liennes.a. X est G-mesurable si σ(X) ⊂ G. 1 1 / . Lorsqu’il n’y a pas d’ambigu¨ e sur les tribus employ´es.6 La tribu engendr´e par une famille de variables al´atoires (Xt .5 La tribu engendr´e par une variable al´atoire X d´finie sur (Ω. on note F1 ∨ F2 la tribu engendr´e par F1 ∪ F2 . ∀A ∈ BI ). e n Une v. Une variable al´atoire r´elle (v.

3. on choisit comme espace Ω = I e R. u Remarque: on prendra soin. ont mˆme loi (ou mˆme fonction de r´partition. on choisit Ω = I + . La fonction de e r´partition que nous utilisons ici est continue ` droite. Il reste ` construire une probabilit´ P sur Ω = I telle que X aie une loi gaussienne. F. e e e La densit´ f (x) d’une variable al´atoire est la d´riv´e de la fonction de r´partition (si cette d´riv´e e e e e e e e b existe). o` C est une famille stable par intersection finie et engendrant F. Gaussienne. La fonction de r´partition de X est 2 2π x FX (x) = P (X < x) = 1 ω<x P (dω) = 1 −∞ ω2 1 √ exp − dω .1 Soit X une variable al´atoire d´finie sur (Ω. 2 2π D’o’u X est une v. u Si les An forment une suite croissante (resp. ce que l’on notera X = Y . d´croissante) d’´l´ments de F. c’est-`-dire si An ⊂ An+1 e ee a (resp. sur chacun des Ωi = I on construit une v. l’autre d´finition conduit ` une fonction continue e a e a a ` gauche. ∀a ∈ I alors X et Y ont mˆme loi. R.2 Propri´t´s e e On a P (A) + P (Ac ) = 1 pour tout A appartenant ` F.a.s. En particulier P (X ∈ [a.a. de loi donn´e (par exemple une gaussienne). Il nous e arrivera alors d’utiliser la notation diff´rentielle P (X ∈ dx) pour d´signer f (x)dx.a. On peut alors ´crire P (X ∈ A) = A f (x)dx. de v´rifier la stabilit´ par intersection de C e e e e (c’est-`-dire de montrer que si C1 ∈ C. e e e Une propri´t´ est vraie presque surement (p. l’intersection C1 ∩ C2 appartient ` C).3. Si on souhaite construire une v. C2 ∈ C. e 1. Soit e a e R ω2 1 e P (dω) = √ exp − dω. 2006 9 1. ∀A ∈ BI . On utilisera tr`s souvent la remarque ´l´mentaire suivante : si X et Y sont deux v. La loi de X est la probabilit´ PX e e e e sur (I BI ) d´finie par PX (A) = P {ω. ee Un espace (Ω.a. An ⊃ An+1 ).a. a Si A ⊂ B. pour appliquer ce th´or`me. Ensuite. e e Une union d´nombrable d’ensembles n´gligeables est n´gligeable. on d´finit une v. ou mˆme densit´) on dit qu’elles e e e e e sont ´gales en loi. ind´pendantes de loi gaussienne: on recommence. G ⊂ F } = 0.a. P ). ee e On dit aussi que la propri´t´ est vraie pour presque tout ω.3 Ensembles n´gligeables e Un ensemble est dit n´gligeable s’il est de probabilit´ nulle.a.2. et une probabilit´ telle R.a. Pour construire une v. sur un autre e espace: soit Ω = Ω1 × Ω2 . R . A = ∩n An ) alors A appartient ` F et P (A) = lim P (An ). R e R On d´finit aussi la fonction de r´partition de la variable X. Alors P = Q sur F.a.) si elle est vraie en dehors d’un ensemble n´gligeable. F.1 Existence d’une v. et les modifications sont minimes. et si A = ∪n An (resp. Si l’on souhaite construire deux v. (une application de Ω dans I de fa¸on simple: X : ω → ω est l’application e R c identi´. a Th´or`me de classe monotone: Soit P et Q deux probabilit´s sur (Ω. P ) telles que P (A) = Q(A) e e e pour tout A ∈ C. Les deux expressions ne diff´rent e e qu’en un nombre au plus d´nombrable de valeurs de x. X(ω) ∈ A} = P (X ∈ A). alors P (A) ≤ P (B) et P (B) = P (A) + P (B − A). C’est la fonction croissante d´finie sur I e e e R par F (x) = P (X ≤ x). a a 1. 1. b] ) = a f (x)dx. P ) est dit complet s’il contient tous les ensembles G tels que inf{P (F ) : F ∈ F.3 Loi de probabilit´ e D´finition 1. e e ee loi telles que P (X ≤ a) = P (Y ≤ a).a.2.July 8. Certains auteurs utilisent P (X < x) comme fonction de r´partition. soit de loi gaussienne et on pose P = P1 ⊗ P2 . de loi exponentielle. o` B − A = B ∩ Ac . e que la v. F. les deux fonctions ´tant ´gales en tout point de continuit´. R. e e Lorsque deux v.

a. e e En fait. major´es en valeur absolue par une v. on d´finit pour toute fonction bor´lienne Φ telle que Φ(X) soit int´grable (ce qui a e c e e e lieu par exemple si Φ est born´e) e E(Φ(X)) = Ω Φ(X)dP = I R Φ(x)dPX (x). E(Φ(X)) ≥ e e e Φ(E(X)). e e b.1 Propri´t´s de l’esp´rance a.3. par exemple pour les fonctions indicatrices de bor´liens. on a E(eλX ) = exp(λm + et r´ciproquement. on a E(X) ≤ E(Y ). il suffit de connaˆ E(exp(λX + µY )) pour tout couple (λ.2 Esp´rance e L’esp´rance d’une variable al´atoire X est par d´finition la quantit´ Ω XdP que l’on note E(X) ou e e e e EP (X) si l’on d´sire pr´ciser quelle est la probabilit´ utilis´e sur Ω. ou d’intervalles.a. c’est-`-dire si son module est int´grable par e a a e rapport ` la mesure de Lebesgue dx. L’esp´rance est lin´aire par rapport ` la variable. e c. on connait la loi de X: l’´galit´ e e e e E(Φ(X)) = E(Φ(Y )) pour toute fonction bor´lienne born´e Φ implique l’´galit´ en loi de X et Y . µ). X est positive. e e e De la mˆme fa¸on.( ou L1 (Ω. λ ∈ I pour avoir X = Y . ou pour les fonctions e loi de la forme eλx . telle que Φ(X) est int´grable. Mais dans ce cas il n’y a pas de formule d’inversion simple. Cette quantit´ peut ne pas exister. est la transform´e de Fourier de la loi de X. La fonction care e R act´ristique caract´rise la loi de X au sens o` la connaissance de cette fonction d´termine la loi de la e e u e variable.3.a. On dit que X est int´grable si |X| a une esp´rance finie. ∀λ ∈ I R . I R Si X admet une densit´ f (x). on a X = −X et ces deux variables ne sont pas ´gales presque surement. on passe dans “l’espace image” et on obtient. λ2 σ 2 2 ). e e e e Attention : l’´galit´ en loi n’est pas l’´galit´ presque sure. L’espace L1 (Ω) contient e e e e les constantes. c’est-`-dire pour lesquelles l’int´grale Ω XdP e e a e n’a pas de sens. les v.r.3. par d´finition de la loi de e e probabilit´ Ω XdP = I xdPX (x). si X est une gaussienne e e e e loi centr´e. born´es et les v. c’est-`-dire la e e a fonction ψ(t) = E(eitX ) = eitx PX (dx). Pour connaˆ la loi d’un couple ıtre (X. Si X admet une densit´ f . int´grables. Si la transform´e de Fourier ψ appartient ` L1 (dx). In´galit´ de Jensen : si Φ est une fonction convexe. R La fonction caract´ristique d’une v. ıtre on utilise de pr´f´rence E(e−λX ) comme transform´e de Laplace. d´finie alors pour tout λ ≥ 0. e R Il existe des variables al´atoires qui n’ont pas d’esp´rance. Y ). ee e e Exemple 1. il suffit que l’´galit´ E(Φ(X)) = E(Φ(Y )) soit v´rifi´e pour une classe suffisamment riche de e e e e fonctions.a. e e e e e Pour calculer cette int´grale.1 Exemple fondamental : Si X est une variable gaussienne de loi N (m. a et b ´tant des r´els. e Proposition 1. e R R Si l’on connait E(Φ(X)) pour toute fonction Φ bor´lienne born´e. on a E(X) = I xf (x)dx et E(Φ(X)) = I Φ(x)f (x)dx. Par exemple.a. σ 2 ). int´grable. la densit´ associ´e (unique) est donn´e par la formule d’inversion a e e e f (x) = def 1 2π ∞ −∞ e−itx φ(t)dt La fonction Ψ(λ) = E(eλX ) que l’on appelle transform´e de Laplace caract´rise aussi la loi d’une e e variable. On note L1 (Ω) l’ensemble e e des v. P ) si l’on veut pr´ciser la probabilit´ utilis´e). la fonction caract´ristique de X est I eitx f (x) dx.s).10 G´n´ralit´s e e e 1. L’esp´rance est croissante: si X ≤ Y (p. Lorsque la v.a. e e e e e a c’est ` dire a E(aX + bY ) = aE(X) + bE(Y ).

R´ciproquement. f (X) et g(Y ) aussi.3. Deux variables (X. e ∀A ∈ C1 . Si X et Y sont ` valeurs positives. e Proposition 1.3. d’esp´rance 1 e e sous P appel´e densit´ de Radon-Nikodym telle que dQ = Y dP ou encore Q(A) = A Y dP .3 Int´grabilit´ uniforme e e Une famille de v. Y ) sont ind´pendantes si les tribus σ(X) et σ(Y ) sont ind´pendantes. E(XY ) = E(X)E(Y ). F-mesurable. Y )). e ´galement cette relation sous la forme e dP F-mesurable.3. e e 1. e e e 1. R. est alors vraie Q p.a. d’esp´rance 1 sous P . strictement positive. avec f (x) = E(ϕ(x. ∀n. R Si X et Y sont ind´pendantes. c’est ` dire si e e a P (A) = 0 ⇐⇒ Q(A) = 0.3.3. on peut calculer E(ϕ(X. ee Si P et Q sont ´quivalentes.a. (La r´ciproque n’est pas vraie) e e Si X et Y sont ind´pendantes.4 Deux probabilit´s P et Q d´finies sur le mˆme espace (Ω. Mˆme d´finition pour une famille non d´nombrable. ∀B ∈ F2 .a.July 8. i ∈ I) est uniform´ment int´grable.s.a. c’est-`e a e e e dire si P (∩1≤i≤n Ai ) = 1≤i≤n P (Ai ).2 Deux sous-tribus F1 et F2 sont ind´pendantes si e Pour que deux tribus F1 et F2 soient ind´pendantes. ∀x ∈ I ∀y ∈ I . 2006 11 1. il faut et il suffit que P (A ∩ B) = P (A)P (B).3 Une variable al´atoire X est ind´pendante d’une sous-tribu G si les tribus σ(X) et G e e e sont ind´pendantes.3.3. On ´crit e e e dQ = Y . Une famille de sous-tribus (Fi .3 Les v. il existe une variable Y .a.5 Probabilit´s ´quivalentes e e D´finition 1. la relation EQ (Z) = EP (ZY ) d´finit une probabilit´ Q ´quivalente e e e e a ` P . il suffit que l’´galit´ soit v´rifi´e pour a e e e e f (x) = exp(−λx) et g(x) = exp(−µx) pour tous λ.3.4 Les v. e Si X et Y sont ind´pendantes.2 La v. S’il existe Y ∈ L1 (P ) telle que |Xi | ≤ Y. X et Y sont ind´pendantes si et seulement si P {(X ≤ x) ∩ (Y ≤ y)} = P (X ≤ x)P (Y ≤ y). e D´finition 1. strictement positive. Mˆme d´finition pour une famille de variables al´atoires. F) sont dites ´quivalentes e e e e e si elles ont mˆmes ensembles n´gligeables. par exemple e e pour les fonctions indicatrices. Y )) = E(f (X)) = E(g(Y )). Y )) de deux fa¸ons : e c E(ϕ(X. e e e Proposition 1. ∀Ai ∈ Fi . i ∈ I) est dite uniform´ment int´grable si supi |Xi |≥a |Xi |dP → 0 quand e e a → ∞. i ∈ IN ) est ind´pendante si toutes les sous familles finies le sont. e e Il suffit que cette ´galit´ ait lieu pour une classe suffisamment riche de fonctions f et g. µ positifs. X et Y sont ind´pendantes si et seulement si e E(f (X) g(Y )) = E(f (X)) E(g(Y )) pour toutes fonctions f et g bor´liennes born´es. X est ind´pendante de la sous-tribu G si et seulement si e P {A ∩ (X ≤ x)} = P (A)P (X ≤ x). g(y) = E(ϕ(X. si Y est une v.s. ∀B ∈ C2 o` Ci est une famille stable par intersection telle que σ(Ci ) = Fi .3. y)) Proposition 1. u D´finition 1. (Xi . la famille (Xi .4 Ind´pendance e P (A ∩ B) = P (A)P (B). Elle est facile ` m´moriser par la r`gle de calcul formel suivante: a e e EQ (Z) = ZdQ = Z dQ dP = dP ZY dP = EP (ZY ) . ∀A ∈ F1 . ∀i. ∀x ∈ I ∀A ∈ G. Une propri´t´ vraie P p. R.

dQ Y Si Y est seulement positive. Soit U une variable de Bernoulli sous P d´finie par e P (U = 0) = 1 − p. σ 2 ). 3. pour tout λ r´el. Soit Y la variable d´finie par Y = λU + µ(1 − U ). U est une variable de Bernoulli de param`tre λp. Elle est d’esp´rance 1 pour λp + µ(1 − p) = 1.1 Un vecteur X = (X1 .a.n n i=1 ai Xi o` σi. e Si (X. u e Si deux variables forment un couple gaussien de covariance nulle. 1. La loi de X admet une densit´ si la matrice Γ est inversible. on a. 1.n. e e e Enfin. elles sont ind´pendantes. 1 On pose dQ = Y dP avec Y = exp(U − EP (U ) − VarP U ). loi N (m. X2 . µ > 0. j=1. on a P (A) = 0 =⇒ Q(A) = 0 et on dit que Q est absolument continue par rapport ` P . Sous Q . E(eλX ) = e λ2 σ 2 λ2 σ 2 λX exp(λm + 2 ) . . σ 2 ). σ 2 ). a e a I R f (x)δa (dx) = e D´finition 1. 2σ 2 σ 2π Une variable X est gaussienne de loi N (m. a On a aussi Exemple 1. de loi N (m.2 1. aX + bY est une gaussienne et le couple (X. a e On caract´rise la loi de X par son vecteur esp´rance et sa matrice de covariance e e Γ = [σi. σ 2 )(x) = On consid`re qu’une v. Xn )T est gaussien2 si toute combinaison lin´aire e est une variable gaussienne ` valeurs r´elles. e e e On distingue plusieurs types de convergence: 2 L’exposant T d´signe la transposition e .12 G´n´ralit´s e e e dP 1 = . L’espace (Ω. de loi N (m + hσ 2 . e 2. . X est une v.1 Si X est une variable gaussienne de loi N (m. on a Q(U = 1) = λp. Ce n’est en g´n´ral pas vrai si les variables ne sont pas ind´pendantes. D´monstration : Il suffit de calculer EQ {exp(λX)}) = EP {Y exp(λX)} et de v´rifier que EQ (exp λX) = e e 2 2 σ exp[λ(m + hσ 2 ) + λ 2 ] . ce qui correspond ` une e a masse de Dirac. constante suit une loi gaussienne de variance nulle. La mesure de Dirac δa au point a est une probabilit´ sur I telle que e R f (a) et correspond ` une v. il existe α tel que X − αY est ind´pendant de X. λ.a.j = E(Xi Xj ) − E(Xi )E(Xj ).a. la variable X est de e R.5 Convergence de v. Y ) est un vecteur Gaussien.4 Variables gaussiennes 1 (x − m)2 √ exp − .3. P (U = 1) = p. constante ´gale ` a. Soit X est un vecteur gaussien sous P et U une variable telle que le vecteur (X. e e Soit dQ = Y dP .4. Toutes les variables al´atoires sont d´finies sur cet espace. . 2 Sous Q. σ 2 ) si elle a pour densit´ e N (m. nous rappelons une nouvelle fois le r´sultat important suivant e Proposition 1.4.j ]i=1. le vecteur X est gaussien sous Q. R´ciproquement si pour tout λ ∈ I E(e ) = exp(λm + 2 ). F. de mˆme e 2 covariance que sous P . P ) est fix´. .a. e Si X et Y sont des gaussiennes ind´pendantes.a. U ) soit gaussien. σ 2 ) sous P et soit Y = exp{h(X − m) − 1 h2 σ 2 }. Y ) est e gaussien. Soit dQ = Y dP . Si X est une v.

s.5. e .5.a.s. Si une suite uniform´ment int´grable (par exemple born´e) converge p. gaussiennes converge en moyenne quadratique. Si une suite de v. Si (Xi .s.s. alors E(Xn ) converge vers E(X). On e e d´finit ainsi une norme sur l’espace Lp (Ω) des v.a.s. Soit p > 1.a. i ≥ 1) est une suite de v.. Une suite de variables al´atoires Xn converge p. e 1.4 Convergence en loi Une suite de variables al´atoires Xn converge en loi vers X si E(Φ(Xn )) → E(Φ(X)) quand n → ∞ e pour toute fonction Φ continue born´e. Cette notion de convergence d´pend du choix de P . e quand n → ∞. 2006 13 1. implique la convergence en probabilit´. Une suite de v.s. il est complet. X telles que X p < ∞. La convergence p. vers E(X1 ). e La convergence quadratique implique la convergence en probabilit´. Si Q est ´quivalente ` P et si Xn → X. e e n 1 ind´pendantes d’esp´rance finie. Th´or`me de Lebesgue domin´: Si Xn est une suite de variables al´atoires convergeant p. i ≥ 1) est une suite de v. e e e e Th´or`me 1.s. ind´pendantes e e e e e n 1 de variance finie .5.s. vers X et e e e e s’il existe une variable al´atoire Y int´grable telle que |Xn | ≤ Y . e e 1.a.1 Convergence presque sˆ re u Xn (ω) → X(ω) p.5. e 2 Si Xn → X dans L2 (Ω). e L’espace L2 (Ω) est un espace de Hilbert muni du produit scalaire X.3 Convergence en probabilit´ e Une suite de variables al´atoires Xn converge en probabilit´ vers X si e e ∀ > 0 P (|Xn − X| ≥ ) → 0 quand n → ∞.s.1 Loi des grands nombres. n i=1 Xi converge en moyenne quadratique vers E(X1 ). la limite est une variable gaussienne. P On note Xn → X. on a E(Xn ) → E(X 2 ). La r´ciproque est fausse. ou convergence dans L2 (Ω) def 2 On note X = X 2 dP = Ω E(X 2 ). Th´or`me de convergence monotone: Si Xn est une suite de variables al´atoires monotone (soit Xn ≤ e e e Xn+1 ) et si X = limp. Xn → X. En particulier. 1 < q < p. ´quidistribu´es. n i=1 Xi converge p. 1. Y = Ω XY dP . il existe une sous-suite qui converge p. La convergence dans Lp pour p > 1 implique la convergence dans Lq pour tout q. e e e Th´or`me : (Loi des grands nombres) Si (Xi . ´gales p..a. vers X si pour presque tout ω. de carr´ int´grable. e La convergence en probabilit´ implique qu’une sous-suite converge p. On dit que X ∈ L2 (Ω) (ou L2 (Ω.p.July 8. On note Xn → X P.s. Xn . On identifie deux v. La suite de variables al´atoires (Xn ) converge en moyenne quadratique (dans e L2 (Ω)) vers X si ( Xn − X 2 )2 = E(Xn − X)2 → 0 quand n → ∞. Xn dans e Lp converge s’il existe X tel que E(Xn − X)p → 0.a.s. ´quidistribu´es.a. on a E(X) = lim E(Xn ) .2 Convergence quadratique. elle converge dans L2 . On note X p la quantit´ positive d´finie par ( X p )p := Ω |X|p dP = E(|X|p ). ainsi on d´finit ainsi la e e norme || · || sur l’espace des v. Cette notion de convergence d´pend du choix de P . Si une suite converge dans L2 .s. P )) si X 2 < ∞.5. e e Soit Xn ∈ L2 et X ∈ L2 . on a e e a Q.p.

a. On dit que le processus est ` trajectoires continues (ou est continu) si les applications t → Xt (ω) sont a continues pour presque tout ω. t] × A. Pas d’affolement: il suffit de savoir que les processus c`g sont pr´visibles. t ∈ [0.5. Xt2 . La d´finition pr´cise est la suivante: Soit (Ω. .2 Processus Un processus stochastique (ou fonction al´atoire) est une famille de variables al´atoires (Xt . Ce qui est connu ` la date t est rassembl´ e a e e e a e dans une tribu Ft . F.6. c’est-`-dire telle que e a Ft ⊂ Fs pour tout t ≤ s.a. A ∈ Fs . a a e e a a X A un processus stochastique X on associe sa filtration naturelle Ft . a D´finition 1. On utilise souvent des processus dit pr´visibles. Un processus est pr´visible si et seulement si l’application (t. ∀t. . . . Ytn ).2 Th´or`me Central limite Si (Xi . c’est ` dire la famille croissante a X de tribus Ft = σ{Xs . σ n 1. pourvues de limites ` gauche.6. . . de fonction de r´partition F continue.2 Un processus stochastique X = (Xt . ω) → Xt (ω) est mesurable par rapport ` e a la tribu des pr´visibles.14 L G´n´ralit´s e e e On note Xn → X.6 1. et si Xn est une suite de v. e a e loi loi Deux processus sont ´gaux en loi X = Y si pour tout (t1 . i ≥ 1) est une suite de v. 0 ≤ s ≤ t. . e e e D´finition 1. s ≤ t}. de fonction e de r´partition Fn telles que Fn (x) converge vers F (x) pour tout x.a. e On parle d’hypoth`ses habituelles si e . . Yt2 . o` Ψn d´signe la fonction caract´ristique de Xn et Ψ e u e e celle de X. pourvu de limites ` gauche) si ses trajectoires sont a a a a continues ` droite. t ≥ 0) est dit adapt´ (par rapport ` une filtration e e a Ft ) si Xt est Ft -mesurable pour tout t. e a e On dit que deux processus X et Y sont ´gaux ` une modification pr`s si Xt = Yt p. . Si X est une v. . P ) un e e e espace muni d’une filtration (Ft ). qui n’´claire que le chemin parcouru. La convergence en loi est ´galement d´finie par la convergence simple des fonctions e e caract´ristiques. c’est l’information ` la date t. On trouvera chapitre 8 d’autres d´finitions concernant des propri´t´s de mesurabilit´. a u Une filtration G est dite plus grosse que F si Ft ⊂ Gt . e . de variance finie σ 2 e n i=1 Xi − nE(X1 ) L √ → N (0. ∀t. . e Th´or`me 1. ∞[) e e d´finies sur le mˆme espace de probabilit´ . Xtn ) = e (Yt1 . e La convergence en probabilit´ implique la convergence en loi. soit Ψn (t) → Ψ(t) pour tout t.La filtration est continue ` droite au sens o` Ft = ∩s>t Fs . 1) . alors Xn converge en loi vers X et e r´ciproquement. ∞) × Ω engendr´e e e par les rectangles de la forme ]s. ´quidistribu´es.1 Processus stochastiques Filtration On va s’int´resser ` des ph´nom`nes d´pendant du temps.s.les ensembles n´gligeables sont contenus dans F0 . e e e e e e ind´pendantes. On demande souvent que les ensembles n´gligeables soient contenus dans F0 . On appelle tribu des pr´visibles3 la tribu sur (0.1 Une filtration est une famille croissante de sous tribus de F. Un processus est dit c`dl`g (continu ` droite. Mˆme d´finition pour c`gl`d.6. . tn ) et pour tout n on a (Xt1 . 1. t2 . Confucius / Clifton e e . e ee e 3 L’exp´rience e est une lanterne accroch´e dans le dos.6.

les processus croissants sont pris continus ` droite.a. e 1. t ≥ 0) est dit e a ` variation finie s’il est ` variation finie sur [0. Il est alors la diff´rence de deux processus a e croissants (et r´ciproquement).s. t ≥ 0). t] pour tout t.7. Un processus gaussien est caract´ris´ par son esp´rance et sa covariance. ∀t ≤ s. c’est-`-dire a At (ω) ≤ As (ω). a Un processus V = (Vt . On d´finit la probabilit´ conditionnelle e e e e (A∩B) de A quand B par P (A |B ) = P P (B) . i=1 ai Xti est une v. .1 Cas discret Rappel: Soit A et B deux ´v`nements (sous-ensembles de Ω). . ≤ ti ≤ ti+1 ≤ t . e Un processus V = (Vt . gaussiennes centr´es. .a. e e e L’espace gaussien engendr´ par un processus gaussien est le sous espace de L2 (Ω) engendr´ par les e e v. Un processus V = (Vt . t ≥ 0) est dit ` variation finie sur [0. p. . . 2006 15 1. ∀ai .3 Processus croissant Un processus A = (At . On a alors en d´signant par EQ a e e l’esp´rance par rapport ` Q: e a EQ (X) = j xj Q(X = xj ) = j xj P (X = xj ∩ B) . xn ). ≤ ti ≤ ti+1 ≤ t. gaussienne. . Consid´rons le cas d’une variable e e a e X ` valeurs dans (x1 .6. Soit B fix´ et Q(A) := P (A |B ). c’est-`-dire si a n ∀n.6. t ≥ 0) est dit ` variation born´e sur [0. c’est-`-dire le sous-espace form´ par les combinaisons lin´aires de e a e e ces variables centr´es et leurs limites en moyenne quadratique. Sauf mention du contraire. F. B . e e e Un espace gaussien est un sous-espace (vectoriel ferm´) de L2 (Ω) form´ de v. e 1.r. Propri´t´: P (.7 Esp´rance conditionnelle e L’espace (Ω. le sup ´tant pris sur les subdivisions 0 ≤ t0 ≤ . ∀ti . t ≥ 0) est un processus croissant si A0 = 0 et t → At est une fonction croissante. . le sup ´tant pris sur les subdivisions 0 ≤ t0 ≤ . pour tout B tel que P (B) = 0. t] si a sup ti i |Vti+1 − Vti | < ∞ .July 8. e 1.r. x2 . ee e On peut d´finir l’esp´rance d’une variable par rapport ` cette loi.r. .a. |B ) est une probabilit´ sur Ω. P ) est fix´. centr´es (Xt − E(Xt ).4 Processus Gaussiens Un processus X est gaussien si toute combinaison lin´aire finie de (Xt . t ≥ 0) est une variable al´atoire e e gaussienne. 1 ≤ i ≤ n. P (B) On peut ´crire P (X = xj ∩ B) = B 1 X=xj dP (o` 1 X=xj est la fonction qui vaut 1 si ω ∈ (X = xj ) e 1 u 1 c’est-`-dire si X(ω) = xj ) et en remarquant que j xj 1 X=xj = X on a : a 1 xj j P (X = xj ∩ B) 1 = P (B) P (B) XdP. t] si a e sup ti i |Vti+1 − Vti | ≤ K .

. Soit alors B la tribu engendr´e par B et E(X |B ) la variable al´atoire e e d´finie par E(X |B ) = E(X |B )1B + E(X |B c )1B c . de carr´ int´grable. ∀A ∈ G. µ(.1 L’esp´rance conditionnelle E(X |G ) de X quand G est l’unique variable al´atoire e e e a. On la note E(X |Y ). yi ) = 1 P (Y = yi ) XdP. .a. On remarque que pour tout yi .a. xn ). . b) E(Φ(Y )X) = E(Φ(Y )Ψ(Y )) pour toute fonction Φ. xn ) (resp (y1 . On peut donc d´finir l’esp´rance de X par rapport ` cette loi par e e e a E(X |Y = yi ) = j xj P (X = xj |Y = yi ) = j xj µ(xj . pr`s) variable G-mesurable telle que a e e e E[E(X |G )Y ] = E(XY ) pour toute variable Y . P (Y = yi ) = 0. telles que ∀i.7.7.3 Esp´rance conditionnelle par rapport ` une variable e a On d´finit l’esp´rance conditionnelle d’une variable X (int´grable) par rapport ` Y comme ´tant e e e a e l’esp´rance conditionnelle de X par rapport ` la tribu σ(Y ).2 Esp´rance conditionnelle par rapport ` une tribu e a Soit X une v. C’est aussi l’unique (` une ´galit´ p. e IL est facile de v´rifier que e P (Y = yi )E(X |Y = yi ) = i i P (Y = yi )Ψ(yi ) = E(Ψ(Y )) = E(E(X|Y )) = E(X) On note Ψ(Y ) = E(X |Y ) . ` valeurs dans (x1 . yi ) d´finit une e e probabilit´ sur (x1 .: e u e e ea Soient X et Y deux v. 1. G-mesurable born´e. . e e D´finition 1. E(X|G) est la projection de X sur l’espace des variables e e e al´atoires G mesurables.a. x2 . .7.a. On a e E(X |B )dP = D D XdP pour tout ´l´ment D ∈ B. Un cas particulier int´ressant est celui o` l’´v`nement B est li´ ` une v. C’est une varie a able mesurable par rapport ` la tribu engendr´e par Y . e Il en r´sulte que si X est de carr´ int´grable. F. (int´grable) d´finie sur (Ω. yd )). G-mesurable b. . x2 . R e L’esp´rance conditionnelle E(X |Y ) est caract´ris´e par e e e a) c’est une variable σ(Y ) mesurable . . P ) et G une sous-tribu de F. .s. . telle que A E(X |G )dP = A XdP.. C’est l’esp´rance conditionnelle de X quand Y ou encore l’esp´rance e e conditionnelle de X par rapport ` Y .) e e e 1 1. Cette fonction est caract´ris´e par a e e a) Ψ(Y ) est Y -mesurable. G mesurables. donc c’est une fonction de Y : il existe ψ de I a e R dans I bor´lienne telle que E(X |Y ) = ψ(Y ). a On peut alors d´finir P (X = xj |Y = yi ) = µ(xj .16 ce que l’on peut lire EQ (X)dP = EQ (X)P (B) = B B G´n´ralit´s e e e XdP. . Y . yi ). On appelle esp´rance conditionnelle de X quand B cette variable al´atoire ee e e B-mesurable. (Il suffit par lin´arit´ de v´rifier b) pour Φ = 1 yi . . On note E(X |B ) = EQ (X) .r. c’est-`-dire la variable al´atoire G mesurable qui minimise e e e a e E[(X − Y )2 ] parmi les v. . Y =yi On d´finit ainsi une fonction Ψ telle que Ψ(yi ) = E(X |Y = yi ) .

e e b) Croissance. d) Si X est G-mesurable. 1.a. L’´galit´ devant ˆtre v´rifi´e e e e e e e pour tout Y . E(XY |G ) = Y E(X |G ).7. E(X|G) = E(X). On peut exprimer e ee a e l’esp´rance conditionnelle d’une variable sous Q en fonction de l’esp´rance conditionnelle sous P : e e EQ (X |G) = EP (LX |G) . E(aX + bY |G ) = aE(X |G ) + bE(Y |G ). en vertu de l’in´galit´ de Jensen: e e e Soit φ une fonction convexe. EP (L |G) ´ Demonstration: Il s’agit de trouver Z v. On a E(φ(X)|F) ≥ φ(E(X|F)). Y )|Y ) = [E(φ(X. E(φ(X. On ´crit EQ (ZY ) = EP (LZY ) = EP (ZY EP (L|G)) et EQ (XY ) = e EP (LXY ) = EP (Y EP (LX|G)) en utilisant la G-mesurabilit´ de Z. c) E[E(X |G )] = E(X).a. ou ` Y ∈B E(X |Y )dP = Y ∈B XdP pour tout B ∈ B. e g) Si G est la tribu grossi`re (compos´e de l’ensemble vide et de Ω).4 Propri´t´s de l’esp´rance conditionnelle e e e a) Lin´arit´. u . e e e Cette derni`re ´galit´ signifie que. Y G-mesurable. e e h) Si G et H sont deux tribus telles que H ⊂ G alors E(X |H ) = E(E(X |H) |G ) = E(E(X |G ) |H ).a. et φ une fonction bor´lienne born´e.6 Formule de Bayes Soit P une probabilit´ et Q une probabilit´ ´quivalente ` P d´finie par dQ = LdP . on explicite la fonction Ψ telle que Ψ(y) = E(φ(X. On note souvent E(E(X |H) |G ) = E(X |H |G ) i) Si (X. G-mesurable telle que EQ (ZY ) = EQ (XY ) pour toute v.s. 2006 b) A 17 A E(X |Y )dP = XdP ∀A ∈ σ(Y ). E(X |G ) = E(X). y)). et ` condition que les v. telles que X ≤ Y .7.a. Y ) sont ind´pendantes. R R×B 1. Soit a et b deux constantes. il vient ZEP (L|G) = EP (LX|G).7. positive. Ψ(Y ). E(X |G ) = X. e) Si Y est G-mesurable. puis on remplace y par Y e pour obtenir la v. La propri´t´ b) est ´quivalente ` E(E(X |Y )φ(Y )) = E(Xφ(Y )) pour toute fonction φ bor´lienne ee e a e born´e . e e e e e a soient int´grables. Soit X et Y deux v. f) Si X est ind´pendante de G. pour calculer E(φ(X.5 Variance conditionnelle On d´finit Var (X|G) = E(X 2 |G) − E 2 (X|G). On a alors e a’) E(X |Y = y ) est une fonction bor´lienne e b’) B E(X |Y = y )dPY (y) = I xdPX. Y . Y )|Y ) lorsque les variables X et Y sont e e e ind´pendantes. e Remarque tr`s importante: les ´galit´s pr´c´dentes ne sont vraies que p. On verra d’autres propri´t´s de l’esp´rance conditionnelle dans le polycopi´ d’exercices. a. y))]y=Y . e 1. e a On utilise souvent la notation E(X |Y = y ) pour d´signer la valeur de ψ en y.Y (x.a. y) ∀B ∈ BI .July 8. C’est une v. On utilisera ee e e b b sans mod´ration la formule E e a Xs ds|G = a E Xs |G ds d´s que l’un des deux membres existe. Alors E(X |G ) ≤ E(Y |G ). d’o` l’expression de Z.

1. Lorsque l’on connait cette loi conditionnelle. Y ) . de loi µ(y. . La loi conditionnelle de X quand Y est la famille de lois sur I not´e µ(y. la densit´ conditionnelle de e e X ` Y est une loi gaussienne d’esp´rance lin´aire en Y et de variance c ind´pendante de Y .a. Y ) est un vecteur gaussien. c’est-`-dire une famille de sous-tribus Ft croissante (telle que Fs ⊂ Ft . on peut montrer que e µ(y.8. ∀p ∈ IN . n ∈ IN ) sont des martingales ∀i. La propri´t´ s’´tend aux fonctions Φ int´grables par rapport e e ee e e a ` µ. En effet E[X|Y = y] = e a e tout y. y).r. (Xn . 1 ≤ i ≤ d. Y ) deux v. c = E(X 2 |Y ) − E 2 (X|Y ) = E(X 2 ) − E[(aY + b)2 ] V arY Ceci se g´n´ralise ` un vecteur multidimensionnel : si (X.1 Martingales Cas discret On se donne une filtration. dx) pour toute fonction Φ bor´lienne born´e. a La tribu F0 contient les n´gligeables. ee Exemple: Si Xn = Y1 + . Xn est une u e e e e martingale.8 1. si les familles (Sn .9 1.a.r. les calculs d’esp´rance et de variance conditionnelle e ∞ se r´duisent ` des calculs d’esp´rance et de variance. ∀s ≤ a t. + Yn o` les Yi sont ind´pendantes ´quidistribu´es centr´es.a. Cas multidimensionnel: Une famille de vecteurs (Sn . n ≥ 0) telle que Sn est ` valeurs dans I d est une a R i martingale. n ∈ IN ) est une Fn -martingale si e Xn est int´grable. d’o` u a= Cov(X. y)dx f (u. Propri´t´: E(Xn+p |Fn ) = Xn . dx) est. dx) R e index´es par y (qui d´crit l’ensemble des valeurs prises par Y ) telle que e e ∞ E[Φ(X)|Y = y] = −∞ Φ(x)µ(y.2 Cas continu.1 ef Une suite de v. e Si le couple (X. ∀n ∈ IN E(Xn+1 |Fn ) = Xn .1 Loi conditionnelle D´finition e Soit (X. c’est-`-dire une famille de sous-tribus Fn croissante (telle que Fn ⊂ Fn+1 ). Y ) est gaussien (avec une densit´ ou non).9.r. Il est a e e e alors facile de retrouver la valeur de l’esp´rance: E(X|Y ) = aY + b implique E(X) = aE(Y ) + b et e E(XY ) = E(Y E(X|Y )) = E(aY 2 ) + bE(Y ). ∀n ∈ IN.2 Cas Gaussien Si le couple de v.9. On se donne une filtration. l’esp´rance d’une v. ∀n ∈ IN .9.) .a. . la densit´ condie e a e tionnelle de X ` Y est une loi gaussienne d’esp´rance lin´aire en Y et de variance c ind´pendante de a e e e Y. Y ) a une densit´ f (x. y)du I R −∞ xµ(y. dx) = f (x. b = E(X) − aE(Y ) . dx). pour 1.8.18 G´n´ralit´s e e e 1. 1. ∀n ∈ IN e Xn est Fn -mesurable. (X. e D´finition 1.

t ≥ 0) un processus et T un temps d’arrˆt fini.9. e On associe ` un temps d’arrˆt τ la tribu Fτ dite des ´v´nements ant´rieurs ` τ . 1. e 4 “L’essentiel est de comprendre” Scipion. Proposition 1. S ∧ T est un temps d’arrˆt.9. dans Caligula. X 2 est une sous martingale. s≤T 1. 2006 19 D´finition 1. e e e Si S et T sont des temps d’arrˆt tels que S ≤ T . X + A est une sous-martingale. t ≤ T ) est une martingale. T est FT mesurable.10 Temps d’arrˆt e On travaille sur un espace muni d’une filtration (Ft ). e Soit (Xt .9. on a FS ⊂ FT . On dira que X est une martingale si la filtration de r´f´rence est la filtration naturelle de X. Si (Xt .1 Un temps d’arrˆt est une variable al´atoire τ ` valeur dans I ∪ {+∞} telle que e e e a R {τ ≤ t} ∈ Ft . XT est FT -mesurable. Propri´t´s: ee Si X est une martingale E(Xt ) = E(X0 ). ∀t. t ∈ [0. En particulier T ∧ t est un temps d’arrˆt. e e 2 2 E(sup Xs ) ≤ 4E(XT ) . ∀s ≤ t. Si X est une martingale et A un processus croissant. ∀t ∈ I . On d´finit XT par XT (ω) = XT (ω) (ω) . le processus est compl`tement d´termin´ par sa valeur terminale: e e e Xt = E(XT |Ft ). e E(Xt |Fs ) = Xs . d´finie4 par Fτ = {A ∈ a e e e e a e F∞ |A ∩ {τ ≤ t} ∈ Ft . e ee e e D´finition 1.July 8. On fera ee attention: la propri´t´ de martingale d´pend de la filtration et une F-martingale n’est en g´n´ral pas ee e e e une G martingale si G est plus grosse que F.10.9. ∀t ∈ I R. On note F∞ = σ(∪t Ft ). vers 0 quand on raffine la partition.1 Si X est une martingale. E(Xt |Fs ) ≥ Xs ). Une martingale continue ` variation born´e est ´gale ` une constante.2 Une famille de variables al´atoires (Xt . Exemple 1. a e e a En effet si M est une telle martingale et V sa variation.10. R} Propri´t´s: Si T est un temps d’arrˆt. Camus . alors.3 Une famille de variables al´atoires (Xt . Une constante positive est un temps d’arrˆt.1 D´finitions e D´finition 1.1 In´galit´ de Doob Si X est une martingale continue.s. ∞[) est une surmartingale (resp. t ∈ [0. ee e Si S et T sont des temps d’arrˆt. ∞[) est une martingale par rapport ` e e a la filtration (Ft ) si Xt est Ft -mesurable et int´grable pour tout t. e e Si un processus X est continu et adapt´. souse e martingale) par rapport ` la filtration (Ft ) si a Xt est Ft -mesurable et int´grable pour tout t e E(Xt |Fs ) ≤ Xs . E(Mt2 ) = E (Mti+1 − Mti 2 ≤ E Vt sup |Mti+1 − Mti | ≤ KE sup |Mti+1 − Mti | et le membre de droite converge p. Cette derni`re propri´t´ est d’un usage tr`s fr´quent en finance. ∀s ≤ t (resp.

pour tous e e e R t1 < t2 < · · · < tn E(F (Xs+t1 . G.10. On dit que le processus est de Markov si. Ceci implique en particulier que pour toute fonction f bor´lienne born´e e e E(f (Xt )|Fs ) = E(f (Xt )|Xs ) . pour toute variable born´e Y ∈ F∞ l’´galit´ e e e E(Y ◦ θt |Ft ) = E(Y ◦ θt |Xt ) o` θ est l’op´rateur de translation d´fini sur les applications coordonn´es par Xu ◦ θs = Xu+s .10. Pour tout n. Th´or`me 1. un processus est de Markov si son comportement dans le futur ne d´pend du pass´ qu` travers le pr´sent. conditionn´e par le pr´sent”. pour toute fonction born´e F d´finie sur I n . ∀t > s . Xs+tn )|Fs ) = E(F (Xs+t1 . Une martingale locale uniform´ment int´grable e e est une martingale. Braque.10.1 Th´or`me d’arrˆt de Doob: (Optional Sampling Theorem) e e e e e Si M est une (Ft )-martingale continue et si S et T sont deux temps d’arrˆt tels que S ≤ T ≤ K.10.10. En particulier. on peut montrer que Mt converge p. Xs+tn )|Xs ) . mais d’un usage constant. le processus X n’est pas une n´cessairement e t martingale.5 Soyons plus e e a e pr´cis. Xs+t2 .2 Th´or`me d’arrˆt e e e def Si T est un temps d’arrˆt et M une (Ft )-martingale. u e Si M est une surmartingale positive et τ un temps d’arrˆt. le processus X est une mare e tingale.20 G´n´ralit´s e e e 1. E(Mτ ) ≤ E(M0 ) o` on pose M∞ = 0. Xs+t2 . si E(Xt ) = E(X0 ) pour tout t. pour tout t. u e e e Essayons une autre d´finition. · · · . MT est int´grable et e e E(MT |FS ) = MS . t ≥ 0) est une martingale pour tout n. Ce r´sultat s’´tend ` tous les temps d’arrˆt si la martingale est uniform´ment int´grable. S avec T > S.1 Attention. et dans L1 vers M∞ quand e e t → ∞ et que MS = E(M∞ |FS ) Proposition 1. le processus Z d´fini par Zt = Mt∧T est une (Ft ) e e martingale. e 5 “L’avenir est la projection du pass´. e Soit X un processus et (Ft ) sa filtration canonique. E(Mt∧T ) = E(M0 ).1 Si pour tout temps d’arrˆt born´ E(XT ) = E(X0 ). e Une martingale locale positive est une surmartingale. K e ´tant une constante finie. 1. e u D´finition 1. e e e .10. Remarque 1. Le processus est dit de Markov fort si la propri´t´ pr´c´dente est vraie pour tout couple de temps ee e e d’arrˆt finis T. En langage vernaculaire. e e a e e e Si M est uniform´ment int´grable.2 Un processus M adapt´ c`gl`d est une martingale locale s’il existe une suite croise e a a sante de temps d’arrˆts τn telle que τn → ∞ et (Mt∧τn .s.3 Processus de Markov Cette notion est assez difficile. Un contre exemple est Xt = 0 Mu du o` M est une martingale d’esp´rance nulle. · · · .

I R f 2 (x)dx. . L’ espace I muni de la norme habituelle. n) telle que f est constante. ∀x. m → ∞ implique l’existence de x tel que xn → x. La fonction f est une fonction en escalier s’il existe une subdivision (ti . |∂x f (x.3 Th´or`me de Lebesgue domin´ e e e fn (x)dx converge vers I R I R Soit fn une suite de fonctions int´grables qui converge (simplement) vers une fonction f (fn (x) → e f (x).2 Espace complet Un espace norm´ est dit complet si toute suite de Cauchy converge. l’espace R des fonctions L2 (I muni de la norme ||f || = R) ||X|| = E(X 2 ) sont des espaces complet. 2006 21 1. alors e u e F (x) = −∞ 1.e.July 8. ti ≤ ti+1 .a. . y)dy. l’espace des v. . ti+1 ] et nulle hors de [t0 . ∀x).11. S’il existe g int´grable telle que |fn (x)| ≤ g(x). Si f est continue et admet une d´riv´e partielle par rapport ` x ∂x f (x. alors e f (x)dx. y)| ≤ g(y) o` g est une fonction int´grable. . continue born´e en valeur absolue par g(y). i = 0. y)dy. tn+1 ]. ´gale ` fi sur ]ti . On peut alors ´crire e a e n 1 f = i=1 fi−1 1 ]ti−1 . si ||xn − xm || → 0 quand e n. i.11 1. .11.ti ] . L2 (Ω) muni de la norme 1.1 Rappels d’analyse D´rivation sous le signe somme e ∞ Soit F (x) = −∞ ∞ f (x.11. y) e e a ∂x f (x.

22 G´n´ralit´s e e e .

La mˆme ann´e. Einstein d´termine la densit´ de transition du mouvement Brownien par l’interm´diaire de e e e l’´quation de la chaleur et relie ainsi le mouvement Brownien et les ´quations aux d´riv´es partielles de e e e e type parabolique. En 1877. ∀ti .Chapter 2 LE MOUVEMENT BROWNIEN Le botaniste Robert Brown observe en 1828 le mouvement irr´gulier de particules de pollen en suspension e dans l’eau. Durrett. les variables (Btn − Btn−1 . Smoluchowski d´crit le mouvement Brownien comme une limite de e e e promenades al´atoires. e La premi`re ´tude math´matique rigoureuse est faite par N. Bt0 ) sont ind´pendantes. On le construit sur “l’espace canonique ” Ω = C(I + . L´vy (1948) s’int´resse aux propri´t´s fines des e e e ee trajectoires du Brownien. La variable Bt − Bs est ind´pendante de la tribu du pass´ avant s. Salminen. .. e e c) ∀n. En 1905. Pitman. 0 ≤ t0 ≤ t1 . Bt − Bs est une variable r´elle de loi gaussienne. P. Meyer. Itˆ. . la propri´t´ c) traduit ee e ee que le mouvement Brownien est ` accroissements ind´pendants. Bachelier. Il convient d’insister sur le caract`re pr´curseur de Bachelier et e e e le fait que la th´orie du mouvement Brownien a ´t´ d´velopp´e pour la Bourse. e e Nous ne d´montrons pas l’existence du mouvement Brownien (MB dans la suite). Chung. e e e o Watanabe. t ≥ 0) sur cet espace. I des R R) fonctions continues de I + dans I par Bt (ω) = ω(t) et on munit cet espace d’une mesure (mesure de R R Wiener) telle que B soit un MB. ≤ tn . Yor. Depuis. le mouvement Brownien continue de passionner les probabilistes.1 Le mouvement Brownien On se donne un espace (Ω. P ) et un processus (Bt . centr´e de variance (t − s). avant de l’ˆtre pour la e ee e e e Physique.1 D´finition. et a e ne d´pend pas de sa position avant t. Delsaux explique les changements incessants de direction de trajectoire par les chocs entre les particules de pollen et les mol´cules d’eau.. t ≥ 0) est un mouvement Brownien (standard) si a) P (B0 = 0) = 1 (le mouvement Brownien est issu de l’origine). . On pourra consulter e l’ouvrage de Karatzas et Shreve (1988). Knight. En 1900. LeGall. . . en vue d’´tudier les cours de la Bourse met en ´vidence le caract`re “markovien” e e e du mouvement Brownien : la position d’une particule ` l’instant t + s d´pend de sa position en t. Un mouvement de ce type est qualifi´ de e e “mouvement au hasard”. Bt1 − Bt0 . u ≤ s). aussi bien pour l’´tude de ses trajectoires que pour la th´orie de l’int´gration stochastique (Wiener. Williams. 2.). b) ∀s ≤ t. e Le processus (Bt . Wiener (1923) qui exhibe ´galement e e e e une d´monstration de l’existence du Brownien. F. e La propri´t´ b) est la stationarit´ des accroissements du mouvement Brownien. 23 .1. soit σ(Bu . . 2.. On peut aussi ´crire c) sous la forme a e e ´quivalente suivante: e c’) Soit s ≤ t.

Sn ) et que Sm − Sn a e 1 “Charmante promenade. Tintin et les Picaros. 6 Sn S2 S1 O       1     d      @   @ @   d d d 2 d d d   d     d     d d    n - Promenade al´atoire e Remarquons que la suite (Sm − Sn . On c e peut montrer qu’elle v´rifie alors les conditions habituelles. .a. a e 2. e On a E(Sn ) = 0. F. N 2 On associe ` cette famille la suite (Sn . s ≤ t}. . P) une famille de variables al´atoires de Bernoulli ind´pendane e e tes ´quidistribu´es e e 1 P (Xi = 1) = P (Xi = −1) = . Var (Sn ) = n. La variable Xt est une variable u gaussienne d’esp´rance x + µt et de variance σ 2 t. . e e Le processus Xt = a + Bt est un Brownien issu de a. e ee e Soit. On lui ajoute de fa¸on implicite les n´gligeables. i∈I ∗. sur un espace de probabilit´ (Ω. n ≥ 0) d´finie par a e n S0 = 0. 1964. n’est-ce-pas?” Le professeur Tournesol. ≤ tn ) sont ind´pendantes. (Jeu de pile ou face). . t0 ≤ t1 . . m ≥ n) est ind´pendante de (S0 . Cette propri´t´ est exploit´e pour des simulations. On dit que X est un Brownien g´n´ralis´ ou un e e e MB de drift µ si Xt = x + µt + σBt o` B est un mouvement Brownien. (Xti+1 − Xti . S1 .1. . .24 Le mouvement Brownien La filtration naturelle est Ft = σ{Bs . e 2.2 G´n´ralisation. e Les v. e On s’autorisera ` noter B(ti ) au lieu de Bti la valeur de la trajectoire en ti pour des raisons de lisibilit´.2 Promenade al´atoire e On peut montrer que le mouvement Brownien s’obtient comme limite de promenades al´atoires renore malis´es. Sn = i=1 Xi On dit que la suite Sn est une promenade1 al´atoire.

. tk ). .3 Propri´t´s e e Dans ce qui suit. Bs ) = s ∧ t. . soit ee e e e e e p • si k ≥ k . 2. .3. on d´finit une famille de variables al´atoires index´es par les r´els de la forme e e e e e e k ∈ I .July 8. N ´tant fix´. Bs o` B est un Brownien partant de x. 1] e a * on change l’´chelle des valeurs prises par Sn . t ≥ 0) est un processus gaussien d’esp´rance e e e x + µt et de covariance E[(Xt − E(Xt )) (Xs − E(Xs ))] = σ 2 (s ∧ t). Soit N fix´ e a e * on ram`ne l’intervalle de temps [0. N ] ` [0.1 Le processus B est un processus gaussien. on remarque que pour tout t ∈ I + il e e e R N k(t)+1 k(t) existe k(t) ∈ I unique tel que N ≤ t < N et on pose N UtN = U k + N t − N k N U k+1 − U k ) N N o` k = k(t). . 2. De la mˆme fa¸on. 2006 mˆme loi que Sm−n . = 0 et Var U k N = N N N On d´finit un processus ` temps continu (Ut . nous utiliserons la notation Px (Bs ∈ A) pour P (x + Bs ∈ A) et Px (Bs ∈ da) pour e c la densit´ de la v. U k − U k a mˆme loi que U k−k . e Plus pr´cis´ment.2 Une notation Il nous arrivera de noter Ex (f (Bs )) l’esp´rance de f (Bs ) quand B est un Brownien issu de x. sa loi est caract´ris´e par son esp´rance e e e nulle et sa covariance Cov(Bt . L L En particulier UtN → Bt et (UtN . 1 k 2. B = (Bt . s ≤ t} est sa filtration naturelle. e E Uk N 25 k N. Si s ≤ t. . U k − U k est ind´pendante de (U N .3. . . La covariance est ´gale ` E(Bt Bs ) car le processus est centr´.3. u N N e e Pour t = 1 on a U1 = √1 SN . UtN ) → (Bt1 . ´ Demonstration: Le caract`re gaussien r´sulte de i=0 ai Bti = i=0 bi (Bti+1 − Bti ) avec ai = bi − e e bi+1 . sans e toujours faire cette pr´cision. p ≤ k ) e N N • si k ≥ k . i ≤ n − 1 . Pour cela. e e e On montre alors que le processus U N converge (au sens de la convergence en loi) vers un mouvement Brownien B. N Les propri´t´s d’ind´pendance et de stationarit´ de la promenade al´atoire restent v´rifi´es. Cette quantit´ est ´gale ` E(f (x + Bs )) o` B est un Brownien issu de 0 e e e a u . .1 Processus gaussien Proposition 2. t ≥ 0) ` partir de U k en imposant ` la fonction e a a a N k t → Ut d’ˆtre affine entre N et k+1 . e a e 2 2 E(Bt Bs ) = E((Bt − Bs )Bs + Bs ) = E(Bt − Bs )E(Bs ) + E(Bs ) = s n n On peut g´n´raliser: Le processus (Xt = x + µt + σBt . N N On a k . par N 1 U k = √ Sk . e On proc`de alors ` une double renormalisation. t ≥ 0) est un mouvement Brownien et Ft = σ{Bs . Le th´or`me central-limite implique alors que U1 converge en loi N vers une variable al´atoire gaussienne centr´e r´duite. .a. e u . . an = bn . . Btk ) pour tout k-uple (t1 .

e e e Th´or`me 2.2 Si (Bt . Bt ). E(f (Bu ) |Ft ) = E(f (Bu ) |σ(Bt ) ) pour u > t. e e ´ Demonstration: On fait apparaitre les accroissements et on utilise les propri´t´s de l’esp´rance conee e ditionnelle : E(f (Bu ) |Ft ) = E(f (Bu − Bt + Bt ) |Ft ) = Φ(u − t.5 Equation de la chaleur 1 (y − x)2 exp − = g(t. u − t).3. (Propri´t´ de scaling) ee c ¯ e ¯ ¯ iii) le processus B d´fini par Bt = tB 1 . y) ∂t 2 ∂y 2 et l’´quation “backward” e ∂q 1 ∂2q (t. c’est aussi la densit´ conditionnelle e P (Bt+s ∈ dy|Bs = x) = q(t. On a alors E(f (BT +s ) |FT ) = E(f (BT +s ) |σ(BT ) ). t ´ Demonstration: Il suffit de v´rifier le caract`re Gaussien de ces processus et d’en calculer esp´rance e e e et covariance. Bu est de loi gaussienne d’esp´rance Bt et de variance u − t. x) = √ 1 2πs f (y) exp − I R (y − x)2 dy 2s Une autre fa¸on de d´crire cette propri´t´ est de dire que. 2. E(f (Bu ) |σ(Bt ) ) = Φ(u − t. y) = √ la densit´ de transition du mouvement Brownien.3. En e a particulier. x. alors ˆ e ˆ i) le processus B d´fini par Bt = −Bt est un mouvement Brownien. x. t ≥ 0) d´fini par Wt = Bt+T − BT est un e e mouvement Brownien ind´pendant de FT . pour u > t.3.3 Scaling Proposition 2.3. x. ˜ e ˜ ii) le processus B d´fini par Bt = 1 Bc2 t est un mouvement Brownien. il se trouvait en x. B0 = 0 est un mouvement Brownien. On note e e q(t. le processus (Wt .3 Propri´t´ de Markov forte: e e Soit T un temps d’arrˆt ` valeurs finies. y) dy La densit´ de transition q v´rifie l’´quation “forward” e e e 1 ∂2q ∂q (t. soit une loi u e N (0. x) la densit´ gaussienne centr´e de variance t. la probabilit´ pour que e c e le mouvement Brownien soit en y sachant que t instants auparavant.3. Bt ) avec Φ(u − t. la c e ee a v.1 Pour f bor´lienne born´e. x.26 Le mouvement Brownien 2. y) . C’est de fa¸on heuristique. On a tr`s pr´cisement e e e Φ(s. pour tout temps d’arrˆt fini T . x. conditionnellement ` Bt . Par les mˆmes arguments. x) = E(f (Bu − Bt + x)) = E(f (Y + x)) o` Y a mˆme loi que Bu − Bt . e def 2.a. ∀t > 0 . t ≥ 0) est un mouvement Brownien. x − y) 2t 2πt Soit g(t. y) = (t. ∂t 2 ∂x2 .3.4 Propri´t´ de Markov e e def La propri´t´ de Markov du mouvement Brownien est utilis´e sous la forme (un peu plus forte que ee e la propri´t´ de Markov) : pour tout s. t ≥ 0) d´fini par Wt = Bt+s − Bs est un ee e mouvement Brownien ind´pendant de Fs . y) = (t. Proposition 2. x. le processus (Wt . Alors e E(1 Bu ≤x |Ft ) = E(1 Bu ≤x |σ(Bt ) ) = E(1 Bu ≤x |Bt ) 1 1 1 pour t ≤ u.

f ) + (t. x. x.3) et (2. f ) = F (t. Il reste ` utiliser le e a th´or`me de d´rivation des fonctions compos´es: e e e e du ∂F ∂F ∂f 1 (t. x. x + Bt )) = f (0. x. ∂x2 En remarquant que (utiliser (2. −∞ T (2. y)dy = u(t. x) + 0 1 E[ fxx (s. ∂xx f ) dt 2 En effet. x. x. f ) = E(f (s. x + Bt )). y)dy cette fonction v´rifie (utiliser (2. t (2. f ) = −∞ f (y)q(t. f ) la fonction ∞ u(t. x + Bs )] ds 2 ´ Demonstration: Soit u(t. f ) = (t. en utilisant (2. x. t. x. on obtient que pour toute e fonction f bor´lienne born´e e e ∞ E(f (BT )|Bt = x) = −∞ f (y) q(T − t. 0. 0 Cette formule sera g´n´ralis´e dans le prochain chapitre en utilisant le lemme d’Itˆ.3) ∂u 1 ∂ 2 u  − + = 0 2 ∂t 2 ∂x Pour calculer E(f (BT )). f ) = E( (s. x + Bt )) + u(t. x.2) et le th´or`me de d´rivation sous le signe int´gral) e e e e ∂2u (t. x.3. t. f ). x. f ) = E(f (t. x. On peut ´crire. x. x + Bt )). ∂t f ) + u(t. f ) = f (x) (2. x. x. f ) = u(t. x.3) et de remarquer e e e e que E(f (BT )) = u(T. x. 2006 27 En utilisant cette notation et la stationarit´ des accroissements du MB. f ) = E(f (BT + x)). ∂xx f ) dt ∂s ∂t ∂t 2 En int´grant par rapport ` t e a t u(t. x.4) e que du 1 (t. y) dy . f ) − u(0. x) = f (x) ∂v 1 ∂ 2 v  + = 0 ∂t 2 ∂x2 et v´rifie v(0. on ´crit u(t. en utilisant E(f (Bt + x)) = u(t. x. x. f ) est solution de   v(T. f ) = 0 ∂u 1 (s. t. f ) ds = ∂t 2 T 0 ∂2u (s. f ) ds .5) E(f (t. x + Bs ) + ∂xx f (s. Il est facile de v´rifier. y) dy = E(f (Bt + x)) ∞ (2.2) = E(f (Bt+s )|Bs = x) = −∞ f (x + y)g(t.4) 1 2 E(f (Bs + x)) ds .1). x. f ) = ∂x2 on obtient E(f (BT + x)) = f (x) + ∞ f (x + y)g(t. x + Bs ) + ft (s. x. t.July 8. x. e e e o La fonction v(t. f ) avec F (s. x + Bs )] ds 2 . f ) = 0 1 E[ft (s. f ) e T E(f (BT + x)) − f (x) = u(T. f ) − u(0. x. x. x. x. x. Si l’on note u(t. l’´quation backward et le th´or`me de d´rivation sous le signe e e e e e int´gral) e   u(0. il suffit de r´soudre l’´quation aux d´riv´es partielles (2.4 Si f est une fonction de classe Cb en temps et Cb en espace. f ) = E(f (Bt + x)) .1) (2. f ) = u(T − t. e 1 2 Proposition 2.

Il en r´sulte e e E(u(t. On a alors t E(us. la convergence ayant lieu en moyenne quadratique et p.3. ´ Demonstration: supσ i |Bti+1 − Bti | ≥ supn k=0 |Yk | avec Yk = Bt∗ − Bt∗ o` les points sont u k+1 k k n ∗ choisis comme pr´c´demment: tk = 2n t.3. Bw )dw Par hypoth`se. e e ´ Demonstration: Les accroissements du Brownien sont ind´pendants. e Th´or`me 2. On peut majorer Zt : e e 2n n Zt 2n ≤ (sup |Bt∗ − Bt∗ |) k+1 k k k=0 |Yk | .x (t − s.5 Si f est une fonction de classe Cb en temps et Cb en espace. t] d´finie par Vt (ω) = supσ i |Bti+1 (ω) − e Bti (ω)|. La fonction u(t. On d´finit L le g´n´rateur du processus par l’op´rateur e e e e 1 2 σ ∂xx f + µ ∂x f 2 1 2 Proposition 2. on doit montrer que E((Zt − t)2 ) → 0.s. x + µs + σBs )] ds Th´or`me 2. 0) + 0 Lus. n=1 2 n=1 converge p.x (w. Bs ) et le th´or`me est ´tabli. Nous verrons ce r´sultat important dans un contexte plus g´n´ral en application e e e e e e du lemme d’Itˆ. x.s. vers 0. x + µs + σBs ) + ∂t f (s. ≤ tn = t. ∂xx f ) + µu(t.3. Bt ) est une martingale.x (t. “nulle part diff´rentiables”. ∂t f ) dt 2 et u(0. Bt )|Fs ) = us. σ 2 ).28 Le mouvement Brownien On peut g´n´raliser ce r´sultat au processus X d´fini par Xt = x + µt + σBt .3. . Alors e e e a quand n → ∞. Bt−s ))|x=Bs avec us. x + y). . par continuit´ uniforme des trajectoires sur e 2n n [0. x + µt + σBt )) v´rifie e du 1 (t. x + Bt−s )|x=Bs = E(us. x) + 0 E[Lf (s. On en d´duit que e e ∞ ∞ ∞ t n n E( n=1 (Zt − t)2 ) = D’o` u (Zt − t)2 < ∞ et le terme g´n´ral de la s´rie e e e n < ∞. Var(Zt ) → 0 ce qui se d´duit de 2n 2n 2 t t2 n 2 Var(Zt ) = Var[B(tj ) − B(tj−1 )] = 2 = 2n+1 2n n 2 2 j=1 j=1 (Nous avons utilis´ que si X est de loi N (0. Quand n → ∞. Bt )|Fs ) = E(u(s + t − s. x + µt + σBt )) = f (0.x (t − s. puisque E(Zt ) = t. f ) = e e e e E(f (t.x = 0. le terme sup |Btk+1 − Btk | tend p. 2n 2n j=1 [B(tj ) − B(tj−1 )]2 → t n ´ e Demonstration: Soit Zt = j=1 [B(tj )−B(tj−1 )]2 .2 Si u est telle que Lu = 0 alors u(t. 0)|x=Bs = u(s. L(f ) = t E(f (t. x.s. t] caract´ris´e par 0 = t0 ≤ t1 . f ) = f (x).6 Trajectoires Nous admettons les r´sultats suivants: e Les trajectoires du mouvement Brownien sont continues. L(u) = 0 donc Lus. Alors Vt (ω) = ∞ p. x. t]. Pour ´tabluir la convergence en moyenne quadran n n e tique. soit.. Proposition 2.x (0. Le terme k=0 |Yk | est croissant en n et ne peut avoir de limite finie sans que Zt ne converge vers 0. vers 0. x. y) = u(s + t.3. o 2. ce qui n’est pas le cas. f ) = σ 2 u(t. e e Soit Vt la variation de la trajectoire du Brownien sur [0.s.6 Soit σ une subdivision de l’intervalle [0. x. Bt−s )) = us.x (0. ∂x f ) + u(t. e E(u(t. . Les trajectoires du mouvement Brownien sont p.s.3 Soit n fix´ et tj = 2jn t pour j variant de 0 ` 2n . x. la variance de X 2 est 2σ 4 ).

e ´ Demonstration: On peut le faire en utilisant le lemme suivant : Soit F et G deux tribus. Proposition 2. et e e e d’utiliser la propri´t´ E(X|G) = E(X) quand X et G sont ind´pendantes.8 Soit B1 et B2 deux MB ind´pendants. Le processus (Bt − t. ee e E(Bt |Fs ) = E(Bt − Bs |Fs ) + E(Bs |Fs ) = 0 + Bs De mˆme E((Bt − Bs )2 |Fs ) = t − s et e 2 2 2 2 2 2 E((Bt − Bs )2 |Fs ) = E(Bt + Bs − 2Bt Bs |Fs ) = E(Bt |Fs ) + Bs − 2Bs E(Bt |Fs ) = E(Bt |Fs ) − Bs On obtient alors 2 2 E(Bt − t|Fs ) = Bs − s . ´ Demonstration: Nous ne d´montrons que la partie directe. 2 2 2 le r´sultat suit. Soit s ≤ t. le processus X est un brownien.July 8. si X est un processus continu tel que X et (Xt − t. e e On trouve 1 E(exp{λ(Bt − Bs ) − λ2 (t − s)}) = 1 2 et 1 1 E(exp{λBt − λ2 t}|Fs ) = exp{λBs − λ2 s} 2 2 La r´ciproque.3. Comme 2 1 1 2 1 2 (B1 (t) + B2 (t))2 − t = (B1 (t) − t) + (B2 (t) − t) + B1 (t)B2 (t) . t ≥ 0) sont des e (Gt )-martingales.3. Le produit B1 B2 est une martingale. si X est un processus continu tel que (exp(λXt − 2 λ2 t).a. sont v´rifi´es. 2006 29 2.1. Alors E(XY |F∨G) = E(X|F)E(Y |G). e ´ Demonstration: Par ind´pendance e 1 1 E(exp{λ(Bt − Bs ) − λ2 (t − s)}|Fs ) = E(exp{λ(Bt − Bs ) − λ2 (t − s)}) 2 2 L’esp´rance du second membre se calcule comme une transform´e de Laplace d’une variable gaussienne. Les propri´t´s donn´es dans la d´finition 2.a.1.9 Pour tout λ r´el. t ≥ 0) est une martingale. ee e e e e c’est bien sˆr un MB pour sa propre filtration. t ≥ 0) est une martingale. e L’id´e est d’utiliser l’ind´pendance des accroissements pour calculer les esp´rances conditionnelles. utilise la caract´risation des v. gaussiennes au moyen de leur transform´e de e e e Laplace. 2 R´ciproquement. donc e 2 1 un mouvement Brownien et par suite (B1 (t) + B2 (t))2 − t est une martingale. t ≥ 0) 2 est une martingale. facile. t ≥ 0) sont des martingales. Cas du Brownien 2 Proposition 2.7 Propri´t´s de martingale e e a. le processus e (exp(λBt − 1 λ2 t). X est e un mouvement Brownien. . u Proposition 2.7 Le processus B est une martingale.1 On dit que B est un (Gt )-mouvement Brownien si B et (Bt − t. e 2 D´finition 2. X et Y deux v. Si B est un (Gt )-mouvement Brownien.3.3. e pour tout λ r´el. telles que X∨F et G sont ind´pendantes ainsi que Y ∨G et F. 1 R´ciproquement.3. La r´ciproque est plus difficile ` ´tablir e e ae (Voir Revuz-Yor) mais tr`s utile. e 1 Une autre m´thode est d’utiliser que √ (B1 + B2 ) est un processus gaussien de covariance t ∧ s.

Alors Ta est un temps d’arrˆt fini p. pour tout β r´el. Bt = a} . Si Xt = µt + σBt .s. il reste ` utiliser a 2 1 que Bt = (Xt − µt) et de poser λ = βσ. ´ Demonstration: Nous savons que (exp(λBt − 1 λ2 t).11 Soit (Bt .3. t ≥ 0) un mouvement Brownien et a un nombre r´el. on utilise que t ∧ Ta est un e temps d’arrˆt born´ (par t) et le th´or`me d’arrˆt de Doob: e e e e e ∀t . F.a. σ 2.30 b. Pour obtenir E(Ta ). tel que E(Ta ) = ∞ et pour λ ≥ 0 e √ E(exp −λTa ) = exp(−|a| 2λ) . par suite u exp λBt∧Ta − λ2 (t ∧ Ta ) 2 → 0. si X est un processus continu tel que (exp (βXt − (µβ + 1 σ 2 β 2 ) t). On obtient.3. pour a > 0. Ta est un temps d’arrˆt. en utilisant le th´or`me de Lebesgue domin´ e a e e e λ2 (on majore exp λBt∧Ta − (t ∧ Ta ) par eλa ). (exp(βXt − (µβ + 1 σ 2 β 2 ) t). 2 on en d´duit que Ta est fini (faire λ = 0) et la transform´e de Laplace de Ta . P ) et B un (Ft )-brownien sur cet espace. sur l’ensemble o` Ta est fini on a Bt∧Ta → BTa = a et u exp λBt∧Ta − λ2 (t ∧ Ta ) 2 → exp(λa − λ2 Ta ) 2 Sur l’ensemble o` Ta est infini. il existe un Ft -brownien B tel que Xt = µt + σBt . Q La pr´sence de Q est indispensable pour garder la d´nombrabilit´. E[exp(λBt∧Ta − λ2 (t ∧ Ta ))] = 1 2 Lorsque t → ∞. t ≥ 0) est une Ft e 2 -martingale. on a e Ta = inf{t ≥ 0. alors. Bt ≥ a} On en d´duit e {Ta ≤ t} = {sup Bs ≥ a} = {∀ ∃s ∈ Q : Bs > a − } I s≤t (2. t ≥ 0) est une (Ft )-martingale. a e e ee donc appartient ` cette tribu. L’´galit´ pr´c´dente montre que e I e e e e e e {Ta ≤ t} est obtenu ` partir d’op´rations d´nombrables d’union et d’intersection d’´l´ments de Ft . t ≥ 0) est une martingale. apr`s passage ` la limite. G´n´ralisation e e Le mouvement Brownien Proposition 2. a Pour calculer la transform´e de Laplace de la loi de Ta . 2 E(1 Ta <∞ exp(− 1 λ2 Ta )) = exp(−aλ) .6) = ∩ ∈I + Q ∪s≤t. Ft . En effet. e a . e 2 R´ciproquement. soit E(e−λTa ). s∈I {Bs > a − } . Bt∧Ta ≤ a et (t ∧ Ta ) = t → ∞. on e e d´rive par rapport ` λ et on fait λ = 0. Soit e Ta = inf{t ≥ 0. Cas du Brownien Proposition 2.8 Temps d’atteinte a.3. ´ Demonstration: La v.10 Soit (Ω.

Soit Ta = inf{t ≥ 0.3. Le processus n-dimensionnel B est un mouvement Brownien si et seulement si les processus B (i) et B (i) B (j) − δi. .3. t ≥ 0) que pour µ > 0. on a E(Bt Bs ) = n(s ∧ t).j t sont des martingales (avec δi. Si c et d sont des r´els positifs et T = Tc ∧ T−d on a e E[exp(− sinh (λd) λ2 T )1 T =Tc ] = 1 2 sinh (λ(c + d)) λ2 cosh (λ(c − d)/2) T )] = . e .9 Brownien multidimensionnel (1) (2) (n) Soit Bt = (Bt . G´n´ralisation e e µ Si Xt = µt + Bt et Ta = inf{t ≥ 0. le membre de gauche est plus petit que 1 et celui de droite serait plus grand que 1. Il convient donc d’ˆtre e vigilant en appliquant le th´or`me de Doob. a e ee D´finition 2.7) b Si a ≤ 0 ≤ b on a P (Ta < Tb ) = b−a . (2.i = 1. Bt . C’est un processus ` accroissements ind´pendants. on obtient la densit´ de Ta qui est. λ > 0 (on pose λ = (µβ + 1 σ 2 β 2 )) 2 µ E(exp −λTa ) = exp(µa − |a| µ2 + 2λ). .8) On obtient P (Ta < ∞) en faisant λ = 0. |Bt | = a} avec e e e a>0 −1 √ E(exp −λTa ) = cosh (a 2λ) . Cette quantit´ n’est ´gale ` 1 que si µ et a sont de mˆme e e a e signe.√ t = a} = inf{t ≥ 0. e e Avec des m´thodes analogues. . i ≤ n) sont des browniens ind´pendants. plus loin. On dit que B est un Brownien multidimensionnel si les processus (B (i) . e T Si B est un brownien n-dimensionnel. Pour chaque (a. . (2. 2006 On pourrait aussi dire que pour a > 0 et λ > 0. Wt = −a}. avec W = −B. pour a > 0 e e P (Ta ∈ dt) = √ a 2πt3 exp − a2 dt 2t On verra. 2. Pour a < 0. Bt )T un processus n-dimensionnel (l’exposant T note la transposition d’un vecteur). la martingale exp(λBt∧Ta − λ2 (t ∧ Ta )) 2 31 est born´e (par exp(λa)) donc est uniform´ment int´grable et on applique le th´or`me d’arrˆt avec e e e e e e t = ∞. en utilisant la martingale (exp(βXt − 1 (µβ + 2 σ 2 β 2 ) t). le processus e a e 1 def (1) (2) (1) (2) (aBt + bBt ) est aBt + bBt est un processus gaussien. b). une autre m´thode pour obtenir ce r´sultat. B Il serait faux de conclure que E(exp −λTa ) = exp(−a 2λ) pour tout a car. 2 cosh(λ(c + d)/2) E[exp(− b. pour a < 0 et λ > 0.2 Les mouvements Browniens ` valeurs r´elles B1 et B2 sont corr´l´s de coefficient de e corr´lation ρ si B1 (t)B2 (t) − ρt est une martingale. Xt = a} on peut montrer. Il est facile de v´rifier que Bt = √ e a2 + b2 un MB (C4est un processus Gaussien. on ´tablit les r´sultats suivants. e e Par inversion de la transform´e de Laplace.j = 0 pour i = j et δi. calculer son esp´rance et sa covariance). on peut remarquer que Ta = inf{t ≥ 0.July 8.

e e 0 De plus i=n i=n 2 fi−1 Var (B(ti ) − B(ti−1 )) = i=1 i=1 2 fi−1 (ti − ti−1 ) = 0 +∞ Var(I(f )) = f 2 (s)ds = f 2 . I(f ) est gaussienne car le processus B est gaussien. il existe une suite fn de fonctions en escalier qui converge R (dans L2 (I + )) vers f . On peut montrer que B3 est u ind´pendant de B1 .a. donc elle . En effet R+ Var (I(f + g)) = = Var[I(f ) + I(g)] = Var (I(f )) + Var (I(g)) + 2E(I(f )I(g)) ∞ ∞ 0 ∞ 0 ∞ = 0 (f + g)2 (s)ds = f 2 (s)ds + g 2 (s)ds + 2 0 f (s)g(s)ds b. nous donnerons une d´monstration plus tard. centr´e car B est centr´. c’est-`-dire qui v´rifie R a e ∞ 0 |fn − f |2 (x) dx →n→∞ 0.v] . b) le processus Bt = (aB (1) + bB (2) ) est un 2 + b2 + 2ρab a mouvement Brownien.32 On “ d´correle” les MB en introduisant le processus B3 d´fini par B3 (t) = e e Ce processus est une martingale. Si f et g sont des fonctions en escalier E(I(f ) I(g)) = e e f (s) g(s) ds.4 2. 1 Soit f une fonction en escalier. Dans ce cas. c’est-`-dire telles que 0 |f (s)| ds < ∞. e e a ∞ 1/2 C’est un espace de Hilbert pour la norme ||f ||2 = 0 f 2 (s) ds . Fonctions en escalier Pour f = 1 ]u. Fn = 0 fn (s) dBs est une suite R de Cauchy dans l’espace de Hilbert L2 (Ω) (en effet ||Fn − Fm ||2 = ||fn − fm ||2 →n. on pose 0 f (s)dBs = B(v) − B(u). de la forme f (x) = i=n i=1 fi−1 (B(ti ) − B(ti−1 )) . La suite de v. la suite fn est de Cauchy dans L2 (I + ). ∞ Dans ce cas. def +∞ +∞ i=n i=1 fi−1 1 ]ti−1 .4. Il est facile de v´rifier que le produit e e e B1 B3 est une martingale. En effet. en ´crivant e (B3 (t))2 − t = = Le mouvement Brownien 1 1 − ρ2 (B2 (t) − ρB1 (t)).1 Int´grale de Wiener e D´finition e On note L2 (I + ) l’ensemble des (classes d’´quivalence des) fonctions bor´liennes f de I + dans I de R e e R R +∞ 2 carr´ int´grable. d’o` B3 est un MB. Cas g´n´ral e e On montre en analyse que. ind´pendant de B (2) tel que B (1) = e 1 def ρB (2) + 1 − ρ2 B (3) et. 2. il existe un Brownien B (3) .m→∞ 0). 1 [(B2 (t))2 + ρ2 (B1 (t))2 − 2ρB2 (t)B1 (t) − t(1 − ρ2 )] 1 − ρ2 1 [(B2 (t))2 − t + ρ2 [(B1 (t))2 − t] − 2ρ[B2 (t)B1 (t) − ρt] 1 − ρ2 on montre que (B3 (t))2 − t est une martingale. si f ∈ L2 (I + ).ti ] on pose 1 +∞ 0 f (s)dBs = La variable al´atoire I(f ) = 0 f (s)dBs est une variable gaussienne d’esp´rance nulle et de variance e e +∞ 2 f (s)ds. pour tout (a. L’int´grale est lin´aire : I(f + g) = I(f ) + I(g). a.

pour f = i=1 fi−1 1 ]ti−1 .2 Propri´t´s e e L’application f → I(f ) est lin´aire et isom´trique de L2 (I + ) dans L2 (Ω): la lin´arit´ signifie que e e R e e I(f + g) = I(f ) + I(g) et l’isom´trie que la norme de I(f ) est ´gale ` la norme de f . E(ZBt ) = f (s)ds. e R e 1 t T On peut de la mˆme fa¸on d´finir 0 f (s)dBs pour f telle que 0 |f (s)|2 ds < ∞. Dans ce cas E( s f (u)dBu |Fs ) = fi E((Bt − Bs )|Fs ) et (2. La variable I(f ) est une v.4. gaussienne centr´e de variance R e a ` l’espace gaussien engendr´ par (Bt .9) ´ Demonstration: Il suffit de remarquer que E B(t) t 0 ∞ I + R f (s)dBs = E 0 dBs La propri´t´ (2. soit e R ∞ ||f ||2 = 0 f 2 (s)ds .ti ] . 2006 33 est convergente. e t c) Le processus (Mt2 − 0 f 2 (s) ds . t (2.t] (s)f (s)dBs . t ≥ 0) et elle v´rifie pour tout t e e t I + R E Bt I + R f (s)dBs = 0 f (s)ds . Th´or`me 2.a. ´ Demonstration: On commence par le cas o` la fonction f est ´tag´e et on passe ` la limite. alors Z = 0 I + R f (s)dBs . ee e R Soit f ∈ L2 (I + ). 0 f (s)dBs co¨ e mouvement Brownien.1 Soit f ∈ L2 et Mt = 0 f (s)dBs . e e a ∞ ıncide avec l’espace gaussien engendr´ par le e Le sous-espace de L2 (Ω) form´ par les v. ce qui permet de e c e d´finir l’int´grale stochastique pour une classe plus grande de fonctions. La norme de e e a I(f ) est la norme L2 (Ω) d´finie par ||I(f )||2 = E( (I(f ))2 ). 2. On pose e I(f ) = def 0 ∞ ∞ f (s) dBs = lim n→∞ fn (s) dBs 0 la limite ´tant prise dans L2 (Ω). 2. la norme de f est la norme L2 (I + ). f 2 (s)ds appartenant La propri´t´ d’isom´trie implique E (I(f ) I(g)) = I + f (s)g(s) ds.3 Processus li´ ` l’int´grale stochastique ea e t +∞ On d´finit pour f ∈ L2 (I + ) la variable al´atoire 0 f (s)dBs = 0 1 [0.a.July 8.4. d) Si f et g sont dans L2 . On notera L2 cette classe de e e loc fonctions. e t∧s 2 b) Le processus M est un processus gaussien centr´ de covariance 0 f (u) du ` accroissements e a ind´pendants. on montre que e 1 t 0 = E(Mt − Ms |Fs ) = E( s t f (u)dBu |Fs ) (2. e On dit que I(f ) est l’int´grale stochastique (ou int´grale de Wiener) de f par rapport ` B. Pour u e e a i=n v´rifier que M est une martingale. e e loc t a) Le processus M est une martingale continue. la v.a. on a E( loc t 0 t f (u)dBu s 0 t∧s g(u)dBu ) = 0 f (u)g(u)du . Il reste ` v´rifier que la limite ne d´pend que de f et non de la suite fn choisie (Voir a e e les d´tails dans Revuz-Yor).10) est . f (s)dBs .9) est en fait une caract´risation de l’int´grale stochastique au sens o` si pour tout ee e e u t.10) Supposons que ti < s < t ≤ ti+1 . t ≥ 0) est une martingale. ∀T .4. Mt est d’esp´rance 0 et de variance 0 f 2 (s) ds.

E[Bu e e t 0 t∧u f (s)Bs ds]). Dans ce cas t j−1 Le mouvement Brownien E( s f (u)dBu |Fs ) = E(fj (Bt − Btj ) + k=i+1 fk (Btk+1 − Btk ) + fi (Bti+1 − Bs )|Fs ) j−1 = fj E(Bt − Btj |Fs ) + k=i+1 fk E(Btk+1 − Btk |Fs ) + fi E(Bti+1 − Bs |Fs ) = 0 Les autres cas sont analogues. f (s) dBs ] = E(Bu [f (t)Bt − ´ Demonstration: Il suffit. En particulier E(Mt2 − 2 Ms |Fs ) = = E((Mt − Ms ) |Fs ) = E s 2 t 2 f (u)dBu |Fs f 2 (tk )((tk+1 ∧ t) − (tk ∧ t)) E( f (tk )(Btk+1 ∧t − Btk ∧t )2 |Fs ) = 2. dans ce cas e lnXt = 1 b − σ 2 t + σBt + ln x 2 et la variable qui est ` droite suit une loi normale.5.1 Le processus Xt e−bt est une martingale. 2. de v´rifier que pour tout u. On a imm´diatement a e Proposition 2.1 Soit B un mouvement Bownien.4.4. E(Bu f (s)Bs ds) = 0 f (s)(s∧u)ds. En ´crivant e 1 Xt = Xs exp{(b − σ 2 )(t − s) + σ(Bt − Bs )} 2 .5 2. e e f (s) dBs = f (t)B(t) − 0 0 t 0 f (s)Bs ds.2 Si f est une fonction de classe C 1 . Le premier membre vaut 0 t 0 f (s)ds. En effet. sf (s)ds.5. e e Supposons que ti < s ≤ ti+1 ≤ tj < t ≤ tj+1 . Le processus e Xt = X0 exp{(b − 1 σ 2 )t + σBt } 2 est appell´ Brownien g´om´trique.9). on calcule le second au moyen des deux ´galit´s e e t E(Bu f (t)Bt ) = f (t)(t∧u). b et σ deux constantes. L’´galit´ r´sulte alors de l’application e e e b 0 de la formule d’int´gration par parties classique pour calculer des expressions du type e On peut aussi ´crire cette formule e d(Bt f (t)) = f (t)dBt + Bt f (t)dt .34 v´rifi´e.1 Exemples Le brownien g´om´trique e e D´finition 2.5.4 Int´gration par parties e t t Th´or`me 2. d’apr`s (2. e e e Ce processus est aussi appell´ processus“log-normal”.

Pour calculer le moment d’ordre 2. de loi N (0.5.a.5. Le caract`re Markovien de X et les propri´t´s du MB permettent de e e ee calculer les esp´rances conditionnelles: e E(Xt |Fs ) = = = = 1 Xs E(exp{(b − σ 2 )(t − s) + σ(Bt − Bs )}|Fs ) 2 1 Xs exp(b(t − s))E(exp{(− σ 2 )(t − s) + σ(Bt − Bs )}|Fs ) 2 1 Xs exp(b(t − s))E(exp{(− σ 2 )(t − s) + σBt−s }) 2 Xs eb(t−s) = E(Xt |Xs ) o` nous avons utilis´ la propri´t´ de martingale de l’exponentielle du MB. Remarquons que nous avons u e ee loi ˜ t−s avec Xt−s ind´pendant de Xt et de mˆme loi que Xt−s . en notant G une v. le Brownien B et les constantes a et σ.11) a pour unique solution Vt = e−ta V0 + 0 t e−(t−s)a σdBs . il suffit de faire les ee transformations ´videntes suivantes e 1 2 2 2 E(Xt ) = X0 E(exp{(2b − σ 2 )t + 2σBt }) = X0 E(exp{(2b + σ 2 )t − (2σ)2 t + (2σ)Bt }) 2 2 = X0 exp[(2b + σ 2 )t] On en d´duit VarXt = x2 e2bt (eσ t − 1). 2 Il est facile de calculer les moments d’un Brownien g´om´trique. y)dy . e Le ratio de Sharpe est E(Xt ) − x √ VarXt 2 2. ˜ utilis´ que Xt = Xs X e e e De la mˆme fa¸on.11) sous forme condens´e e e e dVt + aVt dt = σdBt . (2. e e e . (2. 2006 35 on ´tablit que X est Markovien. 0. 1) e c E(f (Xt )|Fs ) = = = 1 E(f (Xt )|Xs ) = E(f (x exp{(b − σ 2 )(t − s) + σ(Bt − Bs )})x=Xs 2 √ 1 2 E(f (x exp{(b − σ )(t − s) + σG t − s})x=Xs 2 ∞ √ 1 f (Xs exp{(b − σ 2 )(t − s) + σy t − s})q(1. e e par exemple. V0 donn´ e les donn´es du probl`me sont la variable al´atoire V0 . par exemple E(Xt ) = X0 ebt (Utiliser.July 8. Le rendement de e e e l’actif entre deux dates est mesur´ par la diff´rence des logarithmes des cours et est donn´ par la variable e e e gaussienne 1 b − σ 2 (t − s) + σ(Bt − Bs ) . 2 −∞ Ce processus est tr`s souvent utilis´ pour mod´liser le prix d’un actif financier. la propri´t´ de martingale) .2 Processus d’Ornstein-Uhlenbeck t Th´or`me 2.1 L’´quation de Langevin e e e Vt = − 0 aVs ds + σBt + V0 .12) On ´crit l’´quation (2.

0 t t esa Bs ds) On en d´duit que Xt = e−ta V0 + σBt − σe−at a e t t On s’attache ensuite au calcul de t Xs ds = 0 0 e−sa V0 ds + σ 0 Bs ds − aσ 0 e−as 0 s eua Bu du ds L’int´grale double qui apparait au second membre est e t 0 dueua Bu t u dse−as = 1 a t 0 Bs ds − e−at 0 t e−as ds ce qui conduit ` a t a 0 Xs ds = V0 (1 − e−at ) + σa 0 t ea(s−t) Bs ds = −Xt + σBt + V0 d’o` X v´rifie (2. Vt ] = e−sa ve−ta + 0 s e−(s−u)a σ 2 e−(t−u)a du . e e e cov[Vs . Le caract`re gaussien2 est facile ` ´tablir. .11).r. le processus V . 0 Proposition 2.12).” H. V0 e−at ) + σ 2 e−as e−at cov( = ve−as e−at + σ 2 e−as e−at 0 s∧t eau dBu .5. d’apr´s (2. Poirot.11). e ae L’unicit´ se montre en v´rifiant que si V1 et V2 sont solutions. Vt ] = et Var(Vt ) = 2 “An σ 2 −a(s+t) 2as e (e − 1) 2a σ2 (1 − exp −2at). u e On peut ´galement poser Yt = e−at Vt et appliquer la formule d’int´gration par parties (sous r´srve e e e qu’elle s’applique ` Vt ) a dYt = e−at dVt − ae−at Vt dt = e−at σdBt dont la solution est Yt = Y0 + t −as e σdBs . 2a interesting study in the laws of probability. Toujours d’apr`s (2. Sad Cypress. gaussienne ind´pendante du brownien (en particulier si V0 est e une constante). e Le processus V est un processus de Markov. En utilisant la formule d’int´gration par parties. si V0 est une constante (v = 0) cov[Vs .12). e e e on transforme l’int´grale e t 0 e−(t−s)a σdBs = σe−at 0 t esa dBs = σe−at [eat Bt − a 0 t sa e Bs ds. V0 e−at + σe−at 0 s 0 t eau dBu ) t 0 = cov(V0 e−as . ´ Demonstration: En effet. Vt ] = cov(V0 e−as + σe−as 0 s eau dBu . s ≤ t si v d´signe la variance de V0 .2 Si V0 est une v. e e En particulier.a. Nous e allons v´rifier que X est solution de l’´quation (2. t ≥ 0) le processus d´fini par le second membre de (2. eau dBu ) e2au du . appell´ processus d’Ornstein-Uhlenbeck est gaussien d’esp´rance et de e e covariance E(Vt ) = e−ta E(V0 ). cov[Vs .12). V1 − V2 est solution d’une ´quation e e e diff´rentielle d´terministe.36 Le mouvement Brownien ´ Demonstration: Soit X = (Xt . A. Christie. E(Vt ) = e−ta E(V0 ) car l’esp´rance de l’int´grale stochastique e e e est nulle (la fonction esa est de carr´ int´grable sur tout intervalle fini).

a. Si r0 est une constante. a σ2 −at e rt+s est variable gaussienne de moyenne (rs − b)e + b. L’´galit´ e e e rt = (rs − b)e−a(t−s) + b + σ s t e−a(t−u) dBu . La e e e ee e forme explicite de la solution est rt = (r0 − b)e−at + b + σ 0 t e−a(t−u) dBu . l’esp´rance et le variance conditionnelle de r sont e E(rt |rs ) = (rs − b)e−a(t−s) + b σ2 vars (rt ) = (1 − e−2a(t−s) ) 2a .3 La variable al´atoire e variance − σ2 1−e σ2 (1 − e−at )2 + 2 (t − 3 2a a a 0 −at Vs ds est une v. gaussienne.a. ind´pendante de Fs ) ce qui ´tablit le caract`re markovien de V . b.5. le processus V est alors solution de l‘´quation de Langevin. (Il suffit de poser rt − b = Vt .July 8. σ) a e et de condition initiale rs . 2006 En ´crivant Vs = e−sa V0 + e pour s ≤ t s −(s−u)a e σdBu 0 37 et Vs e(s−t)a = e−ta V0 + t s s −(t−u)a e σdBu 0 on en d´duit. −at et de ´ Demonstration: Voir le paragraphe suivant. et de variance 2a (1 − exp −2at). elle est utilis´e pour ´tudier l’´volution des taux d’int´rˆt (mod`le de Vasicek). En particulier. t ≥ s) en fonction de rs montre que. (2. Le 2a 2 processus r est gaussien de covariance Cov(rs . conditionnellement ` Fs . 2a L’expression explicite de (rt .5. s ≤ t ´tablit le caract`re Markovien de r. On en d´duit e Proposition 2. conditionnellement ` Fs . e Vt = Vs e−(t−s)a + ou encore Vt+s = Vs e−ta + 0 t e−(t−u)a σdBu e−(t−u)a σdBu o` le processus B d´fini par Bu = Bs+u − Bs est un MB ind´pendant de Fs (donc de Vs ). (y) )) o` V (x) est la solution de l’´quation de valeur initiale x.5. rt est une variable gaussienne de moyenne e e 2 −at (r0 − b)e + b. u e t Proposition 2. de moyenne V0 1−e a ). la v.a. t ≥ 0) est un processus de Vasicek de param`tres (a. 2. et de variance σ (1 − exp −2at). ce n’est pas une variable positive.13) Sous cette forme.4 Pout s < t. le processus (rt+s . De mˆme. u e e En particulier E(f (Vt+s )|Fs ) = E(f (Vs e−ta + Y )|Fs ) = E(f (Vt+s )|Vs ) (dans cette ´galit´ Y est une e e v. Le calcul explicite peut se faire e e e en utilisant que E(f (Vs(x) e−ta + Y )|Fs ) = Ψ(Vs(x) ) avec Ψ(y) = E(f (ye−ta + Y )) = E(f (Vt t (x) soit Vt = e−ta x + 0 e−(t−s)a σdBs .3 Mod`le de Vasicek e Une g´n´ralisation du mod`le pr´c´dent est l’´quation e e e e e e drt = a(b − rt )dt + σdBt . rt ) = σ e−a(s+t) (e2as − 1) pour s ≤ t.

s) + V (t. on a. pour t ≥ s e e t E( s t ru du|Fs ) = b(t − s) + (rs − b) 1 − e−a(t−s) = M (t. 2a3 a a t ´ Demonstration: Par d´finition rt = r0 + abt − a e 0 t rs ds + σBt . conditionnellement ` Fs l’esp´rance a e et la variance.38 Proposition 2. s)) . s) 2a3 a a o` Vars d´signe la variance conditionnelle par rapport ` Fs . 2 Ces calculs sont utiles pour valoriser des z´ro-coupons en finance : si B(t. s) a Var s ( s ru du) = − σ2 σ2 1 − e−a(t−s) (1 − e−a(t−s) )2 + 2 (t − s − ) = V (t. On en d´duit e t E(exp − s 1 ru du |Fs ) = exp(−M (t. Plus g´n´ralement.5 La variable t r ds 0 s t Le mouvement Brownien est une variable gaussienne de moyenne rs ds) = bt + (r0 − b) 0 E( 2 2 1 − e−at a et de variance − σ σ 1 − e−at (1 − e−at )2 + 2 (t − ). T ) = exp b(T − t) + (rt − b) 1 − e−a(T −t) σ2 σ2 1 − e−a(T −t) − 3 (1 − e−a(T −t) )2 + (T − t − ) . on a B(t. T ) = E(exp − t ru du |Ft ) et e B(t.5. T ) est la valeur d’un ZC e T de maturit´ T . 2 a 4a 2ta a . D’o` u t 0 rs ds = 0 1 1 [−rt + r0 + abt + σBt ] = [−(r0 − b)e−at − b − σ a a e−a(t−u) dBu + r0 + abt + σBt ]. u e a t La variable s ru du est une variable gaussienne dont on connait.

0 ≤ t0 ≤ t1 . P ) et un mouvement Brownien B sur cet espace. 1 On d´finit alors e ∞ n−1 θs dBs = 0 j=0 θj (B(tj+1 ) − B(tj )).1 D´finition e t θ dBs 0 s On veut g´n´raliser1 l’int´grale de Wiener et d´finir e e e e pour des processus stochastiques θ. e Nietzsche.” Ainsi parlait Zarathoustra. on d´finit alors a e t n−1 θs dBs = 0 j=0 θj (B(Tj+1 ∧ t) − B(Tj ∧ t)). 0 ≤ T0 ≤ T1 . (Ft )-adapt´s tels que e a e a e θ 2 def ∞ 0 = E[ 2 θt dt] < ∞.1 Cas de processus ´tag´s e e On dit qu’un processus θ est ´tag´ (ou ´l´mentaire) s’il existe une suite de r´els tj . 1 “Je marche vers mon but. e e e e e On d´finit les processus c`gl`d de carr´ int´grable (appartenant ` L2 (Ω × I + ) ) comme l’ensemble Γ e a a e e a R des processus θ adapt´s continus ` gauche limit´s ` droite. Si Tj . .1. . ∞ 2 θs 0 On a E( 0 θs dBs ) = 0 et Var ( On obtient t 0 ∞ ∞ θs dBs ) 0 = E[ ds]. 39 . soit θs (ω) = j=0 θj (ω)1 ]tj . 3. appartienne ` L2 (Ω) et que θt = θj e a n−1 pour tout t ∈]tj . t ce qui ´tablit la continuit´ de l’application t → 0 θs dBs . ≤ Tn est une suite e e n−1 croissante de temps d’arrˆt. .Chapter 3 ´ INTEGRALE STOCHASTIQUE On se donne un espace (Ω. ce qui est d´ja le cas pour le cas de processus ´tag´. .2 Cas g´n´ral e e On peut prolonger la d´finition de l’int´grale de Wiener ` une classe plus grande de processus. F. s ≤ t) la filtration naturelle du mouvement Brownien. n−1 θs dBs = j=0 θj (B(tj+1 ∧ t) − B(tj ∧ t)). On d´signe par Ft = e σ(Bs .1. tj+1 ].tj+1 ] (s) . On perd e e a le caract`re gaussien de l’int´grale. je vais mon chemin. 3. je sauterai par dessus les h´sitants. appartienne ` L2 (Ω).Tj+1 ] (s) o` θj est une suite de variables al´atoires e 1 u e telles que θj soit FTj -mesurable. 3. ≤ tn et e e ee e une suite de variables al´atoires θj telles que θj soit Ftj -mesurable. et si θs = j=0 θj 1 ]Tj .

2 Propri´t´s e e t 2 θ (ω)ds) 0 s On note Λ l’ensemble L2 (Ω × I + ) des processus θ adapt´s c`gl`d v´rifiant E( R e a a e loc < ∞ . ou E s θu dBu |Fs 0.1 Lin´arit´. Si θ est ´tag´ 0 θs dBs = i θi (Bti+1 ∧t − Bti ∧t ). 2) deux processus de Λ. a t 2 t b) Soit Nt = 0 θs dBs − 0 2 θs ds. Le processus (Nt .τ ] (s)dBs 1 3. avec θj u e R). i = 1. est 0 et la variance E[ θ j j On a alors E( t ∞ θs dBs ) 0 def ∞ = 0 et E 2 ∞ θs dBs 0 = E( ∞ 2 θs 0 t ds). e e t 0 t 0 t 0 Soit a et b des constantes et (θi .2.2 Propri´t´s de martingale e e t θ dBs 0 s Proposition 3.40 Int´grale stochastique e 2 Les processus ´tag´s appartiennent ` Γ.τ ] (t) est adapt´ et on d´finit e e e 1 e e τ ∧t t θs dBs = 0 0 θs 1 ]0. e ∞ On peut d´finir 0 θs dBs pour tous les processus θ de Γ: on approche θ par des processus ´tag´s. L’application θ → ||θ|| d´finit une norme qui fait de Γ un espace complet. e e e k(n) ˜n ˜n ∈ Ft la limite ´tant au sens de L2 (Ω × I soit θ = limn→∞ θn o` θn = j=1 θj 1]tj . 1 e e Plus g´n´ralement. ∀t. On dit que θn converge vers θ dans L2 (Ω×I + ) si θ − θn → 0 e e a R quand n → ∞.1 Soit Mt = o` θ ∈ Λ. si τ est un temps d’arrˆt.2. t s =0 et implique en particulier que E( La propri´t´ b) ´quivaut ` E ee e a t θ dBu ) = s u 2 t θu dBu s |Fs = E 2 θu du|Fs .tj+1 ] . On note 0 θs dBs = 0 θs 1 [0.2. ´ Demonstration: Toutes ces propri´t´s se d´montrent pour des processus ´tag´s. t ≥ 0) est une martingale. On a 1 2 aθs + bθs dBs = a 1 θs dBs + b 2 θs dBs 3.t] (s) dBs . a La propri´t´ de martingale s’´crit ee e t s E 0 θu dBu |Fs t = 0 θu dBu . puis pour les ee e e e processus de Λ par passage ` la limite. u a) Le processus M est une martingale ` trajectoires continues. . ∀t ≥ s. j ∞ k(n) ˜n L’int´grale 0 θs dBs est alors la limite dans L2 (Ω) des sommes j=1 θj (B(tj+1 )−B(tj )) dont l’esp´rance e e ˜2 (tj+1 − tj )]. le processus 1 ]0. 3.

2.2. e Corollaire 3. le processus t Mt (θ)Mt (ϕ) − 0 θs ϕs ds est une martingale.s.2. on a E(τ ) < ∞ et par suite E(Bτ ) = 0 = a − νE(τ ). On utilise souvent qu’une martingale locale e positive est une surmartingale (appliquer le lemme de Fatou). ω) ds < ∞ p. 3.July 8.2. L’in´galit´ de Doob conduit ` e e e a Proposition 3. Dans ce cas M n’est pas une martingale R). e mais une martingale locale et E(Mt ) peut ˆtre non nul. T ]). t ≤ T ) est encore une martingale. E Si Mt (θ) = t t θ dBs 0 0 s t 0 T 0 41 2 θt dt) < E {θs } ds. 2 θs ds .5 In´galit´ maximale e e On a souvent besoin de majorations d’int´grales stochastiques.2 Soit τ un temps d’arrˆt et θ un processus FB -adapt´ tel que E e e Alors E τ 0 τ 0 2 τ 0 τ 0 2 θs ds < ∞. c’est ` dire E( e a ∞ et que θ soit adapt´. il suffit de demander que θ ∈ L2 (Ω×[0.3 Un exemple t Proposition 3. 2006 Si l’on veut d´finir Mt pour t ≤ T .4 Martingale locale t On peut d´finir 0 θs dBs pour des processus adapt´s c`gl`d qui n’appartiennent pas n´cessairement ` e e a a e a t 2 2 L (Ω×I mais qui v´rifient pour tout t. ´ Demonstration: Il suffit de remarquer que t t (θ 0 s 2 + φs )dBs et t (θs + φs )dBs 0 − 0 (θs + φs )2 ds sont des martingales. n 2 t 2 i=0 3.1 L’esp´rance de Mt est nulle et sa variance est ´gale ` e e a Soit φ ∈ Λ. t θ dBs 0 s et Mt (ϕ) = ϕs dBs . Proposition 3. (Mt .3 Pour tout t on a 0 Bs dBs = 1 2 (B − t) 2 t ´ Demonstration: Par d´finition e t Bs dBs = lim 0 Bti (Bti+1 − Bti ) n L’´galit´ e e 2 n n Bti (Bti+1 − Bti ) = i=0 i=0 n 2 2 (Bti+1 − Bti ) − i=0 (Bti+1 − Bti )2 t montre que 0 Bs dBs = 1 2 1 2 [B − lim (Bti+1 − Bti )2 ] = [Bt − t].4 Soit θ ∈ Λ s E([sup s≤T 0 θu dBu ]2 ) ≤ 4E([ 0 T θu dBu ]2 ) = 4 0 T 2 E[θu ]du . 2 φs dBs = E t 0 t θ 0 s φs ds .2. 3.2. 0 θ (s. Pour aν > 0. Sous cette condition.2. θs dBs = 0 et E θs dBs =E Application: si θ = 1 et τ = inf{t : Bt + νt = a}.

E(Xt |Fs ) = X0 + 0 bu du + E( s bu du |Fs ) + 0 σu dBu = Xs + E( s bu du |Fs ). t ≥ 0) est une martingale.s. toute e e e e t martingale continue s’´crit x + 0 φs dBs .4 Crochet d’un processus d’Itˆ o 2 Soit Z une martingale continue de carr´ int´grable (telle que E(supt Zt ) < ∞). Ceci signifie que si e e dXt = bt dt + σt dBt = ˜t dt + σt dBt b ˜ alors b = ˜ σ = σ . t t 3.3 Int´grale par rapport ` un processus d’Itˆ. et σ un u e processus appartenant ` Λ. Si b ≡ 0 et σ ∈ Λ. pour tout t. 3. si a t A0 = 0 = 0.3. si X est une martingale locale alors b = 0 et r´ciproquement.3. ´ Idee de la preuve 2 Zt = = 2 Z0 + 2 Z0 + 2 2 2 (Zt∧tk+1 − Zt∧tk ) Zt∧tk (Zt∧tk+1 − Zt∧tk ) + t (Zt∧tk+1 − Zt∧tk )2 2 → Z0 + 2 Zs dZs + At .42 Int´grale stochastique e 3. En effet. 0 . On verra que la r´ciproque est vraie: sous certaines conditions d’int´grabilit´ et de mesurabilit´. il est constant.3. ou le crochet de Z. ˜ e t 2 On peut d´finir un processus d’Itˆ pour des coefficients de diffusion tels que 0 σs ds < ∞ P. Z t e e ou encore Z t . A2 = 2 0 As dAs et par suite E(A2 ) = 0. le processus X est une martingale continue. b. Si un processus A ` variation finie ets une martingale. x Le coefficient b est le drift ou la d´rive. La partie x + 0 bs ds est la partie ee e a ` variation finie. On peut montrer (Voir e e 2 Revuz-Yor) qu’il existe un processus croissant continu A tel que (Zt − At .3 3.1 Processus d’Itˆ o D´finition e t t Un processus X est un processus d’Itˆ si o Xt = x + 0 t bs ds + 0 σs dBs o` b est un processus adapt´ tel que 0 |bs | ds existe (au sens Lebesgue) p. On le note tr`s souvent At = Z. En particulier. e o t mais on perd la propri´t´ de martingale de l’int´grale stochastique. σ est le coefficient de diffusion. et t s t ∀t ≥ s. e 3.s. Le processus A est appell´ le “crochet oblique”.2 Propri´t´s e e t 0 Si σ appartient ` Λ.3. e L’´criture dXt = bt dt + σt dBt est unique (sous r´serve que les processus b et σ v´rifient les conditions e e e d’int´grabilit´). e a o t t t Soit X un processus d’Itˆ de d´composition dXt = bt dt + σt dBt . on a E(Xt ) = E(X0 ) + a s E(bs )ds. a On utilise la notation plus concise suivante dXt X0 = = bt dt + σt dBt . On note (sous r´serve de conditions o e e d’int´grabilit´) e e θs dXs = 0 def 0 θs bs ds + 0 θs σs dBs .p.

s ≤ t) est une e martingale L2 born´e. On caract´rise le mouvement Brownien en disant que c’est une martingale continue d’esp´rance nulle et de crochet t. Si M et N sont deux martingales locales continues. 2 t t C’est l’unique processus ` variation finie tel que le processus M N − < M. Alors e e R R. le crochet de M sous P et sous Q sont ´gaux. i = 1. a Sous forme condens´e e = f (X0 ) + f (Xtk+1 ) − f (Xtk ) 1 = f (Xtk )(Xtk+1 − Xtk ) + f (Xtk (Xtk+1 − Xtk )2 + o((Xtk+1 − Xtk )) 2 1 2 df (Xt ) = f (Xt )dXt + f (Xt )σt dt.1 Premi`re forme e t Th´or`me 3. N > est une martingale a locale.4 Lemme d’Itˆ o Dans ce qui suit. ´ Idee de la preuve f (Xt ) f (Xtk+1 ) − f (Xtk ) et on passe ` la limite.4. 2006 43 En utilisant ce vocabulaire cher aux probabilistes. e e ee 3. M + N >t − < M. Si M est une martingale locale continue.1 Soit f une fonction de I dans I de classe C 2 ` d´riv´es born´es. Le crochet de deux int´grales stochastiques Xt = x + e t 0 Hs dBs . on d´finit leur crochet par e < M. Y >t = 0 Hs Ks ds. M >t − < N.1. N >t ) . 2 .3. ee Nous en d´duisons une nouvelle forme de la d´finition de Browniens corr´l´s: deux Browniens sont e e ee corr´l´s si leur crochet est ρt. N >t = lim i=1 (Mti+1 − Mti ) (Nti+1 − Nti ) Il en r´sulte que si P et Q sont ´quivalentes.4.1 du crochet.3. e 3. ou si leur produit est une martingale. on a ´quivalence entre E M t < ∞ et (Ms .1 Le crochet de deux martingales continues M et N est ´gal ` la variation quadratique de ces processus n < M. e a Proposition 3. Yt = y + 0 Ks dBs est < X. X est un processus d’Itˆ de d´composition dXt = bt dt + σt dBt . Le crochet de X est At = X t = 0 2 e σs ds. Cela tient o e a ` la propri´t´ 3. a e e e f (Xt ) = f (X0 ) + 0 f (Xs )dXs + 1 2 t 0 2 f (Xs )σs ds. On d´finit le crochet du processus d’Itˆ X comme ´tant le crochet de sa ee e o e t partie martingale. nous avons ´tabli que le crochet du Brownien est e t t t et que le crochet de l’int´grale stochastique (Mt = e 0 θs dBs ) est 0 2 θs ds. e On ´tend la d´finition du crochet aux processus d’Itˆ: si e e o dXi (t) = bi (t)dt + σi (t)dBt . 2 sont deux processus d’Itˆ. leur crochet est par d´finition le crochet de leur partie martingale.July 8. On dit e e e que deux martingales continues sont orthogonales si leur crochet est nul. N >t = 1 (< M + N.3. Nous renvoyons ` o e a Revuz-Yor pour la d´monstration bas´e sur la formule de Taylor et la propri´t´ 3.

2 le processus f (X) est une martingale. t . e On obtient ´galement e E(f (Xt ) |Fs ) = f (Xs ) + E = f (Xs ) + t s t [f s 2 (Xu )b(u) + 1 f (Xu )σu ]du |Fs 2 2 E[f (Xu )b(u) + 1 f (Xu )σu |Fs ]du. On peut montrer 2 que c’est la seule solution.1 Supposons que t t Xt = X0 + 0 b(Xs ) ds + 0 σ(Xs ) dBs o` b et σ sont des fonctions de I dans I born´es. dt · dBt = 0.) Calcul de E(f (Xt )) et de E(f (Xt ) |Fs ) (si f et σ sont born´s) e E(f (Xt )) = = E(f (X0 )) + E E(f (X0 )) + t 0 t [f 0 2 (Xs )bs + 1 f (Xs )σs ]ds 2 2 E[f (Xs )bs + 1 f (Xs )σs ]ds .(Voir Sect. 2 On prendra garde ` ne pas intervertir int´grale et conditionnement pour des int´grales stochastiques. On peut affaiblir la condition sur la bornitude des d´riv´es qui n’est utilis´e que pour assurer e e e l’existence des int´grales et la propri´t´ de martingale. pour Xt = Bt . Elles sont d´termin´es ` deux e e e e e a constantes pr`s par les fonctions b et σ par e x u f (x) = c exp −2 c b(v)/σ 2 (v) dv du . ´ Demonstration: Cela r´sulte directement de la formule d’Itˆ. 2 4. les r´sultats de la proposition 4. 2 2 3. e ee e e L’op´rateur L qui ` f ∈ C 2 fait correspondre Lf (x) = b(x)f (x) + 1 σ 2 (x)f (x) est le g´n´rateur e a 2 infinit´simal de la diffusion X ou aussi le Dynkin. dBt · dBt = dt Applications: 1. La condition de bornitude des d´riv´es n’est exig´e que pour l’existence des int´grales et pour la e e e e propri´t´ de martingale de l’int´grale stochastique. Il v´rifie e e Lf (x) = lim t→0 Ex (f (Xt )) − f (x) .44 ou encore et en utilisant le crochet 1 df (Xt ) = f (Xt )bt dt + f (Xt ) d X 2 t Int´grale stochastique e 1 2 df (Xt ) = f (Xt )bt dt + f (Xt ) σt dt + f (Xt )σt dBt . a e e t 2 2. Si f est une fonction de I dans I de classe C 2 ` u R R e R R a d´riv´es born´es et v´rifiant e e e e ∀x.) Calcul de d(exp Xt ) = (expXt )(dXt + 1 σt dt).) Une solution de dSt = St (µdt + σdWt ) est St = xeXt avec Xt = (µ − 1 σ 2 )t + σWt . 2 On retrouve. 2 et la r`gle de multiplication e dt · dt = 0. Proposition 3.4. 2 + f (Xt )σt dBt . ??)). chapitre 2. ee e La formule est facile ` m´moriser en notant sa ressemblance avec la formule de Taylor.) Calcul de 0 Bs dBs = 1 (Bt − t). e o Les fonctions f telles que 3. sous la forme a e 1 df (Xt ) = f (Xt )dXt + f (Xt )dXt · dXt . 1 b(x)f (x) + σ 2 (x)f (x) = 0.1 est v´rifi´e sont les fonctions d’´chelle.

on a a a e e e t t f (t. Alors le processus (exp − e e a e martingale. Dans ce cas. on a e−rt f (t. x) + b(t. e e e Si f est une fonction de I + × I dans I telle que σfx est born´e et R R R e 1 ft (t. 2) deux processus d’Itˆ tels que e e o Soit f une fonction de I 2 dans I de classe C 2 .4.) Soit X un processus tel que t t t Xt = X0 + 0 b(s. e e e La solution de dXt = Xt (rdt + σdBt ). x)fx (t. Xt )dXt 2 1 = ft (t. Xs )dXs + 1 2 t 0 2 fxx (s. On dit que X est un Brownien g´om´trique. XT )|Ft ).July 8. x)fxx (t. X0 ) + 0 ft (s. Xt )dt + fx (t. X2 (t)) = f1 (X1 (t).2 par e e 1 L(f )(t. u e e e a e e a + .2 Fonction d´pendant du temps e Th´or`me 3. Xt )d X 2 Applications: 1. Ce que l’on note 1 2 df (t. x) 2 est le g´n´rateur infinit´simal de la diffusion. 0 b(s)ds Xt . Xs ) dBs . ` d´riv´es born´es.) Soit X un processus (Brownien g´om´trique) tel que e e dXt = Xt (rdt + σdBt ). Xt ). i = 1. X2 (t)) dX2 (t) 1 2 f σ 2 (t) + 2f12 σ1 (t)σ2 (t) + f22 σ2 (t) (X1 (t). ou processus log-normal. 2 et fij la d´riv´e seconde par rapport ` xi .) Soit X un processus dXt = Xt (b(t)dt + σ(t)dBt ).4. x) = b(t. x)fx (t. t ≥ 0) est une 3. Si f est une fonction de I + × I dans I telle que σfx est born´e et R R R e 1 ft (t. e 2.1). Xs )ds + 0 fx (s. xj . t ≥ 0) est une martingale. Xt ) + fxx (t.3 Cas multidimensionnel dXi (t) = bi (t)dt + σi (t)dBt . Xt )dXt + fxx (t. x)fxx (t. Xt ) = [ft (t. o` b et σ sont des fonctions (X est dit Brownien u t g´om´trique ` coefficients d´terministes). Xt ). Xs )σs ds. x) = h(x) et est solution de (3. x) + σ 2 (t. i = 1. x) = rf (t. Xt )σt ]dt + fx (t. x) + σ 2 (t. Xs ) ds + 0 σ(s. x) + b(t. t ≥ 0) est une martingale. x) 2 (3. Xt ) = E(e−rT f (T.1) alors (e−rt f (t. Xt ) = f (0. de classe C 2 e e e R R a par rapport ` x. L’op´rateur L d´fini sur les fonctions de C 1. X2 (t)) dt 2 11 1 o` fi d´signe la d´riv´e par rapport ` xi . X0 = x o` r et σ sont des constantes est Xt = x exp(rt + σBt − u 1 2 e e 2 σ t). e−rt f (t. On a R R df (X1 (t). x)fxx (t.2 Soit f une fonction d´finie sur I + × I de classe C 1 par rapport ` t. x) + σ 2 (t. Th´or`me 3. x)fx (t. Alors le processus (e−rt Xt . Il suffit de remaru quer que d(e−rt Xt ) = e−rt Xt σdBt et de v´rifier les conditions d’int´grabilit´. Xt ) = E(e−rT h(XT )|Ft ).3 Soit (Xi . 3 .4.4. o` r et σ sont des constantes. t ≥ 0) est une martingale. Si f v´rifie f (T. 2006 45 3. x) = 0 2 alors (f (t. X2 (t)) dX1 (t) + f2 (X1 (t).

.. .1 v2. . tel e e o que dXt = ut dt + vt dBt . i ≤ n). X2 >t = e e a t σ1 (s)σ2 (s)ds. . .  =  .2 . . X2 (t))σ1 (t) + f22 (X1 (t).p dB1  dX2   u2   v2. on ´crit e e 2 Int´grale stochastique e df (X1 . o Cette formule est connue sous le nom d’int´gration par parties.  dt +  . X2 (t))σi σj dt i.j Int´gration par parties. X2 (t))ρσ1 (t)σ2 (t) + f22 (X1 (t).j=1 ij n o` l’on utilise les conventions d’´criture u e dBi dBj = δij dt. dBi dt = 0. X2 (t))σ2 (t)] dt. . X2 (t)) dXi (t) + 1 2 fij (X1 (t).  dXn un vp. Xt )dXi (t) dXj (t) 2 i. 2 Cas g´n´ral : Soit (Xt .. . . t ≥ 0) un processus d’Itˆ multidimensionnel de composantes (Xi (t).1 vp. ils sont non corr´l´s (et r´ciproquement) ce qui est heureux pour la terminologie. X2 (t))σ2 (t)] dt. On a u e df (X1 (t). i = 1. X2 (t))σ1 (t) + 2f12 (X1 (t). . 2 On doit modifier la table de multiplication en ´crivant dB1 dB2 = ρdt. . o Th´or`me 3. crochet e La formule d’Itˆ montre que d[X1 X2 ](t) = X1 (t) dX2 (t) + X2 (t) dX1 (t) + σ1 (t)σ2 (t) dt..p   dB2          . X2 (t)) dX2 (t) 1 2 2 + [f11 (X1 (t). Xt ) = ft (t. On remarque que si B1 et B2 e sont ind´pendants.4. not´ < X1 . e ee e mais pas tout ` fait trivial (voir ce qui suit). 2) deux processus d’Itˆ tels que e e o dXi (t) = bi (t) dt + σi (t)dBi (t) o` B1 et B2 sont deux Browniens de corr´lation ρ.p dBp Soit f une fonction d´finie sur I + × Rn de classe C 1. X2 (t)) dX1 (t) + f2 (X1 (t). i = 1. . . v2. .2 . .. X2 )(t) = i=1 fi (X1 (t)..2 . vn.  . .. La quantit´ σ1 (t)σ2 (t) correspond au e e crochet de X1 .5 Soit (Xi . .4 Cas du Brownien multidimensionnel.. . soit        dX1 u1 v1.2 .. . On a u e df (X1 (t). .4. X2 (t)) dX1 (t) + f2 (X1 (t).. Xt )dXi (t) + 1 f (t. X2 (t)) dX2 (t) 1 2 2 + [f11 (X1 (t). . .4 Soit (Xi . X2 . Xt )dt + i=1 fi (t. Alors e R n df (t.. . dtdt = 0 Cas corr´l´: ee Th´or`me 3. X2 > et d´fini comme le processus ` variation finie < X1 .1 v1. 0 3. 2) deux processus d’Itˆ tels que e e dXi (t) = bi (t) dt + σi (t)dBi (t) o` B1 et B2 sont deux Browniens ind´pendants. X2 (t)) = f1 (X1 (t). a . .46 Sous forme condens´e.4. v1. X2 (t)) = f1 (X1 (t). .

July 8, 2006 Application

47

Revenons au Browniens corr´l´s. On note Bi les browniens corr´l´s et B3 le brownien construit au ee ee moyen de B1 et B2 par 1 B3 = (B2 − ρB1 ) . 1 − ρ2 Soit Mi (λ, t) = exp(λBi (t) − 1 λ2 t). Ces processus sont des martingales pour toute valeur de λ 2 et dMi (t) = λMi (t)dBi (t). D’o`, en utilisant que le crochet de B3 et B1 est nul (par lin´arit´) u e e d[M1 M3 ](t) = M1 (t)dM3 (t) + M3 (t)dM1 (t). Ce produit est une martingale, ce qui implique, apr`s e un petit calcul que E (exp (λB1 (t) + µB3 (t))) = E (exp [λB1 (t)]) E (exp (µB3 (t)]) d’o` l’ind´pendance souhait´e de B1 (t) et B3 (t). Pour obtenir l’ind´pendance des processus, utiliser u e e e t 1 t 2 λ(s)dBi (s) − Mi (t) = exp( λ (s)ds). 2 0 0

3.4.5

Application ` la formule de Black et Scholes a

APT ´valuation e On suppose avoir un march´ financier o` il y a : e u 1) un actif sans risque dont le prix S0 v´rifie dS0 (t) = S0 (t)rdt o` r est une constante e u 2) un actif risqu´ dont le prix S(t) v´rifie e e dS(t) = S(t)(bdt + σdBt ), o` B est un mouvement Brownien, et b, σ des constantes. On ´tudie un actif contingent de payoff h(ST ). u e Le cas d’un call Europ´en correspond ` h(x) = (x − K)+ . e a Le prix d’un call de maturit´ T et de prix d’exercice K est une fonction C(t, S(t)). e On se constitue un portefeuille compos´ d’un call et de βt parts de l’actif risqu´. La valeur de ce e e portefeuille est Vt = C(t, St ) + βt St . On suppose que dVt = dCt + βt dSt (Cette condition est une condition d’autofinancement et ne doit ˆtre en aucun cas confondue avec une formule d’Itˆ). e o En utilisant la formule d’Itˆ, on a o dVt = ∂C ∂C 1 ∂2C 2 2 St b + + σ St dt + βt bSt dt + ∂x ∂t 2 ∂2x2 ∂C σSt + βt σSt dBt . ∂x

Le portefeuille est sans risque si ∂C σSt + βt σSt = 0, soit βt = − ∂C et de rendement r si dVt = rVt dt ∂x ∂x soit dCt + βt dSt = r(Ct + βt St )dt d’o`, en rempla¸ant β par sa valeur u c rSt
2 ∂C ∂C 21 ∂ C (t, St ) + + σ 2 St (t, St ) − rC(t, St ) = 0 ∂x ∂t 2 ∂x2

avec C(T, ST ) = h(ST ). Soit, en notant que St est une v.a. qui admet une densit´ strictement positive e sur I + (et qui prend toutes les valeurs de I + ) R R rx ∂C ∂C 1 ∂2C (t, x) + (t, x) + σ 2 x2 (t, x) − rC(t, x) = 0 , ∀w ≥ 0, ∀t ≥ 0 ∂x ∂t 2 ∂2x

avec C(T, x) = h(x). L’´quation aux d´riv´es partielles peut ˆtre r´solue par des m´thodes classiques d’EDP. e e e e e e Portefeuille dupliquant On reprend l’´tude de la valorisation d’un actif contingent de payoff h(ST ) sur un sous jacent de e dynamique dSt = St (b dt + σdWt ) . On note C(t, St ) la valeur de l’actif contingent ` la date t. On constitue un portefeuille constitu´ de αt a e 0 parts de l’actif sans risque et γt parts de l’actif risqu´. Sa valeur ` l’instant t est Vt := αt St + γt St . On e a 0 suppose que dVt = αt dSt + γt dSt (hypoth`se d’autofinancement). e

48

Int´grale stochastique e

0 Le portefeuille duplique l’actif contingent si αt St + γt St = C(t, St ), soit en identifiant les termes en dt et dWt dans dVt et dCt : (on utilise l’unicit´ de la d´composition d’un processus d’Itˆ en processus ` e e o a variation finie et martingale) : γt St σ = ∂C (t, St ) St σ, soit γt = ∂C (t, St ) et ∂x ∂x 0 αt rSt + bγt St

= =

∂C ∂C 1 ∂2C 2 (t, St ) σ 2 St (t, St ) St b + (t, St ) + ∂x ∂t 2 ∂x2 ∂C 0 αt rSt + St (t, St ) ∂x ∂C (t, St ), d’o` u ∂x

0 0 En utilisant αt St + γt St = C(t, St ) on obtient αt St = C(t, St ) − St

∂C ∂C 1 ∂2C 2 (t, St ) St r + + (t, St ) σ 2 St − rC(t, St ) = 0 ∂x ∂t 2 ∂x2 et C(T, ST ) = h(ST ). Le processus S prend ses valeurs dans I + , r´soudre l’´quation pr´c´dente pour un call europ´en R e e e e e revient ` ´tudier ae xr ∂C ∂C 1 ∂2C (t, x) + (t, x) + σ 2 x2 (t, x) − rC(t, x) = 0 , x ≥ 0 ∂x ∂t 2 ∂x2 C(T, x) = (x − K)+ . (3.2)

On peut r´soudre cette ´quation, et on trouve e e C(t, x) = xN (d1 ) − Ke−r(T −t) N (d2 ) avec d1 = 1 x ln −r(T −t) Ke σ T −t √ √ 1 √ + σ T − t, d2 = d1 − σ T − t 2

la quantit´ Cx (t, x) = N (d1 ) repr´sente la couverture (le nombre de parts d’actif sous jacent utilis´es e e e pour r´pliquer l’option) e e e a Remarque 3.4.1 En interpr´tant l’´quation (3.2), (qui correspond ` chercher f telle que e−rt f (t, Xt ) est une martingale) on voit que C(t, x) = E(e−r(T −t) (YT − K)+ |Ft ) avec dYt = Yt (rdt + σdBt ). Cette remarque est fondamentale en finance.

Chapter 4

EQUATIONS DIFFERENTIELLES STOCHASTIQUES
4.1
4.1.1

Equations diff´rentielles stochastiques e
D´finition e
t t

Une ´quation diff´rentielle stochastique est une ´quation de la forme e e e Xt = x +
0

b(s, Xs ) ds +
0

σ(s, Xs ) dBs

(4.1)

ou sous forme condens´e e

dXt X0

= =

b(t, Xt )dt + σ(t, Xt ) dBt , x

L’inconnue est le processus X. Le probl`me est, comme pour une ´quation diff´rentielle ordinaire, de e e e montrer que sous certaines conditions sur les coefficients, l’´quation diff´rentielle a une unique solution. e e Il est utile de pr´ciser les donn´es. e e D´finition 4.1.1 Soit b et σ deux fonctions de I + × I n ` valeurs r´elles donn´es. On se donne e R R a e e ´galement un espace (Ω, F, P ) muni d’une filtration (Ft ) et un (Ft ) mouvement brownien B sur cet e t espace. Une solution de (4.1) est un processus X continu (Ft )-adapt´ tel que les int´grales 0 b(s, Xs ) ds e e t et 0 σ(s, Xs ) dBs ont un sens et l’´galit´ e e
t t

Xt = x +
0

b(s, Xs ) ds +
0

σ(s, Xs ) dBs

est satisfaite pour tout t, P p.s. ( .

4.1.2

Th´or`me d’existence e e

Th´or`me 4.1.1 On suppose que e e a- les fonctions b et σ sont continues, b- il existe K tel que pour tout t ∈ [0, T ], x ∈ I R, y ∈ I R i) |b(t, x) − b(t, y)| + |σ(t, x) − σ(t, y)| ≤ K |x − y| 2 2 2 ii) |b(t, x)| + |σ(t, x)| ≤ K 2 (1 + |x| ) c- La condition initiale X0 est ind´pendante de (Bt , t ≥ 0) et est de carr´ int´grable, e e e alors il existe une unique solution de (4.1) ` trajectoires continues pout t ≤ T . De plus cette solution a v´rifie e E( sup |Xt |2 ) < ∞.
0≤t≤T

La d´monstration repose sur une m´thode de pont fixe. A un processus U on associe le processus e e t t Φ(U ) par Φ(U )t = x + 0 b(s, Us )ds + 0 σ(s, Us )dBs . Sous les hypoth`ses du th´or`me 4.1.1, la solution e e e 49

50

EDS

est adapt´e ` la filtration naturelle du MB. On parle alors de solution forte. L’unicit´ se traduit par : e a e si X et Y sont deux solutions, P p.s.∀t ∈ [0, T ] Xt = Yt . Ce th´or`me se g´n´ralise au cas de processus ` valeurs dans I n . Dans la pratique, ce th´or`me est e e e e a R e e parfois insuffisant. On peut ´noncer un th´or`me sur I e e e R: Th´or`me 4.1.2 Soit ρ une fonction bor´lienne de ]0, ∞[ dans lui-mˆme telle que l’int´grale de (ρ)−1 e e e e e √ au voisinage de 0 diverge (par exemple ρ(x) = x). Si |σ(s, x) − σ(s, y)|2 ≤ ρ(|x − y|) et b est lipschitzienne, soit |b(s, x) − b(s, y)| ≤ Kt |x − y| pour tout x, y ∈ I et s ≤ t, il existe une unique R solution de (4.1). On trouvera dans Revuz-Yor (Ch IX, paragraphe 3) d’autres r´sultats. e

4.1.3

Propri´t´ de Markov e e
s t s t

t,x On note (Xs , s ≥ t) la solution de (4.1) partant de x ` l’instant t, soit a t,x Xs = x + t,x b(u, Xu ) du + t,x σ(u, Xu ) dBu .

Sous les conditions du th´or`me 4.1.1, on peut montrer que e e
0,x Xs = Xs
0,x t,Xt

, s ≥ t.

ce qui montre que la solution de (4.1) est un processus de Markov par rapport ` la filtration Ft : a E(f (Xs )|Ft ) = E(f (Xs )|Xt ) = Φ(s, t, Xt )
t,x o` Φ(s, t, x) = E(f (Xs )) , s ≥ t. Ce r´sultat est extr´mement important et permet de calculer facileu e e ment des esp´rances conditionnelles. En particulier si e t,x Xs = x + s t t,x b(Xu ) du + s t t,x σ(Xu ) dBu

on obtient un processus de Markov homog`ne e E(f (Xs )|Ft ) = E(f (Xs )|Xt ) = Φ(s, t, Xt ) = Ψ(s − t, Xt )
0,x 0,x t,x o` Φ(s, t, x) = E(f (Xs )) = E(f (Xs−t )) et Ψ(u, x) = E(f (Xu )). u Attention: un couple (X, Y ) peut ˆtre Markovien sans que ses composantes le soient. e

4.1.4

Th´or`me de comparaison e e
dXi (t) = bi (Xi (t))dt + σ(Xi (t))dWt , i = 1, 2

Th´or`me 4.1.3 Th´or`me de Comparaison. Soit e e e e

o` bi est Lipschitz et [σ(x) − σ(y)]2 ≤ k|x − y|. Supposons que X1 (0) ≥ X2 (0) et b1 (x) ≥ b2 (x). Alors u X1 (t) ≥ X2 (t) (Voir [RY] chap. 9, par. 3 pour une d´monstration). e

4.1.5

Exemple : Martingale exponentielle
t

Proposition 4.1.1 Soit θ ∈ Λ et Z0 une constante. La solution de dZt = θt Zt dBt est Zt = Z0 exp[
0

θs dBs −

1 2

t 0

2 θs ds]

Si de plus E(exp[

1 2

T 0

2 θs ds]) < ∞, le processus (Zt , t ≤ T ) est une martingale d’esp´rance Z0 . e

x)b(t. x) + Lf (t. x) o` L est le u g´n´rateur infinit´simal de X. et 2 0 s (Zt . On remarque que Af (t. u ≥ t (4. t ≤ T ) est une martingale. x) − f (t. donc une surmartingale. Si f est une solution du probl`me parabolique (4. T ] R. Xs )dBs . x) + fxx (t. ∀x ∈ I ∀t ∈ [0. x) = g(x) ∀x ∈ I R. sauf a e dans le cas suivant.t Xu = Xt + u t x. T ] R. x) = ft (t. E(ZT ) = Z0 . Bs )dBs − 0 1 2 t 0 f (s.t E(g(XT )). Sous cette condition.1. T ] × I dans I v´rifiant les hypoth`ses du th´or`me 4.2 Equations aux d´riv´es partielles e e On se donne deux fonctions b et σ de [0. x) + fx (t.2). on a x. C’est une e e e martingale locale positive si Z0 > 0. Xs ) ds + u t x. La e e 1 T 2 condition E(exp[ θ ds]) < ∞ est la condition de Novikov.t fx (s. Xs ) dBs . Lemme 4. Xu ) = f (t.t avec une condition initiale en t: Xt = x.1 Soit f telle que |f (t. c’est une martingale locale positive. ∀x ∈ I ∀t ∈ [0. e e e Th´or`me 4. (4. y)| ≤ C|x − y| et sup |f (s.1 Probl`me parabolique e On cherche les solutions du probl`me (parabolique) suivant. Bs )2 ds est une martingale. x)σ 2 (t. e e e 4. 2006 ´ Demonstration: Par d´finition. Xs )σ(s. x) f (T. Alors. e e e e concernant l’existence de solution d’EDS. la formule d’Itˆ conduit e o a ` u x.1 R R. x) = 0.t b(s. et E(Zt ) ≤ Z0 .t x.2) x.2.t fx (s. Sinon.t x. en particulier en T . x) = e e e e x.t f (T.1 Sous des conditions de r´gularit´.July 8.t σ(s. x) = 0. On ne connait pas de conditions “plus faciles” ` v´rifier que la condition de Novikov. En notant Ut := e e o 2 0 1 t 2 1 2 1 2 u 2 0 θs ds.t x. 0)| ≤ C. x) + T t x. x). u ≥ t) le processus d’Itˆ d´fini par o e x. la solution du probl`me parabolique e e Af (t. XT ) = g(XT ) = f (t.2 par e e 1 Af (t. x) := ft (t. Xs ) dBs et si l’int´grale est une martingale (conditions d’int´grabilit´ sur fx et σ) on en d´duit f (t. 4.t Soit (Xu . Af (t. t f (s. 2 x. c’est-`-dire e e a une fonction g de I dans I qui va pr´ciser la valeur de la solution de l’´quation aux d´riv´es partielles R R e e e e en T . d’o` dZt = (exp Ut )(dUt + 2 θt dt) = θt Zt dBt . t θ dBs 0 s t θ dBs 0 s 51 − − Le processus Z. On v´rifie que Zt = Z0 exp[ e e 1 t 2 θs ds] est solution de l’´quation propos´e en utilisant la formule d’Itˆ. Soit A l’op´rateur d´fini sur les fonctions de C 1.3) f (T. Z est une martingale locale. on a dUt = θt dBt − 2 θt dt. Il est plus d´licat de v´rifier que c’est une martingale. Xs )σ(s.t x. avec une “donn´e terminale”. not´ E(θB)t est appel´ l’exponentielle de Dol´ans-Dade de θB. et X une solution de (4. = g(x) ∀x ∈ I R .t f (u.2.1.3). x) + t x.

g(x). x ≥ 0 ∂x ∂t 2 ∂2x On a vu que l’´valuation d’une option Europ´ene revenait ` r´soudre l’EDP e e a e xr et C(T.2 G´n´ralisation e e Af (t. x) = 0 . 4. Le processus S prend ses valeurs dans I + . On ´crit souvent ce r´sultat sous la forme ´quivalente suivante f (t. x) exp(−αt) + T t x. x) = (x − K)+ . x) + fxx (t.t f (T. Xs ) dBs l’esp´rance ´tant prise sous la probabilit´ Px. x) = E(e−r(T −t) (ST − K)+ ) . x ≥ 0 ∂x ∂t 2 ∂2x et C(T. Xu ) du + 0 σ(u.2.4) (4. u ≥ t EDS x. x) = (x − K)+ . x) = g(x) est donn´e par e f (t.t x. et X une solution de (4. Xu ) dBu Th´or`me 4. Xs ) ds + u t x. Xs )dBs . r´soudre l’´quation pr´c´dente pour un call europ´en R e e e e e revient ` ´tudier ae xr ∂C 1 ∂2C ∂C (t.t fx (s.t σ(s.t x.2).3 Formule de Black et Scholes ∂C 1 ∂2C ∂C (t.52 x. x) + (t.t est le processus d’Itˆ d´fini par e u o e x. on a aussi f (t. En exploitant le caract`re Markovien. x) = e e e e x. x). x) + σ 2 x2 (t. x) = αf (t.2 La solution du probl`me e e e 1 αf (t. x) = E(g(XT )).4). XT ) exp(−αT ) = f (t.t Xu = Xt + u t x.t est donn´e par f (t.t b(s. x) = ft (t.2. On cherche les solutions du probl`me (parabolique) suivant e Si f est solution de (4. 4.t avec une condition initiale en t: Xt = x. x) = E(exp(−α(T − e t))g(XT ) |Xt = x) o` u s s Xs = X0 + 0 b(u.t C(t. Xs )[exp −αs]σ(s. x) − rC(t. la formule d’Itˆ entre t et T conduit ` o a x. x) + fx (t.t (g(XT )). Grˆce aux r´sultats pr´c´dents sur les ´quations aux d´riv´es partielles. x) + (t. x) + σ 2 x2 (t. x) = Ex.t [ exp(−α(T − t))g(XT )]. Xs ) ds + σ(s.5) Soit α une constante positive. Xs ) dBs . T ] R. ∀x ∈ I ∀t ∈ [0. x)σ 2 (t. o` X est le e e e u processus d’Itˆ d´fini par o e dXs = b(s. x) 2 f (T.t qui est telle que processus X prend la valeur x ` l’instant e e e a t. (4. x) = 0 .t E[exp(−α(T − t))g(XT )]. o` X x. x) − rC(t. x) = f (T.2. et si l’int´grale est une martingale (conditions d’int´grabilit´ sur fx et σ ) on en d´duit f (t. x)b(t. on voit que a e e e e e e x. x) = Ex.

4 Formule de Feynman-Kac ∞ −∞ Th´or`me 4. 0 k(Bs )ds). Nous verrons plus loin que le calcul du premier terme se d´duit du second.t x.7) nous donne en particulier la transform´e de Laplace en temps de exp − e t t 0 k(Bs )ds et aussi celle de g(Bt ) exp −λ 0 k(Bs )ds. Pla¸ons nous dans le cas t = 0. 2006 53 x. La formule ´tablie plus haut s’´crit c e e C(0. et St = x. x) = EQ (e−rT MT 1xMT ≥K ) = N (d1 ) ∂x 4. a e Les conditions de positivit´ sur α et k et de bornitude sur g garantissant l’existence d’une solution e continue et born´e ` l’´quation diff´rentielle. e a e e t La formule (4.6) o` St = xMt .t Le calcul de l’esp´rance se fait en remarquant que ST = xeσ(T −t)G+(r−σ /2)(T −t) o` G est une gaussie u enne. Il suffit alors d’utiliser des calculs portant sur des variables gaussiennes. e ∂C ∂x √ 1 σ√T G+(r−σ2 /2)(T )≥ln(K/x) ) 1 Remarque: Ces calculs permettent de calculer le ’Delta’ de l’option et de montrer facilement que = N (d1 ). En d´rivant sous le signe esp´rance par rapport ` x.2. x) = EQ (e−rT (xMT − K)+ ) (4. B0 ) = u(0. x) = f (x) et ` v´rifier que E(f (Bt )e−Zt ) → 0.e.: a 1 f (x) − (α + k(x))f (x) + g(x) = 0 2 Il reste ` remarquer que a u(0. on obtient u e e a ∂C (0. Nous ne donnons ici qu’une id´e de la d´monstration.July 8. Explicitons le calcul pour t = 0 x E(e−rT (ST − K)+ ) = x E(e−rT (ST 1 ST ≥K − Ke−rT P (ST ≥ K)) 1 √ = e−rT xE(eσ T G+(r−σ 2 /2)(T ) −Ke−rT P (σ T G + (r − σ 2 /2)(T ) ≥ ln(K/x))) .7). Consid´rons le processus ` variation born´e (Zt : t ≥ 0) d´fini par: e e e a e e (α + k)f = t Zt = αt + 0 k(Bs )ds Le lemme d’Itˆ appliqu´ au processus o e Ut = f (Bt )e−Zt + 0 def t g(Bs )e−Zs ds o` f est une fonction de classe C 2 montre que u dUt = f (Bt )e−Zt dBt + 1 f (Bt ) − (α + k(Bs ))f (Bt ) + g(Bt ) e−Zt dt 2 Le processus U est une martingale si sa partie ` variation finie est nulle i. Ex signifie que le Brownien est issu de x.3 Soit k : I → I + une fonction continue et g : I → I continue telle que: e e R R R R |g(x + y)|e−|y| √ 2α dy < ∞ ∀x ∈ I α > 0 R.8) 2 ´ Demonstration: Dans (4. Alors la fonction f d´finie par: e ∞ t f (x) = Ex 0 dt g(Bt ) exp −αt − 0 k(Bs )ds (4.7) est l’unique solution C 2 born´e de: e 1 f +g (4. u 2 x.2. donc la loi du couple (Bt .t o` dSu = Su (rdu + σdBu ). .t x.

ce que l’on peut aussi obtenir par scaling.12) ce qui montre que A+ = tA+ .∞) (Bs )ds 1 (4. Nous avons obtenu 1 ∞ f (0) = 0 dte−αt E0 e−βAt + = 1 α(α + β) 1 α(α + β) En utilisant l’´galit´ e e 0 ∞ dte−αt 0 t e du √ π −βu u(t−u) = on en d´duit que la densit´ de e e A+ t est donn´e par: e P (A+ ∈ du) = t du π u(t − u) 1 (u<t) 1 (4.10) La loi de A+ est donc une loi arcsinus sur [0. t]. on trouve e e √ √ α+β− α √ A= (α + β) α Soit A+ = t def 0 t 1 [0. la fonction f d´finie par: e f (x) = Ex 0 def ∞ t dt exp −αt − β 0 1 [0.∞[ (Bs ) ds.11) On obtient aussi une ´galit´ en loi int´ressante e e e P (A+ ≤ θ) = P (A+ ≤ t 1 loi θ ) t (4. ce nom provenant de la fonction de r´partition de cette e t loi : P (A+ ≤ θ) = t θ 0 π √1 θ/t s(t−s) ds = 0 π √ 1 du u(1−u) = 2 π arcsin θ t (4. on obtient que pour α > 0 et e e a 1 β > 0.9) est solution de l’´quation diff´rentielle suivante: e e αf (x) = 1 f (x) − βf (x) + 1 x ≥ 0 2 αf (x) = 1 f (x) + 1 x≤0 2 L’unique solution born´e et continue de cette EDO est donn´e par: e e √ 1 Ae−x 2(α+β) + α+β x ≥ 0 √ f (x) = 1 x≤0 Bex 2α + α En imposant la continuit´ de f et f en z´ro.54 Une application EDS Par application de la formule pr´c´dente ` k(x) = β1 x≥0 et g(x) = 1. t 1 .

de solution Zt = Z0 . Pla¸ons nous dans le cas de coefficients d´terministes. Th´or`me 5.1 La solution de dXt = Xt [bdt + σdBt ] s’´crit e e e 1 Xt = X0 exp{(b − σ 2 )t + σBt } 2 ou encore 1 Xt = Xs exp{(b − σ 2 )(t − s) + σ(Bt − Bs )} 2 Il est facile de v´rifier que l’´quation dXt = Xt [bdt + σdBt ]. ce qui est une ´quation diff´rentielle ordinaire. Nous pouvons d´finir Zt = Yt /Xt .1) sous la forme e dXt = b(t)dt + σ(t)dBt . u e e c e Cette ´quation admet une solution unique (Voir th´or`me d’existence) e e e t t x exp 0 b(s)ds + 0 σ(s)dBs − 1 2 t 0 σ 2 (s)ds (il suffit d’appliquer la formule d’Itˆ). 5. Nous savons que X ne s’annule pas et d(1/Xt ) = 1 [µdt − σdBt ] Xt avec µ = −b + σ 2 .1.Chapter 5 EXEMPLES DE PROCESSUS D’ITO La partie en Anglais est partie d’un chapitre d’un livre ` paraitre chez Springer.1 Le brownien g´om´trique e e dXt = Xt bt dt + Xt σt dBt . Ce processus v´rifie e e dZt = Zt [(µ + b − σ 2 )dt + (σ − σ)dBt = 0 soit dZt = 0. Soit Y une e e seconde solution. o On ´crit souvent (5. Merci de me signaler a tout faute de frappe. Xt La martingale Mt = Xt e−bt est solution de dMt = Mt σdBt . X0 = x a une unique solution. e e 55 .1) On consid`re l’´quation diff´rentielle stochastique suivante e e e o` b et σ sont des processus adapt´s born´s. X0 = x (5.

rt au moyen de l’´galit´ E(rt ) = r0 + k(θt − e e e t E(rs )ds). Cox. on obtient. En r´solvant l’´quation Φ(t) = r0 + k(θt − e e diff´rentielle Φ (t) = k(θ − Φ(t)) et Φ(0) = r0 . Cependant.2 Mod`le de Cox-Ingersoll-Ross e (5. on introduit ψ(t) = E(rt ) et en r´solvant Ψ (t) = (2kθ + σ 2 )Φ(t) − 2kΨ(t). L’esp´rance conditionnelle et la variance conditionnelle sont donn´es par e e E(rt |Fs ) = rs e−k(t−s) + θ(1 − e−k(t−s) ). pour s = 0 t E(rt ) = r0 + k θt − 0 E(ru )du .a. On peut montrer que.2. 2 De la mˆme fa¸on. Var(rt |Fs ) = rs σ 2 (e−k(t−s) − e−2k(t−s) ) θρ2 (1 − e−k(t−s) )2 + . si T0 = inf{t ≥ 0 : rt = 0} et 2kθ ≥ σ 2 alors P (T0 = ∞) = 1. et en appliquant la formule d’Itˆ o 2 rt = 2 rs + 2k t t (θ − ru )ru du + 2σ s t s t (ru )3/2 dBu + σ 2 s 2 ru du + 2σ t s t ru du 2 = rs + (2kθ + σ 2 ) ru du − 2k s s (ru )3/2 dBu . 2 x x Si 0 ≤ 2kθ < σ et k > 0 alors P (T0 < ∞) = 1 et si k < 0 on a P (T0 < ∞) ∈]0.2) avec r0 = x. en utilisant le caract`re Markovien: e e e e def Th´or`me 5. on calcule e c e Var [rt ] = θ σ2 (1 − e−kt )[r0 e−kt + (1 − e−kt )] . t et 2 2 E(rt ) = r0 + (2kθ + σ 2 ) 0 t E(ru )du − 2k 0 t 0 2 E(ru )du. Soit rx le processus solution de x x x x (5. Voir e e Ikeda-Watanabe). On calcule e 0 sans difficult´s suppl´mentaires l’esp´rance conditionnelle. 1[ . on peut calculer l’esp´rance de la v.1 Soit r le processus v´rifiant e e e √ drt = k(θ − rt )dt + σ rt dBt .2) Pour mod´liser des taux.Ingersoll-Ross ´tudient l’´quation suivante e e e √ drt = k(θ − rt )dt + σ rt dBt L’unique solution est un processus positif pour kθ ≥ 0 (utiliser le second th´or`me d’existence.56 Exemples 5. ce qui est le cas. on a pour s ≤ t e rt = rs + k s (θ − ru )du + σ s √ ru dBu . On va utiliser les m´thodes du chapitre pr´c´dent pour calculer E exp − e e e T t ru du |Ft . k 2 L’esp´rance et la variance conditionnelle de r s’obtiennent en appliquant la propri´t´ de Markov : e ee E(rt |Fs ) = θ + (rs − θ)e−k(t−s) = rs e−k(t−s) + θ(1 − e−k(t−s) ). k 2k . ll n’est pas possible d’obtenir une formule explicite. on obtient e Φ(u)du) qui se transforme en l’´quation e E[r(t)] = θ + (r0 − θ)e−kt . . Var(rt |Fs ) = rs σ 2 (e−k(t−s) − e−2k(t−s) ) θσ 2 (1 − e−k(t−s) )2 + . k 2k t t ´ Demonstration: Par d´finition. En admettant que les int´grales stochastiques qui interviennent dans les ´galit´s ci-dessus sont d’esp´rance e e e e nulle. Soit Φ(t) = E(rt ). en admettant que l’int´grale stochastique est une martingale.

x). rt )dBt ) √ avec σ(u. rt = x 57 √ drt = a(b − rt )dt + σ rt dBt . x) = 1. .2 .t drs = a(b − rs )ds + ρ t et Rs = exp − s x. Un calcul assez long montre a e e e que1 G(t. oa Il vient x.t x. rT )RT = G(t. Φ(s) = 2γe(γ+a) 2 (γ + a)(eγs − 1) + 2γ s 2ab ρ2 Si l’on note B(t. Φ(s) = (γ + a)(eγs − 1) + 2γ ´ Demonstration: Soit rx.” Le petit prince. Vous avez confiance en moi. on obtient exp − 0 T rs ds = E(RT ) = R0 G(0. rs )ds + MT − Mt ∂t ∂x 2 ∂x2 o` Mt est une int´grale stochastique.t ru du = G(t.t rs dBs . En se pla¸ant c E exp − t x. A. ∀x. rt ) 2γe(γ+a) 2 (γ + a)(eγs − 1) + 2γ s 2ab ρ2 . 1946. T ) le prix du zero-coupon. Elles [les grandes personnes] adorent les chiffres: ¸a leur plaira. On applique la formule d’Itˆ ` G(s. x) = Φ(T − t) exp[−xΨ(T − t)] 2(eγs − 1) Ψ(s) = . x) Il reste ` calculer la solution de l’´quation aux d´riv´es partielles (5. 59.July 8.t ∂ G + a(b − rs ) + σ 2 rs )(s.t r t u x.t ∂G x. x) = Φ(T − t) exp[−xΨ(T − t)] avec Ψ(s) = γ 2 = 2(eγs − 1) (γ + a)(eγs − 1) + 2γ a2 + 2σ 2 . rs )Rs qui est une martingale. Mais c ne perdez pas votre temps ` ce pensum.t x.1 Soit Alors E avec G(t. La propri´t´ de Markov implique qu’il existe G telle que ee s exp − t x. E u entre t et T .t t G(T. r) = σΨ(u) r 1 “Vous leur conseillerez donc de faire le calcul.t Rs (−rs G + 2 ∂G 1 x. T ) (rt dt + σ(T − t.3).t t On admet que G est de classe C 1. T ) = B(t.2. de St Exup´ry. T exp − t ru du |Ft = G(t. C’est inutile. 2006 Calcul du prix d’un z´ro-coupon e Proposition 5.3) t RT = Rt G(t. rt ) + MT − M − t.t ru du|Ft = G(t. T o` M est une martingale. dB(t. rt ) x.t la solution de x. il vient ∂G ∂G 1 2 ∂ 2 G + a(b − x) + σ x 2 =0 ∂t ∂x 2 ∂x (5. a e Gallimard. γ 2 = a2 + 2ρ2 . En particulier. p. Si l’on choisit G telle que u e −xG + et G(T. du . x) + T t t x.

the obvious solution Z ≡ 0 is the unique solution. t ≥ 0) 2 is a martingale). starting at a = α and is denoted BESδ . If δ = 0 the process remains at 0 as soon as it reaches it. then 0 ≤ ρt ≤ ρt a. to model the dynamics of asset prices and/or of spot rate or as a computational tool. Xt = i=1 (Bi )2 (t).1 (BESQδ ) For every δ ≥ 0 and α ≥ 0. 2 is a continuous martingale as a sum of martingales and the bracket of β is t (the process (βt − t. and. the process ρ reaches 0 in finite time and is reflected instantaneously. The process R = e √ process of dimension δ. Using Itˆ’s formula again. ?].1. the √ √ Let W be a real valued Brownian motion.3. and V is a squared Bessel process (BESQ) of dimension n. The process β defined as dβt = 1 1 Bt · dBt = Xt ||Bt || n Bi (t)dBi (t).4.4. Z0 = α admits a unique strong solution. if α = 0 and δ = 0. From the comparison theorem 4. setting Vt = Xt n − 1 dt 2 Xt dVt = 2 Vt dβt + n dt . In particular. Therefore. .2 General definition |x − y|. Bessel processes are intensively used in e Finance. B2 . If 0 < δ < 2.4 5.4. in short BESQδ . . Applications to finance can be found in Leblanc’s thesis and in Szatzschneider [?.2 (BESδ ) Let ρ be a BESQδ starting at α. the unique strong solution to the equation e t ρt = α + δt + 2 0 √ ρs dWs is called a squared Bessel process with dimension δ. i=1 β0 = 0. Z satisfies Zt ≥ 0 for all t and we do not need the absolute value under the square root.58 Exemples 5.s. An intensive study is made in Going and Yor [?]. . Using the elementary inequality | x − y| ≤ existence theorem ?? proves that for every δ ≥ 0 and α ≥ 0 . voir Revuz-Yor. √ ρ is called a Bessel . 5. D´finition 5. . Itˆ’s formula leads to dXt = i=1 2Bi (t)dBi (t) + n dt. D´finition 5. o dXt = dβt + 2 where β is a Brownian motion. We shall say that X is a Bessel process (BES) with dimension n. i. In the case δ > 2. Therefore.. 5. if 0 ≤ δ ≤ δ and if ρ and ρ are squared Bessel processes with dimension δ and δ starting at the same point. we get that.3 Processus de Bessel et carr´ de Bessel e Pour des d´tails sur les processus de Bessel.e.1 Definitions Euclidian norm of n-dimensional Brownian motion Let n > 1 and B = (B1 . starting at α and is denoted by BESQδ . the equation dZt = δ dt + 2 |Zt | dWt . Bn ) be a n-dimensional Brownian motion and define a process X as n n 2 2 o Xt = ||Bt ||. β is a Brownian motion and the equality d(Xt ) = 2Bt · dBt + ndt can be written as 2 d(Xt ) = 2Xt dβt + n dt .4. The solution is called the squared Bessel process of dimension δ. the squared Bessel process BESQδ starting at α will never reach 0 and is a transient process (ρt goes to infinity as t goes to infinity).

Rs t (5. the processes t f (Rt ) − 0 Lf (Rs )ds are martingales.v. whereas there are no bracket for the dimension.v. (5. t In the same way. Rs For δ = 1.July 8. we have 0 Rs t δ−1 1 Rt = α + Wt + p. e and a Bessel process with index ν is denoted as BES(ν) .e.5) 2 Rs 0 where the principal value is defined as t p. For δ > 1.4) 1 Rt = α + Wt + (ν + ) 2 1 0 1 ds . 2006 59 D´finition 5. A Bessel Process R with index ν ≥ 0 (i.3 The number ν = (δ/2) − 1 (or δ = 2(ν + 1)) is called the index of the Bessel process. L= 2 2 dx 2x dx 2 dx2 2x dx 2 Therefore.4. it is necessary to introduce the principal value of the integral t ds in this case. A scale function for a BES(ν) is s(x) = x−2ν for ν < 0. 0 1 ds = Rs ∞ 0 xδ−2 (Lx − L0 )dx t t and the family of local times is defined via the occupation time formula t ∞ φ(Rs )ds = 0 0 φ(x)Lx xδ−1 dx . . We use the notation () for an index. the infinitesimal generator of the Bessel squared process ρ is A = 2x 2 hence. δ ≥ 2) is a diffusion process which takes values in I + and has infinitesimal R generator 1 d2 2ν + 1 d 1 d2 δ−1 d + = + . the BES is Rt = |Bt | = βt + Lt where B and β are Brownian motions and L is the local time of Brownian motion B. s(x) = 2 ln x for ν = 0 and s(x) = −x−2ν for ν > 0. A scale function for a BESQ(ν) is s(x) = ln x for ν = 0. for any f ∈ CK . s(x) = −x−ν for ν > 0 and s(x) = x−ν for ν < 0. For δ < 1. the processes t d d2 +δ dx2 dx f (ρt ) − 0 Af (ρs )ds are martingales. ds . a BESδ satisfies E 0 t ds Rs < ∞ and is the solution of δ−1 2 t 0 Rt = α + Wt + In terms of the index 1 ds . for any f ∈ Cc .

then ( ρct . I + ) is denoted by Qδ .4.3 Scaling properties 1 Proposition 5. supt≤T Lt ≤ supt≤T (Rt /x)ν . t ≥ 0) is a BESQδ starting at c x/c. starting at α. we denote by R the canonical map Rt (ω) = ω(t). the canonical process R satisfies 1 dRt = dWt + dt .4. t≤T From Girsanov’s theorem. then the absolute continuity relation holds before T0 . I + ). 2Rt The process ν Rt ν 2 t ds Lt = exp − 2 x 2 0 Rs is a non-negative P (0) -martingale. Itˆ’s formula leads to o dLt = νLt ln(Rt )dWt . c 5. ´ Demonstration: Under P (0) .1 If the index is negative. it follows that 1 dt − d R. and Doob’s inequality (??) implies that k E[(sup Rt )k ] ≤ Ck E[RT ]. the first hitting time of 0: (ν) Px |Rt ∩{t<T0 } = Rt x ν exp − ν2 2 t 0 ds 2 Rs (0) P x |Rt . Obviously. The process R is a submartingale as a sum of a martingale and an increasing process. hence Rt is integrable for k ≥ 2. ν ln R dRt − 2Rt is a Brownian motion under Px (ν) t = dRt − 1 1 (ν + )dt Rt 2 = Lt P x . the process L is a local martingale.4 Absolute continuity On the canonical space Ω = C(I + .4. The law of BESQδ starting at x on the canonical space C(I + . Indeed.4. and is equal in law to Bt + By where B and B are independent k BM.1 If (ρt . by Rt = R R (ν) δ σ(Rs . t ≥ 0) is a Brownian motion.4. (5. i.60 Exemples 5.6) 2 x 2 0 Rs where P (ν) is the law of a BES with index ν. ´ Demonstration: From ρt = x + 2 0 t √ ρs dWs + δ t t 0 we deduce that 1 x 2 ρct = + c c c 1 Setting ut = ρct . t ≥ 0) is a BESQδ starting at x. s ≤ t) the canonical filtration and by Pα (or Pα ) the law of the Bessel Process of index ν (of (ν) dimension δ). we obtain c ut = ct 0 √ δ x ρs dWs + ct = + 2 c c ρs c 1/2 1 √ dWsc + δt . such that Pα (R0 = α) = 1. R R x Proposition 5..e. The process R2 is a 2 ˜ ˜2 squared Bessel process of dimension 2. hence. c x +2 c t 0 √ us dWs + δ t 1 where (Wt = √ Wtc . .2 The following absolute continuity relation between a BES(ν) process (with ν ≥ 0) and a BES(0) holds ν Rt ν 2 t ds (ν) (0) Px |Rt = exp − Px |Rt . (0) Remarque 5.

δ/2 1 + 2λt (1 + 2λt) (5.3 Transition densities δ Let Ex denote the expectation under Qδ . 2006 61 5. the r. In the general case.1 leads to δ 1 1 Ex [exp(−λρt )] = Ex [exp(−λρt )] E0 [exp(−λρt )] δ−1 1 and since under Q1 . We get now easily the Laplace transform of ρt . let X and Y be two independent BESQ starting at x (resp.v.7) Bessel and Bessel squared processes are Markov processes and their transition densities are known. The proof is trivial in the case where δ and δ are integers. ρt is the square of a Gaussian variable. δ )and Z = X + Y . it is easy to check that Ex [exp(−λρt )] = x 1 λx √ ).5. In fact. Proposition 5. (ν) Inverting the Laplace transform (5.5.5. is the additivity of the family BESQ.1 Properties Additivity of BESQ An important property.7) provides the transition density qt of a BESQ(ν) as √ xy 1 y ν/2 x+y (ν) Iν ( ) (5.July 8. B 2 ). y) = exp − 2t x 2t t . The process W defined as √ √ t t 1 2 Xs dBs + Ys dBs 3 √ 1 {Zs >0} 1 1 {Zs =0} dBs 1 Wt = + Zs 0 0 is a Brownian motion (this is a martingale with increasing process equal to t) and t Zt = x + y + (δ + δ )t + 2 0 Zs dWs . Let B 3 a third Brownian motion independent of (B 1 .5. where ρ is a x BESQδ .8) qt (x. Proposition 5. Let us denote by P ∗ Q the convolution of P and Q.2 Bessel functions x2 u (x) + xu (x) − (x2 + ν 2 )u(x) = 0 The modified Bessel function Iν and Kν satisfy the Bessel differential equation and is given by : Iν (z) = z 2 ν ∞ n=0 22n z 2n n! Γ(ν + n + 1) Kν (z) = π(I−ν (z) − Iν (z)) 2 sin πz 5.5 5. Then t Zt = x + y + (δ + δ )t + 2 0 1 Xs dBs + 2 Ys dBs . 5. y) and with dimension δ (resp.1 Qδ ∗ Qδ = Qδ+δ x y x+y ´ Demonstration: The proposition is just a way to tell that the sum of two independent BESQ is a BESQ. Therefore exp(− 1 + 2λt 1 + 2λt δ Ex [exp(−λρt )] = 1 λx exp(− ).5. due to Shiga-Watanabe.

and it is well known that Kν (z) ∼ c(ν)z −ν for z close to 0. 5. for a 3-dimensional Bessel process 3 E0 (exp − (ν) λ2 λb Tb ) = 2 sinh λb and.9) y t y x ν exp(− x2 + y 2 xy )Iν ( ) .5. 2t t where Iν is the usual modified Bessel function with index ν. for a > b.1 (from Az´ma-Yor [?]). Prove that 1/X is a local martingale. Let X be a BES3 . p(ν) (0.4 Hitting times for Bessel processes √ Kν (a 2λ) √ . but e not a martingale. y) = (ν) (ν) Exemples defined by (5. for b < a Kν (b 2λ) √ Iν (a 2λ) √ .) Exercice 5. for a < b Iν (b 2λ) (ν) (ν) For a BESδ (See. Indeed. Pa (Tb < ∞) = limλ→0 Ea (e−λTb ).3) (ν) Ea (e−λTb ) = b a b a ν (5.5. ν > − . For x = 0. of a BES(ν) ) is q (ν) (0.g. e. the transition probability of the BESQ(ν) (resp. more generally 3 Ea (exp − λ2 b sinh λa Tb ) = 2 a sinh λb From inversion of Laplace transform.62 and the Bessel process of index ν has a transition density pt pt (x. Establish that E(1/X1 |Ru ) = a 1 Xu 2 Xu Φ( ). p q q (ν) loi t ds (ν) 0 [Rs ]2/p ) where .10) (5. 3 P0 (Tb ∈ dt) = 2 2 2 π2 Σn∈Z (−1)n+1 n2 e−n π t/(2b ) dt 2b2 Exercice 5. Kent [?] or Pitman-Yor [?] prop. y) = 2−ν t−(ν+1) [Γ(ν + 1)]−1 y 2ν+1 exp − (See the Appendix for definition of Bessel functions.11) ν (ν) Ea (e−λTb ) = Remark that.2 The power of a Bessel process is another Bessel process time-changed q[Rt ]1/q = R(νq) ( 1 1 1 + = 1.5. Pa (Tb < ∞) = (b/a)2ν . In particular. y) = (2t)−(ν+1) [Γ(ν + 1)]−1 y ν exp − y 2t y2 2t . 2. π 1−u where Φ(a) = 0 dye−y 2 /2 .

July 8. Exercice 5. The quantity Er (γ) Rt r ∞ 0 ∞ 0 2 exp(−aRt ) can be computed with the help of the first part of this section (γ) Er 1 Rt 2α 2 exp(−aRt ) = = 1 Γ(α) 1 Γ(α) (γ) 2 dvv α−1 Er [exp(−(v + a)Rt )] dv v α−1 (1 + 2(v + a)t)−(1+γ) exp − r2 (v + a) 1 + 2(v + a)t therefore (ν) 2 Er exp −aRt − µ2 2 t 0 ds 2 Rs = 1 Γ(α) rν−γ ∞ 0 dv v α−1 (1 + 2(v + a)t)−(1+γ) exp − r2 (v + a) 1 + 2(v + a)t where α = 1 1 (γ − ν) = ( 2 2 µ2 + ν 2 − ν).5. ´ Demonstration: Let (Rt . using the same method that (ν) Er 1 µ2 α exp(− 2 Rt t 0 ds ) 2 Rs = = (0) Er ν Rt µ2 + ν 2 α exp(− r ν Rt 2 ν−γ−α Rt rν−γ t 0 ds ) 2 Rs E (γ) Proposition 5.5.5. the equality (ν) Er 1 (Rt )2α (ν) = 1 Γ(α) 1/2t 0 dv v α−1 (1 − 2tv)ν−α exp(−r2 v) and a change of variable.12) where γ 2 = µ2 + ν 2 . it follows that x Γ(α) 0 (ν) Er 1 1 = 2α (Rt ) Γ(α) ∞ 0 (ν) 2 dv v α−1 Er [exp(−vRt )] .5. t ≥ 0) be a BES(ν) starting from r > 0.2 (ν) 2 Er exp(−aRt − ds (γ) ) = Er 2 Rs Rt r ν−γ 2 exp(−aRt ) (5. we have 1 Qδ exp(− b2 x 2 1 0 ρs ds) = (cosh b) −δ/2 1 exp − xb tanh b 2 . 2 follows from the identity Er [exp(−vRt )] = 1 r2 v exp − (1 + 2vt)1+ν 1 + 2vt We can also compute. using (5.3 Prove.13) .5 Laplace transforms µ2 2 t 0 Proposition 5. Therefore. (5. for any α ≥ 0.6) (ν) 2 Er exp(−aRt − µ2 2 t 0 ds ) 2 Rs = = (0) Er (γ) Er ν−γ Rt r Rt r ν 2 exp(−aRt − ν−γ µ2 + ν 2 2 t 0 ds ) 2 Rs 2 exp(−aRt ) where γ = µ2 + ν 2 . ∞ 1 1 From α = dv exp(−vx)v α−1 . 2006 63 5.3 For a BESQδ .

let µ be a positive. Ψµ (0) = 1. ∞[ and such that t ds Φµ (0) = 1.e. Prove that. If F is differentiable.5. and satisfies the Wronskian relation W (Φµ . an integration by parts leads to t t F (s)dρs = F (t)ρt − F (0)ρ0 − 0 0 ρs dF (s) and Zt = exp Let us choose F = 1 (F (t)ρt − F (0)x − δ 2 0 t F (s)ds) − 1 2 t 0 [F 2 (s)ρs ds + ρs dF (s)] Φ where Φ satisfies for a given b Φ Φ = b2 Φ. It is easy to check that Φ(t) = cosh(bt) − (tanh b) sinh(bt). Exercice 5. The BESQδ process ρ satisfies dρt = 2 ρt dWt + δ dt. one has Qδ exp − x Qδ exp − x 1 2 t Xs dµ(s) 0 ∞ = 1 Ψµ (t) δ/2 exp x 2 Φµ (0) − Φµ (t) ψµ (t) 1 2 Xs dµ(s) 0 = (Φµ (∞))δ/2 exp x Φ (0) 2 µ . Let Ψµ (t) = Φµ (t) . Zt = exp is a martingale and δ b2 1 1 = E(Z0 ) = E(Z1 ) = E exp − xΦ (0) − ln Φ(1) − 2 2 2 From Φ(1) = 1/ cosh b and Φ (0) = −b tanh b we get the result. Φ (1) = 0 . Prove that Ψ is a solution of the Sturm-Liouville equation and that Ψµ (0) = 0. non-increasing on [0.64 ´ Demonstration: For any locally bounded function F the process Zt = exp 0 def t Exemples 1 √ F (s) ρs dWs − 2 √ t 0 F 2 (s)ρs ds is a local martingale. for every t ≥ 0. Φ2 (s) 0 1. therefore Zt = exp 1 2 t F (s)d(ρs − δs) − 0 1 2 t 0 F 2 (s)ρs ds . Φ(0) = 1. The Sturm-Liouville R equation Φ = µΦ has a unique solution Φµ . diffuse Radon measure on I + . E exp 0 duφ(u)ru is known. Ψµ ) = Φµ Ψµ − Φµ Ψµ = 1 .4 We can extend the previous result and prove that the Laplace transform of the process. which is positive. i. More generally. t 1 1 b2 (F (t)ρt − F (0)x − δ ln Φ(t)) − 2 2 t ρs ds 0 Rs ds 0 . Then. 2.

6 5. we obtain P (rT > µ|r0 = ρ) = 1 − χ2 ( with c = σ 2 kT (e − 1). and α the parameter of non-centrality. The CIR process (5. 2006 65 5. P (T0 = ∞) = 1. σ From the second theorem on the existence of solutions to SDE. This law is a non-central chi-square with δ = 2(ν + 1) degrees of freedom. (If needed. the equation (5. 1). ) σ2 c c Exercice 5.6. .14) to the case σ = 2 : indeed. and m2 non-centrality parameter. the random variable Yt = rt (ρ)ekt /c has density P (Yt ∈ dy) = e−α/2 −y/2 ν/2 √ e y Iν ( yα)dy 2αν/2 where α = ρ/c.1 Cox-Ingersoll-Ross processes CIR processes and BESQ √ drt = k(θ − rt ) dt + σ rt dWt . then P (T0 < ∞) ∈]0. denoting by rt (ρ) the CIR process with initial value r0 (ρ) = ρ. (5.2 Transition probabilities for a CIR process From the expression of a CIR process as a change of time of a square Bessel process. If k < 0. see the following theorem ??). .14) is a space-time changed BESQ process: more precisely. ν/2 exp − ρ + rekt 2c Iν 1 c ρrekt 2kθ σ2 In particular. if Zt = rσ2 t/4 . rt = e−kt ρ( σ 2 kt (e − 1)) 4k 4kθ where (ρ(s).. . In the case 0 ≤ 2kθ < σ 2 x x and k > 0.1 The transition density P (rt ∈ dr|rs = ρ) = f (r.1 Let Xi . i .14)admits a unique x x non-negative solution. then dZt = k (θ − Zt ) dt + 2 Zt dBt with k = kσ 2 /4 and B is a Brownian motion. ρ)dr is given by f (r. the process r does not reach 0. n be n independent random variables with Xi = N (mi .e. we obtain using the density of the squared Bessel process given in (5. In σ 4kθ particular. .6. Let us assume that 2kθ ≥ σ 2 and denote T0 = inf{t ≥ 0 : rt = 0} the first x hitting time of 0. t − s. . If we denote by χ2 (δ. 4k loi 4θ ρ KeµT . i. Check 2 that i Xi has a non-central chi-square with d degrees of freedom. i = 1. with δ = 2 . t. s ≥ 0) is a BESQδ (α) process.8) Proposition 5. the process does not hit 0.6. Then. if 2 > 2. α.6. ρ) = where c = σ 2 kt (e − 1) and ν = 4k ekt rekt 2c ρ − 1.July 8. y) the cumulative distribution function of this law. 1[ . then P (T0 < ∞) = 1. def 5.14) The Cox-Ingersoll-Ross (CIR) process is the solution of Change of time The change of time A(t) = σ 2 t/4 reduces the study of the solution of (5.

θ = k(θ/k).66 Exemples 5. In particular. In the risk adjusted economy.5. Therefore.6.3 CIR model for spot rate The Cox-Ingersoll-Ross model for interest rate is the object of many studies since the seminal paper of Cox et al. Even if no closed-form expression can be written for rt . the dynamics are supposed to be given by : √ √ ˜ ˜ drt = (k(θ − rt ) − λrt )dt + σ rt dWt = k(θ − rt )dt + σ rt dWt ˜ ˜ ˜ where (Wt .4). i. it is remarkable that the Laplace transform of the process. we shall establish formulae under a general dynamics of the form (??). t E exp 0 duφ(u)ru is known (See Exercise 5. the expectation and the variance of the random variable rt can be computed. k = k + λ.e. . [?] where the authors assume that the riskless rate r follows a square root process under the historical probability given by √ ˜ ˜ ˜ drt = k(θ − rt ) dt + σ rt dWt ˜ ˜ where k(θ − r) defines a mean reverting drift pulling the interest rate toward its long term value θ with ˜ a speed of adjustment equal to k. Dufresne has obtained formulae for the moments. and where λ denotes the market price of risk. t ≥ 0) is a Brownian motion under the risk adjusted probability Q.

on a P = (LT )−1 Q et EP (Y ) = EQ (L−1 Y ) et (L−1 . Ms = EQ (Mt |Fs ) = EP (Lt Mt |Fs ) Ls D’o` le r´sultat. Montesquieu. On suppose P et Q ´quivalentes. que c’est un tr`s grand hasard si e e celles d’une nation peuvent convenir ` une autre”.a. c’est-`-dire telle que EQ (X) = EP (Lt X) pour toute variable X Q-int´grable Ft -mesurable pour a e t ≤ T . En particulier. De plus. P ) et un horizon fini T . LT FT -mesurable a e telle que Q = LT P sur FT (Th´or`me de Radon-Nikodym). Ft . Soit Lt = EP (LT |Ft ). Il convient de faire attention aux e ee propri´t´s d’int´grabilit´. On parlera de la loi1 d’une variable (d’un processus) sous P ou sous Q suivant que l’espace est muni de la probabilit´ P ou Q. a e chap. 6. Une propri´t´ vraie P -p. a e e EQ (X) = EP (LT X) = EP [EP (XLT |Ft )] = EP [XEP (LT |Ft )] = EP (XLt ). pour s ≤ t. F. La r´ciproque r´sulte de la formule de Bayes . t ≤ T ) est une martingale et est la densit´ Ft -mesurable de Radon-Nikodym de Q par e rapport ` P sur Ft . est vraie Q-p. En utilisant la formule de Bayes et la propri´t´ de P ee martingale de L. ∀t ≤ T ´ Demonstration: Si la restriction de P et Q ` FT sont ´quivalentes. il existe une v. u e e e 1 “ Les lois doivent tellement ˆtre propres au peuple pour lesquelles elles sont faites.s. on obtient. FT ). t ≤ T ). une v. L0 = 1 et EP (Lt ) = 1.1 6. si X est Ft -mesurable et Q int´grable (par exemple born´e). En effet. 1). Par construction (Lt .a. On dit que LT est la densit´ de Q par e e e rapport ` P et EQ (X) = EP (LT X) pour toute variable X FT -mesurable et Q-int´grable (Voir Rappels. P − (Ft )-martingale strictement positive telle que Q = LT P sur FT et Q|Ft = Lt P|Ft .s. ee e e e e e e Proposition 6.1. Il est ` remarquer que dans ce cas. LT est strictement positive et EP (LT ) = 1. t ≤ T ) est a t T une Q-martingale.1 Th´or`me de Girsanov e e Changement de probabilit´ e Proposition 6.2 On a ´quivalence entre M est une Q-martingale et LM est une P -martingale.Chapter 6 CHANGEMENT DE ´ PROBABILITE On travaille avec un espace (Ω. a 67 . ´ Demonstration: Soit M une Q-martingale. Alors e e il existe (Lt . P int´grable n’est pas n´cessairement Q-int´grable.1 Soient P et Q deux probabilit´s sur (Ω.1.1.

2 (6.1. t ≥ 0) est une e P -martingale locale par application de la formule d’Itˆ. Il faut donc montrer que exp(λBt − t) est une Q2 2 martingale. e W(ν) |Ft = exp(νWt − ν2 t)W|Ft . Dans le membre de droite. 2 On suppose que Q est une probabilit´.1 Soit (Bt . L est une surmartingale d’esp´rance strictement plus petite que 1.1. e u ˜ 2 e Sous la condition de Novikov EP (exp 1 0 θs ds) < ∞.2 Th´or`me de Girsanov e e On peut d´montrer le r´sultat suivant. Le processus Bt s’´crit Bt := Bt + 0 θs ds o` B est un Q-mouvement brownien. Le crochet de la Q-semi martingale B est le mˆme que Q-martingale. W est l’application canonique. Z t = Nt − N. la variable muette peut s’appeller x ou y). On peut ´galement v´rifier que B e e Une fa¸on d’utiliser le th´or`me de Girsanov est la g´n´ralisation suivante c e e e e Proposition 6. Z t .68 Changement de probabilit´ e 6. t ≥ 0) un mouvement brownien sur un espace (Ω. Nous e e verrons plus loin pourquoi nous utilisons des martingales L de cette forme. Le processus (Nt − e N. Le crochet ne d´pendant pas du choix de e ˜ la probabilit´. e 2 ˜2 ˜t − t est une Q-martingale. t ≤ T 2 0 s 0 o` θ est un processus (Ft )-adapt´ (autrement dit dLt = Lt θt dBt ). e e e a e e car le crochet est d´fini comme limite des variations quadratiques. P ) et (Ft ) sa filtration e e canonique. Si N est une P -martingale locale continue. Cette ´criture traduit que e e W(ν) (F (Xu . Le crochet de N ne d´pend pas de la probabilit´ o e e sous laquelle on travaille (sous r´serve que cette probabilit´ soit ´quivalente ` la probabilit´ de d´part). le processus (Nt − e 1 N. u ≤ t)) = W(exp(νXt − ν2 t)F (Xu . Dans le cas g´n´ral. ce qui est ´vident. On suppose E(LT ) = 1. car BL e ˜ celui de sa partie martingale. T ´ Demonstration: Dans le cas θ = m (constante) on utilise la caract´risation du Brownien par e λ2 λ2 ˜ la propri´t´ de martingale de exp(λBt − ee t). Elle est not´e e W pour faire penser au Brownien mais pourrait ˆtre not´e X comme nous allons le faire (comme dans e e une int´grale. Si L n’est pas d’esp´rance 1. LT est une variable positive d’esp´rance 1 sous 2 P et L est une P -martingale. L t . ou que Lt exp(λ(Bt − mt) − λ2 1 t) = exp((λ + m)Bt − [2mλ + (m2 + λ2 )]t) 2 2 ˜ est une P -martingale. On obtient ainsi l’absolue c e e continuit´ de W (loi du Brownien) et W(ν) (loi du Brownien de drift ν). Z t . le crochet de B est t. t ≥ 0) est une Q-martingale locale continue de crochet N t .1) Quelques mots d’explications. on peut facilement v´rifier que B est une e e e e ˜ est une P -martingale. Soit u e def t ˜ dQ|FT = LT dP |FT .3 Soit Z une P -martingale locale continue et Q d´finie sur Ft par e dQ = exp(Zt − 1 Z t )dP = Lt dP. Soit t 1 t 2 Lt := exp[ θs dBs − θ ds]. et le crochet de B est aussi t. e Une autre fa¸on d’´crire ce r´sultat est de se placer sur l’espace canonique. connu sous le nom de th´or`me de Girsanov e e e e Th´or`me 6. car (Bt − t)Lt est une P martingale. Lt 1 ´ Demonstration: La martingale Lt = exp(Zt − 2 Z t ) v´rifie dLt = Lt dZt . t ≥ 0) est une Q-martingale locale: il suffit de v´rifier que (Lt Nt − Lt N. soit celui de la Q-martingale B. u ≤ t)) 2 . F.1.

e T Le processus (L−1 . Le terme W(ν) (F (Xu .1). on obtient L−1 = exp[− 0 θ(s)dBs − 2 0 θ2 (s)ds]. u ˜ e Remarquer que ceci se g´n´ralise au cas o` t est un temps d’arrˆt et aussi au cas o` le changement de e e u e u t 1 t 2 probabilit´ est de la forme exp( e θs dWs − θ ds).1). u ≤ t)) est W(exp(νXt − t)f (Xt )) = E((exp(νWt − t)f (Wt )) 2 2 2 o` dans le terme de droite W est un brownien. T I = W(Xt exp( 0 θs dXs − 1 2 T 0 2 θs ds)) = W(θ) (Xt ) = W(Xt + t θs ds) 0 On peut en guise d’application calculer E(Bt exp Bt ). Cette formule est souvent utile.3 Remarques En utilisant les formules exponentielles d´ja vues. avec T L−1 = exp[− T T θ(s)dBs + 0 1 2 T 0 θ2 (s)ds]. 2 b. o` B est un brownien. t ≥ 0) un Brownien de drift u ν2 ν2 ν2 ν). on a e t t 0 2 dsBs ] Lt = exp[−b 0 Bs dBs − b2 2 t 0 2 dsBs ] . Il convient de remarquer que P s’obtient en fonction de Q par dP = L−1 dQ. t T 6. L0 = e 1. C’est exactement l’´criture (6. 1 T 2 0 1 T 2 0 2 θs ds]).4 Exercices T 0 a. on effectue le changeu 2 θs ds] et on a t t t Si l’on veut calculer I = E(Bt exp[ ment de probabilit´ avec Lt = exp[ e T θs dBs − 0 t θ dBs − 0 s ˜ I = EP (LT Bt ) = EP (Lt Bt ) = EQ (Bt ) = EQ (Bt + 0 θs ds) = 0 EQ (θs ) ds = 0 θs ds. u ≤ t)) est alors W(ν) (f (Xt )) = E(f (Wt +νt)) o` dans le terme de droite W est un brownien (et donc (Wt +νt. Calcul de I = E(exp[−αBt − b2 2 t 0 2 dsBs ]) o` B est un brownien issu de a u On pose x = a2 et on d´finit P b par dP b = Lt dP avec e b 2 b2 Lt = exp[− (Bt − x − t) − 2 2 En utilisant la formule d’int´gration par parties. on remarque que L est solution de dLt = Lt θt dBt . Le terme W(exp(νXt − t)F (Xu .July 8. Regardons le cas particulier F (Xu . 2006 69 pour toute fonctionnelle F . t ≥ 0) est une Q martingale. u ≤ t)) = f (Xt ). Calcul de E(Bt exp[ θs dBs − 1 2 T 0 2 e θs ds]) pour t < T et θ d´terministe. e 6.1. alors 2 EP (exp(νWt − ν2 ˜ t)f (Wt )) = EQ (f (Wt )) = EQ (f (Wt + νt))) 2 o` W est un Brownien sous Q. mais il faut se souvenir que B est un brownien sous P . Le th´or`me de Girsanov nous dit que si W est un u e e ν2 brownien sous P et dQ|Ft = exp(νWt − t)dP |Ft .1. 2 0 s 0 On parle de formule de Cameron-Martin quand θ est d´terministe. Utilisons sur cet exemple la notation (6. et si X ∈ FT on a EP (X) = EQ (L−1 X). Si l’on veut T 1 T ˜ ´crire L en terme de Brownien sous Q.

La formule d’Itˆ conduit ` o a d(LB (1) ) = LB (1) (θ1 dB (1) + θ2 dB (2) ) + L(dB (1) − (θ1 + ρθ2 )dt) + L(θ1 dt + θ2 ρdt) 0 . Ft la filtration naturelle du couple e B (1) . Sous Q. α xb 1 + 2α coth bt b sinh bt)−1/2 exp[− ].1.5 Cas vectoriel Mouvement Brownien standard Si B (1) et B (2) sont ind´pendants sous P et si dQ = Lt dP avec Lt = L1 L2 et e t t Li = exp t on v´rifie que dLt = Lt (θt dBt e ind´pendants. B (2) et dQ|Ft = Lt dP |Ft avec dLt = Lt (θ(1) dBt + θ(2) dBt ). t ≥ 0) est un brownien issu de a et βt = Bt −a t Bt = a + βt − b 0 ds Bs donc B est un processus d’Ornstein-Uhlenbeck sous P b et Bt est une v. Sous P . pour montrer que B (1) est un Q-MB. 2 t 2πt3 dt 6. (Bt = Bt +b b est un brownien issu de 0. b 2 coth bt + 2α b ´ Demonstration: Il suffit de remarquer que pour λ > 0. ν E(exp(−λTa )) = exp(νa − |a| ν 2 + 2λ) . ν ν E (exp(−λTa ))) = E(1 (Ta <∞) exp(−λTa )) = 1 ν = = W(ν) (exp(−λTa )1 (Ta <∞) ) 1 1 W(exp(νXT a − ν 2 T a ) exp(−λTa )1 (Ta ∞) ) 1 < 2 1 eνa W[exp(− (ν 2 + 2λ)T a )] 2 ν On verra dans la section ?? d’autres applications. Temps d’atteinte ν Proposition 6. sous Q .) En effet. Bt = Bt − (1) (2) (i) (i) t (1) (1) (2) t 0 (2) (i) (i) θs dBs − 1 2 t 0 (i) (θs )2 ds t 0 + θt dBt ) et que. Xt = a} est le e 2 temps d’atteinte de a.1. Bt = Bt − (i) (i) θ(i) (s)ds sont des MB (θ(i) (s) + ρθ(j) (s))ds sont des MB de corr´lation ρ sous Q. e Cas de MB corr´l´s ee Soit B (1) et B (2) deux MB de coefficient de corr´lation ρ sous P .70 ˜ et L est une P martingale.4 Si X est le processus d´fini par Xt = νt + Bt et si Ta = inf{t ≥ 0. Sous P b . on a pour λ tel que ν + 2λ > 0. on a t 0 Changement de probabilit´ e ˜ ds Bs . On obtient ν P (Ta ∈ dt) = √ 1 a2 aeνa exp(− ( + ν 2 t)) . il suffit de v´rifier que LB (1) est une Q-martingale e locale.a. On a 2 I = E b (L−1 exp[−αBt − t b2 2 t 0 b 2 2 2 dsBs ]) = E b [exp[−αBt + (Bt − x − t))) 2 Il reste quelques calculs simples et longs pour obtenir I = (cosh bt + 2 d. gaussienne d’esp´rance ae−bt e 1 et de variance 2b (1 − e−2bt ). Remarque P (Ta < ∞) = 1 si aν > 0 et ν P (Ta < ∞) < 1 sinon. (Mais l’´galit´ entre L et le produit L1 L2 n a pas e e e lieu.

sous r´serve d’int´grabilit´ e e e de θ. e u ˜ dSt = S(t)(rdt + σdBt ) . En effet b(t) − r(t) dBt = dWt − θ(t)dt = dWt + dt σ(t) est un Q-MB et b(t)dt + σ(t)dWt = b(t)dt + σ(t)[dBt + θ(t)dt] = r(t)dt + σ(t)dBt La probabilit´ Q est appell´e probabilit´ risque neutre. Soit Rt = exp − 0 r(s) ds le coefficient e e e d’actualisation. Dans le cas d’un call europ´en. Comme nous l’avons dit. positive FT mesurable. Dans le cas du mod`le de Black et Scholes. int´grable (on admet l’existence d’un tel u e portefuille pour le moment).July 8. (6. c’est donc une Q e a martingale locale. dS(t) = S(t)[bdt + σ dBt ] o` b et σ sont constants. Le processus V est une int´grale stochastique par rapport ` une Q-martingale. On peut remarquer que. par d´finition dVt = αt dSt + πt dSt . Soit Vt la valeur en t d’un portefeuille auto-finan¸ant dupliquant c l’actif contingent ζ o` ζ est une v. Si on note e ˜ ˜ ˜ ˜ Vt := e−rt Vt et St := e−rt St . si l’on connait 1 ˜ ˜ π. π tel que Vt := αt St + πt St 0 et VT = ζ.2) On remarque qu’` tout processus π et ` toute valeur initiale x on peut associer un α tel que le couple a a t ˜ ˜ (α.2). Le processus SR des prix actualis´s v´rifie d(St Rt ) = St Rt σt dBt .2. Si c’est une martingale. Il suffit de prendre dQ|Ft = Lt dP |Ft u avec L solution de L0 = 1.2 Application aux mod`les financiers e dS(t) = S(t)[b(t)dt + σ(t)dWt ]. dLt = Lt θ(t)dWt avec θ(t) = −σ −1 (t)(b(t) − r(t)).a. 0 ´ Demonstration: Admettons l’existence d’un portefeuille de duplication α.3) Le portefeuille de couverture s’obtient au moyen de (6. la valeur Vt du portefeuille de duplication aussi. a St Il reste ` prouver l’existence de π ce qui est obtenu au moins th´oriquement au moyen d’un th´or`me a e e e de repr´sentation (Voir chapitre sur les compl´ments). et r est le taux sans risque. il faut identifier la probabilit´ risque neutre. ζ est ´gale ` (ST − K)+ . calculer e e e EQ (e−rT ζ |Ft ) et identifier le π. et est une Qe e martingale locale. (6. il reste ` poser αt = 0 (Vt − πt St ) = Vt − πt St . π) soit autofinancant de valeur initiale x.2. ˜ ˜ Vt = EQ (VT |Ft ) = EQ (e−rT ζ |Ft ). Soit S v´rifiant e On peut trouver une (et une seule) probabilit´ Q ´quivalente ` P telle que e e a dS(t) = S(t)[r(t)dt + σ(t)dBt ] o` B est un Q-mouvement Brownien. Il suffit de calculer Vt = V0 + 0 πs dSs et de choisir αt tel rt ˜ 0 que Vt = e Vt = αt St + πt St . La condition d’autofinancement est. t 6. les valeurs actualis´es on montre facilement que dVt = πt dSt soit e ˜ Vt = V0 + 0 t ˜ πs dSs = V0 + 0 t πs Ss Rs σs dBs .1 Application ` la valorisation d’un actif contingent en march´ complet a e On se place dans le cas r constant. e e a Proposition 6. 2006 71 6. puisque ζ est positif. e e La m´thode est alors la suivante: pour ´valuer ζ.1 Le processus V R est une Q-martingale et EQ (RT VT |Ft ) = EQ [RT ζ |Ft ] = Vt Rt .

Su )dSu ∂x ˜ en tenant compte du fait que F (t. π) = πt e + πt St is the t-time value of the portfolio. St ) avec F (t. on peut donc l’utiliser e ˆ ˆ ˆ comme changement de probabilit´. et on parle de Delta hedging. ∂x Le terme ∂F (t.2 Arbitrages Un arbitrage est une possibilit´ d’investir dans le march´ financier sans mise de fonds (avec une richesse e e initiale nulle) et de terminer avec un portefuille de valeur positive quelque soit l’´volution du march´. ˜ θ=− . le processus B = B − σdt est un MB et e ˆt + σdt)) = St (r + σ 2 )dt + σdB) soit ˆ dSt = St (rdt + σ(dB ST = S0 exp[(r + σ 2 − σ2 σ2 ˆ ˆ )T + σ BT ] = S0 exp[(r + )T + σ BT ] 2 2 ˆ EQ (ST e−rT 1 ST >K ) = S0 EQ (MT 1 ST >K/S0 ) = S0 Q(ST > K/S0 ) 1 1 et nous savons calculer cette quantit´ qui s’´crit e e 1 σ2 ˆ ˆ Q(BT > ln(K/S0 ) − (r + )T ). πt . c’est un portefuille π adapt´ tel que la valeur terminale e de la strat´gie auto-financante associ´e soit positive: e e V0 (π) = 0. x). the self-financing condition 0 dVt (π 0 .3 Hedging methodology S Let S be a semi-martingale which represents the price of the risky asset and denote by (Ft . On pose St e−rt = S0 Mt o` M est la e e u Q-martingale dMt = σMt dBt .72 Changement de probabilit´ e o` B est un Q-MB et S est un Brownien g´om´trique. VT (π) ≥ 0.2. t ≥ 0) the S filtration generated by S. e e non identiquement nul. S0 ) + 0 t ∂F ˜ (u. St ) = F (0. Soit Q = Mt dQ. On retrouve l’EDP d’´valuation en ´crivant e e ˜ que le drift de F (t. π) = rπt ert dt + πt dSt . Le MB B σ On peut donc calculer l’esp´rance conditionnelle (6. 0 0 rt if Vt (π . On a dQ = Lt dP avec dLt = Lt θdBt pour u ˜ e e µ−r ˜ est dB = dB − θdt. e e e 6. St ) est une martingale. e ∂x On obtient ´galement e Vt = = EQ (e−r(T −t) (ST − K)+ )|Ft ) e−rt EQ (ST e−rT 1 ST >K ) − Ke−rt EQ (e−rT 1 ST >K ) 1 1 Le premier terme peut se calculer ` la main. St ) est appell´ le Delta du call. C’est une martingale positive d’esp´rance 1. On peut aussi ´crire que St e−rt /S0 est une martingale a e positive d’esp´rance 1 et faire un changement de probabilit´. σ 2 Voir le paragraphe sur le changement de num´raire.3) dans le cas ζ = (ST − K)+ . St ) est nul On peut donc prendre ∂F πt = (t. t ≥ 0) such that. A contingent claim H is an FT -measurable random variable where T is a 0 fixed horizon.2. La formule d’Itˆ montre que o ˜ ˜ F (t. En termes probabilistes. x) = xN (d1 ) − Ke−r(T −t) N (d2 ) e ee (cf. St ). E(VT ) > 0 . Sous Q. ˜ Soit F (t. formule de Black-Scholes). x) := e−rt F (t. An hedging portfolio consists of a pair of predictable processes (πt . Il est facile de e v´rifier (utiliser la propri´t´ de Markov) que Vt = F (t. L’hypoth`se de non arbitrage stipule que l’on doit exclure de telles opportunit´s du mod`le. e 6.

. In particular if Vt = e−rt Vt is the t ˜ ˜ discounted value of the portfolio. t ≥ 0) is a P -martingale (i. one gets that h satisfies the so-called evaluation equation 1 ∂t v(t. From the second theorem of asset pricing. Let us recall that a Markov process X is an F-adapted process such that for t ≥ s and for every bounded Borelian function f . The first theorem of asset pricing states that the market is arbitrage free if and only if there exists a probability Q (called an equivalent martingale measure. The infinitesimal generator of a Markov process is the operator L defined on a set D of smooth functions t such that for f ∈ D. . Hence. in short emm). The value Vt = Vt (π 0 .e. . and assume that S is a Markov process. Some technical hypotheses (integrability of π and existence of a lower bound for V ) have to be taken into account in order to avoid arbitrage strategies as doubling strategies. If moreover. T For h ∈ L2 ([0. Xt )dt + σ(t. the Brownian motion enjoys the predictable representation property. Xt )dWt where a and σ are Lipschitz function is a Markov process (see Karatzas and Shreve (1999)) with generator F(f ) = ∂t f + a(t. the discounted ˜ is a Q-martingale). The Clark-Ocone repree sentation formula states that T F = E(F ) + 0 E(Dt F |Ft )dWt . say Vt (H) = v(t. St )dt + σ(t. . .July 8. hence is a Q-martingale. the market is shown to be complete. dQ|Ft = Lt dP |Ft ) a process Z is the t-time value of a ˜ self-financing portfolio if and only if the process (Lt Zt . whence the existence of an hedging strategy is obtained from the obvious remark that the filtration generated by S is equal to the filtration generated by B. the price Vt (H) of the contingent claim H is defined as the value of the hedging portfolio and is given by S Vt (H) = ert EQ (He−rT |Ft ) . the process f (t. x)∂xx f . 2 Let S be a solution of dSt = St (µ(t. from the definition. equivalent to P such that discounted prices are Q-martingales. one can use Malliavin’s derivative (see Nualart (1995) for more comments). . it can be obtained from the hedging price process V as follows. x) = h(x) and the risky part π of the hedging strategy is given by the derivative of v with respect to the second variable. the derivative of a random variable of the form F = f (W (h1 ). and from the hypothesis that σ and S do not vanish. x) = r(t)v(t. In order to hedge contingent claims. i. . the discounted value of an hedging portfolio is a stochastic integral with respect to the discounted value of the asset. St ). then Vt (H) is a function of t and St . Itˆ’s formula implies that Vt = V0 + 0 πs dSs . ∂xi It is noticeable that this derivative can be interpreted as a Fr`chet derivative. the contingent claim is of European type. x) + σ 2 (t. W (hn )) is defined as the process (Dt F. which states that any FT -measurable ranT ˜ dom variable can be written as x + 0 πs dSs for a predictable process π. x) + r(t)x∂x v(t. The uniqueness of the emm is linked with the predictable S representation property of the discounted price process S. Xt ) − 0 Ff (s. x)x2 ∂xx v(t. a self-financing o strategy (π 0 . The process X is a strong Markov process if for any finite stopping time τ and any bounded Borelian function f . an arbitrage free market is complete if and only if there exists a unique emm. . E(f (Xτ +t )|FT ) = E(f (Xτ +t )|XT ). denoting by L the Radon-Nikodym density of the emm (i. (We avoid here the distinction between local martingales and martingales).e. the explicit value of the hedging portfolio π is crucial. H = h(ST ). π) is characterized by the knowledge of its initial value V0 and of its risky part π. . In a Markovian setting.e. The solution of a stochastic differential equation dXt = a(t. process Z In the Black and Scholes framework. In a more general setting. t ≤ T ) by n Dt F = i=1 ∂f (W (h1 ). Indeed. In that case. For a smooth function f . Thanks to the martingale property of the discounted prices and using Itˆ’s o formula. T ]). A market is said to be complete if any contingent claim H admits an hedging portfolio. In that case. W (hn ))hi (t) . x)∂x f + 1 σ 2 (t. 2006 73 ˜ holds and VT = H. let W (h) = 0 h(s)dWs . St )dWt ). Indeed. π) is the t-time price of H. Xs )ds is a martingale. x) 2 with the boundary condition v(T. E(f (Xt )|Fs ) = E(f (Xt )|Xs ).

1 D´finitions e On donne les mˆmes d´finitions qu’en temps discret. On peut montrer que la borne sup´rieure de la fourchette e de prix est la plus petite valeur initiale d’un portefeuille de surcouverture. et ` en d´duire e a e e e a e l’expression du taux spot. e e e to maturity.a. T ) = 1. Dans ce cas. On appelle z´ro-coupon de maturit´ T . dans le cas g´n´ral [?].3. on ´value e e e les actifs de la mˆme fa¸on. Ce th´or`me est tr`s difficile et e e e e e n´cessite quelques hypoth`ses techniques. il a existe un z´ro-coupon de maturit´ T . T ) d´fini par a e e e P (t. Nous allons ´voquer ici comment un changement de probabilit´ permet de valoriser facilement des produits e e sur taux. T ) = − 1 T −t T ∂ ln P (t.4 Arbitrage et mme On peut montrer que l’hypoth`se d’absence d’opportunit´ d’arbitrage ´quivaut ` l’existence d’une probe e e a abilit´ Q telle que sous Q les prix actualis´s sont des martingales.3 Probabilit´ forward-neutre e Diff´rentes approches sont utilis´es en temps continu pour ´tudier la structure par terme des taux. . T ) = exp −(T − t)Y (t. T ). hence T Changement de probabilit´ e f (WT ) = E(f (WT )) + 0 E(f (WT )|Ft )dWt .O. T ) ∂T = f (t.5 Cas g´n´ral e e Lorsqu’il existe une unique probabilit´ telle que les actifs actualis´s sont des martingales.2. the derivative of F = f (WT ) is f (WT ). θ=T On a alors Y (t. e e Le prix ` la date t d’un z´ro-coupon d’´ch´ance T est not´ P (t. et ne donnant aucun flux entre t et T . 6.74 As an example. De telles probabilit´s sont appell´es mesures martingale ´quivalentes e c e e e (MME). un titre e e e e versant un franc ` la date T . T ). soit Y (t. e e e e 6. t). 6. T ) := − T →t 2 cette 3 yield ∂ ln P (t. le march´ e e n’est pas complet. soit SF (t) = e e . On consultera [?] et.2. on appelle prix forward de S le prix e S(t) exprim´ en unit´s de la date T . t Le taux spot instantan´ est e r(t) = lim Y (t. Il se peut qu’il existe plusieurs (et dans ce cas c’est une infinit´) MME. P (t. On a P (T. La e e e premi`re consiste ` mod`liser le prix des z´ro-coupons en respectant l’hypoth`se d’A. u) du. a e e e e Si S(t) est le prix d’un actif financier en unit´s de la date t. T =t hypoth`se n’est pas r´alis´e en pratique. 6. et l’on peut associer ` toute v. pour tout T . θ) ∂θ . Le taux spot forward en t pour la maturit´ T est e f (t. On suppose2 que. supQ EQ (e−rT h(ST )[. T ) = f (t.A. ζ = h(ST ) une fourchette de prix d´finie par a e ] inf Q EQ (e−rT h(ST ). T ) On introduit le rendement ` l’´ch´ance3 en t. Une autre approche utilise le taux spot comme variable explicative.

T ) est une Q-martingale. On en d´duit. Ed. s + t) des a a taux d’int´rˆt de maturit´ s + t au jour t. sous une hypoth`se de diff´rentiabilit´. On peut ` chaque instant t observer une gamme des taux. pour ´viter les opportunit´s d’arbitrage entre des produits de maturit´s diff´rentes. le processus R(t)P (t. T ) est d´rivable par rapport ` T de d´riv´e continue. On v´rifie que. on obtient ee ıne e e que P (0. Si ce flux est al´atoire. 2006 La courbe des taux est la fonction θ → Y (t. e a 4 “Je pr´f`re la certitude aux calculs des probabilit´s” Pr´vert.) e a des z´ro-coupons est connu. adapt´s. o` Fc est l’´quivalent certain4 de F et e e u e est d´fini par e T 1 Fc = EQ [F exp − r(u) du |Ft ]. T ). θ). . e e T on a f (t. T ) est une martingale. T ) = EQ [exp − t r(u) du |Ft ] 6. T ) = exp − t r(s) ds. l’existence e e e e e e T d’une fonction r telle que P (t. c’est ` dire Y (0.3. On d´sire ´tudier le comportement de la courbe Y (t.July 8. continus et que e e P (t. T ) = f (0. u)P (u. T ). ∀t ≤ u ≤ T . la valeur ` la date t de ce flux est e a T EQ [F exp − t r(u) du |Ft ]. Pl´iade. p. T ) = EQ (R(T )). T ) t Nous allons ´crire cette derni`re ´galit´ en utilisant un changement de probabilit´. T ). puisque P (T. T ) sont positifs.247 ee e e e e . a Dans un mod`le d´terministe. Dans un mod`le stochastique. T ) = 1. P (t. e e e e e Par hypoth´se A. ∀ t ≤ T et Y (t. .. La Tour. e e ´gale ` P (0. comme dans le mod`le discret. T ) = T 1 t r(u) du. Cette propri´t´ est vraie pour e e ee tout T . Pour expliciter e a l’hypoth`se d’A. le prix P (t.A. Le rendement ` l’´ch´ance est la a e e −t valeur moyenne du taux spot.) sont Ft -mesurables. . le processus R(t)P (t. Tout d’abord. Oeuvres compl`tes. Il est possible d’interpr´ter cette formule en l’´crivant Fc P (t. T ) = F EQ [exp − t r(u) du |Ft ]. e e e e Cette propri´t´ entraˆ des r´sultats int´ressants.O. on doit avoir e e P (t. On suppose qu’` la date t.2 Changement de num´raire e a. c’est-`-dire la famille s → Y (t.O. θ). pour ´viter les opportunit´s d’arbitrage. on se donne comme toujours un espace probabilis´ muni d’une filtrae e tion Ft que l’on supposera ˆtre une filtration Brownienne. Probabilit´ forward-neutre e La valeur ` la date t d’un flux d´terministe F re¸u ` la date T est a e c a T F P (t. son esp´rance est constante. T ) = P (t. et que T P (t.¡ e a e e On suppose qu’il existe une probabilit´ Q sous laquelle les prix actualis´s sont des martingales de e e carr´ int´grable : sous Q.A. c’est-`-dire que les variables P (t. Le facteur d’actualisation est R(t) := exp − 0 t 75 r(s) ds. T ) = r(T ) . θ) en ee e e e fonction de la courbe des taux aujourd’hui. on suppose que les processus P (.

T )ζs P (s. e ee Proposition 6. 0 ≤ t ≤ T ) est une martingale sous QT . T ). l’´quivalent certain Fc est appell´ le prix ` terme de F . T ) T donc utiliser ζt comme densit´ de changement de probabilit´. Il n’y a aucun versement d’argent ` la signature. e e En particulier f (0. Soit X un processus de prix. T ) est une Q-martingale positive d’esp´rance 1. le processus ζt := Changement de probabilit´ e R(t)P (t.76 T Pour tout T . P (0. Le prix d’un contrat future (prix future) est H(t) = EQ (V (T )|Ft ) .3. ζt Lorsque F est la valeur d’un titre. e On peut aussi d´tailler: D’apr`s la formule du changement de probabilit´ dans les esp´rances conditione e e e nelles on a EQT Xt |Fs P (t. FT ) par QT (A) = EQ (ζt 1A ) pour tout A ∈ Ft . Si r est d´terministe. e La mesure QT est la martingale mesure associ´e au choix du z´ro-coupon de maturit´ T comme e e e num´raire. on notera ζt = ζt . Taux spot Proposition 6. Soit QT la mesure de probabilit´ d´finie e e e e T T sur (Ω. On peut e P (0. T ) est une Q martingale. e D´finition 6. c’est imm´diat. T ) = EQT (r(T )) est le prix ` la date 0 d’un contrat forward ´crit sur le taux spot a e de mˆme maturit´. e e c.3. T ) est une QT -martingale f (t. comme l’explicite la propri´t´ suivante. Contrats forward et futures Un contrat forward est l’engagement d’acheter le sous jacent au prix pr´vu au moment de la signature e du contrat. Nous voulons montrer que (Xt /P (t. QT = Q. . par e e e neutre de maturit´ T . T ) = EQT [rT |Ft ] .1 La probabilit´ QT d´finie sur FT . T ) = EQ Xt ζt P (t.3. le processus des e e prix actualis´s (Xt R(t). a Proposition 6. e Avec cette notation EQT (F |Ft ) = EQ (F dQT T = ζt est appel´e probabilit´ forwarde e dQ ζT |Ft ) = Fc . t ≥ 0) est une Q-martingale. ´gale au prix forward d’un contrat ´crit sur le taux spot. le prix forward (Xt /P (t. prix future et forward sont ´gaux. e e Le prix d’un z´ro-coupon s’exprime en fonction du taux spot par e T P (t. Comme Xt ζt /P (t. T ) = exp − t EQs [rs |Ft ] ds . T ) = e a Xt R(t)/P (0. Lorsque T est fix´. e e a Lorsque r est d´terministe.3. t ≤ T.1 Si X est un processus de prix. t ≤ T ) e est une QT -martingale. Par d´finition de la martingale mesure Q.T ) |Fs EQ [ζt |Fs ] = EQ [Xt Rt |Fs ] Xs = . T ).3 Le taux spot forward f (t. T ) b.2 Le prix ` la date t d’un contrat forward de maturit´ T sur un actif dont le processus a e de prix est V (s) est G(t) = EQT (V (T )|Ft ) . t ≤ T. ce qui ´quivaut ` (Xt ζt /P (t. T ). Soit T fix´.

T +h) P (t. h→0 h T t f (t. Par d´finition ln P (t. donc P (t. Tn ) − K .1 Le prix d’une option Europ´enne de prix d’exercice K et de maturit´ T sur un produit e e e e qui verse des flux Fn aux dates Tn est N C(0) = n=1 Fn P (0. T ) = exp − t EQs [rs |Ft ] ds . e e 6.3 Changement de num´raire e Il peut ˆtre utile de faire un autre changement de num´raire.T ) 77 Le processus P (t. il en r´sulte que e 1 EQT {(P (T. T ) est ´gal ` limh→0 e e a est un processus de prix.T ) . d. Tn . u En particulier T EQT (Z) = EQ (Z) − 0 CovQu (Z. le taux forward f (t. Prix forward. T ) = − e T f (t. T + h) − 1) |Ft }. Tn )Qn [V (T ) > K] − KP (0.4 Le prix ` la date 0 d’un contrat forward de maturit´ T ´crit sur Z est le prix ` la a e e a date 0 d’un contrat future de mˆme nature moins un biais de covariance. s)ds. T ) = − lim soit f (t. 2006 Par d´finition. Soit Z une variable int´grable FT e e mesurable et Zu = EQ (Z|Fu ) T EQT (Z |Ft ) = EQ (Z |Ft ) − t CovQu (Zu . C(0) = EQ (RT (V (T ) − K)+ ) = EQ RT n=1 Fn P (T. T ) = EQT [rT |Ft ].July 8.T ) P (t. e 6. r(u) |Ft ) du. Y |Ft ) = EQu (XY |Ft ) − EQu (X|Ft )EQu (Y |Ft ). prix future On peut pr´ciser la relation entre prix forward et prix future.3. o` CovQu (X. Proposition 6. Tn ). h P (t. r(u)) du. T )QT [V (T ) > K] o` Qn est la probabilit´ forward neutre de maturit´ Tn . par exemple de choisir un actif S comme e e unit´ mon´taire. u e e Par d´finition e  N +  .3. d’o` u P (t.3.3.4 Valorisation d’une option sur obligation ` coupons a −1 C(t) = Rt EQ [h(T )RT |Ft ] . T < Tn < Tn+1 et soit V (t) = n=1 Th´or`me 6. Le prix d’une option Europ´enne de payoff h(T ) ` la date T est donn´ par e a e Consid´rons une option de maturit´ T sur un produit qui verse des flux d´terministes Fn aux dates e e e N Fn P (t.T +h)−P (t. T + h) est une QT -martingale.

Tn )1{V (T )>K} ] = P (0. e Le livre n’est pas termin´. Duras. eee ee e M. on a e EQ [RT P (T. elle n’a jamais ´t´ trouv´e. e La fin n’a pas ´t´ ´crite. Par d´finition de Qn . Tn )1{V (T )>K} ] − KEQ [RT 1{V (T )>K} ]. Editions de Minuit. L’´t´ 80. ee . Tn )EQn [1{V (T )>K} ] ce qui donne le r´sultat.78 ce qui s’´crit e N Changement de probabilit´ e C(0) = n=1 Fn EQ [RT P (T.

Az´ma and M. chapters I-IV. English translation : Probabilities and potentiel. Probabilit´s et Potentiel. A survey and some generalizations of Bessel processes. 1991. Devolder. CRC press. 1968. [12] N. e e S´minaire de Probabilit´s XXIII. e [6] C. Economica. A decomposition of Bessel bridges. [11] A. Breiman. Yor. G¨ing-Jaeschke and M. [4] R. Annals of Probability. Springer-Verlag. Bases math´matiques des probabilit´s. 1997. Econometrica. Z. J. [21] J. Theory of Martingales. Martingale Methods in Financial Modelling. Cox. Controlled difusion processes. pages 88–130. Shiryaev. Springere e Verlag.. editors. Stochastic Calculus: a Practical Introduction. North-Holland. Wojakowski. [19] J. Lectures on the mathematics of finance. 1975. Wahr. 6:760–770. B. Az´ma and M. Probability. Boca Raton. Bernoulli. E. [16] N. 1982. [9] R. North Holland. Stochastic Differential Equations. 79 . Heidelberg-Berlin-New York. A theory of term structure of interest rates. 2005. Yor. 1996. Ingersoll. and S. (1978). 2003. [2] L. Gebiete. second edition. 1989. Kluver. sixth edition. [14] I. Yor. Pitman and M. 1991. Les options de change. e e [20] B. Kent. 1989.Bibliography [1] J. [17] R. e [8] R. Chesney. o 9:313–349. Providence. Musiela and M. 1964. 2004.N. Yor. Tankov. Watanabe. 1996. Rutkowski. Neveu. Ikeda and S. Some probabilistic properties of Bessel functions. Presses de l’universit´ de Bruxelles. Cont and P. Kopp. Stochastic Calculus and Applications.E. [5] J. and R. Reading MA. Chapman & Hall/CRC. [15] J. second edition. Masson. Shreve. Springer.R. Øksendal. Springer-Verlag. In J. chapitres I-IV.V. Hermann. Paris. volume 1557 of Lecture Notes in Maths. Liptser and A. 53:385–408. Mathematics of Financial markets. Dellacherie and P. [3] M. 19. Marois. [18] M. [10] R.S. Berlin. Karatzas and S. Paris. Brownian Motion and Stochastic Calculus. Stochastic differential equations and diffusion processes. Karatzas. Durrett. Elliott and P. Springer Finance. [13] I. Bruxelles. 1985. Meyer. Berlin. 59:425–457.T. Berlin.A. Finance Stochastique. Ross. 1978.C.E. Paris. Berlin.A. 1995. Springer-Verlag. Elliott.W. Berlin. 1999. Etude d’une martingale remarquable. Addison-Wesley. 1998. Krylov. American Mathematical Society. [7] P. Springer-Verlag. 1982. Financial modeling with jump processes. Verw.

[26] W. 2000. Rogers and D.C. Chischester. Pliska. 2001. [23] Ph. Vol 1. edition. [25] L. Ingersoll and Ross model. Protter.G. Blackwell. Markov processes and Martingales. Springer Verlag. Cambridge. 2001.R. John Wiley. [24] D. 1999. Introduction to mathematical finance. Preprint. Revuz and M. [28] P. Yor. Cambridge University Press. third edition. second. Szatzschneider. Wilmott. Diffusions. 2005. Extended Cox. second edition. University Edition. Springer.1. version 2. Preprint. 1997. [27] W. Berlin. 1998. Berlin. Foundations. Oxford. Comments about CIR model as a part of a financial market. Williams. . Stochastic Integration and differential equations. Szatzschneider. The Theory and Practice of financial Engineering.80 Changement de probabilit´ e [22] S. Derivatives. Continuous Martingales and Brownian Motion.

J. a N. Lamberton et B. Liptser et A. de nombreuses valorisation sur des arbres. Bj¨rk. L and Schindlmayr. Revuz et M.[?]Excellent surtout en ce qui concerne les options am´ricaines. T. [?] 4 volumes. Efficient methods for valuing interest rate derivatives. Elementary Stochastic calculus with finance in view. sont recommand´s. N.Ikeda et S. and Cvitani´. e e e e exercices non corrig´s. e e L. Excellent ouvrage d’introduction au calcul stochastique. l’optimisation e ee o sous contraintes (Cvitanic). Pour les math´maticiens professionnels. [6]Excellent ouvrage sur les probl`mes d’optimisation et choix de portefeuille.R. Un conseil: achetez en un ou deux. B.G. Chung et D. [?] Contient en particulier les processus discontinus et les processus de L´vy.L. e e a P. .[1] Cet o c ouvrage contient des cours de l’´cole d’´t´ sur la structure par terme des taux (Bj¨rk).[2] De nombreux exemples d’options exotiques sur les taux. and Rochet. M. B. Yor. Rishel. A. abordant de nombreux probl`mes li´s au calcul e e stochastique.C. apr`s les avoir consult´s a e e e et approfondissez les. Contient ` peu pr`s tout ce dont vous pourrez avoir e a e besoin. Oksendal. E. H. e D. Les deux premiers contiennent tous les r´sultats sur les e martingales non continues. G. e e a Sur les processus ` sauts. Williams..C.[4] On y trouve un appendice qui contient les r´sultats principaux de calcul stochastique.Shreve. [?]Tout sur les martingales non continues. e R. se limite aux int´grales stochastique. R. Les formules en temps continu sont en annexe. [7] Tr`s bon ouvrage. Meyer. d´monstrations. B. de niveau tr`s ´lev´. and Nguyen-Ngoc. R. Excellent.A.. Krylov. [10] Excellent livre. Un petit bijou en ce qui concerne les processus de L´vy appliqu´s ` la finance. Durrett [5] Ouvrage contenant de nombreux r´sultats tr´s pr´cis. Devolder. Enonc´s pr´cis. and Jouini. Williams [?] Ouvrage assez difficile. Theory and applications. M. e e e e I. les ´quations r´trogrades (El Karoui).N. Lapeyre. 2006 81 Commentaires sur certains ouvrages Les ouvrages suivants sont ` la biblioth´que. T. and Marois. e e Chesney. Rogers et D. V.J. Vous ne pourrez pas tous les connaitre. Dellacherie et P. and Milward.[?] Pour les experts de calcul stochastique.[?] Pour math´maticiens sp´cialistes de diffusion.[?] Beaucoup de choses sur les processus ` sauts. [12] Incontournable pour les r´sultats les plus pr´cis concernant le MB. . P. e Calcul stochastique K.Fleming et R. mais essayez d’ˆtre pointu sur un domaine. o e La revue Risk contient de nombreux articles sur des sujets ”chauds” Biais. et Kopp. e Shiryaev: ce qu’il existe de plus complet parmi les livres sur les processsus ` sauts a EVALUATION: Haug : toutes les formules sur les prix d’options Pelsser.[?] Un incontournable sur le cas stochastique en temps continu. e R. and Knudsen. Mikosch.[8]Tr`s bon cours de calcul stochastique. W. . Tr`s agr´able ` lire. and Wojakowski. Karatzas et S. E. mais contient de nombreux r´sultats utiles ne e se trouvant pas facilement. R. relativement simple. T. and Bj¨rk. D. e Cont et Tankov [?] Le plus appropri´ e CONTROLE STOCHASTIQUE W. Protter. J. and El Karoui. e e FINANCE Les ouvrages de Bingham et Kiesel. and Ferraris. E Overhaus. A. e Elliott.July 8. I. [3] Bon livre. un peu difficile en premi`re lecture. Equity derivatives. processus de Levy: a C. Watanabe..S. R. Shiryaev. e Karatzas. Elliott.. e e e N.

. Dynamic hedging Les m´thodes de couverture. L’´valuation des options. M. Encyclop´die des e e march´s financiers. and Papanicolaou. P. Volatilit´ stochastique : Fouque. PRATICIENS: Wilmott. .82 index Pliska. Derivative securities. C. M. . Theory and practice. Gibson.K. X. Structured Equity Derivatives. G. F. G. Les ´v`nements rares.. Derivatives in financial e markets with stochastic volatilities. R. Introduction to option pricing theory. H. N. Interest-rate option Models.M. Une tr`s bonne s´rie d’ouvrages pour praticiens. P. Economica e . [11] Ouvrage excellent sur les march´s en temps discret la valorisation et les probl`mes e e d’optimisation. and Mikosh. Kat. and Kl¨ppelberg.R. Modelling e e u Extremal Events. . Y. Mathematical models of financial derivatives. Ou trouver differents articles d’introduction aux probl`mes de finance : Simon ed. Kwok. Brigo. T. Le e plus complet sur le sujet. R. and Mercurio. J-P. snd edition. le risque : Embrecht. . and Turnbull. Interest rate models. e e Taleb. Jarrow.. J. e e Hull. . and Karandikar.. Kallianpur. Credit risk : Modelling valuation and Hedging. Options. LIBOR. e DIVERS: Risque de d´faut: Bielecki.C.L. TAUX: Musiela. S. T. and Rutkowski. and Rutkowski.. Rebonato. D. R. and Sircar. futures and other derivatives. M. [9]Excellent ouvrage de haut niveau. Ouvrage de r´f´rence pour la ee structure par terme des taux. R. mais tr`s bien fait. Un peu ancien.

36 Vasicek. 59 Scaling. 9 e Equation de Langevin. 74 Condition de Novikov. 14 aa continu. 42 Ensembles n´gligeables. 65 Processus ´tag´. 65 Clark-Ocone. 39 e e adapt´. 8 e Formule de Bayes. 19 e Temps d’atteinte. 44 e e e Hypoth`ses habituelles. 14 a a c`l`g. 51 Process CIR -. 31 transform´e de Laplace du -. 59 Int´grabilit´ uniforme. 68 Convergence quadratique. 26 for squared Bessel processes . 23 g´n´ralis´. 64 Temps d’arrˆt. 24 e e e g´om´trique. 61. 57 Cox-Ingersoll-Ross. 51 e Filtration. 15 pr´visible. 10 e e Int´grale e de Wiener. 54 Loi conditionnelle. 53 G´n´rateur infinit´simal. 55 e e Novikov. 34. 9 Espace mesurable. 17 Martingale exponentielle. 41 o gaussiens. 37 Promenade al´atoire.Index Absolute continuity BES. 14 e Index. 21. 50 ee Scale function for Bessel Processes. 51 Equations diff´rentielles stochastiques. 58 squared process. 32 Int´gration par parties. 60 Bessel modified . 14 e Processus de CIR. 30 loi du -. 62 process. 32 Fonction bor´lienne. 13 en probabilit´. 62 Lemme d’Itˆ. 30 e Th´or`me e e . 13 en loi. 58 Change of time for CIR. 14 Fonction en escalier. 14 croissant. 43 o Loi de l’arc sinus. 50 locale. 35 parabolique. 20 Ornstein-Uhlenbeck. 12 u Crochet oblique. 17 de Feynman-Kac. 56 Markov. 24 e Propri´t´ de Markov. 7 Exponentielle de Dol´ans-Dade. 14 d’Itˆ. 14 e c`dl`g. 20 Mesure de Dirac. 13 e presque sˆre.function. 60 Sturm-Liouville equation. 26. 49 e Espace complet. 12 Mouvement Brownien. 34 e Laplace transform of 83 hitting time for a BES.

13 e Th´or`me de e e Girsanov. 8 e Tribu engendr´e. 7 engendr´e. 28 Transform´e e de Fourier. 8 e Variance conditionnelle. 65 Tribu. 10 de Laplace. 62 for a BESQ. 61 for a CIR. 19 e de Lebesgue domin´.84 d’arrˆt de Doob. 10 Transition density for a BES. 68 Trajectoires. 17 index .

Sign up to vote on this title
UsefulNot useful