Introduction au calcul stochastique et applications ` la a finance

E. Moulines and P. Priouret 20 f´vrier 2008 e

2

Table des mati`res e
1 Mouvement Brownien 1.1 D´finitions . . . . . . . . . . . . . . . . . . . . . . e 1.1.1 Processus gaussiens r´els . . . . . . . . . . e 1.1.2 Transformation du mouvement Brownien 1.1.3 Comportement des trajectoires . . . . . . 1.1.4 Le cas vectoriel . . . . . . . . . . . . . . . 1.2 Construction de Paul L´vy . . . . . . . . . . . . e 1.3 Ft -mouvement brownien . . . . . . . . . . . . . . 1.4 Filtration naturelle du mouvement brownien . . . 2 Martingales Continues 2.1 In´galit´s maximales . . . . . . e e 2.2 Th´or`mes d’arrˆt . . . . . . . e e e 2.3 Convergences . . . . . . . . . . 2.4 Martingales de carr´ int´grable e e 2.5 Martingales locales . . . . . . . 2.6 Martingales locales continues . 7 7 7 9 9 10 10 12 13 17 17 17 19 22 23 24 31 31 31 32 33 33 33 34 36 37 39 40 40 41 42

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

3 Calcul stochastique 3.1 Processus ` variation finie . . . . . . . . . . . . . . . . a 3.1.1 Variation totale . . . . . . . . . . . . . . . . . . 3.1.2 Variation finie d’une martingale locale continue 3.1.3 Crochet de martingales locales . . . . . . . . . 3.2 Int´grale stochastique . . . . . . . . . . . . . . . . . . e 3.2.1 Processus ´tag´s E . . . . . . . . . . . . . . . . e e 3.2.2 Construction de l’int´grale stochastique . . . . e 3.2.3 Continuit´ de l’int´grale stochastique . . . . . . e e 3.2.4 Extension . . . . . . . . . . . . . . . . . . . . . 3.3 Le cas vectoriel . . . . . . . . . . . . . . . . . . . . . . 3.4 Formule d’Itˆ . . . . . . . . . . . . . . . . . . . . . . . o 3.4.1 Processus d’Itˆ . . . . . . . . . . . . . . . . . . o 3.4.2 Int´gration par rapport ` un processus d’Itˆ . . e a o 3.4.3 Formule d’Itˆ . . . . . . . . . . . . . . . . . . . o

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

4 3.5 3.6

` TABLE DES MATIERES Martingales exponentielles . . . . . . . . . . . . . . . . . . . . Th´or`me de Girsanov . . . . . . . . . . . . . . . . . . . . . . e e 3.6.1 Cas d’un horizon fini : . . . . . . . . . . . . . . . . . . 3.6.2 Cas d’un horizon infini : . . . . . . . . . . . . . . . . . 3.7 Espaces gaussiens . . . . . . . . . . . . . . . . . . . . . . . . . 3.7.1 D´finition . . . . . . . . . . . . . . . . . . . . . . . . . e 3.7.2 Espace L2 (R+ , λ) . . . . . . . . . . . . . . . . . . . . . d 3.8 Martingales du mouvement brownien . . . . . . . . . . . . . . 3.9 Int´grale stochastique par rapport ` une martingale continue e a 3.9.1 In´galit´ de Kunita-Watanabe . . . . . . . . . . . . . e e 3.9.2 Construction de l’int´grale stochastique . . . . . . . . e 3.9.3 Semi-martingales . . . . . . . . . . . . . . . . . . . . . 3.9.4 Martingales exponentielles . . . . . . . . . . . . . . . . 3.9.5 Th´or`me de Girsanov . . . . . . . . . . . . . . . . . . e e 3.9.6 In´galit´s de Burkholder-Davis-Gundy . . . . . . . . . e e 3.10 Le cas des martingales vectorielles. . . . . . . . . . . . . . . . 3.10.1 Un r´sultat d’alg`bre lin´aire . . . . . . . . . . . . . . e e e 3.10.2 Le cas g´n´ral . . . . . . . . . . . . . . . . . . . . . . . e e 3.10.3 Agrandissement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44 48 50 51 51 51 52 52 54 54 56 59 60 61 61 62 62 64 66 69 69 69 69 70 72 74 76 76 79 81 84 85 85 86 86 89 89 90 91 94 97 97

4 Equations diff´rentielles stochastiques e 4.1 Solutions d’Itˆ . . . . . . . . . . . . . . . . . o 4.1.1 Notations . . . . . . . . . . . . . . . . 4.1.2 Processus ` valeurs M (r, d) . . . . . . a 4.1.3 Processus d’Itˆ vectoriel . . . . . . . . o 4.1.4 Localisation . . . . . . . . . . . . . . . 4.1.5 Solutions d’Itˆ . . . . . . . . . . . . . o 4.2 Propri´t´s . . . . . . . . . . . . . . . . . . . . ee 4.2.1 D´pendance des conditions initiales . . e 4.3 Unicit´ en loi . . . . . . . . . . . . . . . . . . e 4.4 G´n´ralisations . . . . . . . . . . . . . . . . . e e 4.5 Solutions fortes et faibles . . . . . . . . . . . 4.6 E.D.S. lin´aires . . . . . . . . . . . . . . . . . e 4.6.1 Le mouvement brownien g´om´trique e e 4.6.2 E.D.S. lin´aires . . . . . . . . . . . . . e 4.6.3 Processus gaussiens vectoriels . . . . . 5 Processus de diffusion 5.1 Processus de Markov . . . . . . 5.1.1 Semi-groupe de Feller . 5.1.2 Processus de diffusion . 5.2 La propri´t´ forte de Markov . ee 5.2.1 Loi 0-1 . . . . . . . . . . 5.2.2 Le mouvement brownien

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . revisit´ e

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

` TABLE DES MATIERES 5.2.3 E.D.P. 5.3.1 5.3.2 5.3.3 5.3.4 Le principe de r´flexion . . . . . . e et E.D.S. . . . . . . . . . . . . . . Notations et hypoth`ses . . . . . . e Equation de la chaleur . . . . . . . Equation de la chaleur r´trograde . e Probl`me de Dirichlet . . . . . . . e . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

5 . 98 . 98 . 98 . 99 . 100 . 101

5.3

I

Applications ` la finance a
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

103
105 105 107 107 108 110 111

6 Le mod`le de Black-Scholes-Merton e 6.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.2 L’´quation de Black-Scholes-Merton . . . . . . . . . . . . . e 6.2.1 Evolution de la valeur d’un portefeuille . . . . . . . 6.2.2 Evolution du prix d’une option . . . . . . . . . . . . 6.2.3 Portefeuille de couverture . . . . . . . . . . . . . . . 6.2.4 Une solution de l’´quation de Black-Scholes-Merton e

7 Probabilit´ de risque neutre e 113 7.1 Probabilit´ de risque neutre . . . . . . . . . . . . . . . . . . . . . . . . 113 e 7.1.1 Valeur d’un portefeuille sous la probabilit´ de risque-neutre . . 116 e 7.1.2 Prix d’une option sous la probabilit´ de risque neutre . . . . . 116 e 7.1.3 Formule de Black-Scholes-Merton sous la probabilit´ de risque e neutre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117 7.2 Existence d’un portefeuille de couverture . . . . . . . . . . . . . . . . . 119 7.2.1 Th´or`me de repr´sentation des martingales, mono-dimensionnel120 e e e 7.2.2 Calcul de la strat´gie de couverture d’un actif . . . . . . . . . . 122 e 7.3 Extensions multi-dimensionnelles . . . . . . . . . . . . . . . . . . . . . 123 7.3.1 Girsanov et th´or`mes de repr´sentation des martingales . . . . 123 e e e 7.3.2 Mod`le de march´ multi-dimensionnel . . . . . . . . . . . . . . 124 e e 7.3.3 Existence de la probabilit´ de risque neutre . . . . . . . . . . . 126 e 7.3.4 Unicit´ de la probabilit´ de risque neutre . . . . . . . . . . . . 129 e e 8 Variations autour du mod`le de Black-Scholes-Merton e 131 8.1 Contrats ` termes et Futures . . . . . . . . . . . . . . . . . . . . . . . 131 a 9 Index des notations 133

6

` TABLE DES MATIERES

Chapitre 1

Mouvement Brownien
Le mouvement brownien est un processus dont l’importance est fondamentale. Il trouve son l’origine dans un ph´nom`ne observ´ par Robert Brown en 1828 qui e e e s’int´ressait aux mouvements des grains de pollen dans l’eau et dans les travaux de e Bachelier (1900), qui tentait de mod´liser les prix des actifs financiers. Ces deux e situations sont deux exemples des multiples situations o` le mouvement brownien u s’est av´r´ ˆtre un mod`le pertinent. eee e D’un point de vue th´orique, le mouvement Brownien est un processus Gaussien, e dont les incr´ments sont ind´pendants et stationnaires. e e

1.1

D´finitions e

Pour introduire ces d´finitions sans surcharger les notations, nous nous int´ressons e e tout d’abord au cas d = 1.

1.1.1

Processus gaussiens r´els e

Soit (Xt , t ∈ R+ ) un processus gaussien r´el. On pose e m(t) = E(Xt ), Γ(s, t) = Cov(Xs , Xt ) = E[(Xs − E(Xs ))(Xt − E(Xt ))]. (1.1)

La fonction Γ(s, t) s’appelle la fonction de covariance de X. On ´tablit facilement les e propri´t´s suivantes : ee – La fonction de covariance est sym´trique, pour tous s, t ∈ R, e Γ(s, t) = Γ(t, s), (1.2)

– La fonction de covariance est de type positif, i.e. pour tous t1 , . . . , tn ≥ 0, pour tous λ1 , . . . , λn ∈ R,
n

λj λk Γ(tj , tk ) ≥ 0
j,k=1

(1.3)

8

Mouvement Brownien

˜ La derni`re propri´t´ d´coule imm´diatement du fait Xt = Xt − E(Xt ), e ee e e   λj λk Γ(tj , tk ) =
j,k j,k

2

˜ ˜ λj λk E(Xtj Xtk ) = E 
j,k

˜ ˜ λj λk Xtj Xtk  = E
j

˜ λj Xtj

≥ 0.

Le vecteur (Xt1 , . . . , Xtn ) est un vecteur gaussien de moyenne (m(t1 ), . . . , m(tn )) et de matrice de covariance (Γ(tj , tk ), 1 ≤ j, k ≤ n). Les r´partitions finies (et donc la e loi) de X sont donc enti`rement d´termin´es par les fonctions m(t) et Γ(s, t). e e e R´ciproquement, soient m(t) et Γ(s, t) des fonctions v´rifiant (1.2) et (1.3). Pour e e tous I = {t1 < . . . < tn }, (Γ(tj , tk ), 1 ≤ j, k ≤ n) est une matrice sym´trique e semi-d´finie positive. Soit e µI = Nn ((m(t1 ) . . . m(tn ))T , (Γ(tj , tk ), 1 ≤ j, k ≤ n)). Les (µI , I ∈ J ) v´rifient (??) et on obtient, appliquant le th. ?? : e Th´or`me 1.1.1. Soient m une application de R+ dans R et Γ une application e e de R+ × R+ dans R+ v´rifiant (1.2) et (1.3). Il existe une unique probabilit´ P sur e e l’espace canonique d´finie par (??) telle que (ξt , t ∈ R+ ) soit un processus gaussien e de moyenne m(t) et de fonction de covariance Γ(s, t). Consid´rons un mouvement brownien r´el issu de 0 i.e. un processus (Xt , t ∈ R+ ) e e v´rifiant la def. ??. D’apr`s le lemme ??, c’est un processus gaussien centr´. De plus, e e e pour s < t, 2 E(Xs Xt ) = E(Xs (Xs + Xt − Xs )) = E(Xs ) = s puisque les variables Xs et Xt − Xs sont ind´pendantes. Sa fonction de covariance du e mouvement Brownien est donc donn´e par e Γ(s, t) = s ∧ t. (1.4)

R´ciproquement, la fonction Γ(s, t) = s ∧ t v´rifie (1.2) et (1.3) puisque, pour e e t0 = 0 ≤ t1 ≤ . . . ≤ tn , 2 
n n j∧k n n

λ j λ k tj ∧ tk =
j,k=1 j,k=1

λj λk
l=1

(tl − tl−1 ) =
l=1

(tl − tl−1 ) 
j=l

λj  ≥ 0.

Il existe donc (th. 1.1.1) un processus gaussien r´el (Xt , t ∈ R+ ) tel que E(Xt ) = 0 e et E(Xs Xt ) = s ∧ t. On a alors Xt − Xs ∼ N1 (0, t − s). Montrons que c’est un P.A.I. Soient t1 < . . . < tn . Le vecteur (Xt1 , Xt2 − Xt1 , . . . , Xtn − Xtn−1 ) ´tant gaussien e comme fonction lin´aire de (Xt1 , . . . , Xtn ), il suffit de montrer que, pour j < k, e E((Xtj − Xtj−1 )(Xtk − Xtk−1 )) = 0 ce qui est imm´diat. De plus, posant γp = E|U |2p e Xt −Xs √ pour U ∼ N1 (0, 1), on a, vu que t−s ∼ N1 (0, 1), pour tous p ∈ N et s < t, E|Xt − Xs |2p = (t − s)p E Xt − Xs √ t−s
2p

= γp (t − s)p .

(1.5)

9 Le th´or`me ?? (prendre p = 2 dans (1.5)) implique que Xt a une modification Xt ` e e a trajectoires continues. Le processus Xt est un mouvement brownien r´el. On a montr´ e e au passage : Proposition 1.1.2. Soit (Xt , t ∈ R+ ) un processus r´el ` trajectoires continues issu e a de 0. Alors Xt est un mouvement brownien r´el ssi Xt est un processus gaussien e centr´ de fonction de covariance Γ(s, t) = s ∧ t. e

1.1.2

Transformation du mouvement Brownien

De la proposition 1.1.2, on d´duit facilement : e Proposition 1.1.3. Soit (Bt , t ∈ R+ ) un mouvement brownien r´el nul en 0. On e (s) pose Bt = Bt+s − Bs , s fix´, Yt = cBt/c2 , c > 0, Zt = tB1/t , t = 0, Z0 = 0. Les e processus −Bt , Bt , Yt , Zt sont des mouvement browniens r´els issus de 0. e D´monstration. Pour −Bt , Bt et Yt la v´rification est imm´diate. Quant ` Zt , e e e a c’est un processus gaussien centr´ de fonction de covariance Γ(s, t) = E(Zs Zt ) = e stE(B1/s B1/t ) = s ∧ t. Evidemment Zt est continu sur ]0, +∞[. On a, puisque (Zt , t ∈ R+ ) et (Bt , t ∈ R+ ) ont mˆme loi, pour tout α > 0, P(sup0<s≤t |Zs | > α) = e P(sup0<s≤t |Bs | > α) ↓t↓0 0 et Zt → 0 p.s. lorsque t → 0.
(s) (s)

1.1.3

Comportement des trajectoires

Il existe des r´sultats tr`s fins sur les propri´t´s des trajectoires du mouvement e e ee brownien (voir ?). On se contente de pr´senter ici des r´sultats relativement grossiers e e mais caract´ristiques. e Proposition 1.1.4. Soit (Bt , t ∈ R+ ) un mouvement brownien r´el nul en 0. e Bt Bt 1. lim supt→+∞ √t = +∞ p.s., lim inf t→+∞ √t = −∞ p.s. 2. limt→+∞ 3.
Bt t = 0 p.s. B lim supt→0 √t = +∞ t

p.s., lim inf t→0

B √t t

= −∞ p.s. Pour tout s > 0, on a

D´monstration. (i) Soit R = lim supt→+∞ e

B √t . t

Bt+s Bt+s Bt+s − Bs √ R = lim sup √ = lim sup √ = lim sup . t+s t t t t t Donc R est ind´pendante (lem. ??) de σ(Bu , u ≤ s). Ceci ´tant vrai pour tout s, R e e est ind´pendante de σ(Bu , u ≥ 0) et donc de R. On a, soit P(R = +∞) = 1, soit e B P(R = α) = 1. Supposons R = α p.s. On a alors, pour tout β > α, P( √t > β) →t→+∞ t
B e 0 mais P( √t > β) = P(B1 > β) > 0. Donc R = +∞ p.s. Pour la deuxi`me limite, il t suffit de consid´rer −Bt . e (ii) Soient s = 1/t et Zt = tB1/t . On a Bt = sB1/s = Zs → 0 p.s. lorsque s → 0 t puisque Zs est un mouvement brownien issu de 0 (prop. 1.1.3). (iii) Il suffit de consid´rer le mouvement brownien Zt = tB1/t . e

10 Corollaire 1.1.5.

Mouvement Brownien (i) P p.s., (Bt , t ≥ 0) passe une infinit´ de fois par tout point. e

e a a a (ii) Pour tout s ≥ 0, (Bt , t ≥ 0) n’est p.s. d´rivable ni ` droite, ni ` gauche en s (` droite pour s = 0). D´monstration. La preuve de i r´sulte imm´diatement de la continuit´ des trajece e e e toires et de la proposition 1.1.4. Etablissons maintenant ii. (Bt , t ≥ 0) n’est p.s. pas −B d´rivable ` droite en 0 puisque lim supt→0+ Bt√t 0 = +∞ p.s. Consid´rant les moue a e vements browniens (Bt+s − Bs , t ≥ 0) puis Zt = tB1/t , on d´montre tout d’abord la e non d´rivabilit´ ` droite puis la non d´rivabilit´ ` gauche en s > 0. e ea e ea En fait ces r´sultats sont des cas tr`s particuliers de la loi du logarithme it´r´ de e e ee Paul L´vy. e Th´or`me 1.1.6. Soit B = (Ω, Ft , F, Bt , P) un mouvement brownien r´el issu de 0. e e e On a p.s. Bt = 1, 1/2 t→+∞ (2t log log t) Bt lim sup 1 1/2 = 1, t→0+ (2t log log t ) lim sup Bt = −1 t→+∞ (2t log log t)1/2 Bt lim inf = −1. t→0+ (2t log log 1 )1/2 t lim inf

1.1.4

Le cas vectoriel

i Proposition 1.1.7. (i) Soient (Xt , t ∈ R+ ), i = 1, . . . , d, des mouvements brow1 d niens r´els issus de 0 ind´pendants. Alors Xt = (Xt , . . . , Xt ) est un mouvement e e brownien issu de 0 ` valeurs Rd . a 1 d (ii) Soit Xt = (Xt , . . . , Xt ) un mouvement brownien issu de 0 ` valeurs Rd . Alors a i , t ∈ R+ ), i = 1, . . . , d, sont des mouvements browniens r´els les processus (Xt e issus de 0 ind´pendants. e

D´monstration. Tout ` fait ´l´mentaire en utilisant les propri´t´s des vecteurs gause a ee ee siens. Le lecteur est toutefois invit´ ` la r´diger soigneusement. ea e Grˆce ` la prop. 1.1.7, il est facile de construire un mouvement brownien issu a a de 0 ` valeurs Rd . On consid`re d mouvements browniens r´els issus de 0, B i = a e e i (Ωi , F i , Bt , Pi ) i = 1, . . . , d. On d´finit Ω = Ω1 × . . . × Ωd , F = F 1 ⊗ . . . ⊗ F d , e i i 1 d P = P1 ⊗ . . . ⊗ Pd et, pour ω = (ω1 , . . . ωd ), Xt (ω) = Bt (ωi ). Alors Xt = (Xt , . . . , Xt ) d. est un mouvement brownien issu de 0 ` valeurs R a

1.2

Construction de Paul L´vy e

L’existence du mouvement brownien repose sur les th. ?? et ?? que nous avons admis et un lecteur scrupuleux peut se sentir frustr´. C’est pourquoi nous pr´sentons e e une construction plus intuitive du mouvement brownien due ` Paul L´vy. Cette apa e proche est constructive et fournit une m´thode de simulation des trajectoires du e Mouvement Brownien. Nous aurons besoin d’un r´sultat pr´liminaire e e

11 Lemme 1.2.1. Soit {Xn }n≥0 une suite de v.a.r. gaussiennes centr´es. On suppose e que Xn converge en probabilit´ vers X. Alors X est gaussienne et lim E(Xn −X)2 = 0. e
2 D´monstration. Par hypoth`se, Xn ∼ N1 (0, σn ). Le th´or`me ?? montre que e e e e 2 φXn (t) = E(eitXn ) = exp(−(1/2)σn t2 ) → E(eitX ) = φX (t) . 2 2 Ceci implique que σn = E(Xn ) →n σ 2 et φX (t) = exp(− 1 σ 2 t2 ). Donc X est gaus2 sienne. De plus

1 2 2 E|Xn |3 ≤ E(e|Xn | ) ≤ E(eXn ) + E(e−Xn ) = eσn /2 + eσn /2 3! (vu (??)) d’o` supn E|Xn |3 < +∞ et Xn → X dans L2 (proposition ??). u Soit (Yk,n , 0 ≤ k < 2n , n ≥ 0) des v.a.r. ind´pendantes et identiquement dise tribu´es suivant une loi gaussienne centr´e r´duite, Yk,n ∼ N1 (0, 1). On d´finit une e e e e suite de processus (Xn (t), t ∈ [0, 1]) de fa¸on r´cursive : c e – Pour chaque n, le processus (Xn (t) , t ∈ [0, 1]) est lin´aire sur les intervalles e −n k, 2−n (k + 1)[, dyadique [2 – Pour n = 0, X0 (0) = 0 et X0 (1) = Y0,0 – Pour tout k ∈ {0, . . . , 2n − 1}, Xn+1 (2−n k) = Xn (2−n k) Xn+1 [2−(n+1) (2k + 1)] = Xn [2−(n+1) (2k + 1)] + 2−
n+2 2

Y2k+1,n+1 .

On notera que, comme par construction le processus (Xn (t), t ∈ [0, 1]) est lin´aire sur e −n k, 2−n (k + 1)[, on a l’intervalle [2 Xn [2−(n+1) (2k + 1)] = (1/2) Xn (2−n k) + Xn [2−n (k + 1)] .

Lemme 1.2.2. Le vecteur [Xn (2−n k), k = 0, . . . , 2n ] est gaussien centr´ et e E Xn (2−n k)Xn (2−n ) = 2−n k ∧ 2−n . D´monstration. La preuve est par r´currence. Supposons le lemme vrai ` l’ordre n. e e a Alors Xn+1 (2−(n+1) k), k = 0, . . . , 2n+1 est un vecteur gaussien comme combinaison lin´aire des vecteurs [Xn (2−n k), k = 0, . . . , 2n ] et Yk,n+1 , k = 0, . . . , 2n+1 − 1 qui e sont gaussiens et ind´pendants. On a de plus e
2 E Xn+1 (2−(n+1) (2k + 1))

= E (1/2)(Xn (2−n k) + Xn (2−n (k + 1))) + (1/2) =

n+2 2

2

Y2k+1,n+1

1 −n 2 k + 2−n (k + 1) + 2−n 2k + (1/2)n+2 = 2−(n+1) (2k + 1) . 4

La v´rification est identique pour les termes crois´s. e e

12

Mouvement Brownien

Le processus (Xn (t), t ∈ [0, 1]) est donc gaussien centr´ puisque m ak Xn (tk ) e k=1 est une combinaison lin´aire des (Xn (2−n k), k = 0, . . . , 2n ). De plus, on a e E(Xn (s)Xn (t)) = s ∧ t + O(2−n ) . Lemme 1.2.3. Il existe une constante C telle que, pour tout n, P sup |Xn+1 (t) − Xn (t)| > 2− 4
t∈[0,1]
n

(1.6)

≤ C2−n .

D´monstration. Notons d’abord que, si Y est distribu´e suivant une loi normale e e centr´e r´duite, Y ∼ N1 (0, 1), e e P(|Y | > a) ≤ a−8 E|Y |8 ≤ C1 a−8 . Alors P( sup |Xn+1 (t) − Xn (t)| > 2− 4 )
t∈[0,1] 2n −1
n

=P
k=0 2n −1

sup
t∈[2−n k,2−n (k+1)]

|Xn+1 (t) − Xn (t)| > 2− 4
n

n

≤P
k=0 n

2−

n+2 2

|Y2k+1,n+1 | > 2− 4 ) ≤ C1 2−n−2 .

≤ 2 P(|Y | > 2

n+4 4

D’apr`s le lemme de Borel-Cantelli (prop. ??), il existe donc un ensemble n´gligeable e e −n N tel que, pour tout ω ∈ N , supt∈[0,1] |Xn+1 (t, ω) − Xn (t, ω)| ≤ 2 4 pour tout n ≥ / n0 (ω). On en d´duit que, pour tout ω ∈ N , la suite de fonctions (Xn (t, ω), t ∈ [0, 1]) e converge uniform´ment sur [0, 1] et que la limite X(t, ω) est continue (en tant que e limite uniforme de fonctions continues). Il r´sulte alors du lemme 1.2.1 que le procese sus (X(t), t ∈ [0, 1]) est gaussien centr´ et, vu (1.6), que E(X(s)X(t)) = s ∧ t. C’est e donc un mouvement brownien sur [0, 1] (prop. 1.1.2).

1.3

Ft -mouvement brownien

0 Soient (Bt , t ∈ R+ ) un mouvement brownien issu de 0 ` valeurs Rd et Fs = a 0 σ(Bu , u ≤ s). On sait (lem. ??) que, pour s < t, Bt − Bs est ind´pendant de Fs . Ceci e conduit ` la d´finition plus g´n´rale suivante : a e e e

D´finition 1.3.1. Un processus adapt´ B = (Ω, F, Ft , Bt , P) est un Ft -mouvement e e brownien issu de 0 ` valeurs Rd si : a (i) pour tous s < t, Bt − Bs est ind´pendant de Fs , e

13 (ii) B0 = 0, pour tous s < t, Bt − Bs ∼ Nd (0, (t − s)Id ), (iii) La fonction t → Bt est p.s. continue.
1 d i Notons qu’alors, si Bt = (Bt , . . . , Bt ), chaque Bt est un Ft -mouvement brownien r´el issu de 0. e

Proposition 1.3.2. Soient B = (Ω, F, Ft , Bt , P) un Ft -mouvement brownien issu de 0 ` valeurs Rd et Gt = σ(Bt+s − Bt , s ≥ 0). Alors, pour tout t, les tribus Gt et Ft+ a sont ind´pendantes. En particulier Bt est un Ft+ -mouvement brownien. e D´monstration. On suppose d = 1. e Montrons d’abord que Gt et Ft sont ind´pendantes. Pour cela, il suffit de monter e que, pour tous t < t1 < . . . < tn , (Bt1 − Bt , . . . , Btn − Btn−1 ) est ind´pendant de Ft . e Soient u1 , . . . , un , v ∈ R+ et Z ∈ bFt , on a E eivZ+iu1 (Bt1 −Bt )+...+iun (Btn −Btn−1 ) = E eivZ+iu1 (Bt1 −Bt )+...+iun−1 (Btn−1 −Btn−2 ) E eiun (Btn −Btn−1 ) = E eivZ E eiu1 (Bt1 −Bt ) . . . E eiun (Btn −Btn−1 ) = E eivZ E eiu1 (Bt1 −Bt )+...+iun (Btn −Btn−1 ) ce qui montre (th. ??) l’ind´pendance de (Bt1 − Bt , . . . , Btn − Btn−1 ) et de Z. e Montrons maintenant que Gt et Ft+ sont ind´pendantes. Il suffit de montrer que, e e pour tous t < t1 < . . . < tn , (Bt1 − Bt , . . . , Btn − Bt ) est ind´pendant de Ft+ . Soient u1 , . . . , un , v ∈ R+ et Z ∈ bFt+ , on a, puisque Z ∈ bFt+ε et vu l’ind´pendance ´tablie e e ci-dessus, E eivZ+iu1 (Bt1 −Bt )+...+iun (Btn −Bt ) = lim E eivZ+iu1 (Bt1 +ε −Bt+ε )+...+iun (Btn +ε −Bt+ε )
ε→0

= lim E eivZ E eiu1 (Bt1 +ε −Bt+ε )+...+iun (Btn +ε −Bt+ε )
ε→0

= E eivZ E eiu1 (Bt1 −Bt )+...+iun (Btn −Bt ) , ce qui montre (th. ??) l’ind´pendance de (Bt1 − Bt , . . . , Btn − Bt ) et de Z. e

1.4

Filtration naturelle du mouvement brownien

Soient B = (Ω, F, Bt , P) un mouvement brownien issu de 0 ` valeurs Rd , Ft0 = a 0 = σ(B , t ≥ 0) et N la classe des ensembles n´gligeables de F 0 . σ(Bs , s ≤ t), F∞ e t ∞ On d´finit : e FtB = σ(Ft0 , N ). (1.7) La filtration FtB s’appelle la filtration naturelle du mouvement brownien. La proposition suivante montre que c’est une filtration standard.

14
B Proposition 1.4.1. On a Ft+ = FtB .

Mouvement Brownien

D´monstration. Le lecteur peu familier de la notion d’esp´rances conditionnelles lira e e B 0 d’abord la section ??. On note Gt = (Bt+s − Bt , s ≥ 0), F∞ = σ(F∞ , N ) et C = 0 , C ∈ G }. C est stable par intersection finie et on a, vu la prop. {A = B ∩ C, B ∈ Ft t B 1.3.2, pour tout A ∈ C, E(1A | Ft+ ) = 1B P(C) = E(1A | FtB ) p.s. Soit M = {A ∈ B , E(1 | F B ) = E(1 | F B ) p.s.}. M v´rifie les hypoth`ses du th. ?? et M ⊃ C F∞ e e A A t+ t 0 et M ⊃ F B . Soit A ∈ F B ⊂ F B , on 1 = E(1 | F B ) = donc M ⊃ σ(C) = F∞ A A ∞ t+ ∞ t+ E(1A | FtB ) p.s. et donc A ∈ FtB . Proposition 1.4.2. Soit (Bt , t ∈ R+ ) un Ft -mouvement brownien r´el issu de 0. e 2 − t et, pour tout λ ∈ R, Z λ = exp(λB − 1 λ2 t) sont des F Alors Bt , Yt = Bt t t t 2 martingales. D´monstration. Il n’y a pas de probl`me d’int´grabilit´. Rappelons (prop. ??) que, e e e e 1 est ind´pendante de F , E(U |F ) = E(U ) p.s. On a alors, pour s < t, e si U ∈ L s s E(Bt |Fs ) = E(Bs + Bt − Bs |Fs ) = Bs + E(Bt − Bs ) = Bs p.s. De mˆme e
2 2 t − s = E(Bt − Bs )2 = E (Bt − Bs )2 Fs = Bs + E Bt Fs − 2Bs E [ Bt | Fs ] 2 2 = E Bt Fs − Bs , 2 2 d’o` E(Bt − t |Fs ) = Bs − s p.s. Enfin, puisque Bt − Bs ∼ N1 (0, t − s), et que Bt − Bs u est ind´pendant de la tribu Fs pour 0 ≤ s ≤ t, pour tout λ > 0, e

E eλ(Bt −Bs ) Fs = E eλ(Bt −Bs ) = e

λ2 (t−s) 2

,

p.s.

λ d’o` l’on d´duit facilement que Zt est une martingale. u e 1 d Proposition 1.4.3. Soit (Bt = (Bt , . . . , Bt ), t ∈ R+ ) un Ft -mouvement brownien d issu de 0. Alors, pour tous j = k, (B j B k , t ∈ R+ ) est une adapt´ ` valeurs R e a t t Ft -martingale.

D´monstration. On a, pour s < t, e
j k j j j k j k k j k j k k Bt Bt − Bs Bs = Bs (Bt − Bs ) + (Bt − Bs )Bs + (Bt − Bs )(Bt − Bs ) j k j k d’o` l’on d´duit ais´ment que E Bt Bt − Bs Bs Fs = 0 p.s. u e e

Proposition 1.4.4. Soit X = (Ω, Ft , F, Bt , P) un processus adapt´ ` valeurs Rd nul ea en 0 et ` trajectoires p.s. continues. Alors X est un Ft -mouvement brownien ssi, pour a α tout α ∈ Rd , Zt = exp iα · Xt + 1 |α|2 t est une Ft -martingale. 2

15 D´monstration. Supposons que (Xt , t ∈ R+ ) soit un Ft -mouvement brownien. On a e p.s., pour s < t, E eiα·(Xt −Xs ) Fs = E eiα·(Xt −Xs ) = e−
|α|2 (t−s) 2

α et Zt est une Ft -martingale. α R´ciproquement,supposons que, pour tout α, Zt soit une Ft -martingale. On a e α α p.s., pour s < t, E [ Zt | Fs ] = Zs qui implique

E eiα·(Xt −Xs ) Fs = e− et, prenant l’esp´rance, e E eiα·(Xt −Xs ) = e−

|α|2 (t−s) 2

|α|2 (t−s) 2

.

On en d´duit d’abord (prop. ??) que Xt − Xs est ind´pendante de Fs puis que e e Xt − Xs ∼ Nd (0, (t − s)Id ).

16

Mouvement Brownien

Chapitre 2

Martingales Continues
2.1 In´galit´s maximales e e

Si (Xt , t ∈ R+ ) est un processus ` trajectoires continues ` droite, on a sup0≤t≤T |Xt | = a a e lim ↑ sup0≤k≤2n |X kT |. Les prop. ?? et th. ?? donnent donc imm´diatement : n
2

Proposition 2.1.1. (i) Soit (Xt , t ∈ R+ ) une surmartingale positive continue ` a droite. On a, pour tout a > 0, P sup Xt ≥ a
t≥0

1 E(X0 ). a

(ii) Soit (Xt , t ∈ R+ ) une sous-martingale positive continue ` droite. On a, pour a tout a > 0 et tout T > 0, P( sup Xt ≥ a) ≤
0≤t≤T

1 E(XT ). a

Th´or`me 2.1.2. (In´galit´ de Doob.) Soit (Xt , t ∈ R+ ) une martingale (ou une e e e e sous-martingale positive) continue ` droite. Alors, pour tout p > 1, a sup |Xt |
t p

p sup Xt p−1 t

p

.

T Remarque 2.1.3. Soit T > 0. Appliquant ce r´sultat ` la martingale stopp´e Xt := e a e p Xt∧T , on obtient, puisque Xt p croˆ avec t, supt≤T |Xt | p ≤ p−1 XT p . ıt

2.2

Th´or`mes d’arrˆt e e e

Th´or`me 2.2.1. Soient (Xt , t ∈ R+ ) une sous-martingale continue ` droite ferm´e e e a e par X∞ (def. ??) et σ et τ deux temps d’arrˆt tels que σ ≤ τ . Alors Xτ ∈ L1 et e Xσ ≤ E(Xτ | Fσ ) p.s.

18 D´monstration. On pose e
n2n −1

Martingales Continues

Dn = {2

−n

k, k ∈ N}, τn =
k=0

2−n (k + 1)1[2−n k,2−n (k+1)[ (τ ) + (+∞)1{τ ≥n} . (2.1)

e e Alors τn est un temps d’arrˆt de la filtration (Fk2−n , k ∈ N), τn ↓ τ et, vu la continuit´ + a ` droite, Xτn →n Xτ p.s. D’apr`s le coro. ??, Xτn ≤ E(X∞ | Fτn ) et, Xt ´tant e e + + + une sous-martingale ferm´e par X∞ (le v´rifier), Xτn ≤ E(X∞ | Fτn ). On a alors e e + + E|Xτn | = 2E(Xτn ) − E(Xτn ) ≤ 2E(X∞ ) − E(X0 ) d’o` E|Xτ | ≤ lim inf n E|Xτn | < +∞ u 1 . On d´finit σ de la mˆme fa¸on. Evidemment σ ≤ τ . i.e. Xτ ∈ L e e c n n n (i) On suppose Xt ≥ 0. On peut appliquer le cor. ?? et donc Xτn →n Xτ dans L1 . Soit A ∈ Fσ ⊂ Fσn . On a alors, consid´rant la sous-martingale (Xt , t ∈ Dn ) et, e d’apr`s le cor. ??, E(1A Xσn ) ≤ E(1A Xτn ) et, puisque Xσn et Xτn convergent dans e L1 , E(1A Xσ ) ≤ E(1A Xτ ). (ii) On revient au cas g´n´ral. Pour tout a > 0, a + Xt ∨ (−a) est une sous-martingale e e positive donc, pour tout A ∈ Fσ , E(1A Xσ ∨ (−a)) ≤ E(1A Xτ ∨ (−a)). On conclut facilement puisque, lorsque a → +∞, Xτ ∨ (−a) → Xτ et Xσ ∨ (−a) → Xσ dans L1 . Remarque 2.2.2. Il est facile de v´rifier que, si τ est un Ft+ -temps d’arrˆt, la v.a. e e τn d´finie par (2.1) est un Ft -temps d’arrˆt. Donc tout Ft+ -temps d’arrˆt est limite e e e d’une suite d´croissante de Ft -temps d’arrˆt. e e Corollaire 2.2.3. Soient (Xt , t ∈ R+ ) une sous-martingale continue ` droite et a σ ≤ τ deux temps d’arrˆt born´s. Alors Xτ ∈ L1 et E(Xτ | Fσ ) ≥ Xσ p.s. e e D´monstration. On suppose σ ≤ τ ≤ T ∈ R. Il suffit d’appliquer le th. 2.2.1 ` la e a T sous-martingale Xt = Xt∧τ qui est ferm´e par XT . e Corollaire 2.2.4. Soient (Xt , t ∈ R+ ) une sous-martingale continue ` droite et σ a et τ deux temps d’arrˆt born´s. Alors E(Xτ | Fσ ) ≥ Xσ∧τ p.s. e e D´monstration. On a, appliquant le cor. 2.2.3 aux temps d’arrˆt σ et σ ∨ τ , e e E(Xτ | Fσ ) = E(1{τ ≤σ} Xσ∧τ + 1{τ >σ} Xσ∨τ | Fσ ) = 1{τ ≤σ} Xσ∧τ + 1{τ >σ} E(Xσ∨τ | Fσ ) ≥ 1{τ ≤σ} Xσ∧τ + 1{τ >σ} Xσ = Xσ∧τ p.s.

Corollaire 2.2.5. Soient (Xt , t ∈ R+ ) une sous-martingale continue ` droite et τ a τ := X un temps d’arrˆt. Alors Xt e t∧τ est une Ft -sous-martingale. D´monstration. Vu le cor. 2.2.4, on a, pour s < t, E(Xt∧τ | Fs ) ≥ Xt∧τ ∧s = Xτ ∧s e p.s. Corollaire 2.2.6. Soit (Xt , t ∈ R+ ) un processus int´grable continu ` droite. Alors e a Xt est une martingale ssi, pour tout temps d’arrˆt born´ τ , on a E(Xτ ) = E(X0 ). e e

19 D´monstration. La n´cessit´ r´sulte du cor. 2.2.3. Montrons la suffisance. Soient s < t e e e e et A ∈ Fs . τ = s1A + t1Ac est un temps d’arrˆt born´ et l’on E(X0 ) = E(Xτ ) = e e E(1A Xs ) + E(1Ac Xt ). Mais t est aussi un temps d’arrˆt born´ d’o` E(X0 ) = E(Xt ) = e e u E(1A Xt )+E(1Ac Xt ). On en d´duit E(1A Xs ) = E(1A Xt ) i.e. Xt est une martingale. e Pour illustrer le cor. 2.2.3, montrons (le lecteur peut commencer par supposer le temps d’arrˆt τ fini) : e Proposition 2.2.7. Soient (Ω, Ft , F, Bt , P) un Ft -mouvement brownien r´el ` vae a d et τ un temps d’arrˆt. Alors, conditionnellement ` {τ < +∞}, B (τ ) = leurs R e a t Bτ +t − Bτ est un Fτ +t -mouvement brownien. D´monstration. Vu la prop. 1.4.4, il suffit de montrer que, pour s < t et A ∈ Fτ +s , e exp(iα · (Bτ +t − Bτ +s )) dP = exp
A∩{τ <+∞}

|α|2 (s − t) P(A ∩ {τ < +∞}). (2.2) 2

Si τ est un temps d’arrˆt born´, (2.2) est vraie (cor. 2.2.3). Sinon, si A ∈ Fτ +s , e e A ∩ {τ ≤ n} ∈ Fτ ∧n+s et on a exp(iα · (Bτ ∧n+t − Bτ ∧n+s )) dP = exp
A∩{τ ≤n}

|α|2 (s − t) P(A ∩ {τ ≤ n}). 2

Tout ´tant born´, on passe ` la limite sans difficult´. e e a e

2.3

Convergences

Dans cette sous-section, toutes les limites sont prises pour t → +∞. La m´thode e utilis´e provient de ?. e Lemme 2.3.1. Soit Y ∈ L1 , F∞ -mesurable. Pour tout ε > 0, il existe Z, Ft mesurable, telle que P(|Y − Z| > ε) < ε. D´monstration. Ceci r´sulte du th. ?? mais on peut aussi le montrer directement. Il e e suffit de l’´tablir pour Y ´tag´e et donc pour Y = 1B , B ∈ F∞ . C’est ´vident pour e e e e B ∈ ∪t Ft . On applique alors le th. ??. Lemme 2.3.2. Soit (Yt , t ∈ R+ ) un processus adapt´ continu ` droite. On pose e a Y = lim supt Yt , Y = lim inf t Yt et on suppose que E(supt |Yt |) < +∞. Alors il existe une suite croissante τn de temps d’arrˆt born´s telle que Yτ2n →n Y et Yτ2n+1 →n Y e e p.s. et dans L1 . D´monstration. (i) Montrons d’abord que, pour tous ε > 0 et T ≥ 0, il existe un e temps d’arrˆt born´ τ ≥ T tel que P(|Yτ − Y | > ε) ≤ ε. Vu le lem. 2.3.1, il existe, e e ε ε pour p assez grand, Z ∈ [Fp ] telle que P(|Z − Y | < 4 ) ≥ 1 − 2 . On consid`re alors le e ε ε temps d’arrˆt ρ = inf(t ≥ T ∨ p, |Yt − Z| < 2 ). Sur {|Z − Y | < 4 }, on a ρ < +∞ et e

20

Martingales Continues

|Yρ − Y | < ε. Vu que ρ ∧ n ↑n ρ, on en d´duit que P(|Yρ∧n − Y | > ε) ≤ ε pour n assez e grand. (ii) Utilisant (i), on peut construire une suite croissante de temps d’arrˆt born´ τn e e −n ) ≤ 2−n et P(|Y −n ) ≤ 2−n . On a donc telle que P(|Yτ2n − Y | > 2 τ2n+1 − Y| > 2 (Borel-Cantelli) Yτ2n →n Y p.s. et Yτ2n+1 →n Y p.s. et, vu que supt |Yt | ∈ L1 , la convergence dans L1 . Remarque 2.3.3. Le lecteur grincheux objectera que, si les tribus Ft ne sont pas continues ` droite, le temps ρ consid´r´ dans (i) est seulement un Ft+ -temps d’arrˆt. a ee e Mais, dans ce cas, il existe des Ft -temps d’arrˆt ρp tels que ρp ↓p ρ (voir la remarque e de ??.2) et, vu la continuit´ ` droite de Yt , on peut remplacer ρ par ρp pour p assez ea grand. Remarque 2.3.4. Le lem. 2.3.2 est ´videmment valable pour T = N. On peut en e d´duire le th. ??. Soient (Xn , n ∈ N) une sous-martingale telle que E(supn |Xn |) < e e +∞ et X = lim supn Xn , X = lim inf n Xn . D’apr`s le lem. 2.3.2, il existe une suite croissante νn de temps d’arrˆt born´s telle que E(Xν2n ) →n E(X) et E(Xν2n+1 ) →n e e e E(X). Mais (cor. ??) E(Xνn ) est une suite croissante born´e (vu que supn |Xn | ∈ L1 ) et donc convergente. On a donc E(X) = E(X) et, puisque X ≤ X, X = X p.s. et Xn →n X∞ p.s. On conclut comme dans la preuve du th. ??. Th´or`me 2.3.5. Soit (Xt , t ∈ R+ ) une sous-martingale continue ` droite telle que e e a + e supt E(Xt ) < +∞. Alors Xt converge p.s. vers une v.a. int´grable X∞ . D´monstration. Soient f (x) = Arctg(x), Y = lim supt f (Xt ) et Y = lim inf t f (Xt ). e D’apr`s le lem. 2.3.2, il existe une suite croissante τn de temps d’arrˆt born´s telle e e e que E(f (Xτ2n )) → E(Y ) et E(f (Xτ2n+1 )) → E(Y). Mais (th. ??) Xτn est une Fτn -sous+ + + martingale v´rifiant (cor. 2.2.3 pour la sous-martingale Xt ) supn E(Xτn ) ≤ supt E(Xt ) e < +∞, elle converge donc p.s. (th. ??) et la suite E(f (Xτn )) est convergente. Ceci implique que E(Y ) = E(Y) et Y = Y p.s. Donc Xn → X∞ dans R p.s. mais, vu le lemme de Fatou et la remarque 2, E|X∞ | = E(lim |Xt |) ≤ lim inf E|Xt | ≤ sup E|Xt | < +∞.
t t t

+ Remarque 2.3.6. Si Xt est une sous-martingale, E(Xt ) ≥ E(X0 ) et E|Xt | = 2E(Xt ) − + E(Xt ) ≤ 2E(Xt ) − E(X0 ). Donc, pour une sous-martingale la condition supt E|Xt | < + +∞ est ´quivalente ` la condition supt E(Xt ) < +∞. e a

Corollaire 2.3.7. Soit (Xt , t ∈ R+ ) une sous-martingale (resp. une martingale) continue ` droite telle que E(supt |Xt |) < +∞. Alors Xt converge p.s. et dans L1 a vers X∞ et, pour tout temps d’arrˆt τ , Xτ ≤ E(X∞ | Fτ ) p.s. (resp =). e D´monstration. On a (th. 2.3.5) Xt →t X∞ p.s. et dans L1 (vu que supt |Xt | ∈ L1 ). e Donc Xt ≤ E(X∞ | Ft ) et, vu le th. 2.2.1, Xτ ≤ E(X∞ | Fτ ) p.s. Si Xt est une martingale, on consid`re les sous-martingales Xt et −Xt . e

21 Corollaire 2.3.8. Soit (Xt , t ∈ R+ ) une martingale continue ` droite telle que a supt E|Xt |p < +∞, p > 1. Alors Xt converge vers X∞ p.s. et dans Lp et, pour tout temps d’arrˆt τ , E(X∞ | Fτ ) = Xτ p.s. e D´monstration. Vu le th. 2.1.2, supt |Xt | ∈ Lp . Il suffit d’appliquer le th. 2.3.5 et la e prop. ??. Th´or`me 2.3.9. Soit X = (Ω, F, Ft , Xt , P) une martingale continue ` droite. Il y e e a a ´quivalence entre : e (i) (Xt , t ∈ R+ ) est uniform´ment int´grable, e e (ii) Xt converge dans L1 lorsque t → +∞, (iii) Xt est de la forme Xt = E(X | Ft ), X ∈ L1 . Une martingale v´rifiant ces conditions est dite r´guli`re. Dans ce cas, Xt converge e e e vers X∞ p.s. et dans L1 et, pour tout temps d’arrˆt τ , E(X∞ | Fτ ) = Xτ p.s. e D´monstration. Si Xt est une martingale uniform´ment int´grable, on a, vu la prop. e e e ??, supt E|Xt | < +∞ et donc, pour t → +∞, (th. 2.3.5) Xt converge p.s. et aussi vu u le th. ?? dans L1 (puisque c’est le cas de toute suite Xtn pour tn → +∞) d’o` (i) ⇒ 1 , on a X = E(X (ii). Si Xt converge vers X∞ dans L t t+n | Ft ) →n E(X∞ | Ft ) dans L1 et (ii) ⇒ (iii). Que (iii) ⇒ (i) r´sulte de la prop. ?? et la dernl`re affirmation du e e th. 2.2.1. On en d´duit e Th´or`me 2.3.10. Soit (Xt , t ∈ R+ ) une surmartingale g´n´ralis´e positive contie e e e e + et, pour tout t, {X nue ` droite. Alors Xt converge p.s. vers X∞ dans R a ∞ < +∞} ⊂ {Xt < +∞} p.s. De plus, on a, pour tout temps d’arrˆt σ et τ tels que e σ ≤ τ , E(Xτ | Fσ ) ≤ Xσ p.s. D´monstration. On remarque d’abord que, pour tout a > 0, −Xt ∧ a est une souse martingale born´e ferm´e par 0. Donc, pour tout a > 0, Xt ∧ a converge p.s. ce qui e e + implique la convergence p.s. de Xt vers X∞ dans R et que, pour σ ≤ τ , E(Xτ | Fσ ) = E(lim Xτ ∧ a | Fσ ) ≤ lim inf E(Xτ ∧ a | Fσ ) ≤ lim inf Xσ ∧ a = Xσ .
a a a

Enfin, pour tout M , M ≥ E(1{Xt ≤M } Xt ) ≥ E(1{Xt ≤M } E(X∞ | Ft )) = E(1{Xt ≤M } X∞ ) et X∞ < +∞ p.s. sur {Xt ≤ M } et il suffit de remarquer que {Xt < +∞} = ∪M {Xt ≤ M } pour avoir {Xt < +∞} ⊂ {X∞ < +∞} p.s. Les ´nonc´s pr´c´dents sont relatifs ` des (sur-sous)martingales continues ` droite. e e e e a a Cela sera peu gˆnant car les martingales que nous rencontrerons seront la plupart du e temps ` trajectoires continues. Cependant on peut avoir ` consid´rer des martingales a a e de la forme Mt = E(Z | Ft ) qui ne sont pas a priori continues ` droite. On a, ` ce a a sujet, le th´or`me suivant que nous admettons (voir ? ou ?) : e e

22

Martingales Continues

Th´or`me 2.3.11. Soit X = (Ω, F, Ft , Xt , P) une sous-martingale. On suppose la e e filtration Ft standard. Alors, si t → E(Xt ) est continue ` droite, Xt admet une a modification continue ` droite. a

2.4

Martingales de carr´ int´grable e e

Elles joueront un rˆle fondamental par la suite. D’abord quelques propri´t´s o ee ´l´mentaires. Si Mt est une martingale de carr´ int´grable, on a, pour s < t, ee e e
2 2 E((Mt − Ms )2 | Fs ) = E(Mt2 | Fs ) − 2Ms E(Mt | Fs ) + Ms = E(Mt2 − Ms | Fs ).

De plus Mt est un processus a accroissements orthogonaux i.e. pour u < v ≤ s < t, ` E((Mv − Mu )(Mt − Ms )) = 0. (Il suffit de conditionner par Fs ). Ceci implique que, si t0 = 0 < ti < . . . < tn = t est une subdivision de [0, t],
n−1

E(Mt − M0 ) =
i=0

2

E(Mti+1 − Mti )2 .

Section 3.9, on s’int´ressera particuli`rement ` : e e a H2 = {M, Mt martingale continue, M0 = 0, sup E(Mt2 ) < +∞}. c
t

(2.3)

Dans H2 , on identifie les processus indistinguables. c Proposition 2.4.1. (i) Soit M ∈ H2 . Alors Mt →t→+∞ M∞ p.s. et dans L2 et c Mt = E(M∞ | Ft ) p.s.
n (ii) Soient M n ∈ H2 telles que M∞ →n X dans L2 . Alors il existe M ∈ H2 telle c c que X = M∞ p.s. et, pour tout t, Mtn →n Mt dans L2 .

(iii) L’espace H2 muni du produit scalaire (M, N ) := E(M∞ N∞ ), est un espace de c Hilbert. D´monstration. (i) a ´t´ vu (cor. 2.3.8). e ee 2 (ii). Soit Xt = E(X |Ft ). On a (Jensen) E(Xt ) ≤ E(X 2 ) et, vu (??), Mtn − Xt 2 ≤ n − X . Donc M n → X dans L2 . Soit n → +∞ telle que M nk − X −k M∞ 2 n t 2 ≤2 . k k t ∞ On a, vu le th. 2.1.2, E(
k

sup |Mtnk − Mt k+1 |) =
t k

n

E(sup |Mtnk − Mt k+1 |)
t

n


k

sup |Mtnk − Mt k+1 |
t n M∞k − M∞k+1 k n 2

n

2

≤2

< +∞ ,

23 d’o` k supt |Mtnk − Mt k+1 | < +∞ p.s. Ceci implique que p.s. Mtnk converge uniu form´ment sur R+ . Il existe donc un processus continu Mt tel que, pour tout t, e Mtnk →k Mt p.s. Comme Mtnk →k Xt dans L2 , on a Mt = Xt p.s. et M ∈ H2 . c Enfin on a E(M∞ | Ft ) = Mt = Xt = E(X |Ft ) p.s. et donc, pour tout A ∈ Ft , u A M∞ dP = A X dP d’o` (th. ??) M∞ = X p.s. puisque X est σ(Ft , t ≥ 0)mesurable. (iii) (M, N ) est un produit scalaire puisqu’on a identifi´ les processus indistinguables. e n Soit M n une suite de Cauchy dans H2 . M∞ est une suite de Cauchy dans L2 . Il existe c n donc X ∈ L2 tel que M∞ − X 2 →n 0 et il suffit d’appliquer (ii).
n

2.5

Martingales locales

2.5.1. Soit (Ω, Ft , F, P) un espace de probabilit´ filtr´ complet. e e D´finition 2.5.1. Un processus r´el (Xt , t ∈ R+ ) est une martingale locale s’il existe e e une suite de temps d’arrˆt τn croissant p.s. vers +∞ tel que (Xt∧τn , t ∈ R+ ) soit une e martingale. Remarque 2.5.2. Nous avons choisi une d´finition des martingales locales plus restrice tives que la d´finition usuelle (voir ?) car elle impose l’int´grabilit´ de X0 , auquel cas e e e les deux d´finitions co¨ e ıncident. En fait, on ne l’utilisera que pour X0 = 0 ou X0 = 1. Evidemment une martingale est une martingale locale (prendre τn = n). Il faut noter que cette notion est stable par arrˆt : si (Xt , t ∈ R+ ) est une martingale locale e continue ` droite, il en est de mˆme de (Xt∧τ , t ∈ R+ ) quel que soit le temps d’arrˆt a e e τ . Si τ est un temps d’arrˆt tel que (Xt∧τ , t ∈ R+ ) soit une martingale, on dit que τ e r´duit X. e Lemme 2.5.3. Une martingale locale continue ` droite positive est une surmartingale a g´n´ralis´e positive. e e e D´monstration. Soient (Xt , t ∈ R+ ) une martingale locale positive, τn ↑ +∞ p.s. une e suite de temps d’arrˆt r´duisant X. On a, pour s < t, E(Xt | Fs ) = E(limn Xt∧τn | Fs ) ≤ e e lim inf n E(Xt∧τn | Fs ) = Xs p.s. vu le cor. 2.2.4. 2.5.2. Une martingale locale n’est en g´n´ral pas int´grable et, mˆme si elle est e e e e int´grable, ce n’est pas n´cessairement une martingale. Dans le sens positif, on a : e e Proposition 2.5.4. Soit (Xt , t ∈ R+ ) une martingale locale continue ` droite nulle a en 0. (i) On suppose que, pour tout T , E(supt≤T |Xt |) < +∞. Alors Xt est une martingale. (ii) On suppose que E(supt |Xt |) < +∞. Alors Xt est une martingale qui converge p.s. et dans L1 vers une v.a. X∞ et on a, pour tout temps d’arrˆt τ , Xτ = e E(X∞ | Fτ ) p.s.

24

Martingales Continues

(iii) On suppose que E(supt |Xt∧τ |) < +∞, τ temps d’arrˆt. Alors Xt∧τ est une e martingale, X∞ := limt→+∞ Xt existe p.s. sur {τ = +∞}, Xτ ∈ L1 et Xt∧τ = E(Xτ | Ft ) p.s. En particulier E(Xτ ) = 0. D´monstration. Montrons d’abord (ii). Soient Y = supt |Xt | et τn une suite de temps e d’arrˆt r´duisant X. On a, pour A ∈ Fs et s < t, E(1A Xs∧τn ) = E(1A Xt∧τn ). Vu e e que |Xs∧τn | ≤ Y et |Xt∧τn | ≤ Y , on peut appliquer le th´or`me de Lebesgue et l’on e e a E(1A Xs ) = E(1A Xt ) i.e. Xt est une martingale. Il suffit alors d’appliquer le cor. 2.3.7. On obtient (i) et (iii) en consid´rant les martingales locales (Xt∧T , t ≥ 0) et e (Xt∧τ , t ≥ 0).

2.6

Martingales locales continues

Dans ce cas la situation se simplifie grandement. Lemme 2.6.1. Soit (Xt , t ∈ R) un processus ` valeurs Rd avec |X0 | ≤ K et a a ` trajectoires continues. On pose ρn = inf(t ≥ 0, |Xt | ≥ n + K). Alors ρn est un temps d’arrˆt, ρn ↑ +∞ et |Xt∧ρn | ≤ n + K. e D´monstration. On sait (prop. ??) que ρn est un temps d’arrˆt. Les ρn sont ´videmment e e e croissants. Supposons t → Xt (ω) continue et soit A > 0. Alors sup0≤t≤A |Xt |(ω) = M (ω) < +∞ et donc ρn (ω) ≥ A si n + K > M (ω) ce qui montre que ρn (ω) → +∞. Proposition 2.6.2. Soit (Mt , t ∈ R+ ) une martingale locale continue nulle en 0. On suppose qu’il existe un processus croissant adapt´ continu (At , t ∈ R+ ) nul en 0 tel e 2 −A soit une martingale locale. On fixe t > 0. Soit π = {tn = 0 < tn < . . . < que Mt t n 0 1 tnn = t} une suite de subdivisions de [0, t] dont le pas |πn | = supi |tn − tn | →n 0. r i+1 i Alors Vn (M ) = rn −1 (Mtn − Mtn )2 tend en probabilit´ vers At lorsque n → +∞. e i=0 i+1 i
2 D´monstration. (i) Supposons d’abord que, pour tout s, |Ms | + As ≤ K. Alors Ms − e As est une martingale born´e et e
n n E{(Mtn − Mtn )2 | Ftn } = E(Mt2 − Mt2 | Ftn ) = E(Atn − Atn | Ftn ), i+1 i i i i+1 i i i+1 i

d’o` E(Vn ) = u

i E(Mti+1

n

− Mtn )2 = E(At ) et, pour j < i, i

E[{(Mtn − Mtn )2 − (Atn − Atn )}{(Mtn − Mtn )2 − (Atn − Atn )}] = 0. j+1 j j+1 j i+1 i i+1 i On en d´duit, e E(Vn − At )2 = E[
i

{(Mtn − Mtn )2 − (Atn − Atn )}]2 i+1 i i+1 i {(Mtn − Mtn )2 − (Atn − Atn )}2 ] i+1 i i+1 i
i

= E[ ≤ E[
i

(Mtn − Mtn )4 ] + E[ i+1 i
i 2 i

(Atn − Atn )2 ] i+1 i
i

≤ E[sup(Mtn − Mtn ) Vn ] + E[sup(Atn − Atn )At ] i+1 i i+1 i

25 et, puisque E(Vn ) = E(At ) ≤ K, E(Vn − At )2 ≤ 4K 3 + K 2 et supn E[(Vn )2 ] < +∞. On a donc : E(Vn − At )2 ≤ {sup E[(Vn )2 ]E[sup(Mtn − Mtn )4 ]}1/2 + KE[sup(Atn − Atn )]. i+1 i i+1 i
n i i

On en conclut que Vn →n At dans L2 puisque, vu la continuit´, supi (Mtn − Mtn )4 e i+1 i n n ) tendent vers 0 en restant born´s. et supi (Ati+1 − Ati e ρ (ii) Cas g´n´ral. On pose ρp = inf(s ≥ 0, |Ms | + As ≥ p). Alors Mt p = Mt∧ρp et e e 2 Mt∧ρp − At∧ρp sont des martingales born´es. Soient α, ε > 0. On peut choisir (lem. e 2.6.1) p assez grand pour que P(t > ρp ) < ε. Alors P(|Vn (M )−At | > α) ≤ P(|Vn (M )−At | > α, t ≤ ρp )+ε ≤ P(|Vn (M )−At∧ρp | > α)+ε et, vu la premi`re partie, lim supn P(|Vn (M ) − At | > α) ≤ ε. e En fait, l’hypoth`se de la prop. 2.6.2 est toujours v´rifi´e comme le montre le e e e th´or`me suivant. e e Th´or`me 2.6.3. Soit (Mt , t ∈ R+ ) une martingale locale continue nulle en 0. Il e e existe un processus croissant adapt´ continu (At , t ∈ R+ ) nul en 0, unique ` une e a indistinguabilit´ pr`s, tel que Mt2 − At soit une martingale locale. Enfin, si Mt est e e une martingale de carr´ int´grable, on a E(At ) < +∞ et Mt2 − At est une martingale. e e La lecture de cette preuve peut ˆtre omise en premi`re lecture. e e D´monstration. Notons d’abord que l’unicit´ r´sulte de la prop. 2.6.2. e e e (i) On suppose Mt born´e par K. On pose e
n Xt = k≥0
ρp

M2−n k (Mt∧2−n (k+1) − Mt∧2−n k ) , M2−n k 1]2−n k,2−n (k+1)] (t) ,
k≥0

Mtn = Zn =

sup
|t−s|≤ 21 n

|Mt − Ms | .

Puisque Mt est continue et que Mt →t M∞ p.s., on a Zn →n 0 p.s. et, ´tant born´, e e 2 Zn 2 →n 0. Admettons un moment le r´sultat suivant. e Lemme 2.6.4. Il existe une martingale continue de carr´ int´grable Yt telle que, e e n → Y dans L2 . pour tout t, Xt n t On pose alors At = Mt2 − 2Yt , At est un processus adapt´ p.s. continu et Mt2 − At e n est une martingale. Soit An := (Mtn )2 − 2Xt , An →n At dans L2 . On a, pour i, j ∈ N, t t

26 i < j, Anj − Ani
2n

Martingales Continues

2n

j−1

=M

2
j 2n

−M

2
i 2n

−2
k=i

M2−n k (M2−n (k+1) − M2−n k )

j−1

=
k=i j−1

2 2 [M2−n (k+1) − M2−n k − 2M2−n k (M2−n (k+1) − M2−n k )]

=
k=i

(M2−n (k+1) − M2−n k )2 ≥ 0 .

d’o`, pour s < t, An − An ≥ −(1 + 2K)Zn . On en d´duit que At ≥ As p.s. (prendre u e t s une sous-suite qui converge p.s.). On a construit un processus croissant continu tel que Mt2 − At soit une martingale.

Preuve du lem. 2.6.4. Commen¸ons par un r´sultat relatif au temps discret. c e Lemme 2.6.5. Pour toute martingale Mn born´e par K et nulle en 0, tout processus e adapt´ born´ Cn , on a, pour tout n, e e
n

Ck−1 (Mk − Mk−1 )
k=1

2

≤ 6K 2 sup |Ck |2 2 .
k

2 D´monstration. D’apr`s la prop. ?? appliqu´e ` la sous-martingales Mn , il existe un e e e a 2 processus croissant An , Fn−1 -mesurable, telle que Mn − An soit une martingale. On 2 p.s. et E( n (M − M 2 ) = E(A ) = E(M 2 ) ≤ K 2 . De plus a An+1 − An ≤ 4K n k k−1 ) n k=1 n 2 E(Mn − An )2 = E( k=1 n 2 2 (Mk − Mk−1 − Ak + Ak−1 ))2

= E( ≤ 2E(

2 2 (Mk − Mk−1 − Ak + Ak−1 )2 ) k=1 n 2 (Mk k=1 n n

2 Mk−1 )2 )

+ 2E(
k=1

(Ak − Ak−1 )2 )

≤ 8K 2 E(
k=1

(Mk − Mk−1 )2 ) + 8K 2 E(An ) ≤ 8K 4 + 8K 4 = 16K 4

27
4 2 et E(A2 ) ≤ 2E(Mn ) + 2E(Mn − An )2 ≤ 34K 4 . On a alors n n

E(
k=1

Ck−1 (Mk − Mk−1 ))2
n

=
k=1 n

2 E(Ck−1 (Mk − Mk−1 )2 )

=
k=1 n

2 E(Ck−1 E((Mk − Mk−1 )2 |Fk−1 ))

=
k=1 n

2 E(Ck−1 (Ak − Ak−1 ))


k=1

E(sup |Ck |2 (Ak − Ak−1 ))
k

= E(sup |Ck |2 An ) ≤ 6K 2 sup |Ck |2 2 .
k k

Pour tout processus born´ Ct , on d´finit Jtn (C) = e e k≥0 C2−n k (Mt∧2−n (k+1) − n (C) est une martingale continue et, vu le lem. 2.6.5, J n (C) Mt∧2−n k ). J m 2 ≤ n 6K 2 supt |Ct |2 2 et supt Jtn (C) 2 ≤ 6K 2 supt |Ct |2 2 . Donc J n (C) ∈ H2 d´fini e c n par (2.3). On a alors Xt = Jtn (M ) = Jtn (M n ) = Jtm (M n ) si m > n. D’o`, pour tout u m > n,
n m X∞ − X∞ 2 m m = J∞ (M n ) − J∞ (M m ) 2 m = J∞ (M n − M m ) 2 2 ≤ 6K 2 Zn 2 .
2

n Donc X∞ →n Y dans L2 et (prop. 2.4.1) il existe une martingale continue Y ∈ H2 c n telle que, pour tout t, Xt → Yt dans L2 . Passons au cas g´n´ral. Soit ρp = inf(t ≥ 0, |Mt | ≥ p). Il existe Ap croissant e e t 2 continu tel que Mt∧ρp − Ap soit une martingale. Vu l’unicit´, Ap+1p = Ap p et on e t∧ρ t t∧ρ conclut facilement. 2 Enfin, si Mt est une martingale de L2 , E(At∧ρp ) = E(Mt∧ρp ) ≤ E(Mt2 ) et E(At ) < 2 +∞. Vu que E(sups≤t Ms ) ≤ 4E(Mt2 ), la prop. 2.5.4 implique que Mt2 − At est une martingale.

Notation. Le processus At s’appelle le processus croissant associ´ ` Mt . On le note ea traditionnellement M t ou M, M t (ce qui est pr´f´rable mais plus long...). ee
2 Remarque 2.6.6. Soit τ un temps d’arrˆt. Puisque Mt∧τ − M e locale, on a : M τ t = M t∧τ . t∧τ

est une martingale (2.4)

Remarque 2.6.7. Attention ! Il existe des martingales locales continues et de carr´ e int´grable qui ne sont pas des martingales. Par contre l’int´grabilit´ du processus e e e croissant M t donne des informations sur Mt .

28

Martingales Continues

Lemme 2.6.8. Soit Mt une martingale locale continue nulle en 0. On a E(sup |Mt |) ≤ 3 E(
t

M

∞ ).

D´monstration. Soit At = M t . On pose ρp = inf(s ≥ 0, |Ms |+As ≥ p). Alors Mt∧ρp e 2 et Mt∧ρp − At∧ρp sont des martingales born´es. Soit σc = inf(t ≥ 0, At ≥ c2 ). On a e (prop. ?? (ii))
2 P(sup Mt∧σc ∧ρp > c2 ) ≤ t

1 1 1 1 2 E(Mσc ∧ρp ) = 2 E(Aσc ∧ρp ) ≤ 2 E(Aσc ) ≤ 2 E(c2 ∧ A∞ ) c2 c c c

2 d’o` P(supt Mt∧σc > c2 ) ≤ c−2 E(c2 ∧ A∞ ) et u 2 P(sup Mt2 > c2 ) ≤ P(σc < +∞) + P(sup Mt∧σc > c2 ) ≤ P(A∞ ≥ c2 ) + c−2 E(c2 ∧ A∞ ). t t

On a alors
+∞

E(sup |Mt |) =
t 0 +∞

P(sup Mt2 > c2 ) dc
t +∞


0

P(A∞ ≥ c2 ) dc +
√ A∞ √ 0 A∞

c−2 E(c2 ∧ A∞ ) dc
+∞ √

= E(
0

dc) + E(
0

dc) + E(A∞

c−2 dc)

A∞

= 3E( A∞ ).

Th´or`me 2.6.9. Soit Mt une martingale locale continue nulle en 0. Alors e e (i) M∞ = limt→+∞ Mt existe p.s. sur { M (ii) si, pour tout t, E(

< +∞},

M t ) < +∞, Mt est une martingale,

(iii) si E( M ∞ ) < +∞, Mt converge p.s. et dans L1 vers une v.a. M∞ et on a, pour tout temps d’arrˆt τ , Mτ = E(M∞ | Fτ ) p.s. e (iv) si, pour tout t, E( M t ) < +∞, Mt est une martingale de L2 et Mt2 − M une martingale, (v) si E( M
∞) t

est

< +∞, Mt est une martingale born´e dans L2 i.e. M ∈ H2 . e c

Soit τ un temps d’arrˆt. e (vi) si E( M τ ) < +∞, M∞ = limt→+∞ Mt existe p.s. sur {τ = +∞}, Mτ ∈ L1 et E(Mτ ) = 0, 2 (vii) si E( M τ ) < +∞, on a, de plus, E(Mτ ) = E( M τ ).
2 D´monstration. Soit τn = inf(t ≥ 0, |Mt | + M t ≥ n). Mt∧τn − M t∧τn ´tant une e e 2 martingale locale born´e, c’est une martingale et E(Mt∧τn ) = E( M t∧τn ) ≤ E( M t ) e 2 d’o`, par Fatou, E(Mt2 ) ≤ lim inf n E(Mt∧τn ) ≤ E( M t ). u

29 Supposons E( M ∞ ) < +∞. Alors (lem. 2.6.8) E(supt |Mt |) < +∞ et on peut utiliser la prop. 2.5.4 ce qui donne (iii). Appliquant ce r´sultat ` M T , T > 0 fix´, on e a e a (ii) puisque E( M T ∞ ) = E( M T ). Vu que E(Mt2 ) ≤ E( M t ), si, pour tout t, E( M t ) < +∞, Mt est une martingale de L2 et (th. 2.6.3) Mt2 − M t est une martingale d’o` (iv). Si E( M ∞ ) < +∞, supt E(Mt2 ) ≤ E( M ∞ ) < +∞ et M ∈ H2 u c ce qui montre (v). Soit ρp = inf(t ≥ 0, M t ≥ p). On a, d’apr`s (2.4), E( M ρp ∞ ) = E( M ρp ) ≤ p e ρ et M ρp ∈ H2 . D’o` la convergence p.s. de Mt p et donc de Mt sur {ρp = +∞}. On u c obtient (i) en remarquant que { M ∞ < +∞} = ∪p {ρp = +∞} p.s. Enfin (vi) et (vii) s’obtiennent en appliquant (iii) et (v) ` M τ . a On a ´galement : e Proposition 2.6.10. Soit Mt une martingale locale continue nulle en 0. Alors, p.s., Mt et M t ont les mˆmes intervalles de constance. e D´monstration. On peut supposer M ∈ H2 . On pose At = M t .Il suffit de mone c trer que, pour tous r, s ∈ Q, r < s, {Mu est constante sur [r, s] } = {Ar = As } p.s. Consid´rant (Mu − Mr , u ≥ r), on peut supposer r = 0. Vu la prop. 2.6.2, e P(supu≤s |Mu | > 0) = 0 implique P(As = 0) = 1. R´ciproquement supposons que e P(supu≤s |Mu | > 0) > 0. Alors il existe a > tel que P(τa ≤ s) > 0 o` τa = inf(u ≥ u 0, supu≥0 |Mu | ≥ a). On a donc
2 0 < a2 P(τa ≤ s) ≤ E(Mτa ∧s ) = E(Aτa ∧s ) ≤ E(As ).

Proposition 2.6.11. Soit (Xt , t ∈ R+ ) une Ft -sous-martingale continue ` droite. a + ) est une F -sous-martingale. Alors (Xt , t ∈ R t+ D´monstration. Il s’agit de montrer que, pour s < t et A ∈ Fs+ , E(1A Xt ) ≥ E(1A Xs ). e Supposons d’abord la sous-martingale positive. On a, pour n assez grand, E(1A Xt ) ≥ u e E(1A Xs+ 1 ). Le cor. ?? implique que Xs+ 1 →n Xs dans L1 d’o` le r´sultat. Pour le n n cas g´n´ral, on consid`re la sous-martingale positive a + Xt ∨ (−a) et on remarque e e e que, lorsque a → +∞, Xs ∨ (−a) → Xs et Xt ∨ (−a) → Xt dans L1 .

30

Martingales Continues

Chapitre 3

Calcul stochastique
Soit (Ω, F, Ft , P) un espace de probabilit´ filtr´ complet (??.1) i.e. F0 contient e e les ensembles n´gligeables de F. On identifiera donc les processus indistinguables. En e particulier, “le processus X est nul” signifie que le processus X est indistinguable du processus identiquement nul.

3.1

Processus ` variation finie a

Les principales propri´t´s des fonctions ` variation finie ont ´t´ ´tudi´es section ee a eee e ??. Soit (At , t ∈ R+ ) un processus adapt´ croissant continu nul en 0. Pour tout ω, il e existe une unique mesure µ(ω, .) telle que At (ω) = µ(ω, [0, t]). Si Xt est un processus t mesurable positif, on d´finit un nouveau processus (X.A)t = 0 Xs dAs par e (X.A)t (ω) = On peut de mˆme d´finir e e
t 0 Xs dAs def 0 t

Xs (ω)µ(ω, ds) .
t 0 |Xs | dAs

pour X r´el si, pour tout t, e
t

< +∞.

Lemme 3.1.1. Soit Xt un processus progressif tel que 0 |Xs | dAs < +∞ pour tout t t. Alors le processus (X.A)t = 0 Xs dAs est adapt´ continu (et donc progressif ). e D´monstration. La continuit´ r´sulte du th´or`me de Lebesgue puisque µ(ω, {t}) = 0. e e e e e Appliquant, pour t fix´, le th. ?? ` C = { ]u, v] × Γ, 0 ≤ u < v ≤ t, Γ ∈ Ft } et e a t H = {Z ∈ b(B([0, t]) ⊗ Ft ), 0 Zs dAs ∈ Ft }, on obtient que H = b(B([0, t]) ⊗ Ft ). On conclut facilement.

3.1.1

Variation totale

Soit (Vt , t ∈ R+ ) un processus adapt´ continu nul en 0 et dont les trajectoires e sont ` variation finie. On appelle variation totale de V le processus a
n V St (ω) = sup k=1 def

|Vtk (ω) − Vtk−1 (ω)|, 0 = t0 < . . . < tn = t

.

(3.1)

32

Calcul stochastique

V V St est un processus adapt´ croissant continu (prop. ??) nul en 0 et |Vt | ≤ St . De e 1 = (S V + V )/2 et A2 = (S V − V )/2 sont des processus croissants continus. plus At t t t t t V Evidemment Vt = A1 − A2 , St = A1 + A2 . t t t t t V Soit Xt un processus progressif v´rifiant pour tout t, 0 |Xs | dSs < +∞. On peut e d´finir e t

(X.V )t =
0

Xs dVs =

def 0

t

t

Xs dA1 − t
0

Xs dA2 . t

Alors (X.V )t est un processus adapt´ continu ` variation finie nul en 0 et e a
t t

Xs dVs ≤
0 0

V |Xs | dSs .

On pose e Ac = {A, At est un processus adapt´, nul en 0, p.s. croissant et continu} , e a Vc = {V, Vt est un processus adapt´, nul en 0, p.s. ` variation finie et continu} . Les processus de Ac et Vc sont donc indistinguables de processus continus et on a Ac ⊂ Vc . Soit Xt un processus progressif. Pour A ∈ Ac , on peut d´finir (X.A)t = e t t 0 Xs dAs si Xt est positif p.s. ou si 0 |Xs | dAs < ∞ p.s. quel que soit t. Pour V ∈ Vc , t t V on peut d´finir (X · V )t = 0 Xs dVs si 0 |Xs | dSs < +∞ p.s. quel que soit t. e Exemple 3.1.2. Soit ψt un processus progressif v´rifiant, pour tout t, 0 |ψs | ds < +∞ e t V = t |ψ | ds et t X dV = t X ψ ds est p.s. Alors (voir ??) Vt = 0 ψs ds ∈ Vc , St s s s s s 0 0 0 t d´fini pour tout X tel que, pour tout t, 0 |Xs | |ψs | ds < +∞ p.s. e
t def def

3.1.2

Variation finie d’une martingale locale continue
def

On pose : Mloc = {M, Mt est une martingale locale nulle en 0, p.s. continue} . c Th´or`me 3.1.3. Mloc ∩ Vc = {0}. e e c
M D´monstration. Soit St la variation totale de M . C’est un processus continu (prop. e ??). Supposons tout d’abord que la variation totale du processus M soit finie, i.e. il M existe K telle que St ≤ K. On a aussi |Mt | ≤ K. Soit πn = {tn = 0 < tn < . . . < 0 1 tnn = t} une suite de subdivisions de [0, t] dont le pas |πn | = supi |tn − tn | →n 0. r i+1 i D’apr`s la Proposition 2.5.4, Mt est une martingale. Donc, e rn −1 rn −1
n (Mt2 i+1

E

Mt2

=E
i=0

n Mt2 ) i

=E
i=0

(Mtn − Mtn )2 i+1 i

rn −1

≤ E sup |Mtn − Mtn | i+1 i
i i=0

|Mtn − Mtn | i+1 i

≤ KE sup |Mtn − Mtn | →n 0 , i+1 i
i

33 puisque supi |Mtn − Mtn | →n 0 en restant born´. Donc Mt = 0 p.s. et on conclut e i+1 i par le lem. ??. M Nous consid´rons maintenant le cas g´n´ral. On pose ρn = inf(t > 0, St ≥ n) et e e e on applique le r´sultat pr´c´dent ` la martingale arrˆt´e Mt∧ρn . e e e a ee

3.1.3

Crochet de martingales locales

On ´tend le th. 2.6.3. e Th´or`me 3.1.4. Pour tous M, N ∈ Mloc , il existe un unique V ∈ Vc tel que e e c Mt Nt − Vt soit une martingale locale (continue). On note Vt = M, N t . On fixe t > 0. Si πn = {tn = 0 < tn < . . . < tnn = t} est une suite de subdivisions de [0, t] r 0 1 dont le pas |πn | = supi |tn − tn | →n 0, i+1 i
rn −1

(Mtn − Mtn )(Ntn − Ntn ) →n M, N i i+1 i i+1
i=0

t

,

en probabilit´. e

(3.2)

De plus l’application (M, N ) → M, N est bilin´aire sym´trique et, pour tout temps e e d’arrˆt τ , M τ , N τ t = M, N τ t = M, N t∧τ . e D´monstration. (i) Unicit´. Supposons Mt Nt − Vt1 = Ut1 et Mt Nt − Vt2 = Ut2 avec e e U i ∈ Mloc . Alors Vt1 − Vt2 = Ut2 − Ut1 ∈ Mloc ∩ Vc et donc (th. 3.1.3) V 1 = V 2 . c c 1 (ii) Existence. On a Mt Nt = 4 {(Mt + Nt )2 − (Mt − Nt )2 } et Vt = 1 { M + N t − 4 M − N t } convient (th. 2.6.3) et la prop. 2.6.2 ´tablit (3.2). La stabilit´ par arrˆt e e e τ, Nτ des martingales locales continues et l’unicit´ du crochet impliquent que M e t = M, N t∧τ . Enfin l’´galit´ M τ , N τ t = M, N τ t r´sulte de (3.2). e e e Le processus M, N t s’appelle le crochet des martingales (locales) M et N . Lorsque M = N , il sera simplement not´ M t . e

3.2

Int´grale stochastique e

Soit B = (Ω, F, Ft , Bt , P) un Ft -mouvement brownien r´el issu de 0. On veut e t d´finir 0 φs dBs pour une classe convenable de processus φs . Le mouvement brownien e n’´tant pas ` variation finie, ceci ne peut pas se faire trajectoire par trajectoire comme e a dans la section pr´c´dente. e e

3.2.1

Processus ´tag´s E e e

On commence par traiter le cas de processus ´l´mentaires. ee D´finition 3.2.1. On appelle processus ´tag´ un processus de la forme e e e
n−1

φt =
i=0

Ui 1]ti ,ti+1 ] (t)

(3.3)

o` 0 ≤ t0 < t1 < . . . < tn < ∞ et Ui ∈ bFti . On note E l’ensemble des processus u ´tag´s. e e

34 Pour φ ∈ E, on pose, pour tout 0 < t ≤ +∞,
t 0 n−1

Calcul stochastique

φs dBs =

def i=0

Ui (Bti+1 ∧t − Bti ∧t ).

(3.4)

Rappelons que H2 d´signe l’espace des martingales continues issues de 0 et telles que c e supt E(Mt2 ) < +∞ (voir Eq. 2.3). Proposition 3.2.2. Soit φ ∈ E. Alors Mt = particulier
+∞ +∞ t 0 φs dBs

∈ H2 et M c
+∞

t

=

t 2 0 φs ds.

En

2

E
0

φs dBs = 0 ,

E
0

φs dBs

=E
0

φ2 ds . s

(3.5)

D´monstration. Soit φ donn´ par (3.3). Nous laissons au lecteur le soin de v´rifier : e e e Lemme 3.2.3. Soient Xt un processus adapt´ int´grable et 0 = t0 ≤ t1 < · · · < tn < e e + v´rifiant t ≤ s < t ≤ t tn+1 = +∞. Si, pour tous s, t ∈ R e i i+1 , E[Xt − Xs |Fs ] = 0, alors Xt est une martingale. On suppose donc ti ≤ s < t ≤ ti+1 . On a, d’une part, Mt − Ms = Ui (Bt − Bs ) avec Ui ∈ bFti ⊂ bFs et E [Mt − Ms |Fs ] = Ui E [Bt − Bs |Fs ] = 0 . D’autre part, posant At =
t 2 0 φs ds,

on a At − As = Ui2 (t − s) et

2 E Mt2 − Ms |Fs = E (Mt − Ms )2 |Fs = Ui2 E (Bt − Bs )2 |Fs = Ui2 (t − s) ,

d’o` u
2 2 0 = E Mt2 − Ms − Ui2 (t − s)|Fs = E Mt2 − At − (Ms − As )|Fs , 2 et Mt2 − At est une martingale. On a donc, E[Mt2 − At ] = E[M0 − A0 ] = 0 pour 2 ) = E(A ). Mais pour t ≥ t , M = M tout t, et donc E(Mt u t n t tn et At = Atn d’o` 2 ] = E[A ]. E[M∞ ∞

3.2.2

Construction de l’int´grale stochastique e
Λ2 = L2 (R+ × Ω, Prog, λ ⊗ P) .
def

On pose (3.6) Il s’agit donc des classes d’´quivalence pour l’´galit´ λ ⊗ P p.p. C’est un espace de e e e Hilbert pour la norme φ
def Λ2 +∞ 1/2

=

E
0

φ2 ds s

,

(3.7)

35 et E ⊂ Λ2 (avec l’abus de langage usuel). Alors I : φ → I(φ) =
def 0 +∞

φs dBs ,

est une application lin´aire et une isom´trie de E dans L2 (Ω, F, P), elle se prolonge e e ¯ donc de fa¸on unique en une isom´trie de E dans L2 (Ω, F, P) d’o` l’int´rˆt d’identifier c e u ee ¯ E. Proposition 3.2.4. E est dense dans (Λ2 , .
Λ2 ).

¯ D´monstration. Soit φ ∈ Λ2 orthogonale ` E. Pour montrer que E = Λ2 , il suffit de e a 2 (cor. ??). Consid´rons X = t φ ds. Puisque |φ | ≤ 1+φ2 , montrer que φ = 0 dans Λ e s t s 0 s t on a que, pour tout t, E[ 0 |φs | ds] < +∞. Donc Xt ∈ L1 et X = (Xt , t ≥ 0) ∈ Vc . Soient s < t, A ∈ Fs et ψu = 1A 1]s,t] (u) ∈ E. On a
+∞ t

0=E
0

φs ψs ds = E 1A
s

φs ds = E [1A (Xt − Xs )] ,

ce qui montre que Xt est une martingale. Donc (th. 3.1.3) Xt = 0, φs = 0 p.p. (cor. ??) et φ = 0 dans Λ2 . Remarque 3.2.5. On peut montrer (voir ?) que, si φ est un processus mesurable +∞ adapt´ tel que E[ 0 φ2 ds] < +∞, il existe une suite φn de processus ´tag´s telle e e e s +∞ n )2 ds] → 0. Ceci implique que, si φ est un processus mesurable que E[ 0 (φs − φs n adapt´, il existe un processus progressif ψ tel que φ = ψ λ ⊗ P p.p. L’espace Λ2 des e classes est alors inchang´. e ¯ = Λ2 et I se prolonge ` tout Λ2 . Vu son importance et pour la On a donc E a commodit´ du lecteur, nous explicitons la construction de ce prolongement. Soit φ ∈ e 2 . Il existe φ ∈ E tels que φ − φ Λ n n Λ2 → 0. I(φn ) est une suite de Cauchy de L2 puisque I(φn ) − I(φm ) 2 = φn − φm Λ2 . Soit X = limn I(φn ) dans L2 . Cette limite ne d´pend pas du choix de la suite φn convergeant vers φ car si ψn converge e vers φ dans Λ2 , I(φn ) − I(ψn ) 2 = φn − ψn Λ2 → 0 et donc X = limn I(ψn ) dans L2 . On pose X = I(φ). On a donc ´tabli (la derni`re assertion r´sulte du fait que la e e e 2 implique la convergence dans L1 ) : convergence dans L Th´or`me 3.2.6. Il existe une application lin´aire unique I de Λ2 dans L2 (Ω, F, P) e e e telle que (i) pour toute φ ∈ Λ2 , I(φ) De plus E(I(φ)) = 0. On note I(φ) = 0 φs dBs . On appelle I(φ) l’int´grale stochastique de φ sur R+ . e On pose ensuite, pour T > 0, Λ2 (T ) = L2 [0, T ] × Ω, Prog, λ|[0,T ] ⊗ P .
def +∞ 2

= φ

Λ2 ,

(ii) si φ = U 1]s,t] , U ∈ bFs , I(φ) = U (Bt − Bs ).

(3.8)

36 Si φ ∈ Λ2 (T ), φ1[0,T ] ∈ Λ2 et on peut d´finir e
T 0 T 0

Calcul stochastique

φs dBs =

def 0

+∞

1[0,T ] (s)φs dBs .

(3.9)

e e φs dBs s’appelle l’int´grale stochastique de φ sur [0, T ]. De plus l’int´grale stochastique d´finissant une isom´trie (voir Th´or`me 3.2.6-i, nous avons e e e e Corollaire 3.2.7. Soit φ, ψ ∈ Λ2 (T ). (i)
T T 2 T

E
0

φs dBs = 0 ,
T T

E
0

φs dBs

=E
0 T

φ2 ds , s

(ii) E
0

φs dBs
0

ψs dBs = E
0

φs ψs ds .

3.2.3

Continuit´ de l’int´grale stochastique e e
t

Soit φ ∈ Λ2 . Pour chaque t, Xt = 0 φs dBs est une classe de L2 i.e. n’est d´finie e qu’` une ´quivalence pr`s. Il se pose donc le probl`me de choisir un repr´sentant a e e e e Xt (ω) de cette classe tel que le processus Xt (ω) soit le plus r´gulier possible. C’est e l’objet du th´or`me suivant. e e Th´or`me 3.2.8. Soit φ ∈ Λ2 . Il existe M ∈ H2 telle que, pour tout t, Mt = e e c t t φs dBs p.s. De plus Mt2 − 0 φ2 ds est une martingale. s 0 D´monstration. On peut appliquer la prop. 2.4.1 mais aussi le montrer directement. e t Soient (φn ∈ E, n ≥ 0) tels que φ − φn Λ2 ≤ 2−n et Mtn = 0 φn dBs . (Mtn , t ≥ 0) s 2 et, en utilisant le th´or`me 2.1.2 dans la seconde est une martingale continue de L e e in´galit´, e e E sup |Mtn+1 − Mtn | ≤ sup |Mtn+1 − Mtn |
t t t 2 2

≤ 2 sup Mtn+1 − Mtn Il en r´sulte que e E
n

= 2 φn+1 − φn

Λ2

≤ 4 2−n .

sup |Mtn+1 − Mtn | =
t n

E sup |Mtn+1 − Mtn | < +∞
t

p.s.

n+1 d’o` u − Mtn | < +∞ p.s. et p.s. la suite de martingales continues n supt |Mt (Mtn , t ≥ 0) converge uniform´ment sur R+ vers un processus continu (Mt , t ≥ 0). e t Comme, pour chaque t, Mtn →n Mt dans L2 , Mt est une martingale et Mt = 0 φs dBs p.s. Alors t t

Utn = (Mtn )2 −
0

(φn )2 ds →n Mt2 − s
0

φ2 ds = Ut s

37 dans L1 et Ut est une martingale. Enfin
t ∞

E Mt2 = E
0

φ2 ds ≤ E s
0

φ2 ds < +∞ , s

et M ∈ H2 . c Dor´navant, pour φ ∈ Λ2 , 0 φs dBs d´signera la martingale continue Mt telle que, e e t pour tout t, Mt = 0 φs dBs p.s. et Mt s’appelle l’int´grale stochastique de φ. e Corollaire 3.2.9. Soient φ, ψ ∈ Λ2 , Mt = 0 φs dBs , Nt = 0 ψs dBs . On a t M, N t = 0 φs ψs ds et Mt Nt − M, N t est une martingale.
1 D´monstration. Il suffit d’´crire φs ψs = 4 ((φs + ψs )2 − (φs − ψs )2 ). e e t t t

Corollaire 3.2.10. Soient φ, ψ ∈ Λ2 , Mt = d’arrˆt. On a, pour tout t, e E [Mt∧τ Nt∧τ ] = E

t 0 φs dBs ,

Nt =

t 0 ψs dBs

et τ un temps

t∧τ

φs ψs ds .
0

D´monstration. Il suffit d’appliquer les cor. 2.2.3 et 3.2.9. e Corollaire 3.2.11. Soient φ ∈ Λ2 , Mt = t Mt∧τ = 0 φs 1[0,τ ] (s) dBs p.s. D´monstration. Soit Nt = e 0. Mais (cor. 3.2.10)
2 E Mt∧τ = E 0 t 0 φs 1[0,τ ] (s) dBs . t 0 φs dBs

et τ un temps d’arrˆt. On a e

Il suffit de montrer que E[Mt∧τ − Nt ]2 =
t

t∧τ

φ2 ds , s

E Nt2 = E
0

φ2 1[0,τ ] (s) ds , s

et (cor. 2.2.4),
t∧τ

E [Mt∧τ Nt ] = E [Mt∧τ Nt∧τ ] = E
0

φ2 ds , s

d’o` E[Mt∧τ − Nt ]2 = 0. u

3.2.4

Extension

Nous commen¸ons par un lemme pr´paratoire. c e
n Lemme 3.2.12. Soient Xt des processus continus et τn une suite croissante de temps n+1 n d’arrˆt avec limn τn = +∞ p.s. On suppose que, pour tout t et tout n, Xt∧τn = Xt∧τn e n p.s. Alors il existe un processus continu Xt tel que, pour tout t et tout n, Xt = Xt∧τn p.s.

38

Calcul stochastique

n+1 n D´monstration. Puisqu’ils sont continus, les processus (Xt∧τn , t ∈ R+ ) et (Xt∧τn , t ∈ e + ) sont indistinguables (lem. ??). Il existe donc un ensemble N n´gligeable tel que, R e n+1 n pour tout ω ∈ N , limn τn (ω) = +∞ et Xt∧τn (ω) = Xt∧τn (ω) quel que soit n. On / n d´finit alors Xt (ω) = Xt (ω) si ω ∈ N et t < τn (ω) et Xt (ω) = 0 si ω ∈ N . e /

On pose Λ0 =
def t

φ, φs processus progressif et, pour tout t,
0

φ2 ds < +∞ p.s. s

(3.10)

On identifie comme d’habitude les processus ´gaux λ ⊗ P p.p. Soit φ ∈ Λ0 . On pose e
t

τn = inf t ≥ 0,
0

φ2 ds ≥ n s

.

On a donc E

τn 0

φ2 ds < +∞. On d´finit M n ∈ H2 par e s c
t

Mtn =
0 t∧τ

φs 1[0,τn ] (s) dBs .

(3.11)

n+1 n On a M n t = 0 n φ2 ds. Vu le cor. 3.2.11, on a Mt∧τn = Mt∧τn p.s. Il existe s n donc (lem. 3.2.12) un processus continu Mt tel que, pour tout t, Mt∧τn = Mt∧τn . t 2 Par construction mˆme, M ∈ Mloc et Ut = Mt2 − 0 φs ds ∈ Mloc . Si τ est un temps e c c τ 2 t d’arrˆt tel que E( 0 φs ds) < +∞ et si Nt = 0 φs 1[0,τ ] (s) dBs , on a (cor. 3.2.11) e n e Mt∧τn ∧τ = Mt∧τn ∧τ = Nt∧τn p.s. et, pour n → +∞, Mt∧τ = Nt p.s. On a ´tabli,

Th´or`me 3.2.13. Soit φ ∈ Λ0 . Il existe M ∈ Mloc , unique, telle que, pour tout e e c τ t temps d’arrˆt v´rifiant E( 0 φ2 ds) < +∞, on ait Mt∧τ = 0 φs 1[0,τ ] (s) dBs p.s. De e e s t plus M t = 0 φ2 ds. s Mt s’appelle encore l’int´grale stochastique de φ et se note toujours e a comme d’habitude, Corollaire 3.2.14. Soient φ, ψ ∈ Λ0 et Mt = t M, N t = 0 φs ψs ds.
t 0 φs dBs , t 0 φs dBs .

On

Nt =
T 0

t 0 ψs dBs .

Alors

Soit T > 0. Si φs est un processus progressif tel que φs 1[0,T ] (s) ∈ Λ0 et on d´finit e
t

φ2 ds < +∞ p.s., s

Mt =
0 T

φs 1[0,T ] (s) dBs .

(3.12)

On appelle encore 0 φs dBs l’int´grale stochastique de φ sur [0, T ]. Il est essentiel e T e de remarquer qu’en g´n´ral la v.a. 0 φs dBs n’est pas int´grable et que le cor. 3.2.7 e e n’est plus valable. N´anmoins le processus croissant M t contrˆle l’int´grabilit´ de e o e e Mt . C’est ce que pr´cise le th. 2.6.9. e Enfin le cor. 3.2.11 s’´tend sans peine et devient : e Corollaire 3.2.15. Soient φ ∈ Λ0 , Mt = t Mt∧τ = 0 φs 1[0,τ ] (s) dBs p.s.
t 0 φs dBs

et τ un temps d’arrˆt. On a e

39

3.3

Le cas vectoriel

On consid`re un Ft -mouvement brownien ` valeurs Rd issu de 0, B = (Ω, F, Ft , Bt , P). e a 1 d k On note Bt = (Bt , . . . , Bt ). Chaque Bt est un Ft -mouvement brownien auquel on peut appliquer les r´sultats de la section pr´c´dente. Rappelons que, pour x ∈ Rd , e e e |x| d´signe la norme euclidienne de x. e On pose Λ2 = {φ, φ = (φ1 , . . . , φd ), φk ∈ Λ2 } , (3.13) d Λ0 = d
def

φ, φ = (φ1 , . . . , φd ), φk ∈ Λ0

,

(3.14)

o` Λ2 (resp. Λ0 ) est d´fini par (3.6) (resp. (3.10)). Pour φ ∈ Λ0 , on d´finit : u e e d
t d

Mt =
0

φs · dBs = M ∈ H2 . c

def k=1 0

t k φk dBs . s t 0 φs

(3.15) · dBs ou

Alors M ∈ t T 0 φs dBs .

Mloc c

et, si φ ∈

Λ2 , d

On ´crira indiff´remment e e
t i 0 φs dBs ,

Lemme 3.3.1. Soient φ, ψ ∈ Λ0 , Mti = i = j, M i , M j = 0.

Mtj =

t j 0 ψs dBs .

On a, pour

i j D´monstration. On sait (prop. 1.4.3) que, pour i = j, Bt Bt est une martingale. Il en e j j i i est de mˆme, pour 0 < a ≤ t, de (Bt − Ba )(Bt − Ba ). Comme, pour a < b ≤ c < d, e j i i )V (B j U ∈ bFa , V ∈ bFc , U (Bt∧b − Bt∧a t∧d − Bt∧c ) est une martingale, on a, vu la i , M j = 0 si φ, ψ ∈ E. Par densit´, c’est encore vrai pour bilin´arit´ de ·, · , que M e e e φ, ψ ∈ Λ2 et, par arrˆt, pour φ, ψ ∈ Λ0 . e

On en d´duit imm´diatement, vu la bilin´arit´ du crochet, e e e e Proposition 3.3.2. Soient φ, ψ ∈ Λ0 , Mt = d
d t k φk ψs ds = s k=1 t 0 0 t 0 φs

· dBs , Nt =
t

t 0 ψs

· dBs . On a

M, N

t

=

φs · ψs ds .

En particulier M t = 0 |φs |2 ds. Le lecteur est invit´ ` se reporter au th. 2.6.9 ea pour la liste des propri´t´s d’int´grabilit´ de Mt en fonction de celles de M t . ee e e Proposition 3.3.3. Soient φ ∈ Λ0 et A ∈ F0 . Si, sur A, d t φs · dBs = 0 p.s. sur A. 0
t t 2 0 |φs | ds

= 0 p.s., on a

D´monstration. Soit Mt = 0 φs · dBs . Par arrˆt, on se ram`ne au cas o` φ ∈ Λ2 . e e e u d 2− M Alors Ut = Mt t est une martingale et E(Ut |F0 ) = U0 = 0. On a donc E 1A Mt2 = E 1A E[Mt2 |F0 ] = E [1A E[ M t |F0 ]]
t

= E [1A M t ] = E 1A
0

|φs |2 ds = 0 .

40

Calcul stochastique

3.4

Formule d’Itˆ o

On consid`re toujours un Ft -mouvement brownien r´el ` valeurs Rd issu de 0, e e a B = (Ω, F, Ft , Bt , P).

3.4.1

Processus d’Itˆ o
t t

D´finition 3.4.1. On appelle processus d’Itˆ tout processus Xt de la forme e o Xt = X0 +
0

φs · dBs +
0

αs ds ,

(3.16)

o` X0 ∈ F0 , φ ∈ u t 0 |αs | ds < +∞ p.s.

Λ0 et αs est un processus progressif r´el tel que, pour tout t, e d
t

Un processus d’Itˆ s’´crit donc Xt = X0 + Mt + Vt avec Mt = 0 φs · dBs ∈ Mloc o e c t et Vt = 0 αs ds ∈ Vc . Vu le th. 3.1.3, cette d´composition est unique. e Soient deux processus d’Itˆ o
t t t t

Xt = X0 +
0

φs · dBs +
0

αs ds ,
t

Yt = Y0 +
0 d t

ψs · dBs +
0

βs ds .

On d´finit : e X, Y
def t

=

φs · ψs ds =
0 k=1 0

k φk ψs ds . s

(3.17)

C’est donc (prop. 3.3.2) le crochet des parties martingales. L’application (X, Y ) → X, Y est ´videmment bilin´aire sym´trique. Cette d´finition est justifi´e par : e e e e e Proposition 3.4.2. Soient X, Y deux processus d’Itˆ et t > 0. Soit πn = {tn = o 0 0 < tn < . . . < tnn = t} une suite de subdivisions de [0, t] dont le pas |πn | = r 1 supi |tn − tn | →n 0. On a i+1 i
rn −1

(Xtn − Xtn )(Ytn − Ytn ) →n X, Y i+1 i i+1 i
i=0

t

en probabilit´ . e

D´monstration. On ´crit Xt = X0 + Mt + Vt , Yt = Y0 + Nt + Wt , M, N ∈ Mloc , e e c V, W ∈ Vc . On a (th. 3.1.4)
rn −1

(Mtn − Mtn )(Ntn − Ntn ) →n M, N i+1 i i+1 i
i=0

t

en probabilit´. e

Par ailleurs,
rn −1 rn −1

|
i=0

(Mtn − Mtn )(Wtn − Wtn )| ≤ sup |Mtn − Mtn | i+1 i i+1 i i+1 i
i i=0 i

|Wtn − Wtn | i+1 i

W ≤ sup |Mtn − Mtn | St . i+1 i

tend p.s. vers 0 pour n → +∞ vu la continuit´ de M . Les autres termes se traitent e de la mˆme fa¸on et on obtient le r´sultat cherch´. e c e e

41

3.4.2
Soit

Int´gration par rapport ` un processus d’Itˆ e a o
t t

Xt = X0 +
0

φs · dBs +
0

αs ds

un processus d’Itˆ. On pose : o
t

L0 (X) =

def

U, Us progressif et ∀ t
0

2 (Us |φs |2 + |Us | |αs |) ds < +∞ p.s.

(3.18)

Pour U ∈ L0 (X), on d´finit : e
t 0 t t

Us dXs =

def 0

t

t

Us φs · dBs +
0

Us αs ds

(3.19)

k k o` 0 Us φs · dBs = d u e k=1 0 Us φs dBs . Noter que tout processus progressif v´rifiant, pour tout t, sups≤t |Us | < +∞ p.s. (en particulier continu) est dans L0 (X) quel que soit X. On a : n Proposition 3.4.3. Soient X un processus d’Itˆ et Us une suite de processus proo n gressifs born´s dans leur ensemble par M . On suppose que, pour tout s, Us →n Us e t n t p.s. Alors, pour tout t, 0 Us dXs →n 0 Us dXs en probabilit´. e

D´monstration. Soit e
t t

Xt = X0 +
0

φs · dBs +
0

αs ds .

(i) On suppose E
t n Us φs 0

t 2 0 (|φs | t

+ |αs |) ds < +∞. On a, d’une part,
2

E

· dBs −
0

Us φs · dBs
t

=
2 t

E
0

n (Us − Us )φs · dBs

=E
0

n |(Us − Us )φs |2 ds →n 0 ;

et, d’autre part,
t t n Us αs ds − 0 0 t t

E

Us αs ds ≤ E
0

n |(Us − Us )αs | ds →n 0 , t

n d’apr`s le th´or`me de Lebesgue. Donc 0 Us dXs →n 0 Us dXs dans L1 . e e e t (ii) On consid`re les temps d’arrˆt τn = inf{t ≥ 0, 0 (|φs |2 + |αs |) ds ≥ n}. On a e e P(τn < t) →n 0 et on se ram`ne ` (i) comme dans la prop. 2.6.2. e a

On en d´duit, e

42

Calcul stochastique

Corollaire 3.4.4. Soient Xs un processus d’Itˆ et Us un processus progressif continu. o On fixe t > 0. Soit πn = {tn = 0 < tn < . . . < tnn = t} une suite de subdivisions de r 0 1 [0, t] dont le pas |πn | = supi |tn − tn | →n 0. Alors i+1 i
rn −1 t

Utn (Xtn − Xtn ) →n i i+1 i
i=0

Us dXs en probabilit´. e
0 rn −1 n i=0 Uti 1]tn ,tn ] (s). i i+1

n D´monstration. Supposons d’abord Us born´. On pose Us = e e On a rn −1 i=0 n Us t

Utn (Xtn − Xtn ) = i i+1 i

n Us dXs . 0

Vu la continuit´, e →n Us pour tous s ≤ t et il suffit d’appliquer la prop. 3.4.3. Pour traiter le cas g´n´ral, on se ram`ne au cas pr´c´dent en posant τn = inf(s ≥ e e e e e 0, |Us | ≥ n).

3.4.3
Soit

Formule d’Itˆ o
t t

Xt = X0 +
0

φs · dBs +
0

αs ds

un processus d’Itˆ. On ´crira o e dXt = φt · dBt + αt dt , (3.20)

et on appellera dXt s’appelle la diff´rentielle stochastique de X. La proposition e suivante montre que, si X et Y sont des processus d’Itˆ, la diff´rentielle stochastique o e du produit de ces deux processus s’´crit e d(XY )t = Xt dYt + Yt dXt + d X, Y
t

mettant en ´vidence la diff´rence entre le calcul diff´rentiel ordinaire et le calcul e e e diff´rentiel stochastique. e Proposition 3.4.5. Soient X et Y des processus d’Itˆ. On a o
t t

Xt Yt − X0 Y0 =
0

Xs dYs +
0

Ys dXs + X, Y

t

.

D´monstration. Ecrivant XY = 1 [(X + Y )2 − (X − Y )2 ], il suffit de montrer que e 4 t 2 2 Xt − X0 = 2 0 Xs dXs + X t . Soit πn = {tn = 0 < tn < . . . < tnn = t} une suite r 0 1 de subdivisions de [0, t] dont le pas |πn | = supi |tn − tn | →n 0. Vu que x2 − x2 = 2 1 i+1 i 2x1 (x2 − x1 ) + (x2 − x1 )2 , on a
rn −1 2 2 Xt − X0 = i=0 2 2 (Xtn − Xtn ) = 2 i+1 i i=0 rn −1 rn −1

Xtn (Xtn − Xtn ) + i i+1 i
i=0

(Xtn − Xtn )2 . i+1 i

43 D’apr`s le cor. 3.4.4 et la prop. 3.4.2, le terme de droite converge en probabilit´ vers e e t 2 2 2 Zt = 2 0 Xs dXs + X t . On a donc Xt − X0 = Zt p.s. et, vu la continuit´, Xt − X0 e 2 et Zt sont indistinguables.
p 1 Th´or`me 3.4.6. (Formule d’Itˆ) Soient Xt , . . . , Xt des processus d’Itˆ, Xt = e e o o 1 , . . . , X p ) et f ∈ C 2 (Rp ). Alors f (X ) est un processus d’Itˆ et on a (Xt o t t p t 0

f (Xt ) − f (X0 ) =
j=1

1 ∂f j (Xs ) dXs + ∂xj 2

p j,k=1 0

t

∂2f (Xs ) d X j , X k ∂xj ∂xk

s

.

D´monstration. On remarque d’abord que, si la formule est vraie pour f et pour g, e elle est vraie pour f + g et, utilisant la prop. 3.4.5, pour f g. Etant ´vidente pour e f : x → xi , 1 ≤ i ≤ p, elle est donc vraie si f est un polynˆme de p variables. On o peut supposer X0 born´, sinon on montre la formule pour X0 1{|X0 |≤n} et on applique e la prop. 3.3.3. Introduisant les temps d’arrˆt τn = inf(t ≥ 0, |Xt | ≥ n), on se ram`ne e e au cas Xt est born´. On suppose donc supt |Xt | ≤ M et soit K = {|x| ≤ M }. Il existe e ∂ 2 fn une suite de polynˆmes fn (x) tels que fn (x), ∂fn (x) et ∂xj ∂xk (x) tendent vers f (x), o ∂xj
∂ f e e et ∂xj ∂xk (x) uniform´ment sur le compact K. On ´crit alors la formule pour fn et on passe ` la limite utilisant la prop. 3.4.3. a ∂f ∂xj (x)
2

Sous forme diff´rentielle, la formule d’Itˆ s’´crit e o e
p

df (Xt ) =
j=1

1 ∂f j (Xt ) dXt + ∂xj 2

p

j,k=1

∂2f (Xt ) d X j , X k ∂xj ∂xk

t

.

(3.21)

i Si certains des processus Xt dans (3.21) sont ` variation finie, seules les d´riv´es a e e premi`res par rapport ` ces arguments interviennent dans (3.21). Donc approchant e a une fonction C 1 en ces arguments par des fonctions C 2 , on voit que la formule d’Itˆ o reste valable pour de telles fonctions. Le cas de loin le plus utile est le suivant. On note C 1,2 (R × Rd ) l’espace des fonctions f (t, x) continˆment d´rivables en t et deux u e fois continˆment d´rivables en x. On a : u e p p 1 1 Corollaire 3.4.7. Soient Xt , . . . , Xt des processus d’Itˆ, Xt = (Xt , . . . , Xt ) et f ∈ o C 1,2 (R × Rp ). Alors f (t, Xt ) est un processus d’Itˆ et on a o t

f (t, Xt ) − f (0, X0 ) =
p 0 t 0

∂f (s, Xs ) ds ∂u ∂f 1 j (s, Xs ) dXs + ∂xj 2
p j,k=1 0 t

+
j=1

∂2f (s, Xs ) d X j , X k ∂xj ∂xk

s

.

Exemple 3.4.8. Soient U un ouvert born´ r´gulier de Rd et f une fonction r´guli`re e e e e sur ∂U . Il existe une fonction u ∈ C 2 (U ) ∩ C(U ) telle que ∆u(x) = 0 si x ∈ U, u(x) = f (x) si x ∈ ∂U

44
2

Calcul stochastique

∂ o` ∆ = d ∂x2 . C’est la solution du probl`me de Dirichlet. On suppose U et f u e i=1 i suffisamment r´guliers pour que u se prolonge en une fonction ` support compact, e a encore not´e u, de classe C 2 sur Rd . e Soient Bt un mouvement brownien ` valeurs Rd issu de 0 et x ∈ U . On pose a x = x + B et τ = inf(t ≥ 0, B x ∈ ∂U ). Comme lim sup 1 Bt t x t→+∞ |Bt | = +∞ (prop. t 1.1.4), P(τx < +∞) = 1. Appliquant la formule d’Itˆ, on a o x Mt = u(Bt ) − u(x) − def

1 2

t x ∆u(Bs ) ds = 0 0

t x u(Bs ) · dBs .

Comme u est born´e, Mt est une martingale et (cor. 2.2.3) E(Mt∧τx ) = E(M0 ) = 0. e x x Comme ∆u(Bs ) = 0 pour s ≤ t ∧ τx , on a u(x) = E(u(Bt∧τx )). Lorsque t → +∞, x x x x x Bt∧τx → Bτx ∈ ∂U et, u ´tant born´e, E(u(Bt∧τx )) → E(u(Bτx )) = E(f (Bτx )). On a e e donc : x u(x) = E(f (Bτx )). C’est la repr´sentation probabiliste des solutions du probl`me de Dirichlet qu’on e e revisitera en 5.3.4.

3.5

Martingales exponentielles

On consid`re toujours un Ft -mouvement brownien r´el ` valeurs Rd issu de 0, e e a B = (Ω, F, Ft , Bt , P). On pose, pour φ ∈ Λ0 , d Zt = exp
0 def t

φs · dBs −

1 2

t

|φs |2 ds
0

.

(3.22)

Proposition 3.5.1. Soit Zt d´finie par (3.22). e t (i) Zt = 1 + 0 Zs φs · dBs est une martingale locale (continue). (ii) Zt est une surmartingale positive, Zt converge p.s. vers une v.a. Z∞ et, pour tout t ∈ [0, +∞], E(Zt ) ≤ 1. (iii) Soit 0 < T ≤ +∞. Si E(ZT ) = 1, Zt est une martingale sur [0, T ] et Zt = E[ZT |Ft ] pour tout t ≤ T . D´monstration. (i) Xt = 0 φs · dBs − e t 2 2 0 |φs | ds. On a donc, pour f ∈ C ,
t t 1 2 t 2 0 |φs | ds

est un processus d’Itˆ et X o

t

=

f (Xt ) − f (X0 ) =
0 t

f (Xs ) dXs +

1 2

t

f (Xs ) d X
0

s

=
0

f (Xs )φs · dBs −

1 2

t

f (Xs )|φs |2 ds +
0

1 2

t

f (Xs )|φs |2 ds .
0

Soit f (x) =

ex .

On a f = f = f et X0 = 0 donc
t

Zt = f (Xt ) = 1 +
0

Zs φs · dBs .

(3.23)

45 Comme f est C 2 , f (Xt ) est un processus d’Itˆ (Th´or`me 3.4.6). Donc 0 Zs φs · dBs o e e et par suite Zt sont des martingales locales. (ii) Puisque Zt ≥ 0, c’est une surmartingale g´n´ralis´e positive (lem.2.5.3) et e e e E(Zt ) ≤ E(Z0 ) = 1. Zt est donc une surmartingale int´grable positive. Elle converge e donc p.s. vers une limite finie Z∞ et, par le lemme de Fatou, E(Z∞ ) = E(lim Zt ) ≤ lim inf E(Zt ) ≤ 1. (iii) Soit 0 ≤ T ≤ +∞. Supposons E(ZT ) = 1 et soit t < T . On a, pour tout A ∈ Ft , E(1A Zt ) ≥ E(1A ZT ) (par d´finition d’une surmartingale si T < +∞, par le lemme e de Fatou si T = +∞). Supposons E(1A Zt ) > E(1A ZT ). Alors 1 = E(Z0 ) ≥ E(Zt ) = E(1A Zt ) + E(1Ac Zt ) > E(1A ZT ) + E(1Ac ZT ) = E(ZT ) = 1 ce qui est impossible. Donc E(1A Zt ) = E(1A ZT ) et Zt = E(ZT |Ft ) p.s. Une martingale locale complexe est un processus ` valeurs C dont les parties r´elle a e et imaginaire sont des martingales locales r´elles. e Lemme 3.5.2. Soient φk , k = 1, . . . , d, des processus progressifs ` valeurs C tels a s t que, pour tous t et k, 0 |φk |2 ds < +∞ p.s. Alors s
t t

Zt = exp
0

φs · dBs −

1 2

t

|φs |2 ds
0

est une martingale locale complexe. D´monstration. On pose e
d t k φk dBs − s k=1 0

Ut =

1 2

d k=1 0

t

|φk |2 ds , s

Xt = (Ut ) ,

Yt = (Ut ) .

Xt et Yt sont des processus d’Itˆ et on calcule par la formule d’Itˆ exp(Xt + iYt ). o o Comme dans la prop. 3.5.1, les termes ` variations finies disparaissent. a La prop. 3.5.1 montre l’int´rˆt d’´tablir que E(ZT ) = 1 ou si possible que E(Z∞ ) = ee e 1. Ceci n’est pas toujours vrai. Par exemple si Zt = exp(Bt − 1 t), Bt mouvement 2 brownien r´el, Zt est une martingale (prop. 1.4.2) et E(Zt ) = 1 mais Zt → Z∞ = 0 e p.s. puisque Bt − 1 t = −t( 1 − Bt ) → −∞ p.s. (prop. 1.1.4). Le crit`re usuel, appel´ e e 2 2 t crit`re de Novikov, est le suivant. e Proposition 3.5.3. Soient Zt d´finie par (3.22) et 0 ≤ T ≤ +∞. Si e E exp alors E[ZT ] = 1. 1 2
T

|φs |2 ds
0

< +∞ ,

(3.24)

46 D´monstration. Si on pose Mt = e
(λ) Zt t 0 φs

Calcul stochastique · dBs et At = M Mloc c
t

=

∈ et la prop. 3.5.3 est un cas particulier du tout λ ∈ R, = exp(λMt − lemme suivant. Noter qu’on d´duit le r´sultat pour T < +∞ de celui pour T = +∞ e e en consid´rant la martingale stopp´e MtT = Mt∧T . e e Lemme 3.5.4. Soient M ∈ Mloc , A ∈ Ac . On suppose que, pour tout λ ∈ R, c Zt
(λ)

λ2 2 At )

t 2 0 |φs | ds,

alors, pour

= exp λMt −
(1)

λ2 At 2

∈ Mloc . c

Si E(exp( 1 A∞ )) < +∞, alors E(Z∞ ) = 1. 2 D´monstration. On pose Zt = Zt . Alors Zt est une surmartingale positive, E(Zt ) ≤ e (λ) (λ) (λ) 1 et, comme dans la prop. 3.5.1, si E(Z∞ ) = 1, Zt = E(Z∞ |Ft ). Vu que E(A∞ ) < 2 et M +∞, on a (th. 2.6.9) Mt ∈ Hc ∞ = lim Mt existe p.s. Soit τn = inf(t ≥ 0, |Mt | + e At ≥ n). Alors Zt∧τn est une martingale born´e et donc E(Zτn ) = limt E(Zt∧τn ) = 1. (i) On suppose qu’il existe λ > 1 tel que E(exp( λ A∞ )) < +∞. Il s’agit de trou2 r ver r > 1 tel que supn E(Zτn ) < +∞ car alors (prop. ??) Zτn →n Z∞ dans L1 et E(Z∞ ) = 1. Soient donc r > 1, p > 1. On a (ne pas confondre Zt
(λ) r et Zt ) (1) (λ) (λ)

r pr2 r(pr − 1) r Zτn = exp(rMτn − Aτn ) = exp(rMτn − Aτn ) exp( Aτn ) = Xn Yn . 2 2 2
r Par H¨lder, E(Zτn ) ≤ Xn o p

Yn

p p−1

. D’une part p2 r 2 Aτn ) ≤ 1 . 2

p E(Xn ) = E exp(rpMτn −

D’autre part
p

E Ynp−1 = E exp(

1 rp(pr − 1) 1 rp(pr − 1) Aτn ) ≤ E exp( A∞ ) . 2 p−1 2 p−1
rp(pr−1) p−1

Toute la question est donc de trouver r > 1 et p > 1 tels que facile. On fixe p ∈]1, λ[ et vu que < λ. (ii) On pose, pour a > 0, σa = inf(t ≥ 0, Mt − At = −a) .
rp(pr−1) p−1 rp(pr−1) p−1

< λ. C’est

↓ p lorsque r ↓ 1, il existe r > 1 tel que

On d´duit de (i) que, pour 0 < λ < 1, E(Z∞ ) = 1 ce qui implique que Zt e (λ) (λ) E(Z∞ |Ft ) et donc E(Zσa ) = 1. On a, pour λ ↑ 1, λa + λMσa −

(λ)

(λ)

=

λ2 λ2 1 Aσa = λ(a + Mσa − Aσa ) + (λ − )Aσa ↑ a + Mσa − Aσa 2 2 2

47 d’o` u 1 λ2 E exp(a + Mσa − Aσa ) = lim ↑λ E exp(λa + λMσa − Aσa ) 2 2
(λ) = lim ↑λ eλa E Zσa = ea et E [Zσa ] = E exp(Mσa − 1 Aσa ) = 1 . 2

On a alors |E(Z∞ ) − E(Zσa )| ≤ E Z∞ 1{σa <+∞} + E Zσa 1{σa <+∞} . Mais, lorsque a → +∞, E(Z∞ 1{σa <+∞} ) → 0 puisque σa → +∞ et E(Z∞ ) ≤ 1 et 1 1 E(Zσa 1{σa <+∞} ) = E(exp(−a + Aσa )1{σa <+∞} ) ≤ e−a E(exp( A∞ )) → 0 . 2 2 Finalement on a bien E(Z∞ ) = 1. Une cons´quence tr`s utile de la prop. 3.5.3 est : e e Proposition 3.5.5. Soient Zt d´finie par (3.22) et 0 < T < +∞. S’il existe µ > 0 e tel que sup E exp(µ|φs |2 ) < +∞ ,
0≤s≤T

on a E[ZT ] = 1. D´monstration. Soit 0 = t0 < t1 < . . . < tn = T un partage de [0, T ] avec ti+1 − ti ≤ e µ. On pose
t i Zt = exp 0

φi · dBs − s

1 2

t

|φi |2 ds s
0

,

φi = φs 1]ti ,ti+1 ] (s) . s

On a, appliquant l’in´galit´ de Jensen (cor. ??), e e
T

E exp(
0

|φi |2 ds) = E exp( s

ti+1 ti

|φs |2 ds) 1 ti+1 − ti
ti+1 ti

= E exp((ti+1 − ti ) ≤E 1 ti+1 − ti
ti+1

|φs |2 ds)

exp((ti+1 − ti )|φs |2 ) ds

1 = ti+1 − ti Vu la prop. 3.5.3,
i E(ZT )

ti ti+1

E exp((ti+1 − ti )|φs |2 )) ds < +∞ .

ti

= 1 et

i Zt

est une martingale sur [0, T ]. On a donc

−1 i i E Zti+1 Zti | Fti = E Zti+1 | Fti = Zti = 1 p.s.

On en d´duit facilement e
−1 −1 E[ZT ] = E Zt0 (Zt1 Zt0 ) . . . (Ztn Ztn−1 ) = 1 .

48

Calcul stochastique

3.6

Th´or`me de Girsanov e e

Soit B = (Ω, F, Ft , Bt , P) un Ft -mouvement brownien ` valeurs Rd issu de 0. a On repr´sente un actif financier par un processus d’Itˆ de diff´rentielle stochastique e o e dXt = ψt dBt + αt dt. Si le processus αt ≡ 0, Xt est, sous des conditions d’int´grabilit´ e e convenables, une martingale ce qui permet de nombreux calculs. Si αt ≡ 0, ce n’est pas le cas. On cherche donc une probabilit´ Q telle que, sous Q, Xt soit une martingale ; e la contrainte suppl´mentaire que nous nous imposons est de caract´riser explicitee e ment la d´riv´e de Radon-Nikodym dQ , pour permettre de calculer explicitement les e e dP esp´rances apr`s le changement de loi. e e Pour introduire le r´sultat, consid´rons tout d’abord des variables al´atoires X1 , . . . , Xn e e e gaussiennes sur un espace de probabilit´ (Ω, A, P), ind´pendantes, de moyenne nulle e e E[Xi ] = 0 et de variance unit´ Var[Xi ] = 1. Soit (µ1 , . . . , µn ) ∈ Rn un vecteur. Nous e ˜ e consid´rons la mesure P d´finie par e
n

˜ P(dω) = Z(ω)P(dω)

avec Z(ω) = exp
i=1

def

1 µi Xi (ω) − 2

n

µ2 i
i=1

.

˜ Comme E[Z] = 1, P est une mesure de probabilit´. Soit f1 , . . . , fn des fonctions e mesurables positives. Par construction
n n

˜ E
i=1

fi (Xi ) = E
i=1

fi (Xi ) exp µi Xi − µ2 /2 i
n

= (2π)−n/2
n

···
i=1

fi (xi ) exp µi xi − µ2 /2 exp(−x2 /2)dxi i i 1 fi (xi ) exp − (xi − µi )2 dxi , 2

=
i=1

(2π)−1/2

˜ ce qui montre que sous la loi P les variables X1 , . . . , Xn sont ind´pendantes, normales, e ˜ de moyenne E[Xi ] = µi et de variance unit´ Var[Xi ] = 1. De fa¸on ´quivalente, les e ˜ c e ˜ i = Xi − µi ; 1 ≤ i ≤ n} sont i.i.d. de loi gaussienne centr´e variables al´atoires {X e e r´duite. Le Th´or`me de Girsanov ´tend ce principe d’invariance de la distribution e e e e fini-dimensionnelle d’un vecteur gaussien sous l’effet d’une translation et d’un changement de mesure appropri´ au cas de processus gaussien ` temps continu. e a Soit B = (Ω, F, Ft , Bt , P) un Ft -mouvement brownien ` valeurs Rd issu de 0. Soit a φ ∈ Λ0 o` Λ0 est d´fini par (3.14). On consid`re ` nouveau e e a d u d
t

Zt = exp
0

φs · dBs −

1 2

t

|φs |2 ds
0

.

(3.25)

On suppose E(Z∞ ) = 1. Alors (prop. 3.5.1) Zt est une martingale positive r´guli`re. e e Soit Q la probabilit´ sur (Ω, F) de densit´ Z∞ par rapport ` P. Elle est d´finie e e a e e par Q(A) = A Z∞ dP et not´e Q = Z∞ .P. Pour tout A ∈ Ft , comme Zt est une martingale, Q(A) = A Z∞ dP = A Zt dP. On a alors

49 Lemme 3.6.1. Un processus Xt est une Q-martingale (resp. une Q-martingale locale) d`s que Xt Zt est une P-martingale (resp. une P-martingale locale). e D´monstration. (i) Supposons que Xt Zt soit une P-martingale. Vu que e |Xt |Zt dP, on a Xt ∈ L1 (Ω, F, Q). Soient s < t et A ∈ Fs . On a Xs dQ =
A A

|Xt | dQ =

Xs Zs dP =
A

Xt Zt dP =
A

Xt dQ ,

i.e. Xt est une Q-martingale. (ii) Supposons que Xt Zt soit une P-martingale locale. Il existe une suite croissance de temps d’arrˆt τn ↑ +∞ p.s. et tels que Xt∧τn Zt∧τn soit une P martingale. Les e ensembles P n´gligeables ´tant Q n´gligeables, on a Q(limn τn = +∞) = 1 et il suffit e e e de montrer que Xt∧τn est une Q martingale. On a, pour s < t et A ∈ Fs , puisque A ∩ {τn > s} ∈ Fs∧τn , Xt∧τn dQ
A

=
A∩{τn >s}

Xt∧τn dQ +
A∩{τn ≤s}

Xt∧τn dQ

=
A∩{τn >s}

Xt∧τn Zt dP +
A∩{τn ≤s}

Xτn dQ Xτn dQ
A∩{τn ≤s}

=
A∩{τn >s}

Xt∧τn Zt∧τn dP + Xs∧τn Zs∧τn dP +
A∩{τn >s} A∩{τn ≤s}

(3.26)

= =
A∩{τn >s}

Xτn dQ Xτn dQ

Xs∧τn dQ +
A∩{τn ≤s}

=
A

Xs∧τn dQ ,

(3.27)

o` dans Eq. 3.26 on a utilis´ le fait que Zt est une martingale continue. u e On en d´duit : e Th´or`me 3.6.2. On suppose que Zt , d´finie par (3.25), v´rifie E(Z∞ ) = 1 et soit e e e e ˜t = Bt − t φs ds est, sous Q, un Ft -mouvement Q = Z∞ .P. Alors le processus B 0 brownien. ˜ D´monstration. D’apr`s la prop. 1.4.4, il suffit de montrer que Mt = exp(iα · Bt + e e 1 2 t) est, pour tout α ∈ Rd , une Q-martingale. Comme M est born´e, il suffit de e t 2 |α| montrer que c’est une martingale locale (prop. 2.5.4) et donc (lem. 3.6.1) que Mt Zt est une P-martingale locale. Mais
t

Mt Zt = exp iα · Bt −
0 t

1 iα · φs ds + |α|2 t + 2 1 2
d k=1 0 t

t

φs · dBs −
0

1 2

t

|φs |2 ds
0

= exp
0

(φs + iα) · dBs −

(φk + iαk )2 ds s

50 qui est bien une P-martingale locale (lem. 3.5.2).

Calcul stochastique

3.6.1

Cas d’un horizon fini :

On fixe T > 0. On dit qu’un processus continu, nul en 0, B = (Ω, F, Ft , Bt , P)0≤t≤T est un Ft -mouvement brownien ` valeurs Rd sur [0, T ] si, pour tous s < t ≤ T , Bt −Bs a ´ est ind´pendant de Fs et si Bt − Bs ∼ Nd (0, (t − s)Id ). Evidemment tout ce qu’on e vient de faire s’applique en se limitant ` t ≤ T . Vu son importance, nous r´´non¸ons a ee c le th. 3.6.2 dans ce cadre quitte ` ˆtre un peu r´p´titif. ae e e Th´or`me 3.6.3. Soient (Bt , t ≤ T ) un Ft -mouvement brownien sur [0, T ] ` valeurs e e a d et (φ , t ≤ T ) un processus progressif ` valeurs Rd v´rifiant T |φ |2 ds < +∞. R a e s t 0 On suppose que E(ZT ) = 1 o` u
T

ZT = exp
0

φs · dBs −

1 2

T

|φs |2 ds
0 t 0 φs ds

. est, sous Q, un Ft -

˜ On pose Q = ZT .P. Alors le processus Bt = Bt − mouvement brownien sur [0, T ].

Remarque 3.6.4. On rappelle que E[ZT ] = 1 si l’une des conditions suivantes est v´rifi´e (prop. 3.5.3 et prop. 3.5.5) e e E exp(
s≤T

1 2

T

|φs |2 ds < +∞ ,
0

sup E exp(µ|φs |2 < +∞ . Exemple 3.6.5. Soit Xt un processus d’Itˆ r´el v´rifiant dXt = ψt dBt + αt dt, ψt > 0. o e e Soient (φt , t ≥ 0) progressif tel que E(ZT ) = 1 o` u
T

ZT = exp
0

φs dBs −
t 0 φs ds,

1 2

T

φ2 ds s
0

˜ et Q = ZT .P. Alors (Bt = Bt − brownien sur [0, T ] et

t ≤ T ) est, sous Q, un Ft -mouvement

˜ dXt = ψt dBt + ψt φt dt + αt dt ˜ = ψt dBt + (ψt φt + αt )dt . Donc si on choisit φt = −αt /ψt , on a que Xt = X0 + locale sur [0, T ].
t ˜ 0 ψs dBs

est une Q-martingale

51

3.6.2

Cas d’un horizon infini :

On revient au cas t ∈ R+ . La condition E(Z∞ ) < ∞, qui est assez contraignante, peut ˆtre sensiblement affaiblie. On dit que B = (Ω, F, Ft , Bt , P) est un mouvement e brownien canonique s’il est d´fini sur l’espace canonique (??) avec E = Rd , Bt = ξt e et Ft = σ(Bs , s ≤ t). On a alors : Th´or`me 3.6.6. Soit (Bt , t ∈ R+ ) un mouvement brownien canonique ` valeurs e e a d . On suppose que Z , d´finie par (3.25), v´rifie, pour tout t, E(Z ) = 1. Alors il R e e t t existe une unique probabilit´ Q sur (Ω, F) telle que, pour tout t, Q|Ft = Zt .P|Ft et le e t ˜ processus Bt = Bt − 0 φs ds est, sous Q, un Ft -mouvement brownien. D´monstration. On d´finit sur chaque Ft une probabilit´ Qt par Qt (A) = A Zt dP, e e e A ∈ Ft . Puisque Zt est une martingale, pour s < t, Qt = Qs sur Fs Il s’agit de trouver une probabilit´ Q sur (Ω, F) qui induise Qt sur Ft . D’apr`s la prop. ??, e e cette probabilit´ est unique. On d´finit pour 0 ≤ t1 < t2 < . . . < tn une probabilit´ e e e µt1 ,t2 ,...,tn sur (Rd )n par µt1 ,t2 ,...,tn (A) =
def {(Zt1 ,...,Ztn )∈A}

Zt dP,

A ∈ B((Rd )n ),

tn < t .

e e Zt ´tant une martingale, les µt1 ,t2 ,...,tn v´rifient (??) et, d’apr`s le th. ??, il existe Q e sur (Ω, F) telle que Q((Bt1 , . . . , Btn ) ∈ A) = µt1 ,t2 ,...,tn (A) . Toujours d’apr`s la prop. ??, Q|Ft = Qt . e Alors Xt est une Q-martingale locale si Xt Zt est une P-martingale locale. En effet la d´monstration du lem. 3.6.1 s’applique mot ` mot. Il suffit de remarquer que si e a τn ↑ +∞ P p.s., alors, pour tout t, Q(τn < t) = E(Zt 1{τn <t} ) →n 0 puisque Zt ∈ L1 et donc τn ↑ +∞ Q p.s. Enfin la d´monstration du th. 3.6.2 est inchang´e. e e

3.7
3.7.1

Espaces gaussiens
D´finition e

D´finition 3.7.1. Un espace gaussien est un sous espace vectoriel ferm´ de L2 (Ω, F, P) e e constitu´ de v.a.r. gaussiennes centr´es. e e Noter qu’un espace gaussien est par d´finition constitu´ de v.a.r. centr´es. Si V e e e 2 (Ω, F, P) constitu´ de v.a.r. gaussiennes centr´es, est un sous espace vectoriel de L e e V est un espace gaussien puisque, si (Xn , n ≥ 0) est une suite de v.a.r. gaussiennes centr´es convergeant vers X dans L2 , X est gaussienne centr´e (lem. 1.2.1). Donc, si e e + ) est un processus gaussien centr´ (def. ??) ` valeurs Rd , X = (Xt , , t ∈ R e a
k e.v.(Xt , k = 1, . . . , d, t ∈ R+ )

est un espace gaussien qu’on note H(X).

52

Calcul stochastique

Proposition 3.7.2. Soient H un espace gaussien et (Hi , i ∈ I) une famille de sous espaces vectoriels. Alors les tribus σ(X, X ∈ Hi ) sont ind´pendantes ssi les Hi sont e deux ` deux orthogonaux. a e D´monstration. Evidemment, si les σ(X, X ∈ Hi ) sont ind´pendantes, les Hi sont e orthogonaux. R´ciproquement supposons les Hi orthogonaux. Il s’agit de montrer que, e pour tous i1 , . . . , in ∈ I, les tribus σ(X, X ∈ Hik ), k = 1, . . . , n, sont ind´pendantes. e Pour cela il suffit de montrer que, pour tous Xi1 , . . . , Xi1 ∈ Hi1 , . . . , Xin , . . . , Xinn ∈ r 1 r1 1 e Hin , les vecteurs (Xi1 , . . . , Xi1 ), . . . , (Xin , . . . , Xinn ) sont ind´pendants. Le vecteur r 1 r1 1 e (Xi1 , . . . , Xi1 , . . . . . . , Xin , . . . , Xinn ) ´tant gaussien, il suffit de montrer (th. ??) que, r 1 r1 1 pour j = k, E[Xij Xik ] = 0 ce qui est le cas par hypoth`se. e q p

3.7.2

Espace L2 (R+ , λ) d

On pose, λ d´signant la mesure de Lebesgue sur R, e L2 (R+ , λ) = {f, f = (f1 , . . . , fd ), fk ∈ L2 (R+ , λ)} d
def

(3.28)

2 1/2 . On rappelle (prop. ??) que qu’on munit de la norme f 2,d = { d k=1 fk 2 } l’espace S des fonctions en escalier i.e. de la forme n ai 1]ti ,ti+1 ] , ai ∈ R, 0 ≤ t1 < i=1 . . . < tn , est dense dans L2 (R+ , λ).

Proposition 3.7.3. Soit B = (Ω, F, Bt , P) un mouvement brownien issu de 0 ` a d . L’application J : f → +∞ f (s) · dB est une isom´trie de L2 (R+ , λ) sur valeurs R e s d 0 H(B) muni de la norme de L2 (Ω, P).
n D´monstration. On suppose d’abord d = 1. Pour f ∈ S, f = e i=1 ai 1]ti ,ti+1 ] , on n 2 = +∞ f 2 (s) ds. Comme S est a J(f ) = i=1 ai (Bti+1 − Bti ) ∈ H(B) et E|J(f )| 0 dense, J est une isom´trie de L2 (R+ , λ) dans H(B). Il reste ` montrer la surjectivit´. e a e Soit X ∈ H(B). Par d´finition, il existe Xn de la forme Xn = n ai Bti tels que e i=1 +∞ +∞ Xn →n X dans L2 (P). Vu que Bt = 0 1]0,t] (s) dBs , on a Xn = 0 fn (s) dBs = +∞ J(fn ) avec fn ∈ L2 (R+ , λ). Comme 0 |fn (s) − fm (s)|2 ds = E(Xn − Xm )2 →n,m 0, il existe f ∈ L2 (R+ , λ) telle que fn → f dans L2 (R+ , λ) et J(f ) = X. On passe facilement au cas d quelconque en remarquant que, vu la prop. 3.7.2, H(B) = H(B 1 ) ⊕ . . . ⊕ H(B d ).

3.8

Martingales du mouvement brownien

On consid`re un mouvement brownien issu de 0, B = (Ω, F, Ft Bt , P) ` valeurs Rd . e a 0 On note N la famille des ensembles n´gligeables de F∞ = σ(Bt , t ≥ 0). On d´finit : e e
B 0 F∞ = σ(F∞ , N ), Ft0 = σ(Bs , s ≤ t), FtB = σ(Ft0 , N ) .

Rappelons que les espaces Λ2 et Λ0 sont des espaces de classes d’´quivalence et donc e d d que φ = 0 dans Λi signifie que φ = 0 λ ⊗ P p.p. d

53
B Proposition 3.8.1. Soit X ∈ L2 (Ω, F∞ , P). Il existe φ ∈ Λ2 , unique, tel que d +∞

X = E(X) +
0

φs · dBs .

D´monstration. Nous pr´sentons la d´monstration pour d = 1. L’extension au cas e e e B g´n´ral est facile aux lourdeurs de notation pr`s. Soit H = {X ∈ L2 (Ω, F∞ , P), X = e e e +∞ a + 0 φs dBs , φ ∈ Λ2 }. Notons que a = E(X). H est un sous espace vectoriel. Il est ´l´mentaire de v´rifier qu’il est ferm´. Pour f ∈ L2 (R+ , λ), λ mesure de Lebesgue, ee e e on pose t 1 t 2 Mt (f ) = exp( f (s) dBs − f (s) ds), 0 ≤ t ≤ +∞ . 2 0 0 Montrons que M∞ (f ) ∈ H. Appliquant la formule d’Itˆ, Mt (f ) = 1+ 0 Ms (f )f (s) dBs . o +∞ 2 (f )f 2 (s) ds] < ∞. On a E[M 2 (f )] = exp( t f 2 ds)E[M (2f )]. Montrons que E[ 0 Ms t t 0 s De plus, Mt (f ) est une surmartingale (prop. 3.5.1) donc E[Mt (f )] ≤ E[M0 (f )] = 1. Ainsi, pour tout t,
+∞ t

E Mt2 (f ) ≤ exp
0

f 2 (s) ds

.

Par suite,
+∞ +∞ 2 Ms (f )f 2 (s) ds = 0 0 +∞ +∞ 2 f 2 (s) E Ms (f ) ds

E


0

f 2 (s) ds

exp
0

f 2 (s) ds

< +∞ ,

et M∞ (f ) ∈ H. B B Par d´finition, H ⊂ L2 (Ω, F∞ , P). Pour montrer que H = L2 (Ω, F∞ , P), il suffit e B de montrer que, pour Y ∈ L2 (Ω, F∞ , P) tel que E(Y Z) = 0 pour tout Z ∈ H, on a Y = 0 p.s. Pour un tel Y , on a, pour toute f ∈ L2 (R+ , λ), E(Y M∞ (f )) = 0 puisque M∞ (f ) ∈ H. Donc E(Y exp( n ck Btk )) = 0 pour tous ck ∈ R, tk ∈ R+ , k=1 +∞ n n puisque ck Btk = 0 f (s) dBs avec f = e k=1 k=1 ck 1]0,tk ] . On en d´duit que, notant g(Bt1 , . . . , Btn ) = E(Y | Bt1 , . . . , Btn ),
n

E g(Bt1 , . . . , Btn ) exp(
k=1

ck Btk ) = 0 ,

soit encore, h d´signant la densit´ de (Bt1 , . . . , Btn ), e e
n

g(x1 , . . . , xn ) exp(
k=1

ck xk )h(x1 , . . . , xn ) dx1 . . . dxn = 0 ,

pour tous ck ∈ R. Ceci implique que gh = 0 p.p. et, puisque h > 0, g = 0 p.p. i.e. E(Y | Bt1 , . . . , Btn ) = 0 p.s. On a donc, pour A ∈ σ(Bt1 , . . . , Btn ), E(1A Y ) = 0. Il B suffit alors d’appliquer le th. ?? pour avoir E(1A Y ) = 0 pour tout A ∈ F∞ et donc Y = 0 p.s.

54

Calcul stochastique

Th´or`me 3.8.2. Soit Mt une FtB -martingale locale. Il existe φ ∈ Λ0 , unique, tel e e d que
t

Mt = M0 +
0

φs · dBs .

En particulier, toute martingale locale a une modification continue. De plus, si Mt t est une martingale de L2 , E 0 |φs |2 ds < +∞ pour tout t. D´monstration. On suppose d = 1. On sait (prop. 1.4.1) que les tribus FtB sont e continues ` droite et donc (th. 2.3.11), pour X ∈ L1 , E(X | FtB ) a une modification a continue ` droite. a (i). Soit Mt une FtB -martingale born´e dans L2 nulle en 0. Alors Mt → M∞ ∈ e 2 (Ω, F B , P) dans L2 et M = E(M | F B ). Vu la prop. 3.8.1, il existe φ ∈ Λ2 L t ∞ ∞ t +∞ t telle que M∞ = 0 φs dBs . Soit Nt = 0 φs dBs . On a M∞ = N∞ p.s. et Mt = E(M∞ | FtB ) = E(N∞ | FtB ) = Nt p.s. L’unicit´ r´sulte de l’isom´trie fondamentale. e e e Appliquant ceci ` MtT = Mt∧T , on a le r´sultat pour les martingales de L2 . a e (ii). Soit Mt une FtB une martingale de la forme Mt = E(M∞ | FtB ) qu’on peut n n supposer continue ` droite (th. 2.3.11). Il existe M∞ ∈ L2 tel que E|M∞ − M∞ | →n 0 a n − M | < +∞. On a alors et (prendre une sous-suite) on peut supposer n E|M∞ ∞ n (prop. 2.1.1) P(supt |Mtn − Mt | > ε) ≤ ε−1 E|M∞ − M∞ |. Donc (lem. ??) supt |Mtn − Mt | →n 0 p.s. et Mt est p.s. continue. Si Mt une FtB -martingale locale nulle en 0, il existe des temps d’arrˆt τn ↑ +∞ p.s. tels que Mt∧τn soit une martingale qu’on peut e supposer r´guli`re (quitte ` remplacer τn par n ∧ τn ). On en d´duit facilement que e e a e Mt a une modification continue. (iii). Soit Mt une FtB -martingale locale continue nulle en 0. On pose τn = inf(t ≥ t∧τ 0, |Mt | ≥ n). On peut appliquer (i) ` M τn et on a Mt∧τn = 0 n φn dBs . Vu l’unicit´ a e s n = φn+1 pour s ≤ τ . On prend φ = n+1 1 dans (i), φs φs (s). L’unicit´ se e n s ]τn ,τn+1 ] s n montre facilement par localisation.

3.9

Int´grale stochastique par rapport ` une martingale e a continue
t

On se propose de d´finir 0 φs dMs pour M ∈ Mloc et φ progressif ce qui g´n´ralisera e e e c les r´sultats de la section 3.2. Cette section est hors programme. N´anmoins elle est e e indispensable pour qui veut utiliser la litt´rature sur le calcul stochastique. e

3.9.1

In´galit´ de Kunita-Watanabe e e
t 0 Hs dVs .

Rappelons que, pour V ∈ Vc , (H.V )t d´signe le processus e (notation un peu dangereuse)
t 0

On ´crit e

Hs |dVs | =

def 0

t V Hs dSs .

(3.29)

55 Proposition 3.9.1. Soient M, N ∈ Mloc . On a, pour tous processus mesurables c Hs , Ks et tout t, 0 ≤ t ≤ +∞,
t t t 2 Hs M s }1/2 { 0 0 2 Ks d N s }1/2 .

|Hs | |Ks | |d M, N s | ≤ {
0

(3.30)

D´monstration. Puisque e | (Mti+1 − Mti )(Nti+1 − Nti )| ≤ { (Mti+1 − Mti )2 }1/2 { − M s )1/2 ( M (Nti+1 − Nti )2 }1/2 ,

(3.2) implique que, pour s < t, on a p.s. | M, N
t

− M, N s | ≤ ( M

t

t

− M s )1/2 . Ac

(3.31)

Vu la continuit´, il existe A n´gligeable tel qu’on ait (3.31) sur e e s < t. La proposition r´sulte alors du lemme suivant. e

quels que soient

Lemme 3.9.2. Soit u une fonction ` variation finie continue nulle en 0. On suppose a qu’il existe µ, ν, mesures de Radon sur R+ , telles que, pour tous s < t, |u(t) − u(s)| ≤ {µ(]s, t])}1/2 {ν(]s, t])}1/2 . Alors on a, pour toutes f, g ∈ B + (R+ ),
t t t

|f (s)| |g(s)| dS u (s) ≤ {
0 0

f 2 (s) dµ(s)}1/2 {
0

g 2 (s) dν(s)}1/2 .

D´monstration. On a, pour e
n−1 n−1

f=
i=0 t 2

ai 1]ti ,ti+1 ] ,
n−1

g=
i=0

bi 1]ti ,ti+1 ] ,
2

f (s)g(s) du(s)
0


k=0 n−1

|ai | |bi | |u(ti+1 ) − u(ti )|
2 1/2 1/2

|ai | |bi | {µ(]ti , ti+1 ])}
k=0 n−1

{ν(]ti , ti+1 ])}

n−1

≤ =

a2 µ(]ti , ti+1 ]) i
k=0 t 2 0 k=0 t

b2 ν(]ti , ti+1 ]) i

f (s) dµ(s)
0

g 2 (s) dν(s) .

Cette in´galit´ reste vraie pour f, g ∈ bB(R+ ) vu la densit´ des fonctions en escalier e e e u dans L2 (ρ + µ + ν) o` ρ([0, t]) = St . Par ailleurs il existe h ∈ B(R+ ) avec |h| = 1 u telle que dS u = h.du (voir(??)). On a donc, pour f, g ∈ bB(R+ ),
t 2 t 2

|f (s)| |g(s)| dS (s)
0

u

=
0

|f (s)| |g(s)| h(s) du(s)
t t


0

f 2 (s) dµ(s)
0

g 2 (s) dν(s) .

On conclut facilement.

56

Calcul stochastique

Appliquant l’in´galit´ de Schwarz, on obtient : e e
t t 1/2 2 Hs M 0 s t 1/2 2 Ks d N 0 s

E
0

|Hs | |Ks | | M, N s | ≤

E

E

. (3.32)

3.9.2

Construction de l’int´grale stochastique e
+∞

On pose, pour M ∈ H2 , c L2 (M ) = H, Hs progressif et E(
0 2 Hs d M s ) < +∞

.

(3.33)

Pour A ∈ Prog, la formule
+∞

νM (A) = E
0

1A (s, ·) d M

s

(3.34)

d´finit une mesure born´e sur Prog et l’on a e e L2 (M ) = L2 (R+ × Ω, Prog, νM ) que l’on munit de la norme H
def L2 (M ) +∞ +∞ 1/2 2 Hs d M 0 s

=

E

.

(3.35)

Pour construire l’int´grale 0 Hs dMs , on peut proc´der comme pr´c´demment i.e. e e e e commencer par d´finir l’int´grale des processus ´tag´s, ce qui est ´l´mentaire, puis la e e e e ee prolonger par densit´ ` L2 (M ). On peut aussi exploiter les propri´t´s de H2 . Rappeea ee c lons (voir prop. 2.4.1) que l’espace H2 des martingales continues born´es dans L2 et e c nulles en 0 est un espace de Hilbert pour le produit scalaire (M, N ) = E(M∞ N∞ ) et la norme 2 M H2 = {E(M∞ )}1/2 . (3.36) c On sait qu’alors toute forme lin´aire φ continue sur H2 est de la forme φ(M ) = (M, N ) e c pour un N ∈ H2 convenable. c Th´or`me 3.9.3. Soit M ∈ H2 . Pour tout H ∈ L2 (M ), il existe un unique ´l´ment e e ee c de H2 , not´ H.M , tel que e c pour tout N ∈ H2 , c H.M, N = H. M, N (3.37) et l’application H → H.M est une isom´trie de L2 (M ) dans H2 . De plus e c 2 (M ) et H ∈ L2 (K.M ), alors HK ∈ L2 (M ) et HK.M = H.(K.M ), (i) si K ∈ L (ii) pour tout temps d’arrˆt τ , H.M τ = H1[0,τ ] .M = (H.M )τ , e (iii) si U ∈ bFτ , U 1]τ,+∞[ ∈ L2 (M ) et U 1]τ,+∞[ .M = U (M − M τ ). D´monstration. Unicit´. Si, pour tout N ∈ H2 , L, N = L , N , on a L − L = 0 e e c et L = L .

57 Existence : E
0 +∞

Soit M ∈ H2 . Pour H ∈ L2 (M ), on a, vu (3.30), c
+∞

+∞

|Hs | |d M, N s | ≤ {E
0

2 Hs d M

s

E[ N

∞ ]}

1/2

< +∞.

Si on pose φ(N ) = E( 0 Hs d M, N s ), N → φ(N ) est une forme lin´aire continue e sur H2 puisque |φ(N )| ≤ H L2 (M ) N H2 . Il existe (th. ??) L ∈ H2 tel que, pour tout c c c N ∈ H2 , φ(N ) = (L, N ) = E[L∞ N∞ ]. Soit τ un temps d’arrˆt born´, on a e e c
+∞ τ E(Lτ Nτ ) = E [L∞ N∞ ] = E 0 t τ

Hs d L, N τ

s

=E
0

Hs d L, N

s

et Zt = Lt Nt − 0 Hs d L, N s est une martingale puisque E(Zτ ) = 0 (cor. 2.2.6). Donc L, N = H. M, N . De plus, on a
∞ ∞

L

2 H2 c

= E(L2 ) = E ∞
0

Hs d M, L

s

=E
0

2 Hs d M, M

s

= H

2 L2 (M )

.

On note L = H.M . (i) Vu que K.M, K.M = K 2 M, M , HK ∈ L2 (K.M ) et on a H.(K.M ), N = H. K.M, N = HK. M, N = HK.M, N , i.e. HK.M = H.(K.M ). (ii) On remarque d’abord que H1[0,τ ] . M, N = H. M τ , N vu que
t t t

Hs 1[0,τ ] (s) d M, N
0

s

=
0

Hs d M, N

s∧τ

=
0

Hs d M τ , N s .

On a alors, vu (i), H1[0,τ ] .M, N = 1[0,τ ] .(H.M ), N = 1[0,τ ] . H.M, N = (H.M )τ , N i.e. H1[0,τ ] .M = (H.M )τ et, d’autre part, H1[0,τ ] .M, N = H1[0,τ ] . M, N = H. M τ , N = H.M τ , N , i.e. H1[0,τ ] .M = H.M τ . (iii) D’abord un lemme. Lemme 3.9.4. Soient L ∈ H2 telle que Lt = 0 si t ≤ τ , τ temps d’arrˆt et U ∈ bFτ . e c 2 et U L, N = U L, N . Alors U L ∈ Hc D´monstration. Soit σ un temps d’arrˆt born´. On a e e e E [U Lσ ] = E U 1{τ <σ} Lσ∨τ = E U 1{τ <σ} E(Lσ∨τ |Fτ ) = 0 , et U Lt est une martingale (cor. 2.2.6). De plus Lτ = 0 puisque E( Lτ ) = E(L2 ) = 0 τ et, d’apr`s (3.30), L, N t = 0 pour t ≤ τ . Donc, vu que LN − L, N est une e martingale, U LN − U L, N aussi et U L, N = U L, N .

58

Calcul stochastique On a alors, appliquant le lem. 3.9.4 ` la martingale M − M τ , a U (M − M τ ), N = U M − M τ , N
t

= U 1]τ,+∞[ . M, N = U 1]τ,∞[ .M, N

i.e. U 1]τ,∞[ .M = U (M − M τ ). 3.9.3. Soient M ∈ H2 et H = n−1 Ui 1]ti ,ti+1 ] une fonction ´tag´e. Vu le th. 3.9.3 (iii), e e c i=0 (Ui 1]ti ,+∞[ .M )t = Ui (Mt − Mt∧ti ) et, par lin´arit´, (Ui 1]ti ,+ti+1 ] .M )t = Ui (Mt∧ti +1 − e e Mt∧ti ) et
n−1

(H.M )t =
i=0

Ui (Mt∧ti +1 − Mt∧ti ).

(3.38)

On a bien construit l’objet souhait´. Pour les calculs, on peut avoir ` utiliser : e a Proposition 3.9.5. L’espace E des fonctions ´tag´es est dense dans L2 (M ) e e D´monstration. Il suffit dans la d´monstration de la prop. 3.2.4 de remplacer Λ2 par e e 2 (M ) et ds par d M . L s L’extension aux martingales locales se fait de la mˆme fa¸on que dans la section e c loc on pose 3.2. Pour M ∈ Mc
t

L0 (M ) =

H, Hs progressif, pour tout t,
0

2 Hs d M, s

<

+ ∞ p.s.

.

(3.39)

Ici encore on identifie les processus ´gaux νM p.p., νM ´tant d´finie par (3.34). On e e e pose
t

τn = inf(t ≥ 0,
0

2 (1 + Hs ) d M, s

≥ n)

.

On a τn ↑n +∞, M τn ∈ H2 et H ∈ L2 (M τn ). On d´finit Ln = H.M τn . Les Ln se e c recollent et on obtient, Th´or`me 3.9.6. Soit M ∈ Mloc . Pour tout H ∈ L0 (M ), il existe un unique ´l´ment e e ee c loc , encore not´ H.M , tel que de Mc e pour tout N ∈ Mloc , c H.M, N = H. M, N . (3.40)

De plus les propri´t´s (i) et (ii) du th. 3.9.3 restent vraies. ee En particulier H.M = H 2 . M et le th. 2.6.9 donne des conditions pour que Mt soit une martingale. On appelle (H.M )t l’int´grale stochastique de 0 ` t de H par e a t rapport ` M et on ´crira (H.M )t = 0 Hs dMs . a e Remarque 3.9.7. Evidemment ces r´sultats contiennent ceux de la section 3.2. Soit e B = (Bt , t ≥ 0) un Ft -mouvement brownien r´el issu de 0. Pour T > 0, on d´finit e e
T Bt = Bt∧T . Alors B T ∈ H2 et L2 (B T ) = Λ2 (T ). On a aussi B ∈ Mloc et L0 (B) = Λ0 c c et le th. 2.6.9 pr´cise les int´grabilit´s. e e e def

59

3.9.3

Semi-martingales

D´finition 3.9.8. Un processus r´el X est une semi-martingale continue si Xt = e e X0 + Mt + Vt avec X0 F0 -mesurable, M ∈ Mloc et V ∈ Vc . c Vu le th. 3.1.3, cette ´criture est unique. On note Sc l’ensemble des semi-martingales e continues. Soient X, Y ∈ Sc , X = X0 + Mt + Vt , Yt = Y0 + Nt + Wt , on pose X, Y
def

= M, N .

(3.41)

Il n’y a rien ` changer ` la prop. 3.4.2 et l’on a a a
rn −1

(Xtn − Xtn )(Ytn − Ytn ) →n X, Y i i+1 i i+1
i=0

t

en probabilit´ e

si πn = {tn = 0 < tn < . . . < tnn = t} est une suite de subdivisions de [0, t] dont le r 0 1 pas |πn | = supi |tn − tn | →n 0. i+1 i On dit qu’un processus Ht est localement born´ s’il v´rifie, pour tout t, sups≤t |Hs | < e e +∞. Si Ht est un processus progressif localement born´ (par exemple cas un processus e adapt´ continu), et si X = X0 + Mt + Vt ∈ Sc , on peut d´finir e e H.X = H.M + H.V . On ´crira indiff´remment (H.X)t ou 0 Hs dXs . e e Les prop. 3.4.3, cor. 3.4.4, prop.3.4.5 et th. 3.4.6 sont valables avec des d´monstrations e quasiment inchang´es. Vu son importance, nous r´´non¸ons la formule d’Itˆ. e ee c o
p p 1 1 Th´or`me 3.9.9. (Formule d’Itˆ) Soient Xt , . . . , Xt ∈ Sc , Xt = (Xt , . . . , Xt ) et e e o f ∈ C 2 (Rp ). Alors f (Xt ) ∈ Sc et on a p t 0 t def

f (Xt ) − f (X0 ) =
j=1

1 ∂f j (Xs ) dXs + ∂xj 2

p j,k=1 0

t

∂2f (Xs ) d X j , X k ∂xj ∂xk

s

.

Pour montrer l’int´rˆt du th. 3.9.9, d´montrons un r´sultat du ` Paul L´vy et ee e e a e relativement long ` ´tablir directement ae
1 d Proposition 3.9.10. Soit Xt = (Xt , . . . , Xt ) un processus Ft -adapt´ continu ` vae a d nul en 0. Il y a ´quivalence entre leurs R e

(i) Xt est un Ft -mouvement brownien ` valeurs Rd , a
i (ii) les Xt sont des Ft -martingales locales et X i , X j t

= δi,j t o` δi,j = 1{j} (i). u

α D´monstration. On sait que (i) ⇒ (ii). Soit, pour α ∈ Rd , Zt = exp iα · Xt + 1 |α|2 t . e 2 α ∈ Mloc et Z α est une martingale puisque born´e. Il suffit D’apr`s la formule d’Itˆ, Zt e o e c t alors d’appliquer la prop. 1.4.4.

Ce r´sultat va nous permettre d’´tablir le th´or`me de Dubbins-Schwarz. e e e e

60

Calcul stochastique

Th´or`me 3.9.11. Soient Mt une martingale locale continue nulle en 0 et At = e e M t . On suppose que A∞ = +∞. Alors il existe une filtration continue ` droite Gt a et un Gt -mouvement brownien Bt issu de 0 tels que At soit un Gt -temps d’arrˆt et e que Mt = BAt . D´monstration. On peut supposer la filtration Ft continue ` droite puisque Mt est e a aussi une Ft+ martingale locale (prop. 2.6.11). On pose, pour tout s ≥ 0, τs = inf(t, At > s). Alors τs est un temps d’arrˆt et, vu la continuit´ de At , {t, At ≤ s} = e e [0, τs ]. On en d´duit que s → τs est croissante, continue ` droite et que Aτs = s. e a Posons Gs = Fτs . D’apr`s la prop. ?? (iv), Gs est une filtration continue ` droite et, e a vu que {At ≤ s} = {τs ≥ t}, At est un Gt -temps d’arrˆt. e Soit Bs = Mτs . C’est un processus Gs -adapt´ continu ` droite et, pour tout s ≥ 0, e a Bs− existe et vaut Mτs− . En fait, puisque Aτs− = Aτs , il r´sulte de la prop. 2.6.10, e que, p.s., on a, pour tout s ≥ 0, Bs− = Mτs− = Mτs = Bs et Bs est p.s. continu. Vu que τAs = sup(u, Au = As ), on a ´galement BAs = MτA = Ms . e s n = M n 2 n On pose, pour tout n ∈ N, Xs τn ∧s et Ys = Mτn ∧s − Aτn ∧s . On a X s = n ∈ H2 d’o` u Aτn ∧s ≤ Aτn = n. Donc X c
n E(sup |Xs |2 ) < +∞, E(sup |Ysn |) < +∞. s≥0 s≥0 n On peut appliquer le cor. 2.3.7 et on en d´duit que Xτs = Mτn ∧τs = Bn∧s et Yτn = e s 2 2 − n ∧ s sont des F -martingales locales. Ceci ´tant vrai pour e Mτn ∧τs − Aτn ∧τs = Bn∧s τs 2 tout n, Bs et Bs −s sont des Gs -martingales et (prop. 3.9.10) Bs est un Gs -mouvement brownien issu de 0.

3.9.4

Martingales exponentielles

Proposition 3.9.12. Soient Mt et At des processus adapt´s continus nuls en 0 avec e At croissant. Il y a ´quivalence entre e (i) Mt est une martingale locale de processus croissant At . (ii) Pour tout θ ∈ R, Zt Dans ce cas, Zt
(θ) (θ) def

= exp(θMt −

θ2 2 At )

est une martingale locale.
2

est une martingale si, pour tout t, E[exp( θ2 M t )] < +∞.

D´monstration. (i) ⇒ (ii) C’est le th. 3.9.9. Montrons (ii) ⇒ (i) On se ram`ne au e e cas Mt et At born´s. Alors, pour s < t et tout A ∈ Fs , e exp(θMt −
A

θ2 At ) dP = 2

exp(θMs −
A

θ2 As ) dP. 2

D´rivant en θ, on a successivement, e Zt (Mt − θAt ) dP =
(θ) (θ) Zs (Ms − θAs ) dP , A (θ) Zs [(Ms − θAs )2 − As ] dP . A

A (θ)

A

Zt [(Mt − θAt )2 − At ] dP =

61 Pour θ = 0, la premi`re ´galit´ montre que Mt est une martingale, la seconde que e e e Mt2 − At est une martingale. Quant ` la derni`re affirmation, elle r´sulte des arguments de la prop. 3.5.1 et du a e e lem. 3.5.4.

3.9.5

Th´or`me de Girsanov e e

Soient (Ω, Ft , F, P) un espace de probabilit´ filtr´ et Zt une martingale. On sait e e que la formule Qt (A) = E(1A Zt ), A ∈ Ft , d´finit une probabilit´ sur Ft et que, si e e s < t, Qt |Fs = Qs . On dit que la martingale Zt admet une mesure de sortie Q s’il existe une probabilit´ Q sur (Ω, F) telle que Q|Ft = Qt . C’est le cas si Zt est une e martingale r´guli`re et alors Q = Z∞ P. e e Proposition 3.9.13. Soient Nt une martingale et Zt = exp(Nt − N t ). On suppose que Zt est une martingale ayant une mesure de sortie Q. Alors, si Mt est une martingale locale, Mt − M, N t est une Q-martingale locale de processus croissant M t. D´monstration. D’apr`s la prop. 3.9.12, il suffit de montrer que Utθ = exp{θ(Mt − e e 2 M, N t ) − θ2 M } est une Q-martingale locale. Mais il n’y a rien ` changer au lem. a 3.6.1 et Ut est une Q-martingale locale si Ut Zt est une P-martingale locale. Or on a Ut Zt = exp{θ(Mt − M, N t ) − θ2 M t } exp(Nt − N t ) 2 = exp(Nt + θMt − qui est une P-martingale locale (prop. 3.9.12). Remarque 3.9.14. Vu la prop. 3.9.12, exp(Nt − N t ) est une martingale ayant une mesure de sortie si E(exp( 1 N ∞ )) < +∞. 2 1 N + θM t ) 2

3.9.6

In´galit´s de Burkholder-Davis-Gundy e e

Proposition 3.9.15. Pour tout p > 0, il existe des constantes 0 < cp < Cp < +∞ telles que, pour toute M ∈ Mloc , c cp E M
p/2 ∞

≤ E sup |Mt |p ≤ Cp E
t∈R+

M

p/2 ∞

.

On admettra cette proposition (voir ?). Nous invitons cependant le lecteur ` a montrer l’in´galit´ de droite pour p ≥ 2 en adaptant la preuve de la prop. 4.1.2 e e ci-apr`s. e

62

Calcul stochastique

3.10

Le cas des martingales vectorielles.
t

On veut d´finir Lt = 0 φs · dMs pour φs processus progressif ` valeurs Rd et e a M = (M 1 , . . . , M d ) martingale continue vectorielle. La premi`re id´e est de poser e e t i d i . Comme on verra ci-dessous, ceci ne donne pas la classe optimale Lt = i=1 0 φs dMs de processus int´grables, ce qui fait que l’extension au cas vectoriel, sans ˆtre difficile, e e ne se r´duit pas ` une suite de trivialit´s. e a e

3.10.1

Un r´sultat d’alg`bre lin´aire e e e
def

On note M (d, d) l’espace des matrices r´elles d × d muni de la norme |A| = e 2 }1/2 . On note O(d) le sous-espace des matrices orthogonales (c’est un com{ ai,j pact), S + (d) le sous-espace des matrices sym´triques semi-d´finies positives (c’est un e e + (d) = S + (d) ∩ {A, |A| ≤ n} (c’est un compact). En un premier temps, ferm´) et Sn e on n’utilise que la partie (i) du lemme suivant, les parties (ii) et (iii) serviront en 3.10.6. Lemme 3.10.1. (i) Il existe une application bor´lienne δ de S + (d) dans O(d) telle e que, pour tout A ∈ S + (d), [δ(A)]T A δ(A) soit diagonale. (ii) Pour tout A ∈ S + (d), il existe une unique A1/2 ∈ S + (d) telle que A = (A1/2 )2 . De plus A → A1/2 est bor´lienne. e (iii) Il existe une application bor´lienne γ de M (d, d) dans O(d) telle que, pour tout e R ∈ M (d, d), R = (RRT )1/2 γ(R). D´monstration. L’outil de base est le th´or`me de section suivant (voir Dellacherie. e e e S´minaire de Probabilit´ IX). e e Th´or`me 3.10.2. Soient E et F deux espaces m´triques compacts et B un bor´lien e e e e de E × F . On suppose que, pour tout x ∈ E, Bx = {y ∈ F, (x, y) ∈ B} est non vide et union d´nombrable de compacts. Alors il existe une application bor´lienne φ de E e e dans F telle que, pour tout x ∈ E, (x, φ(x)) ∈ B. D´monstration. (i) Soient n ∈ N, e
+ E = Sn (d)

F = O(d)

B = {(A, U ), U T A U est diagonale} .

Alors B est ferm´ donc compact dans E×F et BA = {U ∈ O(d), U T A U est diagonale} e est non vide (r´sultat classique) et ferm´ donc compact. On applique le th. 3.10.2 et e e on recolle en n. (ii) Soit A ∈ S + (d). Il existe U ∈ √ O(d) telle que U T A U = diag(λ1 , . . . , λd ), λk ≥ 0. √ 1/2 = U diag( λ , . . . , λ ) U T . Soit R ∈ S + (d) telle que R2 = A. On On pose A 1 d a RA = R3 = AR et R et A commutent. Donc R laisse invariant les sous-espaces propres de A. Ceci implique qu’il existe U ∈ O(d) telle que U T A U et U T R U soient diagonales. On en d´duit facilement que R = A1/2 . Il r´sulte de (i) que A → A1/2 est e e bor´lienne. e (iii) Soient R ∈ M (d, d) et A = RRT . On note (α1 , . . . , αd ) et (β1 , . . . , βd ) les vecteurs

63 colonnes de RT et de A1/2 . La relation RRT = A ´quivaut ` αi · αj = βi · βj pour tout e a i, j. Ceci implique que dim Im(RT ) = dim Im(A1/2 ) et qu’il existe une application lin´aire u de Im(RT ) sur Im(A1/2 ) telle que u(αi ) = βi . Par hypoth`se u respecte e e d dans Rd avec le produit scalaire, elle se prolonge en une application lin´aire de R e la mˆme propri´t´. Il existe donc U ∈ O(d) telle que U αi = βi i.e. U RT = A1/2 et e ee R = A1/2 U . Alors B = {(R, U ), R = (RRT )1/2 U } est un ferm´ de Mn (d, d) × O(d) e o` Mn (d, d) = {A ∈ M (d, d), |A| ≤ n} et BR = {U ∈ O(d), R = (RRT )1/2 U } est u non vide et ferm´ donc compact. On applique le th. 3.10.2 et on recolle en n. e

On note H2 (d) = M = (M 1 , . . . , M d ), M k ∈ H2 c c On d´finit, pour M ∈ H2 (d), e c
d

.

M

t

=
i=1

Mi

t

.

(3.42)

Alors M t est l’unique (vu le th. 3.1.3) processus croissant continu tel que |Mt |2 − M t soit une martingale. On d´finit une mesure born´e νM sur (R+ × Prog) en posant e e
+∞

νM (A) = E(
0

1A (t, .) d M

t ),

A ∈ Prog.

(3.43)

Lemme 3.10.3. Soit M ∈ H2 (d). c (i) Il existe un processus progressif at (M ) ` valeurs S + (d) et de trace 1, unique ` a a d , θ · M, M · η = un processus νM p.p. nul pr`s, tel que, pour tous θ, η ∈ R e θT a(M ) η. M . (ii) Pour tout N ∈ H2 , il existe un processus progressif ρt (M, N ) ` valeurs Rd , a c d , θ · M, N = unique ` un processus νM p.p. nul pr`s, tel que, pour tout θ ∈ R a e θT ρ(M, N ). M . D´monstration. Pour N ∈ H2 , on d´finit une mesure sign´e νi sur Prog en posant e e e c
+∞

νi (A) = E
0

1A (t, .) d M i , N

t

, A ∈ Prog .

Vu la prop. 3.9.1, ν i

νM . On prend ρi (M, N ) = t dνi . dνM

On d´finit alors ai,j (M ) = ρi (M, M j ). Puisque, pour tout λ ∈ Qd , tout Φ ∈ b(Prog)+ , e
+∞ +∞

E
0

Φt λT at (M )λ d M

t

=E
0

Φt d λT M, λT M

t

≥0,

64

Calcul stochastique

et que Tr(a(M )) = 1, νM p.p., on peut supposer que, pour tout (t, ω), a(M )(t, ω) ∈ S + (d) et que Tr(a(M )(t, ω)) = 1. On pose, pour M ∈ H2 (d), c
d +∞

L2 (M ) 0

= {φ = (φ , . . . , φ ), φ ∈ [Prog],
i=1

1

d

k

E(
0 +∞

(φi )2 d M i t ) < +∞}, t φT at (M )φt d M t
t)

L2 (M ) = {φ = (φ1 , . . . , φd ), φk ∈ [Prog], E(
0

< +∞}

Si at est diagonale, L2 (M ) = L2 (M ), mais, en g´n´ral, L2 (M ) est strictement inclus e e 0 0 dans L2 (M ) (voir l’exemple ci-dessous). 0 Si φ ∈ L2 (M ), il n’y a aucun probl`me pour d´finir l’int´grale stochastique. On e e e 0 pose
t t d

φs · dMs =
0 0

φT dMs = (φT .M )t = s

def i=1 0

t i φi dMs . s

Alors φT .M ∈ H2 et on a, pour toute toute N ∈ H2 , c c φT .M, N = φT ρ(M, N ). M , Rd . φT .M,
T = φ a φ.

M .

(3.44)

Soient Ut un processus progressif ` valeurs O(d) et e1 , . . . , ed la base canonique de a ˜ t = t Us dMs = (U.M )t par eT Mt = (eT U.M )t . ˜ Comme Ut est born´, on d´finit M e e i i 0 2 (d) et on a, pour tous θ, η ∈ Rd et toute N ∈ H2 , ˜ Alors M ∈ Hc c ˜ θT M , N = θT U ρ(M, N ). M ˜ ˜ θT M , (M )T η = θT U a(M ) U T η. M , ˜ ρ(M , N ) = U ρ(M, N ), ˜ a(M ) = U a(M ) U T . (3.45) (3.46)

En particulier,
d d

˜ M

=
i=1

˜ eT , M = i
i=1

eT U a(M ) U T ei . M i = Tr( a(M ) U T U ). M

= Tr(U a(M ) U T ). M = Tr( a(M )). M = M .

3.10.2

Le cas g´n´ral e e
+∞ T |φt ρt (M, N )| d 0

Th´or`me 3.10.4. Soient M ∈ H2 (d) et φ ∈ L2 (M ). e e c (i) Pour toute N ∈ H2 , E( c (ii) Il existe L ∈ H2 , c M
t)

< +∞.

unique, telle que, pour toute N ∈ H2 , c L, N = φT ρ(M, N ). M . (3.47)

En particulier L = φT a(M ) φ. M .

65 D´monstration. D’apr`s le lem. 3.10.1, Ut = [δ(at (M ))]T est un processus progressif e e a ` valeurs O(d) tel que Ut at (M ) UtT = ∆t = diag(λ1 , . . . , λd ) avec λk ≥ 0 progressifs. t t 1 t ˜ ˜ On pose Mt = 0 Us dMt . On a M = M , a(M ) = U a(M ) U T = ∆ et
d i=1 0 +∞ +∞ +∞

(eT Ut φt )2 λi d M i t =
0

t

=
0

φT U T ∆t Ut φt d M t < +∞.

t

φT at (M )φt d M t

t

(3.48)

(i) Appliquant la prop. 3.9.1, on a pour un α ∈ [Prog], |α| = 1 et toute N ∈ H2 , c
+∞

E(
0

˜ |eT Ut φt ρi (M , N )| d M i t = E(
0

+∞ t ) = E( 0 +∞

˜ αt eT Ut φt ρi (M , N ) d M i t

t)

˜ αt eT Ut φt d M i , N t ) i (eT Ut φt )2 λi d M i t
t ) E(

+∞

≤ {E(
0

N, ∞ ] )}1/2 < +∞ .

On a donc, vu (3.45),
+∞ +∞

E(
0

|φT ρt (M, N )| d M t

t ) = E( 0 d

˜ |φT U T ρt (M , N )| d M t
+∞

t)


i=1

E(
0

˜ |eT Ut φt ρi (M , N )| d M i t

t)

< +∞ .

t T ˜ ˜ (ii) Vu (3.48), U φ ∈ L2 (M ). Posons Lt = 0 φT Us dMt . Alors L ∈ H2 et, pour toute s c 0 2 , on a, d’apr`s (3.44) avec M ` la place de M , ˜ a N ∈ Hc e

˜ ˜ L, N = φT U T .M , N = φT U T ρ(M , N ). M Pour les mˆmes raisons, e ˜ ˜ L, L = φT U T a(M ) U φ. M
t

= φT ρ(M, N ). M

t

.

= φT a(M ) φ. M

.

L’unicit´ est ´vidente : si L1 , L2 ∈ H2 (d) v´rifient (3.47), on a, pour toute N ∈ H2 , e e e c c 1 − L2 , N = 0 et, prenant N = L1 − L2 , L1 − L2 = 0 et L1 = L2 . L La martingale Lt s’appelle encore l’int´grale stochastique de φ par rapport ` M e a t et se note (φT .M )t ou 0 φs · dMs . Exemple 3.10.5. Soient (Ω, Ft , F, Bt , P) un Ft -mouvement brownien r´el, αi des proe +∞ i 2 cessus r´els progressifs tels que E( 0 (αs ) ds) < +∞, i = 1, 2. On pose Mti = e t i 1 2 2 0 αs dBs . Alors M = (M , M ) ∈ Hc (2) et on a
+∞

L2 (M ) = {φ = (φ1 , φ2 ), φi ∈ [Prog], E( 0
0 +∞

1 2 [(φ1 αs )2 + (φ2 αs )2 ] ds) < +∞}, s s 1 2 (φ1 αs + φ2 αs )2 ds) < +∞} s s 0

L2 (M ) = {φ = (φ1 , φ2 ), φi ∈ [Prog], E(

66 et L2 (M ) est strictement inclus dans L2 (M ). 0

Calcul stochastique

Par arrˆt, le passage aux martingales locales ne pr´sente aucune difficult´. On e e e pose Mloc (d) = {M = (M 1 , . . . , M d ), M k ∈ Mloc (d)}, c c
d +∞

M

=
i=0

eT M , i

νM (A) = E(
0

1A (t, .) dt), A ∈ Prog.

Il existe un processus progressif at (M ) ` valeurs S + (d) et, pour toute N ∈ Mloc , un a c processus progressif ρt (M, N ) ` valeurs Rd , uniques ` un νM p.p. pr`s, tels que, pour a a e tous θ, η ∈ Rd , θT M, M T η = θT a(M ) η. M , On pose
t

θT M, N = θT ρ(M, N ). M

.

L0 (M ) =

φ = (φ1 , . . . , φd ), φi ∈ [Prog], ∀ t,
0

φT as φs d M s

s

< +∞

.

Alors il existe L ∈ Mloc , unique, telle que, pour tout N ∈ Mloc , L, N = φT ρ(M, N ). M . c c En particulier L = φT a(M ) φ. M . t Soit Mt une martingale r´elle continue telle que M t = 0 as ds avec a ≥ ρ > 0. e Posons Bt =
t −1/2 dMs , 0 as

Bt est une martingale continue et B

t

=

Donc (prop. 3.9.10) Bt est un mouvement brownien r´el. On a alors e Pour traiter le cas g´n´ral, il y a deux probl`mes. D’abord a n’est pas toujours e e e T inversible. Ensuite on cherche une repr´sentation pour tout σt tel que σt σt = at . e Pour cela, on doit agrandir l’espace de probabilit´. e

t −1 0 as d M, s = t. t 1/2 Mt = 0 as dBs .

3.10.3

Agrandissement

Soient (Ω, Ft , F, P) et (Ω , Ft , F , P ) deux espaces de probabilit´ filtr´s. On pose e e ˜ ˜ ˜ ˜ Ω = Ω × Ω , Ft = Ft ⊗ Ft , F = F ⊗ F , P = P ⊗ P (3.49)

˜ e ˜ ˜ ˜ ˜ o` ¯ d´signe la compl´tion par les ensembles P-n´gligeables. On dit que (Ω, Ft , F, P) u e e est un agrandissement de (Ω, Ft , F, P). Toute fonction Φ sur Ω (resp. Ψ sur Ω ) se ˜ prolonge en une fonction sur Ω en posant Φ(ω, ω ) = Φ(ω) (resp. Ψ(ω, ω ) = Ψ(ω )). Proposition 3.10.6. Soit (Ω, Ft , F, Mt , P) une martingale continue ` valeurs Rr . a t T r , θT M u On suppose que, pour tout θ ∈ R t = 0 θ as θ ds o` as est un processus progressif ` valeurs S + (r). Soit σt un processus progressif ` valeurs M (r, d) tel que a a T ˜ ˜ ˜ ˜ at = σt σt . Alors il existe un agrandissement (Ω, Ft , F, P) de (Ω, Ft , F, P) donn´ e ˜t -mouvement brownien Bt ` valeurs Rd issu de 0 tels qu’on ait ˜ a par (3.49) et un F t ˜ ˜ Mt = 0 σs dBs P p.s.

67 D´monstration. On suppose d’abord que d = r. On choisit un espace (Ω , Ft , F , P ) e ˜ portant un Ft -mouvement brownien Bt ` valeurs Rr . Soit Ω = Ω × Ω , . . . donn´ par a e (3.49). Vu le lem. 3.10.1, Ut = [δ(at )]T est un processus progressif ` valeurs O(r) tel a que Ut at UtT = ∆t = diag(λ1 , . . . , λd ) avec λk ≥ 0 et progressif. Puisque, par hyt t t t t poth`se, 0 |as | ds < +∞ p.s., on a, pour tout t et i, 0 λi ds < +∞ p.s. On pose e s t i,j Yt = 0 Us dMs . Puisque |Us | ≤ 1, cette int´grale stochastique est d´finie sans e e 1 , . . . , Y r ) une martingale loprobl`me composante par composante. Alors Yt = (Yt e t cale vectorielle et
t t T eT Us as Us ej ds = 1{i} (j) i 0 0

Y i, Y j Vu que

t

= Yi
s

λi ds. s

t i −1/2 1{λi >0} d 0 (λs ) s r

= 1, on peut d´finir e
r t 0

˜ Zt =
i=1 0

t

(λi )−1/2 1{λi >0} dYsi + s s
i=1

1{λi =0} d(Bs )i . s

Puisque Y i , Y j

t

= 0 si i = j et que Y et B sont ind´pendants, on a e
r t 2 θi i=1 0 r t 2 θi i=1 0 t

˜ θT Zt

=

1{λi >0} ds + s

1{λi =0} ds = |θ|2 t . s
t 1/2 ˜ 0 ∆s dZs

˜ ˜ Donc (prop. 3.9.10) Zt est un Ft -mouvement brownien et
t

= Yt puisque

eT i

1/2 ˜ ∆s dZs =

t

t

vu que = = 0. Vu le lem. 3.10.1, il existe un processus progressif Vs ` valeurs O(r) tel que a 1/2 t T T ˜ T U T ∈ O(r), c’est encore un ˜ σs = as Vs . On pose Bt = 0 Vs Us dZs . Puisque Vs s 1/2 T 1/2 ˜ Ft -mouvement brownien et on a, puisque as = Us ∆s Us ,
t 0

0 . i 0 1{λi =0} dYs t s

0 . i 0 1{λi =0} λs ds s

1{λi >0} dYsi = Ysi − s

0

1{λi =0} dYsi = Ysi s

˜ σs dBs =
0

t

T ˜ σs VsT Us dZs = 0

t

1/2 T ˜ as Us dZs = 0

t

T ˜ Us ∆1/2 dZs = s 0

t T Us dYs = Mt .

Enfin si d = r, on se ram`ne au cas d = r. Si d < r, on compl`te σt par des z´ros e e e pour en faire une matrice r × r ; si d > r, on compl`te σt par des z´ros pour en faire e e une matrice d × d et Yt par des z´ros pour en faire un vecteur de Rd . e

68

Calcul stochastique

Chapitre 4

Equations diff´rentielles e stochastiques
4.1 Solutions d’Itˆ o

R´soudre une ´quation diff´rentielle consiste, pour une fonction f donn´e, ` troue e e e a ver une fonction φ telle que dφ(t) = f (φ(t))dt. R´soudre une ´quation diff´rentielle e e e stochastique (en abr´g´ E.D.S.), consiste, pour des fonctions f et g, ` d´terminer un e e a e processus φt tel que dφt = f (φt )dt + g(φt )dBt . Les conditions sous lesquelles de tels processus existent et, lorsqu’ils existent, les propri´t´s de ces solutions sont l’objet de ee ce chapitre.

4.1.1

Notations

On note M (r, d) l’espace des matrices r´elles ` r lignes et d colonnes. On a e a d , Rr ). Rappelons qu’on note AT la matrice transpos´e de A et que, M (r, d) ∼ L(R e pour A ∈ M (r, r), la trace de A est d´finie par T r(A) = r ai,i . On munit M (r, d) e i=1 de la norme |A| := { a2 }1/2 = T r(AAT ). Pour A ∈ M (r, d) et B ∈ M (d, m), on i,j a (c’est Cauchy-Schwarz) |AB| ≤ |A| |B|. Enfin (e1 , . . . , er ) d´signe la base canonique e de Rr .

4.1.2

Processus ` valeurs M (r, d) a

Soient ( Ω, Ft , F, Bt , P ) un Ft -mouvement brownien ` valeurs Rd issu de 0 et φs a t un processus progressif ` valeurs M (r, d) tel que, pour tout t, 0 |φs |2 ds < +∞ p.s. a On d´finit une martingale locale vectorielle Mt = (Mt1 , . . . , Mtr ) par e
d t j φi,j dBs . s j=1 0

Mti

=

(4.1)

70 On note Mt = et l’on a
t 0 φs dBs .

Equations diff´rentielles stochastiques e Alors Mti = eT Mt = i
t t T 0 ei φs dBs

est une martingale locale (4.2)

M i, M j De plus, si E(
t t 2 0 |φs | ds) r

t

=
0

eT φs φT ej ds. i s

< +∞,
t 2

E |
0

φs dBs |2

=
i=1

E
0

eT φs dBs i
r t t

=
i=1

E
0

|eT φs |2 ds i

=E
0

|φs |2 ds

. (4.3)

4.1.3

Processus d’Itˆ vectoriel o

D´finition 4.1.1. Un processus Xt ` valeurs Rr de la forme e a
t t

Xt = X0 +
0

φs dBs +
0

αs ds

(4.4)

o` X0 est une v.a. F0 -mesurable, φs un processus progressif ` valeurs M (r, d) tel que u a |φs | ∈ Λ0 , αs un processus progressif ` valeurs Rr tel que |αs | ∈ Λ0 , s’appelle un a processus d’Itˆ vectoriel. o On ´crira alors dXt = φt dBt + αt dt et dXt s’appelle la diff´rentielle stochastique e e de Xt . On pose, pour f ∈ C 1,2 (R × Rr ),
xf =

∂f ∂f ... ∂x1 ∂xr

T

,

2 Dx f =

∂2f , 1 ≤ i, j ≤ r ∂xi ∂xj

.

(4.5)

Soit Xt est un processus d’Itˆ donn´ par (4.4). On a, d’apr`s le cor. 3.4.7 et (4.2), o e e
r

df (t, Xt ) =

 i=1  ∂f + (t, Xt ) +  ∂t

∂f (t, Xt )eT φt dBt i ∂xi
r i=1

∂f 1 i (t, Xt )αt + ∂xi 2

r i,j=1

∂2f ∂xi ∂xj

(t, Xt )eT φt φT ej i t

  

dt, (4.6)

soit, sous forme concentr´e, e df (t, Xt ) = (
T x f ) (t, Xt )φt dBt

+

∂f (t, Xt ) + ( ∂t

T x f ) (t, Xt )αt

1 2 + Tr[Dx f (t, Xt )φt φT ] dt . t 2

Les majorations suivantes seront essentielles pour contrˆler les moments des solutions. o

71 Proposition 4.1.2. Soit p ≥ 2. Il existe une constante Kp telle que, pour tout processus progressif φs ` valeurs M (r, d) tel que |φs | ∈ Λ0 et tout T > 0, on ait a
t T

E sup |
t≤T 0

φs dBs |p

≤ Kp E
0

|φt |2 dt

p 2

≤ Kp T 2 −1 E
0

p

T

|φs |p ds

.

Remarque 4.1.3. Noter que la constante Kp ne d´pend ni de r ni de d. Le lecteur e peu courageux peut se contenter de la preuve ci-dessous dans le cas d = r = 1 puis t de majorer | 0 φs dBs | composante par composante. On obtient ainsi une constante d´pendant de d et r ce qui est moins ´l´gant mais suffisant pour la suite. e ee D´monstration. Soient Mt = 0 φs dBs et At = 0 |φs |2 ds. On peut supposer Mt et e At born´s (sinon on consid`re Mt∧τn o` τn = inf(t ≥ 0, |Mt | + At ≥ n) puis on passe e e u p a ` la limite en n). Vu que p ≥ 2, |Mt |p = (|Mt |2 ) 2 est une sous-martingale positive p et (th. 2.1.2) E(supt≤T |Mt |p ) ≤ ( p−1 )p E(|MT |p ). Si p = 2, on utilise (4.3). Si p > 2, appliquant la formule d’Itˆ ` |x|p et prenant l’esp´rance, on obtient oa e
T t t

E(|MT |p ) = E(
0

|Mt |p−2 ( =

p 2

r

eT φt φT ei +1{|Mt |=0} i t
i=1

p(p − 2) 2

r i,j=1

Mti Mtj T e φt φT ej ) dt). t |Mt |2 i

Vu que
r

r T T i=1 ei φt φt ei

r T 2 i=1 |ei φt | r i,j=1

= |φt |2 et que, sur {|Mt | = 0},
r

|
i,j=1

Mti Mtj T e φt φT ej | ≤ { t |Mt |2 i

M iM j ( t 2t )2 }1/2 { |Mt |

(eT φt φT ej )2 }1/2 = |φt φT | ≤ |φt |2 , i t t

i,j=1

on a donc, appliquant l’in´galit´ de H¨lder, e e o E(sup |Mt |p ) ≤ (
t≤T

p p ) E(|MT |p ) ≤ κp E( p−1 ≤ κp E(sup |Mt |
t≤T p−2

T

|Mt |p−2 |φt |2 dt)
0

AT ) ≤ κp {E(sup |Mt |p )}
t≤T

p−2 p

p

2 {E(AT } p .

2

On en d´duit, utilisant ` nouveau l’in´galit´ de H¨lder, e a e e o
T

E(sup |Mt |p ) ≤ Kp E{(
t≤T 0

|φt |2 dt) 2 } ≤ Kp T 2 −1 E(
0

p

p

T

|φt |p dt).

Lemme 4.1.4. Soit p ≥ 1. On a, pour tout processus progressif αs ` valeurs Rr tel a que |αs | ∈ Λ0 et tout T > 0,
t T

E sup |
t≤T 0

αs ds|p

≤ T p−1 E
0

|αs |p ds

.

72

Equations diff´rentielles stochastiques e

D´monstration. En effet, utilisant l’in´galit´ de H¨lder, e e e o
t T T

E sup |
t≤T 0

αs ds|p

≤E (
0

|αs | ds)p

≤ T p−1 E
0

|αs |p ds

.

On consid`re des applications mesurables σ(t, x) et b(t, x) de R+ ×Rr dans M (r, d) e r. et R – On dit que σ et b sont localement born´es si, pour tous T > 0 et K compact e de Rr , |σ(t, x)| + |b(t, x)| est born´e sur [0, T ] × K. e – On dit que σ et b sont ` croissance sous-lin´aire si, pour tout T > 0, il existe a e une constante M (T ) telle que (rappelons que a ∨ b = sup(a, b)) pour t ≤ T, x ∈ Rr , |σ(t, x)| ∨ |b(t, x)| ≤ M (T )(1 + |x|). (4.7)

– On dit que σ et b sont lipschitziennes si, pour tout T > 0, il existe une constante L(T ) telle que pour t ≤ T, x, y ∈ Rr , |σ(t, x) − σ(t, y)| ∨ |b(t, x) − b(t, y)| ≤ L(T )|x − y|. (4.8) – On dit que σ et b sont localement lipchitziennes si, pour tous T > 0 et n, il existe une constante Ln (T ) telle que, notant Bn = { ξ, |ξ| ≤ n }, pour t ≤ T, x, y ∈ Bn , |σ(t, x)−σ(t, y)|∨|b(t, x)−b(t, y)| ≤ Ln (T )|x−y|. (4.9) D´finition 4.1.5. Soient σ(t, x) et b(t, x) des applications mesurables localement e born´es de R+ × Rr dans M (r, d) et Rr . On dit qu’un terme S = (Ω, Ft , F, Bt , Xt , P) e est solution de l’E.D.S. E(σ, b) dXt = σ(t, Xt ) dBt + b(t, Xt ) dt (4.10)

si B = (Ω, Ft , F, Bt , P) est un Ft -mouvement brownien ` valeurs Rd issu de 0, si Xt a est un processus continu Ft -adapt´ ` valeurs Rr et si ea
t t

Xt = X0 +
0

σ(s, Xs ) dBs +
0

b(s, Xs ) ds.

(4.11)

Etant donn´ un Ft -mouvement brownien ` valeurs Rd , B = (Ω, Ft , F, Bt , P), issu de e a 0, on dit que Xt est une solution de E(σ, b) relative ` B si le terme (Ω, Ft , F, Bt , Xt , P) a est une solution de E(σ, b).

4.1.4

Localisation

Le r´sultat suivant, appel´ lemme de Gronwall, sera utilis´ de fa¸on intensive. e e e c Lemme 4.1.6. Soit f ∈ B + ([0, T ]) int´grable sur [0, T ] telle que, pour tout t ≤ T , e t f (t) ≤ a + b 0 f (s) ds, a ≥ 0, b ≥ 0. Alors f (t) ≤ a exp(bt) sur [0, T ].

73 D´monstration. En effet, on a, pour tout t ≤ T , e
t t s

f (t) ≤ a + b
0

f (s) ds ≤ a + bat + b2
0 n

ds
0 t

f (u) du ≤ . . .
u1 un

≤a
k=0

(bt)k + rn , rn = bn+1 k! dv ≤ bn+1 t n!
n

du1
0 0

du2 . . .
0

f (un+1 ) dun+1

et rn = bn+1

t (t−v)n 0 f (v) n!

t 0 f (v) dv

→n 0.

Proposition 4.1.7. Soient T > 0, U un ouvert de Rr , B = (Ω, Ft , F, Bt , P) un Ft -mouvement brownien ` valeurs Rd issu de 0, σ i (t, x) et bi (t, x) des applications a i mesurables localement born´es de R+ × Rr dans M (r, d) et Rr , Xt des solutions de e i , bi ) relatives ` B et τ i = inf(t, X i ∈ U ), i = 1, 2. On suppose que, pour tous E(σ a t / 1 (t, x) = σ 2 (t, x), b1 (t, x) = b2 (t, x) et qu’il existe des constantes t ≤ T et x ∈ U , σ Kn telles que pour t ≤ T, x, y ∈ Un , |σ 1 (t, x) − σ 1 (t, y)| ∨ |b1 (t, x) − b1 (t, y)| ≤ Kn |x − y|
1 2 o` Un = U ∩ {ξ, |ξ| ≤ n}. Alors, si P(X0 = X0 ) = 1, u 1 2 P(τ 1 ∧ T = τ 2 ∧ T, Xt = Xt pour tout t ≤ τ 1 ∧ T ) = 1. 1 2 D´monstration. On pose τ = τ 1 ∧ τ 2 , αn = inf(t ≥ 0, |Xt | ≥ n ou |Xt | ≥ n), e 1 2 2 ) ≤ 4n2 . ρn = τ ∧ αn . Noter que αn ↑ +∞. Evidemment supt≤T E(|Xt∧ρn − Xt∧ρn | On a alors, pour t ≤ T , 1 2 E(|Xt∧ρn − Xt∧ρn |2 ) t∧ρn

≤ 2E(|
0 t∧ρn

1 2 (σ 1 (s, Xs ) − σ 2 (s, Xs )) dBs |2 ) + 2E(|

t∧ρn

1 2 (b1 (s, Xs ) − b2 (s, Xs )) ds|2 )

≤ 2E(
0 t∧ρn

1 2 |σ 1 (s, Xs ) − σ 2 (s, Xs )|2 ds) + 2T E( 0 1 2 |σ 1 (s, Xs ) − σ 1 (s, Xs )|2 ds) + 2T E( 0 t∧ρn 0 t 1 2 |Xs − Xs |2 ds)

0 t∧ρn

1 2 |b1 (s, Xs ) − b2 (s, Xs )|2 ds) 1 2 |b1 (s, Xs ) − b1 (s, Xs )|2 ds)

t∧ρn

≤ 2E(
0

2 ≤ 2Kn (T + 1)E( 2 ≤ 2Kn (T + 1) 0

1 2 E(|Xs∧ρn − Xs∧ρn |2 ) ds .

1 2 D’o` (lem. 4.1.6) E(|Xt∧ρn − Xt∧ρn |2 ) = 0 pour tout t ≤ T . Vu la continuit´, on en u e 1 2 1 2 d´duit P(Xt∧ρn = Xt∧ρn pour tout t ≤ T ) = 1 puis P(Xt∧τ = Xt∧τ pour tout t ≤ e T ) = 1 et enfin la proposition.

Choisissant dans la prop. 4.1.7, σ = σ 1 = σ 2 , b = b1 = b2 et U = Rr , on a : Corollaire 4.1.8. Soient B = (Ω, Ft , F, Bt , P) un Ft -mouvement brownien ` valeurs a d issu de 0, σ(t, x) et b(t, x) des applications de R+ ×Rr dans M (r, d) et Rr v´rifiant R e i 1 2 (4.9) et Xt , i = 1, 2, des solutions de E(σ, b) relatives ` B. Alors, si P(X0 = X0 ) = 1, a 1 2 P(Xt = Xt pour tout t) = 1.

74

Equations diff´rentielles stochastiques e

4.1.5

Solutions d’Itˆ o

Th´or`me 4.1.9. Etant donn´s : e e e (i) un Ft -mouvement brownien ` valeurs Rd issu de 0, B = (Ω, Ft , F, Bt , P), a (ii) une v.a. η ` valeurs Rr F0 -mesurable et de carr´ int´grable, a e e (iii) des applications mesurables σ(t, x) et b(t, x) ` valeurs M (r, d) et Rr v´rifiant a e (4.7) et (4.8), il existe une et une seule solution Xt de E(σ, b) relative ` B telle que X0 = η. a D´monstration. Elle repose sur le r´sultat ´l´mentaire suivant : e e ee Lemme 4.1.10. Soient E un espace de Banach et U une application de E dans E v´rifiant, pour tous x, y ∈ E, U x − U y ≤ ρ x − y , ρ < 1. Alors il existe un unique e x ∈ E tel que x = U x. De plus, pour tout x0 ∈ E, U n x0 → x. ¯ ¯ ¯ ¯ D´monstration. L’unicit´ est ´vidente puisque x = U x et y = U y impliquent x − e e e y = U x − U y ≤ ρ x − y et x = y. Pour l’existence, on choisit x0 ∈ E quelconque et on pose xn = U n x0 . Alors, vu que U n x − U n y ≤ ρ U n−1 x − U n−1 y ≤ . . . ≤ ρn x − y , nous avons
k k

xn+k − xn ≤
i=1

xn+i − xn+i−1 =
i=1 k

U n+i x0 − U n+i−1 x0 ρn U x0 − x0 →n 0 1−ρ


i=1

ρn+i−1 U x0 − x0 ≤

uniform´ment en k. Donc xn est une suite de Cauchy et xn → x. Mais xn+1 = U xn e ¯ et, vu la continuit´ de U , x = U x. e ¯ ¯ On fixe T > 0 et on pose H = L2 ([0, T ] × Ω, Prog, λ|[0,T ] ⊗ P). Muni de la norme r T φ = {E( 0 |φt |2 dt)}1/2 , H est un espace Banach. Pour φ ∈ H, on d´finit e
t t

(Sφ)t = η0 +
0

σ(s, φs ) dBs +
0

b(s, φs ) ds.

(4.12)

On voit facilement, soit directement, soit en utilisant la prop. 4.1.2 et le lem. 4.1.4, que φ → Sφ est une application de H dans H. On a, d’apr`s (4.8), pour φ, ψ ∈ H et e

75 t ≤ T, E|(Sφ)t − (Sψ)t |2
t 2 t 2

≤ 2E
0

(σ(s, φs ) − σ(s, ψs )) dBs
t

+ 2E
0

(b(s, φs ) − b(s, ψs )) ds
t

≤ 2E
0

|σ(s, φs ) − σ(s, ψs )|2 ds + 2T E
0 t

|b(s, φs ) − b(s, ψs )|2 ds

≤ C(T )
0

E |φs − ψs |2 ds avec C(T ) = 2(1 + T )L(T ) .
c

Consid´rons, pour c > 0, la norme sur H, φ e ´quivalente ` φ . On a alors e a
T

= {E(

T 0

e−ct |φt |2 dt)}1/2 . Elle est

Sφ − Sψ ≤ C(T )

2 c

=
0 T 0 T 0

E|(Sφ)t − (Sψ)t |2 e−ct dt
t

E|φs − ψs |2 ds e−ct dt
T

≤ C(T )
0

E|φs − ψs |2
s T 0

e−ct dt

ds

C(T ) c

E|φs − ψs |2 e−cs ds =

C(T ) φ − ψ c. c

(T Si on choisit c assez grand pour que C1c ) < 1, S satisfait les hypoth`ses du lem. e 4.1.10 et donc il existe φ dans H, unique, tel que Sφ = φ. On peut supposer φ continu puisque Sφ a un repr´sentant continu. e L’unicit´ r´sulte ´galement du cor. 4.1.8. e e e

Notation. On note X η la solution de (4.11) de condition initiale η. Remarque 4.1.11. Il r´sulte de la preuve ci-dessus que, sous les hypoth`ses du th. 4.1.9, e e x est F B -adapt´e, F B d´signant la filtration naturelle de B introduite la solution Xt e e t t t en ??.5. Il r´sulte ´galement de la preuve du th. 4.1.9 que : e e Corollaire 4.1.12. Sous les hypoth`ses du th. 4.1.9, soient Xt la solution de (4.11) et e S d´finie par (4.12). Alors, pour tout T > 0 et tout φ ∈ L2 ([0, T ]×Ω, Prog, λ|[0,T ] ⊗P), e r T n φ) − X |2 dt) → 0. E( 0 |(S t t n On a aussi,
η η Corollaire 4.1.13. Sous les hypoth`ses du th. 4.1.9, on a, sur {η = η }, Xt = Xt e quel que soit t p.s.

D´monstration. Soient X0 ≡ η, Xn+1 = SXn , X0 ≡ η , Xn+1 = SXn . D’apr`s la e e η = Xη prop. 3.3.3, on a de proche en proche, sur {η = η }, Xn = Xn p.s. et donc X p.s. vu le cor. 4.1.12.

76

Equations diff´rentielles stochastiques e

Si on examine les d´monstrations pr´c´dentes, on observe que les fonctions σ(t, x) e e e et b(t, x) n’interviennent que par les majorations (4.7) et (4.8) et que, si on consid`re e des fonctions σ(t, ω, x) et b(t, ω, x) v´rifiant les mˆmes in´galit´s, on a le mˆme e e e e e r´sultat pourvu que, pour tout processus progressif φt , les processus σ(t, ω, φt (ω)) e et b(t, ω, φt (ω)) soient progressifs. On a donc : Proposition 4.1.14. Le th´or`me 4.1.9 reste vrai si on remplace (iii) par : e e (iii’) des fonctions Prog ⊗ B(Rr )-mesurables σ(t, ω, x) et b(t, ω, x) v´rifiant, unie form´ment en ω, (4.7) et (4.8). e

4.2
4.2.1

Propri´t´s e e
D´pendance des conditions initiales e

Proposition 4.2.1. Soient p ≥ 2 et T > 0. Sous les hypoth`ses du th. 4.1.9, il existe e des constantes Ci (T, p) telles que : (i) (ii)
η E(sup |Xs − η|p ) ≤ C1 (T, p)t 2 (1 + E|η|p ), η ∈ Lp , t ≤ T, s≤t η η E(sup |Xs − Xs |p ) ≤ C2 (T, p)E|η − η |p , η, η ∈ Lp . s≤T
p

D´monstration. Les constantes Ci , Ki ci-dessous d´pendent de T , de p et de σ et b e e par l’interm´diaire de (4.7) et (4.8). e (i) On ´crit X pour X η . On pose τn = inf(t ≥ 0, |Xt − η| ≥ n) et fn (t) = e E(sups≤t |Xs∧τn − η|p ). Evidemment fn (t) ≤ np . On a, pour t ≤ T , |Xs∧τn − η|p ≤ 2p−1 (|
0 s∧τn

σ(u, Xu ) dBu |p + |
0

s∧τn

b(u, Xu ) du|p )

et, vu la prop. 4.1.2 et le lem. 4.1.4, fn (t) ≤ C3 t 2 −1 E(
0
p

t

t

|σ(u, Xu∧τn )|p du) + C4 tp−1 E(
0

|b(u, Xu∧τn )|p du).

Utilisant (4.7), on obtient pour u ≤ T , E(|σ(u, Xu∧τn )|p ) ≤ C5 E(1 + |Xu∧τn |p ) ≤ C6 (1 + E|η|p + fn (u)) et de mˆme pour E(|b(u, Xu∧τn )|p ). On a donc, pour t ≤ T , e fn (t) ≤ C7 t 2 (1 + E|η|p ) + C8
0
p

t

fn (u) du

d’o` (lem. 4.1.6) u fn (t) = E(sup |Xs∧τn − η|p ) ≤ C9 t 2 (1 + E|η|p )
s≤t
p

77 et (i) puisque τn ↑ +∞. (ii) On pose X = X η , X = X η , ∆s σ = σ(s, Xs )−σ(s, Xs ), ∆s b = b(s, Xs )−b(s, Xs ). On a, utilisant la prop. 4.1.2, le lem. 4.1.4 et (4.8), pour t ≤ T ,
s η η E(sup |Xs − Xs |p ) ≤ 3p−1 [E|η − η |p + E(sup | s≤t s≤t t 0 t s

∆u σ dBu |p ) + E(sup |
s≤t 0

∆u b du|p )]

≤ K1 [E|η − η |p + E(
0 t

|∆u σ|p du) + E(
0

|∆u b|p du)]

≤ K2 E|η − η |p + K3
0

E|Xu − Xu |p du.

On applique alors le lem. 4.1.6 ` g(u) = E(sups≤u |Xs − Xs |p ) et on obtient g(t) ≤ a p sur [0, T ] puisque, vu (i), g(u) est localement born´e. K4 E|η − η | e
η Remarque 4.2.2. La premi`re in´galit´ montre que, si η ∈ Lp , alors Xt ∈ Lp , p ≥ 2. e e e

4.2.2. On appelle fonction al´atoire une famille (Xi , i ∈ I) de v.a. index´es par I, e e r´servant le terme de processus au cas I = R+ . Le th. ?? admet la g´n´ralisation e e e suivante (voir ?) : Proposition 4.2.3. Soit (Zt (x), t ∈ R+ , x ∈ Rr ) une fonction al´atoire ` valeurs e a Rm continue en t pour chaque x. On suppose que, pour tous x, y ∈ Rr et T > 0, E(sup |Zt (x) − Zt (y)|p ) ≤ ap,T |x − y|r+ε , ε > 0, p > 1.
t≤T ∗ Alors il existe une fonction al´atoire Zt (x) continue en (t, x) telle que, pour tout x, e ∗ (x) = Z (x) quel que soit t. on ait p.s. Zt t y Si on applique la prop. 4.2.1 ` Xt et Xt , on obtient, pour tout p > 2, a x y x E(sup |Xt − Xt |p ) ≤ C2 (p, T )|x − y|p . t≤T

(4.13)

Prenant p > r dans (4.13), la prop. 4.2.3 implique qu’il existe une fonction x al´atoire Xt (x) continue en (t, x) telle que, pour tout x, p.s. Xt (x) = Xt quel que e soit t. Alors, Proposition 4.2.4. Sous les hypoth`ses du th. 4.1.9, pour toute η ∈ [F0 ], Xt = Xt (η) e est l’unique solution de E(σ, b) relative ` B telle que X0 = η. a D´monstration. L’unicit´ r´sulte du cor. 4.1.8. D’apr`s le cor. 4.1.13, c’est vrai pour e e e e η ´tag´e. Soit η ∈ L2 (F0 ). Il existe ηn ´tag´es telles que ηn → η dans L2 et aussi p.s. e e e e (prendre une sous-suite). On a (prop. 4.2.1) X ηn → X η dans L2 et, vu la continuit´, e Xt (ηn ) → Xt (η) p.s. d’o` le r´sultat. Pour le cas g´n´ral, on consid`re d’abord η M = u e e e e η1{|η|≤M } , qui est dans L2 , puis on applique la prop. 3.3.3. On fixe s > 0. Evidemment (Bu := Bs+u − Bs , u ≥ 0) est un Fs+u -mouvement brownien issu de 0 et on a
(s)

78

Equations diff´rentielles stochastiques e

Lemme 4.2.5. Pour tout processus progressif φ tel que |φ| ∈ Λ0 , on a
t−s (s) φs+u dBu = 0 s t

φu dBu .

D´monstration. Raisonnant composante par composante, on se ram`ne ` d = 1. C’est e e a alors ´vident pour φ ´tag´e puis on passe ` la limite. e e e a On pose, pour s < t,
s Gt = σ(Bu − Bs , s < u ≤ t, N ), N n´gligeables de σ(Bu , u ≥ 0). e (s)

(4.14)

s Alors (Bu , u ≥ 0) est aussi un Gs+u -mouvement brownien issu de 0 et, sous les hypoth`ses (i) et (iii) du th. 4.1.9, il y a existence et unicit´ des solutions de e e u u (s) σ(s + v, ξv ) dBv + 0 0

ξu = x +

b(s + v, ξv ) dv

s et cette solution est Gs+u -mesurable. De la prop. 4.2.4, on d´duit : e

Th´or`me 4.2.6. On suppose (i) et (iii) du th. 4.1.9. Alors, pour tout s ≥ 0, il existe e e s une fonction al´atoire (Xt (s, x), t ≥ s, x ∈ Rr ) continue en (t, x) et Gt -mesurable telle e que, pour toute η ∈ [Fs ], Yt = Xt (s, η) soit l’unique solution de
t t

Yt = η +
s

σ(v, Yv ) dBv +
s

b(v, Yv ) dv, t ≥ s.

(4.15)

Donc Xt (s, x) d´signe la position ` l’instant t de la solution de l’E.D.S. partant e a de x ` l’instant s. Ceci implique a Lemme 4.2.7. Pour s ≤ t ≤ t + h, Xt+h (s, η) = Xt+h (t, Xt (s, η)) p.s. D´monstration. Posant ξu = Xu (s, η), on a, pour u > t, e
u u

ξu = η +
s t

σ(v, ξv ) dBv +
s t

b(v, ξv ) dv
u u

= η+
s

σ... +
s u

b... +
t

σ... +
t u

b...

= Xt (s, η) +
t

σ(v, ξv ) dBv +
t

b(v, ξv ) dv

d’o` (unicit´) ξu = Xu (t, Xt (s, η)) p.s. u e Proposition 4.2.8. Sous les hypoth`ses du th. 4.2.6, on a pour s ≤ t ≤ t+h, η ∈ [Fs ] e et f ∈ B + (Rr ) ∪ bB(Rr ), E(f (Xt+h (s, η)) | Ft ) = φ(Xt (s, η)) p.s. avec φ(x) = E(f (Xt+h (t, x)).

79 D´monstration. Vu le lem. 4.2.7, on a f (Xt+h (s, η)) = f (Xt+h (t, Xt (s, η))) avec e t t Xt (s, η) Ft -mesurable et Xt+h (t, x) Gt+h -mesurable, les tribus Ft et Gt+h ´tant ind´pendantes e e (prop. 1.3.2). Il suffit d’appliquer la prop. ??. Si dans la prop. 4.2.8, on prend f = 1A , on a : P(Xt+h (s, η) ∈ A | Ft ) = φ(Xt (s, η)) p.s. avec φ(x) = P(Xt+h (t, x) ∈ A). C’est la propri´t´ de Markov sur laquelle on reviendra en d´tails au chapitre ??. ee e Soient σ(t, x) et b(t, x) des applications mesurables ` valeurs M (r, d) et Rr . On a d´finit l’op´rateur e e Ls = 1 2
r

ai,j (s, x)
i,j=1

∂2 + ∂xi ∂xj

r

bi (s, x)
i=1

∂ , ∂xi

a = σσ T .

(4.16)

Proposition 4.2.9. Sous les hypoth`ses du th. 4.1.9, soient f ∈ C 1,2 (R+ × Rr ) et e Mtf = f (t, Xt ) − f (0, X0 ) −
t

(
0

∂ + Ls )f (s, Xs ) ds. ∂s
t

Alors Mtf est une martingale locale et M f t = 0 ( x f )T a x f (s, Xs ) ds. C’est une martingale de L2 si, pour tout t, sups≤t supx | x f (s, x)| < +∞. D´monstration. La premi`re partie r´sulte de (4.6). La seconde de (4.7) et de la e e e Ta 2 2 prop.4.2.1 puisque, pour s ≤ t, | x f ) x f (s, x)| ≤ C|σ(s, x)| ≤ 2CM (1 + |x| ) et f ) < +∞. donc E( M t

4.3

Unicit´ en loi e

Le probl`me est le suivant. Si on r´sout l’´quation (4.10) relativement ` diff´rents e e e a e mouvements browniens, que peut-on dire des solutions ? Une premi`re r´ponse est donn´e par : e e e Proposition 4.3.1. Soient σ(t, x) et b(t, x) des applications ` valeurs M (r, d) et Rr a i = (Ω, F i , F i , B i , Pi ) des F i -mouvements v´rifiant (4.7) et (4.8) et, pour i = 1, 2, B e t t t i i browniens issus de 0 ` valeurs Rd , η i des v.a. F0 -mesurables et Xt des processus a continus v´rifiant e
t i Xt = η i + 0 i i σ(s, Xs ) dBs + 0 t i b(s, Xs ) ds.

1 2 Alors, si η 1 et η 2 ont mˆme loi, (Xt , t ∈ R+ ) et (Xt , t ∈ R+ ) ont mˆme loi. e e

D´monstration. On note d’abord que, si φi sont des processus continus adapt´s tels e e 1 2 que les processus ((φ1 , Bt ), t ≤ T ) et ((φ2 , Bt ), t ≤ T ) aient mˆme loi, les proe t t t t 1 1 2 1 cessus ((Bt , 0 φ1 dBs ), t ≤ T ) et ((Bt , 0 φ1 dBs ), t ≤ T ) ont mˆme loi. Pour e s s

80 φi,n =
n−1 i k=0 φ kT
n

Equations diff´rentielles stochastiques e 1] kT , (k+1)T ] (t), c’est ´vident puis on passe ` la limite utilisant le e a
n n

cor. 3.4.4 si les processus φi sont born´s. S’ils ne sont pas born´s, on se ram`ne ` ce e e e a i = inf(|φi | ≥ n) et les processus φi cas en consid´rant les temps d’arrˆt τn e e . t t∧τ i
n

Soient S i l’application (4.12) relative ` Bt . Si η 1 et η 2 ont mˆme loi, on a donc loi a i e 1 , (S 1 η 1 ) , t ≤ T ) = loi de (B 2 , (S 2 η 2 ) , t ≤ T ),. . ., loi de (B 1 , ((S 1 )n η 1 ) , t ≤ de (Bt t t t t t 2 1 T ) = loi de ((Bt , ((S 2 )n η 2 )t , t ≤ T ) et, ` la limite, les processus (Xt , t ≤ T ) et a 1 (Xt , t ≤ T ) ont mˆme loi (cor. 4.1.12). Ceci ´tant vrai pour tout T , on a le r´sultat e e e cherch´. e Soient σ(x) et b(x) des applications ` valeurs M (r, d) et Rr v´rifiant a e pour tous x, y ∈ Rr , |σ(x) − σ(y)| ∨ |b(x) − b(y)| ≤ L|x − y|. (4.17)

Alors (4.7) et (4.8) sont satisfaites puisque |σ(x)| ≤ |σ(0)|+|σ(x)−σ(0)| ≤ |σ(0)|+L|x| et de mˆme pour b. Noter que (4.17) est vraie d`s que σ et b sont C 1 ` d´riv´es born´es. e e a e e e On a alors Proposition 4.3.2. On suppose (4.17) et soit Xt (s, x) la solution de (4.15). Alors, pour tout s et x, les processus (Xs+u (s, x), u ≥ 0) et (Xu (0, x), u ≥ 0) ont mˆme loi. e D´monstration. Soit Bu = Bs+u − Bs . On a, compte tenu du lem. 4.2.5, e
s+u 1 Xs+u (s, x) = ξu = x + s u u 1 (s) σ(ξv ) dBv + 0 u 2 Xu (0, x) = ξu = x + 0 2 σ(ξv ) dBv + 0 0 u 2 b(ξv ) dv. 1 b(ξv ) dv s+u (s)

σ(Xv (s, x)) dBv +
s

b(Xv (s, x)) dv

= x+

Il suffit alors d’appliquer la prop. 4.3.1. Corollaire 4.3.3. Sous les hypoth`ses de la prop. 4.3.2, on a, pour toutes η ∈ [F0 ] e et f ∈ B + (Rr ) ∪ bB(Rr ), E(f (Xt+h (s, η)) | Ft ) = φ(Xt (s, η)) p.s. avec φ(x) = E(f (Xh (0, x)). D´monstration. On a, vu les prop. 4.2.8 et 4.3.2, e E(f (Xt+h (s, η)) | Ft ) = φ(Xt (s, η)) p.s. avec φ(x) = E(f (Xt+h (t, x))) = E(f (Xh (0, x))).

81

4.4

G´n´ralisations e e

Nous avons pr´sent´ la th´orie d’Itˆ dans son cadre classique ` savoir coefficients e e e o a lipschitziens ` croissance sous-lin´aire. Diff´rentes extensions sont possibles. Pour a e e simplifier l’expos´, on suppose d’abord σ et b ind´pendants de t. e e Le r´sultat suivant illustre le rˆle jou´ par le coefficient b(x) appel´ “drift”. e o e e Th´or`me 4.4.1. Soient B = (Ω, F, Ft , Bt , P) un mouvement brownien issu de 0 ` e e a d , σ(x) ∈ M (r × d) et b(x) ∈ Rr v´rifiant, valeurs R e |σ(y) − σ(x)| ∨ |b(y) − b(x)| ≤ Ln |y − x|, |x|, |y| ≤ n. On suppose qu’il existe λ > 0 tel que, pour tout x ∈ Rr , 2 < b(x), x > +Tr(a(x)) ≤ λ(1 + |x|2 ), a = σσ T . Alors, pour tout η F0 -mesurable, l’´quation e
t t

(4.18)

E(η, σ, b)

Xt = η +
0

σ(Xs ) dBs +
0

b(Xs ) ds

(4.19)

a une et une seule solution. Remarque 4.4.2. Si r = d = 1, (4.18), ´tant toujours satisfaite pour |x| ≤ A, se r´duit e e a ` 2x b(x) + σ 2 (x) 2x b(x) + σ 2 (x) lim sup < +∞, lim sup < +∞. (4.20) |x|2 |x|2 x→−∞ x→+∞ D´monstration. L’unicit´ r´sulte imm´diatement de la prop. 4.1.8. Passons ` l’exise e e e a tence. Vu la prop. 3.3.3, on peut supposer |η| ≤ M . a. On suppose d’abord que σ et b v´rifient (4.18) seulement pour |x| ≤ R o` R > M . e u Soient Xt une solution de E(η, σ, b) et τR = inf(t ≥ 0, |Xt | ≥ R). On pose f (t, x) = e−λt (1 + |x|2 ), Zt = f (t, Xt ). Alors (Zt∧τR , t ≥ 0) est une Ft -surmartingale positive. En effet, appliquant la formule de Itˆ, on a o
t

Zt − Z0 =
0

e−λs {−λ(1 + |Xs |2 ) + 2 < Xs , b(Xs ) > +Tr(a(Xs ))} ds
t

+
0

T e−λs Xs σ(Xs ) dBs = Ut + Vt .

D’une part Ut∧τR est un processus d´croissant puisque, par hypoth`se, la quantit´ e e e entre accolade est n´gative pour s ≤ τR et, d’autre part, Vt∧τR est une martingale e T puisque e−λs Xs σ(Xs ) est born´e pour s ≤ τR . e r dans R de classe C 1 valant 1 si |x| ≤ 1 et 0 si |x| ≥ 2. b. Soit φ une application de R On pose : x x σn (x) = σ(x)φ( ), bn (x) = b(x)φ( ). n n

82

Equations diff´rentielles stochastiques e

On peut alors appliquer le th. 4.2.6 et l’´quation E(η, σn , bn ) a une unique solution e n n n qu’on note Xt . On pose, pour R > M , τR = inf(t ≥ 0, |Xt | ≥ R). Vu la prop. 4.1.7, pour tout n ≥ n0 > M ,
n+1 n P(Xt∧τn = Xt∧τ n+1 pour tout t ≥ 0) = 1. n
n

n n n Soit Zt = f (t, Xt ). D’apr`s a, Zt∧τn est une surmartingale positive. On en d´duit : e e n n n n 1 + M 2 ≥ E(Z0 ) ≥ E(Zt∧τn ) = E(e−λt∧τn (1 + |Xt∧τn |2 )) n n n n n ≥ E(e−λt (1 + |Xτn |2 )1{τn ≤t} ) ≥ e−λt (1 + n2 )P(τn ≤ t). n n n On a donc, pour tout t, P(τn ≤ t) ≤ eλt 1+M2 →n 0 et τn ↑n +∞ p.s. 1+n n n+1 n0 n n On pose alors Xt = Xt 0 si t < τn0 et, pour n ≥ n0 , Xt = Xt si τn ≤ t < τn+1 . n } et donc p.s. pour tout t puisque Xt est p.s. continu et v´rifie (4.19) sur {t < τn e n ↑ +∞ p.s. τn n
2 n

Les solutions ` valeurs ]0, +∞[ d’une E.D.S. sont particuli`rement int´ressantes a e e en math´matiques financi`res car elles peuvent mod´liser l’´volution de la valeur d’un e e e e actif financier. La m´thode que nous pr´sentons permet d’obtenir une large classe de e e telles solutions. Soient U et V deux intervalles ouverts de R ´ventuellement non born´s, φ un e e diff´omorphisme de classe C 3 de U sur V avec φ > 0 et Xt est un processus continu ` e a valeurs U solution de E(η, σ, b), η prenant ses valeurs dans U . Appliquant la formule de Itˆ, on voit facilement que Yt = φ(Xt ) est un processus continu ` valeurs V , o a solution de E(˜, σ , ˜ avec η = φ(η) et η ˜ b) ˜ 1 σ = (σφ ) ◦ φ−1 , ˜ = (bφ + σ 2 φ ) ◦ φ−1 . ˜ b 2 (4.21)

On choisit U =]0, +∞[, V = R et φ telle que φ(x) = x si x ≥ 2. Soient σ, b ∈ C 1 (]0, ∞[) et η > 0. On d´finit des fonctions σ et ˜ sur R par (4.21) et η = φ(η). e ˜ b ˜ Si E(˜, σ , ˜ a une solution Yt , alors Xt = φ−1 (Yt ) est solution de E(η, σ, b). Puisque η ˜ b) σ , ˜ ∈ C 1 (R), d’apr`s (4.20), E(˜, σ , ˜ a une solution si ˜ b e η ˜ b) lim sup
y→+∞

1 1 (2y ˜ + σ 2 (y)) < +∞, lim sup 2 (2y ˜ + σ 2 (y)) < +∞, b(y) ˜ b(y) ˜ 2 y y→−∞ y
1 (2x b(x) x2

soit encore, vu le choix de φ, lim supx→+∞ lim sup
x→0+

+ σ 2 (x)) < +∞ et

1 1 d2 d Lφ2 (x) < +∞, L = σ 2 (x) 2 + b(x) . 2 (x) φ 2 dx dx

√ Si on choisit φ telle que, de plus, φ(x) = − − log x pour x ≤ 1, on obtient (l’unicit´ e r´sultant de la prop. 4.1.8) : e

83 Th´or`me 4.4.3. Soient B = (Ω, F, Ft , Bt , P) un mouvement brownien r´el issu de e e e 0 , σ, b ∈ C 1 (]0, ∞[) v´rifiant e lim sup
x→+∞

−2x b(x) + σ 2 (x) 1 (2x b(x) + σ 2 (x)) < +∞, lim sup < +∞. x2 x2 (− log x) x→0+

Alors, pour tout 0 < η ∈ F0 , il existe un unique processus continu Xt ` valeurs a ]0, +∞[ solution de E(η, σ, b). Exemple 4.4.4. Posons ρ(x) = 1. On consid`re l’E.D.S. e dXt = αXt dBt + βXt dt, X0 = x0 > 0. On a ρ(x) =
−2β+α2 (− log x) −2x b(x)+σ 2 (x) . x2 (− log x)

(4.22)

→x→0+ 0 et (4.22) a une unique solution > 0.

2. On consid`re l’E.D.S. e dXt = σ
2

Xt dBt + µ dt, X0 = x0 > 0.

(4.23)

On a ρ(x) = x−2µ+σ x) . Si 2µ ≥ σ 2 , lim supx→0+ ρ(x) ≤ 0 et (4.23) a une unique 2 (− log solution > 0. 3. On consid`re l’E.D.S. e dXt = σ dBt +
2

a dt, X0 = x0 > 0. Xt

(4.24)

On a ρ(x) = x−2a+σ x) . Si 2a ≥ σ 2 , lim supx→0+ ρ(x) ≤ 0 et (4.24) a une unique 2 (− log solution > 0. Dans le cas inhomog`ne, on voit facilement, suivant pas ` pas la preuve du th. e a 4.4.1, que, si σ(t, x) et b(t, x) v´rifient (4.9) et, pour tout t ≤ T , T > 0 quelconque, e 2 < b(t, x), x > +Tr(a(t, x)) ≤ λ(T )(1 + |x|2 ), l’´quation (o` η est F0 -mesurable) e u
t t

Xt = η +
0

σ(s, Xs ) dBs +
0

b(s, Xs ) ds

a une unique solution et qu’il existe une fonction al´atoire Xt (x) continue en (t, x) e telle que, pour tout t > 0, Xt (η) = Xt p.s. Alors le th. 4.2.6, les prop. 4.2.8, 4.3.1, 4.3.2 restent valables. Il en est de mˆme dans le cadre du th. 4.4.3, si on suppose e sup lim sup
t≤T x→+∞

1 −2x b(t, x) + σ 2 (t, x) (2x b(t, x) + σ 2 (t, x)) < +∞, sup lim sup < +∞. 2 x x2 (− log x) t≤T x→0+

84

Equations diff´rentielles stochastiques e

4.5

Solutions fortes et faibles

Nous allons pr´ciser les notions d’existence et d’unicit´ des solutions d’une E.D.S. e e Etant donn´es σ(t, x) et b(t, x) applications mesurables localement born´es ` valeurs e e a r , on consid`re l’´quation M (r, d) et R e e E(σ, b) dXt = σ(t, Xt ) dBt +b(t, Xt ) dt.

u D´finition 4.5.1. On appelle solution de E(σ, b) tout couple (Bt , Xt ) o` Bt est un e Ft -mouvement brownien issu de 0 et Xt un processus continu Ft -adapt´ v´rifiant e e E(σ, b). D´finition 4.5.2. On dit qu’il y a existence faible (ou en loi) des solutions de E(σ, b) e si, pour toute probabilit´ µ sur B(Rr ), il existe une solution (Bt , Xt ) de E(σ, b) telle e que X0 ait pour loi µ. On dira alors que le couple (Bt , Xt ) est une solution faible de E(µ, σ, b). D´finition 4.5.3. (i) On dit qu’il y a unicit´ trajectorielle des solutions de E(σ, b) e e r , ´tant donn´es deux solutions (B , X 1 ) et (B , X 2 ) de si, pour tout x ∈ R e e t t t t 1 2 E(σ, b) telles X0 = X0 = x, on a Xt = Xt p.s. (ii) On dit qu’il y a unicit´ faible (ou en loi) des solutions de E(σ, b) si, pour tout e r , ´tant donn´es deux solutions (B 1 , X 1 ) et (B 2 , X 2 ) de E(σ, b) telles que x∈R e e t t t t 1 2 X0 = X0 = x, les processus (Xt , t ≥ 0) et (Xt , t ≥ 0) ont mˆme loi. e
1 2 Remarque 4.5.4. On peut montrer que (i) implique que, si (Bt , Xt ) et (Bt , Xt ) sont 1 2 deux solutions de E(σ, b) telles X0 = X0 , on a Xt = Xt p.s. et que (ii) implique que, 1 , X 1 ) et (B 2 , X 2 ) sont deux solutions de E(σ, b) telles X et X aient mˆme loi, si (Bt t e 0 t t 0 1 , t ≥ 0) et (X 2 , t ≥ 0) ont mˆme loi. les processus (Xt e t

Le r´sultat principal sur ce sujet est dˆ ` Yamada-Watanabe (voir?). e ua Th´or`me 4.5.5. On suppose qu’il y a unicit´ trajectorielle et existence faible des e e e solutions de E(σ, b). Alors, pour tout Ft -mouvement brownien Bt issu de 0 et toute v.a. η F0 -mesurable, il existe une solution (Bt , Xt ) de E(σ, b) telle que X0 = η.
x Notons que dans ce cas, choisissant η = x et Ft = FtB , on a que Xt est FtB mesurable. On parle alors de solution forte de E(σ, b). Par contre il peut y avoir unicit´ faible sans qu’il y ait unicit´ forte comme le montre l’exemple suivant. e e

Exemple 4.5.6. Soit sign(x) = 1{x≥0} − 1{x<0} . On consid`re l’E.D.S. r´elle : e e
t

Xt =
0

sign(Xs ) dBs .

(4.25)

On remarque d’abord que, si Xt est solution de (4.25), Xt est un mouvement brownien 1 puisque exp(iαXt + 2 α2 t) est une martingale (prop. 1.4.4). Il y a unicit´ en loi. e t Soit ξt un mouvement brownien r´el issu de 0. On pose βt = 0 sign(ξs ) dξs . e t Comme ci-dessus, on voit que βt est un mouvement brownien. Alors 0 sign(ξs ) dβs =

85
t 2 0 (sign(ξs )) dξs = ξt . Donc (βt , ξt ) est solution de t t puisque E( 0 1{ξs =0} dβs )2 = E( 0 1{ξs =0} ds) = 0, t t

(4.25). Il y a existence faible. Mais, on a p.s.
t

−ξt =
0

−sign(ξs ) dβs =
0

−sign(ξs )1{ξs =0} dβs =

sign(−ξs ) dβs
0

et (βt , −ξt ) est aussi solution de (4.25). Il n’y a pas unicit´ trajectorielle. e

4.6
4.6.1

E.D.S. lin´aires e
Le mouvement brownien g´om´trique e e
dXt = σ(t)Xt dBt + c(t)Xt dt, X0 = η, (4.26)

On consid`re l’E.D.S. sur R : e o` σ et c sont des applications bor´liennes de R dans R localement born´es. Notons u e e qu’il y a existence et unicit´ des solutions de (4.26). Supposons d’abord c ≡ 0. La e solution de dXt = σ(t)Xt dBt est alors (prop. 3.5.1 ou formule d’Itˆ) o
t

Xt = η exp(
0

σ(s) dBs −

1 2

t

σ 2 (s) ds).
0 t

De mˆme, si σ ≡ 0, la solution de dXt = c(t)Xt dt est Xt = η exp( 0 c(s) ds). Ree venons au cas g´n´ral. S’inspirant de la m´thode de la variation de la constante, on e e e t cherche une solution de (4.26) sous la forme Xt = Ut exp( 0 c(s) ds) avec Ut processus t d’Itˆ. On doit avoir, posant Zt = exp( 0 c(s) ds), o dXt = Zt dUt + Ut c(t)Zt dt = σ(t)Ut Zt dBt + c(t)Ut Zt dt d’o` l’on tire dUt = σ(t)Ut dBt et Ut = U0 exp( u
t t t 1 0 σ(s) dBs − 2 t 2 0 σ (s) ds).

Finalement (4.27)

Xt = η exp
0

σ(s) dBs +
0

1 (c(s) − σ 2 (s)) ds 2

.

On peut v´rifier par la formule d’Itˆ que (4.27) est bien solution de (4.26). e o Pour σ(t) ≡ σ et c(t) ≡ c, on obtient l’E.D.S. dXt = σXt dBt + cXt dt, X0 = η, σ, c ∈ R, qui a donc pour solution 1 Xt = η exp (c − σ 2 )t + σBt 2 . (4.29) (4.28)

Le processus Xt s’appelle alors le mouvement brownien g´om´trique. Si η > 0, Xt > 0 e e pour tout t et ce processus est souvent utilis´ pour mod´liser le cours d’une action. Le e e 1 processus Yt = (c − 2 σ 2 )t + σBt ´tant ` accroissements ind´pendants et stationnaires, e a e on a, pour tout t0 < t1 < . . . < tn et h, que les v.a. Xt1 +h Xt2 +h Xtn +h , , ... , Xt0 +h Xt1 +h Xtn−1 +h sont ind´pendantes et de lois ind´pendantes de h. e e

86

Equations diff´rentielles stochastiques e

4.6.2

E.D.S. lin´aires e

On s’int´resse ` l’E.D.S. e a dXt = (F (t)Xt + f (t)) dt + G(t) dBt , X0 = η ∈ L2 (F0 ) (4.30)

o` F (t) et G(t) sont des matrices d × d continues, f (t) est une fonction continue ` u a d (F, G, f d´terministes) et B un F -mouvement brownien d-dimensionnel. valeurs R e t t Consid´rons d’abord l’´quation matricielle (d´terministe) : e e e Φ (t) = F (t)Φ(t), Φ(0) = I matrice unit´ d × d. e On a le r´sultat classique suivant : e Proposition 4.6.1. L’´quation (4.31) a une unique solution Φ(t) qui est une matrice e r´guli`re (i.e. inversible). De plus, pour tout ξ0 ∈ Rd , ξ(t) = Φ(t)ξ0 est l’unique e e solution de ξ (t) = F (t)ξ(t), ξ(0) = ξ0 . (4.32) Cherchons une solution de (4.30) sous la forme Xt = Φ(t)Ct , o` Ct est un procesu sus d’Itˆ. On doit avoir o dXt = Φ (t)Ct dt + Φ(t) dCt = F (t)Xt dt + f (t) dt + G(t) dBt , c’est ` dire, puisque Φ (t)Ct = F (t)Xt , Φ(t) dCt = f (t) dt + G(t) dBt et dCt = a Φ−1 (t)f (t) dt + Φ−1 (t)G(t) dBt . La solution de (4.30) est donn´e par : e
t

(4.31)

Xt = Φ(t) {η +
0

Φ−1 (s)f (s) ds +
0

t

Φ−1 (s)G(s) dBs }.

(4.33)

On peut v´rifier, ` posteriori, grˆce ` la formule d’Itˆ que Xt satisfait (4.30). Avant e a a a o d’´tudier les propri´t´s de Xt , on pr´sente quelques compl´ments sur les processus e ee e e gaussiens.

4.6.3

Processus gaussiens vectoriels

Rappelons (def. ??) qu’un processus (Xt , t ≥ 0) ` valeurs Rd est gaussien, si pour a tous 0 ≤ t1 ≤ t2 ≤ · · · ≤ tn , le vecteur (Xt1 , · · · , Xtn ) est gaussien. On pose alors m(t) = E(Xt ), K(s, t) = E[(Xs − m(s))(Xt − m(t))T ]. Consid´rons Y = e
n T k=1 uk Xtk , n

(4.34)

Y est une v.a.r. gaussienne et
n

E(Y ) =
k=1

uT m(tk ), k

Var(Y ) =
j,k=1

uT K(tj , tk )uk . j

87 Donc K(s, t) v´rifie : e
n

K(s, t) = K T (t, s), ∀ t1 , . . . , tn ≥ 0, ∀ u1 , . . . , un ∈ Rd ,
j,k=1

uT K(tj , tk )uk ≥ 0. j (4.35)

On a ´galement pour tous t1 , . . . , tn ≥ 0, u1 , . . . , un ∈ e
n n

Rd ,
n

E [ exp(i
k=1

uT Xtk ) ] k

= exp [ i
k=1

uT m(tk ) k

1 − 2

uT K(tj , tk )uk ]. j
j,k=1

(4.36)

Ceci montre que la loi du processus Xt est enti`rement d´termin´e par m(t) et K(s, t). e e e R´ciproquement si on se donne m(t) et K(s, t) v´rifiant (4.35), il existe un et un e e seul processus gaussien de moyenne m(t) et de matrice de covariance K(s, t) (ses r´partitions finies sont donn´es par (4.36)). e e On revient ` la solution de (4.30). a Proposition 4.6.2. Si η est gaussien et F0 -mesurable, le processus Xt d´fini par e (4.33) est un processus gaussien et l’on a, posant m(0) = E(η), V (0) = K(η) = E [(η − m(0))(η − m(0))T ],
t

m(t) = Φ(t) [m(0) +
0 s

Φ−1 (s)f (s)ds ],

(4.37)

K(s, t) = Φ(s) [V (0) +
0

Φ−1 (u)G(u)G(u)T (Φ−1 (u))T du ]ΦT (t), s ≤ t.

(4.38)

D´monstration. Soit H(B) l’espace gaussien engendr´ par (Bt , t ≥ 0). Les compoe e t santes de Yt = 0 Φ−1 (s)G(s) dBs sont dans H(B) et donc Yt est un processus gaussien qui est ind´pendant de η. On en d´duit facilement que Xt est un processus gaussien e e et les formules (4.37) et (4.38). Soit V (t) = K(t, t). On a
t

V (t) = Φ(t)V (0)Φ(t)T + Φ(t)
0

Φ−1 (u)G(u)G(u)T (Φ−1 (u))T du Φ(t)T .

(4.39)

Un calcul ´l´mentaire montre alors que les fonctions m, V et K sont solutions des ee ´quations diff´rentielles suivantes : e e m (t) = F (t)m(t) + f (t), m(0) = E(η), V (t) = F (t)V (t) + V (t)F T (t) + G(t)GT (t), V (0) = E[ηη T ] − E(η)E(η T ), ∂K (s, t) = K(s, t)F T (t), t > s, K(s, s) = V (s), K(s, t) = K T (t, s). ∂t 4.4.5. On suppose F (t) ≡ F , G(t) ≡ G, f (t) ≡ 0. (4.40) (4.41) (4.42)

88 On a alors Φ(t) = etF =
tn F n n!

Equations diff´rentielles stochastiques e et
t

n≥0

Xt = etF η +
0

e(t−s)F G dBs .

(4.43)

On suppose, de plus, que la matrice F a toutes ses valeurs propres de parties r´elles e strictement n´gatives. Dans ce cas, il existe M < +∞ et λ > 0 tels que e pour tout t ≥ 0, |etF | ≤ M e−λt . (4.44)

On cherche s’il existe des distributions de η pour lesquelles le processus Xt soit stationnaire (i.e., pour tout h > 0, loi de (Xt1 +h , . . . , Xtn +h ) = loi de (Xt1 , . . . , Xtn )). Dans ce cas, on doit avoir V (t) = V (0) = V et, vu (4.39) et (4.44), pour t → +∞, V = V (t) = etF V (0)etF +
0
T

t

euF GGT euF du →
0 +∞

T

+∞

euF GGT euF du.

T

Posons V =
0

euF GGT euF du.

T

(4.45)

Lemme 4.6.3. V d´finie par (4.45) est solution de l’´quation de Liapounov : e e F V + V F T = −GGT . D´monstration. En effet, compte tenu de (4.44), e
+∞

(4.46)

FV + V FT =
0

d uF T e GGT euF du = −GGT . du

T On choisit donc η, F0 -mesurable, de loi Nd (0, V ). On a que V (t) = E(Xt Xt ) est solution de (4.41) et donc (unicit´) V (t) = V . Alors, vu (4.42), e

K(s, t) = V e(t−s)F , s < t, et, d’apr`s (4.36), le processus Xt est stationnaire. En r´sum´, e e e

T

(4.47)

Th´or`me 4.6.4. (i) L’´quation dXt = F Xt dt + G dBt , X0 = η, η F0 -mesurable, e e e a pour solution
t

Xt = etF η +
0

e(t−s)F GdBs .

Si η est gaussien, le processus Xt est gaussien. (ii) Si la matrice F a toutes ses valeurs propres de parties r´elles strictement n´gatives e e et si η ∼ Nd (0, V ) o` V est donn´e par (4.45), le processus Xt est un processus u e T gaussien centr´ stationnaire de covariance K(s, t) = V e(t−s)F , t ≥ s. e

Chapitre 5

Processus de diffusion
5.1 Processus de Markov

Dans ce chapitre, on s’int´resse aux propri´t´s markoviennes des solutions des e ee E.D.S. On se limitera au cas homog`ne ce qui simplifiera les notations mais ce qui e est relativement regrettable. Cependant si l’on a bien compris le cas homog`ne, il est e assez facile de se reporter ` la litt´rature traitant du cas g´n´ral. a e e e Soit (E, E) un espace mesurable tel que, pour tout x ∈ E, {x} ∈ E. D´finition 5.1.1. On appelle processus de Markov (homog`ne) ` valeurs (E, E) un e e a terme X = (Ω, Ft , F, Xt , (Px )x∈E ) o` u (i) pour tout x ∈ E, Px est une probabilit´ sur (Ω, F), e (ii) pour tout A ∈ F, x → Px (A) est E-mesurable, (iii) pour tout t ≥ 0, Xt est une v.a. Ft -mesurable ` valeurs (E, E), a (iv) pour tout x ∈ E, Px (X0 = x) = 1, (v) pour tous t, h ≥ 0, tout x ∈ E, tout Γ ∈ E, Px [ Xt+h ∈ Γ | Ft ] = PXt (Xh ∈ Γ) , Px p.s. (5.1)

Comme d’habitude, notant Ex l’esp´rance pour Px , (v) implique que, pour toute e f ∈ E + , Ex (f (Xt+h ) | Ft ) = EXt (f (Xh )). On pose alors, pour f ∈ E + , Pt f (x) = Ex [f (Xt )] . (5.2)

Pt v´rifie Pt 1 = 1 et, pour f, g ∈ E + et α ≥ 0, Pt (αf ) = αPt f ,Pt (f + g) = Pt f + Pt g. e C’est donc un agent lin´aire de bE dans bE. Evidemment Pt f (x) = Pt (x, dy)f (y) e o` Pt (x, Γ) = Px (Xt ∈ Γ). La famille (Pt (x, dy), t ≥ 0) s’appelle la fonction de u transition de X. Pour µ probabilit´ sur (E, E), on d´finit Pµ (A) = Px (A) dµ(x) et e e l’on a encore, notant Ex l’esp´rance pour Px , e Eµ [ f (Xt+h ) | Ft ] = EXt (f (Xh )), Pµ p.s. (5.3)

90

Processus de diffusion

Proposition 5.1.2. Soit X un processus de Markov ` valeurs (E, E) de fonction de a transition Pt . On a, pour tout x ∈ E, tous 0 ≤ t1 < . . . < tn , toute f ∈ (E ⊗n )+ , Ex (f (Xt1 , . . . , Xtn )) = Pt1 (x, dx1 ) . . . Ptn −tn−1 (xn−1 , dxn )f (x1 , x2 , . . . , xn ). (5.4)

D´monstration. Il suffit de montrer (5.4) pour f (x1 , x2 , . . . , xn ) = f1 (x1 ) . . . fn (xn ) e (vu le cor. ??). Pour n = 1, c’est (5.2). Supposons (5.4) vraie au rang n. On a alors Ex f1 (Xt1 ) . . . fn+1 (Xtn+1 ) = Ex (f1 (Xt1 ) . . . fn (Xtn )Ex (fn+1 (Xtn+1 ) | Ftn )) = Ex f1 (Xt1 ) . . . fn (Xtn )Ptn+1 −tn fn+1 (Xtn ) = Ex (f1 (Xt1 ) . . . (fn Ptn+1 −tn fn+1 )(Xtn )) = Pt1 (x, dx1 )f1 (x1 ) . . . Ptn −tn−1 (xn−1 , dxn )fn (xn )Ptn+1 −tn (xn , dxn+1 )fn+1 (xn+1 ) .

La prop. 5.1.2 implique que, pour tous s, t ≥ 0 et f ∈ E + , Ps+t f (x) = i.e. la propri´t´ de semi-groupe : ee Ps+t = Ps Pt = Pt Ps . (5.5) Ps (x, dx1 )Pt (x1 , dx2 )f (x2 )

5.1.1

Semi-groupe de Feller

Rappelons que l’on note C0 = C0 (Rd ) l’espace des fonctions continues sur Rd tendant vers 0 ` l’infini qu’on munit de la norme f = supx |f (x)|. a D´finition 5.1.3. On appelle semi-groupe de Feller sur Rd une famille (Pt , t ≥ 0) e d’agents lin´aires positifs de C0 dans C0 v´rifiant : e e (i) P0 = I et, pour tout t ≥ 0, Pt 1 = 1, (ii) pour tous s, t ≥ 0, Ps+t = Ps Pt = Pt Ps , (iii) pour toute f ∈ C0 , Pt f − f → 0 lorsque t ↓ 0. On a donc |Pt f (x)| ≤ f Pt 1(x) = f d’o` Pt f ≤ f . u D´finition 5.1.4. Soit (Pt , t ≥ 0) un semi-groupe de Feller sur Rd . On dit que e f ∈ DA et que Af = g s’il existe g ∈ C0 telle que 1 (Pt f − f ) − g → 0 , t lorsque t ↓ 0.

L’agent (DA , A) s’appelle le g´n´rateur infinit´simal de Pt . e e e

91 Donnons quelques propri´t´s ´l´mentaires. e e ee Proposition 5.1.5. Si f ∈ DA , t 0 Ps Af (x) ds.
d dt Pt f

existe et vaut Pt Af et l’on a Pt f (x) − f (x) =

1 1 D´monstration. Soit h > 0. Alors h (Pt+h f − Pt f ) = Pt ( h (Ph f − f )) → Pt Af . Exae minons la d´rivabilit´ ` gauche. Soient t > 0 et h > 0 assez petit. On a e ea

1 (Pt f − Pt−h f ) − Pt Af h 1 ≤ (Pt f − Pt−h f ) − Pt−h Af + Pt−h Af − Pt Af h 1 ≤ Pt−h ( (Ph f − f ) − Af ) + Pt−h (Af − Ph Af ) h 1 ≤ (Ph f − f ) − Af ) + Af − Ph Af → 0 . h On a donc
d dt Pt f (x)

= Pt Af (x) qui est continu en t d’o` u
t

Pt f (x) − f (x) =
0

d Ps f (x) ds = ds

t

Ps Af (x) ds .
0

Si (Pt , t ≥ 0) est un semi-groupe de Feller sur Rd , il est facile de montrer ` l’aide a de (5.4) et du th. ??, qu’il existe un processus de Markov de fonction de transition Pt mais nous n’utiliserons pas ce fait. Le lecteur peut ´galement montrer ` titre e a d’exercice (r´sultats qui sont un cas particulier du th. 5.1.7 ci-dessous) que, si on e pose, Pt f (x) = (2πt)−d/2
Rd 2 Pt est un semi-groupe de Feller sur Rd et que (Ck , 1 ∆) ⊂ (DA , A) o` ∆ = u 2 d ∂2 i=1 ∂x2 i

e−|y−x|

2 /2t

f (y) dy, f ∈ C0 (Rd ),

(5.6)

2 et Ck = C 2 ∩ Ck . Le processus de Markov associ´ est le mouvement brownien. En e 2 particulier, on a, pour toute f ∈ Ck ,

Pt f (x) = f (x) +

1 2

t

Ps ∆f (x) ds.
0

5.1.2

Processus de diffusion

Soient ai,j (x), bi (x), 1 ≤ i, j ≤ d, des fonctions mesurables localement born´es sur e Rd . On suppose que, pour tout x ∈ Rd ,
d

ai,j (x) = aj,i (x),
i,j=1

ai,j (x)θi θj ≥ 0 quel que soit θ ∈ Rd .

92

Processus de diffusion

La matrice a(x) = (ai,j (x), 1 ≤ i, j ≤ d) est donc sym´trique semi-d´finie positive. e e On pose L= 1 2
d

ai,j (x)
i,j=1

∂2 + ∂xi ∂xi

d

bi (x)
i=1

∂ . ∂xi

(5.7)

D´finition 5.1.6. On appelle processus de diffusion de g´n´rateur L donn´ par (5.7) e e e e un processus de Markov X = (Ω, Ft , F, Xt , (Px )x∈E ) ` valeurs Rd et ` trajectoires a a 2 continues tel que, pour tout x ∈ Rd , t ≥ 0 et f ∈ Ck ,
t

Ex (f (Xt )) − f (x) = Ex (
0

Lf (Xs ) ds).
t 0 Lf (Xs ) ds

(5.8) est une Px -

Notons qu’alors, pour tout x, Mtf = f (Xt ) − f (x) − martingale. En effet
f Ex (Mtf − Ms | Fs ) = Ex (f (Xt ) − f (Xs ) | Fs ) − t

Ex (Lf (Xu ) | Fs ) du
s t−s

= EXs {f (Xt−s ) − f (X0 ) −
0

Lf (Xu ) du} = 0 .

Utilisant les r´sultats du chapitre ??, nous allons construire un tel processus lorsque e L est suffisamment r´gulier. On suppose : e ∃ σ(x) ∈ M (d, d) telle que a = σσ T , |σ(x) − σ(y)| ≤ A|x − y|, x, y ∈ Rd , |b(x) − b(y)| ≤ A|x − y|, x, y ∈ Rd . (5.9) (5.10)

˜ ˜ ˜ ˜ ˜ ˜ ˜ Soit B = (Ω, Ft , F, Bt , P) un mouvement brownien ` valeurs Rd et Xt (x) la fonction a al´atoire continue en (t, x) solution de : e ˜ Xt = x +
0 t

˜ ˜ σ(Xs ) dBs +
0

t

˜ b(Xs ) ds.

C’est la fonction al´atoire Xt (0, x) du th. 4.2.6. On a alors (cor. 4.3.3) pour f ∈ e bB(Rd ), ˜ ˜ ˜ ˜ ˜ ˜ E(f (Xt+h (x)) | Ft ) = φ(Xt (x)) p.s. avec φ(y) = E(f (Xh (y)))
2 et (prop. 4.2.9), pour f ∈ Ck (Rd ) et t ≥ 0,

(5.11)

˜ ˜ ˜ E(f (Xt (x)) − f (x) = E(
0

t

˜ Lf (Xs (x)) ds).

(5.12)

On introduit l’espace canonique : Ω = C(R+ , Rd ), Xt (ω) = ω(t), Ft = σ(Xs , s ≤ t), F = σ(Xt , t ≥ 0). (5.13)

93 ˜ ˜ On d´finit une application mesurable Φx de (Ω, F) dans (Ω, F) par e ˜ Φx (˜ ) = (t → Xt (x, ω )). ω ˜ (5.14)

˜ C’est l’application qui ` ω associe sa trajectoire. Soit Px l’image de P par Φx . On a a ˜ ˜ ˜ Px (A) = P(Φ−1 (A)), A ∈ F, Ex (F ) = E(F (Φx )), F ∈ bF. x (5.15)

Montrons que X = (Ω, Ft , F, Xt , Px ) est une diffusion de g´n´rateur L. On pose, pour e e f ∈ bB(Rd ), ˜ ˜ Pt f (x) = Ex (f (Xt )) = E(f (Xt (x))). (5.16) ˜ Vu la continuit´ en x de Xt (x), on a Pt (Cb ) ⊂ Cb . Pour la mˆme raison, pour fi ∈ Cb , e e la fonction ˜ ˜ ˜ x → Ex (f1 (Xt1 ) . . . fn (Xtn )) = E(f1 (Xt1 (x)) . . . fn (Xtn (x)) est continue en x. Posant H = {F ∈ bF, x → Ex (F ) est bor´lienne}, le cor. ?? e montre que H = bF. Par ailleurs, d’apr`s (5.11), on a , pour tous t1 , . . . tn ≤ t et fi , f ∈ bB(Rd ), e ˜ ˜ ˜ ˜ Ex [f1 (Xt1 ) . . . fn (Xtn )f (Xt+h )] = E [f1 (Xt1 (x)) . . . fn (Xtn (x))f (Xt+h (x))] ˜ ˜ ˜ ˜ = E [f1 (Xt1 (x)) . . . fn (Xtn (x))Ph f (Xt (x))] = Ex [f1 (Xt1 ) . . . fn (Xtn )Ph f (Xt )] et donc (cor. ??) Ex (1A f (Xt+h )) = Ex (1A Ph f (Xt )) pour tout A ∈ Ft i.e. Ex (f (Xt+h ) | Ft ) = Ph f (Xt ) = EXt (f (Xh )), Px p.s.
2 Enfin on a, vu (5.12), pour toute f ∈ Ck , t

Ex {f (Xt ) − f (x) −
0

˜ ˜ Lf (Xs ) ds} = E{f (Xt (x)) − f (x) −
0

t

˜ Lf (Xs (x)) ds} = 0

et X est bien une diffusion de g´n´rateur L. e e Se pose alors la question suivante : la probabilit´ Px est elle d´termin´e par e e e 2 (5.8) ou, ce qui est ´quivalent, par le fait que, pour toute f ∈ Ck , f (Xt ) − f (x) − e t e 0 Lf (Xs ) ds est une Px -martingale ? On dira alors que Px est solution du probl`me des martingales P M (x, a, b). Cette notion a ´t´ introduite par Stroock et Varadhan ee et s’est r´v´l´e tr`s f´conde. On vient de montrer que, si L v´rifiait (5.9) et (5.10), ce e ee e e e probl`me avait au moins une solution. En fait sous cette hypoth`se, il y a aussi unicit´ e e e (voir ?) et, appelant processus de diffusion canonique un processus de diffusion d´fini e sur l’espace canonique (5.13), on peut ´noncer : e Th´or`me 5.1.7. Soit L un agent d´fini par (5.7) et v´rifiant (5.9) et (5.10). Il existe e e e e un unique processus de diffusion canonique de g´n´rateur L. Soit Pt sa fonction de e e transition. On a Pt (Cb ) ⊂ Cb . Si, de plus, les fonctions a et b sont born´es, Pt est un e 2 semi-groupe de Feller sur Rd et (Ck , L) ⊂ (DA , A).

94

Processus de diffusion

D´monstration. Il reste ` montrer la derni`re assertion si |a| ≤ K et |b| ≤ K. Soit e a e f ∈ C0 . On sait que Pt f ∈ Cb . Il s’agit de montrer que lim|x|→+∞ |Pt f (x)| = 0. On peut, vu la densit´ de Ck dans C0 , supposer f ∈ Ck et (vu la lin´arit´) que |f (x)| ≤ 1 e e e et f (x) = 0 pour |x| ≥ R. On a, pour |x| ≥ max(2R, 4Kt), ˜ ˜ ˜ ˜ |Pt f (x)| = |Ex (f (Xt ))| = |E(f (Xt (x))| ≤ P(|Xt (x)| ≤ R) t |x| |x| ˜ ˜ ˜ ˜ ˜ ) ≤ P(| σ(Xs (x)) dBs | > ) ≤ P(|Xt (x) − x| > 2 4 0 t 16 ˜ 16 ˜ t 16K 2 ˜ ˜ ˜ ≤ E| σ(Xs (x)) dBs |2 = E( |σ(Xs (x))|2 ds) ≤ |x|2 |x|2 |x|2 0 0
t ˜ en utilisant que | 0 b(Xs (x)) ds| ≤ Kt ≤ |x| . Donc Pt f (x) → 0 pour |x| → +∞. 4 t 2 Pour toute f ∈ Ck , on a Pt f (x) − f (x) = 0 Ps Lf (x) ds d’o` Pt f − f ≤ u 2 ´tant dense dans C et P t f →t↓0 0. On en d´duit, Ck e e 0 t ≤ 1, que Pt g − g →t↓0 0 pour toute g ∈ C0 . 2 Enfin, pour f ∈ Ck , t 1 1 | (Pt f (x) − f (x)) − Lf (x))| = | (Ps Lf (x) − Lf (x)) ds| t t 0 ≤ sup |Ps Lf (x) − Lf (x)| ≤ sup Ps Lf − Lf s≤t s≤t

et donc

1 t (Pt f

− f ) − Lf →t↓0 0 puisque Lf ∈ C0 . Donc f ∈ DA et Af = Lf .

Comme on l’a formul´e, l’hypoth`se (5.9) n’est pas tr`s satisfaisante. En effet la e e e donn´e est la matrice a et non la matrice σ et on aimerait que l’hypoth`se porte sur e e a. Si a(x) est une famille de matrices sym´triques semi-d´finies positives mesurable e e en x, il existe une famille de matrices du mˆme type a1/2 (x) mesurable en x telle que e a = a1/2 a1/2 (lem. 3.10.1). Le probl`me de la r´gularit´ de a1/2 (x) est plus d´licat e e e e surtout si a(x) est d´g´n´r´e. D´j` pour d = 1, on voit que |x| est lipschitzienne ce e e ee ea qui n’est pas le cas de |x|. C’est une question d’analyse dont la r´ponse est (voir ? e pour une d´monstration) : e Proposition 5.1.8. (i) On suppose que, pour tout θ, θT a(x)θ ≥ α|θ|2 , α > 0 et que, pour tous x, y, |a(x) − a(y)| ≤ A|x − y|. Alors, pour tous x, y, |a1/2 (x) − A a1/2 (y)| ≤ 2√α |x − y|.
∂ (ii) On suppose que a ∈ C 2 et que, pour tous i, θ, x, | ∂x2 θT a(x)θ| ≤ K|θ|2 . Alors i √ |a1/2 (x) − a1/2 (y)| ≤ d 2K|x − y|.
2

5.2

La propri´t´ forte de Markov e e

On se place sur l’espace canonique (Ω, Ft , F, Xt ) d´fini par (5.13). On d´finit, e e pour tout t ≥ 0, l’agent de translation θt de Ω dans Ω par θt ω(s) = ω(t + s) , (5.17)

95 Si X est le processus canonique, Xt (ω) = ω(t) et la relation pr´c´dente implique e e Xs (θt ω) = Xt+s (ω). Il est facile de montrer que θt est une application mesurable de (Ω, σ(Xs , s ≥ t)) dans (Ω, F) et l’on a θt+u = θt ◦ θu = θu ◦ θt . (5.18)

e Soient Ft+ = ε>0 Ft+ε (voir ??), τ un temps d’arrˆt de la filtration {Ft+ , t ≥ 0} et Ωτ = {τ < +∞}. On note Fτ + la tribu des ´v´nements ant´rieurs ` τ pour la e e e a filtration {Ft+ , t ≥ 0}. On d´finit une application θτ de Ωτ dans Ω par e θτ (ω) = θτ (ω) (ω) . On a alors, pour tous Γi ∈ B(Rd ) et ω ∈ Ωτ
−1 θτ ({Xt1 ∈ Γ1 , . . . , Xtn ∈ Γn }) = Ωτ ∩ {Xτ +t1 ∈ Γ1 , . . . , Xτ +tn ∈ Γn }

(5.19)

ce qui montre que θτ est une application mesurable de (Ωτ , F|Ωτ ) dans (Ω, F). Th´or`me 5.2.1. Soit X = (Ω, Ft , F, Xt , Px ) un processus de Markov ` valeurs Rd e e a d´fini sur l’espace canonique (5.13) de fonction de transition Pt . On suppose que e Pt (Ck ) ⊂ Cb . Alors pour toute Ψ ∈ bF ∪ F + et tout Ft+ -temps d’arrˆt τ , on a, pour e toute loi initiale µ, Eµ

1{τ <+∞} Ψ ◦ θτ Fτ + = 1{τ <+∞} EXτ (Ψ) Pµ p.s.

(5.20)

Sous forme int´gr´e, cette propri´t´, appel´e propri´t´ forte de Markov, s’´crit e e ee e ee e Eµ

1{τ <+∞} ΦΨ ◦ θτ = Eµ 1{τ <+∞} ΦEXτ (Ψ) , Φ ∈ bFτ + , Ψ ∈ bF.

(5.21)

D´monstration. Elle se fait en plusieurs ´tapes. e e Etape 1 Soit f ∈ Ck . On a (5.3) Eµ (f (Xt+h+ε ) | Ft+ε ) = Ph f (Xt+ε ) et, conditionnant par Ft+ , Eµ (f (Xt+h+ε ) | Ft+ ) = Eµ (Ph f (Xt+ε )) | Ft+ ) Pµ p.s. Vu que Ph f ∈ Cb , lorsque ε → 0, Xt+h+ε → Xt+h et Ph f (Xt+ε ) → Ph f (Xt ) et, tout ´tant born´, e e Eµ (f (Xt+h ) | Ft+ ) = Eµ (Ph f (Xt )) | Ft+ ) = Ph f (Xt ) Pµ p.s. (5.22)

Etape 2 On suppose τ ` valeurs {t1 , . . . , tn , . . . , +∞}. On a, pour f ∈ Ck et A ∈ a Fτ + , vu (5.22) puisque A ∩ {τ = tk } ∈ Ftk + , f (Xτ +t ) dPµ =
A∩{τ <+∞} k A∩{τ =tk }

f (Xtk +t ) dPµ Pt f (Xτ ) dPµ .
A∩{τ <+∞}

=
k A∩{τ =tk }

Pt f (Xtk ) dPµ =

96

Processus de diffusion

Etape 3 On suppose τ quelconque. On pose τn = k 2−n (k+1)1[2−n k,2−n (k+1)[ (τ )+ (+∞)1{τ =+∞} . Alors τn est un Ft+ -temps d’arrˆt et τn ↓ τ . Pour A ∈ Fτ + ⊂ Fτn + e et f ∈ Ck , on a, vu le r´sultat ´tablit dans l’Etape 2, e e f (Xτn +t ) dPµ =
A∩{τn <+∞} A∩{τn <+∞}

Pt f (Xτn ) dPµ

et, pour n → +∞, par le mˆme argument que lors de l’´tape 1, e e f (Xτ +t ) dPµ =
A∩{τ <+∞} A∩{τ <+∞}

Pt f (Xτ ) dPµ

(5.23)

Vu le cor. ??, (5.23) est vraie pour toute f ∈ bB(Rd ). Etape 4 D’apr`s le cor. ??, il suffit de montrer (5.20) pour Ψ = n fk (Xtk ), e k=1 d ). Pour n = 1, c’est (5.23). On suppose donc (5.20) pour le produit de fk ∈ bB(R n − 1 fonctions. On a alors Eµ

1{τ <+∞}

n

fk (Xτ +tk ) Fτ +
k=1 n−1

= Eµ

1{τ <+∞} 1{τ <+∞}

fk (Xτ +tk ) Eµ fn (Xτ +tn ) | Fτ +tn−1 +
k=1 n−2

Fτ +

= Eµ

fk (Xτ +tk )(fn−1 Ptn −tn−1 fn )(Xτ +tn−1 ) Fτ +
k=1 n−2

= 1{τ <+∞} EXτ . . . = 1{τ <+∞} EXτ

fk (Xtk )(fn−1 Ptn −tn−1 fn )(Xtn−1 )
k=1

n

fk (Xtk )
k=1

.

Corollaire 5.2.2. Sous les hypoth`ses du th. 5.2.1, on a, pour tout Fτ + -temps d’arrˆt e e τ , toute U ∈ b(Fτ + ⊗ F) et toute loi initiale µ, U (ω, θτ ω) dPµ (ω) =
{τ (ω)<+∞} {τ (ω1 )<+∞}

{

U (ω1 , ω2 ) dPXτ (ω1 ) (ω2 )} dPµ (ω1 ).

D´monstration. Par le th. ??, on se ram`ne au cas o` U (ω1 , ω2 ) = Φ(ω1 )Ψ(ω2 ), e e u Φ ∈ bFτ + , Ψ ∈ bF et c’est la formule (5.21). Remarque 5.2.3. Le lecteur attentif aura not´ que la d´monstration du th. 5.2.1 ne e e demande que la continuit´ ` droite de Xt . La propri´t´ forte de Markov est donc aussi ea ee valable pour un processus de Markov d´fini sur l’espace des applications continues ` e a + dans Rd s’il v´rifie P (C ) ⊂ C . e droite de R t k b

97

5.2.1

Loi 0-1

Supposons d = 1 et soit τ = inf(t ≥ 0, Xt > 0). Alors τ est un temps d’arrˆt e de Ft+ (prop. ??). En particulier {τ = 0} ∈ F0+ . C’est l’´v´nement “les trajectoires e e p´n`trent instantan´ment dans ]0, +∞]”. Pour un tel ´v´nement, on a, e e e e e Proposition 5.2.4. Sous les hypoth`ses du th. 5.2.1, on a, pour tout A ∈ F0+ et e tout x ∈ Rd , Px (A) = 0 ou 1. D´monstration. En effet on a, Px p.s., e

1A = Ex (1A | F0+ ) = EX0 (1A ) = Px (A).

e Pour un processus de Markov, le fait de se donner une famille Px de probabilit´s rend plus d´licat le maniement des ensembles n´gligeables car il faut pr´ciser pour e e e quelle loi ils sont n´gligeables. Soit M1 l’ensemble des probabilit´s sur Rd . Pour e e µ ∈ M1 , on note N µ les ensembles Pµ n´gligeables de (Ω, F). On pose ensuite e Ftµ = σ(Ft , N µ ), F t = ∩µ∈M1 Ftµ . Proposition 5.2.5. Sous les hypoth`ses du th. 5.2.1, les filtrations Ftµ et F t sont e continues ` droite. a D´monstration. Il suffit de le montrer pour chaque Ftµ . Le th. 5.2.1 implique que, e pour toute U ∈ bF de la forme ΦΨ ◦ θt , on a Eµ (U | Ft+ ) = Eµ (U | Ft ), Pµ p.s. Utilisant le cor. ??, on voit que cette relation est vraie pour toute U ∈ bF. Pour A ∈ Ft+ , on a donc 1A = Eµ (1A | Ft+ ) = Eµ (1A | Ft ) Pµ p.s. i.e. A ∈ Ft Pµ p.s.

5.2.2

Le mouvement brownien revisit´ e

Si on prend pour Px la loi de x + Bt , Bt mouvement brownien issu de 0, on obtient 1 le processus de diffusion canonique X = (Ω, Ft , F, Xt , Px ) de g´n´rateur 2 ∆. Il a pour e e fonction de transition le semi groupe de Feller Pt donn´ par (5.6). Comme application e du th. 5.2.1, retrouvons la prop. 2.2.7. Proposition 5.2.6. Soient X = (Ω, Ft , F, Xt , Px ) le mouvement brownien canonique et τ un Ft+ -temps d’arrˆt. Pour la loi conditionnelle Px ( . | {τ < +∞}), Wt = e Xτ +t − Xτ est un mouvement brownien issu de 0. D´monstration. Vu que, pour tout y, Ey (f (Xt1 −X0 , . . . , Xtn −X0 )) = E0 (f (Xt1 , . . . , Xtn )), e Ex (1{τ <+∞} f (Wt1 , . . . , Wtn )) = Ex (1{τ <+∞} f (Xt1 − X0 , . . . , Xtn − X0 ) ◦ θτ ) = Ex (1{τ <+∞} EXτ (f (Xt1 − X0 , . . . , Xtn − X0 ))) = Px (τ < +∞)E0 (f (Xt1 , . . . , Xtn ))

98

Processus de diffusion

5.2.3

Le principe de r´flexion e

Soit X = (Ω, Ft , F, Xt , Px ) le mouvement brownien canonique r´el. On pose, pour e a > 0, τa = inf(t ≥ 0, Xt = a). On sait (cor. 1.1.5) que P0 (τa < +∞) = 1. Proposition 5.2.7. Pour tout t, P0 (τa < t) = 2P0 (Xt > a). D´monstration. e Premi`re preuve. On a P0 (τa < t) = P0 (τa < t, Xt > a)+P0 (τa < e t, Xt < a) (puisque P0 (Xt = a) = 0) = 2P0 (τa < t, Xt > a) (c’est le principe de r´flexion) = 2P0 (Xt > a) car {Xt > a} ⊂ {τa < t}. e Seconde preuve On a, comme ci-dessus, P0 (τa < t) = P0 (Xt > a) + P0 (τa < t, Xt < a). D’o`, posant U (ω1 , ω2 ) = 1[0,t[ (τa (ω1 ))1[0,a[ (Xt−τa (ω1 ) (ω2 )), vu le u cor. 5.2.2, P0 (τa < t, Xt < a) = = U (ω, θτa ω) dP0 (ω)

1[0,t[ (τa (ω1 ))Pa (Xt−τa (ω1 ) < a) dP0 (ω1 ) = P0 (τa < t).

1 2

On a donc
+∞

P0 (τa < t) = 2
a

(2πt)−1/2 exp(−

x2 ) dx = a 2t

t 0

(2πu3 )−1/2 exp(−

a2 ) du 2u

(on a pos´ x = at1/2 /u1/2 ). Le temps d’arrˆt τa a pour densit´ : e e e a(2πu3 )−1/2 exp(− a2 )1 + (u). 2u R (5.24)

2 2 Remarque 5.2.8. On a P0 (τa < t) = P0 (|Xt | > a) = P0 (Xt > a2 ) = P0 (tX1 > a2 ) = 2 a 2 P0 ( X 2 < t). On voit donc que τa et a2 /X1 ont mˆme loi. e
1

5.3

E.D.P. et E.D.S.

Sur ce sujet, notre ambition est tr`s limit´e. On suppose l’existence de solutions e e pour certaines ´quations aux d´riv´es partielles et on montre comment ces solutions e e e peuvent se repr´senter ` l’aide de processus de diffusion. e a

5.3.1

Notations et hypoth`ses e

m On note Cb (Rd ) l’espace des fonctions num´riques, d´finies sur Rd , dont les e e 1,m d´riv´es d’ordre ≤ m sont continues born´es et Cb ([0, T ] × Rd ) l’espace des fonce e e tions num´riques f (t, x), d´finies sur [0, T ] × Rd , dont les d´riv´es d’ordre ≤ 1 en t et e e e e d’ordre ≤ m en x sont continues born´es. e

99
1 Soient ai,j (x), bi (x), c(x) des fonctions de Cb (Rd ). On suppose que c(x) ≥ 0, que ai,j = aj,i et qu’il existe α > 0 tel que, pour tout λ ∈ Rd , pour tout x ∈ Rd , d

ai,j (x)λi λj ≥ α|λ|2 .
i,j=1

(5.25)

On pose 1 L= 2
d i,j=1

∂2 ai,j (x) + ∂xi ∂xj

d

bi (x)
i=1

∂ . ∂xi

(5.26)

On note X = (Ω, Ft , F, Xt , Px ) le processus de diffusion canonique de g´n´rateur L e e (th. 5.1.7).

5.3.2

Equation de la chaleur

1,1 1 On se donne g(t, x) ∈ Cb ([0, T ] × Rd ) pour tout T et φ(x) ∈ Cb (Rd ). Alors il 1,2 existe u(t, x) ∈ Cb ([0, T ] × Rd ) pour tout T v´rifiant (voir ? ou ?) : e

∂u (t, x) = (L − c)u(t, x) + g(t, x), u(0, x) = φ(x). ∂t Th´or`me 5.3.1. La solution u(t, x) de (5.27) v´rifie : e e e
t t s

(5.27)

u(t, x) = Ex φ(Xt ) exp(−
0

c(Xs ) ds) +Ex
0

g(t − s, Xs ) exp(−
0

c(Xu ) du) ds .

˜ ˜ ˜ ˜ ˜ D´monstration. Soit B = (Ω, Ft , F, Bt , P) un Ft -mouvement brownien ` valeurs Rd . e a On consid`re, x ´tant fix´, la solution ξs de e e e
s s

ξs = x +
0

σ(ξu ) dBu +
0

b(ξu ) du.

On pose, t > 0 ´tant fix´, e e
s

v(s, x) = u(t − s, x), Appliquant la formule d’Itˆ, on a o

Zs = exp(−
0

c(ξu ) du).

d(v(s, ξs )Zs ) = −vcZ ds + Z dv = Z{

∂v + (L − c)v} ds + Z ∂s
t 0 Zs x v σ(ξs ) dBs )

x v σ dBs .

˜ Vu que x v est born´e et que 0 ≤ Zs ≤ 1, E( e ∂v ∂u ∂s (s, x) = − ∂s (t − s, x) et donc

= 0. D’autre part

∂u ∂v (s, x) + (L − c)v(s, x) = − (t − s, x) + (L − c)u(t − s, x) = −g(t − s, x). ∂s ∂s

100 On a donc ˜ ˜ ˜ E(v(t, ξt )Zt ) − E(v(0, ξ0 )Z0 ) = E(−
0 t

Processus de diffusion

g(t − s, ξs )Zs ds),

mais, puisque u(0, ξt ) = φ(ξt ), ˜ ˜ ˜ ˜ E(v(t, ξt )Zt ) − E(v(0, ξ0 )Z0 ) = E(u(0, ξt )Zt ) − u(t, x) = E(φ(ξt )Zt ) − u(t, x) et l’on obtient ˜ ˜ u(t, x) = E(φ(ξt )Zt ) + E(
0 t

g(t − s, ξs )Zs ds).

˜ On en d´duit le th´or`me puisque Px est la loi de ((ξt )t≥0 , P). e e e

5.3.3

Equation de la chaleur r´trograde e

1,1 1 On fixe T > 0 et on se donne g(t, x) ∈ Cb ([0, T ] × Rd ) et φ(x) ∈ Cb (Rd ). Alors 1,2 d ) v´rifiant (voir ? ou ?) : il existe v(t, x) ∈ Cb ([0, T ] × R e

∂v (t, x) = (L − c)v(t, x) + g(t, x), 0 ≤ t ≤ T, v(T, x) = φ(x). ∂t

(5.28)

Th´or`me 5.3.2. La solution v(t, x) de (5.28) v´rifie, pour tout 0 ≤ t ≤ T , e e e
T −t

v(t, x) = Ex φ(XT −t ) exp(−
0

c(Xs ) ds)
T −t s

+ Ex
0

g(t + s, Xs ) exp(−
0

c(Xu ) du) ds .

˜ ˜ ˜ ˜ ˜ D´monstration. Soit B = (Ω, Ft , F, Bt , P) un Ft -mouvement brownien ` valeurs Rd . e a On consid`re, x ´tant fix´, la solution ξt de e e e
t t

ξt = x +
0

σ(ξs ) dBs +
0

b(ξs ) ds.

On pose, pour 0 ≤ t ≤ T ,
t

w(s, x) = v(t + s, x),

Zt = exp(−
0

c(ξs ) ds).

Appliquant la formule d’Itˆ, on a, pour 0 ≤ s ≤ T − t, o d(w(s, ξs )Zs ) = −wcZ ds + Z dw = Z{ ˜ Comme ci-dessus E( 0 Zs −g(t + s, x), on a donc
t x w σ(ξs ) dBs )

∂w + (L − c)w} ds + Zs ∂s

x w σ dBs .

= 0 et, puisque

∂w ∂s (s, x) + (L − c)w(s, x)

=

˜ ˜ ˜ E(w(T − t, ξT −t )ZT −t ) − E(w(0, ξ0 )Z0 ) = E(−
0

T −t

g(t + s, ξs )Zs ds),

101 mais ˜ ˜ ˜ E(w(T − t, ξT −t )ZT −t ) − E(w(0, ξ0 )Z0 ) = E(v(T, ξT −t )ZT −t ) − v(t, x) et l’on obtient, puisque v(T, ξT −t ) = φ(ξT −t ), ˜ ˜ v(t, x) = E(φ(ξT −t )ZT −t ) + E(
0 T −t

g(t + s, ξs )Zs ds).

˜ On en d´duit le th´or`me puisque Px est la loi de ((ξt )t≥0 , P). e e e ˜ Si on note Xt (s, x) la position ` l’instant t de la solution de l’E.D.S. partant de x a ˜ ˜ a ` l’instant s, d´finie sur (Ω, Bt , P), on a e ˜ ˜ ˜ v(t, x) = E φ(XT −t (0, x))ZT −t + E
0 T −t

˜ g(t + s, Xs (0, x))Zs ds .

˜ ˜ Vu que la loi de (Xs (0, x), 0 ≤ s ≤ T − t) est ´gale ` la loi de (Xt+s (t, x), 0 ≤ s ≤ e a T − t), on obtient : Corollaire 5.3.3. La solution v(t, x) de (5.28) v´rifie e ˜ ˜ v(t, x) = E φ(XT (t, x)) exp(−
t T

˜ c(Xs (t, x)) ds)
T t

˜ +E

˜ g(s, Xs (t, x)) exp(−
t

s

˜ c(Xu (t, x)) du) .

5.3.4

Probl`me de Dirichlet e

On s’appuiera sur le r´sultat classique suivant (voir ?) : e Th´or`me 5.3.4. On se place sous les hypoth`ses de 5.3.1. Soit U un ouvert born´ e e e e de classe C 1 . Alors, pour toute g ∈ C 1 (U ) et toute φ ∈ C(∂U ), il existe une unique fonction u ∈ C(U ) ∩ C 2 (U ) telle que (L − c)u(x) = −g(x), x ∈ U, u(x) = φ(x), x ∈ ∂U. (5.29)

Remarque 5.3.5. Evidemment n’interviennent que les valeurs de ai,j , bi , c sur U . Soit X = (Ω, Ft , F, Xt , Px ) le processus de diffusion canonique de g´n´rateur L et e e
t

Zt = exp(−
0 2 On sait que, pour toute v ∈ Ck ,

c(Xs ) ds).

(5.30)

t

Mtv = v(Xt )Zt − v(x) −
0

(L − c)v(Xs )Zs ds

est une Px -martingale. Soit U un ouvert born´ de classe C 1 . On pose e τ = inf(t ≥ 0, Xt ∈ U ) / (5.31)

102 Lemme 5.3.6. supx∈U Ex (τ ) < +∞.

Processus de diffusion

D´monstration. Appliquant le th. 5.3.4 ` un ouvert r´gulier contenant U et pour e a e 2 c ≡ 0, il est facile de construire w ∈ Ck telle que Lw = −1 sur U . Le th´or`me e e d’arrˆt born´ appliqu´ ` la martingale Mtw (avec c = 0 et donc Zt = 1) donne : e e ea
t∧τ

Ex (w(Xt∧τ )) − w(x) = Ex (
0

Lw(Xs ) ds) = −Ex (t ∧ τ ).
∞.

On en d´duit Ex (τ ) = lim ↑t→+∞ Ex (t ∧ τ ) ≤ 2 w e

Soit u la solution de (5.29). On voudrait appliquer la formule d’Itˆ ` u mais u o a n’est pas de classe C 2 sur tout Rd . On introduit donc Dε = {x ∈ U, d(x, U c ) ≤ ε}, Uε = U \ Dε , τε = inf(t ≥ 0, Xt ∈ Uε ). /
2 uε ∈ Ck , uε (x) = u(x) pour tout x ∈ Uε .

(5.32) (5.33)

Pour x ∈ Uε , on a, puisque Mtuε est une martingale, Ex (u(Xt∧τε )Zt∧τε ) − u(x) = Ex (uε (Xt∧τε )Zt∧τε ) − uε (x)
t∧τε t∧τε

= Ex (
0

(L − c)uε (Xs )Zs ds) = −Ex (
0

g(Xs )Zs ds).

Lorsque ε → 0, τε ↑ τ (continuit´ des trajectoires) et on obtient par le th´or`me de e e e Lebesgue (puisque Ex (τ ) < +∞),
t∧τ

Ex (u(Xt∧τ )Zt∧τ ) − u(x) = −Ex (
0

g(Xs )Zs ds).

Enfin, lorsque t → +∞, t∧τ → τ , Xt∧τ → Xτ et u(Xt∧τ ) → u(Xτ ) = φ(Xτ ). Comme Ex (τ ) < +∞, on obtient, ` nouveau par le th´or`me de Lebesgue, a e e
τ

Ex (φ(Xτ )Zτ ) − u(x) = −Ex (
0

g(Xs )Zs ds).

On a montr´ : e Th´or`me 5.3.7. La solution u(x) de (5.29) v´rifie, τ ´tant d´fini par (5.31), e e e e e
τ τ s

u(x) = Ex φ(Xτ ) exp(−
0

c(Xs ) ds) + Ex
0

g(Xs ) exp(−
0

c(Xu ) du) .

Remarque 5.3.8. Dans cette section, on a suppos´ que les ´quations (5.27), (5.28) e e et (5.29) avaient des solutions et on a donn´ une repr´sentation probabiliste de ces e e solutions ` l’aide de la diffusion de g´n´rateur L. On pourrait aussi partir des formules a e e des th. 5.3.1, 5.3.2 et 5.3.7, et montrer que les fonctions qu’elles d´finissent sont e solutions des E.D.P. (5.27), (5.28) et (5.29). Ceci est particuli`rement int´ressant si e e L n’est pas strictement elliptique. Pour (5.27) et (5.28), c’est long mais relativement facile. Pour (5.29), c’est plus d´licat ` cause de la pr´sence du temps d’arrˆt τ . Le e a e e mieux est souvent de combiner les deux m´thodes. e

Premi`re partie e

Applications ` la finance a

Chapitre 6

Le mod`le de e Black-Scholes-Merton
6.1 Introduction

Une option financi`re est un produit d´riv´ qui donne le droit (et non l’obligation) e e e au souscripteur d’acheter (option d’achat, ou call) ou de vendre (option de vente, ou put) une quantit´ donn´e d’un actif financier (action, obligation, indice boursier, e e devise, mati`re premi`re, autre produit d´riv´, etc.), appel´ actif sous-jacent ` un e e e e e a prix pr´cis´ ` l’avance (prix d’exercice ou strike) , ` une date d’´ch´ance donn´e e e a a e e e (option europ´enne) ou avant une date donn´e (option am´ricaine) . e e e Le souscripteur d’une option a le droit et non l’obligation d’exercer son option. Le vendeur de l’option a une obligation : il doit acheter (put option) ou vendre (call option) le sous-jacent si le souscripteur d´cide d’exercer son option. Comme l’option e donne au souscripteur un droit sans obligation, cette option a une valeur, qui est le prix de l’option. Les deux questions qui se posent d`s lors sont e – Quel prix le souscripteur doit il payer pour d´tenir ce droit, i.e. quel est le prix e de cette option ? – Comment le vendeur doit il agir pour minimiser le risque associ´ avec l’obligae tion qu’il a vendu (et ˆtre en particulier en mesure d’honorer son contrat). e Exemple 6.1.1. Consid´rons une option d’achat (call) europ´en sur un actif de date e e d’´ch´ance T et de prix d’exercice K. Le prix de l’actif ` la date 0 est ´gal ` S0 = s0 e e a e a et supposons pour simplifier que le prix d’exercice soit fix´ ` K = s0 . A la date e a d’exercice T (disons dans un an), supposons que l’actif puisse prendre deux valeurs, ST = s+ > S0 et ST = S− < S0 avec une probabilit´ 1/2. Si ` la date d’exercice e a ST = s+ , le souscripteur peut acheter l’actif au prix d’exercice (il exerce l’option) et r´alise imm´diatement un profit s+ − K (il peut acheter l’actif et imm´diatement le e e e revendre sur le march´). A l’inverse si ST = s− , il n’a aucun int´rˆt ` exercer son e ee a option (pourquoi ach`terait-il au prix d’exercice K un actif qu’il peut trouver sur le e march´ ` un prix inf´rieur). L’esp´rance de son profit (sans prendre en compte les e a e e taux d’int´rˆt) est donc ´gal ` 1/2(s+ − K). ee e a

106

Le mod`le de Black-Scholes-Merton e

Calculer le prix d’une option n’est pas aussi simple que cela, mais supposons pour l’instant que 1/2(s+ − K) est le prix de l’option, i.e. le prix que le souscripteur paie a ` sa contrepartie pour le contrat. En prenant en compte le prix de l’option, si le prix du sous-jacent est ´gal ` s+ ` l’´ch´ance, le gain total sera de 1/2(s+ − K) (le gain e a a e e auquel on a retranch´ le prix du contrat). Le gain est ´gal au prix de du contrat dans e e ce cas particulier. Si ` l’inverse, le prix de l’actif est s− , le souscripteur perd la somme a 1/2(s+ − K). Nous voyons ` travers cet exemple tr`s simple que plus le prix du sous-jacent sera a e ´lev´ ` la date d’exercice, plus grand sera le profit. Bien entendu, nous ne connaissons e ea pas le prix du sous-jacent ` la date d’exercice, mais il est raisonnable de penser que le a prix du sous-jacent ` la date d’exercice d´pend du prix du contrat ` la date courante, a e a et que la valeur d’une option d´pend du prix courant de la valeur du sous-jacent. De e la mˆme fa¸on, la valeur de l’option d´pend du prix d’exercice : plus le prix d’exercice e c e est bas, plus le gain potentiel ` la date d’exercice est ´lev´ et donc plus le prix de a e e l’option est ´lev´. e e La valeur d’une option d´pend de la date d’´ch´ance. Plus la date d’´ch´ance e e e e e est proche, plus il est possible de formuler des pr´dictions pr´cises sur le prix du e e sous-jacent. Le prix de l’option doit d´pendre de la variabilit´ du prix du sous-jacent (ou voe e latilit´ ). Plus la volatilit´ est ´lev´e, plus le prix du sous-jacent est soumis ` des fluce e e e a tuations importantes. Ceci affecte clairement l’esp´rance du gain ` la date d’´ch´ance e a e e et la valeur de l’option doit refl´ter cette d´pendance. e e Finalement, le prix de l’option doit d´pendre des taux d’int´rˆt. Le souscripteur e ee paie l’option au moment de contracter ; le prix de l’option doit refl´ter le revenu e qu’aurait r´alis´ le souscripteur en investissant le prix de l’option dans un compte e e bancaire. Les options peuvent ˆtre utilis´es soit en couverture de risque de baisse ou hausse, e e soit pour sp´culer ` la baisse ou ` la hausse. A l’instar du prix d’une action, qui e a a n’est pas d´termin´ seulement par l’offre et la demande sur le march´, le prix d’une e e e option (appel´ aussi prime) d´pend aussi des anticipations de r´sultats de la valeur e e e a e e ` l’´ch´ance. La valeur d’une option est par cons´quent compos´e de deux parties : e e la valeur intrins`que et la valeur temps. e La valeur intrins`que est ´gale ` la valeur r´elle de l’option c’est ` dire qu’elle e e a e a repr´sente le profit qui serait obtenu imm´diatement si l’on d´cidait d’exercer l’option. e e e La prime d’une option vaut toujours plus que sa valeur intrins`que tout simplement e parce qu’il y a toujours une possibilit´ (ou probabilit´) pour que, d’ici l’´ch´ance e e e e de l’option, l’´volution des cours du sous-jacent accroisse la valeur intrins`que de e e l’option. La valeur temps mesure cette probabilit´. Ainsi, mˆme lorsque l’option a e e une valeur intrins`que nulle, la prime n’est pas nulle mais ´gale ` sa valeur temps. e e a Cette valeur repr´sente en quelque sorte la probabilit´ de r´aliser l’anticipation. e e e

107

6.2

L’´quation de Black-Scholes-Merton e

Dans tout le chapitre, (Ω, F, Ft , P) est un espace de probabilit´ filtr´ complet, et e e W = (Ω, F, Ft , Wt , P) est un mouvement Brownien issu de 0, ` valeur dans R (ou a dans Rd , Section 7.3).

6.2.1

Evolution de la valeur d’un portefeuille

Cette partie illustre les calculs effectu´s dans ce chapitre pour le calcul du prix des e produits d´riv´s, qui est d´fini comme le capital initial dont doit disposer un agent e e e pour pouvoir mettre en oeuvre une strat´gie de couverture, c’est ` dire une strat´gie e a e d’investissement dynamique entre diff´rents actifs et un actif sans risque. e Nous allons consid´rer tout d’abord un cas tr`s simple d’arbitrage entre un actif e e sans risque et un actif risqu´. On consid`re un agent qui poss`de ` la date t un e e e a portefeuille de valeur Xt . Ce portefeuille peut ˆtre investi soit dans un actif sans e risque au taux d’int´rˆt (suppos´ constant) r, soit dans un actif financier risqu´. ee e e L’actif sans risque peut ˆtre soit un bond du tr´sor ´mis (sans risque de d´faut), ou e e e e un d´pˆt/cr´dit dans une banque. L’hypoth`se que le taux d’int´rˆt soit constant e o e e ee peut ˆtre relax´e : toutefois, elle n’est pas d´raisonnable pour des options dont la e e e date d’´ch´ance n’est pas trop ´loign´e dans le futur - une valeur typique pour la e e e e date de maturit´ est de quelques mois. e Nous mod´lisons l’actif risqu´ par un mouvement Brownien g´om´trique (voir e e e e section 4.6.1) dSt = αSt dt + σSt dWt , (6.1) o` α est appel´e la d´rive et σ la volatilit´. La solution de l’EDS (6.1) est donn´e par u e e e e St = S0 exp (α − σ 2 /2)t + σWt . Pour tout h > 0, notons que l’accroissement relatif du prix de l’actif risqu´ est donn´ e e par St+h − 1 = exp (α − σ 2 /2)h + σ(Wt+h − Wt ) St ce qui implique (en utilisant l’ind´pendance de l’incr´ment Wt+h − Wt par rapport ` e e a la tribu Ft ) St+h E Ft − 1 = exp(αh) − 1 = αh + O(h2 ) . St Par cons´quent, α peut ˆtre interpr´t´ comme le rendement moyen de l’actif risqu´. e e ee e Supposons qu’` chaque instant l’investisseur poss`de ∆t actions de l’actif. La a e position ∆t peut ˆtre al´atoire, mais doit ˆtre adapt´e ` la filtration associ´e {Ft , t ≥ e e e e a e 0}. Le reste du portefeuille, ` savoir Xt − ∆t St est investi dans le march´ financier. a e Un tel portefeuille est dit autofinanc´. On supposera que la fonction d’allocation du e portefeuille v´rifie e
T 2 |∆t St | + |∆2 St | dt < ∞ , t 0

P − p.s.

(6.2)

108

Le mod`le de Black-Scholes-Merton e

La variation de la valeur du portefeuille ` l’instant t est due ` deux facteurs : le a a gain en capital de l’actif risqu´ ∆t dSt et le gain en capital de l’actif sans risque e r(Xt − ∆t St )dt. dXt = ∆t dSt + r(Xt − ∆t St )dt = rXt dt + ∆t (α − r)St dt + ∆t σSt dWt , ou de fa¸on ´quivalente c e
t t

(6.3)

Xt = X0 +
0

{rXs + ∆s (α − r)Ss } ds + σ
0

∆s Ss dWs ,

cette expression ´tant bien d´finie en vertu de (6.2). Les trois termes apparaissant e e dans cette ´quation peuvent ˆtre interpr´t´s de la fa¸on suivante e e ee c 1. le rendement moyen du portefeuille rXt dt, 2. la prime de march´ α − r de l’investissement dans l’actif, qui se traduit par le e terme ∆t (α − r)St dt, 3. un terme de volatilit´ qui est proportionnel ` l’investissement dans l’actif risqu´, e a e qui se traduit par le terme ∆t σSt dWt . Nous consid´rerons le prix de l’actif actualis´ e−rt St et le prix du portefeuille actualis´ e e e −rt X . En appliquant la formule d’Itˆ (avec la fonction f (t, x) = e−rt x), le prix de e o t l’actif actualis´ est donn´ par e e d(e−rt St ) = −re−rt St dt + e−rt dSt = (α − r)e−rt St dt + σe−rt St dWt , et, en utilisant (6.3), le prix du portefeuille actualis´ par e d(e−rt Xt ) = −re−rt Xt dt + e−rt dXt = ∆t (α − r)e−rt St dt + ∆t σe−rt St dWt = ∆t d(e−rt St ) . (6.5) (6.4)

Le fait de prendre en compte l’actualisation pour l’actif risqu´ r´duit le terme de e e d´rive de α ` α −r (comparer (6.1) et (6.4) ; on aurait pu aussi ´tablir cette propri´t´ e a e ee en utilisant l’expression explicite du prix du sous-jacent, St = S0 exp((α − σ 2 /2)t + σWt ). La prise en compte du facteur d’actualisation dans le prix du portefeuille ´limine le taux d’int´rˆt r (comparer (6.3) et (6.5)). L’´quation (6.5) montre que la e ee e variation du prix du portefeuille actualis´ d´pend seulement de la variation du prix e e de l’actif risqu´ actualis´. e e

6.2.2

Evolution du prix d’une option

Une option de vente (un put), permet au souscripteur de vendre une part du titre risqu´ ST ` la date d’´ch´ance T et ` un prix d’exercice K. On parle de put europ´en e a e e a e

109 si le souscripteur peut exercer son droit uniquement ` la date de maturit´ et de put a e am´ricain s’il peut l’exercer ` tout moment avant la date de maturit´ (y compris ` la e a e a date de maturit´). On consid`re dans la suite de ce chapitre uniquement des options e e europ´ennes. Deux cas se pr´sentent : si ST < K, le souscripteur vendra sa part de e e titre risqu´ ` un montant K sup´rieur ` celui qu’il obtiendrait sur le march´ financier, ea e a e soit au prix ST . Par contre, si ST > K, le souscripteur n’exercera pas son option, car il obtiendra un meilleur prix sur le march´. e Une option de vente permet donc ` l’acheteur de se pr´munir contre, ou de parier a e sur, une baisse du prix de ce sous-jacent en dessous du prix d’exercice. La fonction de paiement (payoff ), ou la valeur de cette option de vente, est la v.a. donn´e par la formule e (K − ST )+ , o` u (x)+ = max(x, 0) . (6.6) Une option (europ´enne) d’achat (un call ), permet au souscripteur d’acheter une part e du titre risqu´ au prix d’exercice K a la date d’´ch´ance T . Deux cas se pr´sentent : e ` e e e si ST > K, le souscripteur ach`tera sa part de titre risqu´ ` un montant K inf´rieur ` e ea e a celui qu’il obtiendrait sur le march´ financier, soit au prix ST . Par contre, si K > ST , e le souscripteur n’exercera pas son option, car il pourra acheter le titre risqu´ ` un e a meilleur prix sur le march´. L’achat d’un call permet donc de se pr´munir contre, ou e e de jouer sur une hausse du prix de ce sous-jacent au-dessus du prix d’exercice. La fonction de paiement, ou la valeur de cette option de vente ` maturit´ (ou ` a e a ´ch´ance), est la v.a. donn´e par la formule e e e (ST − K)+ . Le vendeur de telles options n’offrira pas de tels avantages ` son client sans une a contre-partie financi`re ! Le prix de l’option, ou de ce droit conditionnel, correspond au e montant vers´ initialement par l’acheteur de l’option au vendeur, pour acqu´rir cette e e option. Le vendeur de son cot´ acceptera tout montant lui permettant l’acquisition e d’un portefeuille dont la valeur ` l’´ch´ance T sera sup´rieure ou ´gale, ` la fonction de a e e e e a paiement qu’il s’est engag´ contractuellement ` honorer. Un tel portefeuille est appel´ e a e un portefeuille de couverture. La d´termination rationnelle de ces prix, et la mise en e place de strat´gies de couverture, est l’un des principaux objectifs des math´matiques e e financi`res. Dans le mod`le de Black-Scholes-Merton, la vente d’une option est sans e e risque puisque la strat´gie de couverture ´limine compl`tement le risque de l’option. e e e Le prix de l’option est d´fini comme le capital initial dont doit disposer l’agent pour e pouvoir mettre en oeuvre sa strat´gie de couverture. e On consid`re une option europ´enne d’achat qui paie (ST − K)+ ` la date d’´ch´ance e e a e e T . Black, Scholes et Merton ont d´montr´ que la valeur de cette option ` la date t e e a ne d´pendait que de l’intervalle de temps T − t jusqu’` la date d’´ch´ance et ` la e a e e a valeur de l’actif ` l’instant t (et bien sˆr des diff´rents param`tres du mod`les, taux a u e e e d’int´rˆt r, volatilit´ σ et prix d’exercice K). Seulement deux de ces quantit´s sont ee e e

110

Le mod`le de Black-Scholes-Merton e

variables : le temps et le prix de l’actif risqu´. Nous notons c(t, x) le prix de l’option e a ` la date t si le prix de l’actif risqu´ ` cet instant est ´gal ` St = x. La fonction c(t, x) ea e a est d´terministe. Nous admettrons pour l’instant que le prix de l’option ` l’instant t e a d´pend exclusivement de ces deux quantit´s, et non pas, par exemple, de l’histoire e e du prix du sous-jacent de l’instant initial jusqu’` l’instant courant. Ceci sera justifi´ a e math´matiquement dans la section 7.1.2. e L’objectif de ce paragraphe est de d´terminer la fonction c(t, x). Nous calculons e tout d’abord la diff´rentielle de c(t, St ). En appliquant la formule d’Itˆ, e o 1 2 dc(t, St ) = ct (t, St )dt + cx (t, St )dSt + cxx (t, St )σ 2 St dt 2 1 2 = ct (t, St ) + αSt cx (t, St ) + σ 2 St cxx (t, St ) dt + σSt cx (t, St )dWt , 2 o` nous avons suppos´ implicitement que la fonction c : R+ × R → R est continˆment u e u diff´rentiable par rapport ` t et deux fois continˆment diff´rentiable par rapport ` x e a u e a et o` nous avons not´ u e cx (t, x) = ∂c(t, x) , ∂x ct (t, x) = ∂c(t, x) ∂t et cxx (t, x) = ∂ 2 c(t, x) . ∂x2

Nous pouvons de la mˆme fa¸on calculer la valeur actualis´e du prix de l’option e c e d(e−rt c(t, St )) = −re−rt c(t, St )dt + e−rt dc(t, St ) = e−rt σSt cx (t, St )dWt 1 2 + e−rt −rc(t, St ) + ct (t, St ) + αSt cx (t, St ) + σ 2 St cxx (t, St ) dt . (6.7) 2

6.2.3

Portefeuille de couverture

Un portefeuille de couverture est un portefeuille de capital initial X0 et qui arbitre (continˆment) entre l’actif risqu´ et l’actif sans risque de telle sorte qu’` chaque u e a instant la valeur du portefeuille ` la date t co¨ a ıncide avec la valeur de l’option ` la a date t, i.e. pour tout t ∈ [0, T ], e−rt Xt = e−rt c(t, St ) . Une fa¸on de garantir que cette condition soit satisfaite est d’imposer que c d(e−rt Xt ) = d(e−rt c(t, St )) pour tout t ∈ [0, T [ , (6.8)

et X0 = c(0, S0 ). En comparant (6.5) et (6.7), nous voyons que (6.8) n’est satisfaite que si, pour tout t, (α − r)∆t St dt + σ∆t St dWt = σSt cx (t, St )dWt 1 2 + −rc(t, St ) + ct (t, St ) + αSt cx (t, St ) + σ 2 St cxx (t, St ) . (6.9) 2

111 Nous comparons tout d’abord les termes en dWt , qui impliquent ∆t = cx (t, St ) pour tout t ∈ [0, T [ . (6.10)

Ceci montre que la quantit´ du sous-jacent risqu´ ` la date t dans le portefeuille de e ea couverture doit ˆtre ´gal ` la d´riv´e du prix de l’option par rapport au prix. Cette e e a e e r`gle est appel´e couverture delta (δ-hedging rule). La quantit´ cx (t, St ) est appel´e e e e e le delta de l’option. Nous ´galons ensuite les termes en dt de l’´quation (6.9). En e e utilisant (6.10), nous obtenons donc, pour tout t ∈ [0, T [, 1 2 (α − r)St cx (t, St ) = −rc(t, St ) + ct (t, St ) + αSt cx (t, St ) + σ 2 St cxx (t, St ) . 2 Le terme αSt cx (t, St ) apparaˆ des deux cˆt´s de l’identit´ ; en ´liminant ce terme, ıt oe e e nous en d´duisons que c(t, x) doit satisfaire, pour t ∈ [0, T ] l’´quation aux d´riv´es e e e e partielles 1 ct (t, x) + rxcx (t, x) + σ 2 x2 cxx (t, x) = rc(t, x) , (6.11) 2 sous la condition terminale c(T, x) = (x − K)+ , (6.12) pour tout x ≥ 0, qui est simplement la valorisation de l’option ` la date d’´ch´ance. a e e Supposons que nous sachions r´soudre cette EDP. Si un investisseur dispose ` l’instant e a t = 0 d’un capital initial X0 = c(0, S0 ) et utilise la strat´gie de couverture ∆t = e cx (t, St ), alors (6.9) est v´rifi´e ` chaque instant t ∈ [0, T [ et donc Xt = c(t, St ) pour e e a tout t ∈ [0, T [. En prenant la limite lorsque t ↑ T et en utilisant le fait que Xt et c(t, St ) sont continues, nous pouvons conclure que XT = c(T, ST ) = (ST − K)+ : ` la date a d’´ch´ance, la valeur du portefeuille est ´gale ` la valeur de l’option. Une telle strat´gie e e e a e de couverture est dite parfaite (perfect hedge). Elle ´limine pour le vendeur de l’option e tout risque li´ ` la fluctuation de la valeur du sous-jacent : ind´pendamment des e a e valeurs prises par l’actif financier, ` la date d’´ch´ance de l’option, l’agent qui aura a e e utilis´ la strat´gie de couverture disposera d’un portefeuille dont la valeur sera ´gale e e e a ` celle du gain de l’option.

6.2.4

Une solution de l’´quation de Black-Scholes-Merton e

L’´quation de Black-Scholes-Merton est une ´quation aux d´riv´es partielles de e e e e type parabolique r´trograde. Pour r´soudre cette ´quation, nous devons imposer des e e e conditions aux limites en x = 0 et x = ∞. En posant x = 0 dans (6.11), nous obtenons ct (t, 0) = rc(t, 0) . (6.13)

C’est une ´quation diff´rentielle ordinaire pour la fonction t → c(t, 0) dont la solution e e est donn´e par e c(t, 0) = ert c(0, 0) .

112

Le mod`le de Black-Scholes-Merton e

En posant t = T dans l’´quation pr´c´dente et en utilisant la condition terminale e e e (6.12) c(T, 0) = (−K)+ = 0, nous en d´duisons donc que c(0, 0) = 0 et donc que e c(t, 0) = 0 , pour tout t ∈ [0, T ]. (6.14)

C’est la condition aux limites pour x = 0. Quand x → ∞, la fonction c(t, x) tend elle aussi vers l’infini. Dans un tel cas, nous sp´cifions la condition ` la limite en e a indiquant le taux de croissance de la solution quand x → ∞. Une fa¸on de sp´cifier c e une condition aux limites est d’imposer que
x→∞

lim [c(t, x) − (x − e−(T −t) K)] = 0 ,

pour tout t ∈ [0, T ]

(6.15)

ce qui signifie que c(t, x) croˆ ` la mˆme vitesse que x, quand x → ∞. Quand x ıt a e est grand, l’option est dans la monnaie et a une tr`s forte probabilit´ de terminer e e dans la monnaie. Dans ce cas pr´cis, le prix de l’option est la-mˆme que celle du e e contrat ` terme (voir paragraphe ??). C’est le sens de la condition limite (6.15). La a solution de l’´quation de Black-Scholes-Merton avec la condition terminale (6.12) et e les conditions aux limites (6.14) et (6.15) sont donn´es par e c(t, x) = xΦ(d+ (T − t, x)) − Ke−r(T −t) Φ(d− (T − t, x)) , 0 ≤ t < T, x > 0 , o` u d± (τ, x) =
def

(6.16)

σ τ

1 √

log

x K

+ r±

σ2 2

,

(6.17)

o` Φ est la fonction de r´partition de la gaussienne centr´e r´duite, u e e e 1 def Φ(x) = √ 2π
x −∞

e−u

2 /2

du .

(6.18)

Nous utiliserons souvent la notation conventionnelle BSM(τ, x; K, r, σ) = xΦ(d+ (τ, x)) − Ke−rτ Φ(d− (τ, x)) , (6.19)

et nous appellerons BSM(τ, x; K, r, σ) la fonction de Black-Scholes-Merton. Dans cette expression τ et x repr´sentent le temps jusqu’` l’´ch´ance et la valeur de l’actif e a e e a ` la date courante. Les param`tres K, r et σ sont le prix d’exercice, le rendement de e l’actif sans risque et la volatilit´ de l’actif risqu´. e e

Chapitre 7

Probabilit´ de risque neutre e
7.1 Probabilit´ de risque neutre e

Dans cette section, la filtration Ft , 0 ≤ t ≤ T , est la filtration naturelle du mouvement Brownien. Soit T un temps d’´ch´ance donn´. On consid`re un actif financier mod´lis´ par e e e e e e dSt = αt St dt + σt St dWt , Dans cette section, nous supposons que H(i) Le rendement moyen αt et la volatilit´ σt sont mod´lis´s ici par des processus e e e progressifs tels
T 2 |αs | + σs ds, 0

0≤t≤T .

(7.1)

P − p.s. ,

H(ii) Pour tout t ∈ [0, T ], la volatilit´ σt est strictement positive avec une probabilit´ e e 1. H(iii) Le taux d’int´rˆt Rt est lui mˆme un processus progressif tel que, ee e
T

|Rs |ds < ∞
0

P − p.s.

Sous H(i), le processus d´fini pour 0 ≤ t ≤ T , e Yt =
def 0 t 2 [αs − σs /2]ds + 0 t

σs dWs ,

est un processus d’Itˆ. Une application directe de la formule d’Itˆ ` la fonction f (x) = o oa x , montre que S = f (Y ) est un processus d’Itˆ et que dS = α S dt + σ S dW . Par e o t t t t t t t t cons´quent, l’´quation diff´rentielle stochastique (7.1) admet comme solution e e e
t t

St = S0 exp
0

σs dWs +
0

1 2 αs − σs ds 2

.

(7.2)

114

Probabilit´ de risque neutre e

Un tel processus est appel´ mouvement Brownien g´om´trique g´n´ralis´ , Sous H(iii), e e e e e e le processus d’actualisation d´fini par e Dt = e−
t Rt
0

Rs ds

,

(7.3)

La condition (iii) montre que 0 Rs ds est un processus d’Itˆ sur 0 ≤ t ≤ T . Par applio cation directe de la formule d’Itˆ, Dt est aussi un processus d’Itˆ, dont la diff´rentielle o o e stochastique est donn´e par e dDt = −Rt Dt dt . (7.4) Remarquons que Dt est un processus al´atoire, mais que par construction, sa variation e quadratique est nulle. Le prix de l’actif risqu´ St a une variation quadratique non e nulle. Intuitivement, il est plus variable que Dt . Si nous investissons dans l’actif risqu´, nous n’avons aucun moyen de savoir si la variation du mouvement brownien e sera positive ou n´gative, et le signe de cette variation a un impact direct sur le e cours de l’actif. Nous devons donc faire face ` un haut-degr´ d’incertitude. D’un a e autre cˆt´, si le prix d’un contrat R l’actif non risqu´ est de 1 ` la date 0, alors oe de e a t Rs ds le prix de ce contrat sera ´gal ` e 0 e a = 1/Dt ` la date t. Si nous investissons a dans l’actif sans risque, nous connaissons le taux d’int´rˆt le rendement de cet actif ee au moment o` nous faisons l’investissement, et nous avons donc un bon degr´ de u e confiance sur le rendement de cet investissement ` court-terme. Sur des p´riodes de a e temps plus longues, notre connaissance du rendement sera moins fiable, parce que le taux d’int´rˆt varie continˆment. Le prix de l’actif risqu´ peut lui varier ` courtee u e a terme de fa¸on impr´visible, et dans ce sens, le degr´ d’incertitude sur le rendement de c e e l’actif risqu´ est plus ´lev´ que pour l’actif non-risqu´. Le mod`le math´matique prend e e e e e e en compte ce ph´nom`ne, car le mod`le de prix de l’actif risqu´ St a une variation e e e e quadratique non-nulle, alors que la variation quadratique de l’actif non risqu´ Dt est e nulle. Le prix actualis´ de l’actif risqu´ est donn´ par e e e
t t

Dt St = S(0) exp
0

σs dWs +
0

1 2 αs − Rs − σs ds 2

,

et sa diff´rentielle stochastique est donn´e par (en appliquant la Proposition 3.4.5) e e d (Dt St ) = (αt − Rt ) Dt St dt + σt Dt St dWt = σt Dt St [Θt dt + dWt ] o` Θt est le prix de march´ du risque (market price of risk ) u e Θt =
def

(7.5)

αt − Rt . σt

(7.6)

Le taux de rendement instantan´ moyen de l’actif risqu´ actualis´ est αt − Rt , qui e e e est le rendement instantan´ moyen de l’actif non-actualis´ St r´duit du taux d’int´rˆt e e e ee instantan´ Rt . La volatilit´ de l’actif risqu´ actualis´ est la mˆme que celle de l’ace e e e e tif non actualis´. Nous utilisons maintenant le th´or`me de Girsanov (Theo. 3.6.3). e e e

115 Posons, pour 0 ≤ t ≤ T
t

Zt = exp − ˜ Wt = Wt +
0 0 t

Θu dWu − Θu du . E[ZT ] = 1 ,

1 2

t

Θ2 du u
0

,

(7.7) (7.8)

Nous supposons de plus que (7.9) ce qui est vrai par exemple d`s que l’une des conditions suivantes est r´alis´e : e e e (i) E exp 1/2
T 0

Θ2 ds s

< ∞.

(ii) il existe µ > 0 tel que supt≤T E exp(µΘ2 ) < ∞. t ˜ Nous consid´rons la loi donn´e, pour tout A ∈ F par P(A) = A ZT (ω)dP(ω), ce que e e ˜ nous notons de fa¸on concise dP(ω) = ZT (ω)dP(ω). Sous (7.9), (Zt , t ≤ T ) est une c ˜ martingale sur [0, T ] (Proposition 3.5.1) et sous la probabilit´ P, le processus (Wt , t ≥ e˜ 0) est un mouvement Brownien. Nous pouvons r´´crire la diff´rentielle stochastique ee e (7.5) en fonction de ce mouvement Brownien ˜ d (Dt St ) = σt Dt St dWt . (7.10) ˜ Nous appelons P la probabilit´ de risque neutre. Cette mesure de probabilit´ est e e ´quivalente ` la probabilit´ P et elle transforme le prix actualis´ en une martingale e a e e locale. En effet, l’´quation pr´c´dente peut se r´´crire e e e ee
t

Dt St = S0 +
0

˜ σu Du Su dWu ,

(7.11)

˜ et sous la loi P, le processus d’Itˆ o plus explicite, Dt St = S0 exp

t ˜ 0 σu Du Su dWu t 0

est une martingale locale. De fa¸on c
t 2 σu du 0

˜ σu dWu − (1/2)

.

En utilisant la condition de Novikov, si l’on suppose que ˜ E exp 1/2
0 T 2 σu du

<∞,

ce processus est une martingale. Le rendement instantan´ moyen de l’actif risqu´ St e e ˜ est ´gal au taux d’int´rˆt instantan´, comme nous pouvons le non-actualis´ sous P e e ee e ˜ v´rifier en remarquant que dWt = −Θt dt + dWt . En substituant cette expression dans e (7.1), nous obtenons, ˜ dSt = Rt St dt + σt St dWt , (7.12) ou de fa¸on ´quivalente c e
t t 0

St = S0 exp
0

˜ σs dWs +

1 2 Rs − σs ds 2

.

(7.13)

Le changement de mesure modifie le rendement instantan´ moyen, mais n’affecte pas e la volatilit´ du processus. e

116

Probabilit´ de risque neutre e

7.1.1

Valeur d’un portefeuille sous la probabilit´ de risque-neutre e

On consid`re un agent qui dispose ` l’instant t = 0 d’un capital initial X0 ; ` tout e a a instant 0 ≤ t ≤ T , il compose un portefeuille en arbitrant entre l’actif risqu´ et l’actif e non risqu´. A l’instant t, il dispose de ∆t de l’actif risqu´, le reste du portefeuille ´tant e e e investi dans l’actif non risqu´ au taux d’int´rˆt Rt . La diff´rentielle stochastique de e ee e la valeur de ce portefeuille est donn´e par e dXt = ∆t dSt + Rt (Xt − ∆t St )dt = ∆t (αt St dt + σt St dWt ) + Rt (Xt − ∆t St ) dt = Rt Xt dt + ∆t (αt − Rt ) St dt + ∆t σt St dWt = Rt Xt dt + ∆t σt St [Θt dt + dWt ] . La formule d’Itˆ, (7.3) et (7.5) impliquent que o d (Dt Xt ) = Dt dXt + Xt dDt = ∆t σt Dt St [Θt dt + dWt ] = ∆t d (Dt St ) (7.15) (7.16) (7.14)

La diff´rentielle stochastique du prix du portefeuille actualis´ est ´gale au produit du e e e nombre d’actions par la diff´rentielle stochastique du prix de l’action actualis´. En e e utilisant (7.11), nous pouvons r´´crire la quantit´ pr´c´dente comme ee e e e ˜ d (Dt Xt ) = ∆t σt Dt St dWt . (7.17)

L’agent a deux fa¸ons d’investir (i) l’actif non risqu´ lui offre un rendement instantan´ c e e ˜ moyen Rt et (ii) l’actif risqu´, qui sous P lui offre le mˆme rendement instantan´ moyen e e e Rt . Ind´pendamment de la fa¸on dont l’agent proc`de, le rendement instantan´ moyen e c e e ˜ et donc la valeur actualis´e du portefeuille est une du portefeuille est de Rt sous P, e martingale.

7.1.2

Prix d’une option sous la probabilit´ de risque neutre e

Nous allons maintenant voir comment calculer le processus de couverture permettant de couvrir une position vendeur sur une option d’achat europ´enne (telle que e XT = (ST − K)+ ). Dans cette partie, nous allons r´pondre ` une question encore plus e a g´n´rale. Soit VT une variable FT -mesurable. C’est la fonction de paiement du produit e e d´riv´. Nous autorisons cette fonction de paiement de d´pendre de la trajectoire du e e e sous-jacent (i.e. de d´pendre des diff´rents prix du sous-jacent entre l’instant initial e e t = 0 et l’instant d’´ch´ance t = T ). Nous d´sirons connaˆ la valeur du capital inie e e ıtre tial X0 et la strat´gie d’allocation ∆t , 0 ≤ t ≤ T , qu’un agent doit suivre pour couvrir e une position vendeuse sur une option d’achat (call), i.e. pour obtenir ` l’´ch´ance un a e e portefeuille dont la valeur soit pr´cis´ment ´gal ` la fonction de paiement e e e a X T = VT p.s. (7.18)

117 Dans le paragraphe 6.2.3, le rendement instantan´ moyen de l’actif risqu´, la volatilit´ e e e et le taux d’int´rˆt ´taient suppos´s constants. Nous nous affranchissons de cette ee e e hypoth`se ici. L’agent cherche ` d´terminer la strat´gie de couverture ∆t et la valeur e a e e du capital initial X0 de telle sorte que (7.18) soit satisfaite. Nous verrons dans le paragraphe suivant comment ces quantit´s peuvent ˆtre calcul´es. Supposons pour e e e ˜ l’instant que cela soit fait. Le fait que Dt Xt est une martingale sous P implique que ˜ ˜ Dt Xt = E [ DT XT | Ft ] = E [ DT VT | Ft ] . (7.19)

La valeur Xt du portefeuille de couverture est le capital n´cessaire ` l’instant t pour e a couvrir une position vendeur sur option d’achat de fonction de paiement VT . Nous appelons cette quantit´ le prix de l’option ` l’instant t, et nous la notons Vt , et nous e a pouvons r´´crire l’´quation pr´c´dente ee e e e ˜ Dt Vt = E [ DT VT | Ft] . (7.20)

En divisant les deux membres de l’´quation pr´c´dente par Dt , et en utilisant le fait e e e que Dt est Ft mesurable, nous obtenons donc
−1 ˜ ˜ Vt = E Dt DT VT Ft = E e− RT
t

Ru du

VT Ft ,

0≤t≤T ,

(7.21)

et en particulier, V0 = E[DT VT ]. Cette formule donne le prix de l’option sous la probabilit´ de risque neutre (risk-neutral pricing formula). e

7.1.3

Formule de Black-Scholes-Merton sous la probabilit´ de risque e neutre

Pour obtenir la formule de Black-Scholes-Merton du prix d’une option europ´enne, e nous supposons que la volatilit´ est constante σt = σ ainsi que le taux d’int´rˆt Rt = r e ee et nous prenons pour fonction de paiement de l’option VT = (ST − K)+ . Comme la volatilit´ et le taux d’int´rˆt sont constants, St est un brownien g´om´trique. Le e ee e e membre de droite de (7.21) s’´crit alors e ˜ E e−r(T −t) (ST − K)+ Ft . Comme le mouvement Brownien g´om´trique est un processus de Markov, cette exe e pression est une fonction du prix du sous-jacent St ` l’instant t. En d’autres termes, a il existe une fonction c(t, x)
def ˜ c (t, St ) = E e−r(T −t) (ST − K)+ Ft ,

(7.22)

telle que Vt = c(t, St ). Comme la volatilit´ et le taux d’int´rˆt sont constants, le prix e ee du sous-jacent est donn´ par e 1 ˜ St = S0 exp σ Wt + r − σ 2 t 2 ,

118 et nous pouvons donc ´crire e

Probabilit´ de risque neutre e

1 ˜ ˜ ST = St exp σ(WT − Wt ) + r − σ 2 (T − t) . 2 Donc ST est le produit de St et d’une variable al´atoire e 1 ˜ ˜ exp σ(WT − Wt ) + r − σ 2 (T − t) 2 qui est, sous la probabilit´ de risque neutre, ind´pendante de St . Notons τ = T − t e e −1/2 W − W . Y est une variable al´atoire gaussienne centr´e r´duite, ˜T ˜t et Y = −τ e e e ind´pendante de Ft . Par cons´quent, e e ˜ c(t, x) = E e−rτ 1 =√ 2π L’int´grande e √ 1 x exp −σ τ Y + r − σ 2 τ 2 est positive si et seulement si 1 1 x y < d− (τ, x) = √ log + r − σ2 τ K 2 σ τ Par cons´quent e c(t, x) =
d− (τ,x) √ 1 2 1 1 e−rτ exp −σ τ y + r − σ 2 τ − K e− 2 y dy =√ 2 2π −∞ d− (τ,x) 2 √ 1 1 y =√ e−rτ exp − − σ τ y + r − σ 2 τ 2 2 2π −∞ d− (τ,x) y2 1 −√ e−rτ Ke− 2 dy 2π −∞ = xΦ (d+ (τ, x)) − e−rτ KΦ (d− (τ, x)) , ∞

√ 1 x exp −σ τ Y + r − σ 2 τ 2 e
−rτ

+

−K
+

−∞

1 x exp −σ τ y + r − σ 2 τ 2

−K

e− 2 y dy .

1 2

−K

.

o` u

1 x 1 d± (τ, x) = √ log + r ± σ2 τ K 2 σ τ

,

et Φ est la fonction de r´partition de la loi normale centr´e r´duite. Nous notons e e e ˜ BSM(τ, x; K, r, σ) = E e−rτ √ 1 x exp −σ τ Y + r − σ 2 τ 2
+

−K

(7.23)

119 ˜ o` Y est une loi normale centr´e r´duite sous P. Nous venons d’´tablir que u e e e BSM(τ, x; K, r, σ) = xΦ (d+ (τ, x)) − e−rτ KΦ (d− (τ, x)) . Par rapport ` la solution que nous avions mis en ´vidence pr´c´demment (sous la a e e e forme de la solution d’une EDP parabolique r´trograde), ce calcul faisant intervenir e la probabilit´ de risque neutre estplus ´l´gant et explicite. Il permet de faire le lien e ee entre la solution de probl`mes d’EDP et le calcul d’esp´rances sous une loi particuli`re e e e (la probabilit´ de risque neutre). e Exemple 7.1.1. Nous illustrons la fonction de Black-Scholes-Merton pour une option europ´enne. Le prix de l’actif sous jacent ` la date courante est fix´ ` 100 ; le taux e a ea d’actualisation est, lui aussi, constant de taux 10 %/an. Dans la figure 7.1 nous faisons varier la volatilit´ pour deux valeurs diff´rentes du prix d’exercice K = 100 (option e e dans la monnaie) et K = 200 (option en dehors de la monnaie). Dans la figure 7.2,
28 6

26 5 24

22 4 20

18

3

16 2 14

12 1 10

8

0

0.005

0.01

0.015

0.02

0.025

0.03

0

0

0.005

0.01

0.015

0.02

0.025

0.03

Volatilité

Volatilité

(a) Prix d’exercice 100

(b) Prix d’exercice 200

Fig. 7.1 – Prix d’une option europ´enne en fonction de la volatilit´ pour deux valeurs e e du prix d’exercice. Le prix initial est de 100, la date d’´ch´ance est de 1 an, le taux e e annuel d’int´rˆt est de 10 % ee nous ´tudions la variation du prix de l’option en fonction du prix d’exercice. e

7.2

Existence d’un portefeuille de couverture

La formule de calcul du prix de l’option sous la probabilit´ de risque neutre ` e a ee e l’instant t de fonction de paiement VT a ´t´ obtenue sous l’hypoth`se qu’il existait une politique ∆t d’investissement dans le sous-jacent dans l’intervalle de temps 0 ≤ t ≤ T telle qu’un agent, disposant ` l’instant initial d’un capital suffisant X0 et suivant a cette politique soit capable de couvrir la position vendeuse d’options d’achats. Sous cette hypoth`se, nous avons montr´ que la valeur initiale du capital ´tait donn´e par e e e e ˜ V0 = E[DT VT ] ,

120
30 40

Probabilit´ de risque neutre e

35 25 30 20 25

Prix

15

Prix
100 120 140 160 180 200 220 240 260

20

15 10 10 5 5

0 80

0 80

100

120

140

160

180

200

220

240

260

Prix d’exercice K

Prix d’exercice K

(a) Volatilit´ 0.015 e

(b) Volatilit´ 0.030 e

Fig. 7.2 – Prix d’une option europ´enne en fonction du prix d’exercice pour deux e valeurs de la volatilit´. Le prix initial est de 100, la date d’´ch´ance est de 1 an, le e e e taux annuel d’int´rˆt est de 10 % ee a et la valeur du portefeuille de couverture est ´gale ` Vt ` chaque instant t, 0 ≤ t ≤ T . e a L’existence d’un portefeuille de couverture dans le mod`le ` un actif risqu´ d´coule e a e e du th´or`me de repr´sentation des martingales associ´es ` la filtration du mouvement e e e e a Brownien (voir Theorem 3.8.2), que nous rappelons dans le cas mono-dimensionel puis multidimensionnel. Dans cette section 7.2, la filtration Ft d´signe la filtration naturelle du mouvement e brownien.

7.2.1

Th´or`me de repr´sentation des martingales, mono-dimensionnel e e e

Th´or`me 7.2.1. Soit Wt , 0 ≤ t ≤ T , un mouvement brownien issu de 0, sur l’espace e e de probabilit´ (Ω, F, P) et soit Ft , 0 ≤ t ≤ T la filtration associ´e ` ce mouvement e e a brownien. Soit Mt , 0 ≤ t ≤ T une Ft -martingale. Alors, il existe un unique processus t progressif Γu , 0 ≤ u ≤ T tel que 0 Γ2 du < ∞ p.s. pour tout t ≤ T et v´rifiant e u
t

Mt = M0 +
0

Γu dWu ,

0≤t≤T .

En particulier, Mt admet une modification continue. Si pour tout t, 0 ≤ t ≤ T , E[Mt2 ] < ∞, alors
T

E
0

Γ2 du < ∞ . u

Le th´or`me de repr´sentation des martingales montre que si la filtration est ene e e gendr´e par le mouvement Brownien, toute martingale par rapport ` cette filtration e a s’´crit sous la forme d’une somme d’une condition initiale et d’une int´grale d’Itˆ e e o par rapport au mouvement Brownien. La pertinence de la couverture pour ce mod`le e

121 provient du fait que la seule source d’incertitude provient du mouvement Brownien et qu’il faut couvrir une seule source d’incertitude. Ce th´or`me implique notamment e e que les martingales par rapport ` la filtration du brownien admettent des modifia cations continues et ne peuvent donc pas avoir de sauts. Si nous voulons travailler sur des martingales pr´sentant des sauts, nous devons donc inclure dans les mod`les e e d’actifs sous-jacentes des sources d’incertitudes autres que le mouvement brownien. En combinant ce r´sultat avec le th´or`me de Girsanov 3.6.3, nous obtenons le e e e corollaire Corollaire 7.2.2. Soit Wt , 0 ≤ t ≤ T , un mouvement brownien sur l’espace de probabilit´ (Ω, F, P) et soit Ft , 0 ≤ t ≤ T la filtration associ´e ` ce mouvement e e a brownien. Soit Θt , 0 ≤ t ≤ T un processus progressif v´rifiant e
T

E exp (1/2)
0

Θ2 du u

<∞.

Posons
t

Zt = exp − ˜ Wt = Wt +
0 0 t

Θu dWu − Θu du .

1 2

t

Θ2 du u
0

,

Alors {Zt , 0 ≤ t ≤ T } et E[Zt ] = 1. Sous la mesure de probabilit´ dP(ω) = e ˜ ˜ ZT (ω)dP(ω), le processus Wt , 0 ≤ t ≤ T est un mouvement Brownien. ˜ ˜ t , 0 ≤ t ≤ T une Ft -martingale sous P. Alors,il existe un unique processus Soit M ˜ u , 0 ≤ u ≤ T , tel que t Γ2 du < ∞ p.s. pour tout t ≤ T et v´rifiant ˜u progressif Γ e 0 ˜ ˜ Mt = M0 +
0 t

˜ ˜ Γu d W u , 0 ≤ t ≤ T .

˜ Si pour tout 0 ≤ t ≤ T , E[Mt2 ] < ∞, alors
T

E
0

˜u Γ2 du < ∞ .

D´monstration. La preuve n’est pas une cons´quence compl`tement imm´diate du e e e e ˜ t rempla¸ant Wt ) car la filtrath´or`me de repr´sentation des martingales (avec W e e e c tion dans ce corollaire est celle engendr´e par le mouvement brownien Wt et non e ˜ ˜ ˜ pas par Wt . La filtration Ft engendr´e par le processus Wt est contenue dans {Ft }. e −1 Remarquons tout d’abord que la diff´rentielle stochastique de Zt est donn´e par e e
−1 −1 −1 dZt = Zt Θt dWt + Zt Θ2 dt . t

˜ ˜ Le lemme 3.6.1 montre que si Mt , 0 ≤ t ≤ T est une Ft -martingale sous P, alors def ˜ Mt = Zt Mt est une Ft -martingale sous P. En utilisant le Th´or`me 7.2.1, il existe e e un processus adapt´ Γt , 0 ≤ t ≤ T , tel que e
t

Mt = M0 +
0

Γu dWu ,

0≤t≤T ,

122

Probabilit´ de risque neutre e

ou de fa¸on ´quivalente, dMt = Γt dWt . Puisque M et Z −1 sont des processus d’Itˆ, c e o ˜ M est un processus d’Itˆ. En utilisant la formule d’Itˆ (prop. 3.4.5), sa diff´rentielle o o e stochastique est donn´e par e
−1 −1 ˜ dMt = dMt Zt + Mt dZt + d M, Z −1 t

= =

−1 −1 Γt Zt dWt + Mt Zt Θt {dWt −1 −1 ˜ Γt Zt + Mt Zt Θt dWt ,

+ Θt dt} + Γt Z −1 Θt dt

˜ ˜ = Γt d W t . ˜ L’unicit´ de Γ entraine celle de Γ. e

7.2.2

Calcul de la strat´gie de couverture d’un actif e

Les conditions H(i) ` H(iii) et (7.9) sont suppos´es v´rifi´es. En particulier, le a e e e corollaire 7.2.2 s’applique. Soit VT la fonction de paiement d’une option ; par hypoth`se, VT est FT -mesurable. e Le prix de l’option Vt pour tout 0 ≤ t ≤ T est donn´e par la formule de prix sous la e probabilit´ de risque neutre e ˜ Dt Vt = E [ DT VT | Ft ] , 0≤t≤T .

Le processus Dt Vt est une martingale adapt´e ` la filtration Ft sous la probabilit´ P. e a e˜ ˜ t, 0 ≤ t ≤ T , En utilisant le corollaire 7.2.2, il existe un (unique) processus progressif Γ tel que
t

Dt Vt = V0 +
0

˜ ˜ Γu d W u , 0 ≤ t ≤ T .

(7.24)

D’autre part, pour tout processus d’allocation ∆t , la diff´rentielle stochastique de la e valeur du portefeuille est donn´e par (7.17), ce qui implique e
t

Dt Xt = X0 +
0

˜ ∆u σu Du Su dWu ,

0≤t≤T .

Comme nous souhaitons avoir Xt = Vt pour tout t, nous posons X0 = V0 et nous choisissons ∆t de telle sorte que ˜ ∆t σt Dt St = Γt , ou, de fa¸on ´quivalente c e ∆t = ˜ Γt , σt Dt St 0≤t≤T . (7.26) 0≤t≤T , (7.25)

En faisant ce choix de strat´gie d’investissement, nous avons une couverture parfaite e de la position vendeuse de l’option d’achat. Il y a deux hypoth`ses sous-jacentes qui e

123 rendent possibles la mise en oeuvre d’une strat´gie de couverture. Premi`rement, la e e volatilit´ ne s’annule pas, ce qui implique que l’´quation (7.25) peut ˆtre r´solue en e e e e ∆t . Si la volatilit´ s’annule, on ne peut plus construire de strat´gie de couverture. e e La seconde hypoth`se est que la filtration Ft est effectivement engendr´e par le moue e vement brownien qui entre dans la d´finition de l’´volution du prix du sous-jacent. e e Sous cette hypoth`se, toute fonction de paiement FT mesurable peut ˆtre couverte. e e Un tel mod`le est dit complet. e ˜ L’unicit´ du processus Γt dans le th´or`me de repr´sentation des martingales e e e e Browniennes implique l’unicit´ des strat´gies de contrˆle ∆t . e e o Le th´or`me de repr´sentation des martingales justifie l’int´rˆt des formules de e e e ee prix sous la probabilit´ de risque neutre, mais il ne permet pas de d´terminer explie e citement la strat´gie de couverture ∆t . La formule (7.26) pour ∆t fait intervenir le e processus adapt´ Γt du th´or`me de repr´sentation des martingales du prix de l’ope ˜ e e e tion actualis´. Le th´or`me de repr´sentation de martingales montre l’existence d’un e e e e tel processus mais il ne donne pas, a priori, une fa¸on de le calculer. Nous reviendrons c sur ce point dans notre expos´. e

7.3

Extensions multi-dimensionnelles

Dans cette partie, nous ´tendons la discussion que nous avons entreprise ci-dessus e au cas o` le portefeuille est constitu´ de plusieurs actifs risqu´s. Nous allons au cours u e e de cet expos´ ´nocer et ´tablir les deux th´or`mes fondateurs du calcul du prix des ee e e e options.

7.3.1

Girsanov et th´or`mes de repr´sentation des martingales e e e

Les deux outils fondamentaux sont les versions multi-dimensionnelles du th´or`me e e de Girsanov et du th´or`me de repr´sentation des martingales. Nous rappellerons ces e e e ´nonc´s ici. Dans toute cette partie e e Wt = Wt1 , . . . , Wtd est un mouvement brownien d-dimensionnel d´fini sur l’espace de probabilit´ (Ω, F, P). e e Associ´ ` ce mouvement brownien, nous d´finissons Ft sa filtration canonique. Nous ea e travaillons toujours sur un horizon temporel fini et nous posons F = FT . Nous ne supposerons pas syst´matiquement que la filtration est celle associ´e au mouvement e e brownien. Th´or`me 7.3.1. Soit T < ∞ et soit Θt = (Θ1 , . . . , Θd ) un processus d-dimensionnel e e t t progressif tel que
T

E exp (1/2)
0

|Θu |2 du

<∞.

124 D´finissons e
t

Probabilit´ de risque neutre e

Zt = exp − ˜ Wt = Wt +
0 0 t

Θu · dWu − Θu du .

1 2

t

Θu 2 du
0

,

Alors, {Zt , 0 ≤ t ≤ T } est une martingale sous P, E[ZT ] = 1 et sous la probabilit´ e ˜ ˜ dP(ω) = ZT (ω)dP(ω), le processus Wt est un mouvement Brownien d-dimensionnel. Il est important de souligner que la version multi-dimensionnelle du th´or`me de e e ˜ les composantes du vecteur Wt sont ind´pendantes. Les ˜ Girsanov montre que sous P e composantes de Wt sont ind´pendantes sous P, mais comme chaque processus Θj e t 1 d est adapt´, il d´pend de l’histoire de ”toutes” les composantes (Ws , . . . , Ws ) jusqu’` e e a ˜ l’instant courant. Donc, sous P les composantes de W sont d´pendantes ! e Nous pouvons formuler de la mˆme fa¸on une version multi-dimensionnelle du e c th´or`me de repr´sentation des martingales gaussiennes. e e e Th´or`me 7.3.2. Soit T < ∞ et soit Ft , 0 ≤ t ≤ T , la filtration engendr´e par e e e le mouvement brownien d-dimensionnel Wt , 0 ≤ t ≤ T . Soit Mt , 0 ≤ t ≤ T , une martingale par rapport ` cette filtration sous P. Alors, il existe un unique processus a t i 2 d-dimensionnel progressif Γt = Γ1 , . . . , Γd , 0 ≤ t ≤ T , tel que d t t i=1 0 |Γs | ds < ∞ pour tout t ≤ T et v´rifiant e
t

Mt = M0 +
0

Γu · dWu ,

0≤t≤T .

˜ ˜ Si Mt , 0 ≤ t ≤ T est une Ft -martingale sous P adapt´ ` Ft , 0 ≤ t ≤ T , alors il existe ea 1 , . . . , Γd , 0 ≤ t ≤ T , tel que ˜ ˜t un unique processus d-dimensionnel adapt´ Γt = Γt e ˜ ˜ ˜ Mt = M0 +
0 t

˜ ˜ Γu · d W u ,

0≤t≤T .

7.3.2

Mod`le de march´ multi-dimensionnel e e

Nous supposons que le march´ se compose de m sous-jacents qui ´voluent suivant e e le mod`le e
d i dSt

=

i i αt St dt

+

i St j=1

ij σt dWtj ,

i = 1, . . . , m .

(7.27)

i Nous supposons que les termes de d´rive {αt }i=1,...,m et la matrice de volatilit´ e e ij {σt }1≤i≤m;1≤j≤d sont des processus adapt´s ` la filtration {Ft , t ≥ 0}. Les valeurs e a des sous-jacents sont corr´l´es. Pour mieux comprendre la nature de la d´pendance ee e i des mouvements Browniens, posons, pour 0 ≤ t ≤ T , σt = ij 2 d j=1 [σt ] 1/2

. Nous

125
i supposons que cette quantit´ est toujours positive, σt > 0 P-p.s. pour 0 ≤ t ≤ T . e Nous d´finissons alors le processus e d i Bt t 0 ij σu j dWu , i σu

=
j=1

i = 1, . . . , m .

(7.28)

Ce processus est une somme d’int´grales stochastiques, pour tout i ∈ {1, . . . , m}, e i {Bt , 0 ≤ t ≤ T } est une martingale continue. De plus
d

d B ,B

i

i

t

=
j=1

ij (σt )2 dt = dt . i (σt )2

En utilisant la caract´risation de Levy du mouvement brownien, ceci implique que e i est un mouvement brownien. Nous pouvons ´crire la diff´rentielle stochastique des Bt e e sous-jacents en fonction de ces mouvements browniens
i i i i i i dSt = αt St dt + σt St dBt . i i Cette formule montre que σt , 0 ≤ t ≤ T , est la volatilit´ de Bt . Pour i = k, les e i k mouvements browniens Bt et Bt ne sont pas ind´pendants. Remarquons en effet que e d ij kj σt σt dt = ρik dt , t i k σt σt

d Bi, Bk o` u

t

=
j=1

ρik = t

1 iσk σt t

d ij kj σt σt . j=1

En appliquant la r`gle d’Itˆ pour les produits (lemme 3.4.5), nous obtenons e o
i k i k k i d Bt Bt = Bt dBt + Bt dBt + d B i , B k t

,

ou de fa¸on ´quivalente c e
t i k Bt Bt = 0 i k Bu dBu + 0 t k i Bu dBu + 0 t

ρik du . u

En prenant l’esp´rance de cette quantit´, et le fait que l’esp´rance d’une int´grale e e e e d’Itˆ est nulle, nous obtenons donc o
t i k Cov[Bt , Bt ] = E 0 ij kj i k Si les processus σt et σt sont constants, alors σt , σt et ρik sont aussi constants. t √ i , B k ] = ρik . Comme l’´cart type de B i et de B k est ´gal ` Dans ce cas, Cov[Bt t e e a t, t t t

ρik du . u

126

Probabilit´ de risque neutre e

ij kj i k ρik est le coefficient de corr´lation entre Bt et Bt . Si σt et σt sont des processus e i k al´atoires, nous appellerons ρik la corr´lation instantan´e de Bt et Bt . A un instant e e e t ik est la corr´lation conditionnelle des incr´ments de processus B i et B k sur donn´, ρt e e e t t un petit intervalle de temps apr`s t. Finalement e

d Si, Sk

t

i k i k = σ t σ t St St d B i , B k

t

=

i k i k ρik σt σt St St dt t

.

k e Les processus de volatilit´ σt et σt d´finissent les ´carts types des changements relatifs e i e i et S k et ρik est la corr´lation instantan´ de ces changements. de S e e t Nous d´finissons le processus d’actualisation e

Dt = e−

Rt
0

Ru du

.

(7.29)

Nous travaillerons le plus souvent sur le prix des actifs actualis´s. Les diff´rentielles e e stochastiques de ces prix sont donn´es, pour i = 1, . . . , m, par e
i i i d Dt St = Dt dSt − Rt St dt  i i = Dt St  (αt − Rt dt + j=1

d


ij σt dWtj 

=

i Dt St

i αt

− Rt dt +

i i σt dBt

.

(7.30)

7.3.3

Existence de la probabilit´ de risque neutre e

L’objectif de cette section est de mettre en ´vidence les liens entre l’existence d’une e probabilit´ de risque neutre et l’absence d’opportunit´s d’arbitrage, i.e. la possibilit´ e e e pour un portefeuille autofinanc´ de capital initial nul d’obtenir un gain strictement e positif avec une probabilit´ non-nulle et sans risque de perte. e D´finition 7.3.3. Une probabilit´ P est dite de risque neutre si e e ˜ ˜ ˜ (i) P et P sont ´quivalentes (i.e. pour tout A ∈ F, P(A) = 0 ssi P(A) = 0) e ˜ (ii) Sous P, le prix de l’actif actualis´ Dt S i est une martingale pour tout i = 1, . . . , m e
t

D´finition 7.3.4 (Arbitrage). Un arbitrage est un processus de prix de portefeuille e Xt , telle que X0 = 0 et, pour une ´ch´ance T > 0, e e P{XT ≥ 0} = 1 , P{XT > 0} > 0 .

Un arbitrage est une fa¸on de choisir les fonctions d’allocations ∆i telle que, c t partant d’un capital initial nul, il existe une date d’´ch´ance T > 0 satisfaisant les e e conditions suivantes : – avec une probabilit´ 1, la valeur du portefeuille est positive ou nulle : comme e le capital initial dont on dispose est nul, on est sˆr que l’on n’a pas perdu u d’argent !

127 – avec une probabilit´ strictement positive, la valeur du portefeuille est elle aussi e strictement positive : on est sˆr de gagner de l’argent ! u Th´or`me 7.3.5 (absence d’opportunit´s d’arbitrage). Si le mod`le de march´ poss`de e e e e e e une probabilit´ de risque neutre, alors le march´ ne poss`de pas d’opportunit´s d’are e e e bitrage. ˜ D´monstration. Si le mod`le de march´ poss`de une probabilit´ de risque neutre P, e e e e e ˜ Ceci alors les valeurs de tous les portefeuilles actualis´s sont des martingales sous P. e ˜ implique en particulier que E[DT XT ] = X0 . Si Xt est un portefeuille dont la valeur initiale est X0 = 0, alors ˜ E[DT XT ] = X0 = 0 . (7.31) Supposons que XT soit tel que P[XT ≥ 0] = 1, ou de fa¸on ´quivalente, P[XT < 0] = 0. c e ˜ ˜ Comme P et P sont des probabilit´s ´quivalentes, P[XT < 0] = 0. Cette condition, e e ˜ ˜ coupl´e avec (7.31) montre que P[XT > 0] = 0, car autrement P[DT XT > 0] > 0, e ˜ T XT ] > 0. Comme P et P sont ´quivalentes, la relation ˜ ce qui impliquerait que E[D e ˜ T > 0] = 0 implique que P[XT > 0] = 0. Donc, il n’y a pas d’opportunit´s P[X e d’arbitrage. Nous allons chercher maintenant des conditions techniquement plus simples sous lesquelles on puisse construire la probabilit´ de risque neutre. Pour transformer les e prix actualis´s en martingales, nous cherchons ` r´´crire (7.30) sous la forme e a ee
d i i d Dt St = Dt St j=1 ij σt Θj dt + dWtj t

.

(7.32)

Si nous pouvons trouver des processus adapt´s Θj (des prix de march´ pour le risque) e t e telle que la relation pr´c´dente soit satisfaite, nous pouvons utiliser la version multie e dimensionnelle du th´or`me de Girsanov pour construire une mesure de probabie e t ˜ ˜ lit´ ´quivalente P sous laquelle Wt = Wt + 0 Θu du est un mouvement brownien e e d-dimensionnel. Ceci permettrait de r´´crire (7.32) sous la forme ee
d i i d Dt St = Dt St j=1 i ˜ ce qui implique que Dt St est une martingale sous P, sous l’hypoth`se que e    ij ˜ σt dWtj ,

(7.33)

˜ E exp (1/2)
0

T

d

ij σt j=1

2

dt < ∞ ,

i = 1, . . . , m ,

ce que nous supposerons dans la suite. Le probl`me pour trouver une probabilit´ de risque neutre est donc de trouver e e des processus Θj tels que (7.30) et (7.32) co¨ ıncident. Comme ces deux diff´rentielles e t

128

Probabilit´ de risque neutre e

stochastiques ont les mˆmes coefficients multiplicatifs pour les diff´rentielles stochase e tiques des mouvements browniens dWti , ces deux expressions sont ´gales ssi les coefe ficients affectant dt sont identiques,
d i αt

− Rt =
j=1

ij σt Θj , t

i = 1, . . . , m .

(7.34)

C’est un syst`me de m ´quations ` d inconnues. Si ce syst`me d’´quation n’a pas de e e a e e solutions, alors le march´ pr´sente des possibilit´s d’arbitrage. Notons que ce syst`me e e e e peut avoir des solutions sans qu’il existe de probabilit´s de risque neutre (il faudrait e rajouter des conditions de type Novikov sur les solutions pour assurer la validit´ du e changement de loi dans le th´or`me de Girsanov multidimensionnel). Nous illustrons e e dans l’exemple suivant une situation o` les ´quations (7.34) ne sont pas satisfaites et u e o` il existe une possibilit´ d’arbitrage. u e Exemple 7.3.6 (march´ ` deux actifs risqu´s). Consid´rons un march´ constitu´ de ea e e e e deux actifs risqu´s (m = 2) et un mouvement brownien (d = 1) ; supposons de plus e i i que les termes de d´rive et volatilit´ soient constants : αs = αi et σs = σ i . Le syst`me e e e d’´quations (7.34) se r´´crit e ee α1 − r = σ 1 θ , α2 − r = σ 2 θ . Ce syst`me d’´quation admet une solution si e e α1 − r α2 − r = . σ1 σ2 Si cette ´quation n’est pas satisfaite, alors on peut effectuer un arbitrage entre les e sous-jacents. Supposons par exemple que α2 − r α1 − r > σ1 σ2 et d´finissons e α1 − r α2 − r − >0. σ1 σ2 Supposons qu’` chaque instant l’agent porte ∆1 = S 11σ1 actions de l’actif 1 et a t µ= c ∆2 = − S 21σ2 actions de l’actif 2, empruntant ou pla¸ant de l’argent dans un act t tif non risqu´ au taux d’int´rˆt r pour maintenir son portefeuille. Le capital initial e ee n´cessaire pour prendre cette position est [σ 1 ]−1 − [σ 2 ]−1 ; si cette quantit´ est poe e sitive, nous empruntons de l’argent ; si cette quantit´ est n´gative, nous investissons e e dans l’actif non risqu´ ; le capital initial requis est donc ´gal ` X0 = 0. La diff´rentielle e e a e stochastique de la valeur du portefeuille Xt est donn´e par e
1 2 1 2 dXt = ∆1 dSt + ∆2 dSt + r Xt − ∆1 St − ∆2 St dt t t t t
t

α1 − r α2 − r dt + dWt − dt − dWt + rXt dt σ1 σ2 = µdt + rXt dt . =

129 La diff´rentielle stochastique du portefeuille actualis´ est donn´e par e e e d (Dt Xt ) = Dt (dXt − rXt dt) = µDt dt . Le terme de droite µDt est strictement positif et d´terministe. Donc, ce portefeuille va e gagner de l’argent avec certitude, et plus rapidement que si nous investissions l’argent dans l’actif non risqu´. Nous avons en proc´dant de la sorte cr´´ un second actif none e ee risqu´ dont le rendement est plus ´lev´ que le march´ mon´taire. Les possibilit´s e e e e e e d’arbitrage sont sans limite. Quand les ´quations (7.34) sont satisfaites, il n’y a pas d’opportunit´s d’arbitrage. e e Notons ∆i le processus (adapt´) du nombre d’actions du sous-jacent i d´tenues dans e e t le portefeuille ` l’instant t. La diff´rentielle stochastique du portefeuille est donn´e a e e par
m m i ∆i dSt t i=1 m

dXt =

+ Rt

Xt −
i=1

i ∆ i St t

dt

= Rt Xt dt +
i=1 m

i i ∆i dSt − Rt St dt t

= Rt Xt dt +
i=1

∆i t i d Dt St . Dt

(7.35)

La diff´rentielle stochastique du prix du portefeuille actualis´ est donn´e par e e e d (Dt Xt ) = Dt (dXt − Rt Xt dt)
m

=
i=1

i ∆i d Dt St . t

(7.36)

˜ ˜ S’il existe une probabilit´ de risque neutre P, alors sous P les prix des actifs actualis´s e e sont des martingales et donc le prix du portefeuille actualis´ est aussi une martingale. e ˜ En d’autres termes, sous P chaque action a le mˆme rendement instantan´ moyen Rt e e qui est aussi le rendement de l’actif non risqu´. Donc, ind´pendamment de la fa¸on e e c dont l’agent investit, le rendement instantan´ moyen Rt est le mˆme, et le prix du e e portefeuille actualis´ est une martingale. e

7.3.4

Unicit´ de la probabilit´ de risque neutre e e

D´finition 7.3.7 (march´ complet). Un mod`le de march´ est dit complet si tout e e e e produit d´riv´ peut ˆtre couvert. e e e Supposons que nous disposions d’un mod`le de march´ muni de la filtration ene e gendr´e par un mouvement brownien d-dimensionnel, et d’une probabilit´ de risque e e ˜ Soit donn´ la fonction de paiement VT d’un produit d´riv´ de ce march´, neutre P. e e e e qui est une v.a. FT -mesurable. Nous cherchons ` ´tablir une strat´gie nous permetae e tant d’ˆtre sˆr de couvrir cette fonction de paiement. Nous d´finissons Vt comme en e u e

130

Probabilit´ de risque neutre e

˜ (7.21) de telle sorte que Dt Vt v´rifie (7.19) et soit donc une martingale sous P. Le e th´or`me de repr´sentation des martingales 7.3.2 montre qu’il existe des processus e e e ˜u adapt´s Γ1 , . . . , Γd tels que e ˜u
d t 0

Dt Vt = V0 +
j=1

˜u ˜ j Γj d W u ,

0≤t≤T .

(7.37)

Consid´rons un portefeuille de capital initial X0 . Les ´quations (7.36) et (7.33) e e montrent que
m

d (Dt Xt ) =

i ∆i d Dt St t i=1 d m

=
j=1 i=1

i ij ˜ ∆i Dt St σt dWtj , t

ou de fa¸on ´quivalente c e
d t m 0 i=1

Dt Xt = X0 +
j=1

i ij ˜ j ∆i Du Su σu dWu . t

(7.38)

En comparant (7.37) et (7.38), nous devons choisir les fonctions ∆i , i = 1, . . . , m de t telle sorte ` satisfaire les ´quations de couverture a e ˜ Γj t = Dt soient satisfaites. Th´or`me 7.3.8. Consid´rons un mod`le de march´ poss´dant une probabilit´ de e e e e e e e ˜ risque neutre P. Ce mod`le de march´ est complet si et seulement si la probabilit´ de e e e risque neutre est unique. D´monstration. Nous allons donner de ce r´sultat un preuve partielle. Nous suppoe e sons tout d’abord que le march´ est complet et nous allons d´montrer qu’il existe alors e e une unique probabilit´ de risque neutre. Nous proc´dons par contradiction. Suppoe e ˜ ˜ sons que le march´ ait deux probabilit´s de risque neutre P1 et P2 . Soit A ∈ F = FT e e −1 et consid´rons la fonction de paiement VT = 1A DT . Comme le mod`le de march´ e e e est suppos´ complet, il est possible de construire un portefeuille Xt dont la valeur e actualis´e ` T soit ´gale ` la valeur de la fonction de paiement ` T , et dont le prix e a e a a ˜ actualis´ est une martingale sous les probabilit´s P1 et P2 . Nous avons donc e e ˜ ˜ ˜ ˜ ˜ ˜ ˜ P1 (A) = E1 [DT VT ] = E1 [DT XT ] = X0 = E2 [DT XT ] = E2 [DT VT ] = P2 (A) . ˜ ˜ comme l’´v´nement A est arbitraire dans F, P1 (A) = P2 (A) pour tout A ∈ F, et les e e probabilit´s de risque neutres sont donc identiques. La d´monstration de la r´ciproque e e e est plus d´licate (voir (?, Theorem 5.5.9)). e
m i ij ∆ i St σ t , t i=1

j = 1, . . . , d ,

(7.39)

Chapitre 8

Variations autour du mod`le de e Black-Scholes-Merton
8.1 Contrats ` termes et Futures a

Un contrat ` terme (ou forward contract) est un contrat entre deux parties dans a lequel une partie s’engage ` vendre ` l’autre partie un actif ` un prix sp´cifi´ (appel´ a a a e e e prix ` terme ou prix de r`glement ou forward price), ` une date sp´cifi´e (appel´e date a e a e e e d’´ch´ance ou de maturit´ - delivery date ou maturity date). Ce contrat poss`de des e e e e similarit´s avec une option si nous consid´rons le prix ` terme comme un ´quivalent e e a e du prix d’exercice. Toutefois, par rapport ` une option, il manque l’´l´ment du choix : a ee la transaction doit avoir lieu ` la date d’´ch´ance au prix ` terme convenu entre les a e e a deux parties. Un contrat ` terme diff`re aussi d’une option car le contrat ne donne a e pas lieu ` un paiement avant la date d’´ch´ance, alors que la prime d’une option est a e e pay´e par le souscripteur ` l’instant o` il contracte. e a u Un contrat de future (future contract) est proche conceptuellement d’un contrat a ` terme, mais les modalit´s du contrat sont diff´rentes. Alors qu’un contrat ` terme e e a peut ˆtre mis en place entre deux parties de gr´ ` gr´, les futures sont enregistr´s e e a e e aupr`s d’une chambre de compensation centrale, qui, d`s que la transaction est enree e gistr´e aupr`s d’elle, se substitue au vendeur et ` l’acheteur. La diff´rence principale e e a e provient du syst`me de paiement entre les deux parties, qui est con¸u pour prot´ger e c e les parties contre un d´faut. Alors que les profits et les pertes d’un contrat ` terme e a sont r´alis´s ` la date d’´ch´ance du contrat, la valeur d’un contrat de future est e e a e e ´valu´ quotidiennement, et la variation de valeurs est pay´e quotidiennement d’une e e e partie ` l’autre, de telle sorte que les pertes et profits sont pay´s continˆment pendant a e u toute la dur´e de vie du contrat. Toutefois, comme nous le verrons ci-dessous, la valeur e d’un contrat de future est ` peu pr`s ´gale ` la valeur d’un contrat ` terme. Lorsque a e e a a les taux d’int´rˆt sont constants ou deterministes, ces deux valeurs co¨ ee ıncident. Pour calculer le prix du contrat a terme, nous supposons qu’il existe une unique ` ¯ probabilit´ de risque neutre. Nous notons St , 0 ≤ t ≤ T le prix d’un actif risqu´ et e e ¯ Rt 0 ≤ t ≤ T une courbe de taux (mod´lis´ comme un processus progressif). Nous e e

132

Variations autour du mod`le de Black-Scholes-Merton e

¯ supposons que l’horizon de temps T est suffisamment grand pour que tous les bonds ¯ et produits d´riv´s expirent avant la data T . Comme pr´c´demment, nous d´finissons e e e e e Rt − 0 Rs ds par Dt = e le processus d’actualisation. La formule (7.20) de calcul du prix d’un contrat sous la probabilit´ de risque e neutre montre que le prix d’un bond z´ro-coupon qui paie 1 ` la date d’´ch´ance T e a e e est donn´ par e −1 B(t, T ) = Dt E [ DT | Ft ] , 0 ≤ t ≤ T . (8.1) D´finition 8.1.1. Un contrat ` terme est un agr´ment entre deux parties qui s’ene a e ¯ gagent ` acheter et ` vendre ` un prix K et une date sp´cifi´e 0 ≤ T ≤ T un actif a a a e e dont le prix est ´gal ` St ` la date t. Le prix ` terme ` la date T pour cet actif ` t, e a a a a a ¯ not´ ForS (t, T ), o` 0 ≤ t ≤ T ≤ T est la valeur K qui fait que le contrat ` terme e u a n’admet pas d’opportunit´ d’arbitrage. e Th´or`me 8.1.2. Supposons qu’il existe des bonds zero-coupon de toute maturit´. e e e Alors, St ¯ ForS (t, T ) = , 0≤t≤T ≤T . (8.2) B(t, T ) D´monstration. Supposons qu’` la date t deux parties conviennent d’un contrat ` e a a terme ` une date d’´ch´ance T et un prix ` terme K. Pla¸ons nous du cˆt´ de la a e e a c oe partie qui doit d´livrer l’actif ` la date d’´ch´ance (le vendeur) et consid´rons la e a e e e strat´gie suivante. A la date t, le vendeur prend une position courte de St /B(t, T ) e bond zero-coupon (de valeur unit´ ` l’´ch´ance) et utilise le revenu de cette vente e a e e a e ` d´couvert pour acqu´rir une action de l’actif au prix St (voir (8.1)). Le vendeur e n’effectue ensuite plus aucune action avant la date d’´ch´ance T , date ` laquelle il e e a poss`de une action de l’actif, qu’il vend au prix K, le prix ` terme. Apr`s avoir e a e couvert sa position courte, il lui reste K − St /B(t, T ). Si cette quantit´ est positive, e le vendeur a trouv´ un arbitrage. Si cette quantit´ est n´gative, l’acheteur pourrait e e e prendre la position inverse : il vend ` d´couvert une action de l’actif ` la date t (short) a e a et ach`te St /B(t, T ) bonds z´ros coupons. Il n’effectue aucune transaction avant la e e date T , date ` laquelle il poss`de St /B(t, T ) bonds zero coupons. Il ach`te l’actif au a e e prix ` terme K et couvre la vente de l’actif ; il lui reste St /B(t, T ) − K : si cette a quantit´ est positive, l’acheteur a trouv´ un arbitrage. Pour ´liminer les opportunit´s e e e e d’arbitrage, le prix ` terme doit donc ˆtre donn´ par (8.2). a e e Remarque 8.1.3.

Chapitre 9

Index des notations

Index
Arbitrage, 126 Black Scholes Merton, 111 equation, 111 Condition de Novikov, 45 Contrats ` termes, 131 a couverture delta(δ-hedging), 111 Crochet de martingales locales, 33 Diff´rentielle stochastique, 42 e Espace gaussien, 51 Formule d’Itˆ, 43 o future, 131 G´n´rateur infinit´simal, 90 e e e Lemme de Gronwall, 72 March´ complet, 129 e Martingale exponentielle, 44 locale, 23 Mouvement Brownien g´om´trique g´n´ralis´, 114 e e e e e Option, 105 am´ricaine, 105 e europ´enne, 105 e Portefeuille autofinanc´, 107 e prix exercice, 105 Probabilit´ de risque neutre, 126 e Processus ´tag´, 33 e e diffusion, 92 Itˆ, 40 o Itˆ vectoriel, 70 o Markov, 89 Repr´sentation des martingales (Th´or`me), e e e 120 Semi-groupe de Feller, 90 Semi-martingale continue, 59 Solution d’une EDS, 72 Solution faible d’une EDS, 84 Th´or`me de Girsanov, 48 e e multidimensionnel, 123 Variation totale, 31

Sign up to vote on this title
UsefulNot useful