You are on page 1of 155

MARTINGALES

POUR
LA FINANCE

une introduction aux mathematiques nanci`eres

Christophe Giraud
Cours et Exercices corriges.
Table des mati`eres
I Le Cours 7
0 Introduction 8
0.1 Les produits derives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
0.2 Lobjet des mathematiques nanci`eres . . . . . . . . . . . . . . . . . . . . 12
0.3 Principe de la couverture des produits derives . . . . . . . . . . . . . . . . 12
0.4 Mod`ele `a un pas - deux etats . . . . . . . . . . . . . . . . . . . . . . . . . 13
1 Esperance conditionnelle 17
1.1 Conditionnement par rapport `a un evenement . . . . . . . . . . . . . . . . 18
1.2 Le cas discret . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.2.1 Conditionnement par rapport `a une variable aleatoire . . . . . . . . 19
1.2.2 Conditionnement par plusieurs variables aleatoires . . . . . . . . . . 21
1.3 Cadre `a densite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.4 Caracterisation et proprietes . . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.4.1 Caracterisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.4.2 Proprietes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
1.5.1 Jeu televise . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
1.5.2 Un petit calcul . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
1.5.3 Un autre calcul . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
1.5.4 Encore un calcul ! . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
1.5.5 Marche aleatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
1.5.6 *Somme et produit aleatoires . . . . . . . . . . . . . . . . . . . . . 31
1.5.7 *Une formule generique . . . . . . . . . . . . . . . . . . . . . . . . . 31
1.5.8 A propos de linegalite de Jensen . . . . . . . . . . . . . . . . . . . 31
1.5.9 Esperance conditionnelle et meilleure approximation T
n
-mesurable
de X . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
1.5.10 *Coherence des dierentes denitions / de la caracterisation . . . . 32
2 Martingales 34
2.1 Exemple fondateur : un joueur au casino . . . . . . . . . . . . . . . . . . . 34
2.2 Temps darret . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.2.1 Information T
n
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
1
TABLE DES MATI
`
ERES 2
2.2.2 Temps darret . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.3 Martingales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.3.1 Denition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.3.2 Theor`eme darret . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.4.1 Une autre formulation de la propriete de martingale . . . . . . . . . 45
2.4.2 Pour sentraner ! . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.4.3 Deux formules utiles . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.4.4 Temps datteinte dune barri`ere . . . . . . . . . . . . . . . . . . . . 45
2.4.5 La pi`ece truquee . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
2.4.6 Decomposition de Doob . . . . . . . . . . . . . . . . . . . . . . . . 46
2.4.7 *Genealogie de Galton-Watson . . . . . . . . . . . . . . . . . . . . 46
2.4.8 *Premi`ere inegalite maximale (Doob) . . . . . . . . . . . . . . . . . 48
2.4.9 *Seconde inegalite maximale (Doob) . . . . . . . . . . . . . . . . . 48
2.4.10 *Identite de Wald . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
2.4.11 *Martingales de carre integrable . . . . . . . . . . . . . . . . . . . . 49
3 Marche Bond-Stock 50
3.1 Le marche Bond-Stock (ou marche B-S) . . . . . . . . . . . . . . . . . . . 50
3.1.1

Evolution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.1.2 Probabilites risque-neutre . . . . . . . . . . . . . . . . . . . . . . . 52
3.1.3 Portefeuilles autonances . . . . . . . . . . . . . . . . . . . . . . . . 54
3.2 Arbitrage et martingales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
3.3 Completude du marche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
3.4 Le lemme de Girsanov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
3.5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
3.5.1 Variation dun portefeuille autonance . . . . . . . . . . . . . . . . 59
3.5.2 Valeur reactualisee dun portefeuille autonance . . . . . . . . . . . 59
3.5.3 Valeur reactualisee dun portefeuille autonance (bis) . . . . . . . . 59
3.5.4 *Changement de probabilite : le lemme de Girsanov . . . . . . . . . 60
3.5.5 Determination dune probabilite risque-neutre . . . . . . . . . . . . 60
4 Couverture des options europeennes 62
4.1 Position du probl`eme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
4.2 Prix dune option dans un marche complet . . . . . . . . . . . . . . . . . . 63
4.3 Et dans un marche incomplet ? . . . . . . . . . . . . . . . . . . . . . . . . 64
4.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
4.4.1 Un calcul de prix doption . . . . . . . . . . . . . . . . . . . . . . . 65
4.4.2 Un autre calcul de prix doption . . . . . . . . . . . . . . . . . . . . 65
4.4.3 Relation Call-Put . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
4.4.4 Mod`ele binomial de Cox-Ross-Rubinstein . . . . . . . . . . . . . . . 66
4.4.5 *Mod`eles de Black-Scholes et Merton (non corrige) . . . . . . . . . 67
4.4.6 Probl`eme : Option Margrabe . . . . . . . . . . . . . . . . . . . . . . 68
TABLE DES MATI
`
ERES 3
5 Couverture des options americaines 70
5.1 Problematique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
5.2 Prix dune option americaine . . . . . . . . . . . . . . . . . . . . . . . . . . 71
5.3 Le principe de programmation dynamique . . . . . . . . . . . . . . . . . . 72
5.4 Decomposition de Doob . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
5.5 Preuve du Theor`eme 5.1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
5.6 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
5.6.1 Evaluation dun prix doption sans programmation dynamique . . . 75
5.6.2 Calcul du prix dun call americain . . . . . . . . . . . . . . . . . . . 76
5.6.3 Option russe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
5.6.4 *Preuve du Principe de Programmation Dynamique . . . . . . . . . 77
6 Mouvement brownien 78
6.1 Processus en temps continu . . . . . . . . . . . . . . . . . . . . . . . . . . 78
6.2 Mouvement brownien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
6.2.1 Loi Gaussienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
6.2.2 Denition du mouvement brownien . . . . . . . . . . . . . . . . . . 79
6.2.3 Proprietes du mouvement brownien . . . . . . . . . . . . . . . . . . 80
6.3 Martingales en temps continu . . . . . . . . . . . . . . . . . . . . . . . . . 81
6.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
6.4.1 Proprietes de base . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
6.4.2 Variation quadratique . . . . . . . . . . . . . . . . . . . . . . . . . 82
7 Calcul dIto 83
7.1 Problematique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
7.2 Integrale dIto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
7.3 Processus dIto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
7.4 Formule de Girsanov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
7.4.1 Exponentielle stochastique . . . . . . . . . . . . . . . . . . . . . . . 88
7.4.2 Formule de Girsanov . . . . . . . . . . . . . . . . . . . . . . . . . . 88
7.5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
7.5.1 Avec la formule dIto . . . . . . . . . . . . . . . . . . . . . . . . . . 89
7.5.2 De lexponentielle stochastique . . . . . . . . . . . . . . . . . . . . . 90
7.5.3 Avec Girsanov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
7.5.4 *De la formule de Girsanov . . . . . . . . . . . . . . . . . . . . . . 90
7.5.5 *Fonctions dechelle . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
7.5.6 Formule de Cameron-Martin . . . . . . . . . . . . . . . . . . . . . . 91
8 Mod`ele de Black et Scholes 92
8.1 Mod`ele de Black et Scholes . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
8.1.1

Evolution du marche . . . . . . . . . . . . . . . . . . . . . . . . . . 92
8.1.2 Portefeuille . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
8.1.3 Probabilite risque-neutre . . . . . . . . . . . . . . . . . . . . . . . . 94
TABLE DES MATI
`
ERES 4
8.2 Couverture des options europeennes dans le mod`ele Black-Scholes . . . . . 94
8.3 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
8.3.1 La formule de Black et Scholes . . . . . . . . . . . . . . . . . . . . . 98
8.3.2 Lequation aux derivees partielles de Black et Scholes . . . . . . . . 99
8.3.3 La valeur au temps t du portefeuille

. . . . . . . . . . . . . . . . 99
A Rappels de probabilites 100
A.1

Evenements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
A.2 Variables aleatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
A.3 Convergence de variables aleatoires . . . . . . . . . . . . . . . . . . . . . . 102
B Construction de lintegrale dIto 104
II Les Corriges 108
9 Exercices du Chapitre 1 109
10 Exercices du Chapitre 2 116
11 Exercices du Chapitre 3 126
12 Exercices du Chapitre 4 130
13 Exercices du Chapitre 5 136
14 Exercices du Chapitre 6 140
15 Exercices du Chapitre 7 143
16 Exercices du Chapitre 8 147
Preface
Ce livre est concu comme une premi`ere introduction aux raisonnements et aux outils
mathematiques utilises en nance pour levaluation et la couverture des produits derives.
Tant par son style que par son contenu, il sadresse `a un lecteur utilisateur doutils
mathematiques plutot que mathematicien. Les publics vises sont les el`eves des grandes
ecoles et les etudiants en master MASS, nance ou ingenierie mathematique. Cependant,
il interessera aussi les etudiants en mathematiques ou en economie soucieux delargir leur
champ de connaissances.
La theorie de la couverture des produits derives en nance est basee sur des outils mathe-
matiques sophistiques : processus stochastiques, calcul dIto, etc. Toute introduction `a
cette theorie se trouve confrontee au dilemme soit dexposer rigoureusement la theorie en
sadressant (exclusivement) `a des mathematiciens, soit de sadresser au plus grand nombre
en esquivant les mathematiques sous-jacentes. Cet ouvrage, accessible `a toute personne
ayant suivi un cours de base en probabilites, propose une introduction conjointe `a la theorie
de la couverture des produits derives et aux mathematiques sur lesquels elle est fondee.
Il est concu comme un cours de mathematiques pour la nance : il ne vise donc pas `a
construire une structure parfaitement rigoureuse et coherente, mais plutot `a familiariser le
lecteur avec divers outils mathematiques utilises en nance. Lobjectif est dapprendre `a
mener `a terme un calcul impliquant des martingales ou le calcul dIto, plutot que dexposer
la subtile theorie de ces objets. Ce point de vue nous a conduit `a donner une presentation
intuitive et simpliee de certaines notions (mesurabilite, integrale dIto) quitte `a sacrier
un peu de rigueur `a la clarte dexposition. Cependant, tous les resultats enonces sont exacts
et par soucis de completude, les conditions techniques qui assurent leur validite (telles que
mesurable ou integrable) sont indiquees entre parenth`eses, dans une police de caract`eres
de taille reduite.
Lintegralite du livre est basee sur les cours de Calcul stochastique pour la nance donnes
dans le cadre des masters MASS et mathematiques appliquees de luniversite de Nice -
Sophia Antipolis ainsi que du master IMAMIS de U.P. Manila. Apr`es une br`eve intro-
duction aux produits derives et `a la problematique du cours, les deux premiers chapitres
presentent deux concepts importants en mathematiques nanci`eres : lesperance condi-
tionnelle et les martingales. Les trois chapitres suivants traitent de levaluation et de la
couverture doptions dans des mod`eles probabilistes discrets. Les chapitres 6 et 7 sont
consacres au mouvement brownien et au calcul dIto qui permettent danalyser le mod`ele
de Black et Scholes aborde au chapitre 8. La mise en pratique etant indispensable `a las-
5
TABLE DES MATI
`
ERES 6
similation dun cours, chaque chapitre se conclut par une serie dexercices. Ceux `a visee
un peu plus theorique ou necessitant un peu plus daisance en mathematiques sont reperes
par une etoile *. Vous trouverez les corriges de chaque exercice `a la n de louvrage, classes
par chapitre. Au risque de radoter des banalites, nous rappelons que lire le corrige dun
exercice sans lavoir cherche un certain temps / tente dierentes solutions / ecrit des for-
mules (erronees ou non), ne sert `a peu pr`es `a rien. Mieux vaut chercher un seul exercice
que de lire tous les corriges. Il nous semble que commettre des erreurs, puis les comprendre
est une etape primordiale de lapprentissage.
Concu comme une premi`ere introduction aux mathematiques nanci`eres, ce livre ne re-
quiert comme prerequis quun cours de base en probabilites (de niveau universitaire). Pour
assister le lecteur, lannexe A fournit un rappel des principaux resultats qui lui seront utiles.
La contrepartie de la simplicite de ce cours est son insusance pour devenir specialiste
en mathematiques nanci`eres. La lecture du petit livre de Chabardes & Delcaux [2] ou
du gros tome (classique) de Hull [4] vous permettra den apprendre bien plus sur les pro-
duits derives. Pour parfaire votre apprentissage du calcul stochastique, vous pouvez vous
tourner vers louvrage tr`es pedagogique dOksendal [8] ou aborder ceux (beaucoup plus
complets et ardus) de Karatzas & Shreve [5] ou de Revuz & Yor [10]. Enn, pour appro-
fondir vos connaissance en mathematiques nanci`eres, le cours de Lamberton & Lapeyre [6]
est incontournable, ainsi que lexcellent ouvrage de Demange & Rocher [3].
Ce livre a ete en partie redige alors que jetais invite `a HEC Montreal. Je tiens `a remercier
tr`es chaleureusement le departement de mathematiques et en particulier Bruno Remillard
pour leur accueil. Je souhaite aussi remercier Philippe Dumont pour mavoir transmis une
partie de ses notes de cours et Nicolas Rousseau pour ses commentaires et mavoir encourage
`a rediger cet ouvrage. Enn, mes plus profonds remerciements vont `a Dominique Charland
pour son soutien, sa patience et ses illustrations.
Premi`ere partie
Le Cours
7
Chapitre 0
Introduction
Lobjet de ce cours est de presenter les outils mathematiques de bases utilises pour levaluation
et la couverture des produits derives. Les deux premiers chapitres introduisent deux concepts
fondamentaux pour la suite : lesperance conditionnelle et les martingales. Les trois cha-
pitres suivants sont consacres `a la couverture et la determination du prix dune option dans
des mod`eles discrets. Enn, les chapitres 6 et 7 apportent les outils probabilistes necessaires
(mouvement brownien, calcul dIto) `a letude du mod`ele de Black et Scholes (Chapitre 8).

Dans ce chapitre introductif, vous trouverez une br`eve description de quelques produits
derives (option dachat europeenne, americaine, etc), une presentation de la problematique
du cours et une initiation aux methodes des mathematiques nanci`eres sur un exemple
tr`es simple : le mod`ele `a un pas - deux etats
0.1 Les produits derives
Pour mieux comprendre lobjet de ce cours, commencons par une presentation schematique
des produits nanciers. On distingue les produits derives, des titres de base.
Les titres de base : ce sont des titres
1
tels que les actions
2
(shares / stock) ou les obli-
gations
3
(bond).
1
Instrument negociable, cote ou susceptible de letre, representant selon le cas une part du capital social
de lemetteur (action ou part), une part dun emprunt `a long terme emis par une societe ou une collectivite
publique (obligation), un droit de souscrire une valeur de lemetteur (bon ou droit de souscription), ou
encore une option ou un contrat `a terme negociable sur une marchandise, sur une valeur ou sur un autre
instrument nancier (Source : grand dictionnaire terminologique).
2
Titre cessible et negociable, nominatif ou au porteur, representant une participation au capital social
dune societe par actions, auquel sont attaches dierents droits denis dans la legislation ou les statuts de
la societe (Source : grand dictionnaire terminologique).
3
Titre demprunt collectif remis par une societe ou une collectivite publique `a ceux qui lui pretent des
capitaux pour repondre `a une demande demprunt `a long terme (Source : grand dictionnaire terminolo-
gique).
8
CHAPITRE 0. INTRODUCTION 9
Les produits derives : ce sont aussi des titres, mais ils ont la particularite que leur va-
leur depend du cours dun titre de base
4
, appele actif sous-jacent ou simplement sous-
jacent. Les produits derives sont des produits dassurance qui permettent de reduire
ou deliminer certains risques nanciers (lies aux uctuations des taux de change, aux
uctuations du cours des mati`eres premi`eres, etc), mais qui peuvent aussi etre utilises `a
des ns speculatives.
Citons deux marches importants en France o` u se negocient des produits derives : le MATIF
(Marche `a Terme International de France) et le MONEP (Marche des Options Negociables
de Paris).
Exemples de produits derives
Certains agents nanciers ou industriels peuvent souhaiter transferer certains risques -
nanciers, soit par choix commercial, soit parce quils nentrent pas dans le cadre de leurs
competences, soit parce quil est moins co uteux de les faire supporter par un intermediaire
specialise.
Exemples :
1. Une societe aeronautique europeenne tient sa comptabilite en euros et signe ses
contrats en dollars, payables `a la livraison. Entre la signature du contrat et la li-
vraison le taux de change euro/dollar va uctuer. Lentreprise est donc soumise `a un
risque de change. Si elle ne souhaite pas lassumer, elle va chercher sur le marche des
changes `a le faire supporter par une societe specialisee.
2. Le cours du cuivre est tr`es uctuant. Une mine de cuivre souhaite se premunir contre
ces variations de cours. Elle va chercher un contrat qui lui permettra `a une certaine
echeance de vendre son cuivre `a un prix minimal K. Ce contrat sappelle une option
de vente (voir ci-dessous).
Pour eliminer ce type de risque, les produits nanciers usuels sont les options dachat et
de vente. Ce sont des produits derives classiques.
Denition - Option dachat europeenne - (european call)
Contrat qui donne `a son detenteur (ou acheteur) le droit mais non lobligation dacheter
un actif (tel quune action, un baril de petrole, etc) `a une date N (lecheance) au prix
K, dit prix dexercice (strike), xe `a lavance. Ce contrat a un prix C (la prime).
Si on note S
n
le cours de lactif sous-jacent au temps n, il peut se produire deux cas de
gure `a lecheance N :
4
tel que le cours dune action, le prix dune marchandise, un cours de change, un indice de prix, etc
CHAPITRE 0. INTRODUCTION 10
gain/perte lchance
S
N
C
K
Fig. 1 Gain/perte dun acheteur dune option dachat europeenne
soit S
N
< K : le detenteur (ou acheteur) de loption a le droit dacheter au prix K un
actif quil pourrait acheter moins cher sur le marche. Ce droit na aucun interet. Il ne
lexerce donc pas et il ne se passe rien.
soit S
N
K : le detenteur de loption dachat peut acheter lactif moins cher que sur
le marche, ce quil fait. Le vendeur de loption doit donc acheter lactif au prix S
N
et le
revendre au prix K `a lacheteur. Cela revient `a payer S
N
K au detenteur de loption
dachat.
En conclusion : au temps n = 0 lacheteur paie C au vendeur de loption dachat. Au temps
N, il recoit le maximum de S
N
K et 0, note (S
N
K)
+
. La Figure 1 represente le gain
(ou la perte) nal du detenteur dune option dachat europeenne en fonction de la valeur
S
N
de lactif sous-jacent `a lecheance.

On appelle fonction de paiement (payo ) la quantite dargent que recoit le detenteur dune
option `a lecheance. Dans le cas dune option dachat europeenne, la fonction de paiement
est f = (S
N
K)
+
.
Denition - Option de vente europeenne - (european put)
Contrat qui donne `a son detenteur le droit mais non lobligation de vendre un actif `a
une date N (lecheance) au prix K xe `a lavance. Ce contrat a un prix C. Dans ce cas
la fonction de paiement est f = (K S
N
)
+
.
La Figure 2 trace le gain nal du detenteur dune option de vente europeenne en fonction
de la valeur S
N
de lactif sous-jacent `a lecheance.
CHAPITRE 0. INTRODUCTION 11
gain/perte lchance
S
N
C
K
Fig. 2 Gain/perte dun acheteur dune option de vente europeenne
Denition - Option dachat (resp. vente) americaine - (american call / put)
Contrat qui donne `a son detenteur le droit mais non lobligation dacheter (resp. vendre)
un actif `a nimporte quelle date avant la date N (lecheance) au prix K xe `a lavance.
Ce contrat a un prix C.
Il existe bien dautres types doptions, appelees options exotiques. Par exemple loption
dachat Collar a pour fonction de paiement f = min(max(K
1
, S
N
), K
2
), celle de Boston
f = (S
N
K
1
)
+
(K
2
K
1
), avec K
1
< K
2
, etc. Nous recommandons au lecteur desireux
de mieux connatre les produits derives, le petit livre de Chabardes et Delcaux [2] ou le
gros tome de Hull [4].

Remarque : Nous avons souligne lusage des options comme produit dassurance. Elles
peuvent aussi etre utilisees comme produit de speculation `a fort potentiel, mais aussi `a
fort risque. Voyons cela sur un exemple. Une action S cote aujourdhui 100 Euros. Vous
pressentez une hausse du cours de cette action dans le mois `a venir et vous avez 1500 Euros
`a investir.
Une premi`ere possibilite est dacheter 15 actions. Si dans un mois le cours est passe `a
110 Euros (comme vous laviez anticipe), vous avez gagne 15 (110 100) = 150 Euros.
A contrario, si le cours passe `a 90 Euros, vous avez perdu 150 Euros.
Une alternative est dinvestir dans des options dachat europeennes plutot que dans des
actions. Supposons quune option dachat europeenne dun mois et de prix dexercice 95
co ute 7.5 Euros (voir lexercice `a la n du chapitre). Vous pouvez acheter 200 options
avec vos 1500 Euros. Si le cours passe `a 110 Euros, vous exercez votre droit et perce-
vez 200 (110 95) = 3000 Euros, do` u un benece de 3000 1500 = 1500 Euros. Par
contre, si le cours passe `a 90 Euros, vous ne percevez rien et vous avez perdu vos 1500 Eu-
CHAPITRE 0. INTRODUCTION 12
ros investis. Pour un usage speculatif, les produits derives permettent donc daugmenter
substantiellement les gains potentiels mais aussi les pertes par un eet de levier.
0.2 Lobjet des mathematiques nanci`eres
Linstitution (une banque) qui vend des produits derives est confrontee `a deux questions :
1. Quel est le prix equitable C dun produit derive ? cest le probl`eme du calcul du
prix du produit derive (la prime).
2. Comment gerer la prime recue (au temps 0) de telle sorte qu`a lecheance N linsti-
tution puisse faire face `a son engagement (cest `a dire verser la fonction de paiement
f au client) ? Cest le probl`eme de la couverture du produit derive.
Lobjet essentiel des mathematiques nanci`eres est de repondre `a ses deux questions. Nous
soulignons en particulier que le probl`eme est bien comment gerer les produits derives ?
et non pas comment speculer sur les marches nanciers ?.
Pour repondre `a ces deux questions, la premi`ere etape consiste `a modeliser les marches.
Lavenir etant incertain, ces mod`eles sont de type probabilistes. En eet, le cours du sous-
jacent dun produit derive uctue aleatoirement au cours du temps ; il sera modelise par
un processus stochastique
5
. Par exemple, le cel`ebre mod`ele de Black et Scholes
6
decrit
levolution de lactif sous-jacent par un mouvement brownien geometrique (voir le Chapitre
8). Une fois le marche modelise, il faut repondre aux deux questions precedentes. Plus le
mod`ele est complexe, plus son analyse est dicile. Dans ce cours, nous considererons deux
mod`eles simples de marche : le mod`ele discret et le mod`ele de Black et Scholes. Nous verrons
comment calculer le prix dune option et la couvrir sous diverses hypoth`eses simplicatrices,
telles que
labsence de co uts de transaction (pour lachat ou la vente dun titre),
labsence de dividende sur les titres,
la possibilite demprunt illimite,
lexistence dacheteurs et de vendeurs pour toute quantite et tout type de produits
nanciers (marche liquide).
Les outils mathematiques utilises seront les martingales introduites au Chapitre 2 et le
calcul dIt o, presente au Chapitre 7.
0.3 Principe de la couverture des produits derives
Le principe de la couverture du risque des produits derives di`ere fondamentalement de
celui de la couverture du risque dune assurance classique (contre le vol, le feu, etc).
Pour faire face `a ses obligations, un assureur classique vend beaucoup de contrats et compte
sur le fait que la probabilite quun trop grand nombre de sinistres aient lieu simultanement
5
On appelle processus stochastique une valeur qui evolue aleatoirement au cours du temps
6
prix Nobel deconomie en 1997 avec Merton.
CHAPITRE 0. INTRODUCTION 13
est susamment faible. Cette strategie de couverture du risque, sappelle couverture du
risque par diversication.
Une telle strategie de couverture nest pas adequate pour les produits derives (entre autre
`a cause de la forte correlation entre les cours des dierents produits nanciers). La banque
doit donc eliminer le risque sur un seul contrat. Le principe est le suivant. Considerons une
option dachat europeenne. La banque va utiliser la prime C ainsi quun emprunt pour
acheter un peu de sous-jacent S. On dit quelle se constitue un portefeuille. Au cours du
temps, elle va faire varier la quantite de sous-jacent dans son portefeuille, de telle sorte
qu`a lecheance elle dispose dune richesse (S
N
K)
+
.
Dans lexemple suivant, nous mettons en oeuvre ce principe dans le mod`ele le plus simple
possible : le mod`ele `a un pas - deux etats. Nous mettons `a prot cet exemple pour introduire
de facon elementaire les methodes qui seront developpees par la suite pour des mod`eles
plus complexes.
0.4 Mod`ele `a un pas - deux etats
Dans ce mod`ele on suppose quil ny a que deux dates, aujourdhui et lecheance (N = 1),
et que le cours S
N
de lactif S `a lecheance ne peut prendre que deux valeurs S
+
ou S

.
On note S
0
le cours de lactif S aujourdhui. Outre la possibilite dinvestir sur lactif S, un
agent nancier peut aussi emprunter ou placer de largent au taux r.
On veut calculer le prix et la couverture dune option decheance N et de fonction de
paiement f de la forme f = g(S
N
) (sil sagit dune option dachat europeenne g(x) =
(x K)
+
). Pour faire face `a son engagement, le vendeur de loption va investir sur le
marche nancier. Il va acheter une quantite (`a determiner) dactif S, et aussi unites
monetaires : si est negatif, cela correspond `a un emprunt au taux r, si est positif,
cela correspond `a un placement remunere au (meme) taux r. On dit que le vendeur de
loption se constitue un portefeuille = (, ), compose de unites monetaires et
actifs S. La valeur de son portefeuille aujourdhui est X
0
= + S
0
. Demain, elle sera
X
N
= (1 +r)
N
+S
N
(on rappelle que N = 1 dans ce paragraphe).
Pour que le vendeur puisse honorer son contrat, il faut que la valeur de son portefeuille au
temps N soit superieure `a la fonction de paiement, cest-`a-dire :
X
N
g(S
N
).
Imaginons que dans le cas S
N
= S
+
ou S
N
= S

, la valeur du portefeuille soit strictement


superieure ` a la valeur de la fonction de paiement g(S
N
). Alors le vendeur aurait lopportu-
nite de gagner de largent avec une probabilite strictement positive, sans prendre de risque.
Une telle opportunite, sappelle une opportunite darbitrage en nance. On consid`ere que
cela est impossible (marche equilibre) ; on dit que lon fait lhypoth`ese dabsence doppor-
tunite darbitrage. En consequence, on doit avoir X
N
= g(S
N
), donc (, ) est lunique
CHAPITRE 0. INTRODUCTION 14
solution du syst`eme dequations
_
(1 +r)
N
+S
+
= g(S
+
)
(1 +r)
N
+S

= g(S

).
Cette solution est donnee par
=
g(S
+
) g(S

)
S
+
S

(1)
et
= (1 +r)
N
g(S

)S
+
g(S
+
)S

S
+
S

.
La formule (1) est communement appelee formule du delta de couverture. Le portefeuille
ainsi constitue par le vendeur, a une valeur initiale X
0
= +S
0
. Cette valeur correspond
au co ut du contrat. Le prix equitable C de loption (la prime) sera donc C = +S
0
.

En resume : au temps t = 0, lacheteur verse C = +S


0
au vendeur. Avec cette prime,
le vendeur se constitue un portefeuille compose de actifs S et unites monetaires.
Au temps N, soit lactif vaut S
+
, et alors le vendeur verse g(S
+
) `a lacheteur, soit lactif
vaut S

, auquel cas le vendeur verse g(S

) `a lacheteur.
Exercice : Determinez le prix dune option dachat europeenne et son portefeuille
de couverture (, ), lorsque S
0
= 100, K = 95, r = 0, S
+
= 110 et S

= 90 (corrige
`a la n du chapitre).
Remarque fondamentale : Le prix de loption que lon vient de calculer, ainsi que la
composition (, ) du portefeuille de couverture ne dependent pas de la probabilite que
lactif S prenne la valeur S
+
ou S

!?!
Pourquoi ?
Car on a cherche `a se couvrir dans tous les cas et non pas en moyenne. Si on veut etre
couvert dans tous les cas, peu importe que la probabilite de hausse soit superieure ou non
`a celle de baisse, puisque notre couverture doit marcher dans les deux cas. Nous navons
donc eectue aucun raisonnement de type probabiliste (`a la dierence de la couverture par
diversication).
Cependant, on peut interpreter le prix de loption comme lesperance de gain de son ache-
teur, non pas sous la probabilite reelle (dont on a vu quelle nintervenait pas), mais sous
une autre probabilite (articielle) appelee probabilite risque-neutre. Cette remarque est la
clef de vo ute des methodes de couverture doptions developpees par la suite.
CHAPITRE 0. INTRODUCTION 15
Examinons cela de plus pr`es dans le cas dune option dachat europeenne. Notons P

la
probabilite, dite risque-neutre, denie par
P

(S
N
= S
+
) = p

:=
(1 +r)
N
S
0
S

S
+
S

et P

(S
N
= S

) = 1 p

=
S
+
(1 +r)
N
S
0
S
+
S

.
Pour que P

soit bien une probabilite, on supposera que S

< S
0
(1 + r)
N
< S
+
(cette
condition correspond `a une condition dabsence dopportunite darbitrage). La probabilite
P

a ete choisie de telle sorte que S


0
= E

_
(1 +r)
N
S
N

. En eet,
E

_
(1 +r)
N
S
N

= (1 +r)
N
S
+
p

+ (1 +r)
N
S

(1 p

)
=
(1 +r)
N
S
+
((1 +r)
N
S
0
S

) + (1 +r)
N
S

(S
+
(1 +r)
N
S
0
)
S
+
S

= S
0
.
On appelle valeur reactualisee de S
n
la quantite (1 + r)
n
S
n
. Elle correspond au nombre
dunites monetaires quil est possible dacheter avec un actif S au temps n. La probabilite
P

a donc ete choisie de telle sorte que levolution de la valeur reactualisee de lactif S nait
pas de tendance `a la hausse ou `a la baisse en moyenne. Nous generaliserons cette approche
ulterieurement par la theorie des martingales.
Relions le prix C de loption `a la probabilite P

. Pour une option dachat europeenne, la


fonction de paiement est g(S
N
) = (S
N
K)
+
. Si S

< K < S
+
on a g(S
+
) = S
+
K et
g(S

) = 0, donc le prix de loption est


C = +S
0
= (1 +r)
N
(S
+
K)S

S
+
S

+
S
+
K
S
+
S

S
0
=
(S
+
K)(S
0
(1 +r)
N
S

)
S
+
S

.
(2)
Calculons maintenant la valeur moyenne de la fonction de paiement reactualisee (1 +
r)
N
(S
N
K)
+
sous la probabilite P

_
(1 +r)
N
(S
N
K)
+

= p

(1 +r)
N
(S
+
K) =
(S
+
K)(S
0
(1 +r)
N
S

)
S
+
S

. (3)
En comparant (2) et (3), on voit que le prix C de loption est egal `a la valeur moyenne
sous la probabilite risque-neutre P

de la fonction de paiement reactualisee :


C = E

_
(1 +r)
N
(S
N
K)
+

.
Nous generaliserons cette formule dans les chapitres 4, 5 et 8.

CHAPITRE 0. INTRODUCTION 16
Corrige de lexercice
On a
C =
(S
+
K)(S
0
(1 +r)
N
S

)
S
+
S

= 15 10/20 = 7.5
=
S
+
K
S
+
S

= 15/20 = 0.75
=
(S
+
K)S

S
+
S

= 15 90/20 = 67.5
La valeur de est negative, cela correspond `a un emprunt. En resume, la banque touche la prime
de 7.5 et emprunte 67.5. Avec ces 7.5 + 67.5 = 75 elle ach`ete 0.75 actif S.
A lecheance :
Si S
N
= S
+
= 110. La banque vend son 0.75 actif S ce qui lui rapporte 0.75110 = 82.5. Avec
cet argent, elle rembourse son emprunt de 67.5. Elle dispose donc de 82.5 67.5 = 15, ce qui
est exactement la somme necessaire pour verser 110 95 = 15 `a lacheteur.
Si S
N
= S

= 90. En vendant son 0.75 actif S, la banque recup`ere 0.75 90 = 67.5 ce qui
lui permet de rembourser son emprunt. Elle ne doit rien `a lacheteur (le prix du marche est
inferieur au prix dexercice).
Chapitre 1
Esperance conditionnelle
Objectif : Lobjectif de ce chapitre est de formaliser la notion desperance conditionnelle,
sachant une information 1.

Lesperance conditionnelle dune variable aleatoire X sachant une information 1 est la va-
leur moyenne attendue pour X lorsque lon connait linformation 1. Par exemple, lancons
deux des `a 6 faces et regardons la somme S des deux valeurs obtenues. Notons X
1
la valeur
obtenue avec le premier de et X
2
celle obtenue avec le second de, ainsi S = X
1
+X
2
. Avant
de lancer le premier de, on ne dispose daucune information sur S, donc la valeur moyenne
attendue pour S est simplement
E(S) = E(X
1
) +E(X
2
) = 7.
Apr`es le lancer du premier de, on connait la valeur de X
1
. Avec cette information, on
sattend `a avoir en moyenne pour S
X
1
+E(X
2
) = X
1
+ 7/2.
Cette derni`ere quantite est ce que lon appelle lesperance conditionnelle de S sachant X
1
,
elle est notee E(S [ X
1
). Lobjet de ce chapitre est de formaliser cette notion et de fournir
les outils qui permettent de calculer les esperances conditionnelles.
Nous allons commencer par quelques rappels sur le conditionnement par un evenement,
avant de denir lesperance conditionnelle dans les cadres discret et `a densite. Ensuite
nous donnerons une caracterisation de lesperance conditionnelle, puis les proprietes qui
permettent de calculer cette quantite ecacement.

Notations : Dans ce chapitre et les suivants represente lunivers des possibles, T designe
lensemble de tous les evenements possibles et P(A) est la probabilite quun evenement
A T ait lieu.
17
CHAPITRE 1. ESP

ERANCE CONDITIONNELLE 18
1.1 Conditionnement par rapport `a un evenement
Nous rappelons dans ce paragraphe la notion de conditionnement par rapport `a un evenement.
Rappel : Soit B un evenement de probabilite P(B) > 0. La probabilite conditionnelle
dun evenement A sachant levenement B est
P(A [ B) :=
P(A B)
P(B)
.
Cette quantite represente la probabilite que levenement Aait lieu, sachant que levenement
B a lieu.
Remarque : Si levenement A est independant
1
de levenement B alors
P(A [ B) :=
P(A B)
P(B)
=
P(A)P(B)
P(B)
= P(A).
Cette egalite traduit que la realisation de levenement B napporte pas dinformation sur
la probabilite que se realise levenement A.

Soit X : A une variable aleatoire `a valeurs dans un sous-ensemble ni A =


x
1
, . . . , x
m
de R.
`
A partir de P( [ B) on peut denir lesperance conditionnelle de X
sachant levenement B par
E(X [ B) :=

xX
x P(X = x [ B). (1.1)
Cette quantite est un nombre reel. Elle represente la valeur moyenne attendue pour X
sachant que levenement B a lieu.
Exemples :
1. lancons un de `a 6 faces, et notons X la valeur prise par ce de. Si B est levenement
X est superieur ou egal `a trois, alors la valeur moyenne attendue pour X sachant
B est E(X [ B) =

6
i=1
i P(X = i [ B). Comme P(B) = 2/3, il vient
P(X = i [ B) =
3
2
P(X = i B)
=
_
0 si i = 1 ou 2
3/2 1/6 = 1/4 sinon.
Finalement, E(X [ B) =
1
4
(3 + 4 + 5 + 6) = 9/2.
1
voir lannexe A pour un rappel de cette notion
CHAPITRE 1. ESP

ERANCE CONDITIONNELLE 19
2. Reprenons lexemple de lintroduction de ce chapitre avec les deux des. Considerons
levenement B := X
1
= 5. Comme les evenements X
2
= i 5 et X
1
= 5 sont
independants (car X
1
et X
2
sont independants) on a
P(S = i [ X
1
= 5) = P(X
2
= i 5 [ X
1
= 5) = P(X
2
= i 5).
On en deduit que
P(S = i [ X
1
= 5) =
_
1/6 si i 6, . . . , 11
0 sinon.
Finalement, on obtient
E(S [ X
1
= 5) =
12

i=2
i P(S = i [ X
1
= 5)
= (6 +. . . + 11)/6 = 5 + 7/2.
Plus generalement, pour j 1, . . . , 6 on trouve E(S [ X
1
= j) = j + 7/2.

Dans la suite, nous nallons plus considerer le conditionnement par rapport `a un evenement
mais par rapport `a une ou plusieurs variables aleatoires. Lesperance conditionnelle ne sera
alors plus un nombre reel comme dans ce paragraphe, mais une variable aleatoire. Nous
commencons par le cas le plus simple o` u toutes les variables aleatoires prennent un nombre
ni de valeurs.
1.2 Le cas discret
1.2.1 Conditionnement par rapport `a une variable aleatoire
Commencons par nous forger une intuition de cette notion sur un exemple.
Exemple. Imaginons un jeu en 2 etapes : premi`ere etape on lance un de et on appelle
Z la valeur obtenue. Deuxi`eme etape, on relance Z fois le de et on multiplie entres elles
les Z valeurs obtenues. On appelle X ce produit.
On sait calculer E(X [ Z = 5). Si Z() = 5, on relance 5 fois le de de mani`ere
independante, donc
E(X [ Z = 5) = E(Z
1
Z
5
) = E(Z
1
) E(Z
5
)
o` u Z
1
, . . . , Z
5
sont les 5 valeurs obtenues lors des 5 lancers de de. On trouve nalement
E(X [ Z = 5) = m m = m
5
, o` u m =
1
6
(1 + 2 + 3 + 4 + 5 + 6) = 7/2 est
la valeur moyenne obtenue pour un lancer. Plus generalement, si i 1, . . . , 6, on a
E(X [ Z = i) = m
i
. Autrement dit, lorsquon connait la valeur de Z, on sattend `a avoir
CHAPITRE 1. ESP

ERANCE CONDITIONNELLE 20
en moyenne pour X la valeur m
Z
. Dans ce cas lesperance conditionnelle de X sachant
Z sera
E(X [ Z) := m
Z
.
Lesperance conditionnelle E(X [ Z) est donc une variable aleatoire. Elle est telle que,
si Z() = i, alors E(X [ Z)() = E(X [ Z = i).

Nous allons maintenant generaliser cette notion `a deux variables aleatoires quelconques
X : A et Z : Z, o` u A = x
1
, . . . , x
m
et Z = z
1
, . . . , z
n
sont deux sous-
ensembles nis de R.
Denition - Esperance conditionnelle de X sachant Z -
Lesperance conditionnelle de X sachant Z, notee E(X [ Z), est une variable aleatoire,
denie par
E(X [ Z) : R
h(Z()),
o` u h : Z R est la fonction denie par h(z) = E(X [ Z = z) quel que soit z Z. La
quantite E(X [ Z = z) est celle denie par (1.1) avec B = Z = z.
Attention! E(X [ Z = z) est un nombre reel, mais E(X [ Z) est bien une variable
aleatoire. En eet, E(X [ Z)() depend de car la valeur que prend Z() depend de .
Exemple. Soit Z une variable aleatoire uniforme sur 1, . . . , n (cest-`a-dire telle que
P(Z = i) = 1/n pour i = 1, . . . , n) et une variable aleatoire independante de Z, telle
que P( = 1) = p et P( = 1) = 1 p.
On pose X = Z qui est une variable aleatoire prenant ses valeurs dans n, . . . , n.
Nous allons calculer E(X [ Z). Pour j 1, . . . , n, on a
E(X [ Z = j) =
n

i=n
i P(X = i [ Z = j)
avec P(X = i [ Z = j) = 0 si i / j, j car X = Z. Il reste donc
E(X [ Z = j) = j P(X = j [ Z = j) +j P(X = j [ Z = j)
= j P( = 1 [ Z = j) +j P( = 1 [ Z = j) .
Les variables aleatoires et Z etant independantes, les evenements = 1 et Z = j
le sont aussi, donc
P( = 1 [ Z = j) = P( = 1) = 1 p
CHAPITRE 1. ESP

ERANCE CONDITIONNELLE 21
et de meme P( = 1 [ Z = j) = P( = 1) = p. Finalement, on obtient
E(X [ Z = j) = j(1 p) +jp = j(2p 1)
et E(X [ Z) = (2p 1)Z.
Exo : Veriez que lon peut ecrire E(X [ Z) sous la forme :
E(X [ Z) () =

zZ
1
{Z()=z}
E(X [ Z = z)
=

zZ
1
{Z()=z}
_

xX
x P(X = x [ Z = z)
_
.
1.2.2 Conditionnement par plusieurs variables aleatoires
Considerons n + 1 variables aleatoires
X : A,
Z
1
: Z
1
,
.
.
.
Z
n
: Z
n
.
avec A = x
1
, . . . , x
m
et Z
1
= z
1,1
, . . . , z
k
1
,1
, . . . , Z
n
= z
1,n
, . . . , z
kn,n
des sous-
ensembles nis de R. Nous allons etendre la denition precedente au cas `a plusieurs va-
riables. Pour tout z
1
Z
1
, . . . , z
n
Z
n
, la formule (1.1) donne
E(X [ Z
1
= z
1
, . . . , Z
n
= z
n
) =

xX
x P(X = x [ Z
1
= z
1
, . . . , Z
n
= z
n
) .
Cette quantite est un nombre reel.
Denition - Esperance conditionnelle de X sachant Z
1
, . . . , Z
n
-
On appelle esperance conditionnelle de X sachant Z
1
, . . . , Z
n
la variable aleatoire
E(X [ Z
1
, . . . , Z
n
) denie par
E(X [ Z
1
, . . . , Z
n
) () := h(Z
1
(), . . . , Z
n
()),
o` u h : Z
1
Z
n
R est la fonction `a n variables denie par
h(z
1
, . . . , z
n
) = E(X [ Z
1
= z
1
, . . . , Z
n
= z
n
) , pour tout z
1
Z
1
, . . . , z
n
Z
n
.
En pratique, on nutilise jamais cette formule pour calculer lesperance conditionnelle
E(X [ Z
1
, . . . , Z
n
). Il est en general bien plus ecace dutiliser les proprietes que nous
verrons au paragraphe 1.4.2.
CHAPITRE 1. ESP

ERANCE CONDITIONNELLE 22
1.3 Cadre `a densite
Rappel : Deux variables aleatoires X : R et Z : R, poss`edent une densite
jointe (par rapport `a la mesure de Lebesgue) sil existe une fonction f
(X,Z)
: R R R
+
telle que pour tout domaine (mesurable) T plan,
P
_
(X, Z) T
_
=
_
D
f
(X,Z)
(x, z) dx dz .
Dans ce cas, on retrouve les densites marginales de X et Z par les formules
f
X
(x) =
_
zR
f
(X,Z)
(x, z) dz et f
Z
(z) =
_
xR
f
(X,Z)
(x, z) dx .
Lorsque lon a des variables avec une densite jointe, les probabilites P(X = x) ou P(Z = z)
sont nulles, ce qui pose une diculte pour denir la quantite P(X = x [ Z = z) representant
la probabilite que X = x sachant que Z = z. Pour contourner cette diculte, nous allons
introduire la densite conditionnelle f
X
(x [ Z = z) denie par
f
X
(x [ Z = z) :=
f
(X,Z)
(x, z)
f
Z
(z)
avec la convention 0/0 = 0 et avec f
Z
(z) =
_
xR
f
(X,Z)
(x, z) dx dapr`es le rappel precedent.
Remarquez que seul le terme au numerateur depend de x. Le terme au denominateur est
une constante de normalisation qui assure que
_
xR
f
X
(x [ Z = z) dx = 1 lorsque f
Z
(z) ,= 0.
Comment interpreter cette quantite ? Tout comme la densite f
X
(x) represente la probabi-
lite que la variable aleatoire X appartienne `a un petit voisinage
2
de x, la densite condi-
tionnelle f
X
(x [ Z = z) represente la probabilite que la variable aleatoire X appartienne `a
un petit voisinage de x sachant que Z appartient `a un petit voisinage de z.
2
Voir les rappels en annexe
CHAPITRE 1. ESP

ERANCE CONDITIONNELLE 23
Denition - Esperance conditionnelle avec une densite jointe -
Si X et Z sont deux variables aleatoires reelles (avec X integrable) ayant une densite
jointe f
(X,Z)
, lesperance conditionnelle de X sachant Z est la variable aleatoire
E(X [ Z) : R
h(Z())
o` u h : R R est denie par
h(z) =
_
xR
x f
X
(x [ Z = z) dx .
Il sagit dune version `a espace continu de la formule du 1.2.1.
1.4 Caracterisation et proprietes
Dans cette partie, nous allons donner une caracterisation de lesperance conditionnelle et
surtout les proprietes de celle-ci qui permettent de la calculer en pratique.
1.4.1 Caracterisation
Notons (Z
1
, . . . , Z
n
) linformation donnee par n variables aleatoires Z
1
, . . . , Z
n
. Lorsquil
sera possible de predire la valeur dune variable aleatoire Y `a partir de linformation
(Z
1
, . . . , Z
n
), on dira que Y est (Z
1
, . . . , Z
n
)-mesurable. Donnons une formulation plus
precise de cette notion.
Denition - Variables T
n
-mesurable -
Considerons n + 1 variables aleatoires reelles Y : R, Z
1
: R, . . . , Z
n
: R.
La variable aleatoire Y est dite (Z
1
, . . . , Z
n
)-mesurable sil existe une fonction h : R
n

R (mesurable) telle que Y () = h(Z


1
(), . . . , Z
n
()) pour tout .
Pour abreger les notations, on note souvent T
n
= (Z
1
, . . . , Z
n
) et on dit alors simple-
ment que Y est T
n
-mesurable.
Faisons un petit schema pour illustrer le cas n = 1 : une variable aleatoire Y est dite
(Z)-mesurable sil existe une fonction (mesurable) h : R R telle que Y = h(Z). On
peut representer cela par le diagramme suivant :

Y
R

Z R h
CHAPITRE 1. ESP

ERANCE CONDITIONNELLE 24
De facon moins formelle, une variable aleatoire Y est (Z
1
, . . . , Z
n
)-mesurable lorsque en
connaissant les valeurs de Z
1
(), . . . , Z
n
(), on connait la valeur de Y () (grace ` a la
relation Y () = h(Z
1
(), . . . , Z
n
())).
Exemples. Les variables aleatoires Y suivantes sont (Z
1
, . . . , Z
n
)-mesurables :
- Y = Z
1
+ + Z
n
, car Y () = h(Z
1
(), . . . , Z
n
()) avec h : R R R,
denie par h(z
1
, . . . , z
n
) = z
1
+ +z
n
,
- Y = Z
2
1
, avec h(z
1
, . . . , z
n
) = z
2
1
,
- Y = max(Z
1
, . . . , Z
n
), avec h(z
1
, . . . , z
n
) = max(z
1
, . . . , z
n
),
- Y = Z
1
Z
n1
, avec h(z
1
, . . . , z
n
) = z
1
z
n1
,
- Y =
_
1 si Z
n
= 1
0 sinon.
, avec h(z
1
, . . . , z
n
) =
_
1 si z
n
= 1
0 sinon.
,
- etc.

Jusquici nous avons deni lesperance conditionnelle dans des cas particuliers (cadre dis-
cret, densite jointe) et par des formules. Nous allons maintenant donner une caracterisation
de lesperance conditionnelle qui permet den donner une denition dans tous les cas. Elle
permet aussi parfois de la calculer, voir lexercice 1.5.7.
Caracterisation - Esperance conditionnelle -
Considerons n + 1 variables aleatoires X : R, Z
1
: R, . . . , Z
n
: R (avec X
integrable). Notons T
n
:= (Z
1
, . . . , Z
n
).
Lesperance conditionnelle de X sachant T
n
, notee E(X [ T
n
) (ou bien
E(X [ Z
1
, . . . , Z
n
)), est lunique variable aleatoire veriant les deux conditions :
a) E(X [ T
n
) est T
n
-mesurable,
b) pour toute variable aleatoire T
n
-mesurable (et bornee) Y , legalite
E(E(X [ T
n
) Y ) = E(XY ) a lieu.
En pratique on se sert peu de cette caracterisation. Cependant, retenez bien que
E(X [ T
n
) est toujours T
n
-mesurable.
Les conditions a) et b) peuvent paratre obscures, elles traduisent simplement que lesperance
conditionnelle E(X [ T
n
) est la meilleure approximation que lon peut avoir de X par
une variable aleatoire T
n
-mesurable. Nous encourageons le lecteur desireux de mieux com-
prendre ce point `a travailler lexercice 1.5.9.
Avant denoncer les proprietes de lesperance conditionnelle, trois petites remarques.
CHAPITRE 1. ESP

ERANCE CONDITIONNELLE 25
Remarque 1 : Lorsque X, Z
1
, . . . , Z
n
prennent un nombre ni de valeurs, ou lorsque X
et Z ont une densite jointe, les formules donnees dans les paragraphes precedents verient
bien les proprietes a) et b). Pour vous en convaincre, reportez-vous `a lexercice 1.5.10.
Remarque 2 : On peut reformuler la condition a) par
a) il existe une fonction h (mesurable) telle que E(X [ T
n
) = h(Z
1
, . . . , Z
n
).
De meme on peut reformuler la condition b) par
b) E(E(X [ T
n
) f(Z
1
, . . . , Z
n
)) = E(Xf(Z
1
, . . . , Z
n
)) pour toute fonction f : R
n
R
(mesurable et bornee).
Remarque 3 : Dans la caracterisation de lesperance conditionnelle lunicite est `a com-
prendre dans le sens suivant : toute variable aleatoire veriant les conditions a) et b) est
indiscernable
3
de E(X [ T
n
).
1.4.2 Proprietes
Jusquici nous avons donne des denitions et une caracterisation de lesperance condition-
nelle. Nous allons maintenant voir comment la calculer. Dans la pratique, pour ce calcul,
on nutilise pas les formules des denitions, mais plutot les six proprietes suivantes.
Proprietes fondamentales
Comme precedemment, X, Z
1
, Z
2
, . . . sont des variables aleatoires `a valeurs dans R (avec
X integrable). On note T
n
= (Z
1
, . . . , Z
n
).
P1. E(E(X [ T
n
)) = E(X).
P2. Si X est T
n
-mesurable, alors E(X [ T
n
) = X.
P3. Si X est independante de Z
1
, . . . , Z
n
alors E(X [ T
n
) = E(X).
P4. Si a, b R, alors E(aX +bY [ T
n
) = a E(X [ T
n
) +b E(Y [ T
n
).
P5. Si Y est T
n
-mesurable alors E(Y X [ T
n
) = Y E(X [ T
n
).
P6. Pour tout p N, on a E
_
E(X [ T
n+p
) [ T
n
_
= E(X [ T
n
).
Donnons une interpretation intuitive de certaines de ces proprietes. Rappelons que la va-
riable aleatoire E(X [ T
n
) est la meilleure approximation possible de X par une variable
aleatoire T
n
-mesurable.
P2. si X est T
n
-mesurable, la meilleure approximation T
n
-mesurable de X est . . . X
elle-meme !
P3. si X est independante
4
de Z
1
, . . . , Z
n
, alors ces derni`eres variables aleatoires nap-
portent pas dinformation sur X. En consequence, la valeur moyenne attendue pour
X sachant T
n
est simplement la valeur moyenne attendue pour X, cest `a dire E(X).
Remarquez que dans ce cas, lesperance conditionnelle E(X [ T
n
) nest pas aleatoire.
3
voir lAnnexe A pour un rappel de cette notion.
4
dans ce cas, on dit aussi que X est independante de T
n
.
CHAPITRE 1. ESP

ERANCE CONDITIONNELLE 26
P6. Rappelons que E(X [ T
n+p
) est la meilleure approximation possible de X qui soit
T
n+p
-mesurable. La propriete P6 traduit que la meilleure approximation de cette
quantite par une variable T
n
-mesurable est simplement E(X [ T
n
).
Remarque importante : Une variable aleatoire Y est T
n
-mesurable sil existe une
fonction h telle que Y = h(Z
1
, . . . , Z
n
). Posons maintenant

h : R
n+p
R
(z
1
, . . . , z
n
, . . . , z
n+p
) h(z
1
, . . . , z
n
).
On a Y =

h(Z
1
, . . . , Z
n+p
), donc Y est aussi T
n+p
-mesurable. Conclusion :
Toute variable aleatoire T
n
-mesurable est aussi T
n+p
-mesurable.
La reciproque etant fausse. Une consequence importante est la formule suivante
E
_
E(X [ T
n
) [ T
n+p
_
= E(X [ T
n
) , pour tout p N.
Cette derni`ere formule sobtient facilement grace `a la propriete P2 : la variable aleatoire
E(X [ T
n
) est T
n
-mesurable donc T
n+p
-mesurable, do` u E
_
E(X [ T
n
) [ T
n+p
_
P2
= E(X [ T
n
).

Preuve: (de certaines proprietes fondamentales)


P1. Notons Y la variable aleatoire constante egale `a 1, cest `a dire Y () = 1 pour tout . La
variable aleatoire Y est T
n
-mesurable car Y = h(Z
1
, . . . , Z
n
), o` u h(z
1
, . . . , z
n
) = 1. La condition
b) de la caracterisation de lesperance conditionnelle donne E(E(X [ T
n
) Y ) = E(XY ), et comme
Y = 1, on a E(E(X [ T
n
)) = E(X).
P2. La variable aleatoire X verie la condition a) par hypoth`ese. Pour tout Y qui est T
n
-
mesurable, on a E(XY ) = E(XY ), donc X verie aussi la condition b). La variable aleatoire X
concide donc avec E(X [ T
n
).
P6. Posons W = E(X [ T
n+p
) et V = E(W [ T
n
). Nous allons verier que V verie les deux
conditions a) et b) de la caracterisation de lesperance conditionnelle. Dej`a, comme V est lesperance
conditionnelle de W sachant T
n
, elle est T
n
-mesurable. Elle verie donc la condition a).
Regardons maintenant la condition b). Comme W est une esperance conditionnelle, pour toute
variable aleatoire T
n
-mesurable Y on a
E(Y V ) = E(Y E(W [ T
n
))
condition b)
= E(Y W) = E(Y E(X [ T
n+p
)) ,
la derni`ere egalite venant de la denition meme de W. Or Y est T
n
-mesurable, donc elle est T
n+p
-
mesurable (voir lencadre precedent), et E(Y E(X [ T
n+p
))
P5
= E
_
E(Y X [ T
n+p
)
_
P1
= E(Y X). En
consequence, E(Y V ) = E(Y X) donc V verie aussi la condition b). Finalement, on a V = E(X [
T
n
) ce qui est exactement la propriete P6. 2
CHAPITRE 1. ESP

ERANCE CONDITIONNELLE 27
En pratique
La r`egle pour calculer lesperance conditionnelle E(X [ T
n
), cest de separer dans X les
termes qui sont T
n
-mesurables de ceux qui sont independants de T
n
, puis appliquer une
ou plusieurs des proprietes fondamentales.
Pour les cas recalcitrants, il faudra se tourner vers la formule de lexercice 1.5.7.
Mettons cette strategie en pratique sur lexemple de lintroduction.
Exemples :
1. Reprenons lexemple de lintroduction avec les deux des. On rappelle que X
1
et X
2
representent les valeurs obtenues par le premier et le second de, et S = X
1
+X
2
. Pour
calculer E(S [ X
1
) nous pourrions utiliser la formule du paragraphe 1.2.1. Cependant,
cest plus simple doperer selon la strategie decrite ci-dessus. En utilisant que X
1
est
(X
1
)-mesurable et que X
2
est independant de X
1
, on obtient
E(S [ X
1
)
P4
= E(X
1
[ X
1
) +E(X
2
[ X
1
)
P2
= X
1
+E(X
2
[ X
1
)
P3
= X
1
+E(X
2
)
= X
1
+ 7/2.
Remarquez la simplicite des calculs.
2. Poursuivons lexemple precedent en appelant R = X
2
/X
1
le rapport de X
2
par X
1
.
En guise dentranement, calculons E(R [ X
1
). Comme 1/X
1
est (X
1
)-mesurable
(car cest une fonction de X
1
) on a
E(R [ X
1
)
P5
=
1
X
1
E(X
2
[ X
1
)
P3
=
1
X
1
E(X
2
)
= 7/(2X
1
).
3. Reprenons enn lexemple du paragraphe 1.2.1 avec X = Z o` u Z est une variable
aleatoire uniforme sur 1, . . . , n et est une variable aleatoire independante de Z,
telle que P( = 1) = p et P( = 1) = 1 p. On a
E(X [ Z)
P5
= Z E( [ Z)
P3
= Z E()
= (2p 1)Z.
Cest plus simple que le calcul du 1.2.1, non? Avec un petit peu dentranement, ces
calculs deviendront totalement automatiques.
CHAPITRE 1. ESP

ERANCE CONDITIONNELLE 28
Pour nir, voici trois autres proprietes de lesperance conditionnelle.
Proprietes supplementaires
1. Si Y
1
, . . . , Y
p
sont independantes de X et de Z
1
, . . . , Z
n
alors
E(X [ Z
1
, . . . , Z
n
, Y
1
, . . . , Y
p
) = E(X [ Z
1
, . . . , Z
n
) .
2. Si X Y , alors E(X [ T
n
) E(Y [ T
n
).
3. si : R R est une fonction convexe, on a linegalite de Jensen :
(E(X [ T
n
)) E((X) [ T
n
) .
Exo : A laide de linegalite de Jensen, montrez que E(X [ T
n
)
2
E(X
2
[ T
n
).

Remarque : Pour nir, remarquons que si Z


0
est une valeur deterministe (xee), son
information T
0
= (Z
0
) est vide. En consequence, on aura E(X [ T
0
) = E(X) pour
toute variable aleatoire X (integrable).
CHAPITRE 1. ESP

ERANCE CONDITIONNELLE 29
1.5 Exercices
1.5.1 Jeu televise
CHAPITRE 1. ESP

ERANCE CONDITIONNELLE 30
1.5.2 Un petit calcul
On note S
1
, S
2
, . . . le cours journalier dune action. On appelle rendement journalier de
laction le rapport

n
:=
S
n
S
n1
S
n1
.
Cette quantite est aleatoire et on suppose que le rendement
n
entre le jour n 1 et le
jour n ne depend pas des valeurs S
1
, . . . , S
n1
prises par laction dans le passe. Cela revient
donc `a supposer que
n
est independant de T
n1
= (S
1
, . . . , S
n1
). On suppose aussi
quon connat la valeur moyenne = E(
n
) du rendement. Calculez E(S
n
[ T
n1
).
1.5.3 Un autre calcul
On consid`ere un couple de variables aleatoires reelles (X, Y ) admettant pour densite
f(x, y) := n(n 1)(y x)
n2
1
(x,y)A
o` u A := (x, y) R
2
/0 x y 1. Montrer que
E(Y [X) =
n 1 +X
n
.
1.5.4 Encore un calcul !
On lance un de et appelle N le chire (entre 1 et 6) obtenu. Ensuite, on relance N
2
fois le
de, et on appelle S la somme totale des chires obtenu (y compris avec le premier lance).
Calculer E(S[N).
1.5.5 Marche aleatoire
Soit (X
n
; n N) une suite de variables aleatoires independantes. On sinteresse `a la marche
au hasard S
n
:= X
1
+. . . +X
n
et on note m = E(X
1
) < + et T
n
= (X
1
, . . . , X
n
).
1. Que vaut E(S
n+1
[T
n
) ?
2. Pour z C, montrer que
E
_
z
S
n+1
[T
n
_
= z
Sn
E
_
z
X
n+1
_
.
En notant G(z) = E
_
z
X
1
_
, montrer que si X
1
, . . . , X
n
ont la meme loi alors
E
_
z
Sn
_
= [G(z)]
n
.
CHAPITRE 1. ESP

ERANCE CONDITIONNELLE 31
1.5.6 *Somme et produit aleatoires
Soit N une variable aleatoire T
n
-mesurable `a valeurs dans N et X
1
, X
2
, . . . une suite de
variables aleatoires toutes independantes de T
n
.
1. Veriez legalite
N

i=1
X
i
=

k=0
1
{N=k}
k

i=1
X
i
.
2. En deduire la formule
E
_
N

i=1
X
i

T
n
_
=
N

i=1
E(X
i
).
3. On suppose de plus que les X
1
, X
2
, . . . sont independantes. Pour toute fonction g :
R [0, 1], montrez successivement que
N

i=1
g (X
i
) =

k=0
1
{N=k}
k

i=1
g (X
i
)
et
E
_
N

i=1
g (X
i
)

T
n
_
=
N

i=1
E(g (X
i
)) .
1.5.7 *Une formule generique
Soit X
n
une variable aleatoire reelle T
n
-mesurable et U
n+1
une seconde variable aleatoire
reelle independante de T
n
. Montrer que pour toute fonction H : R R R (integrable)
on a
E(H(U
n+1
, X
n
) [ T
n
) = h(X
n
)
o` u h(x) = E(H(U
n+1
, x)).
1.5.8 A propos de linegalite de Jensen
On rappelle linegalite de convexite : si : R R est une fonction convexe et
1
, . . . ,
p
sont p reels positifs veriant
1
+ +
p
= 1 alors

_
p

i=1

i
x
i
_

i=1

i
(x
i
)
pour tout x
1
, . . . , x
p
R.
1. Demontrer linegalite de Jensen (E(X [ Z)) E((X) [ Z) dans le cas o` u X :
x
1
, . . . , x
p
et Z : Z prennent un nombre ni de valeurs.
2. A laide de linegalite de Jensen, etablir pour p > 1 linegalite
E([X[[T
n
)
p
E([X[
p
[T
n
).
CHAPITRE 1. ESP

ERANCE CONDITIONNELLE 32
1.5.9 Esperance conditionnelle et meilleure approximation T
n
-
mesurable de X
Supposons que E(X
2
) < . Notons W

la variable aleatoire veriant


E[(X W

)
2
] = min
WH
E[(X W)
2
]
o` u H est lespace de toutes les variables aleatoires W qui sont T
n
-mesurables et verient
E(W
2
) < . Nous allons montrer que W

satisfait les conditions a) et b) de la ca-


racterisation de lesperance conditionnelle E(X [ T
n
).
Pour la condition a) cest evident : comme W

H, la variable W

est T
n
-mesurable.
Regardons maintenant la condition b). Introduisons la fonction F : H R denie par
F(W) = E[(X W)
2
]. Si vous savez ce quest la dierentielle de F, suivez les questions
de la partie I. Sinon, orientez vous vers la partie II (pour une preuve alternative).
Partie I -
1. Montrer que la dierentielle de F en W est
DF(W).Y = E[(X W)Y ].
2. Deduire de lequation DF(W

) = 0 que W

verie la condition b).


3. Conclure.
Partie II -
1. Soit Y une variable dans H et R

. Deduire de linegalite F(W

) F(W

+ Y )
la borne

2
E(Y
2
) 2 E(Y (X W

)) 0 .
2. Conclure en divisant linegalite precedente par (attention! bien separer les cas > 0
et < 0) et en faisant tendre vers 0.
1.5.10 *Coherence des dierentes denitions / de la caracterisation
Le but de cet exercice est de verier que les formules donnees aux paragraphes 1.2.1 et 1.3
verient bien les conditions a) et b) de la caracterisation de lesperance conditionnelle.
1. Soit deux variables aleatoires X : A et Z : Z, avec A = x
1
, . . . , x
m
et
Z = z
1
, . . . , z
n
deux ensembles nis de R. Pour tout z Z, on note
h(z) = E(X [ Z = z) =

xX
x P(X = x [ Z = z) .
Montrer que la variable aleatoire h(Z) verie les conditions a) et b) de la ca-
racterisation de lesperance conditionnelle.
CHAPITRE 1. ESP

ERANCE CONDITIONNELLE 33
2. Maintenant X et Z sont deux variables aleatoires `a valeurs dans R ayant une densite
jointe f
(X,Z)
. On note
h(z) =
_
xR
x f
X
(x [ Z = z) dx .
Montrer que la variable aleatoire h(Z) verie les conditions a) et b) de la ca-
racterisation de lesperance conditionnelle.
Chapitre 2
Martingales
Objectif : lobjectif de ce chapitre est dapporter les outils mathematiques necessaires au
calcul du prix doptions : martingales, temps darret et theor`eme darret.

Dorenavant nous allons nous interesser `a levolution temporelle de certaines quantites


aleatoires, telle le cours dune action X. Si on note X
n
le cours de laction `a la date
n, nous allons donc etudier le comportement de la suite (X
n
)
nN
. On appelle processus sto-
chastique (ou processus aleatoire) une telle suite (X
n
)
nN
de variables aleatoires indexees
par N.
2.1 Exemple fondateur : un joueur au casino
Nous allons introduire un certains nombre de notions mathematiques (martingales, temps
darret, etc) `a travers lexemple de la fortune dun joueur au casino.
Considerons donc un joueur au casino et formalisons sa fortune :
On note J lensemble des jeux. Un jeu est donc un j J
ex : miser sur le 2 `a la roulette
ne pas miser
On appelle R
(n)
j
le rapport du jeu j au temps n.
ex : Si j = miser sur le 2, alors R
(n)
j
=
_
36 si le 2 sort
0 sinon
Si j = ne pas miser, alors R
(n)
j
= 1
On note R
(n)
:= (R
(n)
j
; j J) les rapports des dierents jeux au temps n.
Notre joueur va miser au temps n sur chaque jeu. On note M
(n)
j
sa mise (eventuellement
nulle) sur le jeu j, pour le n
i`eme
coup.
On appelle X
0
la fortune initiale du joueur et X
n
sa fortune apr`es le n
i`eme
coup. Comme
ne pas miser est considere comme un jeu, le joueur reparti toute sa fortune X
n1
acquise
34
CHAPITRE 2. MARTINGALES 35
apr`es le (n 1)
i`eme
coup, en mises M
(n)
j
pour le coup suivant, donc
X
n1
=

jJ
M
(n)
j
.
Apr`es le n
i`eme
coup, sa fortune est
X
n
=

jJ
M
(n)
j
R
(n)
j
.
Linformation dont dispose le joueur apr`es le n
i`eme
coup est donnee par les dierentes
valeurs prises par R
(1)
, . . . , R
(n)
. On note
_
R
(1)
, . . . , R
(n)
_
cette information et pour
alleger les formules on posera T
n
=
_
R
(1)
, . . . , R
(n)
_
.
Pour analyser mathematiquement levolution statistique de la fortune du joueur, il nous
faut faire quelques hypoth`eses (realistes) sur le deroulement du jeu.
Hyptoh`eses sur le jeu :
- Les rapports R
(1)
, . . . , R
(n)
, . . . aux dierents temps de jeu sont independants.
- Les mises M
(n)
j
sont (R
(1)
, . . . , R
(n1)
)-mesurables. Autrement dit, le joueur choisit
ses mises pour le n
i`eme
coup uniquement en fonction de linformation T
n1
dont il
dispose apr`es le (n 1)
i`eme
coup. Il ne devine pas le futur !
- Le casino nest pas une oeuvre philanthropique. Il ne perd donc pas dargent en
moyenne, cest `a dire : E
_
R
(n)
j
_
1, n N, j J.
Questions :
1. Existe-t-il une strategie de jeu pour gagner de largent en moyenne au casino ? Plus
precisement, existe-t-il une mani`ere de choisir les mises M
(n)
j
telle que E(X
n
) > X
0
?
2. Existe-t-il une mani`ere de sarreter de jouer telle que si T est le temps (aleatoire)
auquel on sarrete, on a E(X
T
) > X
0
?
Reponse `a la premi`ere question :
Regardons la valeur esperee de la fortune du joueur apr`es le n
i`eme
coup, sachant tout ce
CHAPITRE 2. MARTINGALES 36
qui sest passe precedemment :
E(X
n
[ T
n1
) = E
_

jJ
M
(n)
j
R
(n)
j
[ T
n1
_
P4
=

jJ
E
_
M
(n)
j
R
(n)
j
[ T
n1
_
P5
=

jJ
M
(n)
j
E
_
R
(n)
j
[ T
n1
_
car M
(n)
j
est T
n1
-mesurable
P3
=

jJ
M
(n)
j
E
_
R
(n)
j
_
car R
(n)
j
est independant de T
n1

jJ
M
(n)
j
= X
n1
car E
_
R
(n)
j
_
1 .
On a donc :
E(X
n
[ T
n1
) X
n1
. (2.1)
Un tel processus (X
n
)
n0
est appele une sur-martingale. Si on prend lesperance dans
legalite (2.1), on obtient E(E(X
n
[ T
n1
)) E(X
n1
). Vu la Propriete 1 de lesperance
conditionnelle il sen suit E(X
n
) E(X
n1
). En iterant cette inegalite, il vient
E(X
n
) E(X
n1
) . . . X
0
.
La reponse `a la premi`ere question est donc non (ce qui ne surprendra personne) !
Concernant la seconde question, il faut denir precisement la notion de sarreter de jouer,
ce qui est lobjet du prochain paragraphe.
2.2 Temps darret
2.2.1 Information T
n
Dans lexemple du joueur au casino, linformation dont dispose le joueur au temps n (plus
exactement apr`es le n
i`eme
coup) correspond aux rapports de chaque jeu aux temps 1 `a n,
cest `a dire aux valeurs R
(1)
, . . . , R
(n)
.
Plus generalement, si linformation dont nous disposons vient de lobservation dune quan-
tite aleatoire X
1
, . . . , X
n
, . . . (ex : cotation journali`ere dune action), alors linformation
dont on dispose au temps n est donnee par les valeurs de X
1
, . . . , X
n
. Dans ce cas,
on note (X
1
, . . . , X
n
) cette information. Pour alleger les notations, on pose souvent
T
n
:= (X
1
, . . . , X
n
). Lorsque le temps augmente, on collecte de plus en plus dinfor-
mation, donc
T
0
T
1
. . . T
n
T
n+1
. . .
CHAPITRE 2. MARTINGALES 37
On appelle ltration la suite (T
n
)
nN
.

Nous allons donner une denition plus rigoureuse de linformation T


n
. Nous commencons
par un petit rappel sur les fonctions indicatrices.
Rappel : on appelle fonction indicatrice de A, la variable aleatoire 1
A
denie par :
1
A
: 0, 1
1
A
() =
_
1 si A
0 si / A
Precisons les proprietes de linformation T
n
= (X
1
, . . . , X
n
). Un evenement A appartient
`a linformation T
n
, si `a partir des valeurs X
1
, . . . , X
n
on est capable de dire si levenement
A a lieu ou non. Autrement dit, de la lecture des valeurs X
1
(), . . . , X
n
(), on est capable
de dire si A ou non. Dans un langage plus mathematique, un evenement A appartient
donc `a linformation T
n
sil existe une fonction (mesurable) h : R
n
0, 1 telle que
1
A
() = h(X
1
(), . . . , X
n
()).
Comme nous lavons vu au paragraphe 1.4, cela est equivalent `a dire que 1
A
est T
n
-
mesurable. Il en decoule la denition suivante de linformation T
n
.
Denition - Information T
n
-
Linformation T
n
est constituee des evenements A tels que la variable aleatoire 1
A
est
T
n
-mesurable. En notation abregee
A T
n
1
A
est T
n
-mesurable.
Linformation T
n
poss`ede les proprietes suivantes.
Proprietes - de linformation T
n
-
1. Si A T
n
, alors A
c
T
n
, o` u A
c
represente le complementaire de A.
2. Si A
1
, A
2
, . . . T
n
, alors

i
A
i
T
n
et

i
A
i
T
n
.
Remarque culturelle : En mathematiques, un ensemble non vide possedant les proprietes
precedentes sappelle une tribu (ou -alg`ebre).
CHAPITRE 2. MARTINGALES 38
2.2.2 Temps darret
Nous allons preciser et formaliser dans ce paragraphe la notion de sarreter de jouer pour
le joueur de casino. Le joueur nest pas suppose avoir des qualites de divination du futur,
donc sil decide de sarreter au temps n, il ne le fait qu`a partir de linformation T
n
dont il
dispose `a ce moment l`a : par exemple il peut decider de sarreter lorsque sa fortune depasse
sa mise initiale (ou le double de sa mise initiale), lorsque les noirs sont sortis 5 fois de suite
`a la roulette, etc. Mais il ne peut pas decider de sarreter lorsque sa fortune est maximale
(ca serait lideal !), car cela lui demanderait de deviner le futur. Un temps o` u lon decide de
sarreter en ne tenant compte que de linformation dont on dispose jusque l`a sera appele
un temps darret (voir un paragraphe plus bas pour une denition plus precise).
Voici un autre exemple de temps darret : un ordre de vente pour votre banquier. Imaginez
que vous possedez une action et vous demandez `a votre banquier de la vendre `a un certain
temps T qui va dependre de levolution du marche. Comme votre banquier nest pas devin,
le temps T o` u il va devoir vendre ne doit dependre que de linformation quil a collecte
jusque l`a. Par exemple, vous ne pouvez pas lui demander de vendre votre action au moment
T
max
o` u son cours atteint son maximum : en eet au temps T
max
personne ne sait que le
cours est `a son maximum. Voici deux exemples dordre de vente possible : vendre au temps
T o` u le cours de laction a realise pour la premi`ere fois une progression de 15% sur les 100
derniers jours, ou bien vendre au temps T o` u le cours depasse pour la premi`ere fois 100
Euros. Dans ces deux cas, la decision est bien prise en fonction de linformation dont on
dispose au temps T, le temps T est donc un temps darret.
Comment se caracterise un temps darret T ? Considerons le cas de lordre de vente et
appelons T
n
linformation dont dispose le banquier au temps n. Le temps T de lordre de
vente est un temps aleatoire (il depend de levolution de la bourse), tel que le banquier
sait `a partir de linformation T
n
si T = n ou non. Cette caracteristique denit les temps
darret. On rappelle
1
la notation T = n = : T() = n.
Denition - Temps darret -
On appelle temps darret une variable aleatoire T : N+ telle que T = n
T
n
quel que soit n N.
Dans un langage moins formel, un temps darret est une variable aleatoire T :
N + telle que `a partir de linformation T
n
on sait si T() = n ou non.
Les deux ordres de vente vendre au temps T o` u le cours de laction a realise pour la
premi`ere fois une progression de 15% sur les 100 derniers jours, ou bien vendre au temps
T o` u le cours depasse pour la premi`ere fois 100 Euros donnent deux exemples de temps
darret T. Par contre le temps T
max
o` u le cours atteint son maximum nest pas un temps
darret.
1
en particulier 1
{T=n}
() =
_
= 1 si T() = n
= 0 sinon
CHAPITRE 2. MARTINGALES 39
Petite remarque : si T est un temps darret alors T n T
n
et T > n T
n
.
En eet, T n =

n
i=1
T = i, avec T = i T
i
T
n
. On en deduit que
T n T
n
. Comme T > n = T n
c
, on a aussi T > n T
n
. De meme,
vous pouvez verier que T < n T
n
et T n T
n
. 2
Le resultat suivant donne un exemple important de temps darret.
Proposition 2.1 - Premier temps de passage -
Considerons un processus stochastique (X
n
). Notons T
n
= (X
1
, . . . , X
n
) linformation
dont on dispose au temps n et T() = infn 1 tel que X
n
() a le premier temps
o` u X
n
depasse la niveau a. Le temps T est alors un temps darret. Le resultat est encore
vrai en remplacant par =, , < ou >.
Par contre, le premier instant M() = infn 1 tel que X
n
() = max
pN
X
p
() o` u X
n
atteint son maximum nest pas un temps darret. Par exemple, si X
n
est le cours dune
action, pour connatre le premier instant o` u X
n
atteint son maximum, il faut connatre
levolution du cours apr`es M.
Preuve: de la proposition. On a legalite :
T = n = X
1
< a X
n1
< a X
n
a .
Comme pour k = 1 . . . n 1 on a X
k
< a T
k
T
n
et X
n
a T
n
, on conclut par la
propriete 2 de linformation T
n
que T = n T
n
. 2
2.3 Martingales
2.3.1 Denition
Supposons que lon observe un processus aleatoire (X
n
)
nN
. On note T
n
linformation dont
on dispose au temps n. Cette information contient linformation donnee par les valeurs
X
0
, X
1
, . . . , X
n
, donc (X
0
, X
1
, . . . , X
n
) T
n
. Bien souvent linformation dont on dispose
est reduite aux valeurs X
0
, X
1
, . . . , X
n
, et dans ce cas T
n
= (X
0
, X
1
, . . . , X
n
).
Denition - Martingale -
On appelle T
n
-martingale un processus (X
n
)
nN
tel que E(X
n+1
[ T
n
) = X
n
, pour
tout n N. Lorsquil ny a pas dambigute sur linformation T
n
consideree, on dit
simplement que (X
n
)
nN
est une martingale.
On appelle sous-martingale un processus (X
n
)
nN
tel que E(X
n+1
[ T
n
) X
n
, pour
tout n N.
On appelle sur-martingale un processus (X
n
)
nN
tel que E(X
n+1
[ T
n
) X
n
, pour tout
n N.
CHAPITRE 2. MARTINGALES 40
De mani`ere informelle, une martingale est donc un processus aleatoire sans tendance
haussi`ere, ni baissi`ere. Plus precisement la valeur moyenne dune martingale attendue
pour demain sachant toute linformation dont on dispose aujourdhui est egale `a sa valeur
daujourdhui.

Exemples
1. La fortune du joueur de casino est une sur-martingale car E(X
n+1
[ T
n
) X
n
.
Remarquez que dans ce cas (X
1
, . . . , X
n
)

=
T
n
2. Considerons la marche au hasard S
n
= Y
1
+ . . . + Y
n
nr, o` u les (Y
i
) sont i.i.d. et
r R. On note T
n
= (S
0
, S
1
, . . . , S
n
).
Le processus (S
n
)
nN
est une martingale si et seulement si r = E(Y
1
) < +.
En eet, remarquons dej`a que
E(S
n+1
[ T
n
) = E(Y
1
+. . . +Y
n+1
(n + 1)r [ T
n
)
= E(S
n
+Y
n+1
r [ T
n
) .
Comme dune part S
n
est T
n
-mesurable et dautre part Y
n+1
est independant de T
n
il vient (proprietes 2 et 3 de lesperance conditionnelle)
E(S
n+1
[ T
n
) = S
n
+E(Y
n+1
) r.
En particulier, (S
n
) est une martingale ssi E(Y
n+1
) = r. Enn comme les Y
i
ont
meme loi, E(Y
n+1
) = E(Y
1
). 2
3. Soit X une variable aleatoire telle que E([X[) < + et (Z
n
) un processus aleatoire.
La suite (X
n
) denie par X
n
= E(X [ T
n
) avec T
n
= (Z
0
, . . . , Z
n
) est une martin-
gale.
En eet, E(X
n+1
[ T
n
) =E(E(X [ T
n+1
) [ T
n
)
P6
= E(X [ T
n
) = X
n
. 2
La propriete suivante est la propriete fondamentale des martingales. Elle traduit quune
martingale na pas de tendance haussi`ere ou baissi`ere. Nous utiliserons intensivement ce
resultat dans les chapitres suivants pour calculer des prix doptions.
Propriete - Propriete fondamentale des martingales -
La moyenne dune martingale est constante au cours du temps :
E(X
n
) = E(X
0
) , pour tout n N. (2.2)
CHAPITRE 2. MARTINGALES 41
Preuve: Cette propriete se prouve par recurrence `a partir de legalite
E(X
n+1
)
P1
= E(E(X
n+1
[T
n
))
martingale
= E(X
n
) .
2

Il est maintenant naturel de se demander si legalite (2.2) qui est vraie `a un temps xe
n est encore vraie `a un temps aleatoire T. En dautres termes, pour un temps aleatoire
quelconque T et une martingale (X
n
), a-t-on E(X
T
) = E(X
0
) ?
Cette egalite nest certainement pas vraie pour nimporte quel temps T. Par exemple, si T
est le temps o` u X
n
est maximum, on a X
T
X
0
et aussi P(X
T
> X
0
) > 0, `a moins que
(X
n
) soit la suite constante egale `a X
0
. Cela entrane linegalite E(X
T
) > E(X
0
).
Cependant, nous allons voir dans le paragraphe suivant que cette egalite reste vraie lorsque
T est un temps darret (avec quelques restrictions).
2.3.2 Theor`eme darret
T
n
Fig. 2.1 Une trajectoire de (X
nT
)
n0
(en pointille : la trajectoire de (X
n
)
n0
)
Dorenavant, nous noterons n T := min(n, T) et X
nT
la variable aleatoire
X
nT
: R
X
nT()
().
CHAPITRE 2. MARTINGALES 42
Le theor`eme suivant, du au mathematicien J.L. Doob, est lun des deux resultats fonda-
mentaux de la theorie des martingales.
Theor`eme 2.2 - Theor`eme darret -
Soit (X
n
) une martingale (respectivement sur-martingale) et T un temps darret.
1. Le processus (X
nT
)
nN
est une martingale (resp. sur-martingale),
2. Sil existe N N tel que T() N, pour tout (on dit que T est borne)
alors E(X
T
) = E(X
0
) (resp. ) ,
3. Si P(T < +) = 1 et sil existe Y telle que E(Y ) < + et [X
nT
[ Y pour tout
n N (condition de domination)
alors E(X
T
) = E(X
0
) (resp. ) .
Attention! Nous incitons le lecteur `a la plus grande prudence lorsquil applique le theor`eme
ci-dessus. En eet, il est necessaire de verier que les hypoth`eses du theor`eme sont bien
satisfaites, sinon il y a un risque dobtenir une egalite aberrante, du type 0 = 1. Nous
donnons ci-dessous un exemple de martingale (X
n
) et de temps darret T (ne veriant pas
les hypoth`eses du theor`eme ci-dessus) tels que E(X
T
) ,= E(X
0
).
Considerons un joueur ayant 1 euro en poche et misant sur une pi`ece de monnaie :
si pile sort, il double sa fortune,
si face sort, il perd tout.
Notons p
n
pile, face la face obtenue au n
i`eme
lancer et X
n
la fortune du joueur. On a
X
n+1
=
_
2X
n
si p
n+1
= pile
0 si p
n+1
= face
cest `a dire X
n+1
= 2X
n
1
{p
n+1
=pile}
. Comme X
0
= 1 on obtient par recurrence, X
n
=
2
n
1
{p
1
=pile,...,pn=pile}
. Montrons que (X
n
) est une martingale :
E(X
n+1
[ T
n
) = E
_
2X
n
1
{p
n+1
=pile}
[ T
n
_
= 2X
n
E
_
1
{p
n+1
=pile}
[ T
n
_
, car 2X
n
est T
n
-mesurable
= 2X
n
E
_
1
{p
n+1
=pile}
_
, car 1
{p
n+1
=pile}
est independant de T
n
= X
n
, car P(p
n+1
= pile) = 1/2.
Introduisons le temps de ruine T = infn 0 tel que X
n
= 0. Cest un temps darret
veriant P(T < +) = 1. Cependant, vu que X
T()
() = 0, on a E(X
T
) = 0 et donc
E(X
T
) = 0 ,= E(X
0
) = 1.
Remarquez que le theor`eme precedent ne peut pas sappliquer ici car [X
nT
[ ne peut etre
domine par un Y veriant E(Y ) < +.
CHAPITRE 2. MARTINGALES 43

Preuve: Nous prouvons maintenant les resultats du theor`eme darret. On se restreint au cas o` u
(X
n
) est une martingale.
1. Par soucis de clarte notons M
n
= X
nT
et verions que (M
n
) est une martingale. On a
M
n
= X
nT
=
_
X
n
si T > n 1
X
T
si T n 1
ce que lon peut reecrire M
n
= X
n
1
{T>n1}
+X
T
1
{Tn1}
. Comme
X
T
1
{Tn1}
= X
1
1
{T=1}
+ +X
n1
1
{T=n1}
,
avec T = k T
k
T
n1
pour k n1, la variable aleatoire X
T
1
{Tn1}
est T
n1
-mesurable.
`
A laide des proprietes 5 et 2 de lesperance conditionnelle, on obtient
E(M
n
[ T
n1
) = E
_
X
n
1
T > n 1
. .
F
n1
[ T
n1
_
+E
_
X
T
1
{Tn1}
[ T
n1
_
= 1
{T>n1}
E(X
n
[ T
n1
)
. .
= X
n1
car
(X
n
) martingale
+X
T
1
{Tn1}
= X
n1
1
{T>n1}
+X
T
1
{Tn1}
= X
(n1)T
= M
n1
.
Nous venons de verier que (M
n
) est une martingale.
2. Pour T borne, considerons N tel que T N. Le processus (X
nT
) est une martingale, donc
au temps N (propriete fondamentale des martingales)
E(X
NT
) = E(X
0T
) .
| |
E(X
T
) E(X
0
)
Les deux egalites | proviennent des relations N T = T et 0 T = 0.
3. Si T < + avec probabilite 1 et X
nT
verie la condition de domination. Le processus
(X
nT
) est une martingale, donc E(X
nT
) = E(X
0
). Faisons tendre n vers linni dans legalite
precedente. On sait que X
nT
X
T
et comme les hypoth`eses du theor`eme de convergence
dominee sont veriees cela entrane que E(X
nT
) E(X
T
). Le passage `a la limite dans legalite
precedente donne donc E(X
T
) = E(X
0
). 2
Remarque : On peut montrer `a laide de la premi`ere partie du theor`eme darret et du
lemme de Fatou, que si (X
n
) est une (sur-)martingale positive et T un temps darret
quelconque alors E(X
T
) E(X
0
). En particulier, pour le joueur de casino, quel que soit
son temps darret T,
E(X
T
) E(X
0
) = X
0
= sa fortune initiale.

CHAPITRE 2. MARTINGALES 44
En pratique, `a quoi sert le theor`eme darret ?
Dej`a, nous aurons besoin de ce resultat pour calculer le prix dune option americaine
dans le Chapitre 5.
Sinon, on utilise generalement legalite E(X
T
) = E(X
0
), pour une martingale (X
n
) et
un temps darret T bien choisis (attention : il faut verier les hypoth`eses du theor`eme
darret !). Cela permet de calculer facilement certaines quantites, qui sont souvent di-
ciles `a calculer autrement.
Exemple. Le probl`eme de la ruine. Voici un petit exemple simple dutilisation du
theor`eme darret. Deux joueurs A et B parient sur une pi`ece de monnaie 1 euro `a la fois
et le jeu cesse lorsque lun des deux est ruine. Initialement A poss`ede a euros et B en
poss`ede b.
La fortune de A est X
n
= a +
1
+. . . +
n
, o` u
i
=
_
1 si A gagne au i`eme coup
1 si A perd au i`eme coup
Les
i
sont i.i.d, et E(
i
) = 0, donc (X
n
) est une martingale (voir lExemple 2 du
paragraphe 2.3.1). Le temps de ruine T = infn 0 tel que X
n
= 0 ou a + b est un
premier temps de passage, donc cest un temps darret. Admettons pour linstant que
P(T < +) = 1. Comme [X
n
[ a+b, on peut appliquer la troisi`eme partie du theor`eme
darret, ce qui donne
E(X
T
) = E(X
0
) = a.
Comme
a = E(X
T
) = 0 P(A ruine) + (a +b) P(A gagnant)
avec P(A ruine) = 1 P(A gagnant), on en deduit que
P(A gagne la fortune de B) =
a
a +b
.
Il reste `a verier que P(T < +) = 1. Remarquons dej`a que
T > n = 0 < a +
1
+. . . +
n
< a +b
= a <
1
+. . . +
n
< b
=
a

n
<

1
+. . . +
n

n
<
b

n
.
Comme E(
i
) = 0 et E(
2
i
) = 1, le theor`eme central limite assure que la loi de (
1
+. . . +
n
)/

n
converge vers la loi normale ^(0, 1) lorsque n tend vers linni. En particulier,
P(T > n)
_
b/

n
a/

n
e
z
2
/2
dz

2
n
0 .
On en deduit que P(T < +) = 1.
CHAPITRE 2. MARTINGALES 45
2.4 Exercices
2.4.1 Une autre formulation de la propriete de martingale
Soit (T
n
) une ltration et (X
n
) un processus tel que X
n
est T
n
-mesurable pour tout n 0
(on dit alors que le processus X est adapte). Montrer que (X
n
) est une martingale ssi
E(X
n
[ T
n1
) = 0
o` u X
n
= X
n
X
n1
.
2.4.2 Pour sentraner !
Soit X
1
, X
2
, . . . des variables aleatoires independantes et de meme loi. On note m =
E(X
n
) < +, ainsi que T
n
= (X
1
, . . . , X
n
) et
Y
n
:=
n

i=1
iX
i

n(n + 1)
2
m.
Calculer E(Y
n
[T
n1
). Que peut-on dire du processus (Y
n
)
n1
?
2.4.3 Deux formules utiles
Soit (M
n
) une martingale et T un temps darret borne.
1. Pour N n, montrer que E(M
N
[ T
n
) = M
n
.
2. Montrer que E(M
T
[ T
n
) = M
Tn
pour tout n 0.
2.4.4 Temps datteinte dune barri`ere
Soit X
1
, X
2
, . . . des variables aleatoires independantes telles que P(X
i
= 1) = P(X
i
=
1) =
1
2
. On pose S
0
= 0, S
n
= X
1
+ +X
n
pour n 1 et T
n
= (X
1
, . . . , X
n
).
1. On xe > 0. Montrer que M
n
:= e
Sn
/(cosh )
n
est une T
n
-martingale (rappel :
cosh =
1
2
(e

+e

)).
2. Montrer que cosh x 1 pour tout x 0.
3. Soit = infn > 0 : S
n
10. Montrer que M
n
est une martingale et donner une
constante K > 0 telle que [M
n
[ K.
4. Etablir (en justiant soigneusement) legalite E((cosh )

) = e
10
. On pourra ad-
mettre que P( < +) = 1.
CHAPITRE 2. MARTINGALES 46
2.4.5 La pi`ece truquee
Richard propose `a son petit fr`ere Paul de jouer au jeu suivant : ils misent chacun 1 Euro `a
la fois, si pile sort Richard gagne les 2 Euros, si face sort cest Paul qui empoche les 2 Euros.
Ce que Richard na pas dit `a son fr`ere, cest que la pi`ece est truquee. La probabilite p que
pile sorte verie p > 1 p > 0. Initialement les deux joueurs ont chacun 100 Euros. On
note G
n
le gain/perte de Richard au n-i`eme pari : P(G
n
= +1) = p et P(G
n
= 1) = 1p.
On note X
n
la fortune de Richard apr`es le n-i`eme pari : X
n
= 100 + G
1
+ + G
n
.
Linformation des joueurs apr`es le n-i`eme pari est T
n
:= (G
1
, . . . , G
n
).
1. On pose Z
n
:=
Xn
, avec = (1 p)/p. Que vaut E(Z
n+1
[T
n
) ? Conclusion?
2. On appelle T le temps de ruine, cest `a dire T = infn 1 : X
n
= 0 ou 200. Quelles
sont les valeurs que peut prendre ? En deduire que [Z
nT
[ 1.
3. Admettons que P(T < +) = 1 (voir question 5). Calculez E(Z
T
) en fonction de .
4. En deduire la valeur de la probabilite que Richard soit ruine au temps T.
5. Montrez que P(T < +) = 1.
2.4.6 Decomposition de Doob
Lobjet de cet exercice est de montrer quune sous-martingale (X
n
) se decompose de
mani`ere unique en une martingale (M
n
) et un processus croissant previsible (A
n
). Cette
decomposition sappelle decomposition de Doob.
Considerons donc une sous-martingale (X
n
)
n0
. On pose T
n
= (X
1
, . . . , X
n
), A
0
= 0,
A
n
=
n

k=1
_
E(X
k
[T
k1
) X
k1
_
et M
n
= X
0
+
n

k=1
_
X
k
E(X
k
[T
k1
)
_
.
1. Montrer que (M
n
) est une martingale.
2. Montrer que A
n+1
A
n
quel que soit n 0. la variable aleatoire A
n
est-elle T
n1
-
mesurable ? T
n
-mesurable ?
3. Montrer que si X
n
= M

n
+ A

n
o` u M

n
est une martingale et A

n
est T
n1
-mesurable
et verie A

0
= 0, A

n+1
A

n
quel que soit n 0, alors M
n
= M

n
et A
n
= A

n
(on
pourra commencer par montrer que A

n
= A
n
).
2.4.7 *Genealogie de Galton-Watson
Nous allons nous interesser `a un mod`ele simple de population. Au temps initial n = 0, on
a un individu (lancetre). On note Z
n
le nombre de ses descendants `a la n-i`eme generation.
On suppose que chaque individu de la n-i`eme generation donne naissance `a des enfants
independamment des autres individus, puis meurt. On suppose egalement que le nombre
denfants dun individu suit une loi universelle (dans le sens o` u cest la meme pour
tout le monde) que lon connait.
CHAPITRE 2. MARTINGALES 47
Formalisons un peu plus le probl`eme. On appelle X
(n)
k
le nombre denfants de lindividu
numero k present `a la n-i`eme generation. Par hypoth`ese, les variables aleatoires
_
X
(n)
k
; k N, n N
_
sont donc independantes et suivent la loi , cest-`a-dire P
_
X
(n)
k
= i
_
= (i). Remar-
quons aussi que le nombre Z
n
dindividus presents `a la generation n verie la formule de
recurrence :
Z
n+1
= X
(n)
1
+ +X
(n)
Zn
.
Soit X une variable aleatoire de loi (i.e. telle que P(X = i) = (i)). On note m := E(X)
son esperance, et G sa fonction generatrice, denie par
G(s) := E
_
s
X
_
, pour s [0, 1].
On supposera dans la suite que (0) > 0.
1. Exprimer G(s) en fonction des (k), k N. Que vaut G(1) ? G(0) ?
2. Montrer que G est croissante et convexe. Que vaut G

(1) ? Dessiner les fonctions


x G(x) et x x en separant les cas m 1 et m > 1 et en portant une attention
particuli`ere au comportement de G en 1.
3. On note T
n
:=
_
X
(1)
k
, . . . , X
(n1)
k
; k N
_
linformation contenue dans la genealogie
jusquau temps n, cest `a dire le nombre denfants de chaque individu jusqu`a la
generation n1. Calculez E(s
Z
n+1
[T
n
)`a laide de la question 3 de lExercice 1.5.6 du
Chapitre 1. En deduire la formule
G
n
(s) := E
_
s
Zn
_
= G G
. .
n fois
(s).
4. Exprimer en francais `a quoi correspond la quantite G
n
(0). On sinteresse `a la proba-
bilite dextinction de la population, i.e. `a p := P(n N : Z
n
= 0). Exprimer p en
fonction des G
n
(0).
5. En reprenant les graphes dessines au 2., montrer que p = 1 si m 1 et p = G(p) < 1,
si m > 1.
6. On pose M
n
:= Z
n
/m
n
. A laide de la question 2 de lExercice 1.5.6, montrer que M
n
est une martingale. Que vaut E(M
n
) ?
7. On admet que la limite M

() := lim
n
M
n
() existe pour presque tout . Dans
le cas m 1, que vaut M

? Et E(M

) ? Comparer E(M

) et lim
n
E(M
n
).
8.

Etablir legalite : E(exp(M
n
)) = G
n
(exp(/m
n
)).
9. Pour > 0, justier `a laide du theor`eme de convergence dominee, le passage `a la
limite :
lim
n
E(exp(M
n
)) = E(exp(M

)) =: L().
CHAPITRE 2. MARTINGALES 48
Deduire du 8. (et en se rappelant que G
n
= GG
n1
) lequation fonctionnelle veriee
par L :
L() = G(L(/m)).
Remarque : Cette equation determine la fonction L, qui elle meme determine la loi de M

.
2.4.8 *Premi`ere inegalite maximale (Doob)
Considerons une martingale positive (X
n
)
nN
et pour a > 0 appelons
a
:= infk N :
X
k
a le premier temps de passage de X
n
au dessus de a.
1. Le temps
a
est-il un temps darret ?
2. Fixons un entier n. Justier les egalites
E(X
min(a,n)
) = E(X
0
) = E(X
n
)
et en deduire legalite
E(X
a
1
an
) = E(X
n
1
an
).
3. A partir de la derni`ere egalite obtenir la majoration (dite inegalite maximale de
Doob)
P
_
max
k=1...n
X
k
a
_

1
a
E(X
n
1
max
k=1...n
X
k
a
) . (2.3)
4. Montrer que cette inegalite est encore vraie pour une sous-martingale positive.
2.4.9 *Seconde inegalite maximale (Doob)
Soit p un reel plus grand que 1 et (M
n
) une martingale. Notons S
n
= sup
0kn
[M
k
[.
1. Montrer que ([M
n
[) est une sous-martingale positive.
2. A laide de la formule de Fubini et de la premi`ere inegalite maximale (2.3), montrer
que
E(S
p
n
) =
_

0
px
p1
P(S
n
x) dx

_

0
px
p2
E
_
[M
n
[1
{Snx}
_
dx = E
_
[M
n
[S
p1
n
_

p
p 1
.
3. A laide de linegalite de Holder en deduire la relation
E(S
p
n
)
_
p
p 1
_
p
E([M
n
[
p
)
puis la seconde inegalite maximale
E
_
sup
n0
[M
n
[
p
_

_
p
p 1
_
p
sup
n0
E([M
n
[
p
) . (2.4)
CHAPITRE 2. MARTINGALES 49
2.4.10 *Identite de Wald
Considerons une marche au hasard S
n
= X
1
+ +X
n
, avec les (X
n
)
nN
i.i.d. (independants
et de meme loi). Notons m := E(X
n
) < + et pour a > 0 posons T := infn N : S
n

a.
1. Que dire de T ?
2. On suppose que m > 0. Que dire du processus (S
n
nm)
nN
? En deduire legalite
mE(T n) = E(S
Tn
) = E(S
T
1
Tn
) +E(S
n
1
T>n
).
3. Montrer que E(S
n
1
T>n
) a P(T > n), puis justier `a laide de la loi des grands
nombres legalite (appelee identite de Wald)
E(T) =
1
m
E(S
T
) (se limiter au cas o` u X
n
0 pour tout n).
4. On suppose maintenant que m = 0. Montrer que (S
n
) est une martingale. A-t-on
E(S
T
) = E(S
0
) ? Pourquoi ? Pour > 0 on pose T

= infk N : S
k
+ k a.
Justier le fait que T T

et montrer (avec lidentite de Wald) que


E(T) E(T

) =
1

E(S
T
+T

)
a

.
Que vaut E(T) ?
2.4.11 *Martingales de carre integrable
Considerons une martingale (V
n
)
n0
, avec T
n
= (V
0
, . . . , V
n
) et E(V
2
n
) < + pour tout
n.
1. Pour k 0, montrer que E(V
k+1
V
k
) = E(V
2
k
). En deduire
E((V
k+1
V
k
)
2
) = E(V
2
k+1
) E(V
2
k
).
2. En deduire que

k=0
E((V
k+1
V
k
)
2
) < + sup
nN
E(V
2
n
) < +.
Chapitre 3
Marche Bond-Stock
Objectifs : introduire le marche Bond-Stock (ou marche B-S) et les probabilites risque-
neutre. Relier cette derni`ere notion mathematique aux notions economiques darbitrage
et de completude.
3.1 Le marche Bond-Stock (ou marche B-S)
3.1.1

Evolution
On sinteresse `a un marche constitue de deux actifs :
un actif sans risque B (devolution previsible),
un actif risque S (devolution imprevisible).
Lactif sans risque B (Bond ou obligation) est typiquement un bon du tresor. Lactif risque
S (Stock) peut etre nimporte quelle valeur negociee sur les marches, par exemple une
action cotee en bourse, le cours dune mati`ere premi`ere, le cours dune option, etc. Notons
B
n
:= B
n
B
n1
et S
n
:= S
n
S
n1
les variations de B et de S entre les temps n 1
et n. Levolution des actifs B et S est decrite par
_
B
n
= r
n
B
n1
S
n
=
n
S
n1
(3.1)
avec r
n
le taux dinteret de B et
n
le rendement de S. Le taux dinteret de r
n
et le ren-
dement
n
sont a priori stochastiques, autrement dit r
n
et
n
sont des variables aleatoires.
On note T
n
linformation dont on dispose au temps n. Lactif B est dit sans risque car son
evolution est previsible : au temps n 1 on connait la valeur du taux dinteret r
n
pour
le temps n. La variable aleatoire r
n
est donc T
n1
-mesurable. Par contre, lactif S est un
actif risque : au temps n 1 on ne connait pas la valeur de
n
. La variable aleatoire
n
est donc T
n
-mesurable, mais pas T
n1
-mesurable. Notre information au temps n est donc
constituee de T
n
= (S
0
, . . . , S
n
, B
0
, . . . , B
n+1
).
50
CHAPITRE 3. MARCH

E BOND-STOCK 51
Remarque : Ici, le temps n est discret, et on peut voir X
n
= X
n
X
n1
comme la
derivee en temps discret de X. On supposera aussi dans toute la suite que B et S ne
peuvent prendre quun nombre ni de valeurs. Cela correspond en fait `a la realite : les
cotations sont donnees avec un nombre ni de chires apr`es la virgule et elles ne se font
pas exactement en temps continu.

Il est commode de reecrire levolution des actifs sous la forme suivante. Lequation (3.1)
donne B
n
B
n1
= r
n
B
n1
do` u B
n
= (1 +r
n
)B
n1
. Par recurrence on obtient
B
n
= (1 +r
n
) (1 +r
1
)B
0
,
et de la meme mani`ere S
n
= (1 +
n
) (1 +
1
)S
0
.
Denition - Exponentielle Stochastique -
A un processus (X
n
)
n0
on associe lexponentielle stochastique
n
(X) denie par
0
(X) =
1 et

n
(X) = (1 + X
1
) (1 + X
n
), n 1.
La terminologie exponentielle stochastique vient de lanalogie avec le temps continu o` u
cette quantite sexprime au travers dune exponentielle, voir la Section 7.4.1. On peut
reexprimer les valeurs de B
n
et S
n
avec lexponentielle stochastique. En posant
U
n
=
n

k=1
r
k
et V
n
=
n

k=1

k
,
les valeurs de B
n
et S
n
sont donnees par
_
B
n
= B
0

n
(U)
S
n
= S
0

n
(V ).
Le lemme suivant repertorie les principales proprietes de lexponentielle stochastique.
Lemme 3.1 Proprietes de
n
()
1. On a
n
(X)
n
(Y ) =
n
(X +Y +[X, Y ]), o` u [X, Y ]
n
=

n
k=1
X
k
Y
k
est appelee
variation quadratique de X et Y . Par convention [X, Y ]
0
= 0.
2. On a 1/
n
(X) =
n
(X

), o` u X

0
= 0 et X

n
=
Xn
1+Xn
.
3. (
n
(X))
nN
est une martingale ssi (X
n
)
nN
est une martingale.
CHAPITRE 3. MARCH

E BOND-STOCK 52
Preuve:
1. Par recurrence. La formule est vraie pour n = 0. Supposons quelle soit vraie au rang n1, et
montrons quelle sera alors vraie au rang n :

n
(X)
n
(Y ) =
n1
(X) (1 + X
n
)
n1
(Y ) (1 + Y
n
)
=
n1
(X)
n1
(Y ) (1 + X
n
+ Y
n
+ X
n
Y
n
)
recurrence
=
n1
(X +Y + [X, Y ]) (1 + (X +Y + [X, Y ])
n
)
=
n
(X +Y + [X, Y ]).
2. Denissons X

par X

0
= 0 et X

n
=
Xn
1+Xn
. Vu la formule du 1. on a

n
(X)
n
(X

) =
n
(X X

[X, X

]).
On a aussi
(X X

[X, X

])
n
= X
n

X
n
1 + X
n
X
n
_
X
n
1 + X
n
_
=
X
n
+ (X
n
)
2
X
n
(X
n
)
2
1 + X
n
= 0.
Comme pour tout processus Z, on a legalite Z
n
= Z
0
+

n
k=1
Z
k
, il sen suit que (X X


[X, X

])
n
= 0 et nalement
n
(X)
n
(X

) =
n
(0) = 1.
3. En utilisant que
n1
(X) est T
n1
-mesurable on obtient
E(
n
(X) [ T
n1
) = E((1 + X
n
)
n1
(X) [ T
n1
)
=
n1
(X)(1 +E(X
n
[ T
n1
)).
donc
E(
n
(X) [ T
n1
) =
n1
(X) ssi E(X
n
[ T
n1
) = 0
ssi E(X
n
[ T
n1
) = X
n1
.
Conclusion : (
n
(X)) est une martingale ssi (X
n
) est une martingale. 2
3.1.2 Probabilites risque-neutre
Nous avons vu sur le mod`ele `a un pas / deux etats quil pouvait etre judicieux de
regarder levolution du marche non pas sous la probabilite reelle P, mais sous une probabilite
articielle, appelee probabilite risque-neutre, qui annule en moyenne la tendance haussi`ere
ou baissi`ere du cours reactualise de S. Nous allons generaliser cette demarche.
CHAPITRE 3. MARCH

E BOND-STOCK 53
Denition - Probabilite risque-neutre -
On dit que P

est une probabilite risque-neutre si


P

est equivalente `a la probabilite reelle P, cest `a dire P

(A) = 0 ssi P(A) = 0,


(S
n
/
n
(U))
nN
est une martingale sous P

.
La premi`ere condition est une condition technique qui impose quun evenement qui na pas
lieu dans le monde reel (P(A) = 0), na pas lieu non-plus sous la probabilite risque-neutre
(P

(A) = 0) ; et vice-versa. La seconde condition est equivalente `a (S


n
/B
n
)
nN
est une
martingale sous P

.
La valeur S
n
/
n
(U) est appelee valeur reactualisee de S
n
. Elle correspond `a la valeur
relative de S
n
par rapport `a B
n
. Autrement dit, elle donne le nombre dobligation B que
lon peut acheter au temps n avec un actif S.
Comment interpreter cette probabilite P

?
Sous la probabilite P

les evolutions possibles du marche sont les memes que dans le


monde reel (sous P), mais elles ont lieu avec une probabilite dierente. Par exemple,
une evolution tr`es probable sous P, sera peut etre peu probable sous P

. La probabilite
P

nest donc pas observee sur les marches, mais cest un outil de calcul tr`es utile. Elle
permet de se ramener `a un marche risque-neutre o` u la valeur relative (S
n
/B
n
) du cours
de S par rapport au cours de B na pas de tendance haussi`ere ou baissi`ere.
Nous allons relier dans les paragraphes suivants lexistence dune probabilite risque-neutre
aux notions economique darbitrage et de completude du marche.
Dorenavant, nous noterons E

(X) pour lesperance de X prise sous la probabilite P

,
E

(X [ T
n
) pour lesperance conditionnelle de X sachant T
n
sous la probabilite P

, etc.
Par exemple, si X : x
1
, . . . , x
k

(X) =
k

i=1
x
i
P

(X = x
i
).
La prochaine proposition exprime la condition sur U
n
et V
n
pour quune probabilite soit
risque-neutre.
Proposition 3.2 - Caracterisation dune probabilite risque-neutre -
Si P

est une probabilite equivalente `a P alors


P

est une probabilite risque-neutre ssi (V


n
U
n
) est une martingale sous P

.
Preuve: Pour montrer que P

est une probabilite risque-neutre il faut verier que (S


n
/
n
(U))
est une martingale sous P

si et seulement si (V
n
U
n
) est une martingale sous P

. Exprimons
CHAPITRE 3. MARCH

E BOND-STOCK 54
S
n
/
n
(U) `a laide de lexponentielle stochastique :
S
n

n
(U)
=
S
0

n
(V )

n
(U)
Lemme 3.1.2
= S
0

n
(V )
n
(U

)
Lemme 3.1.1
= S
0

n
(V U

[V, U

])
On deduit du Lemme 3.1.3 que le processus (S
n
/
n
(U))
nN
est une martingale sous P

ssi (V
U

[V, U

])
nN
en est une. Par ailleurs, on a
(V U

[V, U

])
n
= V
n

U
n
1 + U
n
V
n
U
n
1 + U
n
=
V
n
U
n
1 + U
n
.
En consequence, (V U

[V, U

])
nN
est une martingale sous P

ssi
E

((V U

[V, U

])
n
[ T
n1
) = E

_
V
n
U
n
1 + U
n
[ T
n
_
= 0.
Or U
n
= r
n
est T
n1
-mesurable donc
E

((V U

[V, U

])
n
[ T
n1
) =
1
1 + U
n
E

(V
n
U
n
[ T
n1
)
et (V U

[V, U

])
nN
est une martingale ssi E

(V
n
U
n
[ T
n1
) = 0
cest `a dire ssi V U est une martingale. En recollant tous les morceaux, on obtient le resultat
annonce. 2
3.1.3 Portefeuilles autonances
Confectionnons-nous un portefeuille = (
n
,
n
)
nN
compose au temps n de
n
unites de
B et
n
unites de S. Sa valeur au temps n est
X

n
=
n
B
n
+
n
S
n
.
La gestion du portefeuille seectue de la mani`ere suivante. Au temps n, nous possedons
une quantite
n
et
n
dactifs B et S dont les cours sont B
n
et S
n
. Nous composons notre
portefeuille de nouvelles quantites
n+1
et
n+1
dactifs B et S. Ce choix seectue au
temps n, donc
n+1
et
n+1
sont T
n
-mesurables (ou de mani`ere equivalente
n
et
n
sont
T
n1
-mesurables).
Au temps n, la valeur du portefeuille est donnee par X

n
=
n
B
n
+
n
S
n
. Apr`es le
reinvestissement, sa valeur est donnee par
n+1
B
n
+
n+1
S
n
. Il est naturel de considerer les
portefeuilles qui gardent une valeur constante lors du reinvestissement (on najoute ni ne
retire de largent au portefeuille), cest `a dire tels que

n
B
n
+
n
S
n
=
n+1
B
n
+
n+1
S
n
.
Un tel portefeuille sera dit autonance. Dans la denition suivante, la condition dauto-
nancement est exprimee au temps n 1 plutot que n.
CHAPITRE 3. MARCH

E BOND-STOCK 55
Denition - Portefeuille autonance -
Un portefeuille est dit autonance si

n1
B
n1
+
n1
S
n1
=
n
B
n1
+
n
S
n1
ce que lon peut reecrire sous la forme

n
B
n1
+
n
S
n1
= 0.
Attention! La valeur dun portefeuille autonance ne varie pas lors du reinvestissement,
mais elle varie entre deux instants consecutifs. Lexercice 3.5.1 montre que la variation de
X

entre le temps n 1 et le temps n est donnee par X

n
=
n
B
n
+
n
S
n
.
Comment evolue statistiquement la valeur X

n
dun portefeuille autonance sous une pro-
babilite risque-neutre ? La reponse est donnee par le resultat suivant.
Proposition 3.3 - Autonancement et martingales -
Supposons quil existe une probabilite risque-neutre P

. Alors, la valeur reactualisee


(
n
(U)
1
X

n
)
n0
dun portefeuille autonance est une martingale sous P

.
Preuve: Comme B
n
= B
0

n
(U), la valeur reactualisee du portefeuille est donnee par
X

n
/
n
(U) =
n
B
0
+
n
S
n
/
n
(U).
En prenant lesperance conditionnelle de cette egalite on obtient
E

_
X

n
(U)
[ T
n1
_
= E

(
n
B
0
[ T
n1
) +E

n
S
n

n
(U)
[ T
n1
_
=
n
B
0
+
n
E

_
S
n

n
(U)
[ T
n1
_
(car
n
et
n
sont T
n1
-mesurable)
=
n
B
0
+
n
S
n1

n1
(U)
(car (S
n
/
n
(U)) est une martingale sous P

)
= (
n
B
n1
+
n
S
n1
) /
n1
(U) (car B
n1
= B
0

n1
(U))
= (
n1
B
n1
+
n1
S
n1
) /
n1
(U) (par autonancement)
= X

n1
/
n1
(U),
donc (X

n
/
n
(U)) est bien une martingale sous P

. 2
CHAPITRE 3. MARCH

E BOND-STOCK 56
3.2 Arbitrage et martingales
Dorenavant on sinteresse `a levolution du marche jusqu`a une date N xee.
En economie, la notion dopportunite darbitrage correspond `a la notion dopportunite
de gagner de largent sans prendre de risque. Mathematiquement, cela se formalise de la
mani`ere suivante.
Denition - Opportunite darbitrage -
On dit quil existe une opportunite darbitrage sil existe un portefeuille autonance
tel que
X

0
= 0, X

n
0 n N, et P
_
X

N
> 0
_
> 0.
Autrement dit, il existe une opportunite darbitrage sil est possible, en gerant un por-
tefeuille de facon autonancee, de gagner de largent (avec probabilite positive), tout en
ayant aucun risque den perdre. Cette hypoth`ese est naturelle dans un marche equilibre.
Le theor`eme fondamental suivant relie la notion economique dabsence dopportunite dar-
bitrage `a la notion mathematique dexistence dune probabilite risque-neutre.
Theor`eme 3.4 - Arbitrage et probabilites risque-neutre -
Il nexiste pas dopportunite darbitrage

Il existe au moins une probabilite risque-neutre.


Preuve:
() Soit P

une probabilite risque-neutre et un portefeuille autonance tel que X

0
= 0. Dapr`es
la Proposition 3.3, (X

n
/
n
(U))
nN
est martingale sous P

. En particulier
E

_
X

N
(U)
_
= E

_
X

0
(U)
_
= 0.
En consequence si X

N
/
N
(U) 0, alors necessairement P

(X

N
> 0) = 0. Comme de plus P et
P

sont par hypoth`ese equivalentes, on en deduit que P(X

N
> 0) = 0. Il ny a pas dopportunite
darbitrage possible.
() La preuve de la reciproque est plus ardue. Nous renvoyons le lecteur interesse `a [6] Theor`eme 2.6.
2
CHAPITRE 3. MARCH

E BOND-STOCK 57
3.3 Completude du marche
En economie un marche complet correspond `a un marche ideal, sans contraintes ni frais
de transactions, o` u tous les actifs sont accessibles `a tout moment et en nimporte quelle
quantite. Mathematiquement, cette notion est formalisee de la mani`ere suivante.
Denition - Marche complet -
Le marche B-S est dit complet si, pour toute variable aleatoire f : R
+
, il existe un
portefeuille autonance qui replique f `a lecheance N, cest `a dire tel que
X

N
() = f(), .
Lhypoth`ese de completude du marche est dicilement justiable economiquement. Cepen-
dant, cette hypoth`ese permet de construire une theorie devaluation des produits derives
tr`es simple, qui sert de guide en pratique.
Nous allons voir que la notion de completude est liee `a lunicite dune probabilite risque-
neutre.
Theor`eme 3.5 Completude et probabilite risque-neutre
Considerons un marche B-S sans opportunite darbitrage. On a lequivalence :
Le marche est complet Il existe une unique probabilite risque-neutre P

.
Preuve: () Supposons que le marche soit complet et quil existe deux probabilites risque-neutre
P

et P

. Comme P

,= P

, il existe un evenement A tel que


P

(A) ,= P

(A) . (3.2)
Posons f() =
N
(U)()1
A
(). Le marche etant complet il existe un portefeuille autonance
tel que X

N
() = f() quel que soit . Dapr`es la Proposition 3.3, la valeur reactualisee du
portefeuille est une martingale sous P

et sous P

. En consequence,
E

N
(U)
1
X

N
_
= E

0
(U)
1
X

0
_
et E

N
(U)
1
X

N
_
= E

0
(U)
1
X

0
_
.
Or dune part
0
(U)
1
= 1 et dautre part
N
(U)
1
X

N
=
N
(U)
1
f = 1
A
, donc
E

(1
A
) = X

0
= E

(1
A
),
cest `a dire P

(A) = P

(A) ce qui contredit (3.2). Il ne peut donc pas exister deux probabilites
risque-neutre dierentes. On sait par ailleurs quil en existe au moins une car on a suppose
labsence dopportunite darbitrage.
() Comme precedemment, nous ne demontrerons pas la reciproque. Nous renvoyons le lecteur
curieux `a [6] Theor`eme 3.4. 2
CHAPITRE 3. MARCH

E BOND-STOCK 58
3.4 Le lemme de Girsanov
Dans le cadre du marche B-S, les notions economiques dabsence dopportunite darbitrage
et de completude correspondent aux notions mathematiques dexistence et dunicite dune
probabilite risque-neutre P

. Nous allons voir dans ce paragraphe un moyen pour obtenir


une telle probabilite P

`a partir de P.
On peut creer facilement une nouvelle probabilite P

`a partir de P. Considerons une variable


aleatoire Z > 0 veriant E(Z) = 1 et denissons P

en posant
P

() = Z()P(), pour tout . (3.3)


On a alors pour tout evenement A
P

(A) =

A
P

() =

A
Z()P() = E(Z1
A
).
On verie aisement que P

est bien une probabilite


1
, et on peut montrer que toute proba-
bilite P

equivalente `a P est de la forme (3.3). On verie egalement que lesperance sous P

dune variable aleatoire X est donnee (d`es quelle existe) par


E

(X) = E(ZX).
Le lemme suivant permet dobtenir, pour un processus qui nest pas une martingale sous
P, une probabilite P

de la forme (3.3) sous laquelle le processus sera une martingale.


Lemme 3.6 - Formule de Girsanov (temps discret) -
Soit (M
n
)
nN
une T
n
-martingale sous la probabilite P et Z une variable aleatoire veriant
E(Z) = 1 et Z() > 0, pour tout .
Denissons la probabilite P

en posant
P

() = Z()P(), pour tout .


Alors le processus (M

n
)
nN
deni par
M

n
= M
n

k=1
E
_
Z
k
Z
k1
M
k

T
k1
_
, avec Z
n
= E(Z[T
n
),
est une martingale sous la probabilite P

.
La preuve de ce resultat est donne dans lExercice 3.5.4. Lexemple suivant vous propose
une application de cette formule.
1
cest `a dire P

(A) [0, 1], P

() = 1 et P

(
i
A
i
) =

i
P

(A
i
) si A
i
A
j
= pour tout i ,= j.
CHAPITRE 3. MARCH

E BOND-STOCK 59
Exemple. Supposons que les taux dinteret r
n
sont constants, cest `a dire r
n
= r > 0
pour tout n, et que les (
n
)
nN
sont i.i.d. (independantes et de meme loi). Notons
m = E(
n
),
2
= E((
n
m)
2
) > 0
et
Z
N
= c
N
(G) avec G
n
:=
r m

2
(
1
+ +
n
mn).
Lorsque Z
N
() > 0 pour tout , nous pouvons montrer `a laide de la formule de
Girsanov, que la probabilite P

denie par
P

() = Z
N
()P(), pour tout , (3.4)
est une probabilite risque-neutre, voir lExercice 3.5.5.
3.5 Exercices
3.5.1 Variation dun portefeuille autonance
Montrer que la variation X

n
X

n1
de la valeur dun portefeuille autonance entre le
temps n 1 et le temps n est donnee par
X

n
=
n
B
n
+
n
S
n
.
3.5.2 Valeur reactualisee dun portefeuille autonance
Soit = (
n
,
n
)
nN
un portefeuille autonance.
1. Montrer `a laide de la condition dautonancement que

_
X

n
(U)
_
=
n
_
S
n

n
(U)

S
n1

n1
(U)
_
=
n

_
S
n

n
(U)
_
.
2. En deduire que la valeur reactualisee dun portefeuille autonance est donnee par
X

n
(U)
= X

0
+
n

k=1

k

_
S
k

k
(U)
_
.
3.5.3 Valeur reactualisee dun portefeuille autonance (bis)
Considerons un marche B-S. On suppose quil existe une probabilite risque-neutre P

et
on note T
n
= (S
0
, . . . , S
n
).
CHAPITRE 3. MARCH

E BOND-STOCK 60
1. Montrer que si V
n
est une T
n
-martingale sous P

et si (
n
) est previsible (cest `a dire

n
est T
n1
-mesurable pour tout n) alors le processus (M
n
) deni par
M
n
= M
0
+
n

k=1

k
V
k
est une T
n
-martingale sous P

.
2. Retrouver `a partir de lexercice precedent, le resultat de la Proposition 3.3 : si
est un portefeuille autonance, sa valeur reactualisee (X

n
/
n
(U)) est une martingale
sous P

.
3.5.4 *Changement de probabilite : le lemme de Girsanov
Placons nous dans le cadre du lemme de Girsanov. Rappelons que pour toute variable
aleatoire X on a la formule
E

(X) =

X()P

() =

X()Z()P() = E(ZX).
1. On pose Z
n
= E(Z[T
n
). Montrer que (Z
n
)
nN
est une martingale sous P.
2. Montrer que pour tout p N et toute variable aleatoire T
p
-mesurable W, on a :
E

(W) = E(ZW) = E(Z


p
W).
3. Montrer que pour toute variable aleatoire T
n
-mesurable X, on a
E

(X[T
n1
) =
1
Z
n1
E(XZ
n
[T
n1
).
4. On note
n
= Z
n
/Z
n1
. Montrer que le processus (M

n
)
nN
deni par
M

n
= M
n

k=1
E(
k
M
k
[T
k1
),
est une martingale sous la probabilite P

.
3.5.5 Determination dune probabilite risque-neutre
On se place dans le cadre de lexemple du paragraphe 3.4 : les taux dinteret r
n
sont
constants, i.e. r
n
= r > 0 pour tout n (donc U
n
= rn), et les (
n
)
nN
sont i.i.d.
(independantes et de meme loi). Notons
m = E(
n
) 0, et
2
= E((
n
m)
2
) > 0.
CHAPITRE 3. MARCH

E BOND-STOCK 61
1. On note V
n
=
1
+. . .+
n
et M
n
= V
n
mn. Montrer que (M
n
)
nN
est une martingale
sous P.
2. Soit G
n
:=
rm

2
M
n
et Z
N
= c
N
(G). Montrer que (G
n
)
nN
et (c
n
(G))
nN
sont des
martingales sous la probabilite P.
3. En deduire (avec les notations de lExercice 3.5.4) que Z
n
= c
n
(G) pour n N. Que
vaut
n
?
4. Montrer que si (
n
() m)(r m) +
2
> 0 pour tout n N et , alors P

denie par (3.4) est une probabilite.


5. Montrer (`a laide du lemme de Girsanov) que (V
n
U
n
)
nN
est une martingale sous
P

.
6. En deduire que P

est une probabilite risque-neutre.


Chapitre 4
Couverture des options europeennes
Objectif : determiner dans le cadre du marche B-S le prix dune option de type europeenne.
4.1 Position du probl`eme
Une option de type europeenne est un contrat qui ne peut etre exerce qu`a lecheance N
xee `a lavance. Une telle option est donc caracterisee par son echeance N et sa fonction
de paiement f : R. La quantite f() correspond `a ce que recoit le detenteur de
loption `a lecheance N dans leventualite .
Exemples doptions europeennes :
- option dachat europeenne : f() = (S
N
() K)
+
- option de vente europeenne : f() = (K S
N
())
+
- option Collar : f() = min(S
N
() K
1
, K
2
)
- option look-back : f() = S
N
() min(S
0
(), . . . , S
N
())
- option asiatique f() =
S
Np
()++S
N
()
p
pour un p < N.
Pour se couvrir le vendeur de loption va investir sur le marche largent que lacheteur lui
a verse. Il va se constituer un portefeuille dont la valeur `a la date N lui permettra de
faire face `a son engagement : son portefeuille doit donc verier X

N
() f() pour tout
. On appelle portefeuille de couverture un tel portefeuille.
Denition - Portefeuille de couverture -
Un portefeuille est un portefeuille de couverture, si sa valeur `a lecheance est superieure
ou egale ` a la fonction de paiement f, cest `a dire si
X

N
() f(), .
62
CHAPITRE 4. COUVERTURE DES OPTIONS EUROP

EENNES 63
Le vendeur ne va pas injecter dargent dans son portefeuille ni en retirer. Il va donc le gerer
de mani`ere autonancee. De plus, la valeur initiale X

0
de son portefeuille va correspondre
au montant (la prime) que lacheteur lui a verse. En consequence, le prix (equitable) dune
option correspond `a la plus petite valeur initiale X

0
parmi toutes les valeurs initiales des
portefeuilles de couverture autonances . Ecrit de mani`ere synthetique cela donne :
Denition - Prix dune option europeenne -
Le prix C dune option europeenne de fonction de paiement f et decheance N correspond
`a la quantite
C := inf
_
X

0
tel que
est autonance
X

N
() f(),
_
.
4.2 Prix dune option dans un marche complet
Nous supposerons dans ce paragraphe que le marche B-S est sans opportunite darbitrage
et complet. Vu les resultats du chapitre precedent, il existe donc une unique probabilite
risque-neutre P

. Le resultat suivant etablit le prix dune option europeenne en fonction de


P

.
Theor`eme 4.1 Prix dune option europeenne.
1. Le prix dune option europeenne de fonction de paiement f `a lecheance N est
C = E

N
(U)
1
f
_
.
2. Il existe un portefeuille de couverture autonance

de valeur initiale C. La valeur


au temps n de ce portefeuille est donnee par
X

n
= E

N
(U)
1

n
(U)f [ T
n
_
o` u T
n
= (B
0
, . . . , B
n+1
, S
0
, . . . , S
n
).
Remarques :
Le resultat precedent ne donne pas la composition (

n
,

n
)
nN
du portefeuille

. Ce-
pendant, on peut generalement utiliser la formule donnant X

n
pour calculer

n
et

n
.
La diculte consiste souvent `a determiner P

(voir les exercices du chapitre precedent).


Si P

est connu, on peut alors obtenir C, au moins par des simulations numeriques (avec
des methodes de Monte-Carlo).
CHAPITRE 4. COUVERTURE DES OPTIONS EUROP

EENNES 64
Preuve: Considerons un portefeuille de couverture autonance . Sous P

, la valeur reactualisee
du portefeuille (X

n
/
n
(U))
nN
est une martingale (Proposition 3.3) donc
E

(
N
(U)
1
X

N
) = X

0
.
Or X

N
() f() pour tout donc
X

0
E

(
N
(U)
1
f).
Cela etant vrai pour tout portefeuille de couverture autonance, on en deduit que
C := inf
_
X

0
tel que
est autonance
X

N
() f(),
_
E

N
(U)
1
f
_
. (4.1)
Parall`element, le marche etant complet il existe un portefeuille autonance

tel que X

N
() =
f() pour tout . Comme

est autonance, (X

n
/
n
(U))
nN
est une martingale. En
consequence
X

0
= E

N
(U)
1
X

N
_
= E

N
(U)
1
f
_
et comme

est un portefeuille de couverture autonance, on a X

0
C, donc nalement
C E

N
(U)
1
f
_
. (4.2)
En combinant (4.1) et (4.2) on obtient
C = E

N
(U)
1
f
_
.
Nous avons prouve le 1. Concernant le 2. on remarque que

convient et comme (X

n
/
n
(U))
est une martingale sous P

n
(U)
= E

N
(U)
1
X

N
[ T
n
_
= E

N
(U)
1
f [ T
n
_
et on obtient la valeur du portefeuille

en multipliant legalite par


n
(U), et en faisant rentrer

n
(U) dans lesperance conditionnelle (car
n
(U) est T
n
-mesurable). 2
4.3 Et dans un marche incomplet ?
Que se passe-t-il si le marche est incomplet ? Dans ce cas, il ny a plus un prix rationnel,
mais une fourchette de prix acceptables (appelee spread par les anglo-saxons).
Considerons les deux quantites
prix demande (ask) : C
+
:= inf
_
X

0
tel que
est autonance
X

N
() f(),
_
et prix oert (bid) : C

:= sup
_
X

0
tel que
est autonance
X

N
() f(),
_
CHAPITRE 4. COUVERTURE DES OPTIONS EUROP

EENNES 65
Observons tout dabord que si P

est une probabilite risque-neutre,


C

N
(U)
1
f
_
C
+
. (4.3)
En eet, si est un portefeuille autonance, (X

n
/
n
(U)) est une martingale sous P

(Proposition 3.3) donc X

0
= E

N
(U)
1
X

N
_
. En particulier :
si X

N
f, alors X

0
E

(
N
(U)
1
f) et donc C
+
E

(
N
(U)
1
f) ,
si X

N
f, alors X

0
E

(
N
(U)
1
f) et donc C

(
N
(U)
1
f) .
Remarquons ensuite que si le marche est complet C
+
= C

(= C). En eet, nous avons vu


quil existe

autonance tel que X

0
= C
+
= E

(
N
(U)
1
f) et X

N
= f. Le portefeuille

verie aussi les conditions de C

donc C
+
= X

0
C

. Finalement C
+
= C

car on
a toujours C

C
+
(voir (4.3)).
Vu linegalite (4.3), dans un marche incomplet on a
C

inf
P

proba
risque-neutre
E

N
(U)
1
f
_
sup
P

proba
risque-neutre
E

N
(U)
1
f
_
C
+
.
En particulier C

< C
+
en general : on dit quil y a un spread non nul.
Dans un marche incomplet il peut etre interessant de developper des portefeuilles de couver-
ture non strictement autonances : par exemple des portefeuilles autonances en moyenne,
etc. Il y a alors un risque de ne pas pouvoir couvrir loption (donc de perdre de largent)
et il sagit de minimiser les risques. Nous renvoyons le lecteur interesse `a des ouvrages plus
avances, tels [6, 7].
4.4 Exercices
4.4.1 Un calcul de prix doption
Placons-nous dans le cadre dun marche B-S avec des taux dinterets r
n
= 0. Lactif
risque S evolue au cours du temps selon la dynamique S
n
=
n
S
n1
, o` u les (
n
)
n1
sont independants et de meme loi. On suppose de plus que les
n
ne peuvent prendre que
deux valeurs 1 et 1/2 avec les probabilites P(
n
= 1) = 1/3 et P(
n
= 1/2) = 2/3.
Enn, on note T
n
= (S
0
, . . . , S
n
).
1. Calculez E(S
n+1
[T
n
). En deduire que P est une probabilite risque-neutre.
2. On admet que le marche est complet. Calculez le prix dune option decheance N et
de fonction de paiement f = log(S
N
).
4.4.2 Un autre calcul de prix doption
Placons nous dans le cadre dun marche B-S avec des taux dinterets r
n
constants et egaux
`a r = (e 1)/2. Supposons que la valeur de lactif risque est donne au temps n par
CHAPITRE 4. COUVERTURE DES OPTIONS EUROP

EENNES 66
S
n
= exp(X
1
+ + X
n
) avec les (X
i
)
i0
independants et de meme loi de Bernoulli de
param`etre 1/2, i.e. les X
i
ne peuvent prendre que deux valeurs 0 ou 1 et P(X
i
= 0) =
P(X
i
= 1) = 1/2. On pose S
0
= 1 , T
n
= (X
1
, . . . , X
n
) et on note

S
n
= (1 + r)
n
S
n
la
valeur reactualisee de S.
1. Calculez E
_

S
n+1
[T
n
_
(Attention, ici on ne sait pas si P est une probabilite risque-
neutre).
2. En deduire que P est une probabilite risque-neutre.
3. On admet que le marche est complet. Calculez en fonction de N et e le prix dune
option decheance N et de fonction de paiement S
2
N
.
4.4.3 Relation Call-Put
Placons nous dans le cadre dun marche B-S sans opportunite darbitrage et complet.
Notons P

lunique probabilite risque-neutre. Nous supposerons dans la suite que les taux
dinterets r
n
sont constants et egaux `a r 0.
Considerons une option dachat europeenne decheance N et de fonction de paiement (S
N

K)
+
, o` u K est une constante positive. A toute date n N, cette option a une valeur donnee
par C
n
= (1+r)
nN
E

((S
N
K)
+
[T
n
). De meme une option de vente europeenne decheance
N et de fonction de paiement (K S
N
)
+
a une valeur P
n
= (1 +r)
nN
E

((K S
N
)
+
[T
n
)
`a tout temps n N.
1. Que vaut la quantite (x K)
+
(K x)
+
? (separer les cas x K et x < K)
2. Pour n N, calculez C
n
P
n
en fonction de K, r et S
n
.
3. Que vaut C
0
P
0
?
4. Donnez une explication nanci`ere de ce resultat.
4.4.4 Mod`ele binomial de Cox-Ross-Rubinstein
Considerons un marche B-S o` u les taux dinterets sont constants, i.e. r
n
= r 0 et o` u les
(
n
)
nN
forment une suite de variables aleatoires i.i.d. (independantes et de meme loi) ne
pouvant prendre que deux valeurs a et b, avec 1 < a < r < b. Nous allons calculer le prix
et la couverture dune option de fonction de paiement f := g(S
N
) `a lecheance N.
1. Montrer que :
P

est une probabilite risque-neutre E

(
n
) = r
p

:= P

(
n
= b) =
ra
ba
2. Calculer P

_
S
N
= S
0
(1 +b)
k
(1 +a)
Nk
_
en fonction de p

. En deduire que le prix


de loption est donne par C = (1 +r)
N
G

N
(S
0
) o` u
G

N
(x) :=
N

k=0
g
_
x(1 +b)
k
(1 +a)
Nk
_
C
k
N
p
k
(1 p

)
Nk
.
CHAPITRE 4. COUVERTURE DES OPTIONS EUROP

EENNES 67
3. A laide de la formule de lExercice 1.5.7 montrer que la valeur au temps n du por-
tefeuille de couverture optimal

est donnee par


X

n
= (1 +r)
(Nn)
G

Nn
(S
n
).
4. Supposons que lon soit au temps n1, on connait S
0
, S
1
, . . . , S
n1
et on doit choisir

n
et

n
. Montrer que lon doit avoir :
_

n
B
0
(1 +r)
n
+

n
S
n1
(1 +a) = (1 +r)
(Nn)
G

Nn
(S
n1
(1 +a))

n
B
0
(1 +r)
n
+

n
S
n1
(1 +b) = (1 +r)
(Nn)
G

Nn
(S
n1
(1 +b)).
5. En deduire que

n
= (1 +r)
(Nn)
G

Nn
(S
n1
(1 +b)) G

Nn
(S
n1
(1 +a))
(b a)S
n1
et

n
=
X

n1

n
S
n1
B
0
(1 +r)
n1
=
(1 +r)
(Nn+1)
G

Nn+1
(S
n1
)

n
S
n1
B
0
(1 +r)
n1
.
6. Supposons que loption soit une option dachat europeenne, i.e. g(S
N
) = (S
N

K)
+
. Montrer que le prix de loption est alors donne par la formule de Cox-Ross-
Rubinstein :
C = S
0
B(k
0
, N, p

) (1 +r)
N
KB(k
0
, N, p

)
o` u p

=
1 +b
1 +r
p

, B(k
0
, N, p) =
N

k=k
0
C
k
N
p
k
(1 p)
Nk
et k
0
:= mink N : S
0
(1 +a)
Nk
(1 +b)
k
> K = 1 +
_
log
K
S
0
(1+a)
N
/ log
1+b
1+a

.
4.4.5 *Mod`eles de Black-Scholes et Merton (non corrige)
Nous allons maintenant voir quel est le comportement du mod`ele binomial de Cox-Ross-
Rubinstein lorsque le pas de temps tend vers 0 (limite continue). Supposons que N = T/,
r = , a =

et b =

et etudions la limite 0 avec T = N restant


constant.
1. Montrer `a laide du theor`eme de la limite centrale que
B(k
0
, N, p

)
0

_
Np

k
0
_
Np

(1 p

)
_
B(k
0
, N, p

)
0

_
Np

k
0
_
Np

(1 p

)
_
o` u (x) =
1

2
_
x

e
t
2
/2
dt.
CHAPITRE 4. COUVERTURE DES OPTIONS EUROP

EENNES 68
2. Montrer successivement que
k
0

log(K/S
0
) +T/

Np


T(
2
/2) +T/

Np


T( +
2
/2) +T/

_
Np

(1 p

)
1
2
_
T

_
Np

(1 p

)
1
2
_
T

(1 +r)
N
e
T
.
3. En deduire que
C
0
S
0

_
T( +
2
/2) + log(S
0
/K)

T
_
Ke
T

_
T(
2
/2) + log(S
0
/K)

T
_
.
On retrouve ici la formule de Black-Scholes.
Si on avait pris a = et b constant, on aurait obtenu comme limite le mod`ele de Merton
base sur un processus de Poisson. Dans ce cas C S
0
P
1
Ke
T
P
2
o` u
P
1
=

i=k
0
[(1 +b)( +)T/b]
i
i!
exp[(1 +b)( +)T/b)]
P
2
=

i=k
0
[( +)T/b]
i
i!
exp[( +)T/b)]
4.4.6 Probl`eme : Option Margrabe
Partie I
Considerons un marche constitue de deux actifs risques : un actif 1 et un actif 2. On
appelle S
(1)
n
et S
(2)
n
les valeurs au temps n dune unite dactif 1 et dune unite dactif 2. On
supposera que la dynamique du marche est donnee par
S
(1)
n
=
(1)
n
S
(1)
n1
S
(2)
n
=
(2)
n
S
(2)
n1
au temps n 1, avec
(1)
n
,
(2)
n
> 1 et la notation X
n
:= X
n
X
n1
. On note T
n
=

_
S
(1)
1
, . . . , S
(1)
n
, S
(2)
1
, . . . , S
(2)
n
_
linformation dont on dispose au temps n.
CHAPITRE 4. COUVERTURE DES OPTIONS EUROP

EENNES 69
1. Montrer que S
(1)
n
= c
(1)
n
S
(1)
0
et S
(2)
n
= c
(2)
n
S
(2)
0
avec c
(1)
0
= 1, c
(2)
0
= 1, c
(1)
n
=
(1 +
(1)
1
) . . . (1 +
(1)
n
) et c
(2)
n
= (1 +
(2)
1
) . . . (1 +
(2)
n
) pour n 1.
2. Considerons un portefeuille constitue au temps n dune quantite
(1)
n
dactif 1 et
(2)
n
dactif 2 ; donc de valeur X

n
=
(1)
n
S
(1)
n
+
(2)
n
S
(2)
n
. On suppose que
(1)
n
et
(2)
n
sont
T
n1
-mesurables. Exprimer (comme dans le cours) la condition dautonancement
pour le portefeuille .
3. On supposera dorenavant quil existe une probabilite P

sous laquelle le processus


_
S
(2)
n
/c
(1)
n
_
nN
est une martingale. Montrer que si est un portefeuille autonance
_
X

n
/c
(1)
n
_
nN
est une martingale sous P

.
4. En deduire que si est un portefeuille autonance avec X

0
= 0, alors on ne peut pas
avoir simultanement X

N
0 et P

(X

N
> 0) > 0 (absence dopportunite darbitrage).

Partie II
Loption Margrabe donne le droit `a son detenteur dechanger `a lecheance N une unite
dactif 1 contre une unite dactif 2.
1. Quelle est la fonction de paiement de loption Margrabe (justier rapidement) ?
2. Un portefeuille est dit portefeuille de couverture si sa valeur X

N
`a lecheance est
toujours superieure ou egale `a la fonction de paiement. Montrer que si est un
portefeuille de couverture autonance alors
X

0
E

_
1
c
(1)
N
_
S
(2)
N
S
(1)
N
_
+
_
o` u (x)
+
= x si x 0 et = 0 sinon.
3. On supposera dorenavant que le marche est complet, cest-`a-dire que pour toute
variable aleatoire f, il existe autonance tel que X

N
= f. Montrer quil existe un
portefeuille de couverture autonance

tel que
X

0
= E

_
1
c
(1)
N
_
S
(2)
N
S
(1)
N
_
+
_
.
4. Quel est le prix C de loption (justier) ?
5. Etablir (en justiant bien) legalite pour tout n N
X

n
= E

_
c
(1)
n
c
(1)
N
_
S
(2)
N
S
(1)
N
_
+

T
n
_
.
6. Dans un marche complet, peut-il exister plusieurs probabilites P

sous lesquelles le
processus
_
S
(2)
n
/c
(1)
n
_
nN
est une martingale ?
Chapitre 5
Couverture des options americaines
Objectif : determiner dans le cadre du marche B-S le prix dune option de type americaine
et le temps dexercice optimal.
5.1 Problematique
Dans ce chapitre, nous allons nous placer dans le cadre dun marche B-S complet et
sans opportunite darbitrage. Dapr`es les resultats du chapitre 3, cela implique quil existe
une unique probabilite risque-neutre P

.
Une option de type americaine est un contrat qui peut etre exerce (une seule fois) `a
nimporte quel instant avant lecheance N. Il est caracterise par son echeance N et ses
fonctions de paiement f
n
aux temps n N. La fonction f
n
correspond `a ce que le detenteur
de loption recoit sil exerce son droit au temps n.
Exemple :
- option americaine dachat : f
n
() = (S
n
() K)
+
- option americaine de vente : f
n
() = (K S
n
())
+
- option russe : f
n
() = sup
kn
S
k
() S
n
()

Le detenteur de loption a le droit dexercer son option `a nimporte quel temps n avant
lecheance N. Il recoit alors la valeur f
n
de la part du vendeur. Pour se couvrir, le vendeur
doit donc se constituer un portefeuille tel que
X

n
() f
n
() n N, . (5.1)
Denition - Portefeuille de couverture -
On appelle portefeuille de couverture un portefeuille veriant la condition
X

n
() f
n
() n N, .
70
CHAPITRE 5. COUVERTURE DES OPTIONS AM

ERICAINES 71
Comme dans le cas des options europeennes, le prix equitable dune option de type americaine
va correspondre `a la valeur initiale minimale que doit avoir un portefeuille de couverture
pour pouvoir etre autonance. Plus precisement :
Denition - Prix dune option americaine -
Le prix dune option de type americaine correspond `a la quantite
C := inf
_
X

0
tel que
est autonance
X

n
() f
n
(), n N,
_
(5.2)
Le but de ce chapitre est de
- calculer C,
- voir comment gerer son portefeuille pour couvrir loption,
- determiner le moment optimal pour lacheteur pour exercer son option.
Appelons
exc
le temps auquel lacheteur decide dexercer son option. Le temps
exc
depend
de levolution du marche, cest donc une variable aleatoire. De plus, le detenteur de loption
prend sa decision dexercice uniquement `a partir de linformation dont il dispose `a cette
date l`a (il nest pas devin) : le temps
exc
est donc un temps darret.
5.2 Prix dune option americaine
Supposons que est un portefeuille de couverture autonance. Nous savons (Proposition
3.3) que (X

n
/
n
(U)) est une martingale sous P

et dapr`es la discussion precedente


exc
est un temps darret. Si nous appliquons le theor`eme darret (ce que nous pouvons faire
car
exc
est borne par N :
exc
() N, ), nous obtenons
E

exc (U)
1
X

exc
_
= E

0
(U)
1
X

0
_
= X

0
.
Comme X

n
f
n
quel que soit n N, on a X

exc f

exc et
X

0
E

exc (U)
1
f

exc
_
.
Cela doit etre vrai quel que soit le temps dexercice
exc
, donc on doit avoir
X

0
sup
T
N
E

(U)
1
f

_
o` u T
N
est lensemble des temps darret tels que () N pour tout . En
consequence le prix C de loption deni par (5.2) satisfait linegalite
C sup
T
N
E

(U)
1
f

_
. (5.3)
En fait, nous allons voir quil y a egalite.
CHAPITRE 5. COUVERTURE DES OPTIONS AM

ERICAINES 72
Theor`eme 5.1 - Prix dune option americaine -
Le prix dune option americaine decheance N et de fonction de paiement f
n
est donnee
par
C = sup
T
N
E

(U)
1
f

_
o` u E

represente lesperance prise sous lunique probabilite risque-neutre P

et T
N
est
lensemble des temps darret tels que () N pour tout .
La formule (5.3) nous donne dej`a linegalite C sup
T
N
E

(U)
1
f

) .
Il reste maintenant `a exhiber un portefeuille de couverture autonance

de valeur initiale
X

0
= sup
T
N
E

(U)
1
f

_
pour obtenir lautre inegalite. Ce travail est repousse au paragraphe 5.5. Nous allons
dabord essayer de mieux comprendre le calcul de C.
5.3 Le principe de programmation dynamique
Le principe de programmation dynamique va nous permettre de calculer le supremum
sup
T
N
E

(U)
1
f

_
.
Nous noterons dorenavant X
n
:=
n
(U)
1
f
n
. et nous introduisons la suite (Y
n
)
nN
denie
par la recurrence suivante :
_

_
Y
N
= X
N
Y
N1
= max (X
N1
, E

(Y
N
[ T
N1
))
.
.
.
Y
n
= max (X
n
, E

(Y
n+1
[ T
n
))
.
.
.
Y
0
= max (X
0
, E

(Y
1
[ T
0
)) .
Le probl`eme maximisation est resolu grace au resultat suivant.
CHAPITRE 5. COUVERTURE DES OPTIONS AM

ERICAINES 73
Theor`eme 5.2 - Principe de programmation dynamique -
Denissons le temps T par
T() := infk 0, tel que X
k
() = Y
k
().
Alors T est un temps darret borne par N veriant
Y
0
= E

(X
T
) = sup
T
N
E

(X

) . (5.4)
En particulier, le prix C de loption est donne par Y
0
et le temps dexercice optimal par
T.
Plus generalement, si T
n
() := infk [n, N], tel que X
k
() = Y
k
(), alors
E

(X
Tn
[ T
n
) = Y
n
= sup
T
N
n N
E

(X

[ T
n
) . (5.5)
La preuve de se resultat est le sujet de lexercice 5.6.4 `a la n du chapitre.
Remarque : La denition de Y
n
fait intervenir la quantite E

(Y
n+1
[ T
n
). Lorsque la
probabilite risque-neutre est de la forme P

() = Z()P(), cette quantite est donnee par


E

(Y
n+1
[ T
n
) =
1
Z
n
E(Y
n+1
Z
n+1
[ T
n
)
o` u Z
n
= E(Z [ T
n
), voir lExercice 3.5.4 du Chapitre 3.
5.4 Decomposition de Doob
Nous allons voir un resultat de la theorie des martingales, qui est une des clefs de la preuve
du Theor`eme 5.1 et du principe de programmation dynamique. Nous commencons par
introduire les processus croissant-previsibles.
Denition - Processus croissant-previsible -
Un processus (A
n
)
nN
est dit croissant-previsible si
1. A
n
est T
n1
-mesurable, quel que soit n N, (on dit que (A
n
) est previsible)
2. A
n
() = A
n
() A
n1
() 0, quel que soit n N, , cest `a dire (A
n
)
est croissant.
La decomposition de Doob decompose une sur-martingale en une martingale et un proces-
sus croissant-previsible.
CHAPITRE 5. COUVERTURE DES OPTIONS AM

ERICAINES 74
Theor`eme 5.3 - Decomposition de Doob -
Si (Y
n
)
nN
est une sur-martingale (i.e. Y
n
E(Y
n+1
[ T
n
)), il existe une unique martin-
gale (M
n
)
nN
et un unique processus croissant-previsible (A
n
)
nN
tels que
Y
n
= M
n
A
n
et Y
0
= M
0
.
Preuve:
Existence de M
n
et A
n
: prendre
M
n
= Y
0

n

k=1
[E(Y
k
[ T
k1
) Y
k
]
A
n
=
n

k=1
[Y
k1
E(Y
k
[ T
k1
)]
et verier quils conviennent.
unicite : Si Y
n
= M
n
A
n
= M

n
A

n
, alors
A

n
= A
n
+ M

n
M
n
. (5.6)
Comme A
n
et A

n
sont T
n1
-mesurables
E(A
n
[ T
n1
) = A
n
et E
_
A

n
[ T
n1
_
= A

n
,
de meme comme M
n
et M

n
sont des martingales
E(M
n
[ T
n1
) = 0 et E
_
M

n
[ T
n1
_
= 0.
Donc si on prend E( [ T
n1
) de legalite (5.6), il vient A

n
= A
n
, quel que soit n N.
Comme A
0
= A

0
= 0, on a A
n
=

n
k=1
A
k
et A

n
=

n
k=1
A

k
, et vu que A
k
= A

k
, on a
nalement A
n
= A

n
. En consequence, on a aussi M
n
= M

n
.
2
5.5 Preuve du Theor`eme 5.1
Par commodite on va poser
:= sup
T
N
E

(U)
1
f

_
.
On a dej`a vu que C . Pour prouver le Theor`eme 5.1, il reste `a construire un portefeuille de
couverture autonance

de valeur initiale .
Considerons la suite (Y
n
) du principe de programmation dynamique. Vu que
Y
n
:= max (X
n
, E

(Y
n+1
[ T
n
)) ,
CHAPITRE 5. COUVERTURE DES OPTIONS AM

ERICAINES 75
on a Y
n
E

(Y
n+1
[ T
n
), donc (Y
n
)
nN
est une sur-martingale. Notons Y
n
= M
n
A
n
sa
decomposition de Doob.
Posons f =
N
(U)M
N
. Le marche etant complet, il existe un portefeuille

= (
n
,
n
)
nN
auto-
nance tel que X

N
= f. Or (M
n
) est une martingale sous P

et (
n
(U)
1
X

n
) aussi (Proposition
3.3) donc
E

(M
N
[ T
n
) = M
n
et E

N
(U)
1
X

N
[ T
n
_
=
n
(U)
1
X

n
.
Vu que X

N
= f =
N
(U)M
N
, il decoule des deux egalites precedentes que M
n
=
n
(U)
1
X

n
quel que soit n N. En particulier
X

n
=
n
(U)M
n

n
(U)Y
n
car M
n
= Y
n
+A
n
avec A
n
0.
Dapr`es le principe de programmation dynamique (5.5)

n
(U)Y
n
=
n
(U) sup
T
N
n N
E

(U)
1
f

[ T
n
_
P5
= sup
T
N
n N
E

(U)
1

n
(U)f

[ T
n
_
f
n
.
La derni`ere inegalite provient de legalite f
n
= E

(U)
1

n
(U)f

[ T
n
_
pour le temps darret
donne par () = n, quel que soit . En recollant les morceaux, on conclut que X

n
f
n
pour tout n N, donc le portefeuille

couvre bien loption. Cest donc un portefeuille de


couverture autonance de valeur initiale
X

0
= M
0
= Y
0
=
o` u la derni`ere egalite vient de (5.4).
5.6 Exercices
5.6.1 Evaluation dun prix doption sans programmation dyna-
mique
Supposons que
n
(U)
1
f
n
= g(Y
n
)M
n
avec (Y
n
) un processus quelconque, (M
n
) une mar-
tingale positive sous P

telle que M
0
= 1 et g : R R
+
admettant un maximum en y

,
i.e. g(y) g(y

) y R.
1. verier que
n
(U)
1
f
n
g(y

)M
n
. En deduire que pour tout temps darret N
E

(U)
1
f

_
g(y

)E

(M

) = g(y

).
2. En deduire que C g(y

).
3. Supposons quavec probabilite 1, le processus (Y
n
) prend la valeur y

avant lecheance
N. Posons alors

:= infn N : Y
n
= y

. Montrer qualors E

(U)
1
f

) =
g(y

) et C = g(y

). Quel est le temps dexercice optimal ?


CHAPITRE 5. COUVERTURE DES OPTIONS AM

ERICAINES 76
5.6.2 Calcul du prix dun call americain
Rappel : X Y = E(X[T) E(Y [T).
Placons nous dans le cadre dun marche B-S sans opportunite darbitrage et complet, et
notons P

lunique probabilite risque-neutre. Dans toute la suite les taux dinterets r


n
sont
constants et egaux `a r 0.
Considerons un call americain, cest `a dire une option americaine decheance N et de
fonctions de paiement f
n
= (S
n
K)
+
pour n N. Nous supposerons K 0 et nous
noterons

f
n
:= (1 +r)
n
(S
n
K)
+
, ainsi que C
am
pour le prix de cette option, i.e.
C
am
:= inf
_
X

0
o` u est autonance et verie X

n
f
n
, n N
_
.
1. Le marche etant complet, il existe un portefeuille autonance

de valeur terminale
X

N
= f
N
. Notant T
n
= (S
1
, . . . , S
n
), montrez que
(1 +r)
n
X

n
= E

(

f
N
[T
n
), n N.
2. En deduire les deux inegalites (1 +r)
n
X

n
0 et (1 +r)
n
X

n

SnK
(1+r)
n
, pour tout
n N.
3. En deduire que X

n
f
n
pour tout n N, puis C
am
E

(

f
N
).
4. On note C
eur
le prix dune option dachat europeenne decheance N et de fonction
de paiement (S
N
K)
+
. Deduire de ce qui prec`ede que C
am
C
eur
.
5. A-t-on C
am
= C
eur
? (prouvez votre reponse)
5.6.3 Option russe
Considerons une option de type americaine decheance N et de fonction de paiement donnee
par
f
n
= max
k=0...n
S
k
S
n
.
Le marche est suppose complet et sans opportunite darbitrage et on note P

lunique
probabilite risque-neutre.
On pose Z
n
= S
n
/
n
(U) et on denit P

par
P

() := Z
N
()P

() pour tout .
On rappelle que lon a alors E

(Y ) = E

(Z
N
Y ) pour toute variable aleatoire Y .
1. Montrer que si Y est T
n
-mesurable alors E

(Y ) = E

(Z
n
Y ).
2. Montrer que le prix de loption est donne par
C = sup
T
N
E

(Z

(X

1)) = sup
T
N
E

(X

) 1
o` u T
N
represente lensemble des temps darret borne par N et
X
n
= max
k=0...n
S
k
S
n
.
CHAPITRE 5. COUVERTURE DES OPTIONS AM

ERICAINES 77
5.6.4 *Preuve du Principe de Programmation Dynamique
Lobjet de cet exercice est de prouver le Theor`eme 5.2
1. Montrer que T et T
n
sont deux temps darret bornes par N.
2. Montrer que (5.4) decoule de (5.5) avec n = 0.
3. Montrer que (Y
n
)
nN
est une surmartingale sous P

.
4. Notons Y
n
= M
n
A
n
la decomposition de Doob de (Y
n
). Verier que A
Tn
= A
n
.
5. Montrer que si est un temps darret tel que n N alors E

(M

[ T
n
) = M
n
.
6. Deduire des deux questions precedentes que
E

(X
Tn
[ T
n
) = E

(M
Tn
A
n
[ T
n
) = Y
n
, pour n N.
7. Montrer que pour tout temps darret tel que n N
E

(X

[ T
n
) E

(Y

[ T
n
) = M
n
E

(A

[ T
n
) Y
n
.
8. Conclure.
Chapitre 6
Mouvement brownien
Objectif : Introduire bri`evement les processus stochastique en temps continu, avec une
attention particuli`erement pour le mouvement brownien.
6.1 Processus en temps continu
Un processus en temps continu est un ensemble (X
t
)
tI
de variables aleatoires indexees par
un sous-intervalle I de R, souvent I = [0, [. Generalement, on consid`ere des processus
dont les trajectoires t X
t
() sont assez reguli`eres.
Denition - Processus continus / continus `a gauche
1
Un processus (X
t
)
t0
est dit continu (respectivement continu `a gauche) lorsque pour
tout les trajectoires t X
t
() sont continues (resp. continues `a gauche).
Comme en temps discret, on notera T
t
linformation disponible au temps t et on appelle
ltration lensemble T
0
T
t

Souvent T
t
correspond `a linformation donnee par un processus X jusquau temps t, cest-
`a -dire T
t
= (X
s
, s t).
Denition - Processus adaptes -
Un processus Y est dit T
t
-adapte, si pour tout t 0 la variable aleatoire Y
t
est T
t
-
mesurable.
Exemple : considerons un processus continu X. Notons Y
t
= sup
st
X
s
et T
t
=
(X
s
, s t). Alors, le processus Y est T
t
-adapte.
1
une fonction f : R
+
R est dite continue `a gauche si lim
0
+ f(t ) = f(t) pour tout t R
+
. En
particulier, toute fonction continue est continue `a gauche.
78
CHAPITRE 6. MOUVEMENT BROWNIEN 79
6.2 Mouvement brownien
Le mouvement brownien est un des processus de base pour la modelisation en temps
continu. Nous en verrons ici la denition ainsi que les proprietes fondamentales. Comme
aucune preuve ne sera donnee, nous suggerons au lecteur interesse de consulter [5] pour
plus de details.
6.2.1 Loi Gaussienne
Une variable aleatoire reelle gaussienne (ou normale) de moyenne m et de variance t est une
variable aleatoire reelle dont la loi admet pour densite par rapport `a la mesure Lebesgue
1

2t
exp
_

(x m)
2
2t
_
.
Dorenavant, nous noterons ^(m, t) la loi dune variable aleatoire gaussienne de moyenne
m et de variance t. Rappelons quelques proprietes des variables aleatoires gaussiennes.
Proprietes - Lois gaussiennes -
1. Si X est une variable aleatoire de loi ^(m, t) alors
E(exp(zX)) = exp(tz
2
/2 +mz), z C.
2. Si X suit une loi ^(m, t), alors a +bX suit une loi ^(a +bm, b
2
t).
3. Si X et Y sont deux variables aleatoires independantes suivant respectivement les
lois ^(a, t) et ^(b, s), alors X +Y suit la loi ^(a +b, t +s).
6.2.2 Denition du mouvement brownien
Denition - Le mouvement brownien -
Un mouvement brownien (ou un processus de Wiener) W = (W
t
)
t0
est un processus `a
valeurs reelles tel que
1. W est continu,
2. W
0
= 0 et pour tout t positif, la variable aleatoire W
t
suit une loi ^(0, t),
3. Quel que soit s, t > 0, laccroissement W
t+s
W
t
est independant de T
t
et suit une
loi ^(0, s).
Nous admettrons lexistence dun tel processus.
CHAPITRE 6. MOUVEMENT BROWNIEN 80
Fig. 6.1 Une trajectoire dun mouvement brownien
Attention! Un processus continu X tel que pour tout t > 0, la variable X
t
suit une
loi ^(0, t) nest pas necessairement un mouvement brownien. Prenez par exemple X
t
=

t N, avec N distribue selon une loi ^(0, 1). Le processus (X


t
)
t0
satisfait les deux
premi`eres conditions du mouvement brownien, mais ne satisfait pas la troisi`eme (voir
lexercice 6.4.1.
`
A quoi ressemble le mouvement brownien ? Le resultat suivant etablit quen quelque sorte,
le mouvement brownien est une marche aleatoire en temps continu :
Theor`eme 6.1 - Le principe de Donsker -
Soit (X
i
)
iN
est une suite de variables aleatoires i.i.d. telle que E(X
i
) = 0 et E(X
2
i
) = 1.
Posons S
n
= X
1
+ +X
n
. Alors la convergence suivante a lieu
_
S
[nt]

n
_
t0
(d)
(W
t
)
t0
o` u W est un mouvement brownien, [x] represente la partie enti`ere de x et
(d)
signie
convergence en distribution (consultez lannexe A pour un rappel des dierents types
de convergence)
6.2.3 Proprietes du mouvement brownien
Voici quelques proprietes de base du mouvement brownien. Encore une fois, nous invitons
ceux qui desirent en voir la preuve `a consulter [5]. Ils y trouveront aussi dautres proprietes
CHAPITRE 6. MOUVEMENT BROWNIEN 81
plus nes du mouvement brownien.
Proprietes - Mouvement brownien -
Soit W un mouvement brownien. Alors,
Symetrie : Le processus (W
t
)
t0
est aussi un mouvement brownien.
Invariance dechelle : Pour tout c > 0, le processus
_
c
1/2
W
ct
_
t0
est aussi un
mouvement brownien.
Rugosite : Les trajectoires t W
t
() sont nulle part derivables.
Propriete de Markov : Pour tout u > 0, le processus (W
u+t
W
u
)
t0
est aussi un
mouvement brownien, independant de T
u
.
Certaines proprietes du mouvement brownien sont assez inhabituelles. Par exemple, xons
a > 0 et notons T
a
le premier temps o` u le mouvement brownien W atteint la valeur a.
Alors pour tout > 0, le mouvement brownien W atteindra encore une innite de fois la
valeur a durant le court intervalle de temps [T
a
, T
a
+] !
6.3 Martingales en temps continu
De meme que pour le cas discret, les martingales jouent un role majeur dans la theorie de
la couverture des options en temps continu.
Denition - Martingales en temps continu -
Un processus (X
t
)
t0
est une martingale si pour tout s, t 0
E(X
t+s
[T
t
) = X
t
.
Lorsquune martingale est continue, les proprietes que nous avons vu en temps discret
(la propriete fondamentale, le theor`eme darret, linegalite maximale, la decomposition de
Doob, etc.) demeurent vraies apr`es le remplacement de n N par t [0, [.
6.4 Exercices
6.4.1 Proprietes de base
1. Soit N une variable aleatoire de loi ^(0, 1). On pose X
t
=

t N pour tout t 0.
Montrer que le processus X poss`ede les deux premi`eres proprietes du mouvement
brownien, mais pas la troisi`eme.
CHAPITRE 6. MOUVEMENT BROWNIEN 82
2. Montrer que le mouvement brownien W est une martingale.
3. Notons T
t
= (W
s
, s t) et L
t
= W
2
t
t. Prouver que L est une T
t
-martingale .
4. Pour > 0, posons c
t
= exp(W
t

2
t/2). Est-ce que (c
t
) est une martingale ?
5. Soit M est une martingale telle que E(M
2
t
) < +. Montrer que pour tout s t :
E
_
(M
t
M
s
)
2
[ T
s
_
= E
_
M
2
t
M
2
s
[ T
s
_
.
6.4.2 Variation quadratique
Soit W un mouvement brownien. On associe `a une subdivision = (t
1
, . . . , t
n
), de [0, t]
(avec 0 = t
0
< t
1
< < t
n
= t), les quantites t
k
= t
k
t
k1
et W
k
= W
t
k
W
t
k1
.
1. Pour s t, montrer que E(W
t
W
s
) = E((W
t
W
s
)W
s
) +E(W
2
s
) = s.
2. Montrer que E
_
(W
k
)
2
_
= t
k
et que E
_
(W
k
)
4
_
= 3 (t
k
)
2
.
3. Notons [[ = max
k=1...n
t
k
et < W >

t
() :=

n
k=1
(W
k
())
2
. Montrer que
E
_
(< W >

t
t)
2

=
n

j=1
n

k=1
E
__
(W
j
)
2
t
j
_ _
(W
k
)
2
t
k
_
= 2
n

k=1
(t
k
)
2
2[[ t
||0
0 .
4. Deduire de linegalite
< W >

t
max
k=1...n
[W
k
[
n

k=1
[W
k
[
et de luniforme continuite du mouvement brownien sur [0, t] que
n

k=1
[W
k
[
||0
+.
On dit que le mouvement brownien est `a variation non bornee.
Chapitre 7
Calcul dIto
Objectif : Introduire bri`evement le calcul dIto et en donner ses r`egles speciques.
7.1 Problematique
Pour commencer, nous allons expliquer de mani`ere informelle la necessite dintroduire le
calcul dIt o. Supposons que nous voulons modeliser un signal bruite en temps continu
X = (X
t
)
t0
. Par analogie avec le temps discret, nous voulons que levolution lors dun
court intervalle de temps t soit donnee par
X
t
() = m(t, )t +(t, )
t
() (7.1)
o` u
t
represente le bruit qui verie les proprietes suivantes :
-
t
est independant de
s
pour s ,= t, et suit la meme loi,
- E(
t
) = 0.
En posant W
t
=

st

s
il est naturel, eut egard au principe de Donsker, de supposer
que W
t
est un mouvement brownien. Lequation (7.1) devient alors
X
t
() = m(t, )t +(t, )W
t
() .
Malheureusement, le mouvement brownien nest pas derivable et on ne peut pas donner un
sens `a cette egalite en terme de derives. Essayons plutot de lexprimer en terme dintegrales :
X
t
() = X
0
+
_
t
0
m(s, ) ds +
_
t
0
(s, )dW
s
(). (7.2)
La premi`ere integrale sinscrit dans la theorie classique de lintegration, et est bien denie.
Mais quel est le sens de la deuxi`eme integrale ?
Si W etait `a variation bornee, nous pourrions la denir telle une integrale de Stieljes.
Cependant, nous avons vu lors de lExercice 6.4.2 quun mouvement brownien nest pas `a
variation bornee. Cest ici quintervient la theorie de lintegration dIto. Celle-ci permet de
donner un sens mathematique precis `a (7.2).
83
CHAPITRE 7. CALCUL DIT

O 84
7.2 Integrale dIto
Soit W un mouvement brownien et T
t
= (W
s
, s t).
Denition (et theor`eme) - Integrale dIto -
Soit H un processus T
t
-adapte, continu `a gauche et veriant
_
t
0
H
2
s
ds < pour
tout t > 0. Alors, il existe un processus continu
_
_
t
0
H
s
dW
s
_
t0
tel que
n

i=1
H
(i1)t/n
_
W
it/n
W
(i1)t/n
_
n

_
t
0
H
s
dW
s
pour tout t > 0, (7.3)
o` u la convergence a lieu en probabilite (consulter lannexe pour un rappel sur ce
mode de convergence).
Pour tout t 0, ce processus verie legalite
E
_
__
t
0
H
s
dW
s
_
2
_
=
_
t
0
E
_
H
2
s
_
ds ,
cette derni`ere quantite pouvant etre innie.
Dans le cas o` u
_
t
0
E(H
2
s
) ds < + pour tout t > 0, le processus
_
_
t
0
H
s
dW
s
_
t0
est une T
t
-martingale.
Nous ne prouverons pas lexistence du processus
_

0
H
s
dW
s
. Nous encourageons le lec-
teur desireux den connatre la construction, `a consulter lannexe B. Avant de donner des
proprietes de lintegrale dIto, attardons-nous un instant sur sa denition.
Question : Obtiendrait-on la meme integrale si on remplacait

n
i=1
H
(i1)t/n
_
W
it/n
W
(i1)t/n
_
par

n
i=1
H
it/n
_
W
it/n
W
(i1)t/n
_
?
La reponse est non en general. En eet, prenons H = W. Selon lexercice 6.4.2
n

i=1
W
it/n
_
W
it/n
W
(i1)t/n
_

i=1
W
(i1)t/n
_
W
it/n
W
(i1)t/n
_
n
t
et par consequent

n
i=1
W
it/n
_
W
it/n
W
(i1)t/n
_
n
t +
_
t
0
W
s
dW
s
en probabilite !
CHAPITRE 7. CALCUL DIT

O 85
7.3 Processus dIto
Lorsque K est un processus dont les trajectoires t K
t
() sont continues `a gauche, on
peut denir le processus
_
_
t
0
K
s
ds
_
t0
par
__
t
0
K
s
ds
_
() :=
_
t
0
K
s
() ds , , t ,
o` u le membre de droite est une integrale de Riemann (ou Lebesgue) classique.
Denition - Processus dIto -
On appelle processus dIto un processus X de la forme
X
t
= X
0
+
_
t
0
H
s
dW
s
+
_
t
0
K
s
ds,
o` u K et H sont T
t
-adaptes et continus `a gauche, et o` u H verie
_
t
0
H
2
s
ds < , pour
tout t > 0.
Pour alleger les notations, on ecrit habituellement dX
t
= H
t
dW
t
+K
t
dt.
Le lemme fondamental suivant etablit quune fonction reguli`ere dun processus dIto est
encore un processus dIto. Cest la formule centrale du calcul dIto.
Theor`eme 7.1 - Formule dIto -
Soit X un processus dIto et g : R
+
R R une fonction de classe (
2
(cest `a dire
admettant une derivee seconde continue). Alors
g(t, X
t
) = g(0, X
0
) +
_
t
0
g
x
(s, X
s
) dX
s
+
_
t
0
g
t
(s, X
s
) ds +
1
2
_
t
0
H
2
s

2
g
x
2
(s, X
s
) ds .
Remarques :
1. Le terme
_
t
0
g
x
(s, X
s
) dX
s
est une notation abregee de
_
t
0
g
x
(s, X
s
) H
s
dW
s
+
_
t
0
g
x
(s, X
s
) K
s
ds .
2. Le dernier terme de droite est inhabituel. Cette etrange r`egle de calcul vient de la
variation quadratique du mouvement brownien. Voyons cela de plus pr`es.
CHAPITRE 7. CALCUL DIT

O 86
Preuve: Nous ne verrons que les grandes lignes de la preuve de la formule dIto , car notre
objectif se limite `a expliquer lapparition de la derni`ere integrale.
Posons t
i
= it/n, et pour tout processus Y , notons Y
t
i
= Y
t
i
Y
t
i1
. Le developpement de
Taylor assure que
g(t, X
t
) = g(0, X
0
) +

i
g(t
i
, X
t
i
)
= g(0, X
0
) +

i
g
t
(t
i1
, X
t
i1
)t
i
+
g
x
(t
i1
, X
t
i1
)X
t
i
+
1
2

2
g
x
2
(t
i1
, X
t
i1
) (X
t
i
)
2
+ residu,
o` u le residu tend ver 0 lorsque n tend vers linni. Notons que (X
t
i
)
2
= H
2
t
i1
(W
t
i
)
2
+residu,
et que selon lExercice 6.4.2 (W
t
i
)
2
t
i
. En consequence, la convergence des sommes de
Riemann vers lintegrale de Riemann donne
1
2

2
g
x
2
(t
i1
, X
t
i1
) (X
t
i
)
2

1
2
_
t
0
H
2
s

2
g
x
2
(s, X
s
) ds .
En ayant recours une seconde fois `a la convergence des sommes Riemann vers lintegrale de
Riemann pour le premier terme du developpement de Taylor et `a la formule dapproximation
(7.3) pour le deuxi`eme terme, on obtient le resultat annonce
g(t, X
t
) = g(0, X
0
) +
_
t
0
g
x
(s, X
s
) dX
s
+
_
t
0
g
t
(s, X
s
) ds +
1
2
_
t
0
H
2
s

2
g
x
2
(s, X
s
) ds .
2
Remarque : La condition g (
2
est necessaire. En eet, prenons g(t, x) = [x[, qui nest
pas de classe (
2
en 0. Verions que la formule dIto sav`ere fausse pour cette fonction. Si
la formule dIto etait valable pour g, on obtiendrait [W
t
[ =
_
t
0
sgn(W
s
) dW
s
. Cependant
linegalite de Jensen entrane que
E([W
t+s
[ [ T
t
) [W
t
[
donc ([W
t
[)
t0
est une sous-martingale, tandis que lintegrale dIto
_
t
0
sgn(W
s
) dW
s
est une
martingale car
_
t
0
E(sgn(W
s
)
2
) ds = t < . Cela implique que
[W
t
[ , =
_
t
0
sgn(W
s
) dW
s
,
la formule dIto ne peut donc pas etre valable pour g.
Exemples :
1. On a W
2
t
= 2
_
t
0
W
s
dW
s
+t et W
3
t
= 3
_
t
0
W
2
s
dW
s
+ 3
_
t
0
W
s
ds, voir lExercice 7.5.1.
CHAPITRE 7. CALCUL DIT

O 87
Fig. 7.1 Une trajectoire dun mouvement brownien geometrique
2. Mouvement brownien geometrique - notre objectif est de trouver un processus
X tel que
dX
t
= X
t
dt + X
t
dW
t
,
avec , R. Cherchons le processus X sous la forme X
t
= g(t, W
t
). Lequation
precedente donne
dX
t
= g(t, W
t
) dt +g(t, W
t
) dW
t
.
En outre, la formule dIto arme que
dX
t
=
g
x
(t, W
t
) dW
t
+
_
g
t
(t, W
t
) +
1
2

2
g
x
2
(t, W
t
)
_
dt .
En consequence, il nous sut de resoudre
g =
g
x
,
et g =
g
t
+
1
2

2
g
x
2
.
De la premi`ere equation, on obtient g(t, x) = h(t)e
x
, et de la seconde on obtient
h

(t) =
_

1
2

2
_
h(t), donc h(t) = h(0) exp ((
2
/2)t). Au nal, on trouve
X
t
= X
0
exp
_
W
t
+
_


2
2
_
t
_
,
lequel est appele mouvement brownien geometrique.
CHAPITRE 7. CALCUL DIT

O 88
7.4 Formule de Girsanov
7.4.1 Exponentielle stochastique
Denition - Exponentielle stochastique -
On associe `a un processus dIto dX
t
= H
t
dW
t
+K
t
dt, son exponentielle stochastique

t
(X) := exp
_
X
t

1
2
_
t
0
H
2
s
ds
_
.
Remarque. Dans lexercice 7.5.2 nous verierons les deux proprietes suivantes de lexpo-
nentielle stochastique
1.
t
(X) est solution de lequation dierentielle stochastique
dY
t
Y
t
= dX
t
. (7.4)
2. (X) est une martingale d`es que
K
t
= 0 et
_
t
0
E
_
(H
s

s
(X))
2
_
ds < +, pour tout t > 0 .
Attention! La solution de (7.4) est Y
t
=
t
(X) et non pas Y
t
= exp(X
t
) comme vous
lauriez peut-etre anticipe. Cela est d u aux r`egles particuli`eres du calcul dIto.
7.4.2 Formule de Girsanov
Dans ce paragraphe, nous presentons une formule de Girsanov en temps continu. Aucun
resultat ne sera prouve, ainsi nous incitons encore une fois les curieux `a lire [5] pour les
details mathematiques.
Nous avons observe que sous certaines conditions techniques, (X) est une martingale.
Dans ce cas, E(
t
(X)) = E(
0
(X)) = 1. Une condition susante et pratique pour que cette
egalite soit maintenue est le respect du crit`ere suivant.
Crit`ere de Novikov.
Soit X est un processus dIto, dX
t
= H
t
dW
t
, avec H veriant
E
_
exp
_
1
2
_
T
0
H
2
s
ds
__
< +
pour un certain T positif. Alors E(
T
(X)) = 1.
CHAPITRE 7. CALCUL DIT

O 89
Sous ces hypoth`eses, on peut denir (`a linstar du cas discret) une mesure de probabilite
Q en posant
Q(A) = E(
T
(X) 1
A
) (7.5)
pour tout evenement A.
Theor`eme 7.2 - Formule de Girsanov -
Considerons X satisfaisant les hypoth`eses du crit`ere de Novikov et la probabilite Q denie
par (7.5). On a alors les resultats suivants.
1. Le processus (

W
t
)
tT
:=
_
W
t

_
t
0
H
s
ds
_
tT
, est un mouvement brownien sous Q.
2. Consequemment, pour toute fonction (integrable) g : R
[0,T]
R,
E
_
g
_

W
t
; t T
__
= E
_
g(W
t
; t T) exp
_

_
T
0
H
s
dW
s

1
2
_
T
0
H
2
s
ds
__
,
o` u E represente lesperance sous la probabilite originale P.
Comme dans le cas discret, la formule de Girsanov nous sera utile pour obtenir une pro-
babilite risque-neutre, ce que nous verrons au chapitre suivant.
Remarques
1. Quest-ce donc quune fonction g : R
[0,T]
R? Cest une application qui `a une
trajectoire (x
t
, t T) associe un nombre reel g(x
t
, t T). Par exemple :
- g(x
t
, t T) = exp(x
3.4
),
- g(x
t
, t T) = (x
1.3
x
0.9
)/0.4,
- g(x
t
, t T) =
_
T
0
x
2
s
ds,
- g(x
t
, t T) = sup
t[0,T]
x
t
,
- g(x
t
, t T) = inf t [0, T] : x
t
= 5,
- etc.
2. Nous verrons dans lExercice 7.5.4 comment passer de lassertion 1. du lemme de
Girsanov `a lassertion 2., lorsque H est deterministe.
7.5 Exercices
7.5.1 Avec la formule dIto
1. Verier que W
p
t
= p
_
t
0
W
p1
s
dW
s
+
p(p1)
2
_
t
0
W
p2
s
ds, pour tout p entier plus grand
que 2 et W mouvement brownien.
2. Considerons le processus dIto dX
t
= H
t
dW
t
+K
t
dt. A-t-on d log(X
t
) = dX
t
/X
t
?
CHAPITRE 7. CALCUL DIT

O 90
7.5.2 De lexponentielle stochastique
Soit dX
t
= H
t
dW
t
+K
t
dt un processus dIto.
1. Verier `a laide de la formule dIto que Y
t
=
t
(X) est solution de lequation dierentielle
stochastique
dY
t
Y
t
= dX
t
.
2. Deduire de cette equation que (X) est une martingale d`es que
K
t
= 0 et
_
t
0
E
_
(H
s

s
(X))
2
_
ds < , pour tout t > 0 .
7.5.3 Avec Girsanov
Soit dX
t
= H
t
dW
t
veriant la condition de Novikov. On pose
dY
t
= K
t
H
t
dt +K
t
dW
t
,
o` u K est un processus adapte continu `a gauche .
1. Montrer que dY
t
= K
t
d

W
t
o` u

W
t
:= W
t

_
t
0
H
s
ds.
2. Supposons de plus que
_
T
0
E(K
2
s
) ds < . Deduire de la formule de Girsanov que
(Y
t
)
tT
est une martingale sous la probabilite Q denie par (7.5).
7.5.4 *De la formule de Girsanov
Placons-nous dans le cadre de la formule de Girsanov. On supposera ici que H
s
= h(s)
o` u h : R
+
R. En particulier, H nest pas aleatoire. A toute fonction (integrable)
g : R
[0,T]
R on associe la fonction g : R
[0,T]
R, denie par
g(x
t
, t T) = g(x
t
, t T) exp
_

_
T
0
h(s) dx
s

1
2
_
T
0
h(s)
2
ds
_
.
1. Verier que E(g(

W
t
, t T)) = E
Q
( g(

W
t
, t T)), o` u E
Q
represente lesperance prise
sous la probabilite Q.
2. A laide de la question precedente, montrer que la partie 1. du lemme de Girsanov
implique la partie 2. lorsque H est de la forme H
s
= h(s).
7.5.5 *Fonctions dechelle
On consid`ere une diusion dX
t
= (X
t
) dW
t
+b(X
t
) dt, avec b et continus. Supposons que
b est positif et borne. Supposons aussi quil existe et M tels que 0 < (x) M < ,
pour tout x R. Posons enn T
t
= (W
s
, s t).
CHAPITRE 7. CALCUL DIT

O 91
1. Trouver une fonction s de classe (
2
telle que (s(X
t
))
t0
est une martingale. Cette
fonction est appelee fonction dechelle.
2. Pour tout a < X
0
< b, on pose T
a
= inft 0 : X
t
= a et T
b
= inft 0 : X
t
= b.
En admettant que legalite E(s(X
TaT
b
)) = s(X
0
) est vraie, montrer que
P(T
b
< T
a
) =
s(X
0
) s(a)
s(b) s(a)
.
3. Supposons que lim
x
s(x) < . Montrer que dans ce cas lim
b
P(T
b
< T
a
) > 0.
En deduire quavec une probabilite positive, la diusion X natteindra jamais a.
7.5.6 Formule de Cameron-Martin
On pose X
t
= t + W
t
, o` u W
t
est un mouvement brownien sous P. Fixons T > 0 et
denissons
Q(A) = E
_
exp
_
W
T

2
T
2
_
1
A
_
.
1. Montrer que (X
t
, t T) est un mouvement brownien sous Q.
2. Montrer que pour toute fonction mesurable g : R
[0,T]
R, on a
E(g(X
t
, t T)) = e

2
T/2
E
_
e
W
T
g(W
t
, t T)
_
.
3. Remplacer t par
t
=
_
t
0
m
s
ds. Trouver Q tel que (X
t
, t T) est un mouvement
brownien sous Q.
Chapitre 8
Mod`ele de Black et Scholes
Objectif : Introduire le mod`ele de Black et Scholes, et calculer le prix des options eu-
ropeennes dans ce cadre.
8.1 Mod`ele de Black et Scholes
8.1.1

Evolution du marche
Le mod`ele de Black et Scholes est un mod`ele de marche Bond-Stock en temps continu.
Le marche est donc constitue de deux actifs :
un actif sans risque B (Bond ou obligation),
un actif risque S (Stock).
Les deux actifs B et S sont supposes evoluer selon la dynamique
_
dB
t
= rB
t
dt
dS
t
= S
t
(dt + dW
t
).
avec W un mouvement Brownien. Le param`etre r correspond au taux dinteret de lobli-
gation B, tandis que et correspondent `a la tendance et `a la volatilite de lactif S.
Nous pouvons donner une formule explicite pour les valeurs de B
t
and S
t
. Levolution de
B suit une equation dierentielle ordinaire, resolue par
B
t
= B
0
e
rt
.
Levolution de S suit lequation dierentielle stochastique dun mouvement brownien geometrique,
voir lExemple 2 du Chapitre 7.3. Par consequent, la valeur de lactif S au temps t est
S
t
= S
0
exp
_
W
t
+
_


2
2
_
t
_
.
Enn, linformation disponible au temps t est T
t
= (S
u
, u t). Notons quon a aussi
T
t
= (W
u
, u t), vu la formule precedente.
92
CHAPITRE 8. MOD
`
ELE DE BLACK ET SCHOLES 93
8.1.2 Portefeuille
Pour calculer le prix dune option europeenne dans le mod`ele Black-Scholes nous allons
proceder comme au Chapitre 4. Nous allons commencer par introduire la notion de porte-
feuille autonance en temps continu. Un portefeuille = (
t
,
t
)
t0
compose dune quantite

t
de B et dune quantite
t
de S au temps t a pour valeur
X

t
=
t
B
t
+
t
S
t
.
Nous supposerons dorenavant que
t
et
t
sont continus `a gauche et T
t
-adaptes.
Dans le cas discret, un portefeuille etait dit autonance lorsque sa variation entre deux
instants consecutifs etait donnee par
X

n
=
n
B
n
+
n
S
n
.
En temps continu, cette condition devient :
Denition - Portefeuille autonance -
Un portefeuille est autonance si X

t
est solution de
dX

t
=
t
dB
t
+
t
dS
t
.
On appelle valeur reactualisee dun portefeuille , la valeur

X

t
:= e
rt
X

t
. Elle corres-
pond `a la valeur relative du portefeuille par rapport `a lobligation B. Le lemme suivant
caracterise les portefeuilles autonances (comparez avec le Lemme 3.5.2).
Lemme 8.1 - Caracterisation des portefeuilles autonances -
Un portefeuille est autonance si et seulement si sa valeur reactualisee

X

t
verie
d

X

t
=
t
d

S
t
, avec

S
t
:= e
rt
S
t
.
Preuve: La formule dIto assure que d

X

t
= re
rt
X

t
dt+e
rt
dX

t
. Un portefeuille est donc
autonance si et seulement si
d

X

t
= r
_

t
e
rt
B
t
+
t
e
rt
S
t
_
dt +e
rt
(
t
dB
t
+
t
dS
t
)
=
t
e
rt
(rB
t
dt +dB
t
)
. .
=0
+
t
(re
rt
S
t
dt +e
rt
dS
t
. .
=d

St
) .
Le lemme suit. 2
CHAPITRE 8. MOD
`
ELE DE BLACK ET SCHOLES 94
8.1.3 Probabilite risque-neutre
A linstar du cas discret, une probabilite risque-neutre P

est une probabilite equivalente `a


P (cest `a dire P

(A) = 0 ssi P(A) = 0) telle que la valeur reactualisee (

S
t
)
tT
de lactif S
est une martingale sous P

.
Lemme 8.2 - Probabilite risque-neutre -
La probabilite P

denie par
P

(A) := E(Z
T
1
A
) , avec Z
T
:= exp
_

_
r

_
W
T

_
r

_
2
T
2
_
est une probabilite risque-neutre pour le mod`ele de Black et Scholes.
Preuve: Examinons levolution de

S
t
:

S
t
= S
0
exp
_
W
t
+
_
r

2
2
_
t
_
= S
0
exp
_
W

t


2
2
t
_
, (8.1)
o` u nous avons pose
W

t
= W
t
+
r

t .
Selon la formule de Girsanov-Cameron-Martin (voir lExercice 7.5.6), le processus (W

t
)
tT
est
un mouvement brownien sous la probabilite P

. Comme la valeur reactualisee de lactif


_

S
t
_
tT
est lexponentielle stochastique associee `a W

, le processus
_

S
t
_
tT
est une martingale sous P

.
(voir lExercice 6.4.1 question 4).
Conclusion : la probabilite P

est une probabilite risque neutre. 2


Remarque : Comparez la probabilite P

avec la probabilite risque-neutre vue `a lExer-


cice 3.5.5
8.2 Couverture des options europeennes dans le mod`ele
Black-Scholes
Lobjet de ce dernier paragraphe est de calculer le prix dune option de type europeenne
dans le mod`ele de Black et Scholes. Dans le cas particulier, o` u loption est une option
dachat europeenne, le prix est donnee par la cel`ebre formule de Black et Scholes, voir le
Corollaire 8.5.
Dorenavant nous considerons une option europeenne decheance T et de fonction de paie-
ment f() = g(S
T
()). Pour simplier, on suppose que g est de classe (
2
avec ses derivees
premi`ere et seconde bornees. On demande en outre `a g de verier E(g(S
T
)
2
) < +.
CHAPITRE 8. MOD
`
ELE DE BLACK ET SCHOLES 95
Denition - Portefeuille de couverture -
Un portefeuille est appele portefeuille de couverture si X

T
g(S
T
) et
sup
t[0,T]
E

_
_

t
_
2
_
< +. (8.2)
Le premi`ere condition est la meme que dans le cas discret. La seconde est une condition
technique qui assure que la valeur reactualisee dun portefeuille de couverture autonance
est une martingale sous P

.
Lemme 8.3 - Valeur reactualisee dun portefeuille de couverture autonance -
La valeur reactualisee (

X

t
)
tT
dun portefeuille de couverture autonance est une
martingale sous P

.
Preuve: Lequation (8.1) donne d

S
t
=

S
t
dW

t
(formule dIto). En combinant cette egalite avec
la condition dautonancement du Lemme 8.1, on obtient

t
=

X

0
+
_
t
0

u
d

S
u
=

X

0
+
_
t
0

u

S
u
dW

u
.
Remarquons que W

est un mouvement Brownien sous P

et que

2
_
t
0
E

((
u

S
u
)
2
) du = E

_
_

t


X

0
_
2
_
< +, pour tout t T.
On en deduit que lintegrale stochastique
_
_
t
0

u

S
u
dW

u
_
tT
est une martingale sous P

et donc
_

t
_
tT
aussi. 2
De nouveau, le prix C dune option correspondra `a la valeur initiale minimale X

0
que peut
avoir un portefeuille de couverture autonance, soit
C := inf
_
X

0
: tel que
est autonance
est de couverture
_
.
Comme dans le cas discret, nous allons resoudre ce probl`eme de minimisation `a laide des
probabilites risque-neutre.
CHAPITRE 8. MOD
`
ELE DE BLACK ET SCHOLES 96
Theor`eme 8.4 - Prix dune option europeenne -
1. Le prix dune option europeenne de maturite T et de fonction de paiement g(S
T
)
est
C = E

_
e
rT
g(S
T
)
_
= G(0, S
0
) (8.3)
o` u la fonction G est denie par
G(t, x) := e
r(Tt)
_
+

g
_
x e
(r
2
/2)(Tt)+y
_
exp
_
y
2
2(T t)
_
dy
_
2(T t)
.
(8.4)
2. Le portefeuille

deni par

t
=
G
x
(t, S
t
) et

t
=
G(t, S
t
)

t
S
t
B
t
(8.5)
est un portefeuille de couverture autonance de valeur initiale C. Sa valeur au
temps t est
X

t
= e
r(Tt)
E

(g(S
T
) [ T
t
) = G(t, S
t
).
Preuve: Nous allons commencer par prouver que C G(0, S
0
) (etape 1). Ensuite nous allons
montrer que

est un portefeuille de couverture autonance de valeur initiale G(0, S


0
) ce qui
entranera linegalite inverse C G(0, S
0
) (etapes 2, 3 et 4) nous permettant de conclure (etape
5).
1. Minoration : C G(0, S
0
). Considerons un portefeuille de couverture autonance . Dapr`es
le Lemme 8.3 sa valeur reactualisee

X

est une martingale sous P

, donc

0
= E

T
_
.
Par ailleurs, comme le portefeuille est un portefeuille de couverture X

T
g(S
T
), donc

0
= E

T
_
E

_
e
rT
g(S
T
)
_
.
Cette derni`ere egalite est vraie pour tout portefeuille de couverture autonance , on en
deduit donc que C E

_
e
rT
g(S
T
)
_
. Enn, lequation (8.1)
S
T
= S
0
exp
_
W

T
+
_
r

2
2
_
T
_
avec W

un mouvement brownien sous P

. Comme W

T
suit une loi ^(0, T) sous P

, on en
deduit que E

_
e
rT
g(S
T
)
_
= G(0, S
0
). et nalement
C G(0, S
0
) .
2.

a pour valeur initiale G(0, S


0
). La formule (8.5) donne X

t
=

t
B
t
+

t
S
t
= G(t, S
t
)
pour tout 0 t T. Il sut de prendre legalite en t = 0.
CHAPITRE 8. MOD
`
ELE DE BLACK ET SCHOLES 97
3.

est un portefeuille autonance. La valeur reactualisee de

est

t
= e
rt
G(t, S
t
) =

G(t,

S
t
),
avec

G(t, x) := e
rt
G(t, xe
rt
). La valeur reactualisee

S est un processus dIto de la forme
d

S
t
=

S
t
dW

t
et

G est de classe (
2
: on peut ecrire la formule dIto pour

G(t,

S
t
)

G(t,

S
t
) =

G(0,

S
0
) +
_
t
0


G
x
(u,

S
u
) d

S
u
+
_
t
0
_


G
t
(u,

S
u
) +

2
x
2
2

2

G
x
2
(u,

S
u
)
_
du
. .
=0
.
Le dernier terme vaut 0 car

G verie lequation


G
t
+

2
x
2
2

2

G
x
2
= 0 (voir lExercice 8.3.2). (8.6)
Comme de plus


G
x
(t,

S
t
) =
G
x
(t, S
t
) =

t
on en deduit que

t
=

G(t,

S
t
) =

X

0
+
_
t
0

u
d

S
u
,
ce qui signie dapr`es le Lemme 8.1 que

est autonance.
4.

est un portefeuille de couverture. Remarquons dej`a que


X

T
= lim
tT
G(t, S
t
) = g(S
T
)
donc

couvre loption. De plus, nous verierons dans lExercice 8.3.3 que


G(t, S
t
) = E

_
e
r(Tt)
g(S
T
) [ T
t
_
et comme X

t
= G(t, S
t
) on en deduit que
E

_
_

t
_
2
_
= E

_
E

_
e
r(Tt)
g(S
T
) [ T
t
_
2
_
E

_
E

_
(e
r(Tt)
g(S
T
))
2
[ T
t
__
(inegalite de Jensen)
P1
e
2r(Tt)
E

_
g(S
T
)
2
_
< +.
Cette borne assure que la condition (8.2) est satisfaite. Le portefeuille

est donc un
portefeuille de couverture.
5. Conclusion. Comme

est un portefeuille de couverture autonance de valeur initiale


G(0, S
0
) on a linegalite C G(0, S
0
). Or, on a montre en debut de preuve linegalite
inverse, donc C = G(0, S
0
).
CHAPITRE 8. MOD
`
ELE DE BLACK ET SCHOLES 98
2
Dans le cas important o` u loption est une option dachat europeenne, la formule (8.3)
donnant le prix de loption est la cel`ebre formule de Black et Scholes.
Corollaire 8.5 - Formule de Black et Scholes -
Le prix dune option dachat europeenne de maturite T et de prix dexercice K est
C = S
0
N(d
1
) Ke
rT
N(d
2
) (8.7)
avec
N(x) =
_
x

e
t
2
/2
dt

2
et
d
1
=
log(S
0
/K) +T(r +
2
/2)

T
et d
2
= d
1

T.
La preuve de ce corollaire est lobjet de lexercice 8.3.1
Remarques.
1. Comparez la valeur (8.5) de

t
avec la valeur

n
obtenue pour le mod`ele de Cox-
Ross-Rubinstein dans lExercice 4.4.4.
2. Nous encourageons le lecteur `a reprendre lanalyse eectuee dans ce chapitre en
supposant cette fois que
_
dB
t
= r
t
B
t
dt
dS
t
= S
t
(
t
dt +
t
dW
t
),
o` u r, et sont des fonctions continues [0, T] R connues. En adaptant chaque
etape de lanalyse, vous retrouverez les formules du Theor`eme 8.4 o` u simplement
_
T
t
r
s
ds aura remplace r(T t) et
_
T
t

2
s
ds aura remplace
2
(T t).
8.3 Exercices
8.3.1 La formule de Black et Scholes
Nous allons demontrer la formule de Black et Scholes.
1. Montrer que pour une option dachat europeenne de maturite T et de prix dexercice
K, la fonction G du Theor`eme 8.4 secrit G(t, x) = xN(d
1
(x, )) Ke
r
N(d
2
(x, )),
avec = T t,
N(x) =
_
x

e
t
2
/2
dt

2
CHAPITRE 8. MOD
`
ELE DE BLACK ET SCHOLES 99
et
d
1
(x, ) =
log(x/K) +(r +
2
/2)

et d
2
(x, ) = d
1
(x, )

.
2. En deduire que le prix (8.3) de loption peut se mettre sous la forme (8.7).
3. Montrer que la composition du portefeuille de couverture est donnee (avec les nota-
tions de la premi`ere question) par

t
= N(d
1
(S
t
, ))
et

t
= Ke
rT
N(d
2
(S
t
, ))/B
0
.
8.3.2 Lequation aux derivees partielles de Black et Scholes
1. Verier que

G(t, x) = e
rt
G(t, xe
rt
) avec G deni dans le Theor`eme 8.4 est solution
de lequation (8.6).
2. Deduire de lEquation (8.6), que la fonction G est solution de
G
t
+

2
x
2
2

2
G
x
2
+rx
G
x
= rG sur [0, T] R
+
avec G(T, x) = g(x) pour tout x > 0.
8.3.3 La valeur au temps t du portefeuille

Lobjet de cet exercice est de prouver que la valeur X

t
du portefeuille

au temps t est
donnee par E

_
e
r(Tt)
g(S
T
) [ T
t
_
.
1. Montrer que
E

_
e
r(Tt)
g(S
T
) [ T
t
_
= E

_
e
r(Tt)
g
_
S
t
e
(W

T
W

t
)+(r
2
/2)(Tt)
_
[ T
t
_
.
2. A laide de lExercice 1.5.7, prouver legalite
E

_
e
r(Tt)
g(S
T
) [ T
t
_
= G(t, S
t
) ,
puis conclure.
Annexe A
Rappels de probabilites
A.1

Evenements
Dans tout le livre, on note lunivers des possibles (cest `a dire lensemble de toutes les
eventualites possibles).
Un evenement A est un sous-ensemble (mesurable) de . On note P(A) la probabilite de
levenement A. On a les proprietes :
- 0 P(A) 1,
- P() = 1,
- si A
i
A
j
= pour tout i ,= j alors P(A
1
. . . A
k
) = P(A
1
) + +P(A
k
).
(La propriete est vraie pour tout k N +)
Independance
Des evenements A
1
, . . . , A
k
sont independants si P(A
1
. . . A
k
) = P(A
1
) P(A
k
).
A.2 Variables aleatoires
On appelle variable aleatoire `a valeurs dans A toute fonction X : A (mesurable).
Pour tout x A, on note X = x levenement : X() = x. On distingue
dierents types de variables aleatoires.
Variables discr`etes
Si A est un sous-ensemble ni de R, on dit que X est une variable aleatoire discr`ete. On
a alors la formule
E(g(X)) =

xX
g(x) P(X = x), pour toute fonction g : A R.
100
ANNEXE A. RAPPELS DE PROBABILIT

ES 101
Remarque. Pour tout evenement A la variable aleatoire 1
A
: 0, 1 prend pour
valeur 1 si A et pour valeur 0 si / A. On a donc la formule
E(1
A
) = 0 P(A
c
) + 1 P(A) = P(A).
Variables `a densite
Une variable aleatoire X : R a une densite f
X
si
P(X A) =
_
A
f
X
(x) dx, pour tout A R (mesurable).
On a alors la formule
E(g(X)) =
_
R
g(x)f
X
(x) dx pour tout g : R R (integrable).
Remarque : Si X a une densite alors P(X = x) =
_
x
x
f
X
(t) dt = 0 pour tout x R. Dans
ce cas, la notion P(X = x) est remplacee par la densite f
X
(x) qui represente la probabilite
que X soit dans un petit voisinage de x.
En eet, supposons que f
X
est continue en x et notons V

(x) =]x , x + [ un petit


voisinage de x :
P(X V

(x)) =
_
x+
x
f
X
(t) dt
0
2f
X
(x) = f
X
(x) longueur(V

(x)).
Independance
Des variables aleatoires X
1
, . . . , X
k
`a valeurs dans R sont independantes si
E
_
g
1
(X
1
) g
k
(X
k
)
_
= E
_
g
1
(X
1
)
_
E
_
g
k
(X
k
)
_
pour toutes fonctions g
1
, . . . , g
k
de R dans R (mesurables bornees).
Dans ce cas, pour tout A
1
, . . . , A
k
R (mesurables), les evenements X
1
A
1
, . . . , X
k
A
k

sont independants.
Independance de variables discr`etes
Deux variables aleatoires discr`etes X : A et Y : sont independantes si et
seulement si
P(X = x, Y = y) = P(X = x) P(Y = y) pour tout x A et y .
Notation : P(X = x, Y = y) est une notation simpliee de P(X = x Y = y).
ANNEXE A. RAPPELS DE PROBABILIT

ES 102
Independance et densite jointe
Deux variables aleatoires X : R et Y : R, poss`edent une densite jointe f
(X,Y )
:
R R R
+
, si pour tout domaine (mesurable) T plan,
P
_
(X, Y ) T
_
=
_
D
f
(X,Y )
(x, y) dx dy .
Pour toute fonction g : R R R (integrable), on a alors
E(g(X, Y )) =
_
RR
g(x, y)f
(X,Y )
(x, y) dx dy.
On retrouve les densites marginales de X et Y par les formules
f
X
(x) =
_
yR
f
(X,Y )
(x, y) dy et f
Y
(y) =
_
xR
f
(X,Y )
(x, y) dx .
Deux variables aleatoires X et Y ayant une densite jointe sont independantes si et seulement
si
f
(X,Y )
(x, y) = f
X
(x)f
Y
(y) pour (presque) tout x, y R.
Notations diverses
1. Deux variables aleatoires X et Y sont dites indiscernables sil existe
1
tel que
P(
1
) = 1,
X() = Y () pour tout
1
.
2. Des variables aleatoires X
1
, X
2
, . . . sont dites i.i.d. si elles sont independantes et de
meme loi.
A.3 Convergence de variables aleatoires
Dans ce qui suit, (X
n
)
n0
est une suite de variables aleatoires `a valeurs reelles.
Convergence ps (presque s ur)
Il est dit que (X
n
) converge presque s urement vers X, lorsquil existe un ensemble
1
tel
que P(
1
) = 1 et X
n
()
n
X() pour tout
1
.
Convergence L
2
Il est dit que X
n
converge vers X dans L
2
, si E([X
n
X[
2
)
n
0.
ANNEXE A. RAPPELS DE PROBABILIT

ES 103
Convergence en probabilite
Il est dit que X
n
converge en probabilite vers X, si pour tout > 0
P([X
n
X[ > )
n
0.
Convergence en loi
Il est dit que X
n
converge en loi vers X, si pour toute fonction f : R R continue et
bornee on a
E(f(X
n
))
n
E(f(X)).
Relations
Convergence ps = Convergence en probabilite = Convergence en loi

Convergence L
2
Deux theor`emes de passage `a la limite
Convergence dominee
Si (X
n
)
nN
est une suite de variables aleatoires reelles telles que :
- X
n
converge p.s. vers X,
- [X
n
[ Y pour tout n N, avec E(Y ) < +,
alors E(X
n
)
n
E(X).
Convergence monotone
Si (X
n
)
nN
est une suite de variables aleatoires reelles telles que :
- X
n
converge p.s. vers X,
- X
n+1
() X
n
() (ou X
n+1
() X
n
()), pour tout et n N
alors E(X
n
)
n
E(X).
Annexe B
Construction de lintegrale dIto
Nous esquissons ici les grandes lignes de la construction de lintegrale dIto. Pour des
preuves compl`etes, nous vous conseillons la reference [5].
Martingales continues de carre integrable
Dorenavant, W est un mouvement brownien et T
t
= (W
s
, s t). Fixons T [0, ] et no-
tons /
T
lespace des T
t
-martingales (M
t
)
tT
veriant E(M
2
T
) < +et qui sont continues
et issues de 0 (M
0
= 0) avec probabilite 1. On identiera deux processus indiscernables.
Proposition B.1
/
T
muni du produit scalaire (M[N)
M
= E(N
T
M
T
) est un espace de Hilbert.
Preuve: Montrer que (M[N)
M
est un produit scalaire est direct. La preuve de la completude
repose sur linegalite maximale de Doob et le lemme de Borel-Cantelli, voir [5]. 2
Nous allons aussi introduire lespace lineaire engendre par les processus (H
t
)
t0
continus `a
gauche, T
t
-adaptes et veriant
_
T
0
E
_
H
2
s
_
ds < +.
On note L
2
T
ladherence de cet espace muni du produit scalaire (H[K)
L
=
_
T
0
E(H
s
K
s
) ds.
Integration des processus elementaires
Les processus elementaires sont des processus constants par morceaux de la forme
H
t
() =
n

i=1
h
i
() 1
]t
i1
,t
i
]
(t)
104
ANNEXE B. CONSTRUCTION DE LINT

EGRALE DIT

O 105
o` u les h
i
sont des variables aleatoires bornees T
t
i1
-mesurables et 0 = t
0
< . . . < t
n
= T.
Remarquez que H est borne, continu `a gauche et adapte. Dans la suite c
T
designera lespace
des processus elementaires muni du produit scalaire ([)
L
.
Pour t T, on denit lintegrale stochastique du processus elementaire H par
__
t
0
H
s
dW
s
_
() :=
n

i=1
h
i
()
_
W
tt
i
() W
tt
i1
()
_
,
o` u s t := min(s, t).
Proposition B.2
Lapplication (H
t
)
tT

_
_
t
0
H
s
dW
s
_
tT
est une isometrie de c
T
vers /
T
.
Preuve: Remarquons dej`a que le processus
_
n
i=1
h
i
_
W
tt
i
W
tt
i1
__
tT
est continu et issu
de 0. Verions maintenant que cest une martingale. Comme le mouvement brownien W est une
martingale, pour 0 t
k
t s < t
k+1
t on a
E
_
n

i=1
h
i
_
W
tt
i
W
tt
i1
_
[ T
s
_
=
k

i=1
E
_
h
i
_
W
tt
i
W
tt
i1
_
[ T
s
_
+E
_
h
k+1
_
W
tt
k+1
W
tt
k
_
[ T
s
_
+
n

i=k+2
E
_
h
i
_
W
tt
i
W
tt
i1
_
[ T
s
_
=
k

i=1
h
i
_
W
tt
i
W
tt
i1
_
+h
k+1
_
E
_
W
tt
k+1
[ T
s
_
W
tt
k
_
+
n

i=k+2
E
_
_
_
_
E
_
h
i
_
W
tt
i
W
tt
i1
_
[ T
t
i1
t
_
. .
=h
i
E(Wtt
i
Wtt
i1
)=0
[ T
s
_
_
_
_
=
k

i=1
h
i
_
W
tt
i
W
tt
i1
_
+h
k+1
(W
s
W
tt
k
) + 0
=
n

i=1
h
i
_
W
st
i
W
st
i1
_
,
ce qui prouve que E
_
_
t
0
H
u
dW
u
[ T
s
_
=
_
s
0
H
u
dW
u
pour tout s t, donc
_
_
t
0
H
u
dW
u
_
tT
est
une martingale. Il reste `a montrer que lapplication H
_

0
H
s
dW
s
est une isometrie.
ANNEXE B. CONSTRUCTION DE LINT

EGRALE DIT

O 106
Calculons la norme de
_

0
H
s
dW
s
:

_

0
H
s
dW
s

2
M
= E
_
__
T
0
H
s
dW
s
_
2
_
=

j
E
_
h
i
h
j
(W
t
i
W
t
i1
)(W
t
j
W
t
j1
)
_
.
Pour i < j, la variable h
i
h
j
(W
t
i
W
t
i1
) est T
t
j1
-mesurable. En consequence, vu la propriete 3
du mouvement brownien h
i
h
j
(W
t
i
W
t
i1
) est independant de W
t
j
W
t
j1
. Il sen suit que
E
_
h
i
h
j
(W
t
i
W
t
i1
)(W
t
j
W
t
j1
)
_
= E
_
h
i
h
j
(W
t
i
W
t
i1
)
_
E
_
W
t
j
W
t
j1
_
. .
=0
= 0.
Lorsque i = j : vu que h
2
i
est T
t
i1
-mesurable, il est independant de (W
t
i
W
t
i1
)
2
, do` u
E
_
h
2
i
(W
t
i
W
t
i1
)
2
_
= E
_
h
2
i
_
E
_
(W
t
i
W
t
i1
)
2
_
= E
_
h
2
i
_
(t
i
t
i1
).
En rassemblant les morceaux, on obtient

_

0
H
s
dW
s

2
M
=

i
E
_
h
2
i
_
(t
i
t
i1
) =
_
T
0
E(H
2
s
)ds = [[H[[
2
L
.
Nous venons de verier que H
_

0
H
s
dW
s
est bien une isometrie. 2
Extension `a L
2
T
Grace `a la propriete disometrie, nous pouvons etendre lintegrale denie precedemment `a
ladherence de c
T
dans L
2
T
, qui se trouve etre L
2
T
lui-meme.
Proposition B.3
Il existe une unique extension isometrique de lapplication
c
T
/
T
H
_

0
H
s
dW
s
de L
2
T
dans /
T
.
Lextension de cette integrale aux processus H veriant seulement
_
T
0
H
2
s
ds < , requiert
des arguments sensiblement plus techniques. Nous renvoyons le lecteur curieux `a louvrage
de Karatzas et Shreve [5] pour cette extension et la preuve de la densite de c
T
dans L
2
T
.
ANNEXE B. CONSTRUCTION DE LINT

EGRALE DIT

O 107
Corollaire B.4
Pour tout processus H L
2
T
continu `a gauche et borne, on a
n

i=1
H
(i1)t/n
_
W
it/n
W
(i1)t/n
_
P

_
t
0
H
s
dW
s
, pour tout t T.
Preuve: Posons H
(n)
s
=

n
i=1
H
(i1)t/n
1
](i1)t/n,it/n]
(s). Comme H
(n)
est un processus elementaire
_
t
0
H
(n)
s
dW
s
=
n

i=1
H
(i1)t/n
_
W
it/n
W
(i1)t/n
_
.
Dautre part H
(n)
converge vers H dans L
2
t
. En raison de la propriete disometrie
_
t
0
H
(n)
s
dW
s
converge vers
_
t
0
H
s
dW
s
dans /
t
et donc en probabilite. 2

Remarque : lintegrale dIto


_

0
H
s
dW
s
construite ci-dessus appartient `a lespace /
T
et
est donc continue seulement avec probabilite 1. Cependant, on peut la modier sur un
ensemble de probabilite nulle, sans en changer sa loi, donc on peut choisir une version de
_

0
H
s
dW
s
qui est continue partout.
Deuxi`eme partie
Les Corriges
108
Chapitre 9
Exercices du Chapitre 1
Exercice 1.5.1
Notons B levenement le cadeau est derri`ere la porte de gauche. La probabilite de gagner
est
P(gagne) = P(gagne [ B)P(B) +P(gagne [ B
c
)P(B
c
),
avec P(B) = 1/3 et P(B
c
) = 2/3.
En conservant sa porte : dans ce cas P(gagne [ B) = 1 et P(gagne [ B
c
) = 0 donc
P(gagne) = 1/3.
En changeant de porte : dej`a P(gagne [ B) = 0. Dans le cas o` u le cadeau nest
pas derri`ere la porte de gauche. Parmi les deux portes restantes, lune est ouverte
et il ny a rien derri`ere, lautre est fermee. Comme le cadeau nest pas derri`ere la
porte de gauche ni derri`ere la porte ouverte, il est derri`ere la porte fermee. Donc
P(gagne [ B
c
) = 1 et nalement P(gagne) = 2/3.
En tirant `a pile ou face : il y a deux portes fermees et le cadeau est derri`ere lune
dentre elles. Comme le tirage `a pile ou face est independant de B, on a P(gagne [
B) = P(gagne [ B
c
) = 1/2. Au nal, P(gagne) = 1/2.
La meilleure strategie est donc de changer de porte !
Exercice 1.5.2
On a S
n
= (1 +
n
)S
n1
avec S
n1
qui est T
n1
-mesurable et
n
independant de T
n1
. On
calcule E(S
n
[ T
n1
) `a laide des proprietes de lesperance conditionnelle
E(S
n
[ T
n1
)
P5
= S
n1
E((1 +
n
) [ T
n1
)
P4
= S
n1
(1 +E(
n
[ T
n1
))
P3
= S
n1
(1 + ).
109
CHAPITRE 9. EXERCICES DU CHAPITRE 1 110
Exercice 1.5.3
Nous avons ici une densite jointe donc E(Y [ X) = h(X) avec
h(x) =
_
R
yf
X
(y [ x) dy =
_
R
y
f
(X,Y )
(x, y)
f
X
(x)
dy =
_
R
yf(x, y) dy
_
R
f(x, y) dy
.
Calculons chacune des deux integrales. Une integration par parties donne
_
R
yf(x, y) dy = n(n 1)
_
1
x
y(y x)
n2
dy
= n(n 1)
_
y(y x)
n1
n 1
_
1
x
n(n 1)
_
1
x
(y x)
n1
n 1
= n(1 x)
n1
(1 x)
n
= (1 x)
n1
(n 1 +x).
On a aussi
_
R
f(x, y) dy = n(n 1)
_
1
x
(y x)
n2
dy = n(1 x)
n1
,
donc au nal h(x) = (n 1 +x)/n et
E(Y [ X) =
n 1 +X
n
.
Exercice 1.5.4
Appelons X
1
, . . . , X
N
2 les N
2
valeurs obtenues. On a donc S = N + X
1
+ . . . + X
N
2. On
peut reecrire cette egalite sous la forme
S = N +
6

k=1
1
{N=k}
(X
1
+. . . +X
k
2) .
En eet, si par exemple N() = 5 le seul terme non nul de la somme est celui pour lequel
k = 5. On trouve donc S() = 5 + X
1
() + . . . + X
5
2(), ce qui donne bien legalite
S() = N() +X
1
() +. . . +X
N
2
()
().
Les termes 1
{N=k}
sont (N)-mesurables alors que les X
1
, . . . , X
k
2 sont independants de
N. En utilisant la propriete 4, puis la propriete 5, puis la propriete 3 on obtient
E(S [ N) = E(N [ N) +
6

k=1
E(1
{N=k}
(X
1
+. . . +X
k
2) [ N)
= N +
6

k=1
1
{N=k}
E(X
1
+. . . +X
k
2 [ N)
= N +
6

k=1
1
{N=k}
E(X
1
+. . . +X
k
2).
CHAPITRE 9. EXERCICES DU CHAPITRE 1 111
Par linearite de lesperance E(X
1
+. . . +X
k
2) = E(X
1
) +. . . +E(X
k
2) = (7/2) k
2
, do` u
au nal
E(S [ N) = N +
6

k=1
1
{N=k}
(7/2) k
2
= N + (7/2) N
2
.
Exercice 1.5.5
1. On separe dans S
n+1
la partie T
n
-mesurable de la partie independante de T
n
, cest `a
dire S
n+1
= S
n
+X
n+1
(remarquez que S
n
est (X
1
, . . . , X
n
)-mesurable car S
n
= X
1
+
+X
n
). Ensuite on applique successivement les proprietes 4, 2 et 3 de lesperance
conditionnelle pour obtenir
E(S
n+1
[ T
n
) = E(S
n
[ T
n
) +E(X
n+1
[ T
n
)
= S
n
+E(X
n+1
[ T
n
) (car S
n
est T
n
-mesurable)
= S
n
+E(X
n+1
) (car X
n+1
est independant de T
n
)
= S
n
+m (car les X
i
ont meme loi).
2. Comme precedemment on separe dans z
S
n+1
la partie T
n
-mesurable de la partie
independante de T
n
, cest `a dire z
S
n+1
= z
Sn
z
X
n+1
. Ensuite on applique successive-
ment les proprietes 5 et 3 de lesperance conditionnelle pour obtenir
E(z
S
n+1
[ T
n
) = z
Sn
E(z
X
n+1
[ T
n
) (car z
Sn
est T
n
-mesurable)
= z
Sn
E(z
X
n+1
) (car z
X
n+1
est independant de T
n
)
= z
Sn
G(z) (car les X
i
ont meme loi).
On peut montrer directement que E(z
Sn
) = G(z)
n
en utilisant lindependance des X
i
.
Une alternative est dutiliser la formule precedente : Posons G
n
(z) = E(z
Sn
). Dapr`es
la propriete 1 de lesperance conditionnelle et la formule obtenue precedemment on a
G
n+1
(z) = E(z
S
n+1
)
= E(E(z
S
n+1
[ T
n
))
= E(z
Sn
G(z))
= G
n
(z)G(z).
Comme G
1
(z) = G(z), une petite recurrence donne G
n
(z) = G(z)
n
.
Exercice 1.5.6
1. Cette formule permet de decomposer la somme en separant les termes T
n
-mesurables
de ceux qui sont independants de T
n
. Soit j tel que N() = j. On a 1
{N()=k}
= 0
pour tout k ,= j et 1
{N()=j}
= 1, do` u

k=0
1
{N()=k}
k

i=1
X
i
() =
j

i=1
X
i
() =
N()

i=1
X
i
(),
CHAPITRE 9. EXERCICES DU CHAPITRE 1 112
avec la convention que

0
i=1
X
i
= 0. On a bien legalite annoncee.
2. Remarquons tout dabord que les 1
{N=k}
sont T
n
-mesurables, et que les sommes

k
i=1
X
i
sont independantes de T
n
. En appliquant successivement les proprietes 4, 5
et 3 de lesperance conditionnelle, on obtient
E
_
N

i=1
X
i
[ T
n
_
=

k=0
E
_
k

i=1
1
{N=k}
X
i
[ T
n
_
=

k=0
1
{N=k}
E
_
k

i=1
X
i
[ T
n
_
=

k=0
1
{N=k}
E
_
k

i=1
X
i
_
=

k=0
1
{N=k}
k

i=1
E(X
i
) .
Pour conclure, remarquons (comme `a la premi`ere question) que

k=0
1
{N=k}
k

i=1
E(X
i
) =
N

i=1
E(X
i
) .
3. La premi`ere formule permet de nouveau de decomposer le produit en separant les
termes T
n
-mesurables de ceux qui sont independants de T
n
. Soit j tel que N() = j.
On a 1
{N()=k}
= 0 pour tout k ,= j et 1
{N()=j}
= 1, do` u

k=0
1
{N()=k}
k

i=1
g (X
i
()) =
j

i=1
g (X
i
()) =
N()

i=1
g (X
i
())
avec la convention que

0
i=1
g (X
i
) = 1. En utilisant que les 1
{N=k}
sont T
n
-mesurables,
puis que le produit

k
i=1
g (X
i
) est independant de T
n
on obtient
E
_
N

i=1
g (X
i
) [ T
n
_
=

k=0
1
{N=k}
E
_
k

i=1
g (X
i
) [ T
n
_
=

k=0
1
{N=k}
E
_
k

i=1
g (X
i
)
_
=

k=0
1
{N=k}
k

i=1
E(g (X
i
))
o` u la derni`ere egalite decoule de lindependance des X
i
. Il sut maintenant de re-
marquer que

k=0
1
{N=k}
k

i=1
E(g (X
i
)) =
N

i=1
E(g (X
i
))
CHAPITRE 9. EXERCICES DU CHAPITRE 1 113
pour conclure.
Exercice 1.5.7
On a
h(x) = E(H(U
n+1
, x)) =
_

H(U
n+1
(), x) dP().
Verions que h(X
n
) satisfait les deux conditions de la denition de lesperance condition-
nelle :
Dej`a h(X
n
) est T
n
-mesurable en tant que fonction de X
n
.
Ensuite il faut verier que E(h(X
n
)Y ) = E(H(U
n+1
, X
n
)Y ) pour tout Y qui est T
n
-
mesurable. Pour un tel Y nous avons
E(h(X
n
)Y ) =
_

h(X
n
(

))Y (

) dP(

)
=
_

H(U
n+1
(), X
n
(

)) dP()Y (

) dP(

).
Comme U
n+1
est independant de T
n
on a dP() dP(

) = dP(,

) donc
E(h(X
n
)Y ) =
_

H(U
n+1
(), X
n
(

))Y (

) dP(,

)
= E(H(U
n+1
, X
n
)Y ).
En conclusion h(X
n
) verie les deux conditions de la caracterisation de lesperance condi-
tionnelle, on en deduit que
E(H(U
n+1
, X
n
) [ T
n
) = h(X
n
).
Exercice 1.5.8
1. On a E(X [ Z) = h(Z) avec h(z) =

p
i=1
x
i
P(X = x
i
[ Z = z) pour tout z Z.
Linegalite de convexite avec
i
= P(X = x
i
[ Z = z) donne pour tout z Z :
(h(z))
p

i=1
(x
i
) P(X = x
i
[ Z = z)
. .
=P((X)=(x
i
)|Z=z)
= E((X) [ Z = z) = h

(z).
Comme E((X) [ Z) = h

(Z), on en deduit linegalite (E(X [ Z)) E((X) [ Z).


2. la fonction : x x
p
est convexe sur R
+
. Comme [ X [ est une variable aleatoire
positive, linegalite de Jensen donne
E([X[ [ T
n
)
p
= (E([X[ [ T
n
)) E(([X[) [ T
n
) = E([X[
p
[ T
n
).
CHAPITRE 9. EXERCICES DU CHAPITRE 1 114
Exercice 1.5.9
Partie I -
1. On a F(W+Y ) = F(W)2 E[(XW)Y ]+E(Y
2
). Le dernier terme etant quadratique
en Y , on en deduit que
DF(W).Y = 2 E[(X W)Y ].
2. Comme F est minimale en W

, on a DF(W

) = 0. En explicitant cette condition,


on obtient que pour tout Y dans H on a E[(X W

)Y ] = 0, cest `a dire E(Y W

) =
E(XY ). Conclusion : W

verie la condition b).


3. La variable aleatoire W

verie les deux conditions a) et b) de la caracterisation de


lesperance conditionnelle E(X [ T
n
), donc W

= E(X [ T
n
).

Interpretation : On peut interpreter ce resultat de la mani`ere suivante : la meilleure ap-


proximation T
n
-mesurable de X pour la distance |XW|
2
= E[(XW)
2
] est lesperance
conditionnelle E(X [ T
n
).

Partie II -
1. Dej`a W

+ Y H. En eet, la somme de deux variables T


n
-mesurables est encore
T
n
-mesurable. On a donc F(W

) F(W

+Y ). En developpant les carres on obtient


E((X W

)
2
) E((X W

)
2
) 2 E(Y (X W

)) +
2
E(Y
2
).
Linegalite demandee, en decoule.
2. Si > 0, en divisant par on obtient
0 2E(Y (X W

)) +E(Y
2
).
En faisant tendre vers 0 on en deduit que E(Y (X W

)) 0.
Lorsque est negatif, on obtient
0 2E(Y (X W

)) +E(Y
2
)
puis E(Y (XW

)) 0. En combinant ces deux inegalites on obtient E(Y (XW

)) =
0, donc E(Y W

) = E(Y X).
Conclusion : La variable aleatoire W

verie les deux conditions a) et b) de la


caracterisation de lesperance conditionnelle E(X [ T
n
), donc W

= E(X [ T
n
).
La meilleure approximation T
n
-mesurable de X pour la distance |X W|
2
=
E[(X W)
2
] est lesperance conditionnelle E(X [ T
n
).
CHAPITRE 9. EXERCICES DU CHAPITRE 1 115
Exercice 1.5.10
1. Nous allons verier que h(Z) satisfait les conditions a) et b).
La condition a) est manifestement veriee par h(Z) !
Verions la condition b) : a-t-on E(h(Z)f(Z))
?
= E(Xf(Z)) pour toute fonction f ?
Faisons le calcul
E(f(Z)h(Z)) =

zZ
f(z)h(z)P(Z = z)
=

zZ
f(z)

xX
x P(X = x [ Z = z) P(Z = z)
. .
=P(X=x,Z=z)
=

zZ

xX
f(z)x P(X = x, Z = z)
= E(f(Z)X).
2. Comme precedemment la condition a) est manifestement veriee par h(Z). Verions
la condition b) : E(h(Z)f(Z))
?
= E(Xf(Z)) pour toute fonction f ?
E(f(Z)h(Z)) =
_
zR
f(z)h(z)f
Z
(z) dz
=
_
zR
f(z)
__
xR
xf
X
(x [ Z = z) dx
_
f
Z
(z) dz
=
_
zR
f(z)
__
xR
xf
(X,Z)
(x, z)/f
Z
(z) dx
_
f
Z
(z) dz
=
_
zR
_
xR
f(z)x f
(X,Z)
(x, z) dxdz
= E(f(Z)X).
Chapitre 10
Exercices du Chapitre 2
Exercice 2.4.1
Le processus (X
n
) est une martingale ssi E(X
n
[ T
n1
) = X
n1
. Comme X
n1
est T
n1
-
mesurable, on a aussi X
n1
= E(X
n1
[ T
n1
) dapr`es la propriete 2 de lesperance condi-
tionnelle. On en deduit que (X
n
) est une martingale ssi E(X
n
[ T
n1
) = 0.
Exercice 2.4.2
On separe dans Y
n+1
les termes T
n
-mesurables de ceux independants de T
n
: Y
n+1
=

n
i=1
iX
i
+ (n + 1)X
n+1
m(n + 1)(n + 2)/2. En utilisant les proprietes 4 puis 2 et 3 de
lesperance conditionnelle, on obtient
E(Y
n+1
[ T
n
) =
n

i=1
E(iX
i
[ T
n
) + (n + 1)E(X
n+1
[ T
n
) m(n + 1)(n + 2)/2
=
n

i=1
iX
i
+ (n + 1)mm(n + 1)(n + 2)/2
= Y
n1
.
La processus (Y
n
)
n0
est donc une martingale.
Exercice 2.4.3
1. Soit p 1. Vu la propriete 6 de lesperance conditionnelle on a
E(M
n+p
[ T
n
) = E(E(M
n+p
[ T
n+p1
) [ T
n
).
Comme (M
n
) est une martingale E(M
n+p
[ T
n+p1
) = M
n+p1
donc
E(M
n+p
[ T
n
) = E(M
n+p1
[ T
n
)
pour tout p 1. Une petite recurrence donne alors
E(M
N
[ T
n
) = E(M
N1
[ T
n
) = = E(M
n+1
[ T
n
) = M
n
.
116
CHAPITRE 10. EXERCICES DU CHAPITRE 2 117
2. Dapr`es le theor`eme d arret, (M
nT
)
n0
est une martingale. En particulier, pour tout
N n on a dapr`es la question precedente
E(M
TN
[ T
n
) = M
Tn
.
De plus, le temps darret T etant borne, il existe N tel que T() N pour tout
. On a alors
E(M
T
[ T
n
) = E(M
TN
[ T
n
) = M
Tn
.
Exercice 2.4.4
1. Separons dans M
n+1
les termes T
n
-mesurables et les termes independants de T
n
:
M
n+1
=
exp(S
n
)
(cosh )
n+1
exp(X
n+1
).
En utilisant la propriete 5 puis 3 de lesperance conditionnelle on obtient
E(M
n+1
[ T
n
) =
exp(S
n
)
(cosh )
n+1
E(exp(X
n+1
) [ T
n
)
=
exp(S
n
)
(cosh )
n+1
E(exp(X
n+1
))
=
exp(S
n
)
(cosh )
n+1
_
e

P(X
n+1
= 1) +e

P(X
n+1
= 1)
_
=
exp(S
n
)
(cosh )
n+1
cosh = M
n
.
2. En derivant on obtient cosh

() = (e

)/2 0 si 0, donc cosh()


cosh(0) = 1.
3. Le temps est un temps darret donc dapr`es la premi`ere partie du theor`eme darret
(M
n
)
n0
est une martingale.
De plus, comme n , on a S
n
plus petit que 10, par denition du temps .
Comme cosh() 1 on obtient
[ M
n
[=[
exp(S
n
)
(cosh )
n
[ exp(S
n
) exp(10).
On peut donc appliquer la troisi`eme partie du theor`eme darret pour obtenir
E
_
e
S
(cosh )

_
= E(M

) = E(M
0
) = 1.
Comme S

= 10, on obtient nalement


E
_
(cosh )

_
= e
10
.
CHAPITRE 10. EXERCICES DU CHAPITRE 2 118
Exercice 2.4.5
1. Separons les termes T
n
-mesurables de ceux independants de T
n
:
X
n+1
=
Xn

G
n+1
.
A laide des proprietes 5 et 3 de lesperance conditionnelle on obtient
E
_

X
n+1
[ T
n
_
=
Xn
E
_

G
n+1
[ T
n
_
=
Xn
E
_

G
n+1
_
.
Calculons cette derni`ere esperance
E
_

G
n+1
_
=
1

P(G
n+1
= 1) +P(G
n+1
= 1) =
p
1 p
(1 p) +
1 p
p
p = 1.
Conclusion : E(Z
n+1
[ T
n
) = Z
n
donc (Z
n
) est une martingale.
2. Comme 0 < 1 p < p < 1 on a 0 < < 1. Comme de plus X
nT
est compris entre 0
et 200 (car n T T), on en deduit que
0
200
Z
nT
=
X
nT

0
= 1.
3. Vu que P(T < +) = 1 et [Z
nT
[ 1, on peut appliquer le theor`eme darret (partie
3), ce qui donne
E(Z
T
) = E(Z
0
) = Z
0
=
100
.
4. La variable aleatoire X
T
vaut 0 ou 200. On en deduit que

100
= E(Z
T
) =
0
P(X
T
= 0) +
200
P(X
T
= 200).
Comme P(X
T
= 200) = 1 P(X
T
= 0), on en tire la formule
P(Richard ruine au temps T) = P(X
T
= 0) =

100

200
1
200
.
5. La loi des grands nombres donne
G
1
+ +G
n
n
E(G
1
) = 2p 1, p.s.
lorsque n , donc G
1
+ +G
n
p.s., ce qui implique que P(T < +) = 1.
Exercice 2.4.6
1. Remarquons dej`a que M
n
est T
n
-mesurable car pour k n les variables aleatoires
X
k
et E(X
k
[T
k1
) le sont. En appliquant successivement les proprietes 4 et 2 de
lesperance conditionnelle on obtient
E(M
n+1
[ T
n
) = E(M
n
[ T
n
) +E(X
n+1
[ T
n
) E(E(X
n+1
[ T
n
) [ T
n
)
= M
n
+E(X
n+1
[ T
n
) E(X
n+1
[ T
n
)
= M
n
.
Le processus (M
n
) est donc une martingale.
CHAPITRE 10. EXERCICES DU CHAPITRE 2 119
2. Pour k n, E(X
k
[ T
k1
) et X
k1
sont T
k1
-mesurables donc T
n1
-mesurables. En
consequence, A
n
est T
n1
-mesurable. La variable aleatoire A
n
est aussi T
n
-mesurable,
vu que toute variable aleatoire T
n1
-mesurable est T
n
-mesurable. De plus
A
n+1
A
n
= E(X
n+1
[ T
n
) X
n
est positif car (X
n
) est une sous-martingale.
3. Si X
n
= M
n
+A
n
= M

n
+A

n
, alors
A

n
= A
n
+ M
n
M

n
. (10.1)
Comme A
n
et A

n
sont T
n1
-mesurables
E(A
n
[ T
n1
) = A
n
et E(A

n
[ T
n1
) = A

n
,
de meme comme M
n
et M

n
sont des martingales
E(M
n
[ T
n1
) = 0 et E(M

n
[ T
n1
) = 0.
Donc si on prend lesperance conditionnelle de legalite (10.1) sachant T
n1
, il vient
A

n
= A
n
, quel que soit n N. Par ailleurs, comme A
0
= A

0
= 0, on a A
n
=

n
k=1
A
k
et A

n
=

n
k=1
A

k
. Legalite A
k
= A

k
pour tout k n donne
nalement A
n
= A

n
. En consequence, on a aussi M
n
= M

n
vu (10.1).
Exercice 2.4.7
1. Le calcul de lesperance donne
G(s) =

k=0
s
k
(k), G(0) = (0) et G(1) =

k=0
(k) = 1.
2. En derivant G on obtient
G

(s) =

k=0
(k + 1)(k + 1)s
k
0
donc G est croissante. En derivant une seconde fois il vient
G

(s) =

k=0
(k + 1)(k + 2)(k + 2)s
k
0
donc G est convexe. Enn G

(1) =

k=1
k(k) = m.
CHAPITRE 10. EXERCICES DU CHAPITRE 2 120
0
1
1
1
mu(0)
mu(0)
1
m
m
m<1
m>1
0
Fig. 10.1 Graphe de la fonction G pour m < 1 et m > 1
3. La formule de recurrence donne
E
_
s
Z
n+1
[ T
n
_
= E
_
Zn

i=1
s
X
(n)
i
[ T
n
_
. (10.2)
On calcule cette esperance conditionnelle `a laide de la question 3 de lExercice 1.5.6.
Ici la fonction g est g(x) = s
x
et N = Z
n
. On obtient alors
E
_
s
Z
n+1
[ T
n
_
=
Zn

i=1
E
_
s
X
(n)
i
_
=
Zn

i=1
G(s)
_
car E
_
s
X
(n)
i
_
= G(s)
_
= G(s)
Zn
.
En prenant lesperance de cette egalite on obtient
G
n+1
(s) = E
_
s
Z
n+1
_
P1
= E
_
E
_
s
Z
n+1
[ T
n
__
= E
_
G(s)
Zn
_
= G
n
(G(s)).
Une petite recurrence donne alors
G
n
(s) = G G
. .
n fois
(s)
CHAPITRE 10. EXERCICES DU CHAPITRE 2 121
car G
1
= G.
4. On a G
n
(0) = P(Z
n
= 0) = la probabilite que la population seteigne avant le temps
n. En passant `a la limite on en deduit que p = lim
n
G
n
(0).
0
1
1
1
mu(0)
mu(0)
1
0
m<1 m>1
G1(0) G2(0) G3(0)
G1(0) G2(0)
Fig. 10.2 Convergence de G
n
(0)
5. Lorsque m 1, G
n
(0) tend vers 1, donc p = 1.
Lorsque m > 1, G
n
(0) tend vers lunique point xe p

]0, 1[ de G, i.e. p

= G(p

).
6. Calculons lesperance conditionnelle de M
n+1
sachant T
n
`a laide de la question 2 de
lExercice 1.5.6 avec N = Z
n
E(M
n+1
[ T
n
) = m
(n+1)
E
_
Zn

i=1
X
(n+1)
i

T
n
_
= m
(n+1)
Zn

i=1
E
_
X
(n+1)
i
_
.
Comme pour tout i on a E
_
X
(n+1)
i
_
= m, on en deduit que
E(M
n+1
[ T
n
) = m
(n+1)
Z
n
m = M
n
.
Le processus (M
n
) est donc une martingale. De plus E(M
n
) = E(M
0
) = 1.
7. Comme p = 1 lorsque m 1, on a Z
n
() = 0 (et donc M
n
() = 0) pour n assez
grand. En consequence, M

= 0 et E(M

) = 0. Par contre
lim
n
E(M
n
) = lim
n
1 = 1.
CHAPITRE 10. EXERCICES DU CHAPITRE 2 122
Comment expliquer que lim
n
E(M
n
) ,= 0 ? On a bien lim
n
M
n
() = 0. Plus
precisement on a P( : M
n
() ,= 0) 0, mais en meme temps lorsque M
n
() ,= 0
on a M
n
() m
n
tr`es grand, donc E(M
n
) ne tend pas vers 0.
8. Comme G
n
(e
a
) = E(exp(aZ
n
)) on obtient avec a = /m
n
E(exp(M
n
)) = E
_
exp(m
n
Z
n
)
_
= G
n
(exp(m
n
)).
9. Rappelons que G
n
= G G
n1
, donc
E(exp(M
n
)) = G(G
n1
(exp(/m
n
))) = G(E(exp(M
n1
/m))) ,
la derni`ere egalite decoulant de la question precedente. En passant `a la limite on
obtient
L() = G(L(/m)).
Le passage `a la limite se justie par le theor`eme de convergence dominee et la conti-
nuite de G.
Exercice 2.4.8
1. Cest la Proposition 2.1.
2. Comme (X
n
) est une martingale on a E(X
n
) = E(X
0
). De meme (X
na
) est une
martingale dapr`es le theor`eme darret donc E(X
na
) = E(X
0
). On en deduit que
E(X
na
) = E(X
n
). En decomposant cette egalite suivant que
a
n ou
a
> n on
obtient
E
_
X
a
1
{an}
_
+E
_
X
n
1
{a>n}
_
= E
_
X
n
1
{an}
_
+E
_
X
n
1
{a>n}
_
.
La relation demandee en decoule.
3. Par denition de
a
, on a X
a
a donc
aP(
a
n) E
_
X
a
1
{an}
_
= E
_
X
n
1
{an}
_
.
Pour conclure remarquons que

a
n =
_
max
k=1,...,n
X
k
a
_
.
En eet le temps
a
est plus petit que n ssi le processus (X
k
) passe au-dessus du
niveau a avant le temps n. Ce qui revient `a dire que max
k=1,...,n
X
k
est plus grand
que a.
CHAPITRE 10. EXERCICES DU CHAPITRE 2 123
4. Lorsque (X
n
) est une sous-martingale on doit proceder dieremment. Remarquons
dej`a que X
k
E(X
n
[ T
k
) pour tout k n. A laide de cette inegalite, puis des
proprietes 5 et 1 de lesperance conditionnelle on obtient
E
_
X
a
1
{an}
_
=
n

k=0
E
_
X
k
1
{a=k}
_

k=0
E
_
E(X
n
[ T
k
)1
{a=k}
_

k=0
E
_
E(X
n
1
{a=k}
[ T
k
)
_

k=0
E
_
X
n
1
{a=k}
_
= E
_
X
n
1
{an}
_
.
Pour conclure, on proc`ede comme dans la question precedente.
Exercice 2.4.9
1. la fonction x [x[ est convexe donc linegalite de Jensen donne
E([M
n+1
[ [ T
n
) [E(M
n+1
[ T
n
)[ = [M
n
[.
2. La formule de Fubini et linegalite maximale (2.3) donnent
E(S
p
n
) = E
__

0
px
p1
1
{xSn}
dx
_
=
_

0
px
p1
P(S
n
x) dx

_

0
px
p2
E([M
n
[1
{Snx}
) dx.
Calculons cette derni`ere integrale `a laide de la formule de Fubini
_

0
px
p2
E([M
n
[1
{Snx}
) dx = E
_
[M
n
[
_

0
px
p2
1
{Snx}
dx
_
= E
_
[M
n
[S
p1
n
_

p
p 1
.
3. Linegalite de Holder donne
E
_
[M
n
[S
p1
n
_
E([M
n
[
p
)
1/p
E
_
S
q(p1)
n
_
1/q
avec 1/q = 1 1/p = (p 1)/p. En combinant cette inegalite avec linegalite de la
question precedente on en deduit que
E(S
p
n
) E([M
n
[
p
)
1/p
E(S
p
n
)
11/p

p
p 1
CHAPITRE 10. EXERCICES DU CHAPITRE 2 124
et la premi`ere inegalite demandee en decoule. On en deduit que
E(S
p
n
)
_
p
p 1
_
p
sup
n0
E([M
n
[
p
) .
Pour conclure, remarquons que
lim
n
E(S
p
n
) = E
_
sup
n0
[M
n
[
p
_
par convergence monotone. Linegalite (2.4) est remarquable, car cest elle permet de
controler lesperance dun sup par le sup des esperances.
Exercice 2.4.10
1. Le temps T est un temps darret vu la Proposition 2.1
2. Dapr`es lexemple 2 Section 2.3.1, (S
n
mn) est une martingale. De meme, le theor`eme
darret nous assure que (S
nT
m(n T))
nN
est une martingale donc
E(S
nT
m(n T)) = E(S
0
0) = 0.
Legalite demande en decoule.
3. Comme T est le premier temps de passage au dessus du niveau a, on a S
n
1
{T>n}

a1
{T>n}
. On en deduit que
0 E(S
n
1
{T>n}
) aP(T > n) .
De plus, comme S
n
/n m p.s. lorsque n (Loi de Grands Nombres), on a S
n

+p.s. et donc P(T > n) 0 lorsque n . Il en decoule que lim
n
E(S
n
1
{T>n}
) =
0 et par convergence monotone dans la formule du 2. on obtient
mE(T) = E(S
T
).
4. Dapr`es lexemple 2 Section 2.3.1, (S
n
) est une martingale. Ici on a E(S
0
) = E(0) = 0
et E(S
T
) E(a) = a, donc E(S
T
) ,= E(S
0
). Pourquoi ? car ici on est pas dans le
cadre dapplication du theor`eme darret (pas de condition de domination).
Remarquons que

S
n
:= S
n
+ n S
n
, donc T T

. De plus, lidentite de wald


appliquee `a

S
n
donne E(

S
T
) = E(T

). On en deduit que
E(T) E(T

) =
E(

S
T
)

a/
car

S
T
a. Linegalite E(T) a/ etant vraie pour , en faisant tendre vers 0 on
obtient que E(T) = +.
CHAPITRE 10. EXERCICES DU CHAPITRE 2 125
Exercice 2.4.11
1. En utilisant successivement la propriete 5 de lesperance conditionnelle et la propriete
de martingale on obtient
E(V
k+1
V
k
[ T
k
) = V
k
E(V
k+1
[ T
k
) = V
2
k
.
On en deduit que
E(V
k+1
V
k
) = E(E(V
k+1
V
k
[ T
k
)) = E(V
2
k
),
et
E
_
(V
k+1
V
k
)
2
_
= E(V
2
k+1
) 2E(V
k+1
V
k
) +E(V
2
k
)
= E(V
2
k+1
) E(V
2
k
).
2. En sommant legalite precedente on obtient
E(V
2
n
) E(V
2
0
) =
n1

k=0
E(V
2
k+1
) E(V
2
k
)
=
n1

k=0
E
_
(V
k+1
V
k
)
2
_
.
Conclusion :
- La suite n E(V
2
n
) est croissante. (on peut aussi le voir avec linegalite de
Jensen)
-

k=0
E((V
k+1
V
k
)
2
) < + sup
nN
E(V
2
n
) < +.
Chapitre 11
Exercices du Chapitre 3
Exercice 3.5.1
La condition dautonancement assure que X

n1
=
n
B
n1
+
n
S
n1
. On en deduit que
X

n
= X

n
X

n1
=
n
B
n
+
n
S
n

n
B
n1
+
n
S
n1
=
n
B
n
+
n
S
n
.
Exercice 3.5.2
1. Rappelons que pour un portefeuille autonance on a
_
X

n
=
n
B
n
+
n
S
n
X

n1
=
n1
B
n1
+
n1
S
n1
=
n
B
n1
+
n
S
n1
(autonancement)
donc

_
X

n
(U)
_
=
X

n
(U)

X

n1

n1
(U)
=
n
B
0
+
n
S
n

n
(U)

n
B
0

n
S
n1

n1
(U)
=
n
_
S
n

n
(U)

S
n1

n1
(U)
_
=
n

_
S
n

n
(U)
_
.
2. En combinant X

n
/
n
(U) = X

0
+

n
k=1
(X

k
/
k
(U)) et la formule demontree ` a la
question precedente, on obtient le resultat demande.
126
CHAPITRE 11. EXERCICES DU CHAPITRE 3 127
Exercice 3.5.3
1. Appliquons successivement les proprietes 4, 2 et 5 de lesperance conditionnelle
E

(M
n+1
[ T
n
) = E

(M
n
[ T
n
) +E

(
n+1
V
n+1
[ T
n
)
= M
n
+E

(
n+1
V
n+1
[ T
n
) (car M
n
est T
n
-mesurable)
= M
n
+
n+1
E

(V
n+1
[ T
n
) (car
n+1
est T
n
-mesurable).
Par ailleurs, comme (V
n
) est une martingale, E

(V
n+1
[ T
n
) = 0 (voir lExercice
2.4.1) donc nalement E

(M
n+1
[ T
n
) = M
n
et (M
n
) est aussi une martingale.
2. Dans la formule de la question 3.5.2.2 le processus (
n
) est previsible et (S
n
/
n
(U))
est une martingale (car P

probabilite risque-neutre), donc (X

n
/
n
(U)) est une mar-
tingale.
Exercice 3.5.4
1. Vu la propriete 6 de lesperance conditionnelle on a
E(Z
n+1
[ T
n
) = E(E(Z [ T
n+1
) [ T
n
) = E(Z [ T
n
) = Z
n
.
2. Dej`a on a E

(W) = E(ZW). Comme W est T


p
-mesurable, en appliquant successive-
ment les proprietes 1 et 5 de lesperance conditionnelle on obtient
E

(W) = E(E(ZW [ T
p
))
= E(WE(Z [ T
p
)) = E(WZ
p
).
3. La formule que nous allons etablir permet dexprimer lesperance conditionnelle sous
P

`a partir de celle sous P. Posons V = E(XZ


n
[ T
n1
)/Z
n1
. Pour montrer que V =
E

(X [ T
n1
), il faut verier que V satisfait les deux conditions de la caracterisation
de E

(X [ T
n1
), cest `a dire
a) V est T
n1
-mesurable,
b) E

(Y V ) = E

(Y X) , pour tout Y qui est T


n1
-mesurable.
On a Z
n1
qui est T
n1
-mesurable et E(XZ
n
[ T
n1
) aussi (propriete 1 de la denition
de lesperance conditionnelle). En consequence V est T
n1
-mesurable.
Nous allons maintenant montrer que E

(Y V ) = E

(Y X) pour toute variable T


n1
-
mesurable Y :
E

(Y V ) = E(Z
n1
Y V ) (question 2 avec p = n 1 et W = Y V )
= E(Y E(XZ
n
[ T
n1
)) (denition de V )
= E(E(Y XZ
n
[ T
n1
)) (Y est T
n1
-mesurable)
= E(Y XZ
n
)
= E

(Y X) (question 2 avec p = n et W = Y X).


V satisfait donc aussi la condition b), donc V = E

(X [ T
n1
).
CHAPITRE 11. EXERCICES DU CHAPITRE 3 128
4. Dej`a on a
E

(M

n
[ T
n1
) = E

(M
n
[ T
n1
)
n

k=1
E(
k
M
k
[T
k1
)
car la somme est T
n1
-mesurable. De plus en remplacant
n
par Z
n
/Z
n1
et en
utilisant la question 3 avec X = M
n
, on a
E(
n
M
n
[T
n1
) = E(Z
n
M
n
[ T
n1
)/Z
n1
= E

(M
n
[ T
n1
).
Au nal,
E

(M

n
[ T
n1
) = E

(M
n
[ T
n1
) E

(M
n
[ T
n1
)
n1

k=1
E(
k
M
k
[T
k1
)
= M
n1

n1

k=1
E(
k
M
k
[T
k1
)
= M

n1
.
Pour lavant derni`ere egalite on a utilise E

(M
n
[ T
n1
) = E

(M
n
[ T
n1
) M
n1
,
car M
n1
est T
n1
-mesurable.
Exercice 3.5.5
1. Voir lExemple 2 Section 2.3.1.
2. Comme (M
n
) est une martingale sous P, on a
E(G
n+1
[ T
n
) =
r m

2
E(M
n+1
[ T
n
) =
r m

2
M
n
= G
n
.
Donc (G
n
) est une martingale sous P. Dapr`es le Lemme 3.1.3, (
n
(G)) est aussi une
martingale sous P.
3. On a Z
n
= E(Z
N
[ T
n
) par denition de Z
n
. De plus comme (
n
(G)) est une mar-
tingale sous P, on a aussi
n
(G) = E(
N
(G) [ T
n
), voir la formule de lexercice 2.4.3.
Comme Z
N
=
N
(G) on en deduit que Z
n
=
n
(G). Pour calculer
n
on utilise la
formule donnant
n
(G) :

n
=
n
(G)/
n1
(G)
= 1 + G
n
= 1 +
r m

2
(
n
m).
4. La condition donnee assure que Z
N
est positif :
Z
N
= (1 + G
1
) (1 + G
n
) =
N

n=1
_
1 +
r m

2
(
n
m)
_
> 0.
CHAPITRE 11. EXERCICES DU CHAPITRE 3 129
Comme de plus (G) est une martingale sous P on a
E(Z
N
) = E(
N
(G)) = E(
0
(G)) = 1.
En denissant P

par (3.4) on obtient donc une probabilite.


5. En utilisant la formule pour
k
calculee precedemment on obtient
M

n
= M
n

k=1
E
__
1 +
r m

2
(
k
m)
_
M
k
[ T
k1
_
= M
n

k=1
E[M
k
[ T
k1
] +
r m

2
E
_
(
k
m)
2
[ T
k1

.
La premi`ere esperance conditionnelle vaut 0 car (M
n
) est une martingale sous P.
Pour la seconde on remarque que
k
est independant de T
k1
donc
E
_
(
k
m)
2
[ T
k1

= E
_
(
k
m)
2

=
2
.
On obtient nalement M

n
= M
n
(r m)n = V
n
rn = V
n
U
n
. Le lemme de
Girsanov assure que (M

n
)
nN
est une martingale sous P

donc (V
n
U
n
)
nN
est une
martingale sous P

.
6. En combinant la question precedente avec la Proposition 3.2 on obtient que P

est
une probabilite risque-neutre.
Chapitre 12
Exercices du Chapitre 4
Exercice 4.4.1
1. Comme S
n
est T
n
-mesurable et
n+1
est independant de T
n
on peut appliquer les
proprietes 5 et 3 de lesperance conditionnelle, ce qui donne
E(S
n+1
[T
n
) = E(S
n
(1 +
n+1
)[T
n
)
= S
n
(1 +E(
n+1
))
= S
n
(1 + 1 1/3 1/2 2/3) = S
n
.
(S
n
) est donc une martingale. Comme r
n
= 0, on a

S
n
= S
n
. En consequence (

S
n
)
est une martingale sous P, donc P est une probabilite risque-neutre.
2. Comme P

= P,
N
(U) = 1 et f = log(S
N
), le theor`eme 4.1 nous assure que
C = E(log(S
N
))
= E(log(S
0
(1 +
1
) (1 +
N
)))
= log S
0
+
N

k=1
E(log(1 +
k
)).
Comme E(log(1 +
k
)) = (1/3) log 2 + (2/3) log(1/2) = (log 2)/3, on obtient
nalement C = log S
0
(N log 2)/3.
Exercice 4.4.2
1. Comme

S
n
est T
n
-mesurable et X
n+1
est independant de T
n
on peut appliquer suc-
cessivement les proprietes 5 et 3 de lesperance conditionnelle, ce qui donne
E(

S
n+1
[ T
n
) = (1 +r)
n1
E
_
e
X
1
++X
n+1
[ T
n
_
= (1 +r)
1

S
n
E
_
e
X
n+1
[ T
n
_
= (1 +r)
1

S
n
E
_
e
X
n+1
_
.
Or E(e
X
n+1
) = (1 +e)/2 = (1 +r) donc E(

S
n+1
[ T
n
) =

S
n
.
130
CHAPITRE 12. EXERCICES DU CHAPITRE 4 131
2. Vu la question precedente (

S
n
) est une martingale sous P, donc P est une probabilite
risque-neutre.
3. Le theor`eme 4.1 donne
C = E
_
(1 +r)
N
S
2
N
_
= E
_
(1 +r)
N
e
2X
1
e
2X
N
_
= (1 +r)
N
E
_
e
2X
1
_
E
_
e
2X
N
_
,
o` u on a utilise lindependance des X
n
pour le derni`ere egalite. Comme E
_
e
2Xn
_
=
(1 +e
2
)/2 et 1 +r = (1 +e)/2 on obtient
C =
_
1 +e
2
1 +e
_
N
.
Exercice 4.4.3
1. Lorsque x K on a (x K)
+
(K x)
+
= x K et lorsque x K on a
(x K)
+
(K x)
+
= (K x). Dans les deux cas on a donc
(x K)
+
(K x)
+
= x K.
2. Avec la premi`ere question et la linearite de lesperance conditionnelle on obtient
C
n
P
n
= (1 +r)
(Nn)
[E

((S
N
K)
+
[ T
n
) E

((K S
N
)
+
[ T
n
)]
= (1 +r)
(Nn)
E

(S
N
K [ T
n
)
= (1 +r)
n
E

_
(1 +r)
N
S
N
[ T
n
_
(1 +r)
(Nn)
K.
Maintenant, comme ((1 +r)
n
S
n
)
nN
est une martingale sous P

on obtient
E

_
(1 +r)
N
S
N
[ T
n
_
= (1 +r)
n
S
n
et nalement C
n
P
n
= S
n
(1 +r)
(Nn)
K.
3. La formule precedente avec n = 0 donne C
0
P
0
= S
0
K/(1 +r)
N
.
4. Lachat au temps n = 0 dun put plus une unite de S plus K/(1 + r)
N
permet de
couvrir un call donc P
0
+S
0
K/(1 +r)
N
C
0
.
De meme, lachat dun call moins une unite de S plus K/(1 +r)
N
permet de couvrir
un put do` u C
0
S
0
+K/(1+r)
N
P
0
. En combinant les deux inegalites on retrouve
la formule de la question precedente.
Exercice 4.4.4
1. La probabilite P

est risque-neutre si et seulement si (S


n
/
n
(U))
nN
est une mar-
tingale sous P

. Dapr`es la proposition 3.2, cela a lieu si et seulement si (


1
+ +

n
nr)
nN
est une martingale sous P

. Nous avons dej`a vu (Chap. 2 Section 2.3.1


CHAPITRE 12. EXERCICES DU CHAPITRE 4 132
Exemple 2) que la marche aleatoire (
1
+ +
n
nr)
nN
est une martingale si et
seulement si E

(
n
) = r. Calculons cette esperance :
E

(
n
) = a P

(
n
= a) +b P

(
n
= b) = a(1 p

) +bp

.
Nous en deduisons que la condition necessaire et susante pour que P

soit une
probabilite risque-neutre est que
p

=
r a
b a
.
2. La variable aleatoire S
N
prend ses valeurs dans
_
S
0
(1 +b)
k
(1 +a)
Nk
, k = 0, . . . , N
_
.
De plus, pour tout k 0, . . . , N
P

(S
N
= S
0
(1 +b)
k
(1 +a)
Nk
) = C
k
N
(p

)
k
(1 p

)
Nk
donc le theor`eme 4.1 donne
C = (1 +r)
N
E

(g(S
N
))
= (1 +r)
N
N

k=0
g
_
S
0
(1 +b)
k
(1 +a)
Nk
_
C
k
N
(p

)
k
(1 p

)
Nk
= (1 +r)
N
G

N
(S
0
) .
3. Nous avons g(S
N
) = H(U
n+1
, S
n
) avec H(u, s) = g(su) et U
n+1
= (1 +
n+1
) (1 +

N
) independant de T
n
= (B
0
, . . . , B
n+1
, S
0
, . . . , S
n
). Dapr`es lexercice 1.5.7 on a
E

(g(S
N
) [ T
n
) = E

(H(U
n+1
, S
n
) [ T
n
) = h(S
n
)
avec h(s) = E

(H(U
n+1
, s)) = E

(g(sU
n+1
)). Or
E

(g(sU
n+1
)) =
Nn

k=0
g
_
s(1 +b)
k
(1 +a)
Nnk
_
C
k
Nn
(p

)
k
(1 p

)
Nnk
= G

Nn
(s) .
Donc au nal X

n
= (1 +r)
(Nn)
E

(g(S
N
) [ T
n
) = (1 +r)
(Nn)
G

Nn
(S
n
).
4. Dapr`es la question precedente on a
X

n
=

n
B
n
+

n
S
n
= (1 +r)
(Nn)
G

Nn
(S
n
)
=

n
B
0
(1 +r)
n
+

n
S
n1
(1 +
n
) = (1 +r)
(Nn)
G

Nn
(S
n1
(1 +
n
)).
Cette derni`ere egalite est vraie lorsque
n
= a et
n
= b, ce qui donne le syst`eme
dequations demande.
CHAPITRE 12. EXERCICES DU CHAPITRE 4 133
5. En resolvant le syst`eme de la question precedente on obtient la valeur

n
indiquee.
Concernant la relation

n
=
X

n1

n
S
n1
B
0
(1 +r)
n1
elle vient de la condition dautonancement pour

.
6. Notons tout dabord que S
0
(1 + b)
k
(1 + a)
Nk
K si k < k
0
. La question 2 avec
g(S
N
) = (S
N
K)
+
donne
C = (1 +r)
N
G

N
(S
0
)
= (1 +r)
N
N

k=0
_
S
0
(1 +b)
k
(1 +a)
Nk
K
_
+
C
k
N
(p

)
k
(1 p

)
Nk
= (1 +r)
N
N

k=k
0
_
S
0
(1 +b)
k
(1 +a)
Nk
K
_
C
k
N
(p

)
k
(1 p

)
Nk
= S
0
N

k=k
0
C
k
N
(1 +b)
k
(1 +a)
Nk
(p

)
k
(1 p

)
Nk
(1 +r)
N

K
(1 +r)
N
N

k=k
0
C
k
N
(p

)
k
(1 p

)
Nk
.
La seconde somme est egale `a B(k
0
, N, p

). Concernant la premi`ere somme, remar-


quons que
(1 +b)
k
(1 +a)
Nk
(p

)
k
(1 p

)
Nk
(1 +r)
N
=
_
1 +b
1 +r
p

_
k
_
1 +a
1 +r
(1 p

)
_
Nk
= (p

)
k
_
1 +a
1 +r
(1 p

)
_
Nk
.
Par ailleurs,
1 +a
1 +r
(1 p

) =
1 +a
1 +r
_
1
r a
b a
_
=
(1 +a)(b r)
(1 +r)(b a)
=
(b a)(1 +r) (1 +b)(r a)
(1 +r)(b a)
= 1
1 +b
1 +r
p

= 1 p

.
En recollant les morceaux on obtient nalement
C = S
0
B(k
0
, N, p

) (1 +r)
N
KB(k
0
, N, p

).
Remarque : Pour obtenir la formule de Black-Scholes `a partir de l`a il faut appliquer
le theor`eme central limite (question 1 de lexercice suivant) puis ne pas se decourager
face aux calculs... (questions 2 et 3 de lexercice 4.4.5).
CHAPITRE 12. EXERCICES DU CHAPITRE 4 134
Exercice 4.4.6
Partie I
1. Procedons par recurrence : on a
S
(1)
n
= (1 +
(1)
n
)S
(1)
n1
= (1 +
(1)
n
)(1 +
(1)
n1
)S
(1)
n2
= = (1 +
(1)
n
) (1 +
(1)
1
)S
(1)
0
do` u S
(1)
n
= c
(1)
n
S
(1)
0
. On proc`ede de meme pour S
(2)
n
.
2. La valeur au temps n du portefeuille est X

n
=
(1)
n
S
(1)
n
+
(2)
n
S
(2)
n
. Lors du reinvestissement
(choix de
(1)
n+1
et
(2)
n+1
) la valeur du portefeuille ne change pas donc
X

n
=
(1)
n+1
S
(1)
n
+
(2)
n+1
S
(2)
n
.
3. En utilisant que
(1)
n+1
et
(2)
n+1
sont T
n
-mesurables on obtient
E

_
X

n+1
/c
(1)
n+1
[ T
n
_
= E

(1)
n+1
S
(1)
0
+
(2)
n+1
S
(2)
n+1
/c
(1)
n+1
[ T
n
_
=
(1)
n+1
S
(1)
0
+
(2)
n+1
E

_
S
(2)
n+1
/c
(1)
n+1
[ T
n
_
.
En utilisant successivement que (S
(2)
n
/c
(1)
n
) est une martingale puis la condition dau-
tonancement on obtient
E

_
X

n+1
/c
(1)
n+1
[ T
n
_
=
(1)
n+1
S
(1)
0
+
(2)
n+1
S
(2)
n
/c
(1)
n
= (
(1)
n+1
S
(1)
n
+
(2)
n+1
S
(2)
n
)/c
(1)
n
= X

n
/c
(1)
n
.
4. Si est autonance, (X

n
/c
(1)
n
) est une martingale et on a
E

(X

N
/c
(1)
N
) = E

(X

0
) = 0.
Par ailleurs, si X

N
0, et P

(X

N
> 0) > 0 on a aussi
E

(X

N
/c
(1)
N
) = E

_
(X

N
/c
(1)
N
)1
X

N
>0
_
> 0,
ce qui contredit legalite precedente.

Partie II
1. Si `a lecheance, la valeur S
(1)
N
de lactif 1 est superieure `a la valeur S
(2)
N
de lactif 2,
loption na pas dinteret, le detenteur nexerce pas son droit. Parcontre si S
(2)
N
> S
(1)
N
,
il exercera son droit et recevra (S
(2)
N
S
(1)
N
). La fonction de paiement est donc
f = (S
(2)
N
S
(1)
N
)
+
.
CHAPITRE 12. EXERCICES DU CHAPITRE 4 135
2. Soit un portefeuille de couverture autonance. En utilisant que (X

n
/c
(1)
n
) est une
martingale, puis que X

N
f, il vient
X

0
= E

(X

N
/c
(1)
N
)
E

(f/c
(1)
N
).
3. Soit

un portefeuille autonance repliquant f `a lecheance, cest `a dire tel que


X

N
= f. Remarquons dej`a quun tel portefeuille est un portefeuille de couverture.
De plus, le portefeuille etant autonance, (X

n
/c
(1)
n
) est une martingale donc
X

0
= E

(X

0
) = E

(X

N
/c
(1)
N
) = E

(f/c
(1)
N
).
4. On a vu `a la question 2 quun portefeuille de couverture autonance a une valeur
initiale superieure ou egale `a E

(f/c
(1)
N
). Le portefeuille de couverture autonance

realisant legalite, on en deduit que C = E

(f/c
(1)
N
).
5. (X

n
/c
(1)
n
) est une martingale sous P

donc
X

n
/c
(1)
n
= E

(X

N
/c
(1)
N
[ T
n
).
Comme c
(1)
n
est T
n
-mesurable, on peut le rentrer `a linterieur de lesperance condi-
tionnelle pour obtenir le resultat demande.
6. Raisonnons par labsurde. Supposons que P

et Q

soient deux probabilites distinctes


qui conviennent. Les deux probabilites etant distinctes il existe A tel que P

(A) ,=
Q

(A).
Soit f = c
(1)
N
1
A
. Il existe autonance tel que X

N
= f. En utilisant que (X

n
/c
(1)
n
)
est une martingale sous P

et Q

(car autonance) on en deduit que


E
P
(X

N
/c
(1)
N
) = X

0
= E
Q
(X

N
/c
(1)
N
).
En remplacant X

N
par f, on obtient P

(A) = Q

(A). Absurde !
Chapitre 13
Exercices du Chapitre 5
Exercice 5.6.1
1. Comme g est maximum en y

on a g(Y
n
()) g(y

) pour tout n N et . En
particulier, g(Y

) g(y

) pour tout temps darret et


E

(U)
1
f

_
= E

(g(Y

)M

)
g(y

)E

(M

) .
De plus comme M est une martingale et temps darret borne par N on a E

(M

) =
E

(M
0
) = 1 (theor`eme darret).
2. Dapr`es le theor`eme 5.1 et la question precedente
C = sup
T
N
E

(U)
1
f

_
g(y

)
3. On a
E

(U)
1
f

_
= g(y

)E

(M

) = g(y

)
avec

temps darret borne par N. Vu le theor`eme 5.1, on a donc g(y

) C et vu la
question precedente C = g(y

). Le temps

correspond au temps dexercice optimal.


Exercice 5.6.2
1.

est autonance donc


_
X

n
/(1 +r)
n
_
est une martingale sous P

et
X

n
(1 +r)
n
= E

_
X

N
(1 +r)
N
[ T
n
_
= E

f
N
[ T
n
_
, pour tout n N.
2. Comme

f
N
0, le rappel et la question precedente donnent X

n
/(1 +r)
n
0. On a
aussi

f
N
(S
N
K)/(1+r)
N
, donc en combinant le rappel et la question precedente
il vient
X

n
(1 +r)
n
E

_
S
N
K
(1 +r)
N
[ T
n
_
.
136
CHAPITRE 13. EXERCICES DU CHAPITRE 5 137
Or (S
n
/(1 +r)
n
) est une martingale sous P

donc
E

_
S
N
K
(1 +r)
N
[ T
n
_
=
S
n
(1 +r)
n

K
(1 +r)
N

S
n
K
(1 +r)
n
o` u la derni`ere egalite a lieu car K et r sont positifs. Le resultat demande en decoule.
3. Vu ce qui prec`ede X

n
est superieur `a 0 et `a (S
n
K), donc
X

n
max(0, S
n
K) = (S
n
K)
+
= f
n
.
Cela signie que

est un portefeuille de couverture et comme il est aussi autonance,


on deduit de la denition de C
am
que C
am
X

0
. Enn, vu la question 1, on a aussi
X

0
= E

f
N
[ T
0
_
= E

f
N
_
donc C
am
E

f
N
_
.
4. Vu le theor`eme 4.1, on a C
eur
= E

f
N
_
, donc dapr`es la question precedente C
eur

C
am
.
5. Remarquons que
C
am
= inf
_
X

0
o` u est autonance et verie X

n
f
n
, n N
_
inf
_
X

0
o` u est autonance et verie X

N
f
N
_
= C
eur
.
Comme la question precedente donne linegalite inverse, on conclut que C
am
= C
eur
=
E

f
N
_
.
Exercice 5.6.3
1. En utilisant successivement les proprietes 1 et 5 de lesperance conditionnelle on
obtient
E

(Y ) = E

(Z
N
Y )
= E

(E

(Z
N
Y [ T
n
))
= E

(Y E

(Z
N
[ T
n
)) .
P

est une probabilite risque-neutre donc (Z


n
) est une martingale sous P

et E

(Z
N
[ T
n
) =
Z
n
.
2. Le theor`eme 5.1 donne
C = sup
T
N
E

_
max
0k
S
k
S

(U)
_
= sup
T
N
E

(Z

(X

1)) .
En decomposant sur les dierentes valeurs que peut prendre et en utilisant la
question 1 pour la seconde egalite (remarquez que 1
=n
(X
n
1) est T
n
-mesurable)
CHAPITRE 13. EXERCICES DU CHAPITRE 5 138
on obtient
E

(Z

(X

1)) =
N

n=0
E

(1
=n
Z
n
(X
n
1))
=
N

n=0
E

(1
=n
(X
n
1))
= E

(X

1).
La formule en decoule.
Exercice 5.6.4
1. Dej`a X
n
est T
n
-mesurable et Y
n
= max(X
n
, E

(Y
n+1
[ T
n
)) aussi (car X
n
est T
n
-
mesurable, ainsi que lesperance conditionnelle, voir la denition de celle-ci). Comme
on peut ecrire T = n = X
0
,= Y
0
X
n1
,= Y
n1
X
n
= Y
n
, on a
T = n T
n
pour tout n, donc T est un temps darret. Idem pour T
n
. Comme
X
N
= Y
N
, les deux temps T et T
N
sont bornes par N.
2. La formule (5.5) pour n = 0 donne
Y
0
= E

(X
T
0
[ T
0
) = sup
T
N
E

(X

[ T
0
) .
Pour conclure remarquez que E

( [ T
0
) = E

() et T
0
= T.
3. Par denition Y
n
= max(X
n
, E

(Y
n+1
[ T
n
)) E

(Y
n+1
[ T
n
).
4. Vu la denition de T
n
, si n k < T
n
(), on a Y
k
() ,= X
k
(). Comme par ailleurs
Y
k
() = max(X
k
(), E

(Y
k+1
[ T
k
) ()), on en deduit que Y
k
() = E

(Y
k+1
[ T
k
) ()
pour n k < T
n
(). En utilisant la formule denissant A
n
on obtient
A
Tn
=
Tn

k=1
[Y
k1
E(Y
k
[ T
k1
)]
=
n

k=1
[Y
k1
E(Y
k
[ T
k1
)] = A
n
.
5. La question 2 de lExercice 2.4.3 nous donne E

(M

[ T
n
) = M
n
. Comme n,
on en deduit que E

(M

[ T
n
) = M
n
.
6. Vu la denition de T
n
, on a X
Tn
= Y
Tn
. Donc
E

(X
Tn
[ T
n
) = E

(Y
Tn
[ T
n
)
= E

(M
Tn
A
Tn
[ T
n
) (decomposition de Doob)
= E

(M
Tn
[ T
n
) E

(A
n
[ T
n
) ( car A
Tn
= A
n
)
= M
n
A
n
(question precedente et A
n
est T
n
-mesurable)
= Y
n
.
CHAPITRE 13. EXERCICES DU CHAPITRE 5 139
7. On a X
k
Y
k
pour tout k N (car Y
k
= max(X
k
, E

(Y
k+1
[ T
k
))), donc X

et
E

(X

[ T
n
) E

(Y

[ T
n
) = E

(M

[ T
n
) E

(A

[ T
n
) .
Vu lexercice 2.4.3 on a E

(M

[ T
n
) = M
n
. Par ailleurs comme n, on a
M
n
= M
n
et aussi A

A
n
car (A
n
) est un processus croissant. Conclusion :
E

(X

[ T
n
) M
n
E

(A
n
[ T
n
) = M
n
A
n
= Y
n
.
8. Pour conclure, combinez les deux questions precedentes en remarquant que T
n
est un
temps darret prenant ses valeurs dans [n, N].
Chapitre 14
Exercices du Chapitre 6
Exercice 6.4.1
1. Clairement X
0
= 0 et la loi de X
t
est la loi ^(0, t) car

t^(0, 1) = ^(0, t). Par


contre,
X
t+s
X
t
=
_

t +s

t
_
N =
_
t +s

t
1
_
X
t
donc X
t+s
X
t
nest pas independant de X
t
!
2. On a la decomposition W
t+s
= (W
t+s
W
t
) +W
t
avec le premier terme independant
de T
t
(propriete 3 du mouvement brownien) et le second terme T
t
-mesurable. En
appliquant successivement les proprietes 4, 3 et 2 de lesperance conditionnelle on
obtient
E(W
t+s
[ T
t
) = E(W
t+s
W
t
[ T
t
) +E(W
t
[ T
t
)
= E(W
t+s
W
t
) +E(W
t
[ T
t
)
= E(W
t+s
W
t
) +W
t
.
Pour conclure, il sut de se rappeler que W
t+s
W
t
suit une loi ^(0, s) (propriete
3 du mouvement brownien) donc E(W
t+s
W
t
) = 0.
3. On decompose W
2
t+s
en
W
2
t+s
= (W
t+s
W
t
+W
t
)
2
= (W
t+s
W
t
)
2
+ 2(W
t+s
W
t
)W
t
+W
2
t
avec W
t+s
W
t
independant de T
t
et W
t
qui est T
t
-mesurable. Avec les proprietes
4, 3, 5 et 2 de lesperance conditionnelle on obtient
E(L
t+s
[ T
t
)
= E
_
W
2
t+s
(t +s) [ T
t
_
= E
_
(W
t+s
W
t
)
2
[ T
t
_
+ 2E((W
t+s
W
t
)W
t
[ T
t
) +E
_
W
2
t
[ T
t
_
(t +s)
= E
_
(W
t+s
W
t
)
2
_
+ 2W
t
E((W
t+s
W
t
) [ T
t
) +W
2
t
(t +s)
= E
_
(W
t+s
W
t
)
2
_
+ 2W
t
E((W
t+s
W
t
)) +W
2
t
(t +s).
140
CHAPITRE 14. EXERCICES DU CHAPITRE 6 141
Comme W
t+s
W
t
suit une loi ^(0, s) (propriete 3 du mouvement brownien), on a
E(W
t+s
W
t
) = 0 et E((W
t+s
W
t
)
2
) = s
2
, donc au nal E(L
t+s
[ T
t
) = L
t
. Le
processus L est donc une martingale.
4. On a c
t+s
= exp(W
t
) exp((W
t+s
W
t
))e

2
(t+s)/2
avec exp(W
t
) qui est T
t
-mesurable
et exp((W
t+s
W
t
)) qui est independant de T
t
. En utilisant successivement les pro-
prietes 5 puis 3 de lesperance conditionnelle on obtient
E(c
t+s
[ T
t
) = exp(W
t
)e

2
(t+s)/2
E(exp((W
t+s
W
t
)) [ T
t
)
= exp(W
t
)e

2
(t+s)/2
E(exp((W
t+s
W
t
))) .
De plus comme W
t+s
W
t
suit une loi ^(0, s) (propriete 3 du mouvement brownien),
on a E(exp((W
t+s
W
t
))) = e

2
s/2
. Conclusion E(c
t+s
[ T
t
) = c
t
et (c
t
) est une
martingale.
5. En appliquant les proprietes 4, 5, puis legalite E(M
t
[ T
s
) = M
s
(martingale), puis
la propriete 2 de lesperance conditionnelle, on obtient
E
_
(M
t
M
s
)
2
[ T
s
_
= E
_
M
2
t
[ T
s
_
2E(M
s
M
t
[ T
s
) +E
_
M
2
s
[ T
s
_
= E
_
M
2
t
[ T
s
_
2M
s
E(M
t
[ T
s
) +E
_
M
2
s
[ T
s
_
= E
_
M
2
t
[ T
s
_
2M
2
s
+E
_
M
2
s
[ T
s
_
= E
_
M
2
t
[ T
s
_
2E
_
M
2
s
[ T
s
_
+E
_
M
2
s
[ T
s
_
= E
_
M
2
t
M
2
s
[ T
s
_
.
Exercice 6.4.2
1. Dej`a W
t
W
s
= (W
t
W
s
)W
s
+W
2
s
. Calculons lesperance du premier terme :
E((W
t
W
s
)W
s
) = E(W
s
)E(W
t
W
s
) (car W
t
W
s
est independant de T
s
)
= 0 (car W
s
suit une loi ^(0, s)).
On en deduit que E(W
t
W
s
) = E(W
2
s
) = s.
2. La variable aleatoire W
k
= W
t
k
W
t
k1
suit une loi ^(0, t
k
) donc
E
_
(W
k
)
2
_
= t
k
et E
_
(W
k
)
4
_
= 3(t
k
)
2
.
3. Commencons par remarquer que
(< W >

t
t)
2
=
_
n

k=1
(W
k
)
2
t
k
_
2
=
n

j=1
n

k=1
_
(W
j
)
2
t
j
_ _
(W
k
)
2
t
k
_
.
CHAPITRE 14. EXERCICES DU CHAPITRE 6 142
On en deduit que
E
_
(< W >

t
t)
2

=
n

j=1
n

k=1
E
__
(W
j
)
2
t
j
_ _
(W
k
)
2
t
k
_
=
n

j=1
E
_
_
(W
j
)
2
t
j
_
2
_
+

j=k
E
__
(W
j
)
2
t
j
_ _
(W
k
)
2
t
k
_
.
En developpant le carre et avec la question precedente on obtient
E
_
_
(W
j
)
2
t
j
_
2
_
= 2t
2
j
.
Si j ,= k on a W
j
independant de W
k
. En eet, si par exemple j < k, la propriete 3
du mouvement brownien stipule que W
k
est independant de T
t
k1
. Or W
j
est
T
t
k1
-mesurable donc W
k
est independant de W
j
. On en deduit que
E
__
(W
j
)
2
t
j
_ _
(W
k
)
2
t
k
_
= E
_
(W
j
)
2
t
j
_
E
_
(W
k
)
2
t
k
_
= 0
pour j ,= k. Au nal, il reste
E
_
(< W >

t
t)
2

= 2
n

j=1
(t
j
)
2
2
n

j=1
[[t
j
2[[ t
||0
0 .
4. Dej`a on a
< W >

t
=
n

k=1
[W
k
[
2
max
k=1...n
[W
k
[
n

k=1
[W
k
[.
Le mouvement brownien etant uniformement continu, pour tout > 0 il existe >
0 tel que pour toute subdivision veriant [[ < on a max
k=1...n
[W
k
[ < .
Autrement dit
max
k=1,...,n
[W
k
[
||0
0
Comme de plus < W >

t
tend vers t lorsque [[ tend vers 0, on en deduit que
n

k=1
[W
k
[
||0
+.
Chapitre 15
Exercices du Chapitre 7
Exercice 7.5.1
1. On applique la formule dIto avec X
t
= W
t
et g(t, x) = x
p
. Pour p 2 la fonction g
est de classe (
2
et g

(x) = px
p1
, g

(x) = p(p 1)x


p2
. On obtient alors la formule
annoncee.
2. On applique la formule dIto avec g(t, x) = log(x). Comme g

(x) = 1/x et g

(x) =
1/x
2
, on obtient
d log(X
t
) =
dX
t
X
t

H
2
t
2X
2
t
dt
et donc d log(X
t
) ,= dX
t
/X
t
. Soulignons en particulier que la solution de
dX
t
X
t
= dY
t
nest pas X
t
= exp(Y
t
) (autrement dit Y
t
= log(X
t
)). La solution est X
t
=
t
(Y ),
voir lexercice 7.5.2.
Exercice 7.5.2
1. Posons Z
t
= X
t

1
2
_
t
0
H
2
s
ds. On a
t
(X) = exp(Z
t
). Appliquons la formule dIto
avec g(t, x) = exp(x)
d exp(Z
t
) = exp(Z
t
) dZ
t
+
1
2
H
2
t
exp(Z
t
) dt = exp(Z
t
) dX
t
.
On en deduit donc que d
t
(X) =
t
(X) dX
t
.
2. Comme K
t
= 0 et d
t
(X) =
t
(X) dX
t
=
t
(X)H
t
dW
t
, lexponentielle stochastique

t
(X) sexprime par une integrale dIto

t
(X) = 1 +
_
t
0

s
(X)H
s
dW
s
.
La condition
_
t
0
E((
s
(X)H
s
)
2
) ds < + assure que cette integrale dIto est une
martingale (voir la denition de lintegrale dIto).
143
CHAPITRE 15. EXERCICES DU CHAPITRE 7 144
Exercice 7.5.3
1. On a d

W
t
= dW
t
H
t
dt, donc
dY
t
= K
t
(dW
t
H
t
dt) = K
t
d

W
t
.
2. Comme H satisfait le crit`ere de Novikov, le lemme de Girsanov assure que (

W
t
)
tT
est
un mouvement brownien sous Q. De plus Y
t
= Y
0
+
_
t
0
K
s
d

W
s
, avec
_
T
0
E(K
2
s
) ds < ,
on en deduit que (Y
t
)
tT
est une martingale sous Q.
Exercice 7.5.4
1. Exprimons E(g(

W
t
, t T))
E(g(

W
t
, t T)) = E
_
g(

W
t
, t T) exp
__
T
0
h(s) d

W
s
+
1
2
_
T
0
h(s)
2
ds
__
= E
_
g(

W
t
, t T) exp
__
T
0
h(s) dW
s

1
2
_
T
0
h(s)
2
ds
__
= E
Q
( g(

W
t
, t T)).
2. Dapr`es la partie 1. du lemme de Girsanov, (

W
t
)
tT
est un mouvement brownien sous
Q, donc vu legalite obtenue `a la question precedente
E(g(

W
t
, t T)) = E
Q
( g(

W
t
, t T))
= E( g(W
t
, t T))
= E
_
g(W
t
, t T) exp
_

_
T
0
h(s) dW
s

1
2
_
T
0
h(s)
2
ds
__
.
Exercice 7.5.5
1. Pour toute fonction s de classe (
2
, la formule dIto donne
s(X
t
) = s(X
0
) +
_
t
0
s

(X
s
) dX
s
+
1
2
_
t
0
s

(X
s
)(X
s
)
2
ds
= s(X
0
) +
_
t
0
s

(X
s
)(X
s
) dW
s
+
_
t
0
_
s

(X
s
)b(X
s
) +s

(X
s
)
(X
s
)
2
2
_
ds.
La fonction
s(x) =
_
x
0
exp
_
2
_
s
0
b(u)

2
(u)
du
_
ds
est de classe (
2
car b et sont continus. De plus
s

(x) = 2
b(x)

2
(x)
s

(x)
CHAPITRE 15. EXERCICES DU CHAPITRE 7 145
donc le dernier terme dans la formule dIto sannule et
s(X
t
) = s(X
0
) +
_
t
0
(X
s
) exp
_
2
_
Xs
0
b(u)

2
(u)
du
_
dW
s
.
Le processus (s(X
t
))
t0
secrit donc comme une integrale dIto avec
_
t
0
E
_
_
(X
s
) exp
_
2
_
Xs
0
b(u)

2
(u)
du
__
2
_
ds M
2
t < +
(car est borne par M et b positif), donc (s(X
t
))
t0
est une martingale.
2. Admettons legalite E(s(X
TaT
b
)) = s(X
0
) (elle est obtenue par le Theor`eme darret
pour le temps darret T
a
T
b
et la martingale (s(X
t
))
t0
). Comme X
Ta
= a et X
T
b
= b
on obtient
s(X
0
) = E(s(X
TaT
b
))
= E
_
s(X
Ta
)1
{Ta<T
b
}
_
+E
_
s(X
T
b
)1
{T
b
<Ta}
_
= s(a)P(T
a
< T
b
) +s(b)P(T
b
< T
a
)
= s(a)(1 P(T
b
< T
a
)) +s(b)P(T
b
< T
a
)
On en deduit que
P(T
b
< T
a
) =
s(X
0
) s(a)
s(b) s(a)
.
3. Si lim
x
s(x) < + alors
lim
b
P(T
b
< T
a
) = lim
b
s(X
0
) s(a)
s(b) s(a)
> 0 .
Comme de plus T
b
lorsque b , on en deduit que
P(T
a
= +) = lim
b
P(T
b
< T
a
) > 0.
Avec probabilite strictement positive, la diusion natteint jamais le niveau a.
Exercice 7.5.6
1. Appliquons la formule de Girsanov avec H
s
= . Lhypoth`ese de Novikov est satis-
faite car
E
_
exp
_
1
2
_
T
0

2
ds
__
= exp(
2
T/2) < .
Dapr`es le lemme de Girsanov, le processus X est donc un mouvement brownien sous
la probabilite
Q(A) = E
_
exp
__
T
0
dW
s

1
2
_
T
0

2
ds
_
1
A
_
= E
_
exp(W
T

2
T/2)1
A
_
.
CHAPITRE 15. EXERCICES DU CHAPITRE 7 146
2. Cest la formule de Girsanov !
3. Ici H
s
= m
s
et Q est donne par
Q(A) = E
_
exp
__
T
0
m
s
dW
s

1
2
_
T
0
m
2
s
ds
_
1
A
_
.
Chapitre 16
Exercices du Chapitre 8
Exercice 8.3.1
Le lecteur attentif remarquera que la fonction de paiement g(x) = (x K)
+
nest pas
de classe (
2
. Les hypoth`eses du Theor`eme 8.4 ne sont donc pas satisfaites. Cependant les
resultats du Theor`eme 8.4 restent valables pour g(x) = (x K)
+
, comme explique dans la
remarque qui se situe `a la n du corrige de lexercice.
1. Pour une option europeenne decheance T et de prix dexercice K la fonction de
paiement g est g(x) = (x K)
+
. Posons = T t. Avec le changement de variable
z = y/

, on obtient
G(t, x) = e
r
_
+

_
xe
(r
2
/2)+y
K
_
+
e
y
2
/2
dy

2
= e
r
_
+

_
xe
(r
2
/2)+

z
K
_
+
e
z
2
/2
dz

2
.
Par ailleurs, on a
xe
(r
2
/2)+

z
K (r
2
/2) +

z log(K/x)
z d
2
(x, ) =
log(x/K) + (r
2
/2)

.
La fonction G secrit donc
G(t, x) = x
_
+
d
2
(x,)
e

2
/2+

zz
2
/2
dz

2
Ke
r
_
+
d
2
(x,)
e
z
2
/2
dz

2
= x
_
+
d
1
(x,)
e
u
2
/2
du

2
Ke
r
_
+
d
2
(x,)
e
z
2
/2
dz

2
,
o` u la derni`ere egalite est obtenue `a laide du changement de variable u = z

.
Comme
_
+
d
e
z
2
/2
dz =
_
d

e
z
2
/2
dz

(faire le changement de variable z

= z), on
obtient nalement
G(t, x) = xN(d
1
(x, )) Ke
r
N(d
2
(x, )).
147
CHAPITRE 16. EXERCICES DU CHAPITRE 8 148
2. Le prix C est egal `a G(S
0
, 0) donc
C = S
0
N(d
1
(S
0
, T)) Ke
rT
N(d
2
(S
0
, T)).
3. Calculons la derivee partielle de G par rapport `a la variable x
G
x
(t, x) = N(d
1
(x, )) +x
d
1
x
(x, )N

(d
1
(x, )) Ke
r
d
2
x
(x, )N

(d
2
(x, )).
Comme N

(d) = e
d
2
/2
/

2 et
d
1
x
(x, ) =
d
2
x
(x, ) =
1
x

,
on obtient
G
x
(t, x) = N(d
1
(x, )) +
1
x

2
_
xe
d
1
(x,)
2
/2
Ke
r
e
d
2
(x,)
2
/2
_
.
Comme de plus
d
2
(x, )
2
=
_
d
1
(x, )

_
2
= d
1
(x, )
2
+
2
2

_
log(x/K) + (r +
2
/2)

_
= d
1
(x, )
2
2 log
x
Ke
r
,
la derivee partielle de G par rapport `a la variable x vaut
G
x
(t, x) = N(d
1
(x, )) +
1
x

2
_
xe
d
1
(x,)
2
/2
Ke
r
e
log(x/Ke
r
)
e
d
1
(x,)
2
/2
_
. .
=0
= N(d
1
(x, )).
La composition du portefeuille

est

t
=
G
x
(t, S
t
) = N(d
1
(S
t
, ))
et

t
=
X

t
S
t
B
t
=
G(t, S
t
) N(d
1
(S
t
, ))S
t
B
0
e
rt
=
S
t
N(d
1
(S
t
, )) Ke
r
N(d
2
(S
t
, )) S
t
N(d
1
(S
t
, ))
B
0
e
rt
=
Ke
rT
N(d
2
(S
t
, ))
B
0
.
CHAPITRE 16. EXERCICES DU CHAPITRE 8 149
Remarquez que la valeur de

t
est negative. Cela correspond `a un emprunt.
Pour couvrir loption, le vendeur ach`ete au temps 0 une quantite

0
de stock S `a laide
de la quantite C versee par lacheteur et en empruntant

0
B
0
unites monetaires. Il
g`ere ensuite son portefeuille suivant

t
et

t
.

Remarque : nous avons applique les resultats du Theor`eme 8.4 alors que g(x) = (xK)
+
nest pas de classe (
2
. Pourquoi les resultats sont-ils encore valables dans ce cas ?
Il est facile de construire deux fonctions de classe (
2
notees g

et g
+

ayant des derivees


bornees sur R, telles que g

g g
+

et
lim
0
_
+

(g
+

(x) g

(x)) dx = 0.
Comme loption de fonction de paiement g
+

donne droit `a un paiement superieur `a loption


de fonction de paiement g, son prix C
+

est superieur `a C. De meme, le prix C

de loption
de fonction de paiement g

est inferieur `a C. De plus, on peut calculer les prix C


+

et
C

`a laide du Theor`eme 8.4. On trouve G


+

(0, S
0
) et G

(0, S
0
), o` u G
+

(respectivement
G

) correspond `a la Formule (8.4) avec g remplace par g


+

(respectivement g

). En faisant
tendre vers 0, on trouve
lim
0
C
+

= lim
0
C

= G(0, S
0
).
Comme C

C C
+

, on en deduit que C = G(0, S


0
).
Exercice 8.3.2
1. Calculons

G ainsi que ses derivees partielles. Remarquez que

G est derivable deux
fois en x et une fois en t, car on a suppose que g est de classe (
2
avec des derivees
bornees. Apr`es un changement de variables z = y/

T t on obtient

G(t, x) = e
rT
_
+

g
_
xe
rT
2
(Tt)/2+z

Tt
_
e
z
2
/2
dz

2
.
Derivons par rapport `a t. Pour garder des formules de taille raisonnable, on pose
(t, x) = xe
rT
2
(Tt)/2+z

Tt
.
Comme

t
(t, x) = (t, x)
_

2
2

z
2

T t
_
,
on obtient


G
t
(t, x) = e
rT
_
+

((t, x)) (t, x)


_

2
2

z
2

T t
_
e
z
2
/2
dz

2
.
CHAPITRE 16. EXERCICES DU CHAPITRE 8 150
De meme,
x

x
(t, x) = (t, x),
donc
x
2

2

G
x
2
(t, x) = e
rT
_
+

((t, x)) (t, x)


2
e
z
2
/2
dz

2
.
Nous allons integrer par parties cette derni`ere expression. On a

z
g

((t, x)) =

T t (t, x)g

((t, x))
donc en integrant par parties
x
2

2

G
x
2
(t, x) = e
rT
_
+

z
(g

((t, x))) (t, x)e


z
2
/2
dz

_
2(T t)
= e
rT
_
+

((t, x))(t, x)e


z
2
/2
_

T t z
_
dz

_
2(T t)
=
2e
rT

2
_
+

((t, x)) (t, x)


_

2
2

z
2

T t
_
e
z
2
/2
dz

2
=
2


G
t
(t, x).
On trouve donc lequation (8.6).
2. Pour eviter toute confusion, on note
1
G et
2
G les derivees de G par rapport ` a la
premi`ere et `a la seconde variable. Exprimons les derivees de

G


G
t
(t, x) = e
rt
_
rG(t, xe
rt
) +
1
G(t, xe
rt
) +r(xe
rt
)
2
G(t, xe
rt
)
_
et

2

G
x
2
= e
rt
_
e
2rt

2
2
G(t, xe
rt
)
_
.
Lequation (8.6) secrit donc
e
rt
_
rG(t, xe
rt
) +
1
G(t, xe
rt
) +r(xe
rt
)
2
G(t, xe
rt
) +
(xe
rt
)
2
2

2
2
G(t, xe
rt
)
_
= 0.
Avec le changement de variable y = xe
rt
, cela donne
rG(t, y) +
G
t
(t, y) +ry
G
y
(t, y) +
(y)
2
2

2
G
y
2
(t, y) = 0.
La condition G(T, x) = g(x) vient de lim
tT
G(t, x) = g(x).
CHAPITRE 16. EXERCICES DU CHAPITRE 8 151
Exercice 8.3.3
1. Lequation (8.1) donne S
t
= S
0
exp(W

t
+ (r
2
/2)t) pour tout t T. On en
deduit que
S
T
= S
t
e
(W

T
W

t
)+(r
2
/2)(Tt)
.
2. Remarquons que e
r(Tt)
g(S
T
) = H(U, S
t
) avec
H(u, x) = e
r(Tt)
g
_
x e
u+(r
2
/2)(Tt)
_
et U = W

T
W

t
. Comme S
t
est T
t
-mesurable et U est independant de T
t
(propriete 3
du mouvement brownien) on peut utiliser la formule de lExercice 1.5.7 :
E

_
e
r(Tt)
g(S
T
) [ T
t
_
= E

(H(U, S
t
) [ T
t
) = h(S
t
) ,
avec h(x) = E

(H(U, x)). Calculons la fonction h. La variable aleatoire U suit une


loi ^(0, T t), donc
h(x) =
_
R
H(y, x) exp
_
y
2
2(T t)
_
dy
_
2(T t)
= e
r(Tt)
_
+

g
_
x e
(r
2
/2)(Tt)+y
_
exp
_
y
2
2(T t)
_
dy
_
2(T t)
= G(t, x).
En conclusion X

t
= G(t, S
t
) = E

_
e
r(Tt)
g(S
T
) [ T
t
_
.
Bibliographie
[1] Baxter M., Rennie A. Financial calculus : an introduction to derivative pricing. Cam-
bridge University Press, Cambridge, 1999.
[2] Chabardes P., Delcaux F. Produits derives. Gualino Editeur, Paris, 1998.
[3] Demange G., Rochet J-C. Methodes mathematiques de la nance. 3e edition Econo-
mica, Paris, 2005.
[4] Hull J. Options, futures and other derivatives. 6e edition, Prentice Hall, 2005.
[5] Karatzas I., Shreve S.E. Brownian Motion and Stochastic Calculus. Springer-Verlag,
New-York, 1988.
[6] Lamberton D., Lapeyre B. Introduction au calcul stochastique applique `a la nance.
Seconde edition. Ellipses, Edition Marketing, Paris, 1997.
[7] Melnikov A.V. Financial Markets : stochastic analysis and the pricing of derivative
securities. Translations of Mathematical Monographs, AMS edition, Providence, 1999.
[8] ksendal, B. Stochastic dierential equations. An introduction with applications. 6e
edition. Universitext. Springer-Verlag, Berlin, 2003.
[9] Pliska S. Introduction to mathematical nance. Blackwell Publishers, Oxford UK.
[10] Revuz D., Yor, M. Continuous martingales and Brownian motion. 3e edition. Grund-
lehren der Mathematischen Wissenschaften 293 Springer-Verlag, Berlin, 1999.
[11] Shiryaev A.N. Essentials of stochastic nance : facts, models, theory. Advanced Series
on Statistical Science & Applied Probability, World Scientic, Singapore, 1999.
[12] Williams D. Probability with martingales. Cambridge Mathematical Textbooks. Cam-
bridge University Press, Cambridge, 1991.
152
Index
X
n
, 50

n
(X), 51
actif sous-jacent, 9
action, 8
arbitrage, 56
ask, 64
bid, 64
crit`ere de Novikov, 88
decomposition de Doob, 46, 74
esperance conditionnelle
cadre discret, 20
caracterisation, 24
cas `a densite, 23
proprietes, 25
exponentielle stochastique
denition, 51, 88
proprietes, 51
ltration, 37
fonction de paiement, 10
fonctions dechelle, 90
formule dIto, 85
formule de Black et Scholes, 98
Galton-Watson, 46
identite de Wald, 49
inegalite
de Jensen, 28
maximale, 48
indiscernable, 102
integrale dIto, 84
joueur au casino, 34
lemme de Girsanov, 58, 60, 89
loi gaussienne (ou normale), 79
marche
Bond-Stock, 50
complet, 57
incomplet, 64
martingale, 39, 81
mesurable, 23
mod`ele
de Black-Scholes, 67, 92
de Cox-Ross-Rubinstein, 66
de Merton, 67
mouvement brownien
denition, 79
proprietes, 80
obligation, 8
option
asiatique, 62
Collar, 62
dachat americaine, 11, 76
dachat europeenne, 9, 66, 98
de vente americaine, 11
de vente europeenne, 10, 66
look-back, 62
Margrabe, 68
russe, 70, 76
portefeuille
autonance, 55, 93
de couverture, 62, 95
principe de Donsker, 80
principe de programmation dynamique, 73,
77
prix dexercice, 9
153
INDEX 154
prix dune option
americaine
calcul, 72
denition, 70
europeenne
calcul, 63, 96
denition, 63, 95
probabilite risque-neutre, 53, 94
probl`eme de la ruine, 44
processus
elementaires, 104
adapte, 78
continu, 78
`a gauche, 78
croissant-previsible, 73
dIto, 85
de Wiener, 79
relation call-put, 66
sous-martingale, 39
spread, 65
sur-martingale, 39
temps
darret, 38
dexercice, 71
theor`eme darret, 42
titre, 8
valeur reactualisee, 53, 55, 59, 93
variation quadratique, 82

You might also like