1

Modélisation GARCH multivariée,
analyse Moyenne-CVaR et risque d’estimation :
une approche pour une allocation d’actifs optimale.


L’industrie de la gestion d’actifs
1
connaît depuis ces dernières années une croissance
sans précédent. En effet, les encours gérés ont été multipliés par deux entre 1998 et 2005. Les
actifs gérés sous mandat, y compris les OPCVM investis dans les mandats, connaissent le
même rythme de progression avec un taux de croissance à deux chiffres.

Néanmoins, un problème majeur se pose. Le problème réside dans la difficulté pour
les investisseurs, qui délèguent leur gestion, à connaître et comprendre les décisions
d’investissements opérées par les gestionnaires d’actifs. En effet, les investisseurs ne
connaissent qu’approximativement les mécanismes par lesquels un portefeuille parvient aux
résultats escomptés. Une formalisation
2
du processus de gestion s’avère donc pertinente. En
rendant le processus de gestion plus transparent, la formalisation permettrait aux investisseurs
de contrôler plus facilement la gestion de leurs actifs et favoriserait la communication entre
les investisseurs et les gestionnaires d’actifs. D’autre part, elle faciliterait, au sein même des
sociétés de gestion, la communication entre les différents services et permettrait une
automatisation d’un processus de gestion fiabilisé.
En outre, il est important de souligner la prépondérance du rôle de l’allocation
d’actifs
3
dans la construction d’un portefeuille. En effet, les études empiriques (Brinson,
Singer et Beebower, 1991) montrent que l’allocation d’actifs stratégique expliquerait près de
90 %, dans la durée, la dispersion observée des performances. Ibbotson et Kaplan (2002)

1
Les investisseurs (particuliers ou investisseurs institutionnels) délèguent la gestion de leurs actifs à des sociétés
de gestion spécialisées, qui emploient et rémunèrent des gérants qui vont choisir la composition du portefeuille.
On distingue la gestion collective (SICAV et FCP) et la gestion sous mandat, utilisé, pour l’essentiel, par les
investisseurs institutionnels.
2
Par un raisonnement littéraire seul, l’esprit humain n’est pas en mesure de tenir compte des interactions
multiples qui secouent les variables économiques et financières. De plus, la formalisation mathématique introduit
la rigueur nécessaire dans l’étude des questions économiques.
3
L’allocation d’actif peut se définir comme la répartition optimale des investissements entre les différentes
classes d’actifs de façon à maximiser le rendement attendu à un horizon donné et dans une « enveloppe de
risque » donnée. Dans la pratique de l’allocation d’actifs, on distingue la phase « d’allocation stratégique » où
est déterminée le portefeuille de référence (la répartition moyenne entre grande classe d’actif à long terme) étant
donné les caractéristiques propres de l’investisseur (horizon d’investissement, aversion au risque, contrainte de
2
tentent de déterminer l’explication de la différence entre les fonds, il apparaît que la
déterminante principale est l’allocation d’actifs tactique (45%) suivi par l’allocation
stratégique(40%).

Le point de départ de notre analyse est le célèbre modèle fondateur de Markowitz
(1952) qui a posé les jalons des méthodes quantitatives d’allocation d’actifs, son nom est
d’ailleurs associé à la notion de « portefeuille efficient ». Selon ce modèle, tout investisseur
poursuit deux objectifs conflictuels : la maximisation du rendement espéré et la minimisation
du risque, mesuré par la variance des rendements. Les principaux apports de ce modèle sont
sans doute son aspect relativement général, permettant son utilisation dans un grand nombre
de situations pratiques, et sa simplicité en terme d’analyse.

Cependant l’application de l’optimisation moyenne-variance est sujette à caution. En
effet une optimisation moyenne variance ne sera valable que si les taux de rentabilités suivent
une loi normale ou si l’investisseur possède une fonction d’utilité quadratique. De plus la
variance ne parait pas être une mesure du risque adéquate. Dans son calcul, l’écart entre les
taux de rentabilité au dessus de la moyenne et la moyenne est considéré comme une source
potentielle de risque. Enfin, la critique la plus sévère à l’égard de ce modèle est le fait qu’il
maximise l’erreur d’estimation (Michaud, 1989), en pratique le portefeuille efficient s’est
trouvé être instable ; de petits changements dans les paramètres qui servent d’inputs (matrice
de covariance, vecteurs de rendement) conduisent à un portefeuille radicalement différent.

Notre intérêt se porte plus particulièrement sur les différents modèles théoriques qui
ont cherché à dépasser ses limites. Cette démarche vise à faire profiter le monde
professionnel des dernières avancées issues de la recherche académique, tant en terme
d’allocation d’actifs que de mesures du risque. Le rejet de la part de la communauté
professionnelle du modèle mythique de Markowitz (1952), en raison de ses nombreuses
insuffisances, semble expliquer pour partie l’absence de formalisation dans la gestion
déléguée et, par conséquent, le fait que les approches quantitatives soient très peu répandues
dans les sociétés de gestion malgré les résultats des recherches académiques, les sociétés lui
préférant une approche qualitative.


passif…). Et la phase « d’allocation tactique » où sont prises en compte les configurations de marché
particulières, qui justifie un écart par rapport à l’allocation stratégique sur le court terme.
3
Dans ces conditions, il s’agit ici de se demander :
Quels modèles utiliser pour formaliser le processus de gestion, afin d’optimiser l’allocation
d’actifs, dans un contexte de gestion déléguée ?


Nous introduisons dans ce contexte une nouvelle méthodologie permettant de résoudre
les problèmes fondamentaux inhérent à l’utilisation de l’optimisation moyenne-variance.
Cette méthodologie apporte une double contribution à la littérature. A notre connaissance
aucun auteur ne s’est attardé sur l’analyse du risque d’estimation dans le cadre théorique
Moyenne-CVaR. Le choix de ce cadre théorique se justifie par le fait que la CVaR est une
mesure du risque cohérente au sens d’Artzner et al et est capable, en autre, de capturer les
downsides risks et la non-normalité observée sur les séries financières. Le risque d’estimation
étant, en premier lieu, analyser dans la modélisation GARCH-DCC (Dynamic Conditional
Correlation) d’Engle (2002). Ce modèle étant capable de capter la plupart des caractéristiques
observées sur les séries financières (corrélations dynamiques, clusters de volatilité, non-
normalité, effet de levier…) et contribue, donc, à augmenter la qualité des inputs nécessaires à
l’optimisation moyenne-CVaR. La deuxième contribution est relative à la généralisation du
modèle de Ruiz, permettant la prise en compte du risque d’estimation dans les paramètres du
GARCH univarié, au cas multivarié, dans notre cas aux paramètres du modèle GARCH-DCC.

La suite de cette présentation s’organise ainsi de la façon suivante. Dans un premier
temps, nous revenons brièvement sur la première limite du modèle de Markowitz, la variance
comme mesure du risque. Dans une deuxième partie, nous nous intéresserons à une mesure du
risque pouvant remplacer la variance comme mesure du risque, la CVaR. La section suivante
s’intéressera à la modélisation GARCH-DCC d’Engle (2002). Enfin, notre attention se portera
sur un modèle d’allocation reprenant le principe du portfolio resampling basé sur la
méthodologie de Michaud(1998) adaptée à la modélisation GARCH multivarié dans un cadre
Moyenne-CVaR.





4
I) Le cadre Moyenne-Variance

I-1) La variance, une mauvaise mesure du risque

La première limite du modèle de Markowitz (1952) porte sur les deux hypothèses
suivantes : les rendements sont supposés être normalement distribués et/ou les investisseurs
sont supposés avoir une fonction d’utilité quadratique.

Ces deux hypothèses permettent de justifier le recours à la variance comme mesure du
risque. La variance est la plus ancienne et la plus connue des mesures du risque. C’est une
mesure simple et efficiente du risque de marché sous certaines hypothèses contraignantes. La
variance ne considère que les deux premiers moments d’une distribution. On peut, donc, se
limiter à l’analyse des deux premiers moments d’une distribution que si l’une ou l’autre des
hypothèses est valable. Si la distribution des rendements est normale, alors cette distribution
est complètement caractérisée par ses deux premiers moments. Ensuite, si la fonction d’utilité
des investisseurs est quadratique (peu réaliste), alors l’investisseur ne considère comme
mesure du risque que le deuxième moment et non les moments d’ordre supérieurs. Mais dans
les faits aucune de ces conditions n’est valide.
D’une part, une simple fonction quadratique ne respecte pas la propriété fondamentale
d’une fonction d’utilité, à partir du moment où, à un certain niveau de richesse, la fonction a
une utilité marginale négative (les investisseurs préfèrent moins de richesse que plus de
richesse, propriété de satiété).
D’autre part, de nombreuses études ont conclu au rejet de la loi normale comme loi de
distribution des taux de rentabilité (Kon (1984), Mills (1995), Peiro (1999) et, Premaratne et
Bera (2002))… Les études empiriques suggèrent que les rendements présentent des queues
plus épaisses que celles qui ressortent de la loi normale, et peuvent également être
asymétriques (moments supérieurs d’ordre 3 et 4 qui présentent donc d’autres dimensions du
risque). Les théories de gestion du risque ont donc évolué vers des mesures qui intègrent les
moments d’ordre supérieur à 2.

De plus, même en supposant une rentabilité normalement distribuée, la variance ne
parait pas être une mesure du risque adéquate. Dans son calcul, l’écart entre les taux de
rentabilité au dessus de la moyenne et la moyenne est considéré comme une source potentielle
5
de risque, ce qui est contraire à la vision communément admise du risque. Or, la théorie du
« safety first » (Roy, 1952) affirme que les investisseurs accordent plus d’importance aux
risques baissiers « downside risk » plutôt qu’aux risques haussiers « upside gains ». Un
portefeuille optimale selon Roy (1952) est celui qui assure la probabilité de désastre
minimum. Dans son modèle, le risque est mesuré en terme d’écarts en dessous d’un objectif
prédéfini. Cette approche permet au gestionnaire de portefeuille de définir le risque d’une
manière adéquate en fonction de ses objectifs et des contraintes qui lui sont imposés
concernant le rendement de son portefeuille.

Ainsi, plusieurs méthodologies ont été proposé pour remplacer la variance comme
mesure du risque afin d’évaluer et d’optimiser l’exposition au risque d’un investisseur. On
peut, notamment, citer l’approche mean-semivariance de Markowitz(1959), l’analyse mean-
Gini de Shalit et Yitzhaki (1984), l’approche mean absolute deviation (MAD) de Konno et
Yamasaki (1991), le modèle mean semi-deviation de Ogryczak et Ruszcznski (1991)…

La plus connue de ces mesures de risque est, sans nul doute, la VaR (value at risk),
apparue au début des années 90. Face aux limites des mesures traditionnelles du risque, il a
fallu se doter d’une mesure du risque de baisse de la valeur des actifs en ayant recours à des
mesures qui sont davantage reliées à l’ensemble de la distribution des flux monétaires d’un
portefeuille. C’est dans ce contexte qu’une mesure nominale du risque a été proposée : la
VaR. Cette mesure a d’abord servi à quantifier les risques de marché auxquels sont soumis
les portefeuilles bancaires. En effet, l’Accord de Bâle a imposé aux banques, en 1997, de
détenir un montant de capital réglementaire pour pallier les risques de marché. Or ce capital
est calculé à partir de la VaR. Cette mesure est ensuite devenue populaire pour évaluer le
risque de portefeuille institutionnel.

La VaR d’un portefeuille d’actifs correspond à la perte (en valeur absolu) maximale
potentielle, liée à la détention de ce dernier pour une période donnée, avec une probabilité
d’occurrence égale à α − 1 (α généralement fixé à 1% ou 5%). Pour la période de détention
il y a donc α % de chance d’obtenir des pertes, en valeur absolue, pus grande que la VaR
(Raison pour laquelle α est maintenue à un niveau faible).
Plusieurs auteurs utilisent l’approche mean-VaR dans le cadre de la sélection de portefeuille.
On peut citer les travaux de Campbell, Huisman et Koedijk(2001), ou encore Tokpavi (2005).

6
Le risque n’est plus un concept symétrique comme c’était le cas pour l’écart-type. Les
théories du « downside risk » sont très préoccupées par les moments d’ordre supérieur à 2. La
VaR relève de la première génération de ces théories. La Var est une mesure du risque
attractive de part sa simplicité dans sa compréhension, elle est rapidement devenue un
standard dans la mesure du risque .Malgré sa popularité, la VaR possède quelques limites.

1. La VaR d’un portefeuille de titre n’est pas, dans certains cas, plus faible que la
somme des VaR de ses composants. Elle escamote donc le principe de
diversification, un principe de base en finance. Elle ne satisfait pas la propriété
de sous-addivité. Il est donc probable que la VaR ne soit pas la meilleure
mesure du risque.
2. La VaR comme fonction des poids de portefeuille n’est pas convexe. Son
manque de convexité peut conduire à avoir plusieurs extrema locaux. C’est
donc un problème lorsque l’on cherche à déterminer les poids qui minimisent
la VaR.
3. La VaR nous donne seulement une perte maximale probable pour un niveau de
confiance donné, ne donnant aucune indication sur l’amplitude des pertes au
delà de la VaR si elles surviennent effectivement. Il est sûrement plus
intéressant, dans certains cas, de savoir, qu’elle est le montant moyen des
pertes en cas de dépassement de la VaR. La CVaR répond à ce problème, elle
possède donc l’avantage de balayer, toute la zone de désastre.


La CVaR est relativement proche de la VaR, cependant elle possède les propriétés
mathématiques qui lui permette d’être une meilleure mesure du risque que la VaR dans ce
contexte précis d’allocation d’actifs. De plus, Alors que la VaR mesure la probabilité qui est
couverte par la partie extrême de la distribution des rendements, elle est cependant insensible
aux modifications de la queue de distribution à gauche du alpha quantile.





7
II) L’optimisation Moyenne-CVaR

L’optimisation Moyenne-CVaR nous permet de définir le portefeuille qui pour un
niveau de rendement espéré fixé aura la CVaR minimum.

La CVaR est une mesure du risque appropriée dans le cadre de l’optimisation de
portefeuille. D’une part, cette mesure alternative du risque prend en compte la non-normalité
des rendements des actifs, ce qui lui procure un avantage par rapport à l’optimisation
Moyenne-Variance. D’autre part la CVaR possède les propriété mathématique qui font d’elle
une mesure du risque cohérente au sens d’Artzner et al (1997), propriété que la var ne possède
pas. Une propriété importante dans l’optimisation de portefeuille est la convexité. En effet, La
convexité de la CVaR garantit qu’il n’y pas de minima locaux. En d’autres termes, s’il existe
un portefeuille qui minimise la CVaR, alors ce portefeuille est optimal.
Ces avantages lui permettent d’avoir été choisi par plusieurs auteurs, dont Rockafellar
et Uryasev (1999, 2001), comme la mesure du risque dans un contexte d’optimisation de
portefeuille, on peut également citer Di Clemente et Romano (2003).


II-1) Le modèle général de la CVaR

Soit
n
X ℜ ⊂ un jeu de portefeuilles possibles et X x ∈ un portefeuille donné. Soit
n
y ℜ ∈ une variable aléatoire représentant les rendements du portefeuilles et ses variations.
On définie ) , ( y x f comme la fonction des pertes, on suppose que f à une fonction de
probabilité de densité p.

Afin de définir la CVaR de façon mathématique, nous avons besoin de quelques définitions.
Pour un portefeuille x donné, la probabilité que les pertes n’excèdent pas un seuil α est
donnée par :



= Ψ dy y p x
y x f
) ( ) , (
) , ( α
α (1)

8
En définissant un niveau de probabilité β et un portefeuille x, alors la Value-at-Risk ( β -
VaR) est définie comme la perte minimale de telle sorte que la probabilité de dépasser les
pertes est supérieure ou égale à β :

{ } β α ψ α α
β
≥ ℜ ∈ = ) , ( : min ) ( x x (2)

De façon analogue, avec une probabilité β et un portefeuille x, la Conditional-Value-at-Risk
( β -CVaR) est définie comme l’espérance des pertes supérieur a la β -VaR.

La CVaR est calculée à partir de la distribution des réalisations comprises dans la
queue. Elle tient compte de l’asymétrie de cette région. Cette distribution est également
influencée par l’épaisseur de la queue, qui est reliée à l’intensité des événements extrêmes.
De façon mathématique on a :




= dy y p y x f x
x y x f
) ( ) , (
) 1 (
1
) (
) ( ) , (
β
α β
β
φ (3)

La probabilité que ) ( ) , ( x y x f
β
α ≥ est précisément égale à 1- β . On peut donc réécrire
l’équation précédente de la façon suivante :

| |

+
ℜ ∈


= dy y p x y x f x x
n
y
) ( ) ( ) , (
) 1 (
1
) ( ) (
β β β
α
β
α φ (4)

Avec | | a a =
+
si a>0 mais | | 0 =
+
a si a<0

Avec une probabilité β donnée, le problème de minimisation de la β -CVaR consiste à
trouver le portefeuille
n
x ℜ ∈ de telle façon que ) (x
β
φ est à son minimum.




9
Il est néanmoins difficile d’utiliser cette fonction à cause de la fonction ) (x
β
α de la
VaR présente dans cette définition, à moins d’avoir une représentation analytique de la VaR.
L’idée principale est de définir une fonction plus simple qui peut être utilisée à la place de la
CVaR :

| |

+
ℜ ∈


+ = dy y p y x f x F
n
y
) ( ) , (
) 1 (
1
) , ( α
β
α α
β
(5)

On peut prouver (voir Rockafellar et Uryasev (1999)) que :
1. la fonction ) , ( α
β
x F est convexe par rapport àα .
2. la VaR est minimisée par cette fonction.
3. Minimiser ) , ( α
β
x F par rapport àα donne la CVaR.

) , ( min )) ( , ( ) ( α α φ
β
α
β β β
x F x x F x = =

Plus encore, on peut utiliser la fonction ) , ( α
β
x F pour le calcul simultané de la VaR et
l’optimisation de la CVaR :

) , ( min ) ( min
,
α φ
β
α
β
x F x
X x X x ∈ ∈
=

Minimiser la fonction ) , ( α
β
x F par rapport aux variables (x,α ) optimise la CVaR et
détermine la VaR simultanément. Soit ) , (
* *
α x la solution du problème de minimisation alors
) , (
* *
α
β
x F donne, dans le même temps, le portefeuille CVaR optimal ) (
*
x , aussi bien que la
CVaR et la VaR ) (
*
α du portefeuille optimal.

La puissance de cette approche provient du fait que la fonction ) , ( α
β
x F est convexe
et également linéaire en fonction de α , et si f(x,y) est convexe par rapport à x, alors ) , ( α
β
x F
est convexe par rapport à (x, α ) et ) (x
β
φ est convexe par rapport à x. Les propriétés de
convexité assurent de pouvoir trouver un minimum global.
10
Une fois que les propriétés qui permettent de trouver le minimum de la fonction
β
F
ont été défini. Nous pouvons introduire l’algorithme de minimisation. Pour ce faire nous
montrerons dans la prochaine section qu’un algorithme de programmation linéaire peut être
utilisé.

II-2) L’optimisation de portefeuille

Soit W la richesse investie dans un portefeuille composé de d actifs financiers, De
façon analytique on a :


=
d
i
i
w W (6)

Avec
i
w (i=1,…,d) le montant de capital investi dans l’actif i. L’équation (6) représente la
contrainte d’équilibre en terme monétaire. Il serait mieux d’exprimer cette contrainte en
pourcentage :


=
d
i
i
x 1 (7)
Avec W w x
i i
/ =

Soit x= ) ,..., (
1 d
x x le vecteur de décision dont les éléments,
i
x (i=1,…,d), représentent
le pourcentage de capital détenu dans chaque actif. En général, d’autres contraintes peuvent
être également utilisés, tel que l’interdiction des ventes à découvert :

0 ≥
i
x (8)
pour chaque i=1,…,d

Le vecteur aléatoire ) ,..., (
1 d
y y y = représente les rendements futures pour chaque
actif i à la fin de la période de détention considérée. La distribution de y est une distribution
multivariée de la rentabilité des d actifs du portefeuille et dépend de x. On assume qu’une
telle distribution à une fonction de densité p(y). Les rendements aléatoires du portefeuille à la
11
fin de la période de détention est la somme des rendements aléatoire de chaque actif,
i
y ,
pondérés par leur poids respectif,
i
x . La perte du portefeuille est définie comme les
rendements négatifs du portefeuille associés à l’état y:

] ... [ ) , (
1 1 d d
y x y x y x f + + − = (9)

La fonction objective à minimiser est la suivante :

) ( ) ( ] ) , ( [
1
1
) , ( y d y p y x f x F
d
R
+



+ = α
β
α α
α
(10)

L’équation (10) est convexe par rapport aux variables ) , ( a x

Cette eqaution peut , cependant, être simplifiée en générant K scénarios à partir de
l’historique ou de simulations de monte-carlo. Les scénarios générés sont représentés par K
vecteurs
K
y y
~
,...,
~
1
. De cette façon , il est possible d’approximer la fonction F par la fonction
F
~
qui est donné par :


=
+


+ =
K
k
k
y x f
K
x F
1
] )
~
, ( [
) 1 (
1
) , (
~
α
β
α α
α
(11)

Afin de résoudre ce problème d’optimisation, il suffit de remplacer
+
− − ]
~
[ α
k
T
y x par
une variable artificielle
k
υ , tout en imposant les contraintes linéaires suivantes :

α υ − ≥ )
~
, (
k k
y x f (12)
0 ≥
k
υ (13)

Nous introduisons une dernière contrainte ; le rendement espéré du portefeuille doit
être égal à un objectif donné
0
R .

] [
0 i
d
i
i
R E x R

≤ (14)
12
Soit
k
i
R le rendement de l’actifs i dans le scénario
k
y
~
. Nous pouvons exprimer les
pertes du portefeuille de la façon suivante :

k
i i k
R x y x f − = )
~
, ( (15)

Nous obtenons donc le problème de programmation linéaire, suivant,

)
`
¹
¹
´
¦

+

=
K
k
k x
K
Min
1
,
) 1 (
1
υ
β
α
α
(16)

Sous contrainte :

0 ≥
k
υ , α υ − − ≥
k
i i k
R x ,
0 ≥
i
x , ] [
0 i
d
i
i
R E x R

≤ ,
1 =

d
i
i
x .

La taille de ce problème de programmation linéaire, qui peut être déterminé
numériquement, est K+d+1.

La principale limite de cette méthode optimisation CVaR est qu’un échantillon fini ne
peut seulement donner qu’une description approximative de la distribution des rendements
futures. La précision de l’optimisation CVaR est essentiellement limitée par la taille de
l’échantillon, nous avons besoin d’un échantillon plus grand par rapport à la var pour le même
degré de précision.






13
III) La génération de scénarios nécessaires à
l’optimisation, une approche économétrique.

III-1)Les caractéristiques des séries financières

La correcte spécification des rendements espérés et de la matrice de variance
covariance est une étape cruciale dans le monde de la gestion d’actifs. En général, dans la
gestion du risque, les simulations de monte carlo pour les scénarios des rendements des actifs
sont générés à partir d’une loi multi-normale. Le vecteur des rendements espérés et la matrice
de variance covariance espéré sont calculé à partir de l’historique. Malgré la simplicité de
cette méthodologie, nous passons à travers les caractéristiques des séries financières ce qui
motivait l’utilisation de la CVaR comme mesure du risque.

Passons en revue ces caractéristiques :

• Queue de distribution épaisse et asymétrie

On assume, généralement, que les rendements des actifs financiers suivent une loi
normale. L’avantage de cette hypothèse est qu’il est relativement facile de travailler avec ce
type de distribution. Or, les observations empiriques des rendements montrent plus de valeurs
extrêmes que ceux qui sont générées par une loi normale, c’est-à-dire que les distributions des
rendements des actifs ont des queues plus épaisses que la distribution normale. On dit qu’elles
ont une distribution leptokurtique. De plus, il apparaît que la distribution des actifs est
généralement asymétrique : il y a plus de mouvement fort à la baisse qu’à la hausse, les
distribution présentent donc un coefficient de skewness (moment d’ordre 3) négatif.

• Clusters de volatilité
On observe souvent une corrélation temporelle dans le rendements des séries financières.
Ce qui signifie que si une valeur absolue élevée est observée alors la prochaine observation
sera probablement aussi élevée. Ce phénomène est appelé cluster de volatilité. L’effet de ce
phénomène devient plus apparent lorsque la taille de l’échantillon augmente. Une possible
explication de ce phénomène est que l’arrivé de nouvelle information est corrélée
temporellement.
14
• l’effet de levier
Les données empiriques indiquent que la volatilité des rendements des actifs réagissent
souvent différemment à un choc négatif par rapport à un choc positif sur les prix. Un choc
négatif à un impact beaucoup plus marqué qu’un choc positif sur la volatilité.

• Corrélation dynamique.
Lorsque l’on cherche à construire un portefeuille de plusieurs actifs. Regarder seulement
les rendements espérés et le risque des ces différents actifs n’est pas suffisant. Nous devons
également prendre en compte les corrélations entre ces classes d’actifs. Il existe en effet des
corrélations négative ou positive plus ou moins forte entre les classes d’actifs. De plus il
apparaît que ces corrélations évoluent dans le temps ; ils augmentent, par exemple, en période
de bear market et diminue en période de bull market Longin et Solnik (1995), Ang et Bakaet
(1999).

La réalité empirique montre donc quelques aspects des séries financière que n’incorporent
pas une matrice de variance covariance historique et une distribution normale. Dans la
procédure d’optimisation, ignorer de telles caractéristiques de la matrice de variance
covariance et des distributions suivies par les actifs tend à conduire à une mauvaise estimation
des poids optimaux des actifs, et in fine, tend à sous estimer le risque associé au portefeuille.
Par conséquent l’investisseur à une solution sous optimale pour construire son portefeuille.
Dans ce contexte comment capter de façon optimale toutes ces caractéristiques afin d’obtenir
un mélange optimal d’actif ?

.









15
III-2) Le modèle GARCH DCC

III-1-1) GARCH univarié

La spécification hétéroscédastique conditionnelle autorégressive ou ARCH, a été
initiée par Engel (1982) pour caractériser la dynamique des seconds moments conditionnels
que l’on retrouve dans la plupart des séries financières. Elle a été par la suite généralisée par
Bollerslev (1986) avec ce qu’on a appelé l’hétéroscédastique conditionnelle autorégressive
généralisée ou GARCH. C’est le modèle le plus populaire lorsqu’il s’agit d’estimer les
variances conditionnelles. Les modèles GARCH ne se contentent pas seulement d’estimer des
variances qui évoluent dans le temps, mais incorpore également les caractéristiques observées
sur les séries financières (leptokurtisme, effet de levier, cluster de volatilité…).
D’autre généralisations ont été proposé par plusieurs chercheurs, on peut citer les modèles
AGARCH, EGARCH, FIGARCH,GJR-GARCH, TARCH...

Nous débutons avec un modèle GARCH univarié pour l’estimation de la variance
conditionnelle. La variance conditionnelle d’un actif x qui suit un modèle GARCH(1,1)
univarié est donnée comme la fonction de la variance inconditionnelle, du carré de la
rentabilité centrée en t-1 et de la variance conditionnelle en t-1.

On assume que les dynamiques d’une série temporelle x est donné par un modèle
dynamique du type GARCH(1,1) :

t t t t
z x σ µ + = (17)
2
1
2
1
2
− −
+ + =
t t t
βσ αε ω σ (18)
Avec
t t t
x µ ε − = (19)
t t t
z σ ε = (20)

t
z i.i.d. E(
t
z )=0 et Var(
t
z )=1 de fonction de distribution G.

1 < + β α (21)
β α
ω
σ
− −
=
1
2
1
(22)
16
t
µ et
t
σ sont respectivement la moyenne et la variance conditionnelle à un ensemble
d’information
1 − t
I .
Avec la condition 1 < + β α qui garantie que la variance inconditionnelle
2
1
σ est stationnaire.

On estime les paramètres ( β α ω , , ) grâce au quasi maximum de vraisemblance en
assumant une distribution conditionnelle normale.

Ln X ∝
|
|
.
|

\
|
+ −

=
T
t t
t
t
1
2 2
) ( ) ln(
2
1
σ
ε
σ (23)

A partir des estimations du quasi maximum de vraisemblance ( β α ω
)
) )
, , ), nous pouvons
calculer la série de variances
2
t
σ
)
et les résidus induits, à partir des rendements centrés au carré
t
ε observés, les variances estimées passées en utilisant l’équation récursive suivante.

2 2 2
1 t t t
σ β ε α ω σ
)
)
) ) )
+ + =
+
(24)

Avec
β α
ω
σ )
)
)
)
− −
=
1
2
1
.
Une prévision de
2
1 + T
σ est donné par :

2 2 2
1 T T T
σ β ε α ω σ
)
)
) ) )
+ + =
+
(25)


III-2-2) GARCH multivarié, le GARCH DCC

La modélisation conjointe de la dépendance des seconds moments conditionnels d’une
gamme d’actifs a conduit à la généralisation du cadre multivarié des modèles GARCH, et de
ce fait permis l’accès à une meilleure boite à outils décisionnelle dans plusieurs aspect de la
gestion financière, et notamment la gestion d’actifs.
Il existe une large palette de modèles GARCH multivariés, incluant les modèles VECH
GARCH de Bollerslev, Engel et Wooldridge (1988), les modèles BEKK d’Engel et Kroner
17
(1995), Factor modèles (F-GARCH) d’Engel, Ng et Rothschild (1990), le CCC GARCH de
Bollerslev (1990) ou encore le model DCC GARCH de Tse et Tsui (2002) et d’Engel (2002).
Nous nous intéresserons plus particulièrement au modèle DCC. Dans la plupart des
modèles GARCH multivariés, le nombre de paramètres à estimer augmente très rapidement
lorsque le nombre d’actifs augmente, rendant ces modèles relativement compliqué à estimer
avec la présence d’un nombre d’actifs supérieur à deux. Or sous les hypothèses de normalité
de la distribution des résidus. Le modèle DCC peut être estimer en deux étapes. Dans la
première étape, un modèle GARCH univarié est spécifié pour chaque classe d’actifs. Dans la
seconde étape les résidus standardisés issus de la première étape sont utilisés pour estimer les
corrélations dynamiques. La procédure en deux étapes permet de limiter le nombre de
paramètre à estimer simultanément tout en assurant la positivité de la matrice de variance
covariance.
De plus, ce modèle étant une généralisation du modèle CCC, permet de s’affranchir de
l’hypothèse erronée de la constance des corrélations dans le temps du modèle CCC en
rendant les corrélations conditionnelles dépendantes du temps. Les études empiriques
montrant l’existence d’une dynamique des corrélations dans le temps.

• Le modèle DCC

Les variances conditionnelles,de chaque actifs,
t ii ,
σ sont modélisé par l’intermédiaire d’un
GARCH univarié et les paramètres correspondants sont estimés. L’idée qui sous tend la
formulation du type DCC, est de décomposer les covariance conditionnelles comme produit
des variances conditionnelles et des corrélations conditionnelles.
t ij
t jj t ii
t ij
t ij ,
, ,
,
,
σ
σ σ
σ
ρ ⇒ = =
t jj t ii t ij , , ,
σ σ ρ (26)

Le modèle multivarié est défini comme suit :
t t t t
Z H X
2 / 1
+ = µ (27)
t t t t
D R D H = (28)



18
Où ) ,..., (
, 1 t d t t
x x X = le vecteur des observations passées.
) ,... (
1 dt t t
µ µ µ = le vecteur des rendements conditionnels.
) ,..., (
, 1 t d t t
z z Z = le vecteurs des résidus standardisés.

t
R =(
t ij ,
ρ ) la matrice symétrique (dxd) des corrélations dynamiques.
) ,..., (
, , 11 t dd t t
diag D σ σ = est la matrice (dxd) des écarts types conditionnels de chacune des
séries financières respectant individuellement la spécification d’un GARCH univarié c'est-à-
dire :
2
1 ,
2
1 ,
2
, − −
+ + =
t ii i t ii i i t ii
σ β ε α ω σ (29)

Selon Engel(2002), les éléments de la matrice
t
R , soient (
t ij ,
ρ ) sont égaux aux
éléments de la matrice de covariance des résidus standardisés ;
t ij ,
ρ =
t ij
z
,

Modéliser
t
R revient à modéliser la matrice de variance covariance
t
Q des résidus
standardisés
t
Z . La formulation proposée par Engle (2002) est la suivante :

1 1 1
' ) 1 (
− − −
+ + − − =
t t t t
Q Z Z Q Q γ δ γ δ (30)
avec 0 , > γ δ et 1 < + γ δ

t
Q étant une matrice de variance covariance, il est donc peu probable que les éléments
diagonaux soit égaux à 1 et donc qu’elles correspondent à une matrice de corrélation. Cette
propriété est cependant garantie par l’équation suivante :

2 / 1 2 / 1
) ( ) (
− −
=
t t t t
diagQ Q diagQ R (31)

Pour l’estimation des deux paramètres nous faisons donc appel à la méthodologie en
deux étapes étant donné que cette formulation allie la richesse de la dynamique du processus
modélisé et la flexibilité dans l’estimation. Seulement cette méthode ne se fait pas sans
inconvénient étant donné qu’elle n’est possible que sous l’hypothèse de normalité, or les
études empiriques rejettent l’hypothèse de normalité. Néanmoins, l’idée générale des
estimateurs du quasi-maximum de vraisemblance consiste à démontrer que si l’on commet
une erreur sur la distribution conditionnelle des résidus en utilisant à tort une log-
vraisemblance fondée sur une loi normale, l’estimateur du maximum de vraisemblance ainsi
19
obtenue peut tout de même être convergeant si la vraie loi des résidus appartient à la famille
de la loi normale (Gourieroux, Montfort 1989). L’estimateur sera convergeant et
asymptotiquement normale. Engle et Sheppard (2001) démontrent que les estimateurs du
modèle DCC sont consistant et asymptotiquement normaux.

Dans ce cas , la log-vraisemblance est :

L= ) ( ) ( )' (
2
1
) log(det
2
1
) 2 log(
2
1
t t t t t T
u x H u x H
n
− − − − −

π (32)

Avec
t t t t
D R D H =

L= ) )( ( )' (
2
1
)] log[det(
2
1
) 2 log(
2
1 1 1
t t t t t t t t t t
u x D R D u x D R D
n
− − − − −
− − −
π (33)



Or on sait que
t t t
u x ε = − et que le vecteur des résidus standardisés est égal
à
t t t
D Z ε
1 −
= .
L’expression devient :

L= ) (
2
1
)] log[det(
2
1
) 2 log(
2
1 '
t t t t t t
Z R Z D R D
n

− − − π (34)

Cette fonction de vraisemblance se décompose en un terme pour la volatilité noté
v
L et
un pour la corrélation noté
c
L et prend donc la forme ) (
0
θ L = ) (
1
θ
v
L + ) , (
1 2
θ θ
c
L .

) (
0
θ L =

=

+ −
T
t
t t t t t t
Z R Z D R D
1
1 '
) ( )] log[det(
2
1
(35)
= − + −

=
T
t
t t t
Z Z D
1
' )] log[det( 2
2
1


=

− +
T
t
t t t t t t
Z Z Z R Z R
1
1
' ' )] log[det(
2
1

20

Avec
) (
1
θ
v
L =

=
+ −
T
t
t t t
Z Z D
1
' )] log[det( 2
2
1
(36)
=
∑ ∑
= =
|
|
.
|

\
|
+ −
T
t
n
i
t ii
t i
t ii
1 1
,
2
2
,
,
2
) log(
2
1
σ
ε
σ
=
∑ ∑
= =
|
|
.
|

\
|
+ −
n
i
T
t
t ii
t i
t ii
1 1
,
2
2
,
,
2
) log(
2
1
σ
ε
σ
Et

) , (
1 2
θ θ
c
L =

=

− + −
T
t
t t t t t t
Z Z Z R Z R
1
1
' ' )] log[det(
2
1
(37)

Avec
1
θ l’ensemble des paramètres des éléments diagonaux de
t
D , soit les
t ii,
σ et
2
θ est
l’ensemble des paramètres de la matrice de corrélations
t
R soit les
t ij ,
ρ .

La maximisation de cette fonction de vraisemblance se fera en deux étapes :

Etape 1 : trouver
1
θ
)
tel que
1
θ
)
= argmax { ) (
1
θ
v
L }

Dans cette première estimation, un modèle GARCH(1,1) univarié est appliqué aux
variances conditionnelles de chaque actif. À l’issue de celle-ci, les coefficients qui expliquent
la volatilité de chaque actif, pris individuellement, sont obtenus.

Etape 2 : { } ) , ( max
2 1
2
θ θ
θ
)
c
L

Dans cette seconde phase d’estimation, les coefficients des volatilités obtenus lors de
la première étape,
1
θ
)
, sont maintenus constants, et servent à conditionner la fonction de
vraisemblance utilisée pour estimer les paramètres de la dynamique des corrélations,
2
θ .

21
Hafner et al (2003) affirment que dans le cas du DCC de Engle et Sheppard (2001), et
Engle (2002) ce modèle conduit à une sélection sous optimale des titres d’un portefeuille
lorsque le nombre d’actifs en jeu est d’environ 20 et 30 alors qu’il est conçu pour des matrices
de grandes dimensions. Selon eux ceci est dû au fait que le modèle DCC suppose que les
corrélations conditionnelles spécifiques aux actifs suivent toutes la même dynamique qui est
une structure de type ARMA. Cette hypothèse peut être facilement satisfaite par un petit
nombre de rendements d’actifs sélectionnés (condition satisfaite dans le cas de l’allocation
des classes d’actifs, en effet la gestion diversifiée institutionnelle requiert relativement peu de
classe d’actif).


II-3) Simulation de Monte-Carlo : la méthode FHS

La simulation historique, via le bootstrap naïf des séries financières, est largement
utilisée dans la pratique de la gestion du risque. Cette méthode consiste à générer des
scénarios basés sur les mouvements historiques des prix. Elle est, donc, basée sur une
distribution empirique des rendements des actifs. La méthode du bootstrap naïf consiste à
générer des pseudo rendement en rééchantillonnant avec replacement à partir de la série
originale, elle reflète une image plus réaliste qu’une distribution paramétrique. Néanmoins
une simulation classique historique ne se fait pas sans inconvénient. En effet, comme évoqué
ci-dessus les études empiriques montrent l’existence de cluster de volatilité ce qui prouve
l’existence d’hétéroscédasticité dans les séries financières. Or la méthode naïve du bootstrap
ignore l’existence des dynamiques de volatilité et est basé sur l’hypothèse de distribution
i.i.d. et n’arrive donc pas à capter la dépendance des rendements dans le temps.

Malheureusement la seule loi de distribution à laquelle nous avons accès est la loi
normale, loi spécifiée dans le cadre du DCC qui constitue une des critiques potentielles de ce
modèle étant donné que la normalité a été rejeté par les faits. De plus le recours à cette loi
dans un cadre moyenne CVaR n’as pas plus d’intérêt que d’utiliser une optimisation
Moyenne-Variance à partir du moment où les deux méthodes donnent, à peu près, la même
pondération d’actifs dans le cas où une loi normale est spécifiée et enlève,donc, toute la
puissance de l’optimisation moyenne CVaR. En effet, dans le cas où les rendements sont
gaussien, il est équivalent de prendre l’une ou l’autre de ces mesures à partir du moment il est
22
impossible de discriminer en fonction des moments d’ordre supérieurs. De plus l’utilisation
d’une loi paramétrique à tort peut ne pas être sans conséquence sur le résultat escompté.

La méthode FHS (filtered historical simulation) répond au problème que nous
rencontrons. En particulier, les données historiques sont filtrés en utilisant le GARCH
(Barone-Adesi et al 1999,2000) .
Au lieu d’utiliser un choc commun dont la loi de distribution serait normale, nous utiliserons
un vecteur de chocs, qui n’est rien d’autre que le vecteur des résidus standardisés centrés
{ }
T dd ii t
z z Z
, 1 ,
,..., = que nous bootstraperons. Nous étendons donc le concept de la méthode
FHS au cas multivarié dans un contexte d’optimisation de portefeuille. Nous ne spécifions
donc aucune loi paramétrique, ce qui nous permet d’éviter une erreur quand à la loi choisie. Et
surtout, nous ne voulons pas assumer une distribution normale des chocs. De plus l’idée du
pseudo maximum de vraisemblance est de dire que les résidus tendent vers les vrais résidus,
la distribution empirique tend donc vers la vraie distribution.

Nous devons construire une séries de K scenarii, qui serviront d’inputs à l’optimisation
Moyenne-CVaR (16). Nous supposons que les chocs qui serviront à la simulation de Monte-
Carlo sont mieux caractérisés par les résidus du modèle GARCH. Cette procédure nous
affranchis de l’hypothèse de normalité. De fait, même après avoir standardisé les rendements
avec un modèle de variance dynamique, les résidus standardisés présentent des moments
d’ordre supérieurs potentiellement éloignés de la normalité

k T T k
Z H X . '
2 / 1
1 1 + +
+ = µ (38)
avec k=1,…,K

Avec
k
Z , le vecteur de résidus bootstrapés à partir de la série des résidus standardisés
originaux.
Pour la simulation, il est nécessaire d’avoir
k
Z i.i.d avec var(
k
Z )=
d
I . Les résidus étant
standardisés, la corrélation temporelle n’existe plus, mais il existe une corrélation entre les
k
Z , (c'est-à-dire entre les résidus du modèle dynamique de chaque actifs, ce qui est,
d’ailleurs, à la base de la méthodologie en deux étapes d’Engle(2002) );
k
Z est tel que
k k
I Z ≠
23

Il faut donc les rendre i.i.d, pour ce faire nous faisons appel à l’inverse de la
décomposition de Cholesky de la matrice de corrélation
t
R .
Soit L la matrice triangulaire inférieure de la décomposition de Cholesky de la matrice, on a :

t t
D
t
Z L Z .
2 / 1 −
= (39)

De cette façon nous aurons
D
t
Z i.i.d avec var(
D
t
Z )=
d
I , que nous pouvons utiliser pour
générer les scénarios nécessaires à l’optimisation.

D
k T T k
Z H X . '
2 / 1
1 1 + +
+ = µ (40)


Cette méthodologie, bien que, présente, théoriquement, une avancée par rapport au
modèle original, ne réussit pas complètement à contrer la critique la plus sévère énoncée à
l’encontre du modèle de Markovitz ; à savoir l’omission de l’erreur d’estimation dans
l’optimisation. Il est vrai qu’une modélisation GARCH multivariée permet d’augmenter,
relativement, la qualité des informations d’investissement nécessaire à l’optimisation, par
rapport à de simples estimateurs historiques (matrice de rendement et matrice de variance
covariance plus réaliste en prenant en compte les caractéristiques essentielles des séries
financières) et contribuerait à diminuer l’erreur d’estimation sur ces estimateurs. Cependant, il
existe, tout de même, une erreur d’estimation sur les paramètres du modèle GARCH-DCC.
Ces paramètres ne sont pas les vrais paramètres, ils ne sont que l’estimation de vrais
paramètres inconnus. Geyer (2000) remarquait que la non prise en compte de l’erreur
d’estimation dans la matrice de variance covariance des modèles GARCH pouvait annihile,r
en partie, les biens fait de la prise en compte des clusters de volatilité.

Nous présenterons, avant toute chose, le phénomène d’erreur d’estimation, son impact
et une méthodologie dans le cadre moyenne variance avec estimateur historique des
informations d’investissement, proposé par Michaud (1998), afin d’appréhender ce dernier
phénomène. (Cette méthodologie étant la base de la méthodologie que nous introduisons).


24
IV) L’erreur d’estimation et méthodologie pour un portefeuille
optimal

IV-1) L’erreur d’estimation dans le cadre moyenne variance

• Définition de l’erreur d’estimation

Le modèle Moyenne-Variance de Markowitz requiert trois inputs : les rendements
espérés, les corrélations espérés, et les variances espérées. Typiquement, les estimations des
taux de rentabilité et de la matrice de covariance d’un portefeuille sont déduites des données
historiques. Ces estimations sont faites à partir d’un échantillon d’observations. Ces
estimations ne sont pas les vrais paramètres (vecteurs de rendements, matrice de variance-
covariance) de la population entière, mais sont l’estimation de paramètres inconnus. Ils sont
donc soumis aux erreurs d’estimation, l’erreur d’estimation étant la différence entre les vrais
paramètres et l’estimation des paramètres. L’impact de cette erreur d’estimation dans une
optimisation de portefeuille peut avoir des conséquences néfastes. Comme l’ont montré Bawa
et Klein (1976) cette approximation conduit à un choix de portefeuille sous optimal. Selon
Jobson et Korkie (1989) l’erreur d’estimation dans ces paramètres annihile les bénéfices
théoriques dû au paradigme Moyenne-Variance.

• Impact de l’erreur d’estimation

Les inputs étant soumis à des erreurs d’estimation, l’optimisation de portefeuille
souffre de la « maximisation de l’erreur d’estimation » (Michaud, 1989). « L’optimiseur »
tend à garder les actifs ayant les caractéristiques les plus attractives (rendement élevé, risque
faible et/ou corrélation faible) et délaisser les actifs ayant de mauvaises caractéristiques. Ces
actifs choisis par l’optimiseur sont les actifs sur lesquels l’erreur d’estimation pèse le plus.
L’algorithme du programme d’optimisation quadratique de Markowitz (1952) considère que
les inputs sont les vrais paramètres et non des inputs issus de simulations de paramètres
inconnus. Ces inputs sont donc traités comme s’ils étaient connus avec certitude (alors qu’ils
ne le sont pas), et sur-réagira à de petites différences dans les rendements. Selon Scherer
(2002), l’algorithme d’optimisation quadratique du cadre Moyenne-Variance est trop puissant
par rapport à la qualité des inputs.
25

C’est la raison pour laquelle le processus d’optimisation maximise l’impact de l’erreur
d’estimation. En conséquence de quoi, un tel algorithme donnera un portefeuille sous
diversifié et très instable.

• Visualisation de l’erreur d’estimation

Les paramètres utilisés dans les problèmes d’allocation d’actifs sont calculés à partir
d’une seule réalisation possible des rendements historiques. Les paramètres estimés, à partir
de cet échantillon, ne peuvent converger vers la vraie distribution des paramètres seulement si
l’échantillon d’observations est très grand. Cependant, les effets résultant de l’erreur
d’estimation peuvent être capturés par la procédure de Monte Carlo aussi connu en tant que
"portfolio resampling".

Supposons que nous connaissons la vraie distribution des paramètres ; la matrice de
variance-covariance
0

)
et le vecteur de la moyenne des rendements
0
µ
)
. Si nous générons un
échantillon aléatoire basé sur la même distribution avec T observations (T étant la taille de
l’échantillon original). Alors les points estimés sont des variables aléatoires, car sont estimés à
partir de rendements aléatoires. Ce nouvel échantillon de variables aléatoires, issu de la même
distribution, donnera donc des estimations différentes. Cependant les deux échantillons sont
statistiquement équivalents.
En répétant la procédure d’échantillonnage n fois, nous avons, donc, n nouvelles
paires d’inputs d’optimisation (
1

)
,
1
µ
)
à
n

)
,
n
µ
)
). Pour chacune de ces paires d’inputs, nous
pouvons calculer une nouvelle frontière efficiente avec J portefeuilles allant, par exemple, du
portefeuille à variance minimale (rang 1) au portefeuille à rendement maximal (rang J). En
gardant les vecteurs de poids correspondant à chaque portefeuille (
11
w , …,
J
w
1
à
1 n
w ,
…,
nJ
w ), nous pouvons les appliquer aux inputs originaux. Ces portefeuilles se situeront en
dessous de la frontière efficiente originale. Ces poids ont, en effet, été déterminés à partir de
données contenant des erreurs d’estimations



26
Le résultat de cette procédure d’échantillonnage est qu’elle transforme l’erreur
d’estimation des inputs en incertitude sur le vecteur optimal des poids. Cette technique ne
nous dit pas où devrait se situer la nouvelle frontière efficiente, elle ne nous renseigne pas sur
les poids que nous devons retenir pour notre allocation. Ce qui nous renvoie à la méthode de
Michaud (1998).

• L’efficience ré-échantillonée

La méthode de Michaud (1998) traite ce problème d’estimation d’erreur. Les
portefeuilles situés sur la frontière ré-échantillonée sont définis comme la moyenne, pour
chaque rang, des n portefeuilles « efficients ». Cette procédure garantit une importante
caractéristique ; la somme des poids est égale à l’unité.

La détermination de la frontière efficiente ré-échantillonée (et, donc, les poids associés
à chaque portefeuille composant cette frontière) peut être résumée de la façon suivante :

Supposons que nous avons m=5 actifs et T=200 observations historiques.

Etape 1. Déterminer les vecteurs de rendement et la matrice de covariance issue des
observations historiques. Puis on utilise une optimisation moyenne-variance
afin de calculer la frontière efficiente, qui est composée de J portefeuilles.


Etape 2. A partir de la loi de distribution suivie par les variables, on tire m=5
rendements T=200 fois (T peut être supérieur au nombre d’observations, tout
dépend du degré de confiance sur les observations historiques). Avec les
données générées on calcule un nouveau vecteur de rendements et une nouvelle
matrice de covariance. La différence entre ces nouveaux inputs et les inputs
originaux est la résultante de l’erreur d’estimation.

Etape 3. Une nouvelle optimisation est faite avec les nouveaux inputs, afin de construire
une nouvelle frontière efficiente avec J points.
On garde, pour chacun des J points, le poids de chaque actif du portefeuille
« efficient ». Il en ressort un nouveau vecteur de poids
Ji
a (J × m) des m actifs
pour chacun des J portefeuilles pour la simulation i.

Etape 4. On répète la simulation k fois. Nous avons donc k frontières efficientes
donnant ainsi k
Ji
a . Puis on calcule la moyenne des
Ji
a .


=
=
k
i
Ji
resampled
J
a
k
a
1
1

27

resampled
J
a est le vecteur des poids qui va permettre de construire la frontière
efficiente, en réduisant l’erreur d’estimation. Enfin, on applique ces poids
moyens aux inputs originaux (issus de l’étape 1) afin d’avoir la frontière
efficiente ré-échantillonnée.


L’avantage de cette méthode est l’utilisation de données disponibles (l’historique),
afin de produire une allocation intuitive qui serait moins sensible aux perturbations des inputs.
Ceci est dû à un portefeuille plus diversifié et, intuitivement, moins risqué qu’un portefeuille
correspondant à la frontière efficiente de Markowitz (1952). L’efficience ré-échantillonnée
utilise donc les informations d’investissements d’une manière plus robuste que l’efficience de
Markowitz (1952). De plus cette procédure assure une plus grande stabilité du processus, dans
la mesure où de petits changements dans les inputs sont généralement associés à de petits
changements dans le portefeuille optimisé. Au final, le processus procure ainsi une protection
contre l’impact de l’erreur d’estimation.

Sanfillipo (2006) étudie la capacité de la méthode de ré-échantillonnage à réduire
l’erreur d’estimation. Il montre que le portefeuille obtenu à partir de cette technique est plus
proche du portefeuille réellement efficient. De plus, Markowitz et Usmen (2003) ont testé la
méthode du resampling (proposée par Michaud, 1998). Markowitz et Usmen cherchaient à
savoir si des méthodes alternatives à la méthode du resampling (telles que les méthodes
shrinkage) dominaient l’amélioration qui résultait du ré-échantillonnage. Ces auteurs ont
conclu que les méthodes alternatives, qui traitent le problème du risque d’estimation,
n’amélioraient pas suffisamment l’optimisation de Markowitz (1952) pour pouvoir dominer la
méthode du resampling.
Michaud en réponse à l’article de Markowitz et Usmen (2003), démontrant
empiriquement la supériorité de sa méthode permettant la prise en compte de l’erreur
d’estimation dans le modèle de Markowitz, opposait la manière dont les informations
d’investissement sont utilisées à la qualité des informations investissement utilisées. Selon lui
on devrait accorder plus d’effort à la manière dont on utilise les informations plutôt que
d’essayer d’augmenter la qualité de ces derniers. Evensky (1997) rejoint cette idée, selon lui il
serait plus intéressant de chercher une « bonne solution approximative », plutôt que de
chercher la meilleure des solutions.
28
Cependant, bien que cette méthode réussi relativement bien à tacler le problème
principal du modèle de Markowitz, il ne prend cependant pas en compte les critiques
précédemment citées, à savoir l’utilisation de la variance comme mesure du risque et les
caractéristiques propres aux séries financières. Il est donc utile de revoir cette méthodologie.
Nous proposons, pour ce faire, une méthodologie semblable dans l’optimisation Moyenne-
CVaR, en incluant l’erreur d’estimation dans un cadre GARCH multivarié. L’idée étant de
combiner ces deux méthodologies dans un cadre Moyenne-CVaR :
• Une méthodologie permettant d’augmenter la qualité des informations
d’investissement (modèle GARCH-DCC)
• Une méthodologie permettant d’accroître la robustesse de l’utilisation de ces
informations d’investissement (portfolio resampling) .


L’objet et l’intérêt de la méthodologie est d’augmenter la qualité des informations
d’investissement tout en les utilisant de manière plus robuste, afin de déterminer une
allocation d’actifs optimale. En effet, très peu d’auteur, si ce n’est aucun, ont accordé de
l’importance à l’erreur d’estimation des modèles GARCH multivariés dans un contexte
d’allocation d’actifs, ce qui constitue le premier intérêt. Le deuxième intérêt de cette
méthodologie est relatif au cadre théorique utilisé; le cadre Moyenne-CVaR. En effet
l’analyse du risque d’estimation dans ce cadre est un sujet, qui a notre connaissance, n’a pas
encore été traité.












29
IV-2) La théorie du « portfolio resampling » revisitée

L’erreur d’estimation ne se trouve plus au niveau de la matrice de variance covariance
historique mais au niveau des paramètres du modèle DCC qui serviront à estimer la matrice
de variance covariance conditionnelle. Afin d’intégrer l’erreur d’estimation de ce type de
modèle dans notre optimisation, nous basons notre méthodologie sur les travaux de Pascual,
Romo et Ruiz (2001) ainsi que de Christoffersen et Gonçalves (2004). Ces auteurs utilisent le
bootstrap afin de construire des intervalles confiance dans le calcul de la VaR et de l’expected
shortfall dans un cas univarié, afin d’évaluer et mesurer l’importance de l’erreur d’estimation.
Nous étendons leur méthodologie au problème d’allocation d’actif dans un cadre multivarié.
Dans cette section nous présentons la méthodologie du bootstrap afin de prendre en
compte le risque d’estimation dans le cadre de la modélisation GARCH-DCC, sans spécifier
aucune loi suivie par les innovations.

La Validité du bootstrap pour les données financières dépend de sa capacité à
reproduire correctement les propriétés des rendements observés. Une façon d’utiliser le
bootstrap dans la modélisation GARCH consiste à rééchantillonner avec replacement les
résidus standardisé du model. L’idée étant que les résidus sont i.i.d. à partir du moment ou ils
ont été « dévolatilisé », on peut donc utiliser le bootstrap naïf sur ces résidus. Pour ce faire,
nous utiliserons un vecteur de résidus « bootstrapé » en rééchantillonnant avec remise les
résidus standardisés originaux tout en tenant compte de la corrélation entre les résidus.
L’échantillon artificielle bootstrap des rendements est ensuite générer de façon récursive en
utilisant l’équation de la volatilité dynamique des modèle GARCH et les résidus standardisés
rééchantilonnés.

Nous avons vu dans les sections précédentes l’équation suivante :

t t t t
Z H X .
2 / 1
+ = µ

Nous avons donc deux sources de risque. L’une de ces sources potentielles de risque
est liée à l’incertitude sur les chocs utilisés qui serviront à générer les scénarii (nous évacuons
cependant ce risque en utilisant une méthode FHS multivariée, voir section précédente).
L’autre source de risque est liée à la prévision de la matrice de variance covariances futures.
30
Pour la modélisation DCC-GARCH, on voit assez facilement que la volatilité et les
corrélations futures dépendent de l’information valable en T ainsi que des paramètres
inconnus ( γ δ , , β α ω , , ). En particulier, en utilisant les équations issues du modèle GARCH-
DCC, nous pouvons réécrire les
2
,T ii
σ et
T
Q comme des fonctions des observations passées :



=
− −
|
|
.
|

\
|
− −
− +
− −
=
0
2
1 ,
2
,
1 1
j
i i
i
j t ii
j
i i
i i
i
T ii
β α
ω
ε β α
β α
ω
σ (41)
( )


=
− − − −
− + =
0
1 1
'
i
i t i t
j
T
Q Z Z Q Q γ δ (42)

On remplace les paramètres inconnus γ δ , , β α ω , , par leur estimation qui ressort de la
maximisation du maximum de vraisemblance :



=
− −
|
|
.
|

\
|
− −
− +
− −
=
2
0
2
1 ,
2
,
1 1
T
j
i i
i
j T ii
j
i i
i i
i
T ii
β α
ω
ε β α
β α
ω
σ )
)
)
)
)
)
)
)
)
(43)
( )


=
− − − −
− + =
2
0
1 1
'
T
i
i T i T
j
T
Q Z Z Q Q
)
)
)
)
)
γ δ (44)

A partir delà nous pouvons estimer les variances futures :

2
,
2
,
2
1 , T ii T ii T ii
σ β ε α ω σ
)
)
) ) )
+ + =
+
(45)

et les covariances :

=
+1 T
R
)
2 / 1
1 1
2 / 1
1
) ( ) (

+ +

+ T T T
Q diag Q Q diag
) ) )
(46)

avec
T T T T
Q Z Z Q Q
)
)
)
)
)
) )
γ δ γ δ + + − − =
+
' ) 1 (
1
(47)

La nécessité d’estimer les paramètres du GARCH-DCC introduit donc une source de
risque d’estimation.


31
La présence du risque d’estimation, dans la façon de déterminer les inputs qui
serviront à l’optimisation, est la principale motivation de l’utilisation du bootstrap. Cette
procédure nous permet de tenir compte de l’erreur d’estimation dans la matrice de variance
covariance.


L’algorithme

Etape 1. On estime le modèle GARCH-DCC par le pseudo maximum de
vraisemblance et on déduit les résidus centrés
ii t ii
z z
) )

,
,
avec
t ii
t ii
t ii
z
,
,
,
σ
ε
)
)
= , t=1,…T. Soit
T i
G
,
)
la fonction de distribution
empirique de .
,t ii
z
)





Etape 2. Afin d’incorporer l’incertitude des paramètres estimés, il est nécessaire
d’obtenir un nouvel échantillon bootstrap { }
*
,
*
1 ,
,...,
T d i
X X qui réplique la
structure originale, en prenant en compte les corrélations. Cette réplique
bootstrap est obtenue à partir des récursions suivantes :


* 2 / 1 * * * D
t t t t
Z H X + = µ pour t=1,…,T

Avec
*
t
H obtenue grâce à :
) ,..., ( ,
*
, 11
* *
t nn t
t
diag D σ σ
) )
=
avec
2 *
1 ,
2 *
1 ,
2
,
*
− −
+ + =
t ii i t i ii i
t ii σ β ε α ω σ
)
)
) ) )

2 / 1 * * 2 / 1 * *
) ( ) (
− −
=
t t t t
Q diag Q Q diag R
) ) ) )

*
1
1
*
1
* *
' ) 1 (

− − + + − − =
t
t t
t
Q Z Z Q Q
)
)
)
)
)
) )
γ δ γ δ
4


4
Pour Q nous procédons à un bootstrap « cross sectionnal » afin de conserver la corrélation entre les résidus
32
Pour obtenir le nouveau vecteur des résidus standardisés bootstrapés
nous devons décomposer la matrice des corrélations dynamiques à la date t,
t
R
)
, grâce à la décomposition de Cholesky, afin de rendre les résidus
standardisés orthogonaux.

* 2 / 1 *
.
t t
D
t
Z L Z

=

Avec
t
Z obtenu aléatoirement à partir de
T i
G
,
)
, la fonction de distribution
empirique des résidus centrés de l’actif i, et
2 / 1 −
t
L la matrice inverse de la
décomposition de Cholesky de la matrice
t
R
)
.

Les valeurs initiales sont :

2
1 ,
2 *
1 , ii ii
σ σ
)
= =
i i
i
β α
ω
)
)
)
− − 1

Q Q =
1


Cet échantillon bootstrap { }
*
t
X , nous permet de calculer les paramètres
bootstrap via le maximum de vraisemblance en deux étapes ;
* * *
, ,
i i i
β α ω
)
) )
,
* *
, γ δ
)
)
.



Etape 3. Nous pouvons déterminer une prévision bootstrap de la matrice de variance
covariance
*
1 + T
H
)

*
1
*
1
*
1 + + +
=
T T T
D R D selon les équations suivantes :

2 *
1 ,
* 2 *
1 ,
* *
2
1 ,
*
+ +
+ + + =
T ii i T ii i i
T ii σ β ε α ω σ
)
)
) ) )

*
1
* * * * * * * *
1
' ) 1 (
+ +
+ + − − =
T T T T
Q Z Z Q Q
)
)
)
)
)
) )
γ δ γ δ


33
Les valeurs initiales étant :

T T
X X =
*

*
T
Z =
T
Z


=
− −
|
|
.
|

\
|
− −
− +
− −
=
2
0
* *
*
2
1 ,
* *
* *
*
2 *
,
1 1
T
j
i i
i
j T i
j
i i
i i
i
T ii
β α
ω
ε β α
β α
ω
σ )
)
)
)
)
)
)
)
)

( )


=
− − − −
− + =
2
0
*
1 1
* * * *
'
T
i
i T i T
i
T
Q Z Z Q Q
)
)
)
)
)
γ δ


Avec
2 / 1 * * 2 / 1 * *
) ( ) (
− −
=
t t t t
Q diag Q Q diag R
) ) ) )

) ,..., ( ,
*
, 11
* *
t nn t
t
diag D σ σ
) )
=

On peut remarquer dans l’expression de
2 *
1 , + T ii
σ
)
et
*
1 + T
Q
)
, même s’ils sont différents dans
chaque réplique bootstrap, leurs valeurs sont obtenues en utilisant les paramètres estimés
bootstrap mais toujours avec les séries originales. De cette façon leur valeurs sont faibles
lorsque les « vrais » rendements et les « vrais » corrélations à la fin de la période sont faibles,
et élevés lorsqu’ils sont élevés. En conséquence de quoi
2 *
1 , + T ii
σ
)
et
*
1 + T
Q
)
incorporent seulement
la variabilité due à l’erreur d’estimation et prend en compte l’état du processus quand des
prévisions sont faites.


Etape 4. Une foi la matrice de variance covariance future estimée, nous pouvons simuler
un certain de nombre de scénarios avec l’équation (40), que nous soumettons à
l’optimisation Moyenne-CVaR en utilisant le problème de programmation
linéaire (16) . Cette optimisation nous donnera un vecteurs de poids optimal
i
x
~

(
i
x
~
, i=1,…,d) qui minimisera la CVaR sous contrainte d’un objectif de
rendement.



34

Etape 6. On répète les étapes précédentes M fois. Nous avons donc M portefeuilles
efficients donnant ainsi m x
~
. Puis on calcule la moyenne des x
~
.


=
=
M
m
m
resampled
x
M
x
1
~
1
~


resampled
x
~
est le vecteur des poids qui va permettre de déterminer l’allocation
optimale, en réduisant l’erreur d’estimation.



Les problèmes liés au modèle de Markowitz (1952) ont été traités dans la littérature, mais de
façon isolée. Nous proposons donc de regrouper ces solutions dans un seul et même modèle
d’allocation d’actifs afin d’atteindre notre objectif ; déterminer un processus d’allocation
d’actifs cohérent et optimal, appliqué à une société de gestion. Au final, nous construisons un
modèle d’allocation d’actifs avec une mesure cohérente du risque, la prise en compte des
caractéristiques observées sur les séries financières et une protection contre le risque
d’estimation de la modélisation GARCH-DCC dans le cadre Moyenne-CVaR.

Sign up to vote on this title
UsefulNot useful