Professional Documents
Culture Documents
Partie 4
Partie 4
10
Les graphiques ci-dessous donnent lvolution des indices sectoriels du CAC, pour les secteurs de lagroalimentaire, de la distribution, des services nanciers, et de limmobilier. Un portefeuille diversi pourrait
correspondre un portefeuille comportant des titres de chacun de ces secteurs. Pour prvoir les rendements
futurs du portefeuille, il convient de modliser conjointement lvolution de ces dirents indices. Comme le
conrment les graphiques ci-dessous, lvolution de ces indices ne se fait pas indpendemment les uns des autres.
0.08
V_AGRO_ALIM
0.04
12000
0.00
10000
AGRO_ALIM
DISTRIB
-0.04
IMMO
RESID
-0.08
500
1000
1500
2000
2500
1000
1500
2000
2500
1000
1500
2000
2500
1000
1500
2000
2500
0.12
8000
V_DISTRIB
0.08
0.04
0.00
6000
-0.04
-0.08
500
0.04
4000
V_IMMO
0.02
0.00
2000
-0.02
-0.04
500
0.10
V_SERVICE_FI
0.05
-2000
0.00
500
1000
1500
2000
2500
-0.05
-0.10
500
Le graphique de gauche correspond lvolution conjointe de ces indices, alors que les graphiques de droites
permettent de comparer les rendements de ces indices.
Nous allons introduire dans cette partie un certain nombre de concepts an de bien comprendre la dynamique
de la dpendence entre direntes sries (notions de dpendence, de causalit, de cointgration...). Nous verrons
galement une classe de modles, gnralisant les modles AR (p) univaris dans un cadre multivari : les
modles V AR (p).
10.1
La notion de causalit
10.1.1
Dpendence stochastique
Dpendance partir les lois conditionnelles : information de Kullback On peut dnir linformation
de Kullback paar
f (yjx)
K (yjx) = E log
jx
f (y)
Daprs la proprit de Jensen,
f (yjx)
f (y)
f (y)
K (yjx) = E log
jx = E log
jx log E
jx = 0
f (y)
f (yjx)
f (yjx)
et on peut noter que K (yjx) = 0 si et seulement si f (yjX = x) = f (y) presqe surement.
Remarque 61 Dans le cas gaussien, cov (X; Y ) = 0 si et seulement si X et Y sont indpendant. Supposons
que
X
0
X XY
sN
;
Y X Y
Y
0
Alors les lois marginales et conditionelles vrient
Y s N (0; Y )
et
Y jX s N (E (Y jX) ; V (Y jX)) o
179
E (Y jX) = Y X 1 X
X
V (Y jX) = Y Y X 1 XY
X
Aussi la loi du rapport gurant dans linformation de Kullback est donn par
p
det (V (Y ) j)
f (yjx)
1
0
=p
exp [Y E (Y jX)] V (Y jX) [Y E (Y jX)]
f (y)
2
det (V (Y jX))
do nallement (aprs calculs)
log
f (y)
f (yjx)
i
h
1
log det V (Y ) :V (Y jX)1
2
La notion de causalit La loi du processus est la loi du processus du couple t ; Yt ). Cette dernire scrit,
(X
la date t; conditionellement au pass (not xt1 et yt1 ), ` xt ; yt jxt1 ; yt1 . Dans le cas o les processus
(Xt ) et (Yt ) sont indpendant, alors
` xt ; yt jxt1 ; yt1
` xt jxt1 ; yt1
` yt jxt1 ; yt1
` xt ; yt jxt1 ; yt1
=
` xt jxt1 ` yt jyt1
` xt jxt1
` yt jyt1
` xt jxt1 ; yt1 ` yt jxt1 ; yt1
0
0
0
` xt jxt1 ; yt1
` yt jxt1 ; yt1
` xt ; yt jxt1 ; yt1
A = 2E @log
A + 2E @log
A
2E @log
` xt jxt1 ` yt j; yt1
` xt jxt1
` yt jyt1
|
|
|
{z
}
{z
}
{z
}
Mesure de dpendance
Causalit unidirectionnelle
Causalit unidirectionnelle
CX;Y
CY !X
CX!Y
1
0
` xt ; yt jxt1 ; yt1
A
+2E @log
` xt jxt1 ; yt1 ` yt jxt1 ; yt1
|
{z
}
Causalit instantanne
CX!Y
10.1.2
Soient (Xt ) et (Yt ) deux sries temporelles, et notons le pass de (Xt ) et (Yt ), X t = fXt ; Xt1 ; :::g et Y t =
fYt ; Yt1 ; :::g. Granger a introduit en 1969 direntes notions de causalit :
Dnition 49 (i) Y cause X la date t si et seulement si
E Xt jX t1 ; Y t1 6= E Xt jX t1
E Xt jX t1 ; Y t 6= E Xt jX t1 ; Yt1
Il y a quivalence entre
(1) X ne cause pas Y instantanment la date t
(2) Y ne cause pas X instantanment la date t
180
Xt = "t + Zt + Zt1
Yt = Zt
o ("t ) et (Zt ) sont des bruits blancs indpendants.
X
(i) E t jX t1 ; Y t1 = Zt1 = Yt1 : Y cause X la date t si et seulement si 6= 0
10.2
La notion de cointgration
Lanalyse de la cointgration permet didentier la relation entre plusieurs variables. Cette notion a t introduite ds 1974 par Engle et Newbold, sous le nom de spurious regressions, ou rgressions fallacieuses, puis
formalis par Engle et Granger en 1987, et enn par Johansen en 1991 et 1995.
Une srie est intgre dordre d sil convient de la direncier d fois avant de la stationnariser.
Dnition 50 La srie (Xt ) sera dite intgre dordre d (d 1) si d1 Xt nest pas stationnaire et d Xt
est stationnaire. Une srie stationnaire sera dite intgre dordre 0.
Remarque 62 Soient (Xt ) une srie stationnaire et (Yt ) intgre dordre 1, alors (Xt + Yt ) est intgre dordre
1. Toutefois, si (Xt ) et (Yt ) sont intgres dodre d, alors (Xt + Yt ) peut tre soit intgre dordre d, soit
stationnaire (dans le cas o les tendances sannulent).
Le graphique ci-dessous gauche prsente deux sries non-cointgres, alors que le graphique de droite
correspond des sries cointgres
400
8000
300
6000
200
4000
100
2000
0
25 30 35 40 45 50 55 60 65 70 75 80 85 90
OEUFS
60
POULET
65
70
75
PIB
80
85
90
95
00
CONSOMMATION
avec droite, les P IB et la consommation aggrge en France, et gauche, le prix de la douzaine doeufs et
dun poulet, aux Etats Unis. Comme nous le verrons plus tard, mme si les courbes de gauches semblent avoir
une tendance commune, elles ne sont pas pour antant contgres.
Dnition 51 Deux sries (Xt ) et (Yt ) sont cointgres si
(i) (Xt ) et (Yt ) sont intgres dordre d
(ii) il existe une combinaison linaire de ces sries qui soit intgre dordre strictement infrieur d, not
db
Dans le cas de lintgration, on notera Xt s I (d), et pour la cointgration Xt ; Yt s CI (d; b). Le vecteur
(; ) tel que Xt + Yt s I (d b) sera appel vecteur de cointgration.
Exemple 91 Le cas le plus simple est le suivant : deux sries (Xt ) et (Yt ) intgres dordre 1 seront cointgres
sil existe une combinaison linaire Xt + Yt telle que le processus (Zt ) dni par Zt = Xt + Yt soit
stationnaire. Aussi, si Xt est intgr dordre 1 (par exemple une marche alatoire), et si ("t ) un un bruit blanc
181
(Xt ) et (Xt + "t ) sont cointgrs. Ce cas est reprsent ci-dessous, avec gauche (Xt ) et (Yt ) o Yt = Xt +"t +,
et droite la dirence ( + "t ).
25
20
6
15
10
5
2
0
0
-5
20
40
60
80
100
PROCESSUS_X
120
140
160
180
20
200
40
60
80
100
120
140
160
180
200
PROCESSUS_DIFF
PROCESSUS_Y
Les graphiques ci-dessous reprsentent les sries (Xt ) et (Zt ) o Zt = Xt + "t + , et droite la somme
( "t ).
25
20
20
18
15
10
16
5
14
0
-5
12
20
40
60
80
100
PROCESSUS_X
120
140
160
180
200
20
40
60
PROCESSUS_Z
80
100
120
140
160
180
200
PROCESSUS_SOMME
Les deux combinaisons linaires tant stationnaires, les sries sont cointgres. La notion de cointgration peut
galement se visualiser en reprsentant le nuage de points (scatterplot) des observations (Xt ; Yt ) - gauche - et
(Xt ; Zt ) - droite
15
PROCESSUS_X
20
15
PROCESSUS_X
20
10
10
-5
-5
0
10
15
20
-5
25
10
15
20
25
PROCESSUS_Z
PROCESSUS_Y
Remarque 63 Cette dernire remarque permet davoir davoir une intuition visuelle sur la prsence ou absence
de relation de cointgration (linaire) entre les variables prsentes initialement, avec gauche les observations
182
400
300
PIB
OEUFS
6000
200
4000
100
2000
1000
0
0
50
100
150
200
250
2000
4000
5000
CONSOMMATION
POULET
10.2.1
3000
Consdrons deux variables (Xt ) et (Yt ) cointgres dordre 1 (Xt ; Yt s CI (1; 1)) et soit [; 1] le vecteur de
cointgration. Lide des modles correction derreur est de considrer des relations de la forme
Yt = Xt + [Yt1 Xt1 ] + "t
(41)
ce qui revient dcomposer un processus stationnaire (Yt ) en une somme de deux processus stationnaires
(Xt et Yt1 Xt1 ). De faon plus gnrale que (41), ces modles scrivent
Yt = +
p
X
i=1
i Yti +
q
X
j=0
o les variables interviennent soit travers leurs dirences premires (supposes stationnaires), soit travers un
terme dcart la cible long terme, la priode prcdante (qui doit tre stationnaire si la thorie conomique
sous-jacente est pertinente).
Proprit 49 Thorme de reprsentation de Granger - Toutes les sries cointgres peuvent tre reprsentes par un modle correction derreur
Preuve. Engle,R.E. & Granger,C.W.J. (1987). Cointegration and error-correction : representation, estimation and testing. Econometrica. 55
Remarque 64 Le thorme de reprsentation de Granger prsente lintrt de faire la synthse entre les deux
approches:
- lapproche ECM issue de lide de concilier des proccupations de thorie conomique avec une criture
rigoureuse des quations conomtriques
- lapproche V AR (que nous dvelopperont dans la partie suivante) issue dune approche purement statistique,
de type bote noire
10.2.2
Tests de cointgration
An de tester la cointgration entre deux variables, on peut utiliser lalgorithme mis en place par Engle et
Granger.
(1) tester lordre dintgration des variables : une des conditions ncessaire pour quil y ait cointgration
tant que les deux sries doivent tre intgres de mme ordre. Ces tests reposent sur lutilisation des tests de
Dikey & Fuller. On cherche alors d tel que Xt s I (d) et Yt s I (d).
(2) estimation de le relation de long-terme.
Compte tenu du thrme de reprsentation de Granger, il est galement possible de tester la cointgration
en estimant le modle correction derreur associ. Cette estimation peut se faire en deux tapes, en estimant
par mco la relation de long-terme
Yt = + Xt + bt
b b
"
183
Gnralisation k variables
Comme nous venons de le voir la mthode de Engle et Granger (1987) sarticule en deux tapes
(1) rgression statistique entre variables intgres (aprs avoir vri que les variables sont intgres de
mme ordre)
(2) test de vricarion de la stationnarit des rsidus (test de Dikey & Fuller )
La mthode Johansen consiste tester les restrictions imposes par la cointgration sur le modle V AR non
restreint. On considre un modle V AR (p) de la forme
Yt = A1 Yt1 + :: + Ap Ytp + "t = Yt1 + 1 Yt1 + 2 Yt2 + ::: + p1 Ytp+1 + "t
o = (A1 + ::: + Ap ) I et i = (Ai+1 + ::: + Ap ). Le thorme de reprsentation de Granger arme alors
que le coecient de la matrice a un rang rduit r < k, nombre de variables cointgres, et donc, il existe des
matrices U et V de rang r, telles que = U V 0 et telles que V 0 Yt soit stationnaire.
r est alors le nombre de relations de cointgration (rang de cointgration), chaque clonne de V est le vecteur
de cointgration, et les lments de U sont des paramtres dajustement.
La mthode de Johansen consiste estimer la matrice et de voir si on peut rejeter des restrictions impliques
par le rang rduit de : si on a k variables endognes, toutes avec une racine unitaire (non stationnaire,
mais stationnaire aprs direnciation - une fois), on peut avoir k 1 relations de cointgration linaires
indpendantes. Sil ny a aucune relation de cointgration, des analyses standards de sries chronologiques telles
que les V AR peuvent tre appliques aux dirences premires des donnes.
Exemple 92 Sur les donnes dtailles dans lexemple (10:3:5), intgres19 , le test de de causalit de Granger
propos par EV iews donne les rsultats suivants, droite
Pairwise Granger Causality Tests
Sample: 1992:01 1999:12
20
Lags:
Lags: 1
Null Hypothesis:
Z2 does not Granger Cause Z1
Z1 does not Granger Cause Z2
-20
Obs
95
F-Statistic
8.19171
1.63180
Probability
0.00521
0.20467
Lags:
Lags: 2
-40
Null Hypothesis:
Z2 does not Granger Cause Z1
Z1 does not Granger Cause Z2
-60
Obs
94
F-Statistic
23.8840
2.73080
Probability
5.0E-09
0.07063
Lags:
Lags: 3
-80
92
93
94
95
96
Z1
97
98
Null Hypothesis:
99
Z2
Obs
93
F-Statistic
16.0105
2.42069
Probability
2.4E-08
0.07152
avec gauche les courbes des processus Z1 et Z2 . Trois cas sont prsents ici : lorsque le modle contient 1, 2
et 3 retards. Lhypothse nulle est ici quil ny a pas causalit, savoirque Z2 ne cause pas Z1 dans la premire
quation, et que X ne cause pas Y dans la seconde. Ici, on rejette lhypothse nulle selon laquelle Z2 ne cause
pas Z1 car la puissance associe aux tests est trs faible (dans les trois cas), et au seuil 5, on accepte lhypothse
que Z1 cause Z2 au sens de Granger. Au contraire, on rejete lhypothse de causalit de Z2 vers Z1 .
1 9 Ce
test (test de Johansen ) est un test de contgration : il nest donc valable que sur des variables non-stationnaires.
184
Likelihood
Ratio
0.035347
0.007598
3.968895
0.694084
5 Percent
Critical Value
Included observations: 91
Test assumption: No deterministic trend in the data
Series: Z1 Z2
Lags interval: 1 to 4
1 Percent
Critical Value
12.53
3.84
Hypothesized
No. of CE(s)
16.31
6.51
Eigenvalue
Likelihood
Ratio
0.104344
0.006586
10.62946
0.601353
None
At most 1
5 Percent
Critical Value
15.41
3.76
1 Percent
Critical Value
Hypothesized
No. of CE(s)
20.04
6.65
None
At most 1
Z1
0.019804
-0.029400
Z1
0.018941
-0.037981
Z2
-0.023022
0.040442
Z2
-1.162462
(0.17327)
Z1
1.000000
-390.7528
Likelihood
Ratio
0.032396
0.007270
3.741320
0.678590
Z2
-0.887939
(0.25230)
Log likelihood
5 Percent
Critical Value
12.53
3.84
1 Percent
Critical Value
-385.9191
Data Trend:None
None
Linear
Linear
Quadratic
------------------------------------------------------------------------------------Rank No Intercept
Intercept
Intercept
Intercept
Intercept
No.
No Trend
No Trend
No Trend
Trend
Trend
Hypothesized
No. of CE(s)
16.31
6.51
None
At most 1
-409.0860
-407.9648
-407.9018
-409.0860
-402.8793
-401.7586
-407.4978
-402.0757
-401.7586
-407.4978
-402.0359
-397.3329
-402.6242
-397.9195
-397.3329
C
13.86919
Included observations: 93
Test assumption: No deterministic trend in the data
Series: Z1 Z2
Lags interval: 1 to 2
Eigenvalue
Z2
-0.016819
0.049285
0
1
2
8.797548
8.773436
8.772081
0
1
2
Z2
-0.027864
0.032209
9.187449
9.358288
9.551884
8.797548
8.664070
8.639970
8.763393
8.646789
8.639970
8.763393
8.645932
8.544793
8.658585
8.557409
8.544793
9.250770
9.376997
9.519545
9.243436
9.337211
9.519545
Z2
-1.203111
(0.11159)
L.R. Test:
9.187449
9.297660
9.517247
9.250770
9.329116
9.517247
-437.2565
EV iews propose plusieurs options pour les tests de cointgration20 . La sortie en bas droite est la sortie
rcapitulative. Pour les autres, les valeurs propres sont prsentes dans la premire colonne. Le LR - Likelihood
Radio - est dni par
k
X
log (1 i ) pour r = 0; 1; :::; k 1
Q (r) = T
i=r+1
o i est la ime valeur propre (lorsquelle sont ranges par ordre croissant). Cette statistique est aussi appele statistique de la trace. La premire ligne de la cinquime colonne (Hypotheized No. of CE(s)) teste
lhypothse de non-cointgration (r = 0 : relation de cointgration). La deuxime ligne teste lhypothse dune relation de contgration (r = 1), la deuxime ligne teste lhypothse de deux relations de contgration (r = 2)...etc.
Toutes ces hypothses sont testes contre lhypothse alternative que la matrice est de plein rang (cest dire
que toutes les sries sont stationnaires). Dans lexemple ci-dessus, la statistique de la trace ne rejette aucune
des hypothse au seuil de 5% : il ny a donc aucune relation de cointgration car on na pas rejet 0 (None)
relation de cointgration pour au moins une.
Le vecteur de cointgration nest pas identi, moins dimposer une normalisation arbitraire : EV iews
adopte une normalisation de sorte que les r premires sries dans le vecteur Yt soient normaliss une matrice
identit. Dans le cas prsent en haut droite, par exmple, la relation de cointgration normalise qui fait
lhypothse (ctive) dune relation de cointgration est donne par
Normalized Cointegrating Coefficients:
1 Cointegrating Equation(s)
Z1
1.000000
Z2
-0.887939
(0.25230)
Log likelihood
C
13.86919
-385.9191
ce qui donne la relation de cointgration de la forme Z1 0:8873:Z2 + 13:869. Enn, le graphique ci-dessous
montre le scatterplot de (Z1 ; Z2 ), qui montre (graphiquement) quil ny a pas de relation de cointgration a
2 0 Les
185
priori, compte tenu de cette rupture pour les valeurs positives, avec deux tendances distinctes.
20
Z1
-20
-40
-60
-80
-80
-60
-40
-20
20
Z2
Exemple 93 Pour reprendre lexemple introductif, les prix de la douzaine doeufs et dun poulet, bien que
non-stationnaires, ne sont pas pour autant contgres,
400
300
200
100
0
25 30 35 40 45 50 55 60 65 70 75 80 85 90
OEUFS
POULET
omme cela peut se voir sur les sorties des tests de Johansen
Included observations: 67
Test assumption: Linear deterministic trend in the data
Series: OEUFS POULET
Lags interval: 1 to 2
Eigenvalue
Likelihood
Ratio
0.072879
0.059236
9.161157
4.091221
5 Percent
Critical Value
15.41
3.76
1 Percent
Critical Value
Hypothesized
No. of CE(s)
20.04
6.65
None
At most 1 *
POULET
0.003299
0.003287
POULET
-0.738944
(0.20045)
Log likelihood
C
-109.7839
-634.8795
Exemple 94 Pour reprendre lexemple introductif, les P IB franais et lindice de la cnsommation sont des
sries non-stationnaires, et cointgres,
8000
6000
4000
2000
0
60
65
70
75
PIB
80
85
90
95
00
CONSOMMATION
186
comme cela peut se voir sur les sorties des tests de Johansen
Included observations: 39
Test assumption: No deterministic trend in the data
Series: PIB CONSOMMATION
Lags interval: 1 to 1
Likelihood
5 Percent
1 Percent
Eigenvalue
Ratio
Critical Value
Critical Value
0.266578
0.111813
16.71568
4.624333
12.53
3.84
Hypothesized
No. of CE(s)
16.31
6.51
None **
At most 1 *
CONSOMMATION
-0.000961
0.002665
CONSOMMATION
-1.492961
(0.12258)
Log likelihood
-434.1513
10.3
La modlisation V AR (p)
10.3.1
La reprsentation V AR (p)
6
6
Yt = 6
4
Yt1
Yt2
.
.
.
Ytk
6
7
6
7
7 Ai = 6
4
5
a1
1i
a1
2i
.
.
.
a2
1i
a2
2i
.
.
.
ak
1i
ak
2i
.
.
.
a1
ki
a2
ki
ak
ki
6
7
6
7
7 A0 = 6
4
5
a0
1
a0
2
.
.
.
a0
k
(42)
3
6
7
6
7
7 et "t = 6
4
5
"1
t
"2
t
.
.
.
"k
t
3
7
7
7
5
La matrice de covariance des erreurs = E ("0 "t ) est ici inconnue. De la mme faon que dans le cas
t
univariari, on pourra noter
A (L) Yt = A0 + "t
o A est un polynome matriciel (k k); A (z) = I A1 z A2 z 2 ::: Ap z p , et on appera polynme
Remarque 65 Lcriture V AR prsente ici suppose que la ime quation, dnissant Yti ne fasse intervenir
aucun Ytj . Ceci nest pas forcment toujours le cas : considrons les deux processus stationnaires (Xt ) et (Yt )
dnis par les relations suivantes
Xt
"t
i i
1
, ut =
,D=
, A=
et pour i = 1; :::; n Ai =
Zt =
d 1
a
Yt
t
bi ci
avec la convention, par exemple, i = 0 pour p < i n. On supposera que les bruits ("t ) et (t ) sont noncorrls. Il est alors possible dcrire lquation sous forme rduite, obtenue en mutipliant par par D1 :
Zt = + 1 Zt1 + ::: + n Ztn + vt o vt = B 1 ut
On constate que les innovations (vt ) sont alors fonctions des innovations de la forme structurelle, ("t ) et (t ),
et peuvent tre corrls :
0
"t t t d"t
vt =
;
1 d 1 d
187
2
2
Si chacunes des composantes sont i:i:d: les variances sont alors respectivement 2 + 2 = [1 d] et 2 + d2 = [1 d] .
"
"
On constate que lon peut alors toujours se ramener des processus de la forme (42).
Dnition 52 Le processus Yt est stationnaire (au second ordre) si
(i) E (Yt ) = pour tout t
(ii) V (Yt ) est nie et constante
(iii) cov (Yt ; Yt+k ) = E ([Yt ] [Yt+k ]) = k pour tout t
Proprit 50 U,n processus V AR (p) est stationnaire si le polynme caractrisque (dni partir du dtermi
1 0:7z
1 0
0:7 0:4
det
z =
0:2z
0 1
0:2 0:3
0:4z
= 1 z + 0:13z 2
1 0:3z
qui admet pour racines z1 = 0:84 et z2 = 0:15 : le processus nest pas stationnaire.
1 0:2z
1 0
0:2 0:4
det
z =
0:7z
0 1
0:7 0:3
0:4z
= 1 0:5z 0:22z 2
1 0:3z
qui admet pour racines conjugues z1 = 0:25 0:79i et z2 = 0:25 + 0:79i : le processus nest pas stationnaire.
Exemple 97 Le processus dni par
1
1 1
Yt
2
0:2 0:7
Yt1
"t
=
+
+
2
3
0:3 0:4
Yt2
Yt1
"2
t
1 0:2z
1 0
0:2 0:7
det
z =
0:z
0 1
0:3 0:4
0:7z
= 1 0:6z + 0:13z 2
1 0:4z
Les processus V AR (p) peuvent se mettre sous forme V AR (1) en utilisant lcriture suivante. Soit Yt =
0
1
Yt ; ::::; Ytn 2 Rn satisfaisant la reprsentation V AR (p) suivante : pour tout t,
Yt
(n;1)
1
1
Lesprance de ce processus est alors E (Xt ) = E (L) [ + "t ] = (1) c = pour tout t: On peut alors
rcrire (L) [Yt ] = "t . Considrons alors
1
0
0
0
1
1
A1 A2 Ap1 Ap
Yt
"t
C
B In 0n
0n
0n C
B Yt1 C
B
B 0 C
B
B 0n In
C
0n
0n C et = B .n C
Zt = B
C
B . C
C A =B
.
t
.
@
@ . A
A (np;np) B
. C
..
(np;1)
.
(np;1)
. A
@
.
.
0n
Ytp+1
0n 0n
0n
In
188
On peut alors noter que le processus V AR (p) (Yt ) peut se rcrire sous la forme dun processus transform Zt
satisfaisant une reprsentation V AR (1) :
Zt = AZt1 + t
Exemple 98 Considrons le processus bivari dni par
1
1
1 1
Yt
3
0:2 0:7
Yt1
0:4 0:6
Yt2
"t
=
+
+
2
2
1
0:1 0:8
0:3 0:4
Yt2
Yt1
Yt2
"2
t
suivant un modle V AR (2). Le polynme autorgressif A (L) est alors donn par
1 0
0:2 0:7
0:4 0:6
A (L) =
+
L+
L2
0 1
0:3 0:4
0:1 0:8
10.3.2
3
1
2:59
1:80
3 2
32 1
Yt1 2:59
0:2 0:7 0:4 0:6
Yt1 2:59
2
6 Yt2 1:80 7 6 0:3 0:4 0:1 0:8 7 6 Yt1 1:80
6 1
7=6
76 1
4 Yt1 2:59 5 4 1
0
0
0 5 4 Yt2 2:59
2
2
Yt1 1:80
Yt2 1:80
0
1
0
0
3
"1
t
7 6 "2 7
7+6 t 7
5 4 0 5
0
2
Les modles ARMAX sont une gnralisation des processus V AR (p), de la mme faon que les processus
ARM A (p; q) sont une gnralisation des processus AR (p) :
Yt = A0 + A1 Yt1 + ::: + Ap Ytp + "t + B1 "t1 + ::: + Bq "tq
o Ai et Bj sont des matrices k k. Il est possible de distringus les processus V M A (obtenus quand p = 0) :
moyennes mobiles mutivaries.
- les processus V AR sont toujours inversibles, et sont stationnaires si les racines du polynme caractristique
sont lextrieur du disque unit
- les processus V M A sont toujours stationnaires, et sont inversibles si les racines du polynme caractristique
sont lextrieur du disque unit
- les conditions dinversibilit et de stationnarit des processus ARM A dpendent des parties V AR et V MA
du processus.
Remarque 66 Il est possible de montrer que les processus V ARM A peuvent se mettre sous forme V AR (1) :
Soit Yt suivant un modle V ARMA (p; q), tel que
Yt = A1 Yt1 + ::: + Ap Ytp + "t M1 "t1 ::: Mq "tq
et notons
2
Yt
6
.
.
6
.
6
6 Ytp+1
Zt = 6
6
"t
6
6
.
.
4
.
"tq1
"t
0
.
.
.
6
7
6
7
6
7
7
6
7
7
6
7
7
6 0 7
7
7 vecteur de taille K (p + q) et Ut = 6
7
6 "t 7 de taille Kp + Kq
7
6
7
7
6 0 7
7
6
7
5
6 . 7
4 . 5
.
0
189
On posera alors
0
B22
A1
6 IK
6
=6
4
Ap1
Ap
0
.
.
.
IK
M1
6 0
6
=6
4
Mq1
Mq
0
.
.
.
0
3
B=
B11
B21
de taille K (p + q) K (p + q)
B11
B12
B12
..
0
6 IK
6
=6
4
..
0
0
.
.
.
IK
..
7
7
7 de taille Kp Kp ,
5
3
7
7
7 de taille Kp Kq
5
7
7
7 de taille Kq Kq
5
Chacun des paramtres peut tre obtenue soit par mco (moindres carrs ordinaires), soit par maximum de
vraissemblance. Pour un modle V AR stationnaire, la stationnarit de la srie va entraner la convergence et la
normalit asymptotique des estimateurs obtenus par mco, ce qui permet de mener des tests sur les paramtres
du modle, ou de donner des intervalles de conance pour les prvisions. Toutefois, comme nous lavons dj dit
dans le cas univari, les variables conomiques sont souvent intgres (dordre 1 ou plus). Dans ce cas, lcriture
(42) est toujours valable, mais le determinant du polynme charactristique admet des racines de module 1.
Les coecients du modles peuvent toujours tre estims par des mco et les estimateurs obtenus sont toujours
p
convergents (en fait, ils sont mme super-convergents puisquils convergent la vitesse 1=T et non pas 1= T ).
Cependant, ces estimateurs ne sont pas asymptotiquement normaux, et lon peut plus, dans ce cadre, mener les
tests usuels sur les paramtres du modle, ni dterminer dintervalle de conance pour les prvisions.
Cependant, lorsque les variables sont non-stationnaires et cointgres, les rsultats de Engle et Granger (1987)
montrent que la bonne spcication du modle consiste utiliser une forme correction derreur (dvelopp dans
la partie (10:2:1)), qui permet de se ramener une criture ne faisant intervenir que des variables stationnaires,
et dans lesquels il est possible deectuer des tests sur les paramtres du modle.
10.3.4
Autocovariances et autocorrlations
La k-ime autocovariance croise entre la i-ime et la j-ime variable est donne par
h
i
i
j
j
Yth Y
ij (h) = E Yti Y
Remarque 67 La proprit de symtrie valable dans le cas univari nest plus vrie ici : pour h 6= 0,
ij (h) 6= ij (h). En eet, si Yt dpend fortement de Xt1 , ce ne signie pas que Yt dpende, de la mme
faon, de Xt+1 . Et de mme ij (h) 6= ji (h)
La fonction dautocorrlation est alors
ij (h)
ij (h) = q
i (0) j (0)
190
On peut alors noter que (h) = (h)0 , et que les lments sur la diagonale correspondent aux autocorrlations
usuelles.
10.3.5
-2
-4
-6
92
93
94
95
96
Y1
191
97
Y2
98
99
Y1
0:999
0:415
1:22
1:251
2:056
2:847
3:446
1:316
0:436
1:033
0:889
2:096
2:963
0:714
1:109
2:626
1:924
2:899
2:627
0:824
0:16
1:395
1:019
1:303
3:123
0:533
0:427
0:793
2:38
2:66
1:726
1:596
Y2
0:202
2:135
1:734
0:768
2:648
2:387
2:104
1:869
0:443
0:01
0:157
0:949
1:135
1:672
2:234
0:845
1:35
1:449
0:523
0:281
0:695
0:117
1:347
1:329
0:623
0:975
2:129
1:596
1:407
2:467
2:019
1:063
1994 09
1994 10
1994 11
1994 12
1995 01
1995 02
1995 03
1995 04
1995 05
1995 06
1995 07
1995 08
1995 09
1995 10
1995 11
1995 12
1996 01
1996 02
1996 03
1996 04
1996 05
1996 06
1996 07
1996 08
1996 09
1996 10
1996 11
1996 12
1997 01
1997 02
1997 03
1997 04
Y1
0:806
0:79
0:155
0:062
1:259
0:263
0:642
2:391
0:032
0:316
1:717
0:329
2:52
1:36
2:264
3:935
5:133
2:051
2:321
1:767
0:696
0:393
0:586
1:334
0:559
0:696
0:979
0:615
1:173
0:115
0:427
1:618
Y2
1:036
1:188
0:952
2:341
1:138
0:753
1:257
1:385
0:253
0:994
1:68
0:398
1:584
1:163
2:163
3:727
3:934
3:298
0:705
0:308
1:596
0:226
0:203
0:278
0:143
1:111
1:249
1:395
1:409
0:464
1:125
1:52
1997 05
1997 06
1997 07
1997 08
1997 09
1997 10
1997 11
1997 12
1998 01
1998 02
1998 03
1998 04
1998 05
1998 06
1998 07
1998 08
1998 09
1998 10
1998 11
1998 12
1999 01
1999 02
1999 03
1999 04
1999 05
1999 06
1999 07
1999 08
1999 09
1999 10
1999 11
1999 12
192
Y1
2:22
2:171
3:32
1:397
0:555
0:438
1:033
1:972
0:848
0:337
0:074
2:177
1:263
0:246
0:391
1:471
0:363
1:15
2:115
1:75
2:367
1:398
0:7
0:147
1:01
0:728
0:222
0:496
1:734
1:217
1:899
0:373
Y2
2:913
2:405
2:394
0:704
1:461
0:134
1:271
1:024
0:048
0:3
1:264
1:406
0:855
1:389
1:063
0:434
0:776
1:124
2:718
3:002
0:387
1:295
0:258
0:663
0:000
0:535
1:054
0:129
1:292
0:395
0:407
0:227
2
1
Lautocorrlogramme crois permet de reprsenter Y2 !Y1 (h) = corr Yt1 ; Yth et Y1 !Y2 (h) = corr Yt2 ; Yth ,
Estimation dun modle V AR (1) avec constante Estimons le modle suivant sur notre chantillon,
1
1 1
Yt
a1
a11 a12
Yt1
"t
=
+
+
2
Yt2
a2
a21 a22
Yt1
"2
t
qui peut se rcrire
1
2
Yt1 = a1 + a11 Yt1 + a12 Yt1 + "1
t
1
2
Yt2 = a2 + a21 Yt1 + a22 Yt1 + "2
t
Pour estimer les paramtres de ce modle, nous pouvons utiliser les mco sur chacune des quations indpendament :
LS // Dependent Variable is Y1
Sample: 1992:01 1999:12
Included observations: 96
LS // Dependent Variable is Y2
Sample: 1992:01 1999:12
Included observations: 96
Variable Coefficient
Std. Error
T-Statistic
Prob.
Variable Coefficient
Std. Error
T-Statistic
Prob.
C
Y1(-1)
Y2(-1)
0.111804
0.096128
0.104954
-1.961460
1.377344
6.785548
0.0528
0.1717
0.0000
C
Y1(-1)
Y2(-1)
0.126545
0.108802
0.118792
-1.893965
2.018300
3.110149
0.0613
0.0464
0.0025
-0.219299
0.132401
0.712173
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.574829
0.565686
0.976670
88.71123
-132.4279
2.099930
-0.741438
1.481991
-0.016462
0.063674
62.86777
0.000000
-0.239672
0.219594
0.369461
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.333872
0.319547
1.105439
113.6457
-144.3175
1.910206
-0.620939
1.340096
0.231237
0.311373
23.30639
0.000000
4
2
-2
-4
-6
1
-2
-4
-1
-2
-2
-4
-3
92
93
94
95
Residual
96
97
Actual
98
92
99
93
94
95
Residual
Fitted
193
96
97
Actual
98
99
Fitted
Les rsidus estims, b1 et b2 sont alors estims (reprsents ci-dessus). Leur matrice de variance-covariance
"t
"t
est alors
0:924075 0:545083
b
=
0:545083 1:183809
Y1 Residuals
2
Y1
Y2
Y1(-1)
0.132401
(0.09613)
(1.37734)
Y2(-1)
0.712173
(0.10495)
(6.78555)
0.369461
(0.11879)
(3.11015)
-0.219299
(0.11180)
(-1.96146)
0.219594
(0.10880)
(2.01830)
-0.239672
(0.12655)
(-1.89397)
-1
-2
-3
92
93
94
95
96
97
98
99
98
99
Y2 Residuals
R-squared
0.574829
Adj. R-squared 0.565686
Sum sq. resids 88.71123
S.E. equation
0.976670
Log likelihood
-132.4276
Akaike AIC
-0.016462
Schwartz SC
0.063674
Mean dependent -0.741438
S.D. dependent 1.481991
0.333872
0.319547
113.6457
1.105439
-144.3171
0.231237
0.311373
-0.620939
1.340096
3
2
1
0
-1
-2
-3
92
93
94
95
96
97
Toutefois, si lon considre les deux rgressions faite au dbut, on peut noter que la constante nest pas
signicative ( un seuil de 5%) : on peut tester un modle V AR (1) sans constante.
Estimation dun modle V AR (1) sans constante Estimons le modle suivant sur notre chantillon,
1
1 1
Yt
a11 a12
Yt1
"t
=
+
2
Yt2
a21 a22
Yt1
"2
t
qui peut se rcrire
1
2
Yt1 = a1 + a11 Yt1 + a12 Yt1 + "1
t
2
1
2
Yt = a2 + a21 Yt1 + a22 Yt1 + "2
t
Pour estimer les paramtres de ce modle, nous pouvons utiliser les mco sur chacune des quations indpendament :
LS // Dependent Variable is Y2
Sample: 1992:01 1999:12
Included observations: 96
LS // Dependent Variable is Y1
Sample: 1992:01 1999:12
Included observations: 96
Variable Coefficient
Std. Error
T-Statistic
Prob.
Variable Coefficient
Std. Error
T-Statistic
Prob.
Y1(-1)
Y2(-1)
0.095009
0.105881
1.845459
6.940826
0.0681
0.0000
Y1(-1)
Y2(-1)
0.107391
0.119680
2.481746
3.294631
0.0148
0.0014
0.175336
0.734900
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.557240
0.552530
0.991352
92.38113
-134.3737
2.133717
0.266518
0.394300
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
-0.741438
1.481991
0.003241
0.056665
118.3047
0.000000
194
0.308179
0.300819
1.120548
118.0291
-146.1341
1.929628
-0.620939
1.340096
0.248250
0.301674
41.87322
0.000000
0
0
-2
4
-4
2
-6
1
0
-2
2
0
-4
-1
-2
-2
-3
-4
92
93
94
95
Residual
96
97
98
Actual
99
92
93
94
95
96
Residual
Fitted
97
98
Actual
99
Fitted
Les rsidus estims, b1 et b2 sont alors estims (reprsents ci-dessus). Leur matrice de variance-covariance
"t
"t
est alors
0:931916 0:553652
=
0:553652 1:193174
do les expressions des critres AIC et SC,
AIC (1) = ln jj + 2
22
k2 1
= ln 0:805407 + 2 = 0:216407
n
96
22 ln 96
k2 1 ln n
= ln 0:805407 +
= 0:0262263
n
96
Cette estimation peut tre faite directement sous EViews, de faon globale
SC (1) = ln jj +
Y1 Residuals
2
Y1
Y2
Y1(-1)
0.175336
(0.09501)
(1.84546)
0.266518
(0.10739)
(2.48175)
Y2(-1)
0.734900
(0.10588)
(6.94083)
0.394300
(0.11968)
(3.29463)
R-squared
0.557240
Adj. R-squared 0.552530
Sum sq. resids 92.38113
S.E. equation
0.991352
Log likelihood
-134.3733
Akaike AIC
0.003241
Schwartz SC
0.056665
Mean dependent -0.741438
S.D. dependent 1.481991
-1
-2
-3
92
93
94
95
96
97
98
99
98
99
Y2 Residuals
3
0.308179
0.300819
118.0291
1.120548
-146.1337
0.248250
0.301674
-0.620939
1.340096
2
1
0
-1
-2
-3
92
93
94
95
96
97
Comparaison de dirents modles V AR (p) Pour dirents modles V AR (p), les critres AIC et SC
sont
195
V AR (1)
V AR (1)
V AR (2)
V AR (2)
V AR (3)
V AR (3)
V AR (4)
V AR (4)
avec
sans
avec
sans
avec
sans
avec
sans
constante
constante
constante
constante
constante
constante
constante
constante
AIC Y1
0:016462
0:003241
0:018655
0:038084
0:059019
0:074667
0:092828
0:111325
jj
0:796051
0:805407
0:741204
0:749653
AIC Y2
0:231237
0:248250
0:242400
0:254792
0:250520
0:276974
0:289736
0:318514
AIC tot
0:144759
0:216407
0:132813
0:121478
SC Y1
0:063674
0:056665
0:152215
0:144932
0:246003
0:234939
0:333236
0:325021
SC Y2
SC tot
0:311373 0:037911
0:301674 0:026226
0:375960
0:080883
0:361640
0:092217
0:437504
0:437246
0:530143
0:532210
La comparaison des critres AIC pousse choisir un modle V AR (1) sans constante. Le modle retenu
1 1
1
0:175 0:735
Yt1
"t
Yt
b = 0:931916 0:553652
=
+
o
2
0:553652 1:193174
0:267 0:394
Yt2
Yt1
"2
t
10.3.6
h
i
b
b
b
b b
b
b b
b
b b
b1
YT (2) = A0 + A1 YT (1) = A0 + A1 A0 + A1 YT = A0 + A1 A0 + A2 YT
b b1
b b1
2 = 1 + A1 A0 = + A1 A0
b1 b1
b b1 b1 b1
2 = 2 + A2 A20 = + A1 A0 + A2 A20
b
b
b b1 b1 b1
b
b
h = h1 + Ah1 Ah10 = + A1 A0 + A2 A20 + ::: + Ah1 Ah10
1
1
1
1
Des formules analogues existent pour les processus V AR (p). La variance de lerreur de prvision de chacune
des k variables est obtenue sur la diagonale des h : lintervalle de conance de la prvision au niveau 1 =2
est donne par
q
bi
YT (h) t=2 : i;i
h
196
1
0:175 0:735
Yt1
"t
0:931916 0:553652
Yt
=
+
o =
2
0:267 0:394
0:553652 1:193174
Yt2
Yt1
"2
t
On obtient alors la prvision, faite n dcembre 1999, pour le mois de janvier 2000, de la forme
(
1
2
b1
Y200001 = 0:175336:Y199912 + 0:7349:Y199912
2
1
2
b
Y200001 = 0:266518:Y199912 + 0:3943:Y199912
200001
200001
b1
b1
b2
Y200003 = 0:175336:Y200002 + 0:7349:Y200002
b2
b1
b2
Y200003 = 0:266518:Y200002 + 0:3943:Y200002
0:931916 0:553652
h = =
0:553652 1:193174
10.3.7
De la mme faon que pour les modles AR, il convient de vrier que les erreurs correspondent un bruit
blanc. Soit ("t ) le processus derreur, et (h) sa fonction dautocorrlation. Lhypothse tester est alors
H0 : (1) = ::: = (h) = 0
La statistique Q de Box & Pierce peut alors se gnraliser en multivari,
Q (h) = n
h
X
i=1
h
X
i=1
b
b
b
b
trace (i)0 (0)1 (i) (0)1
1
b
b
b
b
trace (i)0 (0)1 (i) (0)1
ni
En dimension 2, considrons deux processus (Xt ) et (Yt ). Le but est de se demander si (Xt ) cause (Yt ), et
de voir dans quelle proportion la valeur courante de (Yt ) peut tre explique par ses valeurs passes, et si en
ajoutant des valeurs retardes de (Xt ), lexplication est meilleure.
Considrons un modle autorgressif;
Xt
X
"t
X (L) XY (L)
=
+
(L) Zt = + ut soit
Yt
Y
t
Y X (L) Y (L)
o on supposera (0) = I, ce qui permettra dinterprter le vecteur ut comme le processus dinnovation.
- (Xt ) ne cause pas (Yt ) au sens de Granger si et seulement si les coecients de Y X sont nuls : Y X (L) = 1
- (Yt ) ne cause pas (Xt ) au sens de Granger si et seulement si les coecients de XY sont nuls : XY (L) = 1
197
Le test peut se faire sous EV iews (Granger Causality) : pour cela, on commence par choisir le nombre de
retards introduire, et lhypothse nulle teste est que (Yt ) ne cause pas (Xt ) dans la premire quation, et que
(Xt ) ne cause pas (Yt ) dans la seconde.
Considrons ici deux vecteurs (ou variables) (Xt ) et (Yt ), respectivement de taille n et m, de telle sorte que
n + m = K; de telle sorte que le processus (Zt ) = (Xt ; Yt )0 soit un processus V AR (p) :
B=
A1
Ap1
Ap
de taille K (Kp + 1) ;
Zt
6
6
6
=6
6
4
1
Zt
Zt1
.
.
.
Ztp+1
7
6
7
6
7
6
7 et Ut = 6
7
6
5
4
0
"t
0
.
.
.
0
3
7
7
7
7
7
5
Le test de lhypothse de causalit est un test de Wald : on cherche tester (H0 ) : R = c contre
b
(H1 ) : R 6= c, o C est une matrice N K 2 p + K de rang N et c est un vecteur RN . Supposons que ,
L
1
b
estimateur de , vrie une proprit de normalit asymptotique, cest dire T ! N 0; ,
L
b
alors T R R ! N 0; R 1 R0 et on a alors
1
L
T (R c)0 R 1 R0
(R c) ! 2 (N )
1
1
b
b
= ZZ 0 et =
uu0
bb
T
T Kp 1
i1
0 h
1
b
b
b
R c
= R c R (ZZ 0 ) R0
qui suit asymptotiquement un chi-deux N degrs de libert. Toutefois, une alternative galement utilise est
de considrer =N qui suit asymptotiquement une loi de Fisher N et T Kp 1 degrs de libert.
Dans le cas du test de causalit de Granger le coecient c est nul, de taille (m n) p, est le vecteur
vec (B) - cest dire la concatnation des vecteurs colonnes de B : le modle de base scrivant de la faon
suivante
X
AX AXY
Xt
MX
AX AXY
Xt1
AX AXY
Xt2
Xtp
"
p
p
1
1
2
2
=
+
+
+:::+
+ t
Yt
MY
AY X AY
Yt1
AY X AY
Yt2
AY X AY
Ytp
"Y
p
p
t
1
1
2
2
on a
B
MX
MY
X
M1
6 .
6 .
6 .X
6 M
= 6 n
Y
6 M1
6
6 .
4 .
.
Y
Mm
AX
1
AY X
1
AX
AXY
2
::: YpX
Y
A2
Ap
AXY
p
AY
p
AXY
1
AY
1
AX
2
AY X
2
AX
1;11
.
.
.
AX
1;n1
.
.
.
AXY
1;11
.
.
.
AXY
1;m1
.
.
.
AX
p;11
.
.
.
AX
p;n1
.
.
.
AXY
p;11
.
.
.
AX
1;1n
AY X
1;11
.
.
.
AX
1;nn
AY X
1;n1
.
.
.
AXY
1;1n
AY
1;11
.
.
.
AX
p;nn
AY X
p;n1
.
.
.
AXY
p;1n
AY
p;11
.
.
.
AY X
1;1m
AY X
1;nm
AY
1;1m
AXY
AX
1;mn
::: p;1n
AY
AY X
1;m1
p;11
.
.
.
.
.
.
Y
YX
A1;mm
Ap;1m
AY X
p;nm
AY
p;1m
et donc
3
AXY
p;m1
7
.
.
7
.
7
AXY 7
p;mn 7
7
AY
p;m1 7
7
.
.
5
.
Y
Ap;mm
X
0
X
Y
Y
(n+m)2 p+n+m
= M1 Mn M1 Mm AX AX AY X AY X AX AY AY
1;11
1;1n 1;11
1;1m 2;11
p;m1
p;mm 2 R
198
La matrice R est alors la matrice remplie de 0 et de 1 permettant de tester la nullit des coecients AXY ,...,AXY ,
1
p
cest dire
3
2
6 nullit de AXY
1;12
6
6 nullit de AXY
1;11
6
.
6
.
6
.
6
6 nullit de AXY
1;mn
6
R=6
6
6
6 nullit de AXY
6
p;11
6
.
6
.
.
6
4 nullit de AXY
p;mn
n+m
0
0
.
.
.
0
0
.
.
.
0
n+m
n(n+m)
0 1 0
0 0 1
. . .
. . .
. . .
0 0 0
.
.
.
0 0 0
.
.
.
0 0 0
m(n+m)
0 0 0
0 0 0
. . .
. . .
. . .
0 1 0
.
.
.
0 0 0
.
.
.
0 0 0
n(n+m)
m(n+m)
0
0 0
0
0 0
. ::: . .
. .
.
. .
.
0
0 0
. :::
.
.
.
.
.
0
1 0
. ::: . .
. .
.
. .
.
m(n+m)
0 0
0 0
0 0
. .
. .
. .
0 0
0 0
. .
. .
. .
0 1
m(n+m)
7
7
7
(n m) 7
7
7
7
7
7
.
7
.
7
.
7
7
7
7
(n m) 7
7
5
On rejette alors (H0 ) (de non-causalit) quand la puissance du test est trs faible (infrieure 5%), et dans
le cas contraire, on ne peut pas rejeter lhypothse de non-causalit (puissance suprieure 5%).
10.3.9
1
X
i = JAi J 0
i "ti o
Yt = +
(43)
= (IK A1 ::: Ap )1 M
i=0
Impact dune impulsion Nous allons tudier ici leet dune innovation dune des variables Yti sur le
systme de K variables. Pour cela, on suppose que Yt = pour t < 0 et quen t = 0, la ime variable augmente
de 1 (soit "j = 0 pour j 6= i et "i = 1). Lide est alors dtudier comme ragit le systme aux dates 1, 2,
t
t
..etc, si aucun autre choc ne survient. Nous supposerons pour la suite que le processus (Yt ) est centr, et que
0
linnovation se fait sur la premire variable. Enn, nous noterons = (1; 0; 0; :::; 0) le vecteur dimpulsion.
Remarque 69 Lide gnrale de lanalyse des chocs (ou fonction de rponse aux innovations) est de rsumer
linformation concernant lvolution dune composante Ytj suite une impulsion sur Yti , la date t = 0, en
supposant que toutes les autres variables sont constantes pour t 0.
En utilisant lcriture V M A (1), on en dduit
Y0 =
1
X
i "ti = 0 + 0 + 0 + ::: =
i=0
199
(car 0 = I)
Y1 =
1
X
i "ti = 0 + 1 + 0 + ::: = 1
i=0
1 0
0
= E ("t "0 ) = ADA0 o A =
et D =
t
1
0
Exemple 99 Dans le cas bivari, on a par exemple la dcomposition suivante
1
0
1 1 = 2
1
1 2
0
2
1
=
1 =2 1
1 2
2
0
1
0
1 2 2
2
2
On pose alors t = A1 "t : on remarque que les innovations (t ) sont alors des combinaisons linaires des
innovations du modle initial ("t ), qui sont indpendantes (ou tout du moins non corrles) :
0
1
1
E ( t 0 ) = A1 E ("t "0 ) A1 = A1 (A0 ) = A1 ADA0 (A0 ) = D
t
t
Un processus bivari (Yt ) dnit par un modle V AR (1) de la forme suivante
devient alors
Xt = 0 + 1 Xt1 + 2 Yt1 + X
t
Yt = 0 + 1 Xt1 + 2 Yt1 + 1 = 2 :X + Y
t
t
Lide
Y est alors de considrer un choc unitaire non pas sur une composante de ("t ) mais sur la composante
t : la date t = 0, ( t ) = (0; 1)0 .
En partant de la dcomposition des rsidus en innovations orthogonales, on peut
i alors calculer la contribution
de chaque innovation la variance totale de lerreur de prvision du processus Xt : cest cela que lon appelle
dcomposition de la variance. Considrons le processus (Xt ) admettant la reprsentation V AR (p) suivante
A (L) Yt = Yt A0 A1 Yt1 ::: Ap Ytp = M + "t
On suppose que le bruit blanc ("t ) est de matrice de variance-covariance : On suppose que ce processus est
stationnaire, de telle sorte quil puisse tre reprsent sous forme la V MA (1) suivante
Yt = + "t + 1 "t1 + ::: + i "ti + ::: = + (L) "t
Lerreur de prvision faite en T horizon h scrit sous la forme
b
XT +h XT (h) = XT +h EL (XT +h jXT ; XT 1 ; :::; X1 )
= XT +h EL (XT +h j"T ; "T 1 ; :::; "1 ) = "T +h + 1 "T +h1 + ::: + h1 "T +1
200
Lesprance vaut alors 0 (les bruits blancs tant, par dnition, des processus centrs), et la matrice de variancecovariance est alors donne par
0
bT (h) XT +h XT (h)
b
E XT +h X
= + 1 0 + ::: + h1 0
1
h1
Cette erreur de prvision est alors exprime en fonction de la matrice de variance-covariance des rsidus (non
diagonale). Comme prcdemment, considrons la transformation t = A1 "t ou "t = A t , o = ADA0 :
2 1 3
2 1 3
"t
t
6 . 7
6 . 7
"t = 4 . 5 = [a1 ; a2 ; :::; an ] 4 . 5 o ai 2 Rd
.
.
"d
t
Ds lors
d
t
= E ("t "0 ) = a1 a0 V 1 + a2 a0 V 2 + ::: + ad a0 V d
t
1
t
2
t
d
t
En substituant alors cette expression dans la variance de la prvision pour un horizon h, cela permet de
rexprimer cette variance en fonction de la variance des innovations orthogonales :
0 X
0
bT (h) XT +h XT (h)
b
V j 1 (a1 a0 ) 0 + ::: + h1 ah1 a0
=
E XT +h X
t
1
1
h1 h1
j=1
0
V j 1 (a1 a0 ) 0 + ::: + h1 ah1 a0
1
1
h1 h1
t
Exemple 100 Sur lexemple considr dans la partie prcdante, le graphique ci-dessous correspond aux rponses
aux fonctions dimpulsion, respectivement sur la variable (Y1 ) gauche et (Y2 ) droite
Response of Y1 to One S.D. Innovations
1.0
1.0
0.8
0.8
0.6
0.6
0.4
0.4
0.2
0.2
0.0
0.0
1
Y1
10
Y2
Y1
10
Y2
Variance Decomposition of Y2
100
80
70
80
60
60
50
40
40
20
30
0
1
5
Y1
20
10 1
Y2
5
Y1
201
7
Y2
10
10.4
Nous allons considrer ici lexemple dvelopp par Ltkepohl (1991), Introduction to Multiple Time Series
Analysis, dans le chapitre 3: La base considre contient 22 ans de donnes trimestrielles, avec linverstissement
(X), le revenu (Y ) et la consommation (Z).
2500
0.2
2000
0.1
1500
0.0
1000
-0.1
500
-0.2
0
60
62
64
66
CONSOMMATION
68
70
72
74
60
76
INVESTISSEMENT
62
64
66
68
RDMT_CONS
REVENU
70
72
74
RDMT_INV
76
RDMT_REV
Le graphique ci-dessus gauche reprsente, en donnes brutes, alors que le graphique de droite correspond aux
rendements : on posera alors Ct = log (Zt ) log (Zt1 ), It = log (Xt ) log (Xt1 ) et Rt = log (Yt ) log (Yt1 ).
Remarque 70 Un test de cointgration peut tre men rapidement, en reprsentant les scatterplots des
direntes variables,
2000
700
2500
1000
500
2000
500
REVENU
INVESTISSEMENT
CONSOMMATION
600
1500
400
500
100
200
300
400
500
INVESTISSEMENT
600
700
1000
300
200
0
100
1500
0
0
500
1000
1500
2000
2500
REVENU
Comme le montrent les graphiques ci-dessus, seul le couple (Zt ; Yt ) semble cointgr.
202
500
1000
1500
CONSOMMATION
2000
Le tableau ci-dessous donne direntes statistiques de choix pour des modles V AR (p) dirents21 :
Retards
1
2
3
4
AIC
24:50
24:59
24:41
24:36
HQ
24:38
24:37
24:07
23:90
SC
FPE
24:41 2:500
24:02 2:272
23:55 2:748
23:21 2:910
Ltkepohl retenait, en utilisant le critre AIC dAkaike et le F P E (critre que lon cherche minimiser ), un
modle V AR (2) ;
Zt = M + A1 Zt1 + A2 Zt2 + "t
Lestimation des paramtres donne les rsultats suivants
2
3
2
3 2
32
It
0:0167
0:3196 0:1460
0:9612
4 Rt 5 = 4 0:0158 5 + 4 0:0439 0:1527 0:2885 5 4
Ct
0:0129
0:0024 0:2248 0:2640
2
32
3 2 1
bt
"
0:1606 0:1146 0:9344
It2
+ 4 0:0500 0:0192 0:0102 5 4 Rt2 5 + 4 b2
"t
0:0339 0:3549 0:0222
Ct2
b3
"t
o la matrice de variance-covariance peut etre estime par
2
3
212:96 7:16 12:3
b
= 4 7:16 13:73 6:15 5 105
12:3
6:15 8:92
3
It1
Rt1 5
Ct1
3
(44)
2mK 2
T
o T est le nombre dobservation, m le nombre de retards, K le nombre de variables, et m est lestimateur (du maximum de
vraissemblance )de la matrice de variance-covariance du bruit.
HQ est le critre de Hanna-Quinn, dni par
AIC (m) = ln (det (m )) +
HQ (m) = ln (det (m )) +
2 ln (ln T )
mK 2
T
ln T
mK 2
T
T + Km + 1 K
F P E (m) =
det (m )
T Mk 1
203
i1
0 h
1 b
1
b
b
R c = 1:59
R c R (ZZ 0 ) R0
4
alors que le quantile 95% de la loi de Fisher F (4; 66) vaut 2:5. Aussi, au niveau 5%, on ne peut pas rejeter
lhypothse de non-causalit des variables revenu et investissment sur la consommation. En revanche, un test
de non-causalit instantane revient tester si est de la forme
2
3
0 0
=4 0 5
0
La prvision peut se faire en utilisant lcriture V AR (2), estime par (44), compte tenu du fait que les
deux derniers points sont
2
3
2
3
0:02551
0:03637
ZT 1 = 4 0:02434 5 et ZT = 4 0:00517 5
0:01319
0:00599
La prvision optimale se fait alors, de faon rcursive,
2
3
2
3
0:011
0:011
b
b
b
ZT (1) = M + A1 ZT + A2 ZT 1 = 4 0:020 5 , ZT (2) = M + A1 ZT (1) + A2 ZT = 4 0:020 5 ...etc
0:022
0:015
la faon suivante
3
1:351
0:674 5 104
0:978
Les matrices de variance covariance des ordres plus levs se calculent laide de la forme V M A (1), et
donnent
2
3
25:12 0:580 1:300
b
Y (2) = 4 0:580 1:581 0:586 5 104
1:300 0:586 1:009
204
Nous allons maintenant tudier les fonctions rponses une impulsion. Pour cela, rappelons que les deux
premires composantes de la forme V M A (1) sont
2
3
2
3
0:319 0:145
0:961
0:054 0:621 0:415
b
b
b b
b
b
1 = 4 0:043 0:152 0:288 5 = A1 et 2 = 4 0:028 0:113 0:088 5 = A1 1 + A2
0:002 0:224 0:263
0:045 0:260 0:109
b
b
b
b
b
En notant 0 = I, et i = 0 + 1 + ::: + i , on a alors les estimations suivantes, avec, entre parenthses, les
intervalles de conance
i
b
i
0:146
0:320
(0:562)
(0:125)
0:961
(0:657)
3 2
6
7
6 0:044 0:153 0:289 7
6 (0:032)
(0:167) 7
(0:143)
4
5
0:002 0:225 0:264
(0:115)
(0:134)
2 (0:025)
3
0:054 0:262 0:416
(0:546)
(0:663)
6 (0:129)
7
6 0:029 0:114 0:088 7
6 (0:032) (0:135) (0:162) 7
4
5
0:045 0:261 0:110
2 (0:026) (0:108) (0:131) 3
0:353 0:408
0:119
(0:384)
(0:476) 7
6 (0:084)
6 0:009 0:071
0:120 7
6 (0:016)
(0:078)
(0:094) 7
4
5
0:001 0:098 0:091
(0:017)
(0:078)
(0:102)
0:680
(0:125)
6
6 0:044
6 (0:032)
4
0:002
2 (0:025)
0:626
6 (0:148)
6 0:073
6 (0:043)
4
0:043
(0:033)
2
0:745
6 (0:099)
6 0:064
6 (0:037)
4
0:042
(0:033)
b
i
0:146
0:756
0 0 0
6 (0:133)
6 0:076
b
b
lim i = 4 0 0 0 5 et lim i = 6 (0:048)
i!1
i!1
4
0 0 0
0:053
(0:043)
(0:562)
0:961
(0:657)
7
0:289 7
(0:143) (0:167) 7
5
0:225 0:736
(0:115) (0:134)
3
0:408 1:377
(0:651) (0:755) 7
0:961 0:200 7
(0:192) (0:222) 7
5
0:486 0:846
(0:144) (0:167)
3
0:761 0:969
(0:483) (0:550) 7
1:033 0:320 7
(0:176) (0:203) 7
5
0:388 0:937
0:847
(0:156)
(0:183)
0:866
1:295
(0:661)
1:076
(0:236)
0:505
(0:213)
7
0:344 7
(0:285) 7
5
0:964
(0:798)
(0:257)
Ceci peut se rprsenter sur les graphiques ci-dessous, avec limpact sur la consommation dun choc de 1 sur
le revenu la data t = 0, avec limpact aux direntes dates gauche, et limpact cumul droite,
0.6
1.0
0.4
0.8
0.2
0.6
0.0
0.4
-0.2
0.2
0.0
-0.4
1
CONSOMMATION
CONS_INF
CONS_SUP
CONSOMMATION
205
CONS_INF
CONS_SUP
10.5
Nous allons ici voir les proprits des modles conomtriques de la forme Y = X + ", o, contrairement aux
modles conomtriques, les observations (de la variable expliquer Y ) Y1 ; Y2 ; :::; Yi ; :::; Yn ne sont pas observes
pour des individus dirents (et peuvent alors tre supposes indpendantes)mais sont des observations temporelles Y1 ; Y2 ; :::; Yt ; :::; Yn . Nous supposerons ici la fonction de rgression dpend des valeurs retardes dune
ou de plusieurs variables dpendantes.
10.5.1
On pense souvent quune variable dpendante (Yt ) dpend de la valeur actuelle et dun certain nombre de
valeurs retardes dune variable indpendante (Xt ). Une modlisation de ce genre consiste utiliser un modle
retards chelonns tel que
Yt = +
q
X
j=0
(45)
Le problme consiste alors estimer la constante et les coecients j . Le nombre entier q est ici la longueur
du dernier retard. Dans certains cas, imaginer que q est inni peut avoir du sens, mais nous supposerons pour
linstant quil prend une valeur nie. La fonction de rgression pourrait tout fait dpendre dautres variables
explicatives, mais nous ne considrerons ici que le cas o intervient une seule variable explicative poour conserver
des notations simples.
Le problme avec un tel modle est que, parce que Xt sera - a priori - fortement corrl Xt1 , Xt2 , ...etc,
et donc les estimations par moindres carrs des coecients j devraient tre assez imprcises. Sauf si cest
b
b
limpact long terme qui nous intresse. Soit V la matrice de covarinace du vecteur estimateur mco du
b
vecteur = 0 ; 1 ; :::; q . Alors, si dsigne la somme des j , la variance de b
b
V (b) =
q
X
j=0
q j1
XX
b
b b
V j + 2
cov i ; j
j=0 i=0
Si Xtj est corrl positivement Xtk pour tout j 6= k, les termes de covariance dans lexpression ci-dessus
seront gnralement ngatifs. Lorsquils sont importants et ngatifs, comme cest souvent le cas, V (b) peut tre
b
b ou mme que chaque V . Si cest le paramtre qui nous intresse
plus petite que la somme des V j
j
plutt que les j individuels, lapproche la plus simple consiste estimer une version reparamtre de (45) par
moindres carrs. Cette version scrit alors
Yt = + Xt +
q
X
j=1
Lavantage de cette criture est que lcart type de est disponible immdiatement dans les rsultats de la
b
rgression.
La colinarit peut tre un problme important si lon sintresse aux j . Lapproche la plus connue pour
rsoudre ce problme consiste employer les retards chelonns polynomiaux, ou P DL. Ces derniers sont
quelquefois appels retards dAlmon, suite larticle dAlmon (1965).
Dans un polynme de retards chelonns, les coecients j de (45) doivent apparatre dans un polynme
de degr d donn. Par, si le polynme tait du second degr, nous aurions
j = P (j) = 0 + 1 j + 2 j 2 pour tout j = 0; :::; q
(46)
Si q > 2, on peut noter quil y aura moins de paramtres i que j et, par consquent, cette relation impose
q 2 contraintes sur les j . Lestimation dun modle soumis des contraintes imposes par un P DL est
206
assez immdiate. Par exemple, pour estimer (45) soumis (46), nous pouvons remplacer simplement les j par
0 + 1 j + 2 j 2 , cest dire
Yt = + 0
q
X
Xtj + 0
j=0
q
X
jXtj + 0
j=0
q
X
j 2 Xtj + "t
(47)
j=0
Ceci est un exemple de modle P DL(q; 2). Un modleP DL(q; d) doit toujours tre tel que d < q. En fait, les
contraintes imposes aux j sont simplement des contraintes linaires. La rsolution de (46) montre que
3 + 3 2 3 1 + 0 = 0
4 + 3 3 3 2 + 1 = 0
5 + 3 4 3 3 + 2 = 0
::: et ainsi de suite
On peut rcrire ces contraintes sous la forme R = 0 o la matrice R serait dans ce cas
2
3
1 3 3 1 0
0 0 0 0 0
6 0 1 3 3 1 0 0 0 0 0 7
6
7
6
1 3 3 1 0 0 0 0 7
R=6 0 0
7
6 .
.
.
.
.
.
.
.
.
. 7
.
.
.
.
.
.
.
.
. 5
4 .
.
.
.
.
.
.
.
.
.
.
0 0
0
0
0
0 1 3 3 1
Puisque les contraintes sont linaires, on peut les tester facilement, par exemple laide dun test de Fisher
: le modle contraint est (47)), le modle non contraint est (45), et le nombre de contraintes dans ce cas est
q 2 (de faon plus gnrale, pour un modle P DL(q; d), il y aura q j contraintes).
Ainsi, on peut tester un modle P DL(q; d) contre un modle P DL(q; d + 1) en utilisant un test de Fisher.
La meilleure approche consiste dbutanter par une valeur importante de q et en examinant la dtrioration
de la qualit de lajustement du modle en diminuant sa valeur, sans imposer aucun contrainte sur la forme des
retards chelonns. Une fois que q est dtermin, on peut ensuite dterminer d, en dbutant avec une valeur
importante et en la rduisant au fur et mesure. Sargan (1980) a propos un exemple empirique dans Some
tests of dynamic specication for a single equation.
Une variante intressante a t propose par Shiller (1973) : comme nous lavons vu, les contraintes imposes
par un P DL peuvent toujours scrire sous la forme R = 0 pour une matrice R de dimension r k o r = q d
et k est le nombre dlments de (gnralement suprieur q + 1). Shiller suggra quau lieu de stipuler
que chaque ligne de R soit nulle, il proposa quelle soit gale une variable alatoire desprance nulle et de
variance nie. Lun des avantages de cette approche est que d peut tre trs faible sans pour cela imposer des
contraintes trop fortes sur les donnes. Puisque les estimations nont pas besoin de se conformer exactement
la forme du polynme, d = 2 est, dans la pratique, souvent susante. Ce genre de contrainte est appel
contrainte stochastique, parce quelle nest pas senses tre vrie exactement. Les contraintes stochastiques
sont trs direntes de nimporte quel autre type de contraintes dont nous avons discut. Cest ainsi que la
phase destimation est relativement plus complique que dans le cas prcdant, et repose le plus souvent sur
des rsultats de statistique baysienne. Des complments sur ce point peuvent tre trouvs dans Davison et
MacKinnon.
10.5.2
Un modle dynamique simple, et trs frquent dans la littrature, est le modle dajustement partiel,
dont lhitoire en conomie remonte assez loin puisquil date de Nerlove (1958). Dans le cadre dun modle de
politique conomique, supposons que le niveau dsir dune variable conomique (Yt ) quelconque. soit (Yt ), qui
est suppos tre reli un vecteur de variables explicatives exognes (Xt ) par la relation
0 1
1
d B . C
Yt = Xt + "t = Xt ; :::; Xt @ . A + "t
.
d
207
Suppons que la variable (Yt ) sajuste vers (Yt ), la valeur ralise, laide dune relation de la forme
Yt Yt1 = (1 ) (Yt Yt1 ) + t
Ces deux quations permettent dobtenir la relation suivante
Yt
o = (1 ) et ut = (1 ) "t + t . Cet ajustement nest toutefois pertinent que si 0 < < 1 et si nest
pas trop proche de 1 (sinon la vitesse dajustement est trop faible) De faon itrative, on peut montrer que ce
modle se rcrit
3
2
3
2
+1
+1
+1
X
X
X
(48)
j [Xtj + utj ] = 4
j Xtj 5 + 4
j utj 5
Yt =
j=0
j=0
j=0
Ainsi ce modle corrige une dfaillance majeure que nous avions dj remarque dans les modles retards
chelonns: (Yt ) dpend maintenant autant des valeurs retardes de lala ("t ) que des valeurs retardes des
variables exognes (Xt ). Notons que la solution de (48) repose sur lhypothse que jj < 1, qui est une condition
de stationnarit pour ce modle.
Le modle dajustement partiel nest quun des nombreux modles conomiques que lon peut utiliser pour
justier la prise en compte dun ou de plusieurs retards des variables dpendantes dans la fonction de rgression. Dhrymes (1971) et Hendry, Pagan, et Sargan (1984) discutent de nombreux autres modles. Si nous ne
discuterons pas ici ces modles, nous nous concentrerons ici sur quelques rsultats dordre gnral qui peuvent
survenir lorsque lon tente de spcier et destimer des modles de rgression dynamiques.
Un problme qui se manifeste chaque fois que la matrice X contient des variables dpendantes retardes est
que lestimation mco par moindres carrs ne produisent pas des estimations sans biais. Ce problme survient
parce que X est une matrice stochastique, dont certains lments sont corrls quelques lments de u. Ainsi
on peut en particulier noter que
1
1
E (X 0 X) X 0 u 6= (X 0 X) X 0 :E (u)
Ceci peut se noter sur lexemple trs simple des modles AR (p) : supposons que (Yt ) soit un processus AR (1)
Yt = Yt1 + ut o jj < 1 et (ut )
Lestimation mco de est donn par
P
P
Pn
Pn
2
n Yt1 + n ut Yt1
t=2
t=2
t=2 Yt Yt1
t=2 ut Yt1
b
Pn
= Pn
=
= + Pn
2
2
2
t=2 Yt1
t=2 Yt1
t=2 Yt1
(49)
Le second terme dans lexpression la plus droite de (49) nest pas desprance nulle, parce que le numrateur et
le dnominateur ne sont pas indpendants. Son esprance est dailleurs assez dicile dterminer. La conclusion
est alors la suivante
A retenir 10 Dans tous les modles pour lesquels il y a des variables dpendantes retardes, lestimateur mco
est biais
b
Par contre, videmment, lestimateur obtenu par mco est convergent. Si lon divise la fois le numrateur
et le dnominateur du terme alatoire du membre le plus droite de (49) par n et si lon prend les limites en
probabilit, on obtient
Pn
t=2
b = + p limn!1 Pn ut Yt1 =
p lim
2
n!1
p limn!1 t=2 Yt1
208
10.5.3
Ces modles sont prsents ici dans le cas simple o (Yt ) est la variable expliquer et (Xt ) la variable explicative
(ce type de modles peut toutefois se gnraliser un ensemble plus vaste de variables explicatives). La forme
gnrale scrit
p
q
X
X
Yt = +
i Yti +
j Xtj + "t o "t s BB 0; 2
i=1
j=1
ou bien, en utilisant des polynmes doprateurs retard, B (L) Yt = + (L) Xt + "t . Un cas particulier, mais
relativement utilis est le modle ADL (1; 1)
Yt = + 1 Yt1 + 0 Xt + 1 Xt1 + "t
(50)
Nous tudierons ici le modle ADL(1; 1), la plupart des rsultats tant aisment gnralisables aux modles
ADL(p; q). Le cas o 1 = 1 = 0 correspond au modle gnral de rgression linaire (statique, tel quil est
tudi en cours dconomtrie), le cas 0 = 1 = 0 correspond au modle AR (1) tel quil est tudi au dbut de
ce cours, le cas o 1 = 1 et 1 = 0 correspond au modle en dirences premires...etc. Le modle ADL(1; 1)
fournit ainsi une alternative naturelle contre laquelle on peut tester nimporte lequel de ces cas particuliers.
Nous allons tudier ici la faon dont (Xt ) inuence (Yt ) long terme, dans un modle ADL (1; 1) :Sans
lala ("t ), (Xt ) et (Yt ) convergeraient vers des valeurs de long terme (stables) X et Y telles que Y =
+ 1 Y + 0 X + 1 X , cest dire que
Y =
+ 1
+ 0
X =
+ X
1 1
1 1
1 1
o peut alors tre vue comme une lasticit. Toutefois, ce rsultat nest pertinent que si j 1 j < 1, ce qui est
une conditon de statibilit pour ce modle.
Une des caractristiques intressantes et importantes des modles ADL est que lon peut les crire de
direntes faons : par exemple, (50) peut tre crit sous les formes suivantes (toutes quivalentes) :
(1)
(2)
(3)
(4)
(5)
Yt
Yt
Yt
Yt
Yt
o est loprateur des dirences premires, = (1 L). Si lon sintresse la somme des i , les estimations
et les carts types sobtiennent directement partir de lestimation par mco de (2) ou (3), et si lon sintresse
, elles peuvent tre obtenues par une estimation par moindres carrs non-linaires de(5). La plus intressante
de ces spcications est sans doute (5), dans laquelle le modle est crit sous la forme que lon appelle forme
correction derreur. Le paramtre apparat directement dans cette forme du modle. Et bien que la forme
correction derreur soit non linaire, lestimation peut se faire facilement parce que le modle est simplement
un modle linaire soumis une contrainte non linaire. La dirence entre Yt1 et Xt1 mesure limportance
de la dfaillance de la relation dquilibre de long terme entre (Xt ) et (Yt ). On appelle alors souvent le terme
( 1) (Yt1 Xt1 ) qui apparat dans (5) terme de correction derreur, et le modle est alors appel modle
correction derreur, ou ECM.
Ce quil convient de retenir sur cette partie, cest que lorsque lon tente de spcier des modles de rgression
dynamiques, il existe, en gnral, plusieurs manires a priori de le faire.
10.6
Conseils bibliographiques
209
11
Les modles ARCH ont t introduits par Engle en 1982, puis gnraliss en modles GARCH en 1986 par
Bollerslev. Lanalogie entre les modles ARCH en temps discret et les modles de diusion en temps continu a
t tablie par Nelsen en 1990. Ce analogie a permis, en particulier, le dveloppement des modles volatilit
stochastique. Un des apports des modles ARCH tait de mieux sajuster aux donnes (en particulier aux
donnes nancires) que ne le faisaient les modles ARM A. Considrons la srie suivante, correspondant au
rendement de lindice CAC40
0.08
800
Series: CAC40
Sample 2 3315
Observations 3314
0.04
600
Mean
Median
Maximum
Minimum
Std. Dev.
Skewness
Kurtosis
0.00
400
-0.04
200
Jarque-Bera
Probability
0
-0.075 -0.050 -0.025
-0.08
500
1000
1500
2000
2500
0.000
0.025
0.050
0.000644
0.000597
0.070452
-0.072933
0.012226
-0.114047
5.162046
652.6468
0.000000
0.075
3000
CAC40
160
Series: ARMA
Sample 1 2000
Observations 2000
4
120
2
0
Mean
Median
Maximum
Minimum
Std. Dev.
Skewness
Kurtosis
80
-2
40
-4
Jarque-Bera
Probability
-6
0
-5.00 -3.75 -2.50 -1.25 0.00
-8
500
1000
1500
1.25
2.50
0.028070
0.037485
4.461123
-4.798971
1.425617
-0.063327
3.021379
1.374873
0.502863
3.75
2000
ARMA
En eet, le processus AR (1) est un processus gaussien : les queues de distribution sont moins paisses que les
queues observes sur la variation de lindice CAC40, et on nobserve pas de priode de haute volatilit. Les
210
modles ARCH (simul ci-dessous) permettent, eux, de mieux prendre en compte ce genre de comportement :
8
6
500
Series: ARCH
Sample 1 2000
Observations 2000
4
400
Mean
Median
Maximum
Minimum
Std. Dev.
Skewness
Kurtosis
300
0
-2
200
-4
-0.019286
0.018501
6.054874
-6.605945
1.006716
-0.419740
6.479866
100
Jarque-Bera
Probability
-6
1067.850
0.000000
0
-6
-8
500
1000
1500
-4
-2
2000
ARCH
Les queues de distribution peuvent tre plus paisses que celles des lois normales (kurtosis de 6:5 avec les
paramtres choisis), et on observe, comme sur les donnes empiriques, des zones de forte volatilit.
Ces modles non-linaires permettent davoir des proprits que navaient pas les modles linaires (ARMA),
et permettent ainsi de modliser de faon plus raliste un grand nombre de donnes, en particulier les donnes
nancires.
11.1
Dnition 54 Stationnarit au second ordre - Un processus (Yt ) est dit stationnaire au second ordre si
- la moyenne du processus est constante : E (Yt ) = m pour tout t 2 Z
- les autocovariances ne dpendent que de la dirence entre les observations : cov (Xt ; Xs ) = (jt sj)
Cette dernire proprit implique en particulier que la variance de (Yt ) est constante en fonction du temps
: V (Yt ) = 2 .
Dnition 55 Stationnarit au sens fort - Un processus (Yt ) est dit stationnaire au sens fort si quel que
soit n, t1 ; :::; tn et h, on a lgalit entre les lois jointes
L (Yt1 ; :::; Ytn ) = L (Yt1 +h ; :::; Ytn +h )
Thorme 9 Thorme de Wold - Soit (Yt ) un processus stationnaire au second ordre. Alors (Yt ) peut
scrire
1
X
i "ti o "t est un bruit blanc au second ordre
Yt = c0 +
i=0
Lcriture est ici plus simple que dans le thorme (7) puisque lon impose plus ici de contraintes pour avoir
unicit de la dcomposition.
Thorme 10 Thorme de Volterra - Soit (Yt ) un processus stationnaire au sens fort. Alors (Yt ) peut
scrire
Yt = c0 +
1
X
i=0
11.2
i "ti +
1
X
i;j=0
ij "ti "tj +
1
X
ijk "ti "tj "tk + ::: o "t est un bruit blanc fort gaussien
i;j;k=0
Soit (Xt ) un processus AR (1), tel que Xt = Xt1 + "t o "t s N 0; 2 , alors
V (Xt ) =
1
2 et V (Xt jXt1 ) = 2
1 2
211
2
Soit (Xt ) un processus ARCH (1), tel que Xt = "t 0 + 1 Xt1 o "t s N 0; 2 , alors
2
V (Xt jXt1 ) = 0 + 1 Xt1 2
Dnition 56 On dit que le processus (Xt ) suit un processus ARCH (p) sil est dni par une quation de la
forme
p
X
p
2
i Xti
Xt = "t ht o ht = 0 +
i=1
2
Xt
"
= "t 0 +
p
X
2
i Xti
i=1
2
Ce nest plus le processus (Xt ) que lon cherche modliser, mais le processus Xt .
2
Exemple 101 Les graphiques montrent lvolution des processus Xt dans le cas dun modle ARM A
gauche, dun modle ARCH (1) au centre, et du rendement de lindice CAC40 droite
30
100
25
80
0.006
0.005
0.004
20
60
0.003
15
40
0.002
10
20
0.001
5
0
0
500
1000
1500
2000
0.000
500
1000
1500
2000
500
1000
ARCH2
ARMA2
1500
2000
2500
3000
CAC402
q
2
Dnition 57 Le processus (Xt ) est un processus ARCH (1) si Xt = "t 0 + 1 Xt1 o ("t ) est un bruit
p
2
blanc gaussien, "t s N 0; 2 . On notera gnrallement ht = 0 + 1 Xt1 , et donc Xt = ht :"t .
Dans le cas o ("t ) est un bruit blanc fort ("t i:i:d:) gaussien, alors ("t ) peut tre vu comme une dirence de
martingale. Pour que le processus (Xt ) soit stationnaire au second ordre, la variance marginale de (Xt ) soit tre
constante. Or V (Xt ) = 0 + 1 V (Xt1 ) ; cest dire que lon doit avoir 1 < 1, et donc V (Xt ) = 0 = (1 1 ).
E Xt jXth = 0
Aussi,
0
1 h
1
2
V Xt jXth = 0
+ 1 Xth et V (Xt ) =
1 1
1 1
(51)
Comme nous lavions vu en introduction, les modles ARCH permettent davoir des processus avec des
queues de distribution plus paisses que les processus ARM A: La kurtosis conditionnelle est obtenue laide
de la relation
2
4
2
E Xt jXt1 = 3 0 + 1 Xt1
et la kurtosis la date t est
4
4
21 2
32 (1 + 1 )
0
0
2
2
+ 1 E Xt1 =
E Xt = 3 0 +
1 1
(1 32 ) (1 1 )
1
La condition dexistence du moment dordre 4 est 32 < 1, et on en dduit alors lexpression de la kurtosis
1
4
E Xt
1 2
1
=
2 = 3 1 32 > 3 (cas de la loi normale)
2
E (Xt )
1
Les queues de la distribution marginale dun processus ARCH (1) sont donc plus paisses que pour un processus
gaussien (on parlera de distribution leptokurtique).
11.2.2
Les modles ARCH (p) sont des extensions des modles ARCH (1) : Les modles ARCH (1) taient
2
Xt = "t ht o h2 = 0 + 1 Xt1 et "t s N 0; 2
t
et les modles ARCH (p) font intervenir plusieurs retards,
Xt = "t ht o h2 = 0 +
t
p
X
i=1
2
i Xti et "t s N 0; 2
La volatilit de la date t est alors fonction des carrs des carts la moyenne observs dans le pass proche.
Si les coecients i sont tous positifs (et assez grands), il y a une persistance des niveaux de volatilit : on
observe des priodes de forte volatilit suivies de priode de faible volatilit. On peut alors crire
E Xt jXt1 = 0
p
X
2
2
2
E Xt jXt1 = ht = 0 +
i Xti
i=1
11.2.3
Ces modles ont t introduits par Bollerslev en 1986, inspirs de la dmarche de Box et Jenkins, avec une
dynamique autorgressive,
Xt = "t ht o h2 = 0 +
t
p
X
2
i Xti +
i=1
q
X
j=1
j h2 et "t s N 0; 2
tj
On peut noter tout dabord que, sous cette forme, les coecients p et q ne sont pas
analogues ceux des modles
ARM A : en particulier, q correspond au caractre autorgressif du processus h2 . On a alors
t
E Xt jXt1 = 0
p
q
X
X
2
2
E Xt jXt1 = h2 = 0 +
i Xti +
j h2
t
tj
i=1
213
i=1
11.3
Nous allons considrons un processus (Xt ) dont la dynamique est rgie par un processus de type AR (1) :
Xt = Xt1 + "t
Dans la partie sur les processus ARIMA, nous avions tudier le cas o ("t ) correspondait un bruit blanc,
cest dire non-autocorrl avec son pass.
11.3.1
Nous allons regarder les proprits de (Yt ), processus autorgressif, dans le cas o ("t ) nest plus un bruit blanc,
en particulier lorsque ("t ) est un processus AR (1), "t = "t1 + t , et lorsque ("t ) est un processus ARCH (1),
q
"t = t 1 + "2 . Le premier cas correspond aux modles ARMA, et le second correspond aux modles
t1
autorgressifs erreurs ARCH.
Considrons le modle
8
1 h
+ Yth
E Yt jYth = + E Yt1 jYth =
1
et sa variance conditionelle, en utilisant (51)
V Yt jYt1 =
"
#
c
1 2h
h 2h
h 2h 2
"th
+
2
2
1 1
Dans le cas derreurs ARCH, la condition (1) : E "t j"t1 = 0 signie que ("t ) est un bruit blanc faible qui
satisfait la condition de dirence de martingale, et dont la variance conditionelle V "t j"t1 suit un processus
ARCH (1) : "2 = c + "2 + t , o (t ) est un bruit blanc gaussien. Les proprits du processus dinnovation
t
t1
("t ) sont alors les suivantes,
Proprit 53 (i) Le processus ("t ) est orthogonal aux valeurs passes, quel que soit le retard : E ("t j"th ) = 0
pour tout h
(ii) La proprit dorthogonalit implique que les corrlations conditionelles sont nulles : cov ("t ; "t+k j"th ) =
0.
Preuve. Cette seconde proprit sobtient de la faon suivante
cov ("t ; "t+k j"th ) = E ("t "t+k j"th ) E ("t j"th ) E ("t+k j"th ) = E ("t "t+k j"th )
= E (("t "t+k j"t+k1 ) j"th ) = E ("t E ("t+k j"t+k1 ) j"th ) = 0
Il y a donc absence de corrlation entre les valeurs prsentes et futures du processus, quels que soient les
retards h et k: Mais si la variance conditionelle de "t nest pas constante, la variance (non conditionnelle) est
constante :
et donc
1 h
+ h "2
V ("t j"th ) = E "2 j"th = c
t
th
1
alors que
c
1
Exemple 102 Le graphique ci-dessous correspond la simulation dun tel processus, avec droite son autocorrlogramme,
15
10
5
0
-5
-10
-15
500
1000
1500
2000
Lautocorrlogramme suggre de tester un modle autorgressif dordre 1 sur Y . Toutefois, si lon tudie la
distribution des rsidus du modle Yt = Yt1 + "t , lhypothse de normalit est clairement rejete
LS // Dependent Variable is Y
Sample: 2 2000
Included observations: 1999 after adjusting endpoints
Convergence achieved after 2 iterations
400
Series: Residuals
Sample 2 2000
Observations 1999
Variable
Coefficient
Std. Error
T-Statistic
AR(1)
0.794042
0.013613
58.33134
300
Prob.
0.0000
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
0.629583
0.629583
1.526497
4655.723
-3681.486
Mean
Median
Maximum
Minimum
Std. Dev.
Skewness
Kurtosis
200
-0.087891
2.508131
0.846451
0.849252
2.064924
100
Jarque-Bera
Probability
-0.019357
0.010571
7.226993
-8.941829
1.526374
-0.133441
6.043845
777.6292
0.000000
Inverted AR Roots
-8
.79
-6
-4
-2
Lautocorrlogramme ne permet pas de rejeter lhypothse de bruit blanc, mais lautocorrlogramme ne permet
de ne mesurer quune dpendence linaire entre "t et "th . Lide peut alors tre de tester le caractre ARCH
215
444.8826
364.1615
Probability
Probability
0.000000
0.000000
Test Equation:
LS // Dependent Variable is RESID^2
Sample: 3 2000
Included observations: 1998 after adjusting endpoints
Variable
Coefficient
Std. Error
T-Statistic
Prob.
C
RESID^2(-1)
1.335464
0.426916
0.116004
0.020240
11.51218
21.09224
0.0000
0.0000
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.182263
0.181853
4.737481
44797.68
-5941.939
1.985069
2.330146
5.237595
3.112012
3.117617
444.8826
0.000000
Ce test est alors clairement signicatif, et lon valide lhypothse de modle ARCH pour les rsidus. Le modle
est alors
r
Yt = 0:7940 4 Yt1 + "t o "t = t 1:335464 + 0:42691 "2
t1
(0:0136)
(0:116)
(0:0202)
et o (Xt ) est un vecteur multivari (modle de rgression classique : variables exognes), ou compos de retards
de Yt (modle ARMA))
h2 = 0 + 1 "2 + 2 "2 + ::: + p "2 = 0 + A (L) "2
t
t1
t2
tp
t
en posant A (L) = 1 L + 2 L2 + ::: + p Lp .
Nous allons tester ici lhypothse H0 : 1 = 2 = ::: = p = 0, contre lhypothse alternative o il existe i
tel que i 6= 0. La procdure pour tester cette absence deet ARCH est fonde soit sur un test de Fisher, soit
sur un test LM du multiplicateur de Lagrange. La mise en place de ces tests se fait de la faon suivante,
(1) calcul des rsidus/erreurs du modles de rgression : bt ;
"
(2) calcul du carr des erreurs b2 ;
"t
"tp
(3) p x, on eectue la rgression linaire de b2 sur son pass b2 ; :::; b2 :
"t
"t1
b2
"t
= 0 +
p
X
i=1
"ti
ib2
(4) calcul de la statistique LM, LM = nR2 o n est le nombre dobservations utilises lors de la rgression,
et R2 le coecient de la rgression. Si LM > 2 (p), on rejette H0 : lerreur est alors modlise par un processus
ARCH (p) :
11.4
11.4.1
Estimation et prvision
Estimation des paramtres dun modles ARCH
1
1
log h2 "2 h2
t
2
2 t t
216
La log-
1X
1 X 2 2
L = constante
log h2
" h
t
2 t=1
2 t=1 t t
La mthode pour estimer les paramtres est alors la suivante
(1) calcul des rsidus/erreurs du modles de rgression : bt ;
"
"t
"tp
(2) calcul du carr des erreurs b2 ; et on eectue la rgression linaire de b2 sur son pass b2 ; :::; b2 :
"t
"t1
b2 = 0 +
"t
p
X
i=1
"ti
ib2 + ut
(3) on considre que la variance de lerreur peut tre approche par h2 , et on estime de nouveau les paramtres
t
du modle par moindres carrs gnraliss, avec comme facteur de pondration ! = 1=ht et = diag h2 :
t
1 0
"
b h et
"
= b0 1b
b
"
p
X
h2 = 0 +
ib2 + ut
b "ti
b
t
i=1
Par rapport aux modles linaire, on a une grande dirence quant la variance de lerreur du modle, qui
va tre fonction de la variance rsiduelle , alors que pour les modles ARCH, elle sera fonction de h2 : la
b
t
variance de lerreur nest alors plus constante (ce qui va inuencer, par exemple, les intervalles de conance lors
des prvisons).
11.4.2
Considrons une srie (Xt ) de moyenne nulle. Lautocorrlation empirique dordre h est donne par
b (h) =
T
X
(h)
b
1
Xt Xth
o b (h) =
(0)
b
T h
t=h+1
Sous lhypothse (H0 ) o (Xt ) est un bruit blanc, b (h) est asymptotiquement normalement distribue, de
moyenne nulle et de variance V (b (h)) quivalente 1=T . Cependant en prsence dhtroscdasticit, la
1
X 2 (h)
V (X (h)) =
c
1+
T
4
p
2
o X 2 (h) est lautocovariance du processus Xt . Aussi, lintervalle de conance de Bartlett (1:96= T
95%) savre trop troit en prsence deet ARCH. Et comme ces deux paramtres, X 2 (h) et 2 , sont
facilement estimables, une estimation de la variance des autocorrlations peut tre obtenue comme
b (X (h)) = 1 1 + bX 2 (h)
V c
T
4
b
q
b c
et lintervalle de conance corrig des eets ARCH devient, 95%, 1:96 V (X (h)). La statistique de
Box-Pierce corrige est alors donne par
Q0 (k) = T
k
X
h=1
4
2 (h)
c
2 + X 2 (h) X
b
qui est asymptotiquement distribue comme une loi du chi-deux k degrs de libert.
217
11.4.3
Nous allons ici tudier la prvision dune variable, modlise par un modle ARMA dont les erreurs suivent un
bruit blanc ou un modle ARCH. Considrons par un modle AR (1)
Xt = + Xt1 + "t
Compte tenu de cette criture, la date t + 1, Xt+1 est donne par Xt+1 = + Xt + "t+1 , dont la prvision,
faite la date t est
b
Xt (1) = EL (Xt+1 jXt ; Xt1 ; :::; "t ; "t1 ; :::) = + Xt + EL ("t+1 j"t ; "t1 ; :::)
Dans le cas o ("t ) est un bruit blanc, "t+1 est orthogonal son pass, et donc EL ("t+1 j"t ; "t1 ; :::) = 0 et
b
donc Xt (1) = + Xt . De faon itrative, on aura, pour tout h > 0,
h
1
b
b
+ h Xt
Xt (h) = + Xt (h 1) =
1
b
dont lerreur de prvision est eh = Xt+h Xt (h) = "t+h + "t+h1 + :: + h1 "t+1 . On peut noter que
bt (h) ! = (1 ) quand h ! 1.
X
Lintervalle de prvision, au seuil , est de la forme X (h) ; X (h) de telle sorte que
h
i
b
b
P eh 2 X (h) ; X (h) = P Xt+h 2 Xt (h) + X (h) ; Xt (h) + X (h) = 1
Dans le cas o ("t ).est un bruit blanc fort gaussien, alorsn pour un horizon de 1, on peut noter aisment que
b
e1 = Xt+1 Xt (1) = "t+1 s N 0; 2 , et donc, un intervalle de conance 95% pour la valeur en t + 1 sera
h
i
b
b
Xt (1) 1:96; Xt (1) + 1:96
b
et plus gnrallement, eh = Xt+h Xt (h) = "t+h + "t+h1 + :: + h1 "t+1 s N 0; 1 + 2 + ::: + 2(h1) 2
et donc, un intervalle de conance 95% pour la valeur en t + h sera
h
i
p
p
b
b
Xt (h) 1:96 1 + 2 + ::: + 2(h1) ; Xt (h) + 1:96 1 + 2 + ::: + 2(h1)
Supposons que ("t ) ne soit plus un bruit blanc (indpendant de son pass) mais que le bruit soit ARCH (1),
p
cest dire que "t = t ht o ht = 0 + 1 "2 , o on supposera que (t ) est un bruit blanc que lon supposera
t1
de variance unitaire, indpendant du pass de ("t ), cest dire t indpendant de "t1 ; "t2 ; ::: On notera tout
dabord que E ("t ) = 0 pour tout t, que la corrlation entre deux dates est donne par la relation
q
q
q
q
E ("t "s ) = E t 0 + 1 "2 :s 0 + 1 "2
0 + 1 "2 :s 0 + 1 "2
= E (t ) E
t1
s1
t1
s1 = 0 pour s < t
et que la variance la date t vrie
2
2
2 = E "2 = E 2 0 + 1 "2
= E 2 E 0 + 1 "2
t
t
t1
t
t1 = 0 + 1 E "t1 = 0 + 1
cest dire 2 = 0 = (1 1 ). Pour obtenir un intervalle de conance pour Xt+h , rajoutons une hypothse
supplmentaire de normalit du bruit (t ). Dans ce cas, lintervalle de conance, 95%, pour la valeur la
date t + 1 est donn par
q
q
b
bt (1) 1:96 0 + 1 "2 ; Xt (1) + 1:96 0 + 1 "2
X
t
t
Aussi, dans le cas dun modle ARCH, la taille de lintervalle de conance dpend de la valeur "2 .
t
218
11.5
La srie temporelle ci-dessous reprsente lindice NASDAQ, avec le rendement de lindice au jour le jour, et le
logarithme de lindice (en haut). De mme que pour la srie du CAC40, on retrouve l aussi des priodes de
forte volatilit sur le march, comportement qui ne peut tre pris en compte laide de modles ARMA,
10
-5
-10
RDMNT_NASDAQ
LOG_NASDAQ
-15
500
1000
1500
2000
2500
Soit (Yt ) un processus temporel (par exemple le prix dun actif ). Linformation connue la date t est la
trajectoire du prix jusqu cette date, note Yt1 . Supposons que lon cherche le prix de cet actif la date
t + 1. Deux informations sont particulirement intressantes : lesprance et la variance. Plus particulirement,
on souhaiterait modliser lesprance et la variance conditionnelle de (Yt ), conditionnellement linformation
connue. La modlisation ARCH revient crire
E Yt jYt1 = 0 et V Yt jYt1 = ht
o (ht ) aura une forme paramtrique. Dans le cas des modles ARM A; cette variance conditionnelle est
constante : ht = 2 . Dans le cas des modles ARCH; cette variance conditionelle est fonction du carr des prix
2
: pour un modle ARCH (1), ht = c + Yt1 . Cette criture peut se gnraliser (modle ARCH (q)) :
ht = c +
q
X
2
i Yti
i=1
Cette spcication de la variance conditionelle permet au risque (rsum ici par la volatilit du prix ) dpend
de lvolution passe. Les modles GARCH (p; q) sont encore plus gnraux puisque la volatilit dpend de la
volatilit passe,
q
p
X
X
2
i Yti +
j htj
ht = c +
i=1
j=1
Ces modles ont beaucoup t utiliss en nance, et ceci pour plusieurs raisons.
Dans le cadre de la gestion de portefeuille, le modle le plus simple, repose sur la recherche dun portefeuille
ecient (au sens moyenne-variance) horizon 1. Les modles ARCH permettent dintroduire de la dynamique
dans cette gestion.
Les modles ARCH sont apparus une poque o se dveloppaient les modles en temps continu, en particulier pour la valorisation de produits drivs. Mais si cette valorisation a donn de bons rsultats thoriques,
lestimation, partir de donnes discrtes sest avre plus dicile : les modles les plus simples (brownien
gomtrique, modle dOrnstein-Uhlenbeck ou modle de Cox-Ingersoll-Ross) taient gnralement trs mal spcis. Les modles ARCH en revanche se prtaient bien lestimation, et fournissaient de bons ajustements,
mme si la valorisation des produits drivs a pos quelques problmes (le temps discret impliquant une incompltude du march). Toutefois, ces modles avaient quelques faiblesses, do le grands nombre de modles
219
gnralisant encore davantage ces modles : IGARCH, T ARCH, QARCH, SW ARCH, ACD GARCH...etc.
Parmi les dfauts des modles ARCH:
- la spcication quadratique de la volatilit conditionelle est apparu trop contraignante. En fait, lestimation
de modles ARCH a rvl la prsence de racines unitaires dans les quations de volatilit. Cette persistance
de la volatilit tient en parti la prsence deets de seuils importants dans cette dynamique.
- si lvolution des prix ( des instants a priori rguliers) pouvait tre relativement bien modlise, la prise
en compte des frquences de transactions ou des volumes changs tait beaucoup plus dicile.
- les modles marchaient relativement mal pour la valorisation des produits drivs.
11.6
11.6.1
Les modles bilinaires ont t introduits en 1978 par Granger et Andersen, de faon gnraliser les modles
ARM A,
p
q
Q
P
X
X
XX
Yt =
i Yti + "t
j "tj +
ij Yti "tj
i=1
j=1
i=1 j=1
o ("t ) est un bruit blanc gaussien. Ce modle sera not BL (p; q; P; Q). Une sous classe possible (diagonal ) est
dnie par
p
q
P
X
X
X
Yt =
i Yti + "t
j "tj +
i Yti "ti
i=1
j=1
i=1
0 pour h 1
2
2 + 2 2 E Yt2
La variance marginale est alors V (Yt ) = 2 = 1 2 2 : Il est alors possible de montrer que Yt scrit aussi
"
#
j
1
X
Y
j
Yt = "t +
"t2k+1
"t2j :
E (Yt Yth ) =
j=1
k=1
Series: BILINEAIRE
Sample 1 1500
Observations 1500
120
100
Mean
Median
Maximum
Minimum
Std. Dev.
Skewness
Kurtosis
80
60
-2
40
-4
20
0
-5.00 -3.75 -2.50 -1.25
-6
200
400
600
800
1000
1200
1400
BILINEAIRE
220
Jarque-Bera
Probability
0.00
1.25
2.50
3.75
0.049644
0.075453
3.793614
-4.864823
1.221865
-0.148632
3.492173
20.66254
0.000033
11.6.2
Ces modles sont une gnralisation des processus AR, permettant de prendre en compte les explosions en
variance de la srie :
p
X
2
ai + i : exp Xt1 Xti + "t
Xt = +
i=1
11.6.3
Les modles autorgressifs seuils ont t introduits par Tong en 1978, sous le nom de threshold autoregressive,
ou T AR. On suppose, dans le cas dun seuil unique, quil existe deux rgimes dirents,
(
(1)
(1)
1 Xt1 + 2 Xt2 + ::: + (1) Xtp1 + "t si Xt
p1
Yt =
(2)
(2)
1 Xt1 + 2 Xt2 + ::: + (2) Xtp1 + "t si Xt >
p2
o (Xt ) est soit une variable exogne, soit une variable (Yt ) retarde (Ytd ). Dans ce dernier cas, on parlera de
modle SET AR, self excited threshold AR. Il est dailleurs poissible de gnraliser davantage en considrant
des sous-modles ARM A au lieu de modles AR.
Exemple 104 Considrons le cas de modles AR (1) avec un seuil unique
1
Xt1 + "t si Xt1
Yt =
2 Xt1 + "t si Xt1 >
Une condition ncessaire et sucante dexistence dune solution stationnaire et 1 < 1, 2 < 1 et 1 2 < 1. La
srie ci-dessous correspond une simulation de la srie
250
200
Series: TAR
Sample 1 1500
Observations 1500
Mean
Median
Maximum
Minimum
Std. Dev.
Skewness
Kurtosis
150
100
1.010332
0.806912
9.491056
-3.801579
1.699211
0.872733
4.688627
50
Jarque-Bera
Probability
-2
368.6318
0.000000
0
-4
-4
200
400
TAR
600
800
-2
1000
SEUIL
Ce type de processus, l aussi, permet davoir des queues de distribution plus paisses (en loccurence ici pour
les fortes valeurs de Yt - queue droite).
11.6.4
221
Lhypothse faite en conomtrie est que (Ut ) est un bruit blanc, cest dire un processus i:i:d: Toutefois, il
est possible que le bruit (Ut ) soit autocorrl, cest dire que (Ut ) puisse scrire Ut = Ut1 + "t o ("t )
est ici i:i:d:. Comme nous lavons vu dans ce chapitre, il est possible que le bruit (Ut ) soit conditionellement
htroscdastique, par exemple, modlisable par un processus ARCH (1) dni sous la forme
p
2
Ut = t ht o ht = + Ut1
Ce processus peut se gnraliser sous la forme GARCH (1; 1) suivante
p
2
Ut = t ht o ht = + Ut1 + ht1
Parmi les autres modles possible, on notera les modles ARCH M (ARCH en moyenne, ou ARCH in
Mean), cest dire que le modle linaire scrira ici
p
0
2
Yt = Xt + g (ht ) + Ut o Ut = t ht avec ht = + Ut1 + ht1
Ce type de modle a t introduit en 1987 par Engle, Lilien et Robbins. Parmi les modles asymtriques, on
notera les modles T ARCH ou EGARCH. Les modles T ARCH (ARCH seuil, ou Threshold ARCH) ont
t introduits par Zakoian en 1994. Par exemple, le modle T ARCH (1; 1) scrit
p
2
2
Ut = t ht o ht = + Ut1 + Ut1 Iut <0 + ht1
2
Cest dire que limpact de Ut1 sera de si Ut > 0, alors quil sera de + sinon. Le modle EGARCH
(GARCH exponentiel, ou Exponential GARCH), introduit par Nelson en 1991, peut scrire, dans le cas du
modle EGARCH (1; 1)
0.05
0.00
Variable
C
MA(1)
-0.05
1000
RETURN_NASDAQ
1500
2000
Coefficient
0.000862
0.106483
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
-0.10
500
Std. Error
0.000231
0.018791
R-squared
0.011052
Adjusted R-squared 0.010699
S.E. of regression 0.010932
Sum squared resid
3338.542
Log likelihood
-4224.341
Durbin-Watson stat 1.997377
Inverted AR Roots
.11
8
0.10
Coefficient
0.000863
0.105134
2500
LOG_NASDAQ
Inverted MA Roots
Std. Error
0.000228
0.018791
0.011184
0.010831
0.010929
3338.198
-4224.196
2.000222
T-Statistic
3.738457
5.594793
T-Statistic
3.782551
5.666722
Prob.
0.0002
0.0000
0.086119
1.097336
3.013434
3.017668
31.30171
0.000000
Prob.
0.0002
0.0000
0.086119
1.097336
3.013331
3.017565
31.69207
0.000000
-.11
avec, droite, les rsultats dun ajustement respectivement par un modle AR (1) et MA (1) de la srie des
rendements. Un tude des rsidus (avec ci-dessous lanalyse des rsidus des modles autorgressif AR (1)
222
0.10
0.05
0.05
0.00
0.00
0.10
-0.05
0.10
-0.05
0.05
-0.10
0.05
-0.10
0.00
0.00
-0.05
-0.05
-0.10
-0.10
500
1000
1500
Residual
2000
Actual
500
2500
1000
1500
Residual
Fitted
2000
Actual
2500
Fitted
montre que lhypothse de bruit blanc est rejette, mais surtout, les graphiques ci-dessus montrent des priodes
de forte volatilit de la srie des rsidus : il semble ncessaire de modliser lerreur par un modle non linaire.
Les sorties prsentes ci-dessous montrent les ajustments de modles M A (1) GARCH (1; 1) (cest dire un
modle M A (1) dont les erreurs suivent un modle GARCH (1; 1)) et ARCH M , respectivement gauche et
droite,
Variable
C
MA(1)
Coefficient
0.084907
0.171620
C
ARCH(1)
GARCH(1)
0.027892
0.121770
0.857095
Std. Error
T-Statistic
0.017700
4.797124
0.020952
8.190983
VARIANCE EQUATION
0.009213
4.797124
0.020448
5.955103
0.021526
39.81666
R-squared
0.007104
Adjusted R-squared 0.005685
S.E. of regression 1.094213
Sum squared resid
3352.444
Log likelihood
-3775.938
Durbin-Watson stat 2.129878
Inverted AR Roots
-.17
Prob.
0.0000
0.0000
Variable
SQR(GARCH)
MA(1)
0.0000
0.0000
0.0000
C
ARCH(1)
GARCH(1)
0.086119
1.097336
2.695856
2.706443
5.008069
0.000000
Coefficient
0.119204
0.174104
0.031291
0.133713
0.843131
Std. Error
T-Statistic
0.022944
5.195479
0.020771
8.382098
VARIANCE EQUATION
0.009545
3.278211
0.021011
6.363810
0.021785
38.70279
R-squared
0.010861
Adjusted R-squared 0.009448
S.E. of regression 1.092141
Sum squared resid
3339.759
Log likelihood
-3339.759
Durbin-Watson stat 2.132844
Inverted AR Roots
-.17
Prob.
0.0000
0.0000
0.0000
0.0000
0.0000
0.086119
1.097336
2.694578
2.705165
Exemple 106 Considrons ici la srie du rendement de lindice SP 500, reprsent ci-dessous. La sortie prsente droite est lajustement dun modle AR (3),
LS // Dependent Variable is SP500
Sample: 4 792
Included observations: 789 after adjusting endpoints
Convergence achieved after 2 iterations
0.6
0.4
Variable
0.0
-0.2
-0.4
100
200
300
400
500
600
700
SP500
Coefficient
C
AR(1)
AR(3)
0.2
0.006262
0.086019
-0.125241
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
Inverted AR Roots
Std. Error
0.001983
0.035303
0.035302
0.023610
0.021126
0.057872
2.632480
1130.228
1.979390
.28+.43i
T-Statistic
3.158517
2.436595
-3.547748
Prob.
0.0016
0.0150
0.0004
-.47
Les sorties ci-aprs corresondent lajustement de modles AR (3)GARCH (1; 1), GARCH (1; 1), IGARCH (1; 1),
GARCH (1; 1) M ,
11.7
Avant de construire un modle non-linaire, il est recommander de vrier quun modle linaire ne sut
modliser correctement la srie. Il peut arriver (surtout si les sries temporelles sont courtes) que lon estime
- avec succs - un modle non-linaire alors que la vraie relation sous-jacente est linaire. Le danger est alors
de compliquer inutilement la construction du modle Tester la linarit peut alors aider ne pas compliquer
outrance, mais cela peut, en outre, aider pour la spciction du type de non-linarit. Deux types de tests sont
alors utiliss :
- les tests contre un modle non-linaire spcique (comme les tests du multiplicateur de Lagrange et le test
du Cusum)
- les tests sans alternative spcique (tels que le BDS ou le Reset)
11.7.1
Puisque lestimation de modles non-linaires est en gnral plus dicile que celle des modles linaires, il est
naturel de considrer des tests qui, bien quavec des alternatives non-linaires spciques, ne requirent pas
lestimation de ces alternatives.
Cest cette catgorie quappartiennent les tests du multiplicateur de Lagrange. Nous disposons ainsi de
quatre tests de ce type, chacun testant un type de non-linarit: ARCH, BL, EXP AR et SET AR.
AR(p) contre AR(p) erreurs ARCH(q) Dans ce type de tests, on considre un processus ("t ) bruit blanc
gaussien, cest dire i:i:d: dont la loi est N 0; 2 . Les hypothses sont alors
v
u
p
p
q
X
X
X
u
i Xti + "t contre (H1 ) : Xt = +
i Xti + t0 +
j "2
(H0 ) : Xt = +
tj
i=1
i=1
j=1
"
On estime le modle (H0 ) par moindres carrs, et on calcule les rsidus bt obtenus. On estime alors par les
moindres carrs la rgression
P 2
q
X
t
"tj
j b2 + t avec R2 = 1 P
b2 = 0 +
"t
(bt ")
"
j=1
La statistique du multiplicateur de Lagrange est alors asymptotiquement quivalente T R2 . Si lon pose LM0 =
T R2 alors, sous (H0 ), LM0 est asymptotiquement distribue comme un chi-deux q degrs de liberts.
AR (p) contreBL (p; 0; P; Q) On considre un processus ("t ) bruit blanc gaussien, cest dire i:i:d: dont la
p
X
i=1
p
X
i Xti + "t +
i=1
Q
P
XX
i=1 j=1
b
L encore, on estime le modle (H0 ) par moindre carrs, ainsi que 2 , estimateur de 2 . La statistique du test
du multplicateur de Lagrange est
hX
i0 h
i hX
i
c
c c1 c
LM1 = 2
b
z1;tbt M11 M10 M00 M01
b "
z1;tbt
b "
et
Il est possible de montrer que sous (H0 ), LM0 est asymptotiquement distribue comme un chi-deux P Q degrs
de liberts.
224
AR (p) contre EXP AR (p) On considre un processus ("t ) bruit blanc gaussien, cest dire i:i:d: dont la loi
p
X
i=1
p
X
2
i + i exp Xt1 Xti + "t
i=1
(H1 ) : Xt = +
p
X
i Xti +
i=1
p
X
2
i Xti Xt1 + "t
i=1
3
2
2
z1;t = Xt1 ; Xt2 Xt1 ; :::; Xtp Xt1
b
P
c
Mii = zi;t zi;t pour i = 0; 1
b b0
et c
P
c
M01 = M10 = z1;t z 0
b b
0;t
Il est possible de montrer que sous (H0 ), LM0 est asymptotiquement distribue comme un chi-deux p degrs
de liberts.
11.7.2
Le test du CU SU M
Le test du CUSU M permet de dtecter lexistence de rgimes ou de seuils. Il consiste reclasser les observations
suivant les variables de transition. On estime alors les paramtres de manire rcursive et on considre les
sommes cumules des rsidus obtenus.
Par exemple, dans le cas dun modle SET AR, on suppose que lon connait le dlai d, et que lon dispose des
observations Xd+1 ; :::; X0 ; ::::; XT . On ordonne les observations X1 ; :::; Xn selon les valeurs de X1d ; ::::; Xtd .
T
T
Soient X(1) ; :::; X(T ) les observations ainsi rordonnes. Pour tout j, on considre le modle linaire suivant
T
X(i) = j +
p
X
k=1
Lhypothse (H0 ) est alors j = , j = k pour tout k, et lhypothse alternative (H1 ) est que (H0 ) nest pas
k
vrie.
11.7.3
Le test BDS
Ce test permet de dtecter un bruit blanc indpendant, cest--dire si les observations sont (ou non) indpendantes, partir de ltude de la dimension de corrlation (notion issue de la thorie du chaos).
Remarque 72 Cette notion, introduite par Grassgerber et Procaccia en 1983 est trs lie la thorie des
fractales et la dimension de capacit. Lide de base est la suivante : plus un ensemble est de dimension
leve, plus rapidement le nombre de voisins dun point donn de cet ensemble augmentera avec la distance
ce point. Encore faut-il pouvoir valuer le nombre de voisins. Dans ce but, nous introduisons lintgrale de
corrlation, dnie comme la probabilit de trouver une paire de points distants de moins dun certain rayon r
(donn priori) dans un espace dimmersion m-dimensionnel.
A partir dune srie temporelle, on commence donc par former des m-uples. Si lon dispose de N observations, lintgrale de corrlation sera donne par
Cn;N (r) =
N
N
X X
1
(r d (i; j))
N (N 1) i=1
j=1;j6=i
225
o d(i; ; j) est la distance entre les points i et j et (k) est la fonction de Heaviside (ou fonction signe) qui, par
dnition, vaut 1 si k 0 et 0 dans le cas contraire. Ceci revient donc compter, dans un espace dimmersion, le
nombre de voisins dun point quelconque distants de moins de r. En principe, d(i; ; j) est la distance euclidienne
usuelle, mais on prend en gnral la norme-sup (ou norme de Takens) pour distance. Cette dernire est dnie
comme la plus grande des dirences (en valeur absolue) entre deux coordonnes quivalentes de 2 vecteurs.
Quand N ! 1, on pose alors Cm;N (r) ! Cm (r) = r m . Lexposant m ainsi dnit sera la dimension de
corrlation dans limmersion m, dont lestimateur naturel est
bm = lim
r!0
A partir de cette notion, il est ais de mettre en place le test BDS de non-linarit.
Ce test peut tre interprt comme un test de non linarit : il sut en eet destimer le modle linaire
retenu et de calculer les rsidus obtenus. On applique ensuite le BDS ces rsidus; si ce test rvle que les
rsidus sont indpendants et identiquement distribus, alors lhypothse de linarit est accepte. Dans le cas
contraire, la srie est soit stochastique non-linaire, soit chaotique.
m
Soit le vecteur m-historique Xt = (Xt ; Xt+1 ; :::; Xt+m1 ), et Tm = n m + 1 le nombre de vecteurs mhistoriques pour la srie (Xt ) avec n observations. On dsigne par I" (:) la fonction indicatrice de [0; "], o " est
une constante positive pralablement choisie. On pose alors
Cn;m (") =
X
2
m
m
I" (kXt Xs k1 )
Tm (Tm 1) t<s
n!1
Remarque 73 Cette proprit peut tre illustre simplement dans le cas o m = 2 : Cn;2 (") correspond la
frquence des observations plus proches voisins dans le plan (Xt1 ; Xt ) tandis que C1;n (") mesure toujours
la proportion de points de la srie distants de moins de " de moins de " de leur valeur la date prcdante.
Dans le cas dune srie indpendante, on voit que lon considre une surface lmentaire, et que lon double
la longueur des cts (C1;n est alors multipli par 2), le nombre de points contenu dans la surface est alors
multipli par 4 ( cause de la rpartition purement alatoire des points dans le plan). En revanche, avec une
srie non-indpendante, le nombre de points nest plus multipli par 4 lorsque la surface lmentaire voit ses
cts doubls : Cn;1 (") est bien multpli par 2 mais Cn;2 (") nest pas multipli par 4.
Compte tenu de cette remarque, on dnit la statistique BDS par
BDS =
avec
v
u
m1
X
u
m (") = 2tK m + 2
K mj C 2j + (m 1)2 C 2m m2 KC 2m2
j=1
et
C = Cn;1 (") et K =
X
1
I" (jXt Xs j) I" (jXr Xs j)
n (n 1) (n 2)
(t;r;s)
o la sommeseectue sur les (r; s; t) distincts deux deux. Sous (H0 ) : (Xt ) est i:i:d: la statistique BDS est
asymptotiquement normale, centre et rduite.
226
11.7.4
p
X
i Xti + "t
i=1
Pp b
b
"
b
et on calcule les rsidus obtenus bt , les valeurs ajustes Xt = + i=1 i Xti = Xt bt et la somme des carrs
"
P 2
"
des rsidus SCR0 = bt . On estime alors, par la mthode des moindres carrs, les paramtres de
et on calcule SCR1 =
bt = b0 +
"
p
X
bi Xti +
i=1
j=1
h
X
bj
j Xt + t
[SCR0 SCR1 ] = (h 1)
SCR1 = (n p h)
qui suit sous (H0 ) (hypothse de modle AR (p)) un loi de Fisher F (h 1; n p h). En fait, le test du RESET
peut tre interprt comme un test du multiplicateur de Lagrange.
11.7.5
q
X
i=1
2
i Yti
p
X
j htj
j=1
o ht est alors appele variance conditionelle. Le modle ARCH (q) est obtenu quand p = 0. Lestimation
sous SAS se fait par maximum de vraissemblance, sous lhypothse o le processus (t ) est normalement
distribu (centr rduit)
La dclaration MODEL
Pour les modles GARCH :
- GARCH =(option-list) : spcie la forme du modle GARCH, par exemple, pour un modle GARCH (1; 1)
linstruction sera
MODEL y=x1 x2 / GARCH=(q=1,p=1);
Toute la classe des modles gnralisant les modles GARCH sont dailleurs obtenus laide de linstruction
TYPE= : modles EGARCH (GARCH exponentiel), IGARCH (GARCH intgr), sans contraintes de nonngativit, contrainte de stationnarit...
- DIST=T ou DIST=NORMAL : spcie la distribution du terme derreur : soit une loi normale, soit une loi de
Student,
227
228
DFE
Root MSE
AIC
Total Rsq
254
0.011249
-1558.8
0.0000
0.032143
0.000127
781.0174
-1545.42
105.8557
OBS
254
UVAR
0.000126
Total Rsq
0.0000
AIC
-1556.03
Prob>Chi-Sq 0.0001
DF
B Value
Std Error
1
1
1
0.000112
0.041348
0.069749
7.561E-6
0.0511
0.0432
0.0001
0.4181
0.1062
cest die que ! ; 1 et 2 valent respectivement 0:00011, 0:04136 et 0:06976. Les coecients donns sont, pour
b b
b
lestimation par moindre carrs :
- SSE : (Sum of Square Errors)
- MSE : (Mean Square Error)
- SBC : critre de Schwarz dni par SBC = 2 ln L + K ln N , o L est la vraissemblance, N le nombre
dobservations et K le nombre de paramtres estims.
- Regress R-square : donn par
T SSE
R2
REG = 1
T SST
o T SST est la somme des carrs ...
- DW : statistique de Durbin-Watson
- DF E : (Error Degrees of Freedom) the number of observations minus the number of parameters
- Root MSE : (Root Mean Square Error)
- AIC : critre dAkaike dni par AIC = 2 ln L + 2K, o L est la vraissemblance et K le nombre de
paramtres estims.
- Total R-square : donn par
SSE
2
RT OT = 1
SST
Et pour lestimation des paramtres GARCH
- Log Likelihood : valeur de la log-vraissemblance (sous hypothse de normalit des rsidus)
- Normal Test :test de Bera et Jarque (1982) bas sur lutilisation du skewness et de la kurtosis (qui doivent
tre proches respectivement de 0 et de 3 dans le cas normal )
- Observations : nombre dobservations utilises
- Uncond Var : variance non-conditionelle
- Total R-square :
- Pr>ChiSq : p-value associe au test de normalit
229
11.8
11.8.1
2200
Series: FRCAC40
Sample 1/02/90 9/20/96
Observations 1754
120
2000
40
1600
1915.304
1916.445
2355.930
1441.170
162.8632
-0.078139
2.917500
Jarque-Bera
Probability
80
1800
1400
1/02/90
Mean
Median
Maximum
Minimum
Std. Dev.
Skewness
Kurtosis
2.282331
0.319447
12/03/91
11/02/93
10/03/95
FRCAC40
Comme le suggre lautocorrlogramme ci-dessous, ainsi que le processus moyenne glissante (avec quipondration, 10 jours (soit 21 jours)), cette srie nest pas stationnaire
2400
2200
2000
1800
1600
1400
1/02/90
12/03/91
11/02/93
MOYENNE_CAC
230
10/03/95
Pour stationnariser la srie, considrons la srie direncie, correspondant la variation de lindice CAC40 sur
une journe (en points)
150
100
500
50
400
300
-50
200
-100
100
Series: D_FRCAC40
Sample 1/02/90 9/20/96
Observations 1754
Mean
Median
Maximum
Minimum
Std. Dev.
Skewness
Kurtosis
0.044686
0.000000
102.7000
-132.7700
20.50039
-0.144215
4.957569
Jarque-Bera
Probability
-150
1/02/90
286.1407
0.000000
12/03/91
11/02/93
-120
10/03/95
-80
-40
40
80
D_FRCAC40
Cette transformation semble stationnariser la srie au second ordre, comme le laissent penser les graphiques
ci-dessous,
150
100
50
0
-50
-100
-150
1/02/90
12/03/91
11/02/93
10/03/95
MOYENNE_DCAC
Si la srie initiale du CAC40 prsentait - a priori - une racine unit, comme cela peut se voir sur le scatterplot
ci-dessous gauche, on peu noter que la srie direncie une fois est elle stationnaire (la corrlation entre deux
dates - 1 jour et 5 jours ci-dessous - est dailleurs trs faible),
D_FRCAC40
FRCAC40
2200
2000
1800
150
100
100
D_FRCAC40
150
2400
50
0
50
0
-50
-100
1600
1400
1400
1600
1800
2000
FRCAC40_1
2200
2400
-50
-100
-150
-150
-100
-50
50
D_FRCAC40_1
100
150
-150
-150
-100
-50
50
100
150
D_FRCAC40_1
231
Valeur de la statistique
206:6051
9:236277
39:06230
8:876685
p-value Linaire
0:00000
non
0:00237
non
0:00000
non
0:00293
non
Ltude des autocorrlogrammes de la srie des variations et de la srie au carr semblent conrmer ce phnomne
: si les autocorrlogrammes de la srie nindiquent pas de corrlations importantes (laissant penser que la
srie pourrait tre un bruit blanc), des autocorrlations non-nulles apparaissent en considrant la srie dnie
comme le carr de la variation du CAC40,
150
100
50
0
-50
-100
-150
1/02/90
12/03/91
11/02/93
10/03/95
D_FRCAC40
20000
15000
10000
5000
0
1/02/90
12/03/91
11/02/93
10/03/95
D_FRCAC40_C
Ces rsultats incitent adapter une modlisation de type ARCH=GARCH et non pas ARIM A.
Modlisation ARCH GARCH de la variation du CAC40 Le critre dAkaike incite retenir un modle
ARCH (1). Il pourrait tre galement intressant de considrer des modles GARCH (2; 1) ou ARM A ( titre
de comparaison). Nous noterons dans la suite Xt la srie correspondant la variaiton de lindice CAC40.
Modle ARCH (1) - avec erreurs conditionnellement normales
Le modle est de la forme
2
Xt jXt1 s N 0; 2 o 2 = 398:6559 + 0:1488Xt2
t
t
Considrons la srie des rsidus standardiss (la srie des rsidus concidant avec la srie des variations
elle-mme).
Modle GARCH (2; 1)
Modle ARM A
232
11.9
Conseils bibliographiques
DROESBEKE,J.J., FICHET,B. & TASSI,P. (1994). Modlisation ARCH : thorie statistique et applications dans le domaine de la nance. Association pour la Statistique et ses Utilisation. Ellipses
ENGLE,R. (1995). ARCH : selected readings. Oxford University Press.
GOURIEROUX,C. (1997). Modles htroscdastiques. dans Encyclopdie des Marchs Financiers,
Economica
GOURIEROUX,C, SCAILLET,O. & SZAFARZ,A.. (1998). Economtrie de la nance : analyses historiques. Economica
JOHNSTON,J. (1988). Mthodes Economtriques. Econometrica.
233
12
Les processus ARM A sont souvent appel processus mmoire courte compte tenu de la dcroissance rapide
de lautocorrlation entre Xt et Xth quand h ! 1 (dcroissance exponentielle de (h)). En fait, il est possible
de montrer que, pour un processus ARMA stationnaire, sa fonction dautocorrlation est borne,
j (h)j Crh pour h = 1; 2; :::
pour une certaine constante C > 0 et 0 < r < 1.
Dnition 58 Un processus stationnaire sera dit mmoire longue si les autocorrlations (h) satisfont
(h) s Ch2d1 quand h ! 1
(52)
800
900
1000
1100
1200
NILE
Remarque 74 Lexpression (52) dit uniquement la forme asymptotique des autocorrlations, sous forme dun
quivalent, mais ne dit en aucun cas que certains retards spciques doivent tre particulirement importants.
Remarque 75 Cette condition (52) se rcrit galement
(h)
=1
h!1 Ch2d1
lim
De faon heuristique, une srie mmoire longue est caractrise par une fonction dautocorrlation qui
dcrot lentement lors que le retard h augmente. En terme de frquence et de densit spectrale, le spectre de
telles sries ont un ple la frquence 0. Cette proprit est trs frquente sur les donnes conomiques,
tel point que Granger avait parl en 1966 de forme spectrale tque dune variable conomique, comme le note
Valrie Mignon dans Mthodes destimation de lexposant de Hurst. Historiquement,le premier processus
mmoire longue est le mouvement brownien fractionnaire, dvelopp par Mandelbrot et Van Ness en 1968.
Ce processus est caractris par un paramtre appel exposant de Hurst, not H, permettant de classer les
sries temporelles en fonction de leur structure de dpendance : mmoire courte ou nulle, mmoire longue et
positive (appel phnomne de persistance), et anti-persistance. Les sries empiriques tant des processus en
temps discret, Mandelbrot et Wallis ont dni, en 1969, lanalogue du mouvement brownien fractionnaire en
temps discret, appel bruit gaussien fractionnaire.
234
Une seconde classe de modles, lis au bruit gaussien fractionnaire, est constitu des processus ARF IMA
(AutoRegressive Fractionnaly Integrated Moving Average) parfois galement appels F ARIMA: Ceux-ci constituent une gnralisation des processus ARIM A (p; d; q) standards, dans lesquels le paramtre de direnciation d tait un entier. Le paramtre d explique alors le comportement de long terme de la srie, le comportement
de court terme tant expliqu par les composantes autorgressives et moyenne-mobiles.
Si ces processus sont trs prsents en conomie (comme le notait Granger ), ils sont galement prsents en
nance. En 1991, Lo a ainsi tudi les implications des processus mmoire longue dans la thorie nancire,
et Mignon a tudi en 1995 limpact de ce comportement sur lecience des marchs. En eet, on dit que les
marchs sont ecients (ecient dun point de vue informationel ) si les cours des actifs cts retent toute
linformation disponible : il est alors impossible de prvoir les rentabilits futures partir des rentabilits passes
puisque toute linformation (anticipe) est incorpore dans les prix. Mais si les rentabilits ont une structure de
dpendance long terme, alors les observations prsentent des autocorrlations signicatives. La connaissance
du pass fournit alors de linformation pour prvoir les valeurs futures. En fait, Samuelson a montr en 1965
que si un march est ecient, le prix observ sur le march correspond la valeur fondamentale (cest dire
la somme actualis des dividendes futurs anticips par les agents), et la mmoire longue impliquerait un cart
durable entre le cours et la valeur fondamentale.
Remarque 76 Si la mmoire longue a t dnie partir de la fonction dautocorrlation, elle peut aussi
tre dnie laide de la densit spectrale. Les processus ARMA, exemples classiques de processus mmoire
courte, la densit spectrale est positive et nie quand la frquence tend vers 0. On dira quun processus (Xt ) est
mmoire longue sil existe une constante telle que 0 < < 1 et une constante C > 0 telles que
lim
!!0
f (!)
=1
C!
o f est la densit spectrale du processus (Xt ) . Ainsi, la densit spectrale prsente un ple la frquence 0.
12.1
Processus self-similaires
12.1.1
12.2
i
2 h
jh + 1j2H 2 jhj2H + jh 1j2H
2
(53)
Dans la partie sur les processus ARIM A, nous avions introduit un aspect tendanciel aux processus ARMA
en retenant un polynme autorgressif admettant 1 comme racine (ventuellement multiple). Ceci a conduit
considrer les processus crits sous la forme
(1 L)d (L) Xt = (L) "t
o d est un entier positif. Le fait que le paramtre d soit entier pose un certain nombre de problmes, des
problmes didentication par exemple, et cest pour cela que d est estim sparment des autres paramtres.
Les processus F ARIM A sont une gnralisation o lon considre d a priori quelconque (rel ).
235
Dnition 60 Un processus fractionnaire est un processus (Xt ), dni pour t 0, satisfaisant une quation
de la forme
(1 L)d (L) Xt = (L) "t
pour t 0
avec comme condition initiale Xt = 0 pour t < 0 et "t un bruit blanc pour t 0, nul sinon, de variance nie
2 , et o (L) et (L) sont deux polynmes ayant leurs racines lextrieur du disque unit, et o d est rel,
avec la convention
1
X d (d 1) ::: (d j + 1)
(1)j Lj
(1 L)d = 1 +
j!
j=1
La dnition de (1 L)d est fonde sur le dveloppement en srie entire de la fonction puissance (qui peut
se simplier en introduisant la fonction Gamma) : soit
(d) =
+1
alors
d
(1 L) =
1
X (d + j)
j=0
(d) :j!
Lj
Proprit 54 Un processus fractionnaire admet une reprsentation moyenne mobile (innie) de la forme
Xt = H (L) "t
o H (L) =
1
X
hj Lj
j=0
(1)
j d1 quand j ! 1
(1) (d)
Proprit 55 Les processus ARMA sont des processus asymptotiquement stationnaires mmoire courte
Compte tenu du comportement asymptotique des hj , on a la proprit suivante
Proprit 56 Le processus fractionnaire est asymptotiquement stationnaire si et seulement si d < 1=2. Il est
mmoire courte si d 0 et 0 < d < 1=2
Remarque 77 Ces processus sont parfois appels processus intgrs dordre d, et not I (d).
12.2.1
d
Considrons un processus de la forme (1 L) Xt = "t avec d < 1=2. ("t ) est ici un bruit blanc, et nous
supposerons, dans un premier temps, quil est de variance nie 2 .
Exemple 107 Comme nous lavons vu auparavant, les processus ARIM A (0; 1; 0) - cest dire la marche
alatoire Xt = Xt1 + "t - dans le cas o ("t ) est un bruit blanc gaussien de variance 2 , peuvent tre vus
comme des discrtisations du mouvement brownien. De faon analogue, dans le cas o le bruit ("t ) est gaussien,
le processus (Xt ) ARF IM A (0; d; 0) est rapprocher du mouvement brownien fractionnaire (not F BM
236
- fractional Brownian motion) : un processus (en temps continu) BH (t) est appel F BM sil est trajectoires
continues, telles que BH (t) soit gaussien pour tout t, BH (0) = 0, E (BH (t) BH (s)) = 0 pour tout s; t, et
cov (BH (t) ; BH (s)) =
i
2 h 2H
jtj jt sj2H + jsj2H
2
(54)
pour tout 0 < H < 1. On peut noter que le cas H = 1=2 correspond au mouvement brownien. La version discrte
dun tel processus est alors appel bruit blanc gaussien fractionnaire (F GN - fractional Gaussian noise). La
relation (54) est dailleurs rapprocher de (53).
La fonction dautocovariance (t; h) = cov (Xt ; Xt+h ) converge vers
(h) = 2
(h + d)
(1 2d)
quand t ! 1
(h + 1 d) (d) (1 d)
(1 2d)
ou (h) s d .h2d1 quand h ! 1
(d) (1 d)
A titre de comparaison, pour les processus ARM A, nous avions vu que la vitesse de dcroissance tait de la
forme exponentielle, cest dire beaucoup plus rapide.
Par dfaut, nous considrerons les processus F ARIMA Gaussien, cest dire que le bruit ("t ) est suppos
tre un processus gaussien. Toutefois, toute une thorie existe pour des processus plus gnraux, non-gaussiens,
mais de variance nie, ou alors de variance innie. Ce dernier cas est dailleurs relativement utilis dans la
pratique. Parmi ces familles, on peut considrer les distributions de Pareto (cest dire que P (" > x) s Cx )
de paramtre < 2, ou les distributions stables (cest dire que leur fonction charactristique est de la
forme (t) = E eit" = exp ( jxj ) o est un paramtre dchelle) de paramtre 1 < 2 (le cas = 2
correspondant au cas gaussien)22 .
Les processus ARF IMA (0; d; 0) peuvent scrire sous la forme
Xt =
+1
X
k=0
(k + d)
(1)k "tk pour d < 1=2
(d) (k + 1)
2
j2 sin (!)j2d
2
j2!j2d
2 2 De plus amples informations peuvent tre trouves dans Samorodnitsky et Taqqu (1994) Stable non-gaussian processes :
stochastic models with innite variance
237
Le graphique ci-dessous prsente les trajectoires de 3 processus F ARIMA, avec d = 0:9, 0:7 et 0:5,
20
10
-10
-20
500
1000
FARIMA5
1500
FARIMA7
2000
FARIMA9
Remarque 79 La densit spectrale de ces processus ARIM A(0; d; 0) vrie la relation suivante
! 2d
f(!) = 2 sin
pour 0 < !
2
de telle sorte que le comportement en 0 est donn par
(55)
(56)
12.2.2
Lcriture des autocorrlations se fait laide de la forme M A du processus, si elle existe. Une autre prossibilit,
en utilisant la partie prcdante est dutiliser le paragraphe prcdant et le rsultat suivant, d Hosking (1981),
Proprit 57 Soit Xt un processus ARF IMA (p; d; q), vriant (1 L)d (L) Xt = (L) "t . Les autocorrlations X du processus Xt peuvent scrire en fonction des autocorrlations des deux processus
k
Yt = (1 L)d Xt
: processus ARMA (p; q)
Zt = (L) (L)1 Xt : processus ARF IMA (0; d; 0)
Alors
X =
k
+1
X
Y Z
i ki
i=1
Y
i
Exemple 108 Considrons les simulations du processus ARF IM A (0; d; 0) Xt dnit par (1 L)d Xt = "t o
"t est un bruit blanc gaussien. Les graphiques ci-dessous reprsentent Xt dans le cas o d = 0:1 gauche d = 0:5
au centre et d = 0:9 droite
3
15
10
-2
-4
-5
1
0
-1
-2
-3
-10
-6
50
100
150
200
250
300
350
400
450
500
50
100
150
200
FARIMA1
250
300
FARIMA5
238
350
400
450
500
50
100
150
200
250
300
FARIMA9
350
400
450
500
Les cas limites d ! 0 et d ! 1 correspondant respectivement au bruit blanc gaussien et la marche alatoire
gaussienne (cest dire au processus intgr dordre 1 ARIM A (0; 1; 0)).
12.3
Estimation du paramtre d
Mthode du log-autocorrlogramme
La mthode la plus simple pour dtecter la prsence de mmoire longue est lutilisation du log-autocorrlogramme.
Comme nous lavons vu, asymptotiquement, les autocorrlations sont de la forme (h) s d .h2d1 . En prenant
le logarithme, log (h) s d + (2d 1) log h, on peut noter une relation linaire entre le logarithme des retards
log h et le logarithme de lautocorrlation log (h). Le coeent d peut alors tre estim en considrant la pente
b
de la droite : soit et tels que
b
b 1 +1
b
log jb (h)j s + log h alors d =
b b
2
Exemple 109 Les graphiques ci-dessous correspondent des log-log autocorrlogrammes de donnes internet
gauche (nombre de bytes changs par seconde) et de la crue du Nil chaque anne droite
LogLog Autocorrelogramme - Nile
0.5
1.5
2.5
3.5
-0.5
-0.5
-1
-1
-1.5
-1.5
-2
-2
-2.5
-2.5
-3
-3
-3.5
-3.5
239
0.5
1.5
2.5
Si laspect linaire apparat dicilement sur des donnes relles, il apparat davantage sur des donnes simules,
LogLog Autocorrelogramme - FARIMA(0,0.5,0)
0.5
1.5
2.5
0.5
1.5
2.5
-0.5
-1
-1
-2
-1.5
-3
-2
-2.5
-4
-3
-5
-3.5
-6
-4
-7
-4.5
-5
-8
avec gauche un processus ARF IMA (0; 0:3; 0) et un processus ARF IM A (0; 0:5; 0) droite. On peut toutefois
noter que les autocorrlations ne sont pas nulles au bout dun temps relativement faible (<200) comme cela
devrait tre le cas pour les processus mmoire courte.
12.3.2
Mthode du log-priodogramme
Soit (Xt ) un processus stationnaire, dont la densit spectrale est de la forme fX () = j2 sin (=2)j2d f ()
o 0:5 < d < 0:5 est le paramtre de mmoire et o f est une fonction continue, borne sur [; +]. Le
priodogramme associ un chantillon de taille T est dni par
T
2
1 X
it
Xt e
IT () =
2T
t=1
On dnit les frquences de Fourier par j = 2j=T pour j = 1; :::; (T 1) =2. A partir de la densit spectrale et
du priodogramme pris aux frquences de Fourier, on obtient la rgression suivante : log IT (j ) = + Zj + "j
o
8
> = log f (0)
>
<
=d
o est la constante dEuler
> Zj = 2 log j2 sin (j =2)j
>
:
"j = log (IT (j )) log f (j ) +
Pt
Z Z log (IT (j ))
bR (s; t) = j=s+1 j
d
o Z est la moyenne des Zj
2
Pt
j=s+1 Zj Z
12.3.3
Mthode de Whittle
Soit (Xt ) un processus F ARIMA (0; d; 0) dnit par (1 L)d Xt = "t o ("t ) est un bruit blanc de variance
0
nie 2 . La mthode de Whittle revient estimer le vecteur = 2 ; d de paramtres. La fonction que lon
cherche minimiser est appele vraissemblance de Whittle, et est donne par
Z +
1
IT ()
log fX (; ) +
LW (X; ) =
d
2
fX (; )
0
b b
Lestimateur de Whittle b = 2 ; d est alors obtenu en minimisant la fonction L (X; ) par rapport .
W
Puisque lchantillon est de taille nie, cela revient minimiser par rapport la fonction QT ( ) dnie par
QT ( ) =
(T 1)=2
X
i=1
12.4
IT (j )
4
QT ( )
b2
et vaut alors
fX (j ; )
T
Le dveloppement rapide des sries longues a t principalement d des questions poses en hydrologie. La
rsolution laide de modle statistique mmoire longue a commenc des 1951, suit un article de Hurst
sur le stockag deau par les barrages.
Ce phnomne de mmoire longue se manifeste par la prsence de cycles de toutes priodicits, qui se
rencontrent dans un grand nombre de phnomnes physiques. Ainsi, en 1975, Mandelbrot a appliqu cette
thorie aux communication, Halett et Rafterey (en 1989) sur de la mtorologie, Ogata et Abe (en 1991) en
sismologie...etc. Des tentatives ont galement t faites en conomie, en particulier pour faire de la prvision
moyen ou long terme.
12.4.1
Les prix dactifs nanciers (taux de change, cours boursiers. . . etc) sont des sries qui prsentent des comportement de type htroscdastique, avec trs souvent de la persistance. En outre, la plupart du temps, les
distributions des prix ne sont pas normales. A partir des annes 80 (et de larticle de Engle en 1982), une large
classe de modles temps discret a t propose : ARCH, GARCH, EGARCH, T ARCH, IGARCH. . . etc.
Une des caractristiques des modles est la prise en compte explicite de lhypothse dhtroscdasticit dans
les sries observes. Nanmoins, leur fonction dautocorrlation est semblable celle dun bruit blanc ou dun
processus mmoire courte : la fonction dautocorrlation dun modle ARCH dcrot exponentiellement vers
0. Pour h grand, lautocorrlation entre Xt et Xth est alors suppose trs faible.
A partir des annes 90, de nouveaux modles, permettant la prise en compte des hypothses dhtroscdasticit
et de mmoire longue ont t proposs. En 1986, Taylor remarquait le premier que les valeurs absolues des
rendements des indices boursiers ont une fonction dautocorrlation qui dcrot trs lentement. En 1993, Ding,
Granger et Engle observent le mme genre de comportement en prenant une puissance quelconque (en prenant
le carr par exemple) du rendement. Plusieurs mthodes ont t proposes pour estimer le coecient d sur des
donnes nancires.
La mthode du log-priodogramme a t propose par Geweke et Porter-Hudak en 1983, an destimer lordre
d, en rgressant le logarithme du priodogramme sur les basses frquences. Cet estimateur, not dGP H , semble
toutefois fortement biais et non-asymptotiquement normal pour 0:5 < d < 0:5. Cet estimateur sera amlior
par Robinson en 1995. La mthode de Whittle propose en 1951 repose sur lapproximation de la matrice de
variance-covariance du processus. Cet estimateur, not dW , est non-biais et sa distribution asymptotique est
normale (comme Fox et Taqqu lont montr en 1986 dans le cas des processus gaussiens, puis gnralis par
Giraitis et Surgalis en 1990).
Rendements dindices boursiers Rt Considrons le processus (Xt ), indice boursier, et posons (Rt ) le
rendement associ, dni par Rt = log Xt log Xt1 . Une analyse rapide montre que, sil y a des phases de
fortes volatilits, les sries de rendement sont gnralement stationnaires. Les graphiques ci-dessous reprsentent
les indices CAC40 (en haut) et DAX30 (en bas), avec, de gauche droite, la srie de lindice (Xt ), le logarithme
241
8.2
3500
8.0
3000
0.04
7.8
2500
7.6
2000
7.4
0.00
7.2
1500
-0.04
7.0
1000
500
1/06/88
6.8
12/06/89
11/06/91
10/06/93
9/06/95
6.6
1/06/88
8/06/97
12/06/89
11/06/91
10/06/93
9/06/95
8/06/97
-0.08
1/06/88
12/06/89
11/06/91
10/06/93
9/06/95
8/06/97
R_CAC
LOG_CAC
FRCAC40
5000
8.8
0.10
4000
8.4
0.05
3000
8.0
0.00
2000
7.6
-0.05
1000
7.2
-0.10
0
1/06/88
12/06/89
11/06/91
10/06/93
9/06/95
6.8
1/06/88
8/06/97
12/06/89
11/06/91
DAXINDX
10/06/93
9/06/95
8/06/97
-0.15
1/06/88
LOG_DAX
12/06/89
11/06/91
10/06/93
9/06/95
8/06/97
R_DAX
Etude de la valeur absolue du rendement jRtj La srie reprsente ci-dessous correspond la valeur
absolue du rendement pour lindice CAC40
0.08
0.06
0.04
0.02
0.00
1/06/88
12/06/89
11/06/91
10/06/93
9/06/95
8/06/97
ABS_CAC
242
o LW dsigne la valeur de la vraissemblance de Whittle, dnie dans la partie prcdante. Les coecients
estims sont signicativement positifs, ce qui conrme lhypothse de mmoire lonue persistante.
2
Etude du carr du rendement Rt
lindice CAC40
0.006
0.005
0.004
0.003
0.002
0.001
0.000
1/06/88
12/06/89
11/06/91
10/06/93
9/06/95
8/06/97
CAC2
Etude par sous-priodes En tudiant par sous-priodes, on peut noter, par exemple pour lindice CAC40,
que le comportement mmoire longue dpend de la priode considre : avec ci-dessous le comportement de
jRt j
87=89
90=94
95=00
87=00
bW
d
0:202
0:118
0:126
0:150
13:59
LW 13:27 13:84 13:71
2
suivi du comportement de Rt
b
dW
LW
87=89
90=94
95=00
0:182
0:134
0:166
18:59 20:31 20:31
87=00
0:170
19:66
Remarque 80 Comme nous lavions rappel au dbut de cette partie, la notion decience de march est trs
lie labsence de mmoire : lhypothse decience est alors associe au modle de marche alatoire. Les
cours boursiers suivent une marche alatoire, et les processus de rentabilit sont alors des bruits blancs : le prix
observ sur le march uctue de faon alatoire autour de sa valeur fondamentale. Cette absence de mmoire
tant empiriquement une hypothse trop restictive, Samuelson a propos en 1965 de remplacer le modle de
marche alatoire par un modle de martingale : ce modle est alors moins restrictif puisquaucune condition
nest alors impose sur les autocorrlations des rsidus.
2 3 (25) = 0:074; (38) = 0:059; (69) = 0:053; (86) = 0:062...etc Un grand nombre dautocorrlations sont encore signicatives
( (179) ; (183) ; (185) par exemple sont encore signicativement non nulles).
243
En fait, Fama a montr en 1970 puis en 1991 que la mmoire courte ne remet pas en cause lhypothse
decience puisque le fait que quelques autocorrlations soient signicatives court-terme ne peut pas tre
utilis pour spculer. En revanche, la prsence dune mmoire longue pose davantage de problmes. En 1986,
Summers a tudi en dtail le phnomne de retour la moyenne (mean reversion) des prix : la suite dun
choc, le prix scarte de sa valeur fondamentale mais nit toujours par y revenir. Ce phnomne implique
alors lexistence possible dun cart entre le cours et la valeur fondamantale. Toutefois, si lecart est durable,
cela peut tre traduit comme la prsence dune mmoire longue. Ce phnomne va alors lencontre de la
proprt decience de Samuelson : plus une srie sera persistante, plus il sera possible detablir une stratgie
rmunratrice sur les marchs, ce qui remet fortement en cause lecience de ces marchs.
12.4.2
Cette tude a t faite dans la thse de Christelle Lecourt (Les variations de taux de change au jour le jour :
une approche conomtrie partir des processus mmoire longue).
De la mme faon que pour les rendements dindice bouriser, la reprsentation ARIMA a t la premire
modlisation retenue. Toutefois, compte tenu des caractristiques de la plupart des sries nancires (en particulier la prsence dune dpendance temporelle dans la variance conditionelle) a conduit modliser les seconds
moments (et moments plus levs). La classe la plus utilise avait trait aux modles dhtroscdasticit conditionelle autorgressive : les modles ARCH (puis les modles GARCH). Toutefois, ces modles nont jamais
permis de modliser correctement les taux de change.
Dans les annes 90, les modles F ARIM A ou ARF IM A introduit par Granger en 1980 ont t utilsis an
de mieux prendre en compte la dpendance temporelle dans les premiers moments.
[A COMPLETER]
12.4.3
Applications en hydrologie
Comme lavait fait Hurst, considrons une suite dobservations (Xt ) (par exemple la quantit deau dcharge
par une rivire dans un rservoir, le jour t), et dnissons la suite (Xt ) correspondant au cumul de ces (Xt )
X0 = 0 et Xt =
t
X
Xi
i=1
Soit d un entier, et considrons R (d), tendue de (Xt ), ajuste sur lintervalle [0; d], cest dire
h
h
u i
u i
Dans notre exemple (Xt ) est l a quantit deau dcharge par une rivire dans un rservoir, le jour t, et (Xt )
la quantit totale deau dverse jusquau jour t. A un horizon d, la quantit moyenne deau arrive par jour
esr Xd =d. Aussi, si la quantit (Xu ) est la quantit deau arrive jusquen u, la quantit uXd =d est la quantit
deau qui aurait du arriver en moyenne. Supposons quun barrage permette un coulement constant, un
dbit journalier de Xd =d: Pour tre certain de ne pas avoir dinnodation, la quantit R (d) est le volume du
rservoir. Il est galement possible de dnir S (t) de telle sorte que
d
1
1X 2
S (t) =
Xi 2
d i=1
d
2
d
X
i=1
Xi
!2
La statistique dite R=S a t introduite par Hurst pour tudier les crues du Nil. Cette statistique est lie
aux processus self-similaires puisque, si Xt est self-similaire alors la statistique R (d) est gale, en distribution,
H
d R (1).
244
Le graphique ci-dessous est extrait de Stochastic modelling of riverow time series, de Lawrance et Kottegoda (1977) :
On y voit un dbit annuel (en haut), mensuel (au milieu) et journalier (en bas).
12.4.4
Applications en conomie
Les processus mmoire longue peuvent tre utiles pour modliser, par exemple, des donnes conomiques,
comme lination. Dans cette partie, nous considrerons le taux dination aux Etats Unis. Les courbes cidessous montrent le taux dination (variation de lindice par rapport au mois prcdant) gauche, et les les
fonctions dautocorrlation droite
0.020
0.015
0.010
0.005
0.000
-0.005
60
65
70
75
80
85
90
95
00
INFLATION_US
Comme on peut le voir sur lautocorrlogramme, les fonctions dautocorrlations sont toutes signicativement
non nulles mme aprs 60 retards (5 ans puisque les donnes sont mensuelles). Le modle test ici est de la
forme suivante
o t est une fonction dummy permettant de modrer une chute brutale de lination en Juillet 1980. Direntes
mthodes peuvent tre utilises pour estimer les paramtres : EM L (), MP L (), ou N LS (), donnant les
245
EM L
0:400
MP L
0:411
0:769
0:783
(0:033)
(0:034)
NLS
0:409
(0:036)
0:620
(0:101)
(0:091)
(0:110)
0:605
(0:123)
0:621
0:447
0:003
0:003
0:011 0:011
b
c
(0:113)
(0:002)
(0:003)
(0:002)
(0:002)
3:626
3:625
(0:121)
0:04
(0:002)
0:011
(0:002)
3:548
12.5
Conseils bibliographiques
AVOUYI-DOVI,S., GUEGAN,D. & LADOUCETTE,S. (2000) Application des processus de longue mmoire lanalyse des indices boursiers
BERAN,J. (1994). Statistics for long-memory processes. Chapman & Hall.
JASIAK,J. (1999). Long memory in economics : a comment. Working Paper - York University
246