You are on page 1of 68




 


 

  

    

10

Les sries temporelles multivaries

Les graphiques ci-dessous donnent lvolution des indices sectoriels du CAC, pour les secteurs de lagroalimentaire, de la distribution, des services nanciers, et de limmobilier. Un portefeuille diversi pourrait
correspondre un portefeuille comportant des titres de chacun de ces secteurs. Pour prvoir les rendements
futurs du portefeuille, il convient de modliser conjointement lvolution de ces dirents indices. Comme le
conrment les graphiques ci-dessous, lvolution de ces indices ne se fait pas indpendemment les uns des autres.
0.08
V_AGRO_ALIM
0.04

12000

0.00

10000

AGRO_ALIM
DISTRIB

-0.04

IMMO
RESID

-0.08
500

1000

1500

2000

2500

1000

1500

2000

2500

1000

1500

2000

2500

1000

1500

2000

2500

0.12

8000

V_DISTRIB
0.08

0.04

0.00

6000

-0.04

-0.08
500

0.04

4000

V_IMMO
0.02

0.00

2000

-0.02

-0.04
500

0.10
V_SERVICE_FI
0.05

-2000

0.00

500

1000

1500

2000

2500

-0.05

-0.10
500

Le graphique de gauche correspond lvolution conjointe de ces indices, alors que les graphiques de droites
permettent de comparer les rendements de ces indices.
Nous allons introduire dans cette partie un certain nombre de concepts an de bien comprendre la dynamique
de la dpendence entre direntes sries (notions de dpendence, de causalit, de cointgration...). Nous verrons
galement une classe de modles, gnralisant les modles AR (p) univaris dans un cadre multivari : les
modles V AR (p).

10.1

La notion de causalit

10.1.1

Dpendence stochastique

Dpendance partir les lois conditionnelles : information de Kullback On peut dnir linformation
de Kullback paar


f (yjx)
K (yjx) = E log
jx
f (y)
Daprs la proprit de Jensen,




f (yjx)
f (y)
f (y)
K (yjx) = E log
jx = E log
jx log E
jx = 0
f (y)
f (yjx)
f (yjx)
et on peut noter que K (yjx) = 0 si et seulement si f (yjX = x) = f (y) presqe surement.
Remarque 61 Dans le cas gaussien, cov (X; Y ) = 0 si et seulement si X et Y sont indpendant. Supposons
que


X
0
X XY
sN
;
Y X Y
Y
0
Alors les lois marginales et conditionelles vrient
Y s N (0; Y )
et
Y jX s N (E (Y jX) ; V (Y jX)) o

179

E (Y jX) = Y X 1 X
X
V (Y jX) = Y Y X 1 XY
X



 


 

  

    

Aussi la loi du rapport gurant dans linformation de Kullback est donn par
p

det (V (Y ) j)
f (yjx)
1
0
=p
exp [Y E (Y jX)] V (Y jX) [Y E (Y jX)]
f (y)
2
det (V (Y jX))
do nallement (aprs calculs)

log

f (y)
f (yjx)

i
h

1
log det V (Y ) :V (Y jX)1
2

La notion de causalit La loi du processus est la loi du processus du couple t ; Yt ). Cette dernire scrit,
(X

la date t; conditionellement au pass (not xt1 et yt1 ), ` xt ; yt jxt1 ; yt1 . Dans le cas o les processus
(Xt ) et (Yt ) sont indpendant, alors

` xt ; yt jxt1 ; yt1 = ` xt jxt1 ` yt jyt1


On peut montrer que

` xt ; yt jxt1 ; yt1
` xt jxt1 ; yt1
` yt jxt1 ; yt1
` xt ; yt jxt1 ; yt1

=


` xt jxt1 ` yt jyt1
` xt jxt1
` yt jyt1
` xt jxt1 ; yt1 ` yt jxt1 ; yt1

En passant au log et en prenant lesprance (et en multipliant par 2) alors


1
1
1

0
0
0
` xt jxt1 ; yt1
` yt jxt1 ; yt1
` xt ; yt jxt1 ; yt1

A = 2E @log
A + 2E @log
A

2E @log
` xt jxt1 ` yt j; yt1
` xt jxt1
` yt jyt1
|
|
|
{z
}
{z
}
{z
}
Mesure de dpendance
Causalit unidirectionnelle
Causalit unidirectionnelle
CX;Y
CY !X
CX!Y

1
0
` xt ; yt jxt1 ; yt1

A
+2E @log
` xt jxt1 ; yt1 ` yt jxt1 ; yt1
|
{z
}
Causalit instantanne
CX!Y
10.1.2

Causalit au sens de Granger

Soient (Xt ) et (Yt ) deux sries temporelles, et notons le pass de (Xt ) et (Yt ), X t = fXt ; Xt1 ; :::g et Y t =
fYt ; Yt1 ; :::g. Granger a introduit en 1969 direntes notions de causalit :
Dnition 49 (i) Y cause X la date t si et seulement si

E Xt jX t1 ; Y t1 6= E Xt jX t1

(ii) Y cause X instantanment la date t si et seulement si

E Xt jX t1 ; Y t 6= E Xt jX t1 ; Yt1

Il y a quivalence entre
(1) X ne cause pas Y instantanment la date t
(2) Y ne cause pas X instantanment la date t

180



 


 

  

    

Exemple 90 Soient (Xt ) et (Yt ) dnis par

Xt = "t + Zt + Zt1
Yt = Zt
o ("t ) et (Zt ) sont des bruits blancs indpendants.

X
(i) E t jX t1 ; Y t1 = Zt1 = Yt1 : Y cause X la date t si et seulement si 6= 0

(ii) E Xt jX t1 ; Y t = Zt +Zt1 = Yt +Yt1 : il y a causalit instantanne de Y vers X si et seulement


si 6= 0

10.2

La notion de cointgration

Lanalyse de la cointgration permet didentier la relation entre plusieurs variables. Cette notion a t introduite ds 1974 par Engle et Newbold, sous le nom de spurious regressions, ou rgressions fallacieuses, puis
formalis par Engle et Granger en 1987, et enn par Johansen en 1991 et 1995.
Une srie est intgre dordre d sil convient de la direncier d fois avant de la stationnariser.
Dnition 50 La srie (Xt ) sera dite intgre dordre d (d 1) si d1 Xt nest pas stationnaire et d Xt
est stationnaire. Une srie stationnaire sera dite intgre dordre 0.
Remarque 62 Soient (Xt ) une srie stationnaire et (Yt ) intgre dordre 1, alors (Xt + Yt ) est intgre dordre
1. Toutefois, si (Xt ) et (Yt ) sont intgres dodre d, alors (Xt + Yt ) peut tre soit intgre dordre d, soit
stationnaire (dans le cas o les tendances sannulent).
Le graphique ci-dessous gauche prsente deux sries non-cointgres, alors que le graphique de droite
correspond des sries cointgres
400

8000

300

6000

200

4000

100

2000

0
25 30 35 40 45 50 55 60 65 70 75 80 85 90
OEUFS

60

POULET

65

70

75
PIB

80

85

90

95

00

CONSOMMATION

avec droite, les P IB et la consommation aggrge en France, et gauche, le prix de la douzaine doeufs et
dun poulet, aux Etats Unis. Comme nous le verrons plus tard, mme si les courbes de gauches semblent avoir
une tendance commune, elles ne sont pas pour antant contgres.
Dnition 51 Deux sries (Xt ) et (Yt ) sont cointgres si
(i) (Xt ) et (Yt ) sont intgres dordre d
(ii) il existe une combinaison linaire de ces sries qui soit intgre dordre strictement infrieur d, not
db
Dans le cas de lintgration, on notera Xt s I (d), et pour la cointgration Xt ; Yt s CI (d; b). Le vecteur
(; ) tel que Xt + Yt s I (d b) sera appel vecteur de cointgration.
Exemple 91 Le cas le plus simple est le suivant : deux sries (Xt ) et (Yt ) intgres dordre 1 seront cointgres
sil existe une combinaison linaire Xt + Yt telle que le processus (Zt ) dni par Zt = Xt + Yt soit
stationnaire. Aussi, si Xt est intgr dordre 1 (par exemple une marche alatoire), et si ("t ) un un bruit blanc

181



 


 

  

    

(Xt ) et (Xt + "t ) sont cointgrs. Ce cas est reprsent ci-dessous, avec gauche (Xt ) et (Yt ) o Yt = Xt +"t +,
et droite la dirence ( + "t ).
25

20
6
15
10

5
2
0
0

-5
20

40

60

80

100

PROCESSUS_X

120

140

160

180

20

200

40

60

80

100

120

140

160

180

200

PROCESSUS_DIFF

PROCESSUS_Y

Les graphiques ci-dessous reprsentent les sries (Xt ) et (Zt ) o Zt = Xt + "t + , et droite la somme
( "t ).
25

20

20
18
15
10

16

5
14
0
-5

12
20

40

60

80

100

PROCESSUS_X

120

140

160

180

200

20

40

60

PROCESSUS_Z

80

100

120

140

160

180

200

PROCESSUS_SOMME

Les deux combinaisons linaires tant stationnaires, les sries sont cointgres. La notion de cointgration peut
galement se visualiser en reprsentant le nuage de points (scatterplot) des observations (Xt ; Yt ) - gauche - et
(Xt ; Zt ) - droite

15
PROCESSUS_X

20

15
PROCESSUS_X

20

10

10

-5

-5
0

10

15

20

-5

25

10

15

20

25

PROCESSUS_Z

PROCESSUS_Y

Remarque 63 Cette dernire remarque permet davoir davoir une intuition visuelle sur la prsence ou absence
de relation de cointgration (linaire) entre les variables prsentes initialement, avec gauche les observations

182



 


 

  

    

des prix du poulet et des oeufs, et droite, le P IB et la consommation


8000

400

300

PIB

OEUFS

6000
200

4000
100

2000
1000

0
0

50

100

150

200

250

2000

4000

5000

CONSOMMATION

POULET

10.2.1

3000

Modles correction derreur (ECM)

Consdrons deux variables (Xt ) et (Yt ) cointgres dordre 1 (Xt ; Yt s CI (1; 1)) et soit [; 1] le vecteur de
cointgration. Lide des modles correction derreur est de considrer des relations de la forme
Yt = Xt + [Yt1 Xt1 ] + "t

(41)

ce qui revient dcomposer un processus stationnaire (Yt ) en une somme de deux processus stationnaires
(Xt et Yt1 Xt1 ). De faon plus gnrale que (41), ces modles scrivent
Yt = +

p
X
i=1

i Yti +

q
X
j=0

bi Xti + c [Yt1 Xt1 ] + t

o les variables interviennent soit travers leurs dirences premires (supposes stationnaires), soit travers un
terme dcart la cible long terme, la priode prcdante (qui doit tre stationnaire si la thorie conomique
sous-jacente est pertinente).
Proprit 49 Thorme de reprsentation de Granger - Toutes les sries cointgres peuvent tre reprsentes par un modle correction derreur
Preuve. Engle,R.E. & Granger,C.W.J. (1987). Cointegration and error-correction : representation, estimation and testing. Econometrica. 55
Remarque 64 Le thorme de reprsentation de Granger prsente lintrt de faire la synthse entre les deux
approches:
- lapproche ECM issue de lide de concilier des proccupations de thorie conomique avec une criture
rigoureuse des quations conomtriques
- lapproche V AR (que nous dvelopperont dans la partie suivante) issue dune approche purement statistique,
de type bote noire
10.2.2

Tests de cointgration

An de tester la cointgration entre deux variables, on peut utiliser lalgorithme mis en place par Engle et
Granger.
(1) tester lordre dintgration des variables : une des conditions ncessaire pour quil y ait cointgration
tant que les deux sries doivent tre intgres de mme ordre. Ces tests reposent sur lutilisation des tests de
Dikey & Fuller. On cherche alors d tel que Xt s I (d) et Yt s I (d).
(2) estimation de le relation de long-terme.
Compte tenu du thrme de reprsentation de Granger, il est galement possible de tester la cointgration
en estimant le modle correction derreur associ. Cette estimation peut se faire en deux tapes, en estimant
par mco la relation de long-terme
Yt = + Xt + bt
b b
"
183



 


 

  

    

puis en estimant, toujours par mco la relation de court-terme


Yt = Xt + bt1 + t
"
Le coecient doit alors tre signicativement ngatif : dans le cas contraire, on rejette lhypothse dune
modlisation de la forme ECM:
10.2.3

Gnralisation k variables

La notion de cointgration peut se gnraliser de 2 k variables.


10.2.4

Dirences entre les approches de Engle/Granger et de Johansen

Comme nous venons de le voir la mthode de Engle et Granger (1987) sarticule en deux tapes
(1) rgression statistique entre variables intgres (aprs avoir vri que les variables sont intgres de
mme ordre)
(2) test de vricarion de la stationnarit des rsidus (test de Dikey & Fuller )
La mthode Johansen consiste tester les restrictions imposes par la cointgration sur le modle V AR non
restreint. On considre un modle V AR (p) de la forme
Yt = A1 Yt1 + :: + Ap Ytp + "t = Yt1 + 1 Yt1 + 2 Yt2 + ::: + p1 Ytp+1 + "t
o = (A1 + ::: + Ap ) I et i = (Ai+1 + ::: + Ap ). Le thorme de reprsentation de Granger arme alors
que le coecient de la matrice a un rang rduit r < k, nombre de variables cointgres, et donc, il existe des
matrices U et V de rang r, telles que = U V 0 et telles que V 0 Yt soit stationnaire.
r est alors le nombre de relations de cointgration (rang de cointgration), chaque clonne de V est le vecteur
de cointgration, et les lments de U sont des paramtres dajustement.
La mthode de Johansen consiste estimer la matrice et de voir si on peut rejeter des restrictions impliques
par le rang rduit de : si on a k variables endognes, toutes avec une racine unitaire (non stationnaire,
mais stationnaire aprs direnciation - une fois), on peut avoir k 1 relations de cointgration linaires
indpendantes. Sil ny a aucune relation de cointgration, des analyses standards de sries chronologiques telles
que les V AR peuvent tre appliques aux dirences premires des donnes.
Exemple 92 Sur les donnes dtailles dans lexemple (10:3:5), intgres19 , le test de de causalit de Granger
propos par EV iews donne les rsultats suivants, droite
Pairwise Granger Causality Tests
Sample: 1992:01 1999:12

20

Lags:
Lags: 1

Null Hypothesis:
Z2 does not Granger Cause Z1
Z1 does not Granger Cause Z2

-20

Obs
95

F-Statistic
8.19171
1.63180

Probability
0.00521
0.20467

Lags:
Lags: 2

-40

Null Hypothesis:
Z2 does not Granger Cause Z1
Z1 does not Granger Cause Z2

-60

Obs
94

F-Statistic
23.8840
2.73080

Probability
5.0E-09
0.07063

Lags:
Lags: 3

-80
92

93

94

95

96
Z1

97

98

Null Hypothesis:

99

Z2 does not Granger Cause Z1


Z1 does not Granger Cause Z2

Z2

Obs
93

F-Statistic
16.0105
2.42069

Probability
2.4E-08
0.07152

avec gauche les courbes des processus Z1 et Z2 . Trois cas sont prsents ici : lorsque le modle contient 1, 2
et 3 retards. Lhypothse nulle est ici quil ny a pas causalit, savoirque Z2 ne cause pas Z1 dans la premire
quation, et que X ne cause pas Y dans la seconde. Ici, on rejette lhypothse nulle selon laquelle Z2 ne cause
pas Z1 car la puissance associe aux tests est trs faible (dans les trois cas), et au seuil 5, on accepte lhypothse
que Z1 cause Z2 au sens de Granger. Au contraire, on rejete lhypothse de causalit de Z2 vers Z1 .
1 9 Ce

test (test de Johansen ) est un test de contgration : il nest donc valable que sur des variables non-stationnaires.

184



 


 

  

    

Le test de Johansen est prsent ci-dessous


Included observations: 91
Test assumption: No deterministic trend in the data
Series: Z1 Z2
Lags interval: 1 to 4
Eigenvalue

Likelihood
Ratio

0.035347
0.007598

3.968895
0.694084

5 Percent
Critical Value

Included observations: 91
Test assumption: No deterministic trend in the data
Series: Z1 Z2
Lags interval: 1 to 4

1 Percent
Critical Value

12.53
3.84

Hypothesized
No. of CE(s)

16.31
6.51

Eigenvalue

Likelihood
Ratio

0.104344
0.006586

10.62946
0.601353

None
At most 1

5 Percent
Critical Value
15.41
3.76

1 Percent
Critical Value

Hypothesized
No. of CE(s)

20.04
6.65

None
At most 1

*(**) denotes rejection of the hypothesis at 5%(1%) significance level


L.R. rejects any cointegration at 5% significance level

*(**) denotes rejection of the hypothesis at 5%(1%) significance level


L.R. rejects any cointegration at 5% significance level

Unnormalized Cointegrating Coefficients:

Unnormalized Cointegrating Coefficients:

Z1
0.019804
-0.029400

Z1
0.018941
-0.037981

Z2
-0.023022
0.040442

Normalized Cointegrating Coefficients: 1 Cointegrating Equation(s)


Z1
1.000000
Log likelihood

Normalized Cointegrating Coefficients: 1 Cointegrating Equation(s)

Z2
-1.162462
(0.17327)

Z1
1.000000

-390.7528

Likelihood
Ratio

0.032396
0.007270

3.741320
0.678590

Z2
-0.887939
(0.25230)

Log likelihood

5 Percent
Critical Value
12.53
3.84

1 Percent
Critical Value

-385.9191

Data Trend:None
None
Linear
Linear
Quadratic
------------------------------------------------------------------------------------Rank No Intercept
Intercept
Intercept
Intercept
Intercept
No.
No Trend
No Trend
No Trend
Trend
Trend

Hypothesized
No. of CE(s)

16.31
6.51

None
At most 1

Log Likelihood by Model and Rank


0
1
2

*(**) denotes rejection of the hypothesis at 5%(1%) significance level


L.R. rejects any cointegration at 5% significance level

-409.0860
-407.9648
-407.9018

-409.0860
-402.8793
-401.7586

-407.4978
-402.0757
-401.7586

-407.4978
-402.0359
-397.3329

-402.6242
-397.9195
-397.3329

Akaike Information Criteria by Model and Rank

Unnormalized Cointegrating Coefficients:


Z1
0.023160
-0.022981

C
13.86919

Sample: 1992:01 1999:12


Included observations: 93
Series: Z1 Z2
Lags interval: 1 to 2

Included observations: 93
Test assumption: No deterministic trend in the data
Series: Z1 Z2
Lags interval: 1 to 2
Eigenvalue

Z2
-0.016819
0.049285

0
1
2

8.797548
8.773436
8.772081

0
1
2

Z2
-0.027864
0.032209

9.187449
9.358288
9.551884

8.797548
8.664070
8.639970

8.763393
8.646789
8.639970

8.763393
8.645932
8.544793

8.658585
8.557409
8.544793

9.250770
9.376997
9.519545

9.243436
9.337211
9.519545

Schwartz Criteria by Model and Rank

Normalized Cointegrating Coefficients: 1 Cointegrating Equation(s)


Z1
1.000000
Log likelihood

Z2
-1.203111
(0.11159)

L.R. Test:

9.187449
9.297660
9.517247

9.250770
9.329116
9.517247

Rank = 0 Rank = 0 Rank = 0 Rank = 0 Rank = 0

-437.2565

EV iews propose plusieurs options pour les tests de cointgration20 . La sortie en bas droite est la sortie
rcapitulative. Pour les autres, les valeurs propres sont prsentes dans la premire colonne. Le LR - Likelihood
Radio - est dni par
k
X
log (1 i ) pour r = 0; 1; :::; k 1
Q (r) = T
i=r+1

o i est la ime valeur propre (lorsquelle sont ranges par ordre croissant). Cette statistique est aussi appele statistique de la trace. La premire ligne de la cinquime colonne (Hypotheized No. of CE(s)) teste
lhypothse de non-cointgration (r = 0 : relation de cointgration). La deuxime ligne teste lhypothse dune relation de contgration (r = 1), la deuxime ligne teste lhypothse de deux relations de contgration (r = 2)...etc.
Toutes ces hypothses sont testes contre lhypothse alternative que la matrice est de plein rang (cest dire
que toutes les sries sont stationnaires). Dans lexemple ci-dessus, la statistique de la trace ne rejette aucune
des hypothse au seuil de 5% : il ny a donc aucune relation de cointgration car on na pas rejet 0 (None)
relation de cointgration pour au moins une.
Le vecteur de cointgration nest pas identi, moins dimposer une normalisation arbitraire : EV iews
adopte une normalisation de sorte que les r premires sries dans le vecteur Yt soient normaliss une matrice
identit. Dans le cas prsent en haut droite, par exmple, la relation de cointgration normalise qui fait
lhypothse (ctive) dune relation de cointgration est donne par
Normalized Cointegrating Coefficients:
1 Cointegrating Equation(s)
Z1
1.000000

Z2
-0.887939
(0.25230)

Log likelihood

C
13.86919

-385.9191

ce qui donne la relation de cointgration de la forme Z1 0:8873:Z2 + 13:869. Enn, le graphique ci-dessous
montre le scatterplot de (Z1 ; Z2 ), qui montre (graphiquement) quil ny a pas de relation de cointgration a
2 0 Les

5 cas tudis sont les suivants :


(i) pas de trend, pas de constante dans la relation de contgration Yt1 = 0 Yy1
(ii) pas de trend dans la relation de contgration Yt1 = ( 0 Yy1 + )
(iii) trend linaire dans la relation de contgration Yt1 = ( 0 Yy1 + ) + ?
(iv) trend linaire dans la relation de contgration Yt1 = ( 0 Yy1 + + t) + ?
(v) trend quadratique dans la relation de contgration Yt1 = ( 0 Yy1 + + t) + ? ( + t)

185



 


 

  

    

priori, compte tenu de cette rupture pour les valeurs positives, avec deux tendances distinctes.
20

Z1

-20

-40

-60

-80
-80

-60

-40

-20

20

Z2

Exemple 93 Pour reprendre lexemple introductif, les prix de la douzaine doeufs et dun poulet, bien que
non-stationnaires, ne sont pas pour autant contgres,
400

300

200

100

0
25 30 35 40 45 50 55 60 65 70 75 80 85 90
OEUFS

POULET

omme cela peut se voir sur les sorties des tests de Johansen
Included observations: 67
Test assumption: Linear deterministic trend in the data
Series: OEUFS POULET
Lags interval: 1 to 2
Eigenvalue

Likelihood
Ratio

0.072879
0.059236

9.161157
4.091221

5 Percent
Critical Value
15.41
3.76

1 Percent
Critical Value

Hypothesized
No. of CE(s)

20.04
6.65

None
At most 1 *

*(**) denotes rejection of the hypothesis at 5%(1%) significance level


L.R. rejects any cointegration at 5% significance level
Unnormalized Cointegrating Coefficients:
OEUFS
-0.004465
-0.001669

POULET
0.003299
0.003287

Normalized Cointegrating Coefficients: 1 Cointegrating Equation(s)


OEUFS
1.000000

POULET
-0.738944
(0.20045)

Log likelihood

C
-109.7839

-634.8795

Exemple 94 Pour reprendre lexemple introductif, les P IB franais et lindice de la cnsommation sont des
sries non-stationnaires, et cointgres,
8000

6000

4000

2000

0
60

65

70

75
PIB

80

85

90

95

00

CONSOMMATION

186



 


 

  

    

comme cela peut se voir sur les sorties des tests de Johansen
Included observations: 39
Test assumption: No deterministic trend in the data
Series: PIB CONSOMMATION
Lags interval: 1 to 1
Likelihood
5 Percent
1 Percent
Eigenvalue
Ratio
Critical Value
Critical Value
0.266578
0.111813

16.71568
4.624333

12.53
3.84

Hypothesized
No. of CE(s)

16.31
6.51

None **
At most 1 *

*(**) denotes rejection of the hypothesis at 5%(1%) significance level


L.R. test indicates 2 cointegrating equation(s) at 5% significance level
Unnormalized Cointegrating Coefficients:
PIB
0.000644
-0.001586

CONSOMMATION
-0.000961
0.002665

Normalized Cointegrating Coefficients: 1 Cointegrating Equation(s)


PIB
1.000000

CONSOMMATION
-1.492961
(0.12258)

Log likelihood

-434.1513

10.3

La modlisation V AR (p)

10.3.1

La reprsentation V AR (p)

La reprsentation V AR k variables et p dcalages V AR (p) scrit sous forme matricielle,


Yt = A0 + A1 Yt1 + ::: + Ap Ytp + "t
avec

6
6
Yt = 6
4

Yt1
Yt2
.
.
.
Ytk

6
7
6
7
7 Ai = 6
4
5

a1
1i
a1
2i
.
.
.

a2
1i
a2
2i
.
.
.

ak
1i
ak
2i
.
.
.

a1
ki

a2
ki

ak
ki

6
7
6
7
7 A0 = 6
4
5

a0
1
a0
2
.
.
.
a0
k

(42)
3

6
7
6
7
7 et "t = 6
4
5

"1
t
"2
t
.
.
.
"k
t

3
7
7
7
5

La matrice de covariance des erreurs = E ("0 "t ) est ici inconnue. De la mme faon que dans le cas
t
univariari, on pourra noter
A (L) Yt = A0 + "t
o A est un polynome matriciel (k k); A (z) = I A1 z A2 z 2 ::: Ap z p , et on appera polynme

charactristique let polynme det I A1 z A2 z 2 ::: Ap z p .

Remarque 65 Lcriture V AR prsente ici suppose que la ime quation, dnissant Yti ne fasse intervenir
aucun Ytj . Ceci nest pas forcment toujours le cas : considrons les deux processus stationnaires (Xt ) et (Yt )
dnis par les relations suivantes

Xt = + 1 Xt1 + ::: + p Xtp Yt + 1 Yt1 + ::: + q Ytq + "t


Yt = a + b1 Yt1 + ::: + br Ytp dXt + c1 Xt1 + ::: + cs Xts + t
qui peut se rcrire sous forme matricielle DZt = A + 1 Zt1 + ::: + n Ztn + ut o n = max fp; q; r; sg avec
les notations matricielles

Xt
"t
i i
1

, ut =
,D=
, A=
et pour i = 1; :::; n Ai =
Zt =
d 1
a
Yt
t
bi ci
avec la convention, par exemple, i = 0 pour p < i n. On supposera que les bruits ("t ) et (t ) sont noncorrls. Il est alors possible dcrire lquation sous forme rduite, obtenue en mutipliant par par D1 :
Zt = + 1 Zt1 + ::: + n Ztn + vt o vt = B 1 ut

On constate que les innovations (vt ) sont alors fonctions des innovations de la forme structurelle, ("t ) et (t ),
et peuvent tre corrls :

0
"t t t d"t
vt =
;
1 d 1 d
187



 


 

  

    

2
2
Si chacunes des composantes sont i:i:d: les variances sont alors respectivement 2 + 2 = [1 d] et 2 + d2 = [1 d] .
"

"
On constate que lon peut alors toujours se ramener des processus de la forme (42).
Dnition 52 Le processus Yt est stationnaire (au second ordre) si
(i) E (Yt ) = pour tout t
(ii) V (Yt ) est nie et constante
(iii) cov (Yt ; Yt+k ) = E ([Yt ] [Yt+k ]) = k pour tout t
Proprit 50 U,n processus V AR (p) est stationnaire si le polynme caractrisque (dni partir du dtermi

nant det I A1 z A2 z 2 ::: Ap z p ) a ses racines lextrieur du cercle unit.


Preuve. Hamilton (1994) page 259

Exemple 95 Le processus bivari dni par


1
1 1
Yt
2
0:7 0:4
Yt1
"t
=
+
+
2
3
0:2 0:3
Yt2
Yt1
"2
t
a pour polynme caractristique



1 0:7z
1 0
0:7 0:4
det

z =
0:2z
0 1
0:2 0:3

0:4z
= 1 z + 0:13z 2
1 0:3z

qui admet pour racines z1 = 0:84 et z2 = 0:15 : le processus nest pas stationnaire.

Exemple 96 Le processus dni par


1
1 1
Yt
2
0:2 0:4
Yt1
"t
=
+
+
2
3
0:7 0:3
Yt2
Yt1
"2
t
a pour polynme caractristique



1 0:2z
1 0
0:2 0:4
det

z =
0:7z
0 1
0:7 0:3

0:4z
= 1 0:5z 0:22z 2
1 0:3z

qui admet pour racines conjugues z1 = 0:25 0:79i et z2 = 0:25 + 0:79i : le processus nest pas stationnaire.
Exemple 97 Le processus dni par
1
1 1
Yt
2
0:2 0:7
Yt1
"t
=
+
+
2
3
0:3 0:4
Yt2
Yt1
"2
t

a pour polynme caractristique



1 0:2z
1 0
0:2 0:7
det

z =
0:z
0 1
0:3 0:4

0:7z
= 1 0:6z + 0:13z 2
1 0:4z

qui admet pour racines z1 = 1:30 et z2 = 5:91 : le processus est stationnaire.

Les processus V AR (p) peuvent se mettre sous forme V AR (1) en utilisant lcriture suivante. Soit Yt =
0
1
Yt ; ::::; Ytn 2 Rn satisfaisant la reprsentation V AR (p) suivante : pour tout t,
Yt
(n;1)

= + A1 Yt1 + ::: + Ap Ytp + "t soit A (L) Yt = + "t

1
1
Lesprance de ce processus est alors E (Xt ) = E (L) [ + "t ] = (1) c = pour tout t: On peut alors
rcrire (L) [Yt ] = "t . Considrons alors
1
0
0
0
1
1
A1 A2 Ap1 Ap
Yt
"t
C
B In 0n
0n
0n C
B Yt1 C
B
B 0 C
B
B 0n In
C
0n
0n C et = B .n C
Zt = B
C
B . C
C A =B
.
t
.
@
@ . A
A (np;np) B
. C
..
(np;1)
.
(np;1)
. A
@
.
.
0n
Ytp+1
0n 0n
0n
In
188



 


 

  

    

On peut alors noter que le processus V AR (p) (Yt ) peut se rcrire sous la forme dun processus transform Zt
satisfaisant une reprsentation V AR (1) :
Zt = AZt1 + t
Exemple 98 Considrons le processus bivari dni par
1
1
1 1
Yt
3
0:2 0:7
Yt1
0:4 0:6
Yt2
"t
=
+

+
2
2
1
0:1 0:8
0:3 0:4
Yt2
Yt1
Yt2
"2
t
suivant un modle V AR (2). Le polynme autorgressif A (L) est alors donn par

1 0
0:2 0:7
0:4 0:6
A (L) =
+
L+
L2
0 1
0:3 0:4
0:1 0:8

1 0:2L + 0:4L2 0:7L + 0:6L2


=
0:3L + 0:1L2
1 0:4L + 0:8L2
Lesprance du processus (Yt ) est alors donne par
= A (L)1
On a alors

10.3.2

3
1

2:59
1:80

3 2
32 1
Yt1 2:59
0:2 0:7 0:4 0:6
Yt1 2:59
2
6 Yt2 1:80 7 6 0:3 0:4 0:1 0:8 7 6 Yt1 1:80
6 1
7=6
76 1
4 Yt1 2:59 5 4 1
0
0
0 5 4 Yt2 2:59
2
2
Yt1 1:80
Yt2 1:80
0
1
0
0

3
"1
t
7 6 "2 7
7+6 t 7
5 4 0 5
0
2

Les modles ARM AX ou V ARMA

Les modles ARMAX sont une gnralisation des processus V AR (p), de la mme faon que les processus
ARM A (p; q) sont une gnralisation des processus AR (p) :
Yt = A0 + A1 Yt1 + ::: + Ap Ytp + "t + B1 "t1 + ::: + Bq "tq
o Ai et Bj sont des matrices k k. Il est possible de distringus les processus V M A (obtenus quand p = 0) :
moyennes mobiles mutivaries.
- les processus V AR sont toujours inversibles, et sont stationnaires si les racines du polynme caractristique
sont lextrieur du disque unit
- les processus V M A sont toujours stationnaires, et sont inversibles si les racines du polynme caractristique
sont lextrieur du disque unit
- les conditions dinversibilit et de stationnarit des processus ARM A dpendent des parties V AR et V MA
du processus.
Remarque 66 Il est possible de montrer que les processus V ARM A peuvent se mettre sous forme V AR (1) :
Soit Yt suivant un modle V ARMA (p; q), tel que
Yt = A1 Yt1 + ::: + Ap Ytp + "t M1 "t1 ::: Mq "tq
et notons
2

Yt
6
.
.
6
.
6
6 Ytp+1
Zt = 6
6
"t
6
6
.
.
4
.
"tq1

"t
0
.
.
.

6
7
6
7
6
7
7
6
7
7
6
7
7
6 0 7
7
7 vecteur de taille K (p + q) et Ut = 6
7
6 "t 7 de taille Kp + Kq
7
6
7
7
6 0 7
7
6
7
5
6 . 7
4 . 5
.
0
189



 


 

  

    

On posera alors

0
B22

A1
6 IK
6
=6
4

Ap1

Ap
0
.
.
.

IK

M1
6 0
6
=6
4

Mq1

Mq
0
.
.
.

0
3

B=

B11
B21

de taille K (p + q) K (p + q)

o les blocs Bij sont dnis par

B11

B12

B12

..

0
6 IK
6
=6
4

..

0
0
.
.
.

IK

..

7
7
7 de taille Kp Kp ,
5
3

7
7
7 de taille Kp Kq
5

7
7
7 de taille Kq Kq
5

Alors, le processus (Zt ) suit un modle V AR (1) ; Zt = BZt1 + Ut


10.3.3

Estimation des paramtres dun modle V AR

Chacun des paramtres peut tre obtenue soit par mco (moindres carrs ordinaires), soit par maximum de
vraissemblance. Pour un modle V AR stationnaire, la stationnarit de la srie va entraner la convergence et la
normalit asymptotique des estimateurs obtenus par mco, ce qui permet de mener des tests sur les paramtres
du modle, ou de donner des intervalles de conance pour les prvisions. Toutefois, comme nous lavons dj dit
dans le cas univari, les variables conomiques sont souvent intgres (dordre 1 ou plus). Dans ce cas, lcriture
(42) est toujours valable, mais le determinant du polynme charactristique admet des racines de module 1.
Les coecients du modles peuvent toujours tre estims par des mco et les estimateurs obtenus sont toujours
p
convergents (en fait, ils sont mme super-convergents puisquils convergent la vitesse 1=T et non pas 1= T ).
Cependant, ces estimateurs ne sont pas asymptotiquement normaux, et lon peut plus, dans ce cadre, mener les
tests usuels sur les paramtres du modle, ni dterminer dintervalle de conance pour les prvisions.
Cependant, lorsque les variables sont non-stationnaires et cointgres, les rsultats de Engle et Granger (1987)
montrent que la bonne spcication du modle consiste utiliser une forme correction derreur (dvelopp dans
la partie (10:2:1)), qui permet de se ramener une criture ne faisant intervenir que des variables stationnaires,
et dans lesquels il est possible deectuer des tests sur les paramtres du modle.
10.3.4

Autocovariances et autocorrlations

La k-ime autocovariance croise entre la i-ime et la j-ime variable est donne par
h

i
i
j
j
Yth Y
ij (h) = E Yti Y

Remarque 67 La proprit de symtrie valable dans le cas univari nest plus vrie ici : pour h 6= 0,
ij (h) 6= ij (h). En eet, si Yt dpend fortement de Xt1 , ce ne signie pas que Yt dpende, de la mme
faon, de Xt+1 . Et de mme ij (h) 6= ji (h)
La fonction dautocorrlation est alors
ij (h)
ij (h) = q
i (0) j (0)
190



 


 

  

    

Aussi, on peut dnir, pour tout retard h la matrice dautocorrlation


3
2
11 (h) 12 (h) 1n (h)
6 21 (h) 22 (h) 1n (h) 7
7
6
(h) = 6
7
.
.
.
.
.
.
5
4
.
.
.
n1 (h) n2 (h) nn (h)

On peut alors noter que (h) = (h)0 , et que les lments sur la diagonale correspondent aux autocorrlations
usuelles.
10.3.5

Application sur un exemple

Considrons les sries suivantes, Y1 et Y2 ,


4

-2

-4

-6
92

93

94

95

96
Y1

191

97
Y2

98

99



 


 

  

    

Les observations sont les suivantes,


1992 01
1992 02
1992 03
1992 04
1992 05
1992 06
1992 07
1992 08
1992 09
1992 10
1992 11
1992 12
1993 01
1993 02
1993 03
1993 04
1993 05
1993 06
1993 07
1993 08
1993 09
1993 10
1993 11
1993 12
1994 01
1994 02
1994 03
1994 04
1994 05
1994 06
1994 07
1994 08

Y1
0:999
0:415
1:22
1:251
2:056
2:847
3:446
1:316
0:436
1:033
0:889
2:096
2:963
0:714
1:109
2:626
1:924
2:899
2:627
0:824
0:16
1:395
1:019
1:303
3:123
0:533
0:427
0:793
2:38
2:66
1:726
1:596

Y2
0:202
2:135
1:734
0:768
2:648
2:387
2:104
1:869
0:443
0:01
0:157
0:949
1:135
1:672
2:234
0:845
1:35
1:449
0:523
0:281
0:695
0:117
1:347
1:329
0:623
0:975
2:129
1:596
1:407
2:467
2:019
1:063

1994 09
1994 10
1994 11
1994 12
1995 01
1995 02
1995 03
1995 04
1995 05
1995 06
1995 07
1995 08
1995 09
1995 10
1995 11
1995 12
1996 01
1996 02
1996 03
1996 04
1996 05
1996 06
1996 07
1996 08
1996 09
1996 10
1996 11
1996 12
1997 01
1997 02
1997 03
1997 04

Y1
0:806
0:79
0:155
0:062
1:259
0:263
0:642
2:391
0:032
0:316
1:717
0:329
2:52
1:36
2:264
3:935
5:133
2:051
2:321
1:767
0:696
0:393
0:586
1:334
0:559
0:696
0:979
0:615
1:173
0:115
0:427
1:618

Y2
1:036
1:188
0:952
2:341
1:138
0:753
1:257
1:385
0:253
0:994
1:68
0:398
1:584
1:163
2:163
3:727
3:934
3:298
0:705
0:308
1:596
0:226
0:203
0:278
0:143
1:111
1:249
1:395
1:409
0:464
1:125
1:52

1997 05
1997 06
1997 07
1997 08
1997 09
1997 10
1997 11
1997 12
1998 01
1998 02
1998 03
1998 04
1998 05
1998 06
1998 07
1998 08
1998 09
1998 10
1998 11
1998 12
1999 01
1999 02
1999 03
1999 04
1999 05
1999 06
1999 07
1999 08
1999 09
1999 10
1999 11
1999 12

Lanalyse univarie des sries Y1 et Y2 donne les autocorrlogrammes suivants,

192

Y1
2:22
2:171
3:32
1:397
0:555
0:438
1:033
1:972
0:848
0:337
0:074
2:177
1:263
0:246
0:391
1:471
0:363
1:15
2:115
1:75
2:367
1:398
0:7
0:147
1:01
0:728
0:222
0:496
1:734
1:217
1:899
0:373

Y2
2:913
2:405
2:394
0:704
1:461
0:134
1:271
1:024
0:048
0:3
1:264
1:406
0:855
1:389
1:063
0:434
0:776
1:124
2:718
3:002
0:387
1:295
0:258
0:663
0:000
0:535
1:054
0:129
1:292
0:395
0:407
0:227



 


 

  

    

2
1
Lautocorrlogramme crois permet de reprsenter Y2 !Y1 (h) = corr Yt1 ; Yth et Y1 !Y2 (h) = corr Yt2 ; Yth ,

Estimation dun modle V AR (1) avec constante Estimons le modle suivant sur notre chantillon,
1

1 1
Yt
a1
a11 a12
Yt1
"t
=
+
+
2
Yt2
a2
a21 a22
Yt1
"2
t
qui peut se rcrire

1
2
Yt1 = a1 + a11 Yt1 + a12 Yt1 + "1
t
1
2
Yt2 = a2 + a21 Yt1 + a22 Yt1 + "2
t
Pour estimer les paramtres de ce modle, nous pouvons utiliser les mco sur chacune des quations indpendament :
LS // Dependent Variable is Y1
Sample: 1992:01 1999:12
Included observations: 96

LS // Dependent Variable is Y2
Sample: 1992:01 1999:12
Included observations: 96

Variable Coefficient

Std. Error

T-Statistic

Prob.

Variable Coefficient

Std. Error

T-Statistic

Prob.

C
Y1(-1)
Y2(-1)

0.111804
0.096128
0.104954

-1.961460
1.377344
6.785548

0.0528
0.1717
0.0000

C
Y1(-1)
Y2(-1)

0.126545
0.108802
0.118792

-1.893965
2.018300
3.110149

0.0613
0.0464
0.0025

-0.219299
0.132401
0.712173

R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat

0.574829
0.565686
0.976670
88.71123
-132.4279
2.099930

Mean dependent var


S.D. dependent var
Akaike info criterion
Schwartz criterion
F-statistic
Prob(F-statistic)

-0.741438
1.481991
-0.016462
0.063674
62.86777
0.000000

-0.239672
0.219594
0.369461

R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat

0.333872
0.319547
1.105439
113.6457
-144.3175
1.910206

Mean dependent var


S.D. dependent var
Akaike info criterion
Schwartz criterion
F-statistic
Prob(F-statistic)

-0.620939
1.340096
0.231237
0.311373
23.30639
0.000000

dont les sorties graphiques donnent respectivement


4

4
2

-2
-4

-6
1

-2

-4

-1

-2

-2

-4

-3
92

93

94

95

Residual

96

97

Actual

98

92

99

93

94

95

Residual

Fitted

193

96

97

Actual

98

99

Fitted



 


 

  

    

Les rsidus estims, b1 et b2 sont alors estims (reprsents ci-dessus). Leur matrice de variance-covariance
"t
"t
est alors

0:924075 0:545083
b
=
0:545083 1:183809

do les expressions des critres AIC et SC,



k2 1
22
b
= ln 0:796051 + 2 = 0:144759
AIC (1) = ln + 2
n
96
k2 1 ln n
2
2 ln 96
b
SC (1) = ln +
= ln 0:796051 +
= 0:037911
n
96
Cette estimation peut tre faite directement sous EV iews, de faon globale
Sample: 1992:01 1999:12
Included observations: 96
Standard errors & t-statistics in parentheses

Y1 Residuals
2

Y1

Y2

Y1(-1)

0.132401
(0.09613)
(1.37734)

Y2(-1)

0.712173
(0.10495)
(6.78555)

0.369461
(0.11879)
(3.11015)

-0.219299
(0.11180)
(-1.96146)

0.219594
(0.10880)
(2.01830)

-0.239672
(0.12655)
(-1.89397)

-1

-2

-3
92

93

94

95

96

97

98

99

98

99

Y2 Residuals

R-squared
0.574829
Adj. R-squared 0.565686
Sum sq. resids 88.71123
S.E. equation
0.976670
Log likelihood
-132.4276
Akaike AIC
-0.016462
Schwartz SC
0.063674
Mean dependent -0.741438
S.D. dependent 1.481991

0.333872
0.319547
113.6457
1.105439
-144.3171
0.231237
0.311373
-0.620939
1.340096

3
2
1
0
-1
-2
-3
92

93

94

95

96

97

Toutefois, si lon considre les deux rgressions faite au dbut, on peut noter que la constante nest pas
signicative ( un seuil de 5%) : on peut tester un modle V AR (1) sans constante.
Estimation dun modle V AR (1) sans constante Estimons le modle suivant sur notre chantillon,
1
1 1
Yt
a11 a12
Yt1
"t
=
+
2
Yt2
a21 a22
Yt1
"2
t
qui peut se rcrire

1
2
Yt1 = a1 + a11 Yt1 + a12 Yt1 + "1
t
2
1
2
Yt = a2 + a21 Yt1 + a22 Yt1 + "2
t

Pour estimer les paramtres de ce modle, nous pouvons utiliser les mco sur chacune des quations indpendament :
LS // Dependent Variable is Y2
Sample: 1992:01 1999:12
Included observations: 96

LS // Dependent Variable is Y1
Sample: 1992:01 1999:12
Included observations: 96
Variable Coefficient

Std. Error

T-Statistic

Prob.

Variable Coefficient

Std. Error

T-Statistic

Prob.

Y1(-1)
Y2(-1)

0.095009
0.105881

1.845459
6.940826

0.0681
0.0000

Y1(-1)
Y2(-1)

0.107391
0.119680

2.481746
3.294631

0.0148
0.0014

0.175336
0.734900

R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat

0.557240
0.552530
0.991352
92.38113
-134.3737
2.133717

Mean dependent var


S.D. dependent var
Akaike info criterion
Schwartz criterion
F-statistic
Prob(F-statistic)

0.266518
0.394300

R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat

-0.741438
1.481991
0.003241
0.056665
118.3047
0.000000

194

0.308179
0.300819
1.120548
118.0291
-146.1341
1.929628

Mean dependent var


S.D. dependent var
Akaike info criterion
Schwartz criterion
F-statistic
Prob(F-statistic)

-0.620939
1.340096
0.248250
0.301674
41.87322
0.000000



 


 

  

    

dont les sorties graphiques donnent respectivement


4

0
0

-2
4

-4
2

-6

1
0

-2

2
0

-4

-1
-2

-2
-3

-4

92

93

94

95

Residual

96

97

98

Actual

99

92

93

94

95

96

Residual

Fitted

97

98

Actual

99

Fitted

Les rsidus estims, b1 et b2 sont alors estims (reprsents ci-dessus). Leur matrice de variance-covariance
"t
"t
est alors

0:931916 0:553652
=
0:553652 1:193174
do les expressions des critres AIC et SC,
AIC (1) = ln jj + 2

22
k2 1
= ln 0:805407 + 2 = 0:216407
n
96

22 ln 96
k2 1 ln n
= ln 0:805407 +
= 0:0262263
n
96
Cette estimation peut tre faite directement sous EViews, de faon globale
SC (1) = ln jj +

Sample: 1992:01 1999:12


Included observations: 96
Standard errors & t-statistics in parentheses

Y1 Residuals
2

Y1

Y2

Y1(-1)

0.175336
(0.09501)
(1.84546)

0.266518
(0.10739)
(2.48175)

Y2(-1)

0.734900
(0.10588)
(6.94083)

0.394300
(0.11968)
(3.29463)

R-squared
0.557240
Adj. R-squared 0.552530
Sum sq. resids 92.38113
S.E. equation
0.991352
Log likelihood
-134.3733
Akaike AIC
0.003241
Schwartz SC
0.056665
Mean dependent -0.741438
S.D. dependent 1.481991

-1

-2

-3
92

93

94

95

96

97

98

99

98

99

Y2 Residuals
3

0.308179
0.300819
118.0291
1.120548
-146.1337
0.248250
0.301674
-0.620939
1.340096

2
1
0
-1
-2
-3
92

93

94

95

96

97

Comparaison de dirents modles V AR (p) Pour dirents modles V AR (p), les critres AIC et SC
sont

195



 


 

  

    

V AR (1)
V AR (1)
V AR (2)
V AR (2)
V AR (3)
V AR (3)
V AR (4)
V AR (4)

avec
sans
avec
sans
avec
sans
avec
sans

constante
constante
constante
constante
constante
constante
constante
constante

AIC Y1
0:016462
0:003241
0:018655
0:038084
0:059019
0:074667
0:092828
0:111325

jj
0:796051
0:805407
0:741204
0:749653

AIC Y2
0:231237
0:248250
0:242400
0:254792
0:250520
0:276974
0:289736
0:318514

AIC tot
0:144759
0:216407
0:132813
0:121478

SC Y1
0:063674
0:056665
0:152215
0:144932
0:246003
0:234939
0:333236
0:325021

SC Y2
SC tot
0:311373 0:037911
0:301674 0:026226
0:375960
0:080883
0:361640
0:092217
0:437504
0:437246
0:530143
0:532210

La comparaison des critres AIC pousse choisir un modle V AR (1) sans constante. Le modle retenu

1 1
1
0:175 0:735
Yt1
"t
Yt
b = 0:931916 0:553652
=
+
o
2
0:553652 1:193174
0:267 0:394
Yt2
Yt1
"2
t

10.3.6

Prvision laide des modles V AR

Expression de la prvision horizon h Considrons un modle V AR (1) ; Yt = A0 + A1 Yt1 + "t ; estim


partir de T observations. La prvision horizon 1 faite en T est alors
b
b
b
YT (1) = A0 + A1 YT

La prvision horizon 2 est alors

h
i
b
b
b
b b
b
b b
b
b b
b1
YT (2) = A0 + A1 YT (1) = A0 + A1 A0 + A1 YT = A0 + A1 A0 + A2 YT

De faon plus gnrale, la prvision horizon h est alors


i
h
b
b
b
b b
b
b1
b
YT (h) = A0 + A1 YT (h 1) = I + A1 + ::: + Ah1 A0 + Ah YT
1
Lesprance de lerreur de prvision est nulle, et sa variance est donne par
1 =
horizon 1. A horizon 2, cette variance est

et horizon 3, elle vaut

b b1
b b1
2 = 1 + A1 A0 = + A1 A0

b1 b1
b b1 b1 b1
2 = 2 + A2 A20 = + A1 A0 + A2 A20

De faon plus gnrale, la variance de la prvision horizon h est

b
b
b b1 b1 b1
b
b
h = h1 + Ah1 Ah10 = + A1 A0 + A2 A20 + ::: + Ah1 Ah10
1
1
1
1

Des formules analogues existent pour les processus V AR (p). La variance de lerreur de prvision de chacune
des k variables est obtenue sur la diagonale des h : lintervalle de conance de la prvision au niveau 1 =2
est donne par
q
bi
YT (h) t=2 : i;i
h

o t=2 est le fractile de la loi normale.

196



 


 

  

    

Application sur lexemple prcdant Le modle retenu tait


1 1

1
0:175 0:735
Yt1
"t
0:931916 0:553652
Yt
=
+
o =
2
0:267 0:394
0:553652 1:193174
Yt2
Yt1
"2
t
On obtient alors la prvision, faite n dcembre 1999, pour le mois de janvier 2000, de la forme
(
1
2
b1
Y200001 = 0:175336:Y199912 + 0:7349:Y199912
2
1
2
b
Y200001 = 0:266518:Y199912 + 0:3943:Y199912

En utilisant cette estimation, on obtient de faon rcursive


(
b1
b1
b2
Y200002 = 0:175336:Y200001 + 0:7349:Y200001
b
b
b
Y2
= 0:266518:Y 1
+ 0:3943:Y 2
200002

200001

200001

b1
b1
b2
Y200003 = 0:175336:Y200002 + 0:7349:Y200002
b2
b1
b2
Y200003 = 0:266518:Y200002 + 0:3943:Y200002

La variance de lerreur de prvision est donne par h , soit

0:931916 0:553652
h = =
0:553652 1:193174
10.3.7

Tests de bruit blanc des erreurs

De la mme faon que pour les modles AR, il convient de vrier que les erreurs correspondent un bruit
blanc. Soit ("t ) le processus derreur, et (h) sa fonction dautocorrlation. Lhypothse tester est alors
H0 : (1) = ::: = (h) = 0
La statistique Q de Box & Pierce peut alors se gnraliser en multivari,
Q (h) = n

h
X
i=1

La statistique de Ljung & Box scrit


Q0 (h) = n2

h
X
i=1

b
b
b
b
trace (i)0 (0)1 (i) (0)1

1
b
b
b
b
trace (i)0 (0)1 (i) (0)1
ni

La distribution asymptotique suit une loi du chi-deux.


10.3.8

Test de causalit (Granger (1969)) sur des mod les V AR

En dimension 2, considrons deux processus (Xt ) et (Yt ). Le but est de se demander si (Xt ) cause (Yt ), et
de voir dans quelle proportion la valeur courante de (Yt ) peut tre explique par ses valeurs passes, et si en
ajoutant des valeurs retardes de (Xt ), lexplication est meilleure.
Considrons un modle autorgressif;

Xt
X
"t
X (L) XY (L)
=
+
(L) Zt = + ut soit
Yt
Y
t
Y X (L) Y (L)
o on supposera (0) = I, ce qui permettra dinterprter le vecteur ut comme le processus dinnovation.
- (Xt ) ne cause pas (Yt ) au sens de Granger si et seulement si les coecients de Y X sont nuls : Y X (L) = 1
- (Yt ) ne cause pas (Xt ) au sens de Granger si et seulement si les coecients de XY sont nuls : XY (L) = 1
197



 


 

  

    

Le test peut se faire sous EV iews (Granger Causality) : pour cela, on commence par choisir le nombre de
retards introduire, et lhypothse nulle teste est que (Yt ) ne cause pas (Xt ) dans la premire quation, et que
(Xt ) ne cause pas (Yt ) dans la seconde.
Considrons ici deux vecteurs (ou variables) (Xt ) et (Yt ), respectivement de taille n et m, de telle sorte que
n + m = K; de telle sorte que le processus (Zt ) = (Xt ; Yt )0 soit un processus V AR (p) :

Zt = M + A1 Zt1 + A2 Zt2 + ::: + Ap Ztp + "t ou encore Zt = BZt1 + Ut

en reprenant les notations de la remarque (66), cest dire

B=

A1

Ap1

Ap

de taille K (Kp + 1) ;

Zt

6
6
6
=6
6
4

1
Zt
Zt1
.
.
.
Ztp+1

7
6
7
6
7
6
7 et Ut = 6
7
6
5
4

0
"t
0
.
.
.
0

3
7
7
7
7
7
5

Le test de lhypothse de causalit est un test de Wald : on cherche tester (H0 ) : R = c contre

b
(H1 ) : R 6= c, o C est une matrice N K 2 p + K de rang N et c est un vecteur RN . Supposons que ,

L
1
b
estimateur de , vrie une proprit de normalit asymptotique, cest dire T ! N 0; ,


L
b
alors T R R ! N 0; R 1 R0 et on a alors

1
L
T (R c)0 R 1 R0
(R c) ! 2 (N )

En remplaant les matrices et par leur estimateurs usuels

1
1
b
b
= ZZ 0 et =
uu0
bb
T
T Kp 1

on obtient lestimateur de Wald

i1

0 h
1
b
b
b
R c
= R c R (ZZ 0 ) R0

qui suit asymptotiquement un chi-deux N degrs de libert. Toutefois, une alternative galement utilise est
de considrer =N qui suit asymptotiquement une loi de Fisher N et T Kp 1 degrs de libert.
Dans le cas du test de causalit de Granger le coecient c est nul, de taille (m n) p, est le vecteur
vec (B) - cest dire la concatnation des vecteurs colonnes de B : le modle de base scrivant de la faon
suivante

X
AX AXY
Xt
MX
AX AXY
Xt1
AX AXY
Xt2
Xtp
"
p
p
1
1
2
2
=
+
+
+:::+
+ t
Yt
MY
AY X AY
Yt1
AY X AY
Yt2
AY X AY
Ytp
"Y
p
p
t
1
1
2
2
on a
B

MX
MY

X
M1
6 .
6 .
6 .X
6 M
= 6 n
Y
6 M1
6
6 .
4 .
.
Y
Mm

AX
1
AY X
1

AX
AXY
2
::: YpX
Y
A2
Ap

AXY
p
AY
p

AXY
1
AY
1

AX
2
AY X
2

AX
1;11
.
.
.

AX
1;n1
.
.
.

AXY
1;11
.
.
.

AXY
1;m1
.
.
.

AX
p;11
.
.
.

AX
p;n1
.
.
.

AXY
p;11
.
.
.

AX
1;1n
AY X
1;11
.
.
.

AX
1;nn
AY X
1;n1
.
.
.

AXY
1;1n
AY
1;11
.
.
.

AX
p;nn
AY X
p;n1
.
.
.

AXY
p;1n
AY
p;11
.
.
.

AY X
1;1m

AY X
1;nm

AY
1;1m

AXY
AX
1;mn
::: p;1n
AY
AY X
1;m1
p;11
.
.
.
.
.
.
Y
YX
A1;mm
Ap;1m

AY X
p;nm

AY
p;1m

et donc

3
AXY
p;m1
7
.
.
7
.
7
AXY 7
p;mn 7
7
AY
p;m1 7
7
.
.
5
.
Y
Ap;mm

X
0
X
Y
Y
(n+m)2 p+n+m
= M1 Mn M1 Mm AX AX AY X AY X AX AY AY
1;11
1;1n 1;11
1;1m 2;11
p;m1
p;mm 2 R
198



 


 

  

    

La matrice R est alors la matrice remplie de 0 et de 1 permettant de tester la nullit des coecients AXY ,...,AXY ,
1
p
cest dire
3
2
6 nullit de AXY
1;12
6
6 nullit de AXY
1;11
6
.
6
.
6
.
6
6 nullit de AXY
1;mn
6
R=6
6
6
6 nullit de AXY
6
p;11
6
.
6
.
.
6
4 nullit de AXY
p;mn

n+m

0
0
.
.
.

0
0
.
.
.
0

n+m

n(n+m)

0 1 0
0 0 1
. . .
. . .
. . .
0 0 0
.
.
.
0 0 0
.
.
.
0 0 0

m(n+m)

0 0 0
0 0 0
. . .
. . .
. . .
0 1 0
.
.
.
0 0 0
.
.
.
0 0 0

n(n+m)

m(n+m)

0
0 0
0
0 0
. ::: . .
. .
.
. .
.
0
0 0
. :::
.
.
.
.
.
0
1 0
. ::: . .
. .
.
. .
.

m(n+m)

0 0

0 0
0 0
. .
. .
. .
0 0
0 0
. .
. .
. .
0 1

m(n+m)

7
7
7
(n m) 7
7
7
7
7
7
.
7
.
7
.
7
7
7
7
(n m) 7
7
5

On rejette alors (H0 ) (de non-causalit) quand la puissance du test est trs faible (infrieure 5%), et dans
le cas contraire, on ne peut pas rejeter lhypothse de non-causalit (puissance suprieure 5%).
10.3.9

Les modles V AR (p) : analyse des chocs

(Yt ) suit un modle V AR dordre p si et seulement si


Yt = M + A1 Yt1 + A2 Yt2 + ::: + Ap Ytp + "t
o ("t ) est un bruit blanc de dimension K, de matrice de variance-covariance .
Proprit 51 Ce processus admet une reprsentation V AR (1) de la forme Zt = + AZt1 + Ut o
2
2
3
2
3
3
2
3
Yt
"t
M
A1 Ap1 Ap
6 Yt1 7
6 0 7
6 0 7
6 IK
0
0 7
6
6
7
6
7
7
6
7
Zt = 6
7 , = 6 . 7 , Ut = 6 . 7 et A = 6
7
.
..
.
4
4 . 5
5
4 . 5
5
4
.
.
.
.
0
IK
0
Ytp+1
0
0

Remarque 68 En posant J = [IK ; 0; :::; 0], on peut crire Yt = JZt

Sous lhypothse de stabilit du processus (racines du polynme charactristique lextrieur du disque


unit) la reprsentation V M A est la suivante (appele aussi dcomposition de Wald)

1
X
i = JAi J 0
i "ti o
Yt = +
(43)
= (IK A1 ::: Ap )1 M
i=0


Impact dune impulsion Nous allons tudier ici leet dune innovation dune des variables Yti sur le
systme de K variables. Pour cela, on suppose que Yt = pour t < 0 et quen t = 0, la ime variable augmente
de 1 (soit "j = 0 pour j 6= i et "i = 1). Lide est alors dtudier comme ragit le systme aux dates 1, 2,
t
t
..etc, si aucun autre choc ne survient. Nous supposerons pour la suite que le processus (Yt ) est centr, et que
0
linnovation se fait sur la premire variable. Enn, nous noterons = (1; 0; 0; :::; 0) le vecteur dimpulsion.
Remarque 69 Lide gnrale de lanalyse des chocs (ou fonction de rponse aux innovations) est de rsumer
linformation concernant lvolution dune composante Ytj suite une impulsion sur Yti , la date t = 0, en
supposant que toutes les autres variables sont constantes pour t 0.
En utilisant lcriture V M A (1), on en dduit
Y0 =

1
X

i "ti = 0 + 0 + 0 + ::: =

i=0

199

(car 0 = I)



 


 

  

    

Y1 =

1
X

i "ti = 0 + 1 + 0 + ::: = 1

i=0

et plus gnrallement, Yh = h o la matrice h est le coecient du retard dordre h de lcriture V M A (1),


cest dire i = JAi J 0 . Aussi, la rponse une choc sur linnovation se lit sur les vecteurs colonnes des matrices
de la forme moyenne mobile.
On peut galement considrer les rponses accumules. Pour cela, on considre les matrices dnies par
i = I + 1 + 2 + ::: + h , avec la matrice limite 1 = I + 1 + 2 + ::: + h + ::: = (IK A1 ::: Ap )1 .
Un exemple sera trait dans la partie suivante.
Orthogonalisation des innovations et dcomposition de la variance Dans lanalyse prcdante, nous
avons suppos quil tait possible davoir, la date t = 0 une impulsion sur lune des composantes, cest dire
0
que le bruit ("t ) scrivait sous la forme (0; :::; 0; 1; 0; :::; 0) .
Supposons que la matrice de variance-covariance soit de la forme E ("t "0 ) = 6= I. Il peut tre intressant
t
(dans le cas bivari, pour simplier ) disoler linnovation propre au processus (Yt ) non pollue par la raction
de linnovation (Xt ) : on parle alors dorthogonalisation des innovations. On considre alors la dcomposition
suivante de la matrice de covariance des innovations :

1 0
0
= E ("t "0 ) = ADA0 o A =
et D =
t
1
0
Exemple 99 Dans le cas bivari, on a par exemple la dcomposition suivante

1
0
1 1 = 2
1
1 2
0
2
1
=
1 =2 1
1 2
2
0
1
0
1 2 2
2
2

On pose alors t = A1 "t : on remarque que les innovations (t ) sont alors des combinaisons linaires des
innovations du modle initial ("t ), qui sont indpendantes (ou tout du moins non corrles) :
0

1
1
E ( t 0 ) = A1 E ("t "0 ) A1 = A1 (A0 ) = A1 ADA0 (A0 ) = D
t
t
Un processus bivari (Yt ) dnit par un modle V AR (1) de la forme suivante

Xt = 0 + 1 Xt1 + 2 Yt1 + "X


t
Yt = 0 + 1 Xt1 + 2 Yt1 + "Y
t

devient alors

Xt = 0 + 1 Xt1 + 2 Yt1 + X
t
Yt = 0 + 1 Xt1 + 2 Yt1 + 1 = 2 :X + Y
t
t

Lide
Y est alors de considrer un choc unitaire non pas sur une composante de ("t ) mais sur la composante
t : la date t = 0, ( t ) = (0; 1)0 .
En partant de la dcomposition des rsidus en innovations orthogonales, on peut
i alors calculer la contribution
de chaque innovation la variance totale de lerreur de prvision du processus Xt : cest cela que lon appelle
dcomposition de la variance. Considrons le processus (Xt ) admettant la reprsentation V AR (p) suivante
A (L) Yt = Yt A0 A1 Yt1 ::: Ap Ytp = M + "t
On suppose que le bruit blanc ("t ) est de matrice de variance-covariance : On suppose que ce processus est
stationnaire, de telle sorte quil puisse tre reprsent sous forme la V MA (1) suivante
Yt = + "t + 1 "t1 + ::: + i "ti + ::: = + (L) "t
Lerreur de prvision faite en T horizon h scrit sous la forme
b
XT +h XT (h) = XT +h EL (XT +h jXT ; XT 1 ; :::; X1 )
= XT +h EL (XT +h j"T ; "T 1 ; :::; "1 ) = "T +h + 1 "T +h1 + ::: + h1 "T +1
200



 


 

  

    

Lesprance vaut alors 0 (les bruits blancs tant, par dnition, des processus centrs), et la matrice de variancecovariance est alors donne par

0
bT (h) XT +h XT (h)
b
E XT +h X
= + 1 0 + ::: + h1 0
1
h1

Cette erreur de prvision est alors exprime en fonction de la matrice de variance-covariance des rsidus (non
diagonale). Comme prcdemment, considrons la transformation t = A1 "t ou "t = A t , o = ADA0 :
2 1 3
2 1 3
"t
t
6 . 7
6 . 7
"t = 4 . 5 = [a1 ; a2 ; :::; an ] 4 . 5 o ai 2 Rd
.
.
"d
t

Ds lors

d
t




= E ("t "0 ) = a1 a0 V 1 + a2 a0 V 2 + ::: + ad a0 V d
t
1
t
2
t
d
t

En substituant alors cette expression dans la variance de la prvision pour un horizon h, cela permet de
rexprimer cette variance en fonction de la variance des innovations orthogonales :

0 X

0
bT (h) XT +h XT (h)
b
V j 1 (a1 a0 ) 0 + ::: + h1 ah1 a0
=
E XT +h X
t
1
1
h1 h1
j=1

do nalement la denition suivante

Dnition 53 On appelle contribution dune innovation pure la variance totale de la prvision


un horizon h la quantit

0
V j 1 (a1 a0 ) 0 + ::: + h1 ah1 a0
1
1
h1 h1
t

Exemple 100 Sur lexemple considr dans la partie prcdante, le graphique ci-dessous correspond aux rponses
aux fonctions dimpulsion, respectivement sur la variable (Y1 ) gauche et (Y2 ) droite
Response of Y1 to One S.D. Innovations

Response of Y2 to One S.D. Innovations

1.0

1.0

0.8

0.8

0.6

0.6

0.4

0.4

0.2

0.2

0.0

0.0
1

Y1

10

Y2

Y1

10

Y2

avec la dcomposition de la variance ci-dessous


Variance Decomposition of Y1

Variance Decomposition of Y2

100

80
70

80

60
60
50
40
40
20

30

0
1

5
Y1

20
10 1

Y2

5
Y1

201

7
Y2

10



 


 

  

    

Application des modles V AR

10.4

Nous allons considrer ici lexemple dvelopp par Ltkepohl (1991), Introduction to Multiple Time Series
Analysis, dans le chapitre 3: La base considre contient 22 ans de donnes trimestrielles, avec linverstissement
(X), le revenu (Y ) et la consommation (Z).
2500

0.2

2000
0.1
1500
0.0
1000
-0.1

500

-0.2

0
60

62

64

66

CONSOMMATION

68

70

72

74

60

76

INVESTISSEMENT

62

64

66

68

RDMT_CONS

REVENU

70

72

74

RDMT_INV

76

RDMT_REV

Le graphique ci-dessus gauche reprsente, en donnes brutes, alors que le graphique de droite correspond aux
rendements : on posera alors Ct = log (Zt ) log (Zt1 ), It = log (Xt ) log (Xt1 ) et Rt = log (Yt ) log (Yt1 ).
Remarque 70 Un test de cointgration peut tre men rapidement, en reprsentant les scatterplots des
direntes variables,
2000

700

2500

1000

500

2000

500
REVENU

INVESTISSEMENT

CONSOMMATION

600
1500

400

500

100
200

300

400

500

INVESTISSEMENT

600

700

1000

300
200

0
100

1500

0
0

500

1000

1500

2000

2500

REVENU

Comme le montrent les graphiques ci-dessus, seul le couple (Zt ; Yt ) semble cointgr.

202

500

1000

1500

CONSOMMATION

2000



 


 

  

    

Le tableau ci-dessous donne direntes statistiques de choix pour des modles V AR (p) dirents21 :
Retards
1
2
3
4

AIC
24:50
24:59
24:41
24:36

HQ
24:38
24:37
24:07
23:90

SC
FPE
24:41 2:500
24:02 2:272
23:55 2:748
23:21 2:910

Ltkepohl retenait, en utilisant le critre AIC dAkaike et le F P E (critre que lon cherche minimiser ), un
modle V AR (2) ;
Zt = M + A1 Zt1 + A2 Zt2 + "t
Lestimation des paramtres donne les rsultats suivants
2
3
2
3 2
32
It
0:0167
0:3196 0:1460
0:9612
4 Rt 5 = 4 0:0158 5 + 4 0:0439 0:1527 0:2885 5 4
Ct
0:0129
0:0024 0:2248 0:2640
2
32
3 2 1
bt
"
0:1606 0:1146 0:9344
It2
+ 4 0:0500 0:0192 0:0102 5 4 Rt2 5 + 4 b2
"t
0:0339 0:3549 0:0222
Ct2
b3
"t
o la matrice de variance-covariance peut etre estime par
2
3
212:96 7:16 12:3
b
= 4 7:16 13:73 6:15 5 105
12:3
6:15 8:92

3
It1
Rt1 5
Ct1
3

(44)

La reprsentation V MA (1) ; permettant de calculer les fonctions dimpulsions, est la suivante


3
2
32 1 3 2
32 1 3 2
32 1 3
2
bt
"
bt1
"
bt2
"
1 0 0
0:319 0:145
0:961
0:054 0:621 0:415
It
4 Rt 5 = 4 0 1 0 5 4 b2 5 + 4 0:043 0:152 0:288 5 4 b2 5 + 4 0:028 0:113 0:088 5 4 b2 5 +
"t
"t1
"t2
Ct
0 0 1
0:002 0:224 0:263
0:045 0:260 0:109
b3
"t
b3
"t1
b3
"t2
32 1 3
2
32 1 3 2
bt4
"
bt3
"
0:014 0:018
0:261
0:119
0:352 0:407
+ 4 0:008 0:071
0:119 5 4 b2 5 + 4 0:003 0:011 0:008 5 4 b2 5 + :::
"t3
"t4
3
0:005 0:845 0:015
0:000 0:098 0:090
bt3
"
b3
"t4
Les fonctions dautocovariance du processus sont alors donnes par
2
3
2
3
0:00245 0:00006 0:00014
0:00045 0:00007 0:00007
0 = 4 0:00006 0:00015 0:00006 5 et 1 = 4 0:00011 0:00000 0:00003 5
0:00014 0:00006 0:00012
0:00002 0:00002 0:00001
2 1 o

AIC est le critre dAkaike, donn pour m retards, par

2mK 2
T
o T est le nombre dobservation, m le nombre de retards, K le nombre de variables, et m est lestimateur (du maximum de
vraissemblance )de la matrice de variance-covariance du bruit.
HQ est le critre de Hanna-Quinn, dni par
AIC (m) = ln (det (m )) +

HQ (m) = ln (det (m )) +

2 ln (ln T )
mK 2
T

SC est le critre de Schwarz dni par


SC (m) = ln (det (m )) +

ln T
mK 2
T

F P E correspond au critre nal prediction error , dnit par

T + Km + 1 K
F P E (m) =
det (m )
T Mk 1

(F P E est ici donne un facteur multiplicatif prs ( 1011 )).

203



 


 

  

    

et les fonctions dautocorrlation sont alors


2
3
2
3
1:0000 0:0905 0:2578
0:1981 0:1196 0:1388
0 = 4 0:0905 1:0000 0:4525 5 et 1 = 4 0:1876 0:0128 0:2241 5
0:2578 0:4525 1:0000
0:0408 0:1658 0:0875

An de tester la causalit au sens de Granger, par exemple de revenu/consommation vers investissement,


on va tester si les matrices A1 et A2 sont de la forme
2
3
2
3
0 0
0 0 0 0
Ai = 4 5 soit B = [M; A1 ; A2 ] = 4 5


Ces hypothses peuvent scrire sous forme matricielle Rb = 0, en considrant que le processus Zt se subdi0
visionne en 2 sous-processus (Ct ; Rt ) et (It ). On a alors N = 4, et K 2 p + K = 32 2 + 3 = 21 : la matrice R
(matrice 4 21) est alors dnie par
2
3
0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0
6 0 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 7
7
R=6
4 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0 0 5
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 0 0
ce qui peut tre test laide de principe de Wald (test de Student).
=

i1

0 h
1 b
1
b
b
R c = 1:59
R c R (ZZ 0 ) R0
4

alors que le quantile 95% de la loi de Fisher F (4; 66) vaut 2:5. Aussi, au niveau 5%, on ne peut pas rejeter
lhypothse de non-causalit des variables revenu et investissment sur la consommation. En revanche, un test
de non-causalit instantane revient tester si est de la forme
2
3
0 0
=4 0 5
0

La prvision peut se faire en utilisant lcriture V AR (2), estime par (44), compte tenu du fait que les
deux derniers points sont
2
3
2
3
0:02551
0:03637
ZT 1 = 4 0:02434 5 et ZT = 4 0:00517 5
0:01319
0:00599
La prvision optimale se fait alors, de faon rcursive,
2
3
2
3
0:011
0:011
b
b
b
ZT (1) = M + A1 ZT + A2 ZT 1 = 4 0:020 5 , ZT (2) = M + A1 ZT (1) + A2 ZT = 4 0:020 5 ...etc
0:022
0:015

Lestimateur de la matrice de variance covariance se faire alors, au rang 1, de


2
23:34 0:785
K + Kp + 1 b
73 + 6 + 1 b
b
Y (1) =
" =
" = 4 0:785 1:505
T
73
1:351 0:674

la faon suivante
3
1:351
0:674 5 104
0:978

Les matrices de variance covariance des ordres plus levs se calculent laide de la forme V M A (1), et
donnent
2
3
25:12 0:580 1:300
b
Y (2) = 4 0:580 1:581 0:586 5 104
1:300 0:586 1:009
204



 


 

  

    

do, nallement, les prvisions suivantes :


2
3
2
3
0:011 0:095
0:011 0:098
b
b
horizon 1 : ZT (1) 2 4 0:020 0:024 5 et horizon 2 : ZT (2) 2 4 0:020 0:025 5
0:022 0:019
0:015 0:020

Nous allons maintenant tudier les fonctions rponses une impulsion. Pour cela, rappelons que les deux
premires composantes de la forme V M A (1) sont
2
3
2
3
0:319 0:145
0:961
0:054 0:621 0:415
b
b
b b
b
b
1 = 4 0:043 0:152 0:288 5 = A1 et 2 = 4 0:028 0:113 0:088 5 = A1 1 + A2
0:002 0:224 0:263
0:045 0:260 0:109

b
b
b
b
b
En notant 0 = I, et i = 0 + 1 + ::: + i , on a alors les estimations suivantes, avec, entre parenthses, les
intervalles de conance
i

b
i
0:146

0:320

(0:562)

(0:125)

0:961

(0:657)

3 2

6
7
6 0:044 0:153 0:289 7
6 (0:032)
(0:167) 7
(0:143)
4
5
0:002 0:225 0:264
(0:115)
(0:134)
2 (0:025)
3
0:054 0:262 0:416
(0:546)
(0:663)
6 (0:129)
7
6 0:029 0:114 0:088 7
6 (0:032) (0:135) (0:162) 7
4
5
0:045 0:261 0:110
2 (0:026) (0:108) (0:131) 3
0:353 0:408
0:119
(0:384)
(0:476) 7
6 (0:084)
6 0:009 0:071
0:120 7
6 (0:016)
(0:078)
(0:094) 7
4
5
0:001 0:098 0:091

(0:017)

(0:078)

(0:102)

avec les comportements limites suivants :


2

0:680

(0:125)

6
6 0:044
6 (0:032)
4
0:002
2 (0:025)
0:626
6 (0:148)
6 0:073
6 (0:043)
4
0:043
(0:033)
2
0:745
6 (0:099)
6 0:064
6 (0:037)
4
0:042
(0:033)

b
i
0:146

0:756

0 0 0
6 (0:133)
6 0:076
b
b
lim i = 4 0 0 0 5 et lim i = 6 (0:048)
i!1
i!1
4
0 0 0
0:053
(0:043)

(0:562)

0:961

(0:657)

7
0:289 7
(0:143) (0:167) 7
5
0:225 0:736
(0:115) (0:134)
3
0:408 1:377
(0:651) (0:755) 7
0:961 0:200 7
(0:192) (0:222) 7
5
0:486 0:846
(0:144) (0:167)
3
0:761 0:969
(0:483) (0:550) 7
1:033 0:320 7
(0:176) (0:203) 7
5
0:388 0:937
0:847

(0:156)

(0:183)

0:866

1:295

(0:661)

1:076

(0:236)

0:505

(0:213)

7
0:344 7
(0:285) 7
5
0:964
(0:798)

(0:257)

Ceci peut se rprsenter sur les graphiques ci-dessous, avec limpact sur la consommation dun choc de 1 sur
le revenu la data t = 0, avec limpact aux direntes dates gauche, et limpact cumul droite,
0.6

1.0

0.4

0.8

0.2

0.6

0.0

0.4

-0.2

0.2

0.0

-0.4
1

CONSOMMATION

CONS_INF

CONS_SUP

CONSOMMATION

205

CONS_INF

CONS_SUP



 


 

  

    

10.5

Rgression linaire dans un cadre dynamique

Nous allons ici voir les proprits des modles conomtriques de la forme Y = X + ", o, contrairement aux
modles conomtriques, les observations (de la variable expliquer Y ) Y1 ; Y2 ; :::; Yi ; :::; Yn ne sont pas observes
pour des individus dirents (et peuvent alors tre supposes indpendantes)mais sont des observations temporelles Y1 ; Y2 ; :::; Yt ; :::; Yn . Nous supposerons ici la fonction de rgression dpend des valeurs retardes dune
ou de plusieurs variables dpendantes.
10.5.1

Les retards chelonns

On pense souvent quune variable dpendante (Yt ) dpend de la valeur actuelle et dun certain nombre de
valeurs retardes dune variable indpendante (Xt ). Une modlisation de ce genre consiste utiliser un modle
retards chelonns tel que
Yt = +

q
X
j=0

j Xtj + "t o ("t ) s BB 0; 2

(45)

Le problme consiste alors estimer la constante et les coecients j . Le nombre entier q est ici la longueur
du dernier retard. Dans certains cas, imaginer que q est inni peut avoir du sens, mais nous supposerons pour
linstant quil prend une valeur nie. La fonction de rgression pourrait tout fait dpendre dautres variables
explicatives, mais nous ne considrerons ici que le cas o intervient une seule variable explicative poour conserver
des notations simples.
Le problme avec un tel modle est que, parce que Xt sera - a priori - fortement corrl Xt1 , Xt2 , ...etc,
et donc les estimations par moindres carrs des coecients j devraient tre assez imprcises. Sauf si cest

b
b
limpact long terme qui nous intresse. Soit V la matrice de covarinace du vecteur estimateur mco du

b
vecteur = 0 ; 1 ; :::; q . Alors, si dsigne la somme des j , la variance de b

b
V (b) =

q
X
j=0

q j1

XX
b
b b
V j + 2
cov i ; j
j=0 i=0

Si Xtj est corrl positivement Xtk pour tout j 6= k, les termes de covariance dans lexpression ci-dessus
seront gnralement ngatifs. Lorsquils sont importants et ngatifs, comme cest souvent le cas, V (b) peut tre



b
b ou mme que chaque V . Si cest le paramtre qui nous intresse
plus petite que la somme des V j
j
plutt que les j individuels, lapproche la plus simple consiste estimer une version reparamtre de (45) par
moindres carrs. Cette version scrit alors
Yt = + Xt +

q
X
j=1

j (Xtj Xt ) + "t o = 0 + 1 + ::: + q

Lavantage de cette criture est que lcart type de est disponible immdiatement dans les rsultats de la
b
rgression.
La colinarit peut tre un problme important si lon sintresse aux j . Lapproche la plus connue pour
rsoudre ce problme consiste employer les retards chelonns polynomiaux, ou P DL. Ces derniers sont
quelquefois appels retards dAlmon, suite larticle dAlmon (1965).
Dans un polynme de retards chelonns, les coecients j de (45) doivent apparatre dans un polynme
de degr d donn. Par, si le polynme tait du second degr, nous aurions
j = P (j) = 0 + 1 j + 2 j 2 pour tout j = 0; :::; q

(46)

Si q > 2, on peut noter quil y aura moins de paramtres i que j et, par consquent, cette relation impose
q 2 contraintes sur les j . Lestimation dun modle soumis des contraintes imposes par un P DL est

206



 


 

  

    

assez immdiate. Par exemple, pour estimer (45) soumis (46), nous pouvons remplacer simplement les j par
0 + 1 j + 2 j 2 , cest dire
Yt = + 0

q
X

Xtj + 0

j=0

q
X

jXtj + 0

j=0

q
X

j 2 Xtj + "t

(47)

j=0

Ceci est un exemple de modle P DL(q; 2). Un modleP DL(q; d) doit toujours tre tel que d < q. En fait, les
contraintes imposes aux j sont simplement des contraintes linaires. La rsolution de (46) montre que
3 + 3 2 3 1 + 0 = 0
4 + 3 3 3 2 + 1 = 0
5 + 3 4 3 3 + 2 = 0
::: et ainsi de suite
On peut rcrire ces contraintes sous la forme R = 0 o la matrice R serait dans ce cas
2
3
1 3 3 1 0
0 0 0 0 0
6 0 1 3 3 1 0 0 0 0 0 7
6
7
6
1 3 3 1 0 0 0 0 7
R=6 0 0
7
6 .
.
.
.
.
.
.
.
.
. 7
.
.
.
.
.
.
.
.
. 5
4 .
.
.
.
.
.
.
.
.
.
.
0 0
0
0
0
0 1 3 3 1

Puisque les contraintes sont linaires, on peut les tester facilement, par exemple laide dun test de Fisher
: le modle contraint est (47)), le modle non contraint est (45), et le nombre de contraintes dans ce cas est
q 2 (de faon plus gnrale, pour un modle P DL(q; d), il y aura q j contraintes).
Ainsi, on peut tester un modle P DL(q; d) contre un modle P DL(q; d + 1) en utilisant un test de Fisher.
La meilleure approche consiste dbutanter par une valeur importante de q et en examinant la dtrioration
de la qualit de lajustement du modle en diminuant sa valeur, sans imposer aucun contrainte sur la forme des
retards chelonns. Une fois que q est dtermin, on peut ensuite dterminer d, en dbutant avec une valeur
importante et en la rduisant au fur et mesure. Sargan (1980) a propos un exemple empirique dans Some
tests of dynamic specication for a single equation.
Une variante intressante a t propose par Shiller (1973) : comme nous lavons vu, les contraintes imposes
par un P DL peuvent toujours scrire sous la forme R = 0 pour une matrice R de dimension r k o r = q d
et k est le nombre dlments de (gnralement suprieur q + 1). Shiller suggra quau lieu de stipuler
que chaque ligne de R soit nulle, il proposa quelle soit gale une variable alatoire desprance nulle et de
variance nie. Lun des avantages de cette approche est que d peut tre trs faible sans pour cela imposer des
contraintes trop fortes sur les donnes. Puisque les estimations nont pas besoin de se conformer exactement
la forme du polynme, d = 2 est, dans la pratique, souvent susante. Ce genre de contrainte est appel
contrainte stochastique, parce quelle nest pas senses tre vrie exactement. Les contraintes stochastiques
sont trs direntes de nimporte quel autre type de contraintes dont nous avons discut. Cest ainsi que la
phase destimation est relativement plus complique que dans le cas prcdant, et repose le plus souvent sur
des rsultats de statistique baysienne. Des complments sur ce point peuvent tre trouvs dans Davison et
MacKinnon.
10.5.2

Le modle dajustement partiel

Un modle dynamique simple, et trs frquent dans la littrature, est le modle dajustement partiel,
dont lhitoire en conomie remonte assez loin puisquil date de Nerlove (1958). Dans le cadre dun modle de
politique conomique, supposons que le niveau dsir dune variable conomique (Yt ) quelconque. soit (Yt ), qui
est suppos tre reli un vecteur de variables explicatives exognes (Xt ) par la relation
0 1
1

d B . C
Yt = Xt + "t = Xt ; :::; Xt @ . A + "t
.

d
207



 


 

  

    

Suppons que la variable (Yt ) sajuste vers (Yt ), la valeur ralise, laide dune relation de la forme
Yt Yt1 = (1 ) (Yt Yt1 ) + t
Ces deux quations permettent dobtenir la relation suivante
Yt

= Yt1 (1 ) Yt1 + (1 ) Xt + (1 ) "t + t


= Xt + Yt1 + ut

o = (1 ) et ut = (1 ) "t + t . Cet ajustement nest toutefois pertinent que si 0 < < 1 et si nest
pas trop proche de 1 (sinon la vitesse dajustement est trop faible) De faon itrative, on peut montrer que ce
modle se rcrit
3
2
3
2
+1
+1
+1
X
X
X
(48)
j [Xtj + utj ] = 4
j Xtj 5 + 4
j utj 5
Yt =
j=0

j=0

j=0

Ainsi ce modle corrige une dfaillance majeure que nous avions dj remarque dans les modles retards
chelonns: (Yt ) dpend maintenant autant des valeurs retardes de lala ("t ) que des valeurs retardes des
variables exognes (Xt ). Notons que la solution de (48) repose sur lhypothse que jj < 1, qui est une condition
de stationnarit pour ce modle.
Le modle dajustement partiel nest quun des nombreux modles conomiques que lon peut utiliser pour
justier la prise en compte dun ou de plusieurs retards des variables dpendantes dans la fonction de rgression. Dhrymes (1971) et Hendry, Pagan, et Sargan (1984) discutent de nombreux autres modles. Si nous ne
discuterons pas ici ces modles, nous nous concentrerons ici sur quelques rsultats dordre gnral qui peuvent
survenir lorsque lon tente de spcier et destimer des modles de rgression dynamiques.
Un problme qui se manifeste chaque fois que la matrice X contient des variables dpendantes retardes est
que lestimation mco par moindres carrs ne produisent pas des estimations sans biais. Ce problme survient
parce que X est une matrice stochastique, dont certains lments sont corrls quelques lments de u. Ainsi
on peut en particulier noter que

1
1
E (X 0 X) X 0 u 6= (X 0 X) X 0 :E (u)
Ceci peut se noter sur lexemple trs simple des modles AR (p) : supposons que (Yt ) soit un processus AR (1)
Yt = Yt1 + ut o jj < 1 et (ut )
Lestimation mco de est donn par
P
P
Pn
Pn
2
n Yt1 + n ut Yt1
t=2
t=2
t=2 Yt Yt1
t=2 ut Yt1
b
Pn
= Pn
=
= + Pn
2
2
2
t=2 Yt1
t=2 Yt1
t=2 Yt1

(49)

Le second terme dans lexpression la plus droite de (49) nest pas desprance nulle, parce que le numrateur et
le dnominateur ne sont pas indpendants. Son esprance est dailleurs assez dicile dterminer. La conclusion
est alors la suivante
A retenir 10 Dans tous les modles pour lesquels il y a des variables dpendantes retardes, lestimateur mco
est biais
b
Par contre, videmment, lestimateur obtenu par mco est convergent. Si lon divise la fois le numrateur
et le dnominateur du terme alatoire du membre le plus droite de (49) par n et si lon prend les limites en
probabilit, on obtient
Pn
t=2
b = + p limn!1 Pn ut Yt1 =
p lim
2
n!1
p limn!1 t=2 Yt1

208



 


 

  

    

10.5.3

Les modles autorgressifs retards chelonn s (ADL (p; q))

Ces modles sont prsents ici dans le cas simple o (Yt ) est la variable expliquer et (Xt ) la variable explicative
(ce type de modles peut toutefois se gnraliser un ensemble plus vaste de variables explicatives). La forme
gnrale scrit
p
q
X
X

Yt = +
i Yti +
j Xtj + "t o "t s BB 0; 2
i=1

j=1

ou bien, en utilisant des polynmes doprateurs retard, B (L) Yt = + (L) Xt + "t . Un cas particulier, mais
relativement utilis est le modle ADL (1; 1)
Yt = + 1 Yt1 + 0 Xt + 1 Xt1 + "t

(50)

Nous tudierons ici le modle ADL(1; 1), la plupart des rsultats tant aisment gnralisables aux modles
ADL(p; q). Le cas o 1 = 1 = 0 correspond au modle gnral de rgression linaire (statique, tel quil est
tudi en cours dconomtrie), le cas 0 = 1 = 0 correspond au modle AR (1) tel quil est tudi au dbut de
ce cours, le cas o 1 = 1 et 1 = 0 correspond au modle en dirences premires...etc. Le modle ADL(1; 1)
fournit ainsi une alternative naturelle contre laquelle on peut tester nimporte lequel de ces cas particuliers.
Nous allons tudier ici la faon dont (Xt ) inuence (Yt ) long terme, dans un modle ADL (1; 1) :Sans
lala ("t ), (Xt ) et (Yt ) convergeraient vers des valeurs de long terme (stables) X et Y telles que Y =
+ 1 Y + 0 X + 1 X , cest dire que
Y =

+ 1

+ 0
X =
+ X
1 1
1 1
1 1

o peut alors tre vue comme une lasticit. Toutefois, ce rsultat nest pertinent que si j 1 j < 1, ce qui est
une conditon de statibilit pour ce modle.
Une des caractristiques intressantes et importantes des modles ADL est que lon peut les crire de
direntes faons : par exemple, (50) peut tre crit sous les formes suivantes (toutes quivalentes) :
(1)
(2)
(3)
(4)
(5)

Yt
Yt
Yt
Yt
Yt

= + ( 1) Yt1 + 0 Xt + 1 Xt1 + "t


= + ( 1) Yt1 + 0 Xt + ( 0 + 1 ) Xt1 + "t
= + ( 1) Yt1 1 Xt + ( 0 + 1 ) Xt + "t
= + ( 1) (Yt1 Xt1 ) + 0 Xt + ( 0 + 1 + 1 1) Xt1 + "t
= + ( 1) (Yt1 Xt1 ) + + 0 Xt + "t

o est loprateur des dirences premires, = (1 L). Si lon sintresse la somme des i , les estimations
et les carts types sobtiennent directement partir de lestimation par mco de (2) ou (3), et si lon sintresse
, elles peuvent tre obtenues par une estimation par moindres carrs non-linaires de(5). La plus intressante
de ces spcications est sans doute (5), dans laquelle le modle est crit sous la forme que lon appelle forme
correction derreur. Le paramtre apparat directement dans cette forme du modle. Et bien que la forme
correction derreur soit non linaire, lestimation peut se faire facilement parce que le modle est simplement
un modle linaire soumis une contrainte non linaire. La dirence entre Yt1 et Xt1 mesure limportance
de la dfaillance de la relation dquilibre de long terme entre (Xt ) et (Yt ). On appelle alors souvent le terme
( 1) (Yt1 Xt1 ) qui apparat dans (5) terme de correction derreur, et le modle est alors appel modle
correction derreur, ou ECM.
Ce quil convient de retenir sur cette partie, cest que lorsque lon tente de spcier des modles de rgression
dynamiques, il existe, en gnral, plusieurs manires a priori de le faire.

10.6

Conseils bibliographiques

GOURIEROUX,C. & MONFORT,A. (1995). Sries temporelles et modles dynamiques. Economica.


LUTKEPOHL,H. (1991). Introduction to multiple time series analysis. Springer
DAVISON,R. & MacKINNON (1993) Estimation and Inference in Econometrics. Oxford University
Press, New York

209



 


 

  

    

11

Les modles ARCH - Autorgressifs Conditionellement Htroscdastiques

Les modles ARCH ont t introduits par Engle en 1982, puis gnraliss en modles GARCH en 1986 par
Bollerslev. Lanalogie entre les modles ARCH en temps discret et les modles de diusion en temps continu a
t tablie par Nelsen en 1990. Ce analogie a permis, en particulier, le dveloppement des modles volatilit
stochastique. Un des apports des modles ARCH tait de mieux sajuster aux donnes (en particulier aux
donnes nancires) que ne le faisaient les modles ARM A. Considrons la srie suivante, correspondant au
rendement de lindice CAC40
0.08
800
Series: CAC40
Sample 2 3315
Observations 3314

0.04
600

Mean
Median
Maximum
Minimum
Std. Dev.
Skewness
Kurtosis

0.00
400

-0.04

200

Jarque-Bera
Probability
0
-0.075 -0.050 -0.025

-0.08
500

1000

1500

2000

2500

0.000

0.025

0.050

0.000644
0.000597
0.070452
-0.072933
0.012226
-0.114047
5.162046
652.6468
0.000000

0.075

3000

CAC40

avec droite, lhistogramme, correspondant la distribution marginale de rt . La premire constatation que


lon peut faire est que la srie nest pas gaussienne, et, en particulier, a des queues de distribution trop paisses
(kurtosis suprieure 3). La seconde est que la srie est stationnaire, mais que lon observe quand mme des
priodes de forte variation, ou de forte volatilit.
Si lon considre un processus AR, avec un bruit blanc gaussien, il est relativement dicile de modliser ce
genre de comportement.
8
6

160
Series: ARMA
Sample 1 2000
Observations 2000

4
120

2
0

Mean
Median
Maximum
Minimum
Std. Dev.
Skewness
Kurtosis

80

-2
40

-4

Jarque-Bera
Probability

-6
0
-5.00 -3.75 -2.50 -1.25 0.00

-8
500

1000

1500

1.25

2.50

0.028070
0.037485
4.461123
-4.798971
1.425617
-0.063327
3.021379
1.374873
0.502863

3.75

2000

ARMA

En eet, le processus AR (1) est un processus gaussien : les queues de distribution sont moins paisses que les
queues observes sur la variation de lindice CAC40, et on nobserve pas de priode de haute volatilit. Les

210



 


 

  

    

modles ARCH (simul ci-dessous) permettent, eux, de mieux prendre en compte ce genre de comportement :
8
6

500
Series: ARCH
Sample 1 2000
Observations 2000

4
400

Mean
Median
Maximum
Minimum
Std. Dev.
Skewness
Kurtosis

300

0
-2

200

-4

-0.019286
0.018501
6.054874
-6.605945
1.006716
-0.419740
6.479866

100
Jarque-Bera
Probability

-6

1067.850
0.000000

0
-6

-8
500

1000

1500

-4

-2

2000

ARCH

Les queues de distribution peuvent tre plus paisses que celles des lois normales (kurtosis de 6:5 avec les
paramtres choisis), et on observe, comme sur les donnes empiriques, des zones de forte volatilit.
Ces modles non-linaires permettent davoir des proprits que navaient pas les modles linaires (ARMA),
et permettent ainsi de modliser de faon plus raliste un grand nombre de donnes, en particulier les donnes
nancires.

11.1

Notions de stationnarit et notions de linarit

Dnition 54 Stationnarit au second ordre - Un processus (Yt ) est dit stationnaire au second ordre si
- la moyenne du processus est constante : E (Yt ) = m pour tout t 2 Z
- les autocovariances ne dpendent que de la dirence entre les observations : cov (Xt ; Xs ) = (jt sj)
Cette dernire proprit implique en particulier que la variance de (Yt ) est constante en fonction du temps
: V (Yt ) = 2 .
Dnition 55 Stationnarit au sens fort - Un processus (Yt ) est dit stationnaire au sens fort si quel que
soit n, t1 ; :::; tn et h, on a lgalit entre les lois jointes
L (Yt1 ; :::; Ytn ) = L (Yt1 +h ; :::; Ytn +h )
Thorme 9 Thorme de Wold - Soit (Yt ) un processus stationnaire au second ordre. Alors (Yt ) peut
scrire
1
X
i "ti o "t est un bruit blanc au second ordre
Yt = c0 +
i=0

Lcriture est ici plus simple que dans le thorme (7) puisque lon impose plus ici de contraintes pour avoir
unicit de la dcomposition.
Thorme 10 Thorme de Volterra - Soit (Yt ) un processus stationnaire au sens fort. Alors (Yt ) peut
scrire
Yt = c0 +

1
X
i=0

11.2

i "ti +

1
X

i;j=0

ij "ti "tj +

1
X

ijk "ti "tj "tk + ::: o "t est un bruit blanc fort gaussien

i;j;k=0

Prsntation des modles ARCH

Soit (Xt ) un processus AR (1), tel que Xt = Xt1 + "t o "t s N 0; 2 , alors
V (Xt ) =

1
2 et V (Xt jXt1 ) = 2
1 2
211



 


 

  

    

cest dire que la variance, et la variance conditionnelle, ne dpendent pas du temps.


q

2
Soit (Xt ) un processus ARCH (1), tel que Xt = "t 0 + 1 Xt1 o "t s N 0; 2 , alors

2
V (Xt jXt1 ) = 0 + 1 Xt1 2

Dnition 56 On dit que le processus (Xt ) suit un processus ARCH (p) sil est dni par une quation de la
forme
p
X
p
2
i Xti
Xt = "t ht o ht = 0 +
i=1

o ("t ) est un bruit blanc gausien, centr, de variance , soit "t s N 0; 2 .


2

Ceci peut aussi scrire

2
Xt

"

= "t 0 +

p
X

2
i Xti

i=1

2
Ce nest plus le processus (Xt ) que lon cherche modliser, mais le processus Xt .
2
Exemple 101 Les graphiques montrent lvolution des processus Xt dans le cas dun modle ARM A
gauche, dun modle ARCH (1) au centre, et du rendement de lindice CAC40 droite
30

100

25

80

0.006
0.005
0.004

20

60
0.003

15
40

0.002

10
20

0.001

5
0

0
500

1000

1500

2000

0.000
500

1000

1500

2000

500

1000

ARCH2

ARMA2

1500

2000

2500

3000

CAC402

Remarque 71 Les variables Xt sont non-corrles, mais ne sont pas indpendantes.


11.2.1

Processus ARCH (1)

q
2
Dnition 57 Le processus (Xt ) est un processus ARCH (1) si Xt = "t 0 + 1 Xt1 o ("t ) est un bruit

p
2
blanc gaussien, "t s N 0; 2 . On notera gnrallement ht = 0 + 1 Xt1 , et donc Xt = ht :"t .

Dans le cas o ("t ) est un bruit blanc fort ("t i:i:d:) gaussien, alors ("t ) peut tre vu comme une dirence de
martingale. Pour que le processus (Xt ) soit stationnaire au second ordre, la variance marginale de (Xt ) soit tre
constante. Or V (Xt ) = 0 + 1 V (Xt1 ) ; cest dire que lon doit avoir 1 < 1, et donc V (Xt ) = 0 = (1 1 ).

Proprit 52 (Xt ) est stationnaire au second ordre si 0 > 0 et 0 1 < 1.


On peut alors noter que pour tout h 1;

E Xt jXth = 0

puisque E Xt jXth = E E Xt jXt1 jXth = E 0jXth = 0. De plus,

Aussi,

0
1 h
1
2
V Xt jXth = 0
+ 1 Xth et V (Xt ) =
1 1
1 1

V Xt jXth V (Xt ) = h Xth V (Xth )


1
212

(51)



 


 

  

    

Comme nous lavions vu en introduction, les modles ARCH permettent davoir des processus avec des
queues de distribution plus paisses que les processus ARM A: La kurtosis conditionnelle est obtenue laide
de la relation

2
4
2
E Xt jXt1 = 3 0 + 1 Xt1
et la kurtosis la date t est

4
4
21 2
32 (1 + 1 )
0
0
2
2
+ 1 E Xt1 =
E Xt = 3 0 +
1 1
(1 32 ) (1 1 )
1

La condition dexistence du moment dordre 4 est 32 < 1, et on en dduit alors lexpression de la kurtosis
1
4
E Xt
1 2
1
=
2 = 3 1 32 > 3 (cas de la loi normale)
2
E (Xt )
1
Les queues de la distribution marginale dun processus ARCH (1) sont donc plus paisses que pour un processus
gaussien (on parlera de distribution leptokurtique).
11.2.2

Processus ARCH (p)

Les modles ARCH (p) sont des extensions des modles ARCH (1) : Les modles ARCH (1) taient

2
Xt = "t ht o h2 = 0 + 1 Xt1 et "t s N 0; 2
t
et les modles ARCH (p) font intervenir plusieurs retards,
Xt = "t ht o h2 = 0 +
t

p
X
i=1

2
i Xti et "t s N 0; 2

La volatilit de la date t est alors fonction des carrs des carts la moyenne observs dans le pass proche.
Si les coecients i sont tous positifs (et assez grands), il y a une persistance des niveaux de volatilit : on
observe des priodes de forte volatilit suivies de priode de faible volatilit. On peut alors crire

E Xt jXt1 = 0
p

X
2
2
2
E Xt jXt1 = ht = 0 +
i Xti
i=1

11.2.3

Processus GARCH (p; q)

Ces modles ont t introduits par Bollerslev en 1986, inspirs de la dmarche de Box et Jenkins, avec une
dynamique autorgressive,
Xt = "t ht o h2 = 0 +
t

p
X

2
i Xti +

i=1

q
X
j=1

j h2 et "t s N 0; 2
tj

On peut noter tout dabord que, sous cette forme, les coecients p et q ne sont pas
analogues ceux des modles
ARM A : en particulier, q correspond au caractre autorgressif du processus h2 . On a alors
t

E Xt jXt1 = 0
p
q

X
X
2
2
E Xt jXt1 = h2 = 0 +
i Xti +
j h2
t
tj
i=1

213

i=1



 


 

  

    

11.3

Dtection derreurs ARCH

Nous allons considrons un processus (Xt ) dont la dynamique est rgie par un processus de type AR (1) :
Xt = Xt1 + "t
Dans la partie sur les processus ARIMA, nous avions tudier le cas o ("t ) correspondait un bruit blanc,
cest dire non-autocorrl avec son pass.
11.3.1

Erreurs ARCH (1)

Nous allons regarder les proprits de (Yt ), processus autorgressif, dans le cas o ("t ) nest plus un bruit blanc,
en particulier lorsque ("t ) est un processus AR (1), "t = "t1 + t , et lorsque ("t ) est un processus ARCH (1),
q

"t = t 1 + "2 . Le premier cas correspond aux modles ARMA, et le second correspond aux modles
t1
autorgressifs erreurs ARCH.
Considrons le modle
8

< (1) : E "t j"t1 = 0

Yt = + Yt1 + "t o jj < 1 et "t satisfait


: (2) : V "t j"t1 = c + "2
t1
Lesprance conditionnelle de (Yt ) est alors

1 h
+ Yth
E Yt jYth = + E Yt1 jYth =
1
et sa variance conditionelle, en utilisant (51)

V Yt jYt1 =

"
#
c
1 2h
h 2h
h 2h 2
"th
+
2
2
1 1

qui nest pas constante (puisquelle dpend de "th ).

Dans le cas derreurs ARCH, la condition (1) : E "t j"t1 = 0 signie que ("t ) est un bruit blanc faible qui

satisfait la condition de dirence de martingale, et dont la variance conditionelle V "t j"t1 suit un processus

ARCH (1) : "2 = c + "2 + t , o (t ) est un bruit blanc gaussien. Les proprits du processus dinnovation
t
t1
("t ) sont alors les suivantes,

Proprit 53 (i) Le processus ("t ) est orthogonal aux valeurs passes, quel que soit le retard : E ("t j"th ) = 0
pour tout h
(ii) La proprit dorthogonalit implique que les corrlations conditionelles sont nulles : cov ("t ; "t+k j"th ) =
0.
Preuve. Cette seconde proprit sobtient de la faon suivante
cov ("t ; "t+k j"th ) = E ("t "t+k j"th ) E ("t j"th ) E ("t+k j"th ) = E ("t "t+k j"th )
= E (("t "t+k j"t+k1 ) j"th ) = E ("t E ("t+k j"t+k1 ) j"th ) = 0
Il y a donc absence de corrlation entre les valeurs prsentes et futures du processus, quels que soient les
retards h et k: Mais si la variance conditionelle de "t nest pas constante, la variance (non conditionnelle) est
constante :

"2 = c + "2 + t = ::: + c 1 + + 2 + ::: + h1 + h "2 + t + t1 + ::: + h1 th+1


t
t1
th
214



 


 

  

    

et donc

1 h
+ h "2
V ("t j"th ) = E "2 j"th = c
t
th
1

alors que

2 = V ("t ) = E (V ("t j"th )) =

c
1

Exemple 102 Le graphique ci-dessous correspond la simulation dun tel processus, avec droite son autocorrlogramme,
15
10
5
0
-5
-10
-15
500

1000

1500

2000

Lautocorrlogramme suggre de tester un modle autorgressif dordre 1 sur Y . Toutefois, si lon tudie la
distribution des rsidus du modle Yt = Yt1 + "t , lhypothse de normalit est clairement rejete

LS // Dependent Variable is Y
Sample: 2 2000
Included observations: 1999 after adjusting endpoints
Convergence achieved after 2 iterations

400
Series: Residuals
Sample 2 2000
Observations 1999

Variable

Coefficient

Std. Error

T-Statistic

AR(1)

0.794042

0.013613

58.33134

300

Prob.
0.0000

R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood

0.629583
0.629583
1.526497
4655.723
-3681.486

Mean dependent var


S.D. dependent var
Akaike info criterion
Schwartz criterion
Durbin-Watson stat

Mean
Median
Maximum
Minimum
Std. Dev.
Skewness
Kurtosis

200

-0.087891
2.508131
0.846451
0.849252
2.064924

100

Jarque-Bera
Probability

-0.019357
0.010571
7.226993
-8.941829
1.526374
-0.133441
6.043845
777.6292
0.000000

Inverted AR Roots

-8

.79

-6

-4

-2

Lautocorrlogramme ne permet pas de rejeter lhypothse de bruit blanc, mais lautocorrlogramme ne permet
de ne mesurer quune dpendence linaire entre "t et "th . Lide peut alors tre de tester le caractre ARCH

215



 


 

  

    

des rsidus obtenus, pour expliquer cette forte kurtosis,


ARCH Test:
F-statistic
Obs*R-squared

444.8826
364.1615

Probability
Probability

0.000000
0.000000

Test Equation:
LS // Dependent Variable is RESID^2
Sample: 3 2000
Included observations: 1998 after adjusting endpoints
Variable

Coefficient

Std. Error

T-Statistic

Prob.

C
RESID^2(-1)

1.335464
0.426916

0.116004
0.020240

11.51218
21.09224

0.0000
0.0000

R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat

0.182263
0.181853
4.737481
44797.68
-5941.939
1.985069

Mean dependent var


S.D. dependent var
Akaike info criterion
Schwartz criterion
F-statistic
Prob(F-statistic)

2.330146
5.237595
3.112012
3.117617
444.8826
0.000000

Ce test est alors clairement signicatif, et lon valide lhypothse de modle ARCH pour les rsidus. Le modle
est alors
r
Yt = 0:7940 4 Yt1 + "t o "t = t 1:335464 + 0:42691 "2
t1
(0:0136)

(0:116)

(0:0202)

et o ( t ) est un bruit blanc gaussien.


11.3.2

Erreurs ARCH (p)

On considre ici un modle plus gnral, sur le processus (Yt ), de la forme


Yt = AXt + "t

o jj < 1 et ("t ) satisfait "t = ht t avec ( t ) bruit blanc

et o (Xt ) est un vecteur multivari (modle de rgression classique : variables exognes), ou compos de retards
de Yt (modle ARMA))
h2 = 0 + 1 "2 + 2 "2 + ::: + p "2 = 0 + A (L) "2
t
t1
t2
tp
t
en posant A (L) = 1 L + 2 L2 + ::: + p Lp .
Nous allons tester ici lhypothse H0 : 1 = 2 = ::: = p = 0, contre lhypothse alternative o il existe i
tel que i 6= 0. La procdure pour tester cette absence deet ARCH est fonde soit sur un test de Fisher, soit
sur un test LM du multiplicateur de Lagrange. La mise en place de ces tests se fait de la faon suivante,
(1) calcul des rsidus/erreurs du modles de rgression : bt ;
"
(2) calcul du carr des erreurs b2 ;
"t
"tp
(3) p x, on eectue la rgression linaire de b2 sur son pass b2 ; :::; b2 :
"t
"t1
b2
"t

= 0 +

p
X
i=1

"ti
ib2

(4) calcul de la statistique LM, LM = nR2 o n est le nombre dobservations utilises lors de la rgression,
et R2 le coecient de la rgression. Si LM > 2 (p), on rejette H0 : lerreur est alors modlise par un processus
ARCH (p) :

11.4
11.4.1

Estimation et prvision
Estimation des paramtres dun modles ARCH

Lestimation peut se faire en utilisant des techniques inspires du maximum de vraissemblance.


vraissemblance la date t est de la forme
Lt = constante

1
1
log h2 "2 h2
t
2
2 t t

216

La log-



 


 

  

    

et la log-vraissemblance totale du modle scrit


n

1X
1 X 2 2
L = constante
log h2
" h
t
2 t=1
2 t=1 t t
La mthode pour estimer les paramtres est alors la suivante
(1) calcul des rsidus/erreurs du modles de rgression : bt ;
"
"t
"tp
(2) calcul du carr des erreurs b2 ; et on eectue la rgression linaire de b2 sur son pass b2 ; :::; b2 :
"t
"t1
b2 = 0 +
"t

p
X
i=1

"ti
ib2 + ut

(3) on considre que la variance de lerreur peut tre approche par h2 , et on estime de nouveau les paramtres
t

du modle par moindres carrs gnraliss, avec comme facteur de pondration ! = 1=ht et = diag h2 :
t
1 0

"
b h et
"
= b0 1b
b
"
p
X
h2 = 0 +
ib2 + ut
b "ti
b
t
i=1

Par rapport aux modles linaire, on a une grande dirence quant la variance de lerreur du modle, qui
va tre fonction de la variance rsiduelle , alors que pour les modles ARCH, elle sera fonction de h2 : la
b
t
variance de lerreur nest alors plus constante (ce qui va inuencer, par exemple, les intervalles de conance lors
des prvisons).
11.4.2

La procdure de Diebold (1987) : test dautocorrlation en prsence deet ARCH

Considrons une srie (Xt ) de moyenne nulle. Lautocorrlation empirique dordre h est donne par
b (h) =

T
X
(h)
b
1
Xt Xth
o b (h) =

(0)
b
T h
t=h+1

Sous lhypothse (H0 ) o (Xt ) est un bruit blanc, b (h) est asymptotiquement normalement distribue, de
moyenne nulle et de variance V (b (h)) quivalente 1=T . Cependant en prsence dhtroscdasticit, la

variance de lautocorrlation nest plus en 1=T mais est gale

1
X 2 (h)
V (X (h)) =
c
1+
T
4
p
2
o X 2 (h) est lautocovariance du processus Xt . Aussi, lintervalle de conance de Bartlett (1:96= T
95%) savre trop troit en prsence deet ARCH. Et comme ces deux paramtres, X 2 (h) et 2 , sont
facilement estimables, une estimation de la variance des autocorrlations peut tre obtenue comme

b (X (h)) = 1 1 + bX 2 (h)
V c
T
4
b
q
b c
et lintervalle de conance corrig des eets ARCH devient, 95%, 1:96 V (X (h)). La statistique de
Box-Pierce corrige est alors donne par
Q0 (k) = T

k
X

h=1

4
2 (h)
c
2 + X 2 (h) X
b

qui est asymptotiquement distribue comme une loi du chi-deux k degrs de libert.

217



 


 

  

    

11.4.3

Prvision et intervalle de conance

Nous allons ici tudier la prvision dune variable, modlise par un modle ARMA dont les erreurs suivent un
bruit blanc ou un modle ARCH. Considrons par un modle AR (1)
Xt = + Xt1 + "t
Compte tenu de cette criture, la date t + 1, Xt+1 est donne par Xt+1 = + Xt + "t+1 , dont la prvision,
faite la date t est
b
Xt (1) = EL (Xt+1 jXt ; Xt1 ; :::; "t ; "t1 ; :::) = + Xt + EL ("t+1 j"t ; "t1 ; :::)

Dans le cas o ("t ) est un bruit blanc, "t+1 est orthogonal son pass, et donc EL ("t+1 j"t ; "t1 ; :::) = 0 et
b
donc Xt (1) = + Xt . De faon itrative, on aura, pour tout h > 0,
h

1
b
b
+ h Xt
Xt (h) = + Xt (h 1) =
1

b
dont lerreur de prvision est eh = Xt+h Xt (h) = "t+h + "t+h1 + :: + h1 "t+1 . On peut noter que
bt (h) ! = (1 ) quand h ! 1.
X

Lintervalle de prvision, au seuil , est de la forme X (h) ; X (h) de telle sorte que

h
i

b
b
P eh 2 X (h) ; X (h) = P Xt+h 2 Xt (h) + X (h) ; Xt (h) + X (h) = 1
Dans le cas o ("t ).est un bruit blanc fort gaussien, alorsn pour un horizon de 1, on peut noter aisment que

b
e1 = Xt+1 Xt (1) = "t+1 s N 0; 2 , et donc, un intervalle de conance 95% pour la valeur en t + 1 sera
h
i
b
b
Xt (1) 1:96; Xt (1) + 1:96



b
et plus gnrallement, eh = Xt+h Xt (h) = "t+h + "t+h1 + :: + h1 "t+1 s N 0; 1 + 2 + ::: + 2(h1) 2
et donc, un intervalle de conance 95% pour la valeur en t + h sera
h
i
p
p
b
b
Xt (h) 1:96 1 + 2 + ::: + 2(h1) ; Xt (h) + 1:96 1 + 2 + ::: + 2(h1)

Supposons que ("t ) ne soit plus un bruit blanc (indpendant de son pass) mais que le bruit soit ARCH (1),
p
cest dire que "t = t ht o ht = 0 + 1 "2 , o on supposera que (t ) est un bruit blanc que lon supposera
t1
de variance unitaire, indpendant du pass de ("t ), cest dire t indpendant de "t1 ; "t2 ; ::: On notera tout
dabord que E ("t ) = 0 pour tout t, que la corrlation entre deux dates est donne par la relation
q
q

q
q
E ("t "s ) = E t 0 + 1 "2 :s 0 + 1 "2
0 + 1 "2 :s 0 + 1 "2
= E (t ) E
t1
s1
t1
s1 = 0 pour s < t
et que la variance la date t vrie



2

2
2 = E "2 = E 2 0 + 1 "2
= E 2 E 0 + 1 "2
t
t
t1
t
t1 = 0 + 1 E "t1 = 0 + 1

cest dire 2 = 0 = (1 1 ). Pour obtenir un intervalle de conance pour Xt+h , rajoutons une hypothse
supplmentaire de normalit du bruit (t ). Dans ce cas, lintervalle de conance, 95%, pour la valeur la
date t + 1 est donn par

q
q
b
bt (1) 1:96 0 + 1 "2 ; Xt (1) + 1:96 0 + 1 "2
X
t
t
Aussi, dans le cas dun modle ARCH, la taille de lintervalle de conance dpend de la valeur "2 .
t
218



 


 

  

    

11.5

Modles ARCH et nance

La srie temporelle ci-dessous reprsente lindice NASDAQ, avec le rendement de lindice au jour le jour, et le
logarithme de lindice (en haut). De mme que pour la srie du CAC40, on retrouve l aussi des priodes de
forte volatilit sur le march, comportement qui ne peut tre pris en compte laide de modles ARMA,
10

-5

-10
RDMNT_NASDAQ

LOG_NASDAQ

-15
500

1000

1500

2000

2500

Soit (Yt ) un processus temporel (par exemple le prix dun actif ). Linformation connue la date t est la
trajectoire du prix jusqu cette date, note Yt1 . Supposons que lon cherche le prix de cet actif la date
t + 1. Deux informations sont particulirement intressantes : lesprance et la variance. Plus particulirement,
on souhaiterait modliser lesprance et la variance conditionnelle de (Yt ), conditionnellement linformation
connue. La modlisation ARCH revient crire

E Yt jYt1 = 0 et V Yt jYt1 = ht

o (ht ) aura une forme paramtrique. Dans le cas des modles ARM A; cette variance conditionnelle est
constante : ht = 2 . Dans le cas des modles ARCH; cette variance conditionelle est fonction du carr des prix
2
: pour un modle ARCH (1), ht = c + Yt1 . Cette criture peut se gnraliser (modle ARCH (q)) :
ht = c +

q
X

2
i Yti

i=1

Cette spcication de la variance conditionelle permet au risque (rsum ici par la volatilit du prix ) dpend
de lvolution passe. Les modles GARCH (p; q) sont encore plus gnraux puisque la volatilit dpend de la
volatilit passe,
q
p
X
X
2
i Yti +
j htj
ht = c +
i=1

j=1

Ces modles ont beaucoup t utiliss en nance, et ceci pour plusieurs raisons.
Dans le cadre de la gestion de portefeuille, le modle le plus simple, repose sur la recherche dun portefeuille
ecient (au sens moyenne-variance) horizon 1. Les modles ARCH permettent dintroduire de la dynamique
dans cette gestion.
Les modles ARCH sont apparus une poque o se dveloppaient les modles en temps continu, en particulier pour la valorisation de produits drivs. Mais si cette valorisation a donn de bons rsultats thoriques,
lestimation, partir de donnes discrtes sest avre plus dicile : les modles les plus simples (brownien
gomtrique, modle dOrnstein-Uhlenbeck ou modle de Cox-Ingersoll-Ross) taient gnralement trs mal spcis. Les modles ARCH en revanche se prtaient bien lestimation, et fournissaient de bons ajustements,
mme si la valorisation des produits drivs a pos quelques problmes (le temps discret impliquant une incompltude du march). Toutefois, ces modles avaient quelques faiblesses, do le grands nombre de modles
219



 


 

  

    

gnralisant encore davantage ces modles : IGARCH, T ARCH, QARCH, SW ARCH, ACD GARCH...etc.
Parmi les dfauts des modles ARCH:
- la spcication quadratique de la volatilit conditionelle est apparu trop contraignante. En fait, lestimation
de modles ARCH a rvl la prsence de racines unitaires dans les quations de volatilit. Cette persistance
de la volatilit tient en parti la prsence deets de seuils importants dans cette dynamique.
- si lvolution des prix ( des instants a priori rguliers) pouvait tre relativement bien modlise, la prise
en compte des frquences de transactions ou des volumes changs tait beaucoup plus dicile.
- les modles marchaient relativement mal pour la valorisation des produits drivs.

11.6

Autres types de modles non-linaires

11.6.1

Les modles bilinaires - nots BL (p; q; P; Q)

Les modles bilinaires ont t introduits en 1978 par Granger et Andersen, de faon gnraliser les modles
ARM A,
p
q
Q
P
X
X
XX
Yt =
i Yti + "t
j "tj +
ij Yti "tj
i=1

j=1

i=1 j=1

o ("t ) est un bruit blanc gaussien. Ce modle sera not BL (p; q; P; Q). Une sous classe possible (diagonal ) est
dnie par
p
q
P
X
X
X
Yt =
i Yti + "t
j "tj +
i Yti "ti
i=1

j=1

i=1

Exemple 103 Le modle BL (0; 0; 2; 1) est donn par


Yt = "t + Yt2 "t1
Ce processus est centr, puisque le bruit est indpendant du pass (et donc cov ("t1 ; Yt2 )),
E (Yt ) = E ("t ) + E ("t1 Yt2 )
Le processus dautocovariance est donn par

0 pour h 1
2
2 + 2 2 E Yt2

La variance marginale est alors V (Yt ) = 2 = 1 2 2 : Il est alors possible de montrer que Yt scrit aussi
"
#
j
1
X
Y
j
Yt = "t +
"t2k+1
"t2j :
E (Yt Yth ) =

j=1

k=1

La srie ci-dessous correspond une simulation de la srie Yt = "t + 0:6:Yt2 "t1


6
140

Series: BILINEAIRE
Sample 1 1500
Observations 1500

120

100

Mean
Median
Maximum
Minimum
Std. Dev.
Skewness
Kurtosis

80

60

-2
40

-4

20
0
-5.00 -3.75 -2.50 -1.25

-6
200

400

600

800

1000

1200

1400

BILINEAIRE

220

Jarque-Bera
Probability
0.00

1.25

2.50

3.75

0.049644
0.075453
3.793614
-4.864823
1.221865
-0.148632
3.492173
20.66254
0.000033



 


 

  

    

11.6.2

Les modles autorgressifs exponentiels - EXP AR

Ces modles sont une gnralisation des processus AR, permettant de prendre en compte les explosions en
variance de la srie :
p
X

2
ai + i : exp Xt1 Xti + "t
Xt = +
i=1

11.6.3

Les modles autorgressifs seuils - T AR, ST AR ou SET AR

Les modles autorgressifs seuils ont t introduits par Tong en 1978, sous le nom de threshold autoregressive,
ou T AR. On suppose, dans le cas dun seuil unique, quil existe deux rgimes dirents,
(
(1)
(1)
1 Xt1 + 2 Xt2 + ::: + (1) Xtp1 + "t si Xt
p1
Yt =
(2)
(2)
1 Xt1 + 2 Xt2 + ::: + (2) Xtp1 + "t si Xt >
p2
o (Xt ) est soit une variable exogne, soit une variable (Yt ) retarde (Ytd ). Dans ce dernier cas, on parlera de
modle SET AR, self excited threshold AR. Il est dailleurs poissible de gnraliser davantage en considrant
des sous-modles ARM A au lieu de modles AR.
Exemple 104 Considrons le cas de modles AR (1) avec un seuil unique
1
Xt1 + "t si Xt1
Yt =
2 Xt1 + "t si Xt1 >
Une condition ncessaire et sucante dexistence dune solution stationnaire et 1 < 1, 2 < 1 et 1 2 < 1. La
srie ci-dessous correspond une simulation de la srie

0:2:Xt1 + "t si Xt1 1


Yt =
0:9:Xt1 + "t si Xt1 > 1
avec un bruit blanc gaussien, centr rduit,
10
8

250

200

Series: TAR
Sample 1 1500
Observations 1500
Mean
Median
Maximum
Minimum
Std. Dev.
Skewness
Kurtosis

150

100

1.010332
0.806912
9.491056
-3.801579
1.699211
0.872733
4.688627

50
Jarque-Bera
Probability

-2

368.6318
0.000000

0
-4

-4
200

400
TAR

600

800

-2

1000

SEUIL

Ce type de processus, l aussi, permet davoir des queues de distribution plus paisses (en loccurence ici pour
les fortes valeurs de Yt - queue droite).
11.6.4

Les gnralisations des modles ARCH

Considrons un modle linaire usuel, de la forme


0
Yt = Xt + Ut

221



 


 

  

    

Lhypothse faite en conomtrie est que (Ut ) est un bruit blanc, cest dire un processus i:i:d: Toutefois, il
est possible que le bruit (Ut ) soit autocorrl, cest dire que (Ut ) puisse scrire Ut = Ut1 + "t o ("t )
est ici i:i:d:. Comme nous lavons vu dans ce chapitre, il est possible que le bruit (Ut ) soit conditionellement
htroscdastique, par exemple, modlisable par un processus ARCH (1) dni sous la forme
p
2
Ut = t ht o ht = + Ut1
Ce processus peut se gnraliser sous la forme GARCH (1; 1) suivante
p
2
Ut = t ht o ht = + Ut1 + ht1

Parmi les autres modles possible, on notera les modles ARCH M (ARCH en moyenne, ou ARCH in
Mean), cest dire que le modle linaire scrira ici
p
0
2
Yt = Xt + g (ht ) + Ut o Ut = t ht avec ht = + Ut1 + ht1

Ce type de modle a t introduit en 1987 par Engle, Lilien et Robbins. Parmi les modles asymtriques, on
notera les modles T ARCH ou EGARCH. Les modles T ARCH (ARCH seuil, ou Threshold ARCH) ont
t introduits par Zakoian en 1994. Par exemple, le modle T ARCH (1; 1) scrit
p
2
2
Ut = t ht o ht = + Ut1 + Ut1 Iut <0 + ht1

2
Cest dire que limpact de Ut1 sera de si Ut > 0, alors quil sera de + sinon. Le modle EGARCH
(GARCH exponentiel, ou Exponential GARCH), introduit par Nelson en 1991, peut scrire, dans le cas du
modle EGARCH (1; 1)

Ut = p t o log ht = + jUt1 j + log ht1 + Ut1


ht
Exemple 105 Considrons ici le rendement de lindice N ASDAQ, de janvier 1989 fvrier 2000: Le graphique
ci-dessous reprsente le logarithme de lvolution de lindice N ASDAQ ainsi que le rendement journalier
Variable
C
AR(1)

0.05

0.00

Variable
C
MA(1)

-0.05

1000

RETURN_NASDAQ

1500

2000

Coefficient
0.000862
0.106483

R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat

-0.10
500

Std. Error
0.000231
0.018791

R-squared
0.011052
Adjusted R-squared 0.010699
S.E. of regression 0.010932
Sum squared resid
3338.542
Log likelihood
-4224.341
Durbin-Watson stat 1.997377
Inverted AR Roots
.11

8
0.10

Coefficient
0.000863
0.105134

2500

LOG_NASDAQ

Inverted MA Roots

Mean dependent var


S.D. dependent var
Akaike info criterion
Schwartz criterion
F-statistic
Prob(F-statistic)

Std. Error
0.000228
0.018791

0.011184
0.010831
0.010929
3338.198
-4224.196
2.000222

T-Statistic
3.738457
5.594793

T-Statistic
3.782551
5.666722

Mean dependent var


S.D. dependent var
Akaike info criterion
Schwartz criterion
F-statistic
Prob(F-statistic)

Prob.
0.0002
0.0000
0.086119
1.097336
3.013434
3.017668
31.30171
0.000000

Prob.
0.0002
0.0000
0.086119
1.097336
3.013331
3.017565
31.69207
0.000000

-.11

avec, droite, les rsultats dun ajustement respectivement par un modle AR (1) et MA (1) de la srie des
rendements. Un tude des rsidus (avec ci-dessous lanalyse des rsidus des modles autorgressif AR (1)

222



 


 

  

    

gauche et moyenne mobile M A (1) droite)


0.10

0.10

0.05

0.05

0.00

0.00

0.10

-0.05

0.10

-0.05

0.05

-0.10

0.05

-0.10

0.00

0.00

-0.05

-0.05
-0.10

-0.10
500

1000

1500

Residual

2000

Actual

500

2500

1000

1500

Residual

Fitted

2000

Actual

2500
Fitted

montre que lhypothse de bruit blanc est rejette, mais surtout, les graphiques ci-dessus montrent des priodes
de forte volatilit de la srie des rsidus : il semble ncessaire de modliser lerreur par un modle non linaire.
Les sorties prsentes ci-dessous montrent les ajustments de modles M A (1) GARCH (1; 1) (cest dire un
modle M A (1) dont les erreurs suivent un modle GARCH (1; 1)) et ARCH M , respectivement gauche et
droite,
Variable
C
MA(1)

Coefficient
0.084907
0.171620

C
ARCH(1)
GARCH(1)

0.027892
0.121770
0.857095

Std. Error
T-Statistic
0.017700
4.797124
0.020952
8.190983
VARIANCE EQUATION
0.009213
4.797124
0.020448
5.955103
0.021526
39.81666

R-squared
0.007104
Adjusted R-squared 0.005685
S.E. of regression 1.094213
Sum squared resid
3352.444
Log likelihood
-3775.938
Durbin-Watson stat 2.129878
Inverted AR Roots
-.17

Mean dependent var


S.D. dependent var
Akaike info criterion
Schwartz criterion
F-statistic
Prob(F-statistic)

Prob.
0.0000
0.0000

Variable
SQR(GARCH)
MA(1)

0.0000
0.0000
0.0000

C
ARCH(1)
GARCH(1)

0.086119
1.097336
2.695856
2.706443
5.008069
0.000000

Coefficient
0.119204
0.174104
0.031291
0.133713
0.843131

Std. Error
T-Statistic
0.022944
5.195479
0.020771
8.382098
VARIANCE EQUATION
0.009545
3.278211
0.021011
6.363810
0.021785
38.70279

R-squared
0.010861
Adjusted R-squared 0.009448
S.E. of regression 1.092141
Sum squared resid
3339.759
Log likelihood
-3339.759
Durbin-Watson stat 2.132844
Inverted AR Roots
-.17

Prob.
0.0000
0.0000
0.0000
0.0000
0.0000

Mean dependent var


S.D. dependent var
Akaike info criterion
Schwartz criterion

0.086119
1.097336
2.694578
2.705165

Exemple 106 Considrons ici la srie du rendement de lindice SP 500, reprsent ci-dessous. La sortie prsente droite est lajustement dun modle AR (3),
LS // Dependent Variable is SP500
Sample: 4 792
Included observations: 789 after adjusting endpoints
Convergence achieved after 2 iterations

0.6

0.4

Variable

0.0

-0.2

-0.4
100

200

300

400

500

600

700

SP500

Coefficient

C
AR(1)
AR(3)

0.2

0.006262
0.086019
-0.125241

R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
Inverted AR Roots

Std. Error
0.001983
0.035303
0.035302

0.023610
0.021126
0.057872
2.632480
1130.228
1.979390
.28+.43i

T-Statistic
3.158517
2.436595
-3.547748

Prob.
0.0016
0.0150
0.0004

Mean dependent var


0.006269
S.D. dependent var
0.058494
Akaike info criterion -5.695235
Schwartz criterion
-5.677476
F-statistic
9.503281
Prob(F-statistic)
0.000084
.28 -.43i

-.47

Les sorties ci-aprs corresondent lajustement de modles AR (3)GARCH (1; 1), GARCH (1; 1), IGARCH (1; 1),
GARCH (1; 1) M ,

FAIRE TOURNER LES PROGRAMMES RATS


223



 


 

  

    

11.7

Les tests de linarit

Avant de construire un modle non-linaire, il est recommander de vrier quun modle linaire ne sut
modliser correctement la srie. Il peut arriver (surtout si les sries temporelles sont courtes) que lon estime
- avec succs - un modle non-linaire alors que la vraie relation sous-jacente est linaire. Le danger est alors
de compliquer inutilement la construction du modle Tester la linarit peut alors aider ne pas compliquer
outrance, mais cela peut, en outre, aider pour la spciction du type de non-linarit. Deux types de tests sont
alors utiliss :
- les tests contre un modle non-linaire spcique (comme les tests du multiplicateur de Lagrange et le test
du Cusum)
- les tests sans alternative spcique (tels que le BDS ou le Reset)
11.7.1

Les tests du multiplicateur de Lagrange

Puisque lestimation de modles non-linaires est en gnral plus dicile que celle des modles linaires, il est
naturel de considrer des tests qui, bien quavec des alternatives non-linaires spciques, ne requirent pas
lestimation de ces alternatives.
Cest cette catgorie quappartiennent les tests du multiplicateur de Lagrange. Nous disposons ainsi de
quatre tests de ce type, chacun testant un type de non-linarit: ARCH, BL, EXP AR et SET AR.
AR(p) contre AR(p) erreurs ARCH(q) Dans ce type de tests, on considre un processus ("t ) bruit blanc

gaussien, cest dire i:i:d: dont la loi est N 0; 2 . Les hypothses sont alors
v
u
p
p
q
X
X
X
u
i Xti + "t contre (H1 ) : Xt = +
i Xti + t0 +
j "2
(H0 ) : Xt = +
tj
i=1

i=1

j=1

"
On estime le modle (H0 ) par moindres carrs, et on calcule les rsidus bt obtenus. On estime alors par les
moindres carrs la rgression
P 2
q
X
t
"tj
j b2 + t avec R2 = 1 P
b2 = 0 +
"t
(bt ")
"
j=1

La statistique du multiplicateur de Lagrange est alors asymptotiquement quivalente T R2 . Si lon pose LM0 =
T R2 alors, sous (H0 ), LM0 est asymptotiquement distribue comme un chi-deux q degrs de liberts.
AR (p) contreBL (p; 0; P; Q) On considre un processus ("t ) bruit blanc gaussien, cest dire i:i:d: dont la

loi est N 0; 2 . Les hypothses sont alors


(H0 ) : Xt = +

p
X

i Xti + "t contre (H1 ) : Xt = +

i=1

p
X

i Xti + "t +

i=1

Q
P
XX

i;j Xti "tj

i=1 j=1

b
L encore, on estime le modle (H0 ) par moindre carrs, ainsi que 2 , estimateur de 2 . La statistique du test
du multplicateur de Lagrange est
hX
i0 h
i hX
i
c
c c1 c
LM1 = 2
b
z1;tbt M11 M10 M00 M01
b "
z1;tbt
b "

et

z0;t = (1; Xt1 ; :::; Xtp )0


b
z1;t = (bt1 Xt1 ; :::; bt1 XtP ; bt2 Xt1 ; :::; bt2 XtP ; :::; btQ Xt1 ; :::; btQ XtP )
b
"
"
"
"
"
"
P
c
Mii = zi;t zi;t pour i = 0; 1
b b0
c01 = M10 = P z1;t z 0
c
M
b b0;t

Il est possible de montrer que sous (H0 ), LM0 est asymptotiquement distribue comme un chi-deux P Q degrs
de liberts.
224



 


 

  

    

AR (p) contre EXP AR (p) On considre un processus ("t ) bruit blanc gaussien, cest dire i:i:d: dont la loi

est N 0; 2 . Les hypothses sont alors


(H0 ) : Xt = +

p
X

i Xti + "t contre (H1 ) : Xt = +

i=1

p
X

2
i + i exp Xt1 Xti + "t
i=1

De faon quivalente lhypothse alternative peut scrire

(H1 ) : Xt = +

p
X

i Xti +

i=1

p
X

2
i Xti Xt1 + "t

i=1

L encore, la statistique du test du multplicateur de Lagrange est


hX
i0 h
i hX
i
c
c c1 c
b
LM2 = 2
z1;tbt M11 M10 M00 M01
b "
z1;tbt
b "

z0;t = (1; Xt1 ; :::; Xtp )0


b

3
2
2
z1;t = Xt1 ; Xt2 Xt1 ; :::; Xtp Xt1
b

P
c
Mii = zi;t zi;t pour i = 0; 1
b b0
et c
P
c
M01 = M10 = z1;t z 0
b b
0;t

Il est possible de montrer que sous (H0 ), LM0 est asymptotiquement distribue comme un chi-deux p degrs
de liberts.
11.7.2

Le test du CU SU M

Le test du CUSU M permet de dtecter lexistence de rgimes ou de seuils. Il consiste reclasser les observations
suivant les variables de transition. On estime alors les paramtres de manire rcursive et on considre les
sommes cumules des rsidus obtenus.
Par exemple, dans le cas dun modle SET AR, on suppose que lon connait le dlai d, et que lon dispose des
observations Xd+1 ; :::; X0 ; ::::; XT . On ordonne les observations X1 ; :::; Xn selon les valeurs de X1d ; ::::; Xtd .
T
T
Soient X(1) ; :::; X(T ) les observations ainsi rordonnes. Pour tout j, on considre le modle linaire suivant
T
X(i) = j +

p
X

k=1

j X(i)k + "T pour tout i j


(j)
k

Lhypothse (H0 ) est alors j = , j = k pour tout k, et lhypothse alternative (H1 ) est que (H0 ) nest pas
k
vrie.
11.7.3

Le test BDS

Ce test permet de dtecter un bruit blanc indpendant, cest--dire si les observations sont (ou non) indpendantes, partir de ltude de la dimension de corrlation (notion issue de la thorie du chaos).
Remarque 72 Cette notion, introduite par Grassgerber et Procaccia en 1983 est trs lie la thorie des
fractales et la dimension de capacit. Lide de base est la suivante : plus un ensemble est de dimension
leve, plus rapidement le nombre de voisins dun point donn de cet ensemble augmentera avec la distance
ce point. Encore faut-il pouvoir valuer le nombre de voisins. Dans ce but, nous introduisons lintgrale de
corrlation, dnie comme la probabilit de trouver une paire de points distants de moins dun certain rayon r
(donn priori) dans un espace dimmersion m-dimensionnel.
A partir dune srie temporelle, on commence donc par former des m-uples. Si lon dispose de N observations, lintgrale de corrlation sera donne par
Cn;N (r) =

N
N
X X
1
(r d (i; j))
N (N 1) i=1
j=1;j6=i

225



 


 

  

    

o d(i; ; j) est la distance entre les points i et j et (k) est la fonction de Heaviside (ou fonction signe) qui, par
dnition, vaut 1 si k 0 et 0 dans le cas contraire. Ceci revient donc compter, dans un espace dimmersion, le
nombre de voisins dun point quelconque distants de moins de r. En principe, d(i; ; j) est la distance euclidienne
usuelle, mais on prend en gnral la norme-sup (ou norme de Takens) pour distance. Cette dernire est dnie
comme la plus grande des dirences (en valeur absolue) entre deux coordonnes quivalentes de 2 vecteurs.
Quand N ! 1, on pose alors Cm;N (r) ! Cm (r) = r m . Lexposant m ainsi dnit sera la dimension de
corrlation dans limmersion m, dont lestimateur naturel est

bm = lim

r!0

d log (Cm (r))


d log r

A partir de cette notion, il est ais de mettre en place le test BDS de non-linarit.
Ce test peut tre interprt comme un test de non linarit : il sut en eet destimer le modle linaire
retenu et de calculer les rsidus obtenus. On applique ensuite le BDS ces rsidus; si ce test rvle que les
rsidus sont indpendants et identiquement distribus, alors lhypothse de linarit est accepte. Dans le cas
contraire, la srie est soit stochastique non-linaire, soit chaotique.
m
Soit le vecteur m-historique Xt = (Xt ; Xt+1 ; :::; Xt+m1 ), et Tm = n m + 1 le nombre de vecteurs mhistoriques pour la srie (Xt ) avec n observations. On dsigne par I" (:) la fonction indicatrice de [0; "], o " est
une constante positive pralablement choisie. On pose alors
Cn;m (") =

X
2
m
m
I" (kXt Xs k1 )
Tm (Tm 1) t<s

et on a, sous lhypothse o les (Xt ) sont indpendants et identiquement distribus


h
im
lim Cn;m (") = lim Cn;1 (")
n!1

n!1

Remarque 73 Cette proprit peut tre illustre simplement dans le cas o m = 2 : Cn;2 (") correspond la
frquence des observations plus proches voisins dans le plan (Xt1 ; Xt ) tandis que C1;n (") mesure toujours
la proportion de points de la srie distants de moins de " de moins de " de leur valeur la date prcdante.
Dans le cas dune srie indpendante, on voit que lon considre une surface lmentaire, et que lon double
la longueur des cts (C1;n est alors multipli par 2), le nombre de points contenu dans la surface est alors
multipli par 4 ( cause de la rpartition purement alatoire des points dans le plan). En revanche, avec une
srie non-indpendante, le nombre de points nest plus multipli par 4 lorsque la surface lmentaire voit ses
cts doubls : Cn;1 (") est bien multpli par 2 mais Cn;2 (") nest pas multipli par 4.
Compte tenu de cette remarque, on dnit la statistique BDS par
BDS =
avec

p Cn;m (") Cn;1 (")


n
m (")

v
u
m1
X
u
m (") = 2tK m + 2
K mj C 2j + (m 1)2 C 2m m2 KC 2m2
j=1

et

C = Cn;1 (") et K =

X
1
I" (jXt Xs j) I" (jXr Xs j)
n (n 1) (n 2)
(t;r;s)

o la sommeseectue sur les (r; s; t) distincts deux deux. Sous (H0 ) : (Xt ) est i:i:d: la statistique BDS est
asymptotiquement normale, centre et rduite.

226



 


 

  

    

11.7.4

Le test RESET (Regression error specication test)

On estime ici les paramtres du modle linaire


(H0 ) : Xt = +

p
X

i Xti + "t

i=1

Pp b
b
"
b
et on calcule les rsidus obtenus bt , les valeurs ajustes Xt = + i=1 i Xti = Xt bt et la somme des carrs
"
P 2
"
des rsidus SCR0 = bt . On estime alors, par la mthode des moindres carrs, les paramtres de

et on calcule SCR1 =

bt = b0 +
"

p
X

bi Xti +

i=1

j=1

b2 . La statistique de test est


t
RESET =

h
X

bj
j Xt + t

[SCR0 SCR1 ] = (h 1)
SCR1 = (n p h)

qui suit sous (H0 ) (hypothse de modle AR (p)) un loi de Fisher F (h 1; n p h). En fait, le test du RESET
peut tre interprt comme un test du multiplicateur de Lagrange.
11.7.5

La procdure AU T OREG sous SAS=ET S

La syntaxe de la procdure AU T OREG est la suivante


PROC AUTOREG options;
BY variables;
MODEL dependent = regressors / options;
HETERO variables/options;
RESTRICT equation,...,equation;
TESTequation,...,equation / option;
OUTPUT OUT=SAS data set options;
Estimation de modles GARCH (p; q) Le modle que nous souhaitons tester est de la forme suivante :
Yt jYt1 ; Yt2 ; ::: s N (0; ht ) o ht = ! +

q
X
i=1

2
i Yti

p
X

j htj

j=1

o ht est alors appele variance conditionelle. Le modle ARCH (q) est obtenu quand p = 0. Lestimation
sous SAS se fait par maximum de vraissemblance, sous lhypothse o le processus (t ) est normalement
distribu (centr rduit)
La dclaration MODEL
Pour les modles GARCH :
- GARCH =(option-list) : spcie la forme du modle GARCH, par exemple, pour un modle GARCH (1; 1)
linstruction sera
MODEL y=x1 x2 / GARCH=(q=1,p=1);
Toute la classe des modles gnralisant les modles GARCH sont dailleurs obtenus laide de linstruction
TYPE= : modles EGARCH (GARCH exponentiel), IGARCH (GARCH intgr), sans contraintes de nonngativit, contrainte de stationnarit...
- DIST=T ou DIST=NORMAL : spcie la distribution du terme derreur : soit une loi normale, soit une loi de
Student,
227



 


 

  

    

Pour les tests statistiques


- ARCHTEST : cette option permet dobtenir les statistiques Q et LM permettant de tester labsence deet
ARCH,
- CHOW =(obs1 ,...obsn ) : met en place les tests de Chow an de tester la stabilit des coecients de
rgression,
- COVEST =OPjHESSIANjQML : cette option spcie le type de matrice de covariance pour le modle GARCH.
OP signie que la matrice produit est utilis la matrice, HESSIAN signie que la matrice Hessienne est utilise
pour calculer la matrice de covariance, et QML signie que la mthode retenue est base sur du quasi maximum
de vraissemblance,
- DW =n : met en place le test de Durbin Watson lordre n (par dfaut gal 1). Linstruction DWPROB
donne la p-value du test.
- GODFREY =r : met en place le test du multiplicateur de Lagrange, avec comme hypothse alternative des
erreurs ARMA,
- RESET : met en place le test RESET , avec p valant 2, 3 ou 4,
- STATIONNARITY =(PHILLIPS) : met en place le test de Phillips-Perron, test de stationnarit du modle
La dclaration OU P UT Un certain nombre doutput peuvent tre imprims, laide des instructions CEV=
variable ou - HT= variable. Linstruction CEV= option permet dobtenir, en sortie, la table de la variance des
erreurs du modle htroscdastique (spci dans linstruction HETERO ou la valeur de la variance de lerreur
conditionelle ht de la dclaration GARCH= option dans linstruction MODEL)
Parmi les tests possible, on notera les instructions CUSUM et CUSUMSQ, dont les intervalles de conance
(haut et bas) peuvent tre obtenus laide des instructions CUSUMUB= variable, CUSUMUB= option, CUSUMLB=
variable, CUSUMLB= option , CUSUMSQUB= variable, CUSUMSQUB= option ou encore CUSUMSQLB= option.
Etimation dun modle ARCH (p) sous SAS Lexemple ci-dessous (tir de Box et Jenkins (1976) page
527) correspond au cours de laction IBM , entre le 29 juin 1959 et le 30 juin 1960. Le rendement (journalier)
de ce titre est la variable r, reprsent ci-dessous,

Le modle que nous souhaitons tester est de la forme suivante :


2
2
ARCH (2) : Yt jYt1 ; Yt2 ; ::: s N (0; ht ) o ht = ! + 1 Yt1 + 2 Yt2

An de tester ce modle, les instructions sont les suivantes


proc AUTOREG data=IBM;
model r=/noint GARCH=(Q=2);
output out=a cev=v;

228



 


 

  

    

et la sortie SAS (estimation des paramtres et tests statistiques) est alors


Autoreg Procedure
Dependent Variable = R
Ordinary Least Squares Estimates
SSE
0.032143
MSE
0.000127
SBC
-1558.8
Reg Rsq
0.0000
Durbin-Watson 2.1377

DFE
Root MSE
AIC
Total Rsq

254
0.011249
-1558.8
0.0000

NOTE: No intercept term is used. R-squares are redefined.


GARCH Estimates
SSE
MSE
Log L
SBC
Normality Test
Variable
ARCH0
ARCH1
ARCH2

0.032143
0.000127
781.0174
-1545.42
105.8557

OBS
254
UVAR
0.000126
Total Rsq
0.0000
AIC
-1556.03
Prob>Chi-Sq 0.0001

DF

B Value

Std Error

1
1
1

0.000112
0.041348
0.069749

7.561E-6
0.0511
0.0432

t Ratio Approx Prob


14.851
0.810
1.616

0.0001
0.4181
0.1062

cest die que ! ; 1 et 2 valent respectivement 0:00011, 0:04136 et 0:06976. Les coecients donns sont, pour
b b
b
lestimation par moindre carrs :
- SSE : (Sum of Square Errors)
- MSE : (Mean Square Error)
- SBC : critre de Schwarz dni par SBC = 2 ln L + K ln N , o L est la vraissemblance, N le nombre
dobservations et K le nombre de paramtres estims.
- Regress R-square : donn par
T SSE
R2
REG = 1
T SST
o T SST est la somme des carrs ...
- DW : statistique de Durbin-Watson
- DF E : (Error Degrees of Freedom) the number of observations minus the number of parameters
- Root MSE : (Root Mean Square Error)
- AIC : critre dAkaike dni par AIC = 2 ln L + 2K, o L est la vraissemblance et K le nombre de
paramtres estims.
- Total R-square : donn par
SSE
2
RT OT = 1
SST
Et pour lestimation des paramtres GARCH
- Log Likelihood : valeur de la log-vraissemblance (sous hypothse de normalit des rsidus)
- Normal Test :test de Bera et Jarque (1982) bas sur lutilisation du skewness et de la kurtosis (qui doivent
tre proches respectivement de 0 et de 3 dans le cas normal )
- Observations : nombre dobservations utilises
- Uncond Var : variance non-conditionelle
- Total R-square :
- Pr>ChiSq : p-value associe au test de normalit

229



 


 

  

    

SAS renvoie galement la sortie graphique suivante, correspondant la variance conditionelle

ainsi que la prvision.

11.8
11.8.1

Application sur des donnes relles


Modlisation GARCH du CAC40

Prsentation de la srie et analyse prliminaire Considrons la srie du CAC40, observe du 2 janvier


1990 au 20 septembre 1996 (soit un peu plus de 1750 observations)
2400
160

2200

Series: FRCAC40
Sample 1/02/90 9/20/96
Observations 1754
120

2000

40

1600

1915.304
1916.445
2355.930
1441.170
162.8632
-0.078139
2.917500

Jarque-Bera
Probability

80

1800

1400
1/02/90

Mean
Median
Maximum
Minimum
Std. Dev.
Skewness
Kurtosis

2.282331
0.319447

12/03/91

11/02/93

1500 1600 1700 1800 1900 2000 2100 2200 2300

10/03/95

FRCAC40

Comme le suggre lautocorrlogramme ci-dessous, ainsi que le processus moyenne glissante (avec quipondration, 10 jours (soit 21 jours)), cette srie nest pas stationnaire
2400

2200

2000

1800

1600

1400
1/02/90

12/03/91

11/02/93
MOYENNE_CAC

230

10/03/95



 


 

  

    

Pour stationnariser la srie, considrons la srie direncie, correspondant la variation de lindice CAC40 sur
une journe (en points)
150
100

500

50

400

300

-50

200

-100

100

Series: D_FRCAC40
Sample 1/02/90 9/20/96
Observations 1754
Mean
Median
Maximum
Minimum
Std. Dev.
Skewness
Kurtosis

0.044686
0.000000
102.7000
-132.7700
20.50039
-0.144215
4.957569

Jarque-Bera
Probability

-150
1/02/90

286.1407
0.000000

12/03/91

11/02/93

-120

10/03/95

-80

-40

40

80

D_FRCAC40

Cette transformation semble stationnariser la srie au second ordre, comme le laissent penser les graphiques
ci-dessous,
150
100
50
0
-50
-100
-150
1/02/90

12/03/91

11/02/93

10/03/95

MOYENNE_DCAC

Si la srie initiale du CAC40 prsentait - a priori - une racine unit, comme cela peut se voir sur le scatterplot
ci-dessous gauche, on peu noter que la srie direncie une fois est elle stationnaire (la corrlation entre deux
dates - 1 jour et 5 jours ci-dessous - est dailleurs trs faible),

D_FRCAC40

FRCAC40

2200

2000

1800

150

100

100
D_FRCAC40

150

2400

50
0

50
0

-50
-100

1600

1400
1400

1600

1800

2000

FRCAC40_1

2200

2400

-50
-100

-150
-150

-100

-50

50

D_FRCAC40_1

100

150

-150
-150

-100

-50

50

100

150

D_FRCAC40_1

Tests de non-linarit An de dterminer le type de modlisation adopter, un certain nombre de tests


simples de non-linarit peuvent tre utiliss : multiplicateur de Lagrange et RESET . Quel que soit le test,
on peut noter une forte non-linarit de la srie (cela peut toutefois tre d la nature particulire des tests

231



 


 

  

    

eectus, postulant une forme AR (1) comme hypothse alternative) :


Test
LM (AR contre ARCH)
LM (AR contre BL)
LM (AR contre EXP AR)
RESET

Valeur de la statistique
206:6051
9:236277
39:06230
8:876685

p-value Linaire
0:00000
non
0:00237
non
0:00000
non
0:00293
non

Ltude des autocorrlogrammes de la srie des variations et de la srie au carr semblent conrmer ce phnomne
: si les autocorrlogrammes de la srie nindiquent pas de corrlations importantes (laissant penser que la
srie pourrait tre un bruit blanc), des autocorrlations non-nulles apparaissent en considrant la srie dnie
comme le carr de la variation du CAC40,
150
100
50
0
-50
-100
-150
1/02/90

12/03/91

11/02/93

10/03/95

D_FRCAC40

20000

15000

10000

5000

0
1/02/90

12/03/91

11/02/93

10/03/95

D_FRCAC40_C

Ces rsultats incitent adapter une modlisation de type ARCH=GARCH et non pas ARIM A.
Modlisation ARCH GARCH de la variation du CAC40 Le critre dAkaike incite retenir un modle
ARCH (1). Il pourrait tre galement intressant de considrer des modles GARCH (2; 1) ou ARM A ( titre
de comparaison). Nous noterons dans la suite Xt la srie correspondant la variaiton de lindice CAC40.
Modle ARCH (1) - avec erreurs conditionnellement normales
Le modle est de la forme

2
Xt jXt1 s N 0; 2 o 2 = 398:6559 + 0:1488Xt2
t
t

Considrons la srie des rsidus standardiss (la srie des rsidus concidant avec la srie des variations
elle-mme).
Modle GARCH (2; 1)
Modle ARM A
232



 


 

  

    

11.9

Conseils bibliographiques

DROESBEKE,J.J., FICHET,B. & TASSI,P. (1994). Modlisation ARCH : thorie statistique et applications dans le domaine de la nance. Association pour la Statistique et ses Utilisation. Ellipses
ENGLE,R. (1995). ARCH : selected readings. Oxford University Press.
GOURIEROUX,C. (1997). Modles htroscdastiques. dans Encyclopdie des Marchs Financiers,
Economica
GOURIEROUX,C, SCAILLET,O. & SZAFARZ,A.. (1998). Economtrie de la nance : analyses historiques. Economica
JOHNSTON,J. (1988). Mthodes Economtriques. Econometrica.

233



 


 

  

    

12

Introduction la notion de mmoire longue

Les processus ARM A sont souvent appel processus mmoire courte compte tenu de la dcroissance rapide
de lautocorrlation entre Xt et Xth quand h ! 1 (dcroissance exponentielle de (h)). En fait, il est possible
de montrer que, pour un processus ARMA stationnaire, sa fonction dautocorrlation est borne,
j (h)j Crh pour h = 1; 2; :::
pour une certaine constante C > 0 et 0 < r < 1.
Dnition 58 Un processus stationnaire sera dit mmoire longue si les autocorrlations (h) satisfont
(h) s Ch2d1 quand h ! 1

(52)

o C est une constante non nulle et d < 1=2.


Il est possible de faire une distrinction suivant la valeur de d :
P
- si d < 0 : mmoire intermdiaire, la srie (h) est absolument convergente
j (h)j < 1:
P
- si 0 < d < 1=2 : mmoire longue, la srie (h) nest plus absolument convergente
j (h)j = 1
Ce type de comportement a t mis en vidence ds 1951 sur des donnes hydrologiques, puis conomiques.
Le graphique ci-dessous gauche correspond au minimum annuel atteint par le Nil, et droite, son autocorrlogramme,
15
14
13
12
11
10
9
700

800

900

1000

1100

1200

NILE

Remarque 74 Lexpression (52) dit uniquement la forme asymptotique des autocorrlations, sous forme dun
quivalent, mais ne dit en aucun cas que certains retards spciques doivent tre particulirement importants.
Remarque 75 Cette condition (52) se rcrit galement
(h)
=1
h!1 Ch2d1
lim

De faon heuristique, une srie mmoire longue est caractrise par une fonction dautocorrlation qui
dcrot lentement lors que le retard h augmente. En terme de frquence et de densit spectrale, le spectre de
telles sries ont un ple la frquence 0. Cette proprit est trs frquente sur les donnes conomiques,
tel point que Granger avait parl en 1966 de forme spectrale tque dune variable conomique, comme le note
Valrie Mignon dans Mthodes destimation de lexposant de Hurst. Historiquement,le premier processus
mmoire longue est le mouvement brownien fractionnaire, dvelopp par Mandelbrot et Van Ness en 1968.
Ce processus est caractris par un paramtre appel exposant de Hurst, not H, permettant de classer les
sries temporelles en fonction de leur structure de dpendance : mmoire courte ou nulle, mmoire longue et
positive (appel phnomne de persistance), et anti-persistance. Les sries empiriques tant des processus en
temps discret, Mandelbrot et Wallis ont dni, en 1969, lanalogue du mouvement brownien fractionnaire en
temps discret, appel bruit gaussien fractionnaire.
234



 


 

  

    

Une seconde classe de modles, lis au bruit gaussien fractionnaire, est constitu des processus ARF IMA
(AutoRegressive Fractionnaly Integrated Moving Average) parfois galement appels F ARIMA: Ceux-ci constituent une gnralisation des processus ARIM A (p; d; q) standards, dans lesquels le paramtre de direnciation d tait un entier. Le paramtre d explique alors le comportement de long terme de la srie, le comportement
de court terme tant expliqu par les composantes autorgressives et moyenne-mobiles.
Si ces processus sont trs prsents en conomie (comme le notait Granger ), ils sont galement prsents en
nance. En 1991, Lo a ainsi tudi les implications des processus mmoire longue dans la thorie nancire,
et Mignon a tudi en 1995 limpact de ce comportement sur lecience des marchs. En eet, on dit que les
marchs sont ecients (ecient dun point de vue informationel ) si les cours des actifs cts retent toute
linformation disponible : il est alors impossible de prvoir les rentabilits futures partir des rentabilits passes
puisque toute linformation (anticipe) est incorpore dans les prix. Mais si les rentabilits ont une structure de
dpendance long terme, alors les observations prsentent des autocorrlations signicatives. La connaissance
du pass fournit alors de linformation pour prvoir les valeurs futures. En fait, Samuelson a montr en 1965
que si un march est ecient, le prix observ sur le march correspond la valeur fondamentale (cest dire
la somme actualis des dividendes futurs anticips par les agents), et la mmoire longue impliquerait un cart
durable entre le cours et la valeur fondamentale.
Remarque 76 Si la mmoire longue a t dnie partir de la fonction dautocorrlation, elle peut aussi
tre dnie laide de la densit spectrale. Les processus ARMA, exemples classiques de processus mmoire
courte, la densit spectrale est positive et nie quand la frquence tend vers 0. On dira quun processus (Xt ) est
mmoire longue sil existe une constante telle que 0 < < 1 et une constante C > 0 telles que
lim

!!0

f (!)
=1
C!

o f est la densit spectrale du processus (Xt ) . Ainsi, la densit spectrale prsente un ple la frquence 0.

12.1

Processus self-similaires

Dnition 59 On dit quil processus est self-similaire, de


paramtre de self-similarit H si, pour tout c, le

processus (Yct ) la mme distribution que le processus cH Yt , pour tout t 0


Cette classe de processus a t introduite ds 1968 par Mandelbrot, mme si, dun point de vue probabiliste,
cette proprit avait t tudie ds 1940 par Kolmogorov.

12.1.1

Accroissements stationnaires de processus self-similaires

Soit (Yt ) un processus H-self-smilaire, accroissements stationnaires. Posons alors


Xt = Yt Yt1 pour t = 1; 2; :::
Soit 2 = V (Xt ) : Alors la fonction dautocovariance est donne par
(h) =

12.2

i
2 h
jh + 1j2H 2 jhj2H + jh 1j2H
2

(53)

Processus F ARIMA - ARIMA Fractionnaires

Dans la partie sur les processus ARIM A, nous avions introduit un aspect tendanciel aux processus ARMA
en retenant un polynme autorgressif admettant 1 comme racine (ventuellement multiple). Ceci a conduit
considrer les processus crits sous la forme
(1 L)d (L) Xt = (L) "t
o d est un entier positif. Le fait que le paramtre d soit entier pose un certain nombre de problmes, des
problmes didentication par exemple, et cest pour cela que d est estim sparment des autres paramtres.
Les processus F ARIM A sont une gnralisation o lon considre d a priori quelconque (rel ).
235



 


 

  

    

Dnition 60 Un processus fractionnaire est un processus (Xt ), dni pour t 0, satisfaisant une quation
de la forme
(1 L)d (L) Xt = (L) "t
pour t 0
avec comme condition initiale Xt = 0 pour t < 0 et "t un bruit blanc pour t 0, nul sinon, de variance nie
2 , et o (L) et (L) sont deux polynmes ayant leurs racines lextrieur du disque unit, et o d est rel,
avec la convention
1
X d (d 1) ::: (d j + 1)
(1)j Lj
(1 L)d = 1 +
j!
j=1
La dnition de (1 L)d est fonde sur le dveloppement en srie entire de la fonction puissance (qui peut
se simplier en introduisant la fonction Gamma) : soit
(d) =

+1

xd1 exp (x) dx

alors
d
(1 L) =

1
X (d + j)
j=0

(d) :j!

Lj

Proprit 54 Un processus fractionnaire admet une reprsentation moyenne mobile (innie) de la forme
Xt = H (L) "t

o H (L) =

1
X

hj Lj

j=0

o les coecients hj vrient asymptotiquement


hj s

(1)
j d1 quand j ! 1
(1) (d)

Dnition 61 Cette srie est


P 2
- asymptotiquement non-stationnaire si
hj = +1
P 2
- asymptotiquement stationnaire si P j < +1, et dans ce cas, on dira que
h
- mmoire courte si Pjhj j < +1
- mmoire longue si
jhj j = 1

Proprit 55 Les processus ARMA sont des processus asymptotiquement stationnaires mmoire courte
Compte tenu du comportement asymptotique des hj , on a la proprit suivante
Proprit 56 Le processus fractionnaire est asymptotiquement stationnaire si et seulement si d < 1=2. Il est
mmoire courte si d 0 et 0 < d < 1=2
Remarque 77 Ces processus sont parfois appels processus intgrs dordre d, et not I (d).
12.2.1

Processus fractionnaire sans composante AR et M A : processus F ARIM A (0; d; 0)

d
Considrons un processus de la forme (1 L) Xt = "t avec d < 1=2. ("t ) est ici un bruit blanc, et nous
supposerons, dans un premier temps, quil est de variance nie 2 .

Exemple 107 Comme nous lavons vu auparavant, les processus ARIM A (0; 1; 0) - cest dire la marche
alatoire Xt = Xt1 + "t - dans le cas o ("t ) est un bruit blanc gaussien de variance 2 , peuvent tre vus
comme des discrtisations du mouvement brownien. De faon analogue, dans le cas o le bruit ("t ) est gaussien,
le processus (Xt ) ARF IM A (0; d; 0) est rapprocher du mouvement brownien fractionnaire (not F BM

236



 


 

  

    

- fractional Brownian motion) : un processus (en temps continu) BH (t) est appel F BM sil est trajectoires
continues, telles que BH (t) soit gaussien pour tout t, BH (0) = 0, E (BH (t) BH (s)) = 0 pour tout s; t, et
cov (BH (t) ; BH (s)) =

i
2 h 2H
jtj jt sj2H + jsj2H
2

(54)

pour tout 0 < H < 1. On peut noter que le cas H = 1=2 correspond au mouvement brownien. La version discrte
dun tel processus est alors appel bruit blanc gaussien fractionnaire (F GN - fractional Gaussian noise). La
relation (54) est dailleurs rapprocher de (53).
La fonction dautocovariance (t; h) = cov (Xt ; Xt+h ) converge vers
(h) = 2

(h + d)
(1 2d)
quand t ! 1
(h + 1 d) (d) (1 d)

o 2 est la variance du bruit blanc.


Remarque 78 La fonction dautocovariance (t; h) dpend de t : le processus nest pas stationnaire (mais il
est asymptotiquement stationnaire).
La vitesse de convergence de lautocorrlogramme vers 0 est donne, pour h grand, par
(h) s 2 h2d1

(1 2d)
ou (h) s d .h2d1 quand h ! 1
(d) (1 d)

A titre de comparaison, pour les processus ARM A, nous avions vu que la vitesse de dcroissance tait de la
forme exponentielle, cest dire beaucoup plus rapide.
Par dfaut, nous considrerons les processus F ARIMA Gaussien, cest dire que le bruit ("t ) est suppos
tre un processus gaussien. Toutefois, toute une thorie existe pour des processus plus gnraux, non-gaussiens,
mais de variance nie, ou alors de variance innie. Ce dernier cas est dailleurs relativement utilis dans la
pratique. Parmi ces familles, on peut considrer les distributions de Pareto (cest dire que P (" > x) s Cx )
de paramtre < 2, ou les distributions stables (cest dire que leur fonction charactristique est de la

forme (t) = E eit" = exp ( jxj ) o est un paramtre dchelle) de paramtre 1 < 2 (le cas = 2
correspondant au cas gaussien)22 .
Les processus ARF IMA (0; d; 0) peuvent scrire sous la forme
Xt =

+1
X
k=0

(k + d)
(1)k "tk pour d < 1=2
(d) (k + 1)

dont la densit spectrale est donne par


fX (!) =

2
j2 sin (!)j2d

2
j2!j2d

2 2 De plus amples informations peuvent tre trouves dans Samorodnitsky et Taqqu (1994) Stable non-gaussian processes :
stochastic models with innite variance

237



 


 

  

    

Le graphique ci-dessous prsente les trajectoires de 3 processus F ARIMA, avec d = 0:9, 0:7 et 0:5,
20

10

-10

-20
500

1000

FARIMA5

1500

FARIMA7

2000
FARIMA9

Remarque 79 La densit spectrale de ces processus ARIM A(0; d; 0) vrie la relation suivante

! 2d
f(!) = 2 sin
pour 0 < !
2
de telle sorte que le comportement en 0 est donn par

(55)

egalementf (!) = !2d quand ! ! 0

(56)

Autocorrlations des processus ARF IM A

12.2.2

Lcriture des autocorrlations se fait laide de la forme M A du processus, si elle existe. Une autre prossibilit,
en utilisant la partie prcdante est dutiliser le paragraphe prcdant et le rsultat suivant, d Hosking (1981),
Proprit 57 Soit Xt un processus ARF IMA (p; d; q), vriant (1 L)d (L) Xt = (L) "t . Les autocorrlations X du processus Xt peuvent scrire en fonction des autocorrlations des deux processus
k

Yt = (1 L)d Xt
: processus ARMA (p; q)
Zt = (L) (L)1 Xt : processus ARF IMA (0; d; 0)
Alors
X =
k

+1
X

Y Z
i ki

i=1

Chacune des processus dautocorrlations


tives.

Y
i

et Z pouvant se calculer aisment par des mthodes itraki

Exemple 108 Considrons les simulations du processus ARF IM A (0; d; 0) Xt dnit par (1 L)d Xt = "t o
"t est un bruit blanc gaussien. Les graphiques ci-dessous reprsentent Xt dans le cas o d = 0:1 gauche d = 0:5
au centre et d = 0:9 droite
3

15

10

-2

-4

-5

1
0
-1
-2
-3

-10

-6
50

100

150

200

250

300

350

400

450

500

50

100

150

200

FARIMA1

250

300

FARIMA5

238

350

400

450

500

50

100

150

200

250

300

FARIMA9

350

400

450

500



 


 

  

    

avec les autocorrlogrammes (d = 0:3; d = 0:5; d = 0:9) ci-dessous,

Les cas limites d ! 0 et d ! 1 correspondant respectivement au bruit blanc gaussien et la marche alatoire
gaussienne (cest dire au processus intgr dordre 1 ARIM A (0; 1; 0)).

12.3

Estimation du paramtre d

Parmi les mthodes pour estimer le paramtre d, nous en retiendrons 3.


12.3.1

Mthode du log-autocorrlogramme

La mthode la plus simple pour dtecter la prsence de mmoire longue est lutilisation du log-autocorrlogramme.
Comme nous lavons vu, asymptotiquement, les autocorrlations sont de la forme (h) s d .h2d1 . En prenant
le logarithme, log (h) s d + (2d 1) log h, on peut noter une relation linaire entre le logarithme des retards
log h et le logarithme de lautocorrlation log (h). Le coeent d peut alors tre estim en considrant la pente
b
de la droite : soit et tels que
b

b 1 +1
b
log jb (h)j s + log h alors d =

b b
2

Exemple 109 Les graphiques ci-dessous correspondent des log-log autocorrlogrammes de donnes internet
gauche (nombre de bytes changs par seconde) et de la crue du Nil chaque anne droite
LogLog Autocorrelogramme - Nile

LogLog Autocorrelogramme - Ethernet


0

0.5

1.5

2.5

3.5

-0.5

-0.5

-1

-1

-1.5

-1.5

-2

-2

-2.5

-2.5

-3

-3

-3.5

-3.5

239

0.5

1.5

2.5



 


 

  

    

Si laspect linaire apparat dicilement sur des donnes relles, il apparat davantage sur des donnes simules,
LogLog Autocorrelogramme - FARIMA(0,0.5,0)

LogLog Autocorrelogramme - FARIMA(0,0.3,0)


0

0.5

1.5

2.5

0.5

1.5

2.5

-0.5

-1

-1
-2
-1.5
-3

-2
-2.5

-4

-3

-5

-3.5
-6
-4
-7

-4.5
-5

-8

avec gauche un processus ARF IMA (0; 0:3; 0) et un processus ARF IM A (0; 0:5; 0) droite. On peut toutefois
noter que les autocorrlations ne sont pas nulles au bout dun temps relativement faible (<200) comme cela
devrait tre le cas pour les processus mmoire courte.
12.3.2

Mthode du log-priodogramme

Soit (Xt ) un processus stationnaire, dont la densit spectrale est de la forme fX () = j2 sin (=2)j2d f ()
o 0:5 < d < 0:5 est le paramtre de mmoire et o f est une fonction continue, borne sur [; +]. Le
priodogramme associ un chantillon de taille T est dni par
T
2

1 X

it
Xt e
IT () =

2T
t=1

On dnit les frquences de Fourier par j = 2j=T pour j = 1; :::; (T 1) =2. A partir de la densit spectrale et
du priodogramme pris aux frquences de Fourier, on obtient la rgression suivante : log IT (j ) = + Zj + "j
o
8
> = log f (0)
>
<
=d
o est la constante dEuler
> Zj = 2 log j2 sin (j =2)j
>
:
"j = log (IT (j )) log f (j ) +

Pour 0 s < t < T , on utilise lestimateur

Pt
Z Z log (IT (j ))
bR (s; t) = j=s+1 j
d
o Z est la moyenne des Zj
2
Pt
j=s+1 Zj Z
12.3.3

Mthode de Whittle

Soit (Xt ) un processus F ARIMA (0; d; 0) dnit par (1 L)d Xt = "t o ("t ) est un bruit blanc de variance
0

nie 2 . La mthode de Whittle revient estimer le vecteur = 2 ; d de paramtres. La fonction que lon
cherche minimiser est appele vraissemblance de Whittle, et est donne par

Z +
1
IT ()
log fX (; ) +
LW (X; ) =
d
2
fX (; )
0

o fX et IT sont respectivement la densit spectrale et le priodogramme du processus. En notant = (1; d)


R +
et en choissant 2 (paramtre dchelle) tel que fX (; ) = 2 fX (; ), et log fX (; ) d = 0, alors la
vraissemblance de Whittle, LW (X; ) scrit simplement sous la forme
Z +
1
IT ()
L (X; ) = LW (X; ) = log 2 +
d
W
2
2 fX (; )
240



 


 

  

    

b b
Lestimateur de Whittle b = 2 ; d est alors obtenu en minimisant la fonction L (X; ) par rapport .
W
Puisque lchantillon est de taille nie, cela revient minimiser par rapport la fonction QT ( ) dnie par
QT ( ) =

(T 1)=2

X
i=1

12.4

IT (j )
4
QT ( )
b2
et vaut alors
fX (j ; )
T

Exemples dapplications des processus mmoire longue

Le dveloppement rapide des sries longues a t principalement d des questions poses en hydrologie. La
rsolution laide de modle statistique mmoire longue a commenc des 1951, suit un article de Hurst
sur le stockag deau par les barrages.
Ce phnomne de mmoire longue se manifeste par la prsence de cycles de toutes priodicits, qui se
rencontrent dans un grand nombre de phnomnes physiques. Ainsi, en 1975, Mandelbrot a appliqu cette
thorie aux communication, Halett et Rafterey (en 1989) sur de la mtorologie, Ogata et Abe (en 1991) en
sismologie...etc. Des tentatives ont galement t faites en conomie, en particulier pour faire de la prvision
moyen ou long terme.
12.4.1

Applications en nance : rendements dindices boursier

Les prix dactifs nanciers (taux de change, cours boursiers. . . etc) sont des sries qui prsentent des comportement de type htroscdastique, avec trs souvent de la persistance. En outre, la plupart du temps, les
distributions des prix ne sont pas normales. A partir des annes 80 (et de larticle de Engle en 1982), une large
classe de modles temps discret a t propose : ARCH, GARCH, EGARCH, T ARCH, IGARCH. . . etc.
Une des caractristiques des modles est la prise en compte explicite de lhypothse dhtroscdasticit dans
les sries observes. Nanmoins, leur fonction dautocorrlation est semblable celle dun bruit blanc ou dun
processus mmoire courte : la fonction dautocorrlation dun modle ARCH dcrot exponentiellement vers
0. Pour h grand, lautocorrlation entre Xt et Xth est alors suppose trs faible.
A partir des annes 90, de nouveaux modles, permettant la prise en compte des hypothses dhtroscdasticit
et de mmoire longue ont t proposs. En 1986, Taylor remarquait le premier que les valeurs absolues des
rendements des indices boursiers ont une fonction dautocorrlation qui dcrot trs lentement. En 1993, Ding,
Granger et Engle observent le mme genre de comportement en prenant une puissance quelconque (en prenant
le carr par exemple) du rendement. Plusieurs mthodes ont t proposes pour estimer le coecient d sur des
donnes nancires.
La mthode du log-priodogramme a t propose par Geweke et Porter-Hudak en 1983, an destimer lordre
d, en rgressant le logarithme du priodogramme sur les basses frquences. Cet estimateur, not dGP H , semble
toutefois fortement biais et non-asymptotiquement normal pour 0:5 < d < 0:5. Cet estimateur sera amlior
par Robinson en 1995. La mthode de Whittle propose en 1951 repose sur lapproximation de la matrice de
variance-covariance du processus. Cet estimateur, not dW , est non-biais et sa distribution asymptotique est
normale (comme Fox et Taqqu lont montr en 1986 dans le cas des processus gaussiens, puis gnralis par
Giraitis et Surgalis en 1990).
Rendements dindices boursiers Rt Considrons le processus (Xt ), indice boursier, et posons (Rt ) le
rendement associ, dni par Rt = log Xt log Xt1 . Une analyse rapide montre que, sil y a des phases de
fortes volatilits, les sries de rendement sont gnralement stationnaires. Les graphiques ci-dessous reprsentent
les indices CAC40 (en haut) et DAX30 (en bas), avec, de gauche droite, la srie de lindice (Xt ), le logarithme

241



 


 

  

    

de lindice (log Xt ), et enn, le rendement (Rt ) ;


0.08

8.2

3500

8.0
3000
0.04

7.8
2500

7.6

2000

7.4

0.00

7.2
1500
-0.04

7.0
1000
500
1/06/88

6.8

12/06/89

11/06/91

10/06/93

9/06/95

6.6
1/06/88

8/06/97

12/06/89

11/06/91

10/06/93

9/06/95

8/06/97

-0.08
1/06/88

12/06/89

11/06/91

10/06/93

9/06/95

8/06/97

R_CAC

LOG_CAC

FRCAC40

5000

8.8

0.10

4000

8.4

0.05

3000

8.0

0.00

2000

7.6

-0.05

1000

7.2

-0.10

0
1/06/88

12/06/89

11/06/91

10/06/93

9/06/95

6.8
1/06/88

8/06/97

12/06/89

11/06/91

DAXINDX

10/06/93

9/06/95

8/06/97

-0.15
1/06/88

LOG_DAX

12/06/89

11/06/91

10/06/93

9/06/95

8/06/97

R_DAX

La sortie ci-dessous montre lautocorrlogramme dans le cas de lindice CAC40

Etude de la valeur absolue du rendement jRtj La srie reprsente ci-dessous correspond la valeur
absolue du rendement pour lindice CAC40
0.08

0.06

0.04

0.02

0.00
1/06/88

12/06/89

11/06/91

10/06/93

9/06/95

8/06/97

ABS_CAC

242



 


 

  

    

On oberve eectivement une dcroissance relativement lente de lautocorrlogramme23 . Un modle de type


F ARIMA pourrait modliser le comportement de cette srie. Sur la priode allant de Janvier 1992 Dcembre
2000, les rsultats suivants sont obtenus, par la mthode de Whittle,
b
dW
LW

SP 500 CAC40 DAX30


0:149
0:126
0:178
14:13 13:71 13:59

o LW dsigne la valeur de la vraissemblance de Whittle, dnie dans la partie prcdante. Les coecients
estims sont signicativement positifs, ce qui conrme lhypothse de mmoire lonue persistante.
2
Etude du carr du rendement Rt
lindice CAC40

La srie reprsente ci-dessous correspond au carr du rendement pour

0.006
0.005
0.004
0.003
0.002
0.001
0.000
1/06/88

12/06/89

11/06/91

10/06/93

9/06/95

8/06/97

CAC2

De faon analogue la valeur absolue du rendement, on obtient


b
dW
LW

SP 500 CAC40 DAX30


0:170
0:154
0:162
20:95 20:21 19:76

Etude par sous-priodes En tudiant par sous-priodes, on peut noter, par exemple pour lindice CAC40,
que le comportement mmoire longue dpend de la priode considre : avec ci-dessous le comportement de
jRt j
87=89
90=94
95=00
87=00
bW
d
0:202
0:118
0:126
0:150
13:59
LW 13:27 13:84 13:71
2
suivi du comportement de Rt

b
dW
LW

87=89
90=94
95=00
0:182
0:134
0:166
18:59 20:31 20:31

87=00
0:170
19:66

Remarque 80 Comme nous lavions rappel au dbut de cette partie, la notion decience de march est trs
lie labsence de mmoire : lhypothse decience est alors associe au modle de marche alatoire. Les
cours boursiers suivent une marche alatoire, et les processus de rentabilit sont alors des bruits blancs : le prix
observ sur le march uctue de faon alatoire autour de sa valeur fondamentale. Cette absence de mmoire
tant empiriquement une hypothse trop restictive, Samuelson a propos en 1965 de remplacer le modle de
marche alatoire par un modle de martingale : ce modle est alors moins restrictif puisquaucune condition
nest alors impose sur les autocorrlations des rsidus.
2 3 (25) = 0:074; (38) = 0:059; (69) = 0:053; (86) = 0:062...etc Un grand nombre dautocorrlations sont encore signicatives
( (179) ; (183) ; (185) par exemple sont encore signicativement non nulles).

243



 


 

  

    

En fait, Fama a montr en 1970 puis en 1991 que la mmoire courte ne remet pas en cause lhypothse
decience puisque le fait que quelques autocorrlations soient signicatives court-terme ne peut pas tre
utilis pour spculer. En revanche, la prsence dune mmoire longue pose davantage de problmes. En 1986,
Summers a tudi en dtail le phnomne de retour la moyenne (mean reversion) des prix : la suite dun
choc, le prix scarte de sa valeur fondamentale mais nit toujours par y revenir. Ce phnomne implique
alors lexistence possible dun cart entre le cours et la valeur fondamantale. Toutefois, si lecart est durable,
cela peut tre traduit comme la prsence dune mmoire longue. Ce phnomne va alors lencontre de la
proprt decience de Samuelson : plus une srie sera persistante, plus il sera possible detablir une stratgie
rmunratrice sur les marchs, ce qui remet fortement en cause lecience de ces marchs.
12.4.2

Applications en nance : taux de change

Cette tude a t faite dans la thse de Christelle Lecourt (Les variations de taux de change au jour le jour :
une approche conomtrie partir des processus mmoire longue).
De la mme faon que pour les rendements dindice bouriser, la reprsentation ARIMA a t la premire
modlisation retenue. Toutefois, compte tenu des caractristiques de la plupart des sries nancires (en particulier la prsence dune dpendance temporelle dans la variance conditionelle) a conduit modliser les seconds
moments (et moments plus levs). La classe la plus utilise avait trait aux modles dhtroscdasticit conditionelle autorgressive : les modles ARCH (puis les modles GARCH). Toutefois, ces modles nont jamais
permis de modliser correctement les taux de change.
Dans les annes 90, les modles F ARIM A ou ARF IM A introduit par Granger en 1980 ont t utilsis an
de mieux prendre en compte la dpendance temporelle dans les premiers moments.
[A COMPLETER]
12.4.3

Applications en hydrologie

Comme lavait fait Hurst, considrons une suite dobservations (Xt ) (par exemple la quantit deau dcharge

par une rivire dans un rservoir, le jour t), et dnissons la suite (Xt ) correspondant au cumul de ces (Xt )

X0 = 0 et Xt =

t
X

Xi

i=1

Soit d un entier, et considrons R (d), tendue de (Xt ), ajuste sur lintervalle [0; d], cest dire
h
h
u i
u i

R (d) = max Xu Xd min Xu Xd


0ud
0ud
d
d

Dans notre exemple (Xt ) est l a quantit deau dcharge par une rivire dans un rservoir, le jour t, et (Xt )
la quantit totale deau dverse jusquau jour t. A un horizon d, la quantit moyenne deau arrive par jour

esr Xd =d. Aussi, si la quantit (Xu ) est la quantit deau arrive jusquen u, la quantit uXd =d est la quantit
deau qui aurait du arriver en moyenne. Supposons quun barrage permette un coulement constant, un

dbit journalier de Xd =d: Pour tre certain de ne pas avoir dinnodation, la quantit R (d) est le volume du
rservoir. Il est galement possible de dnir S (t) de telle sorte que
d

1
1X 2
S (t) =
Xi 2
d i=1
d
2

d
X
i=1

Xi

!2

La statistique dite R=S a t introduite par Hurst pour tudier les crues du Nil. Cette statistique est lie

aux processus self-similaires puisque, si Xt est self-similaire alors la statistique R (d) est gale, en distribution,
H
d R (1).

244



 


 

  

    

Le graphique ci-dessous est extrait de Stochastic modelling of riverow time series, de Lawrance et Kottegoda (1977) :

On y voit un dbit annuel (en haut), mensuel (au milieu) et journalier (en bas).
12.4.4

Applications en conomie

Les processus mmoire longue peuvent tre utiles pour modliser, par exemple, des donnes conomiques,
comme lination. Dans cette partie, nous considrerons le taux dination aux Etats Unis. Les courbes cidessous montrent le taux dination (variation de lindice par rapport au mois prcdant) gauche, et les les
fonctions dautocorrlation droite
0.020

0.015

0.010

0.005

0.000

-0.005
60

65

70

75

80

85

90

95

00

INFLATION_US

Comme on peut le voir sur lautocorrlogramme, les fonctions dautocorrlations sont toutes signicativement
non nulles mme aprs 60 retards (5 ans puisque les donnes sont mensuelles). Le modle test ici est de la
forme suivante

1 L12 (1 L)d (Xt [c + 198007 ]) = 1 L12 "t

o t est une fonction dummy permettant de modrer une chute brutale de lination en Juillet 1980. Direntes
mthodes peuvent tre utilises pour estimer les paramtres : EM L (), MP L (), ou N LS (), donnant les

245



 


 

  

    

rsultats suivants sur la priode 1959 01 / 1995 12,


b
d

EM L
0:400

MP L
0:411

0:769

0:783

(0:033)

(0:034)

NLS
0:409

(0:036)

0:620

(0:101)

(0:091)

(0:110)

0:605
(0:123)

0:621

0:447

0:003

0:003

0:011 0:011

b
c

(0:113)

(0:002)

(0:003)
(0:002)

(0:002)

3:626

3:625

(0:121)

0:04

(0:002)

0:011
(0:002)

3:548

On peut noter que pour chacune des mthodes d < 0:5

12.5

Conseils bibliographiques

AVOUYI-DOVI,S., GUEGAN,D. & LADOUCETTE,S. (2000) Application des processus de longue mmoire lanalyse des indices boursiers
BERAN,J. (1994). Statistics for long-memory processes. Chapman & Hall.
JASIAK,J. (1999). Long memory in economics : a comment. Working Paper - York University

246

You might also like