Chapitre 19

Mod`eles de R´egressions
pour Donn´ees Chronologiques
19.1 Introduction
Un nombre cons´equent d’´etudes ´econom´etriques appliqu´ees utilisent des don-
n´ees chronologiques, et nombreux sont les probl`emes ´econom´etriques qui sont
li´es au seul usage de ce genre de donn´ees. L’un d’entre eux est la corr´elation
en s´erie, dont nous avons largement parl´e au cours du Chapitre 10. Dans
ce chapitre et celui qui suit, nous discuterons d’autres probl`emes que l’on
rencontre fr´equemment lorsque l’on utilise les donn´ees chronologiques ou des
m´ethodes susceptibles de les traiter. Dans la Section 19.2, nous aborderons le
probl`eme des r´egressions “erron´ees” entre des s´eries ´economiques temporelles.
Cette section introduit quelques concepts importants qui feront l’objet du
Chapitre 20, lorsque nous parlerons des racines unitaires et de la coint´egration.
La Section 19.3 traite l’estimation des retards ´echelonn´es. La Section 19.4
concerne les mod`eles de r´egression dynamique, dans lesquels un ou plusieurs
retards de la variables d´ependante apparaissent dans les r´egresseurs. Nous
discuterons de l’estimation des mod`eles `a vecteur autor´egressif pour des s´eries
chronologiques multivari´ees dans la Section 19.5. Les deux sections finales
traitent de la saisonnalit´e. La Section 19.6 fournit une introduction aux
proc´edures d’ajustement saisonnier, et la Section 19.7 discute des moyens
vari´es de mod´eliser les variations saisonni`eres dans les mod`eles de r´egression.
19.2 R
´
egressions Erron
´
ees
De nombreuses s´eries temporelles ´economiques ont une tandance croissante
dans le temps. Cette observation est sans doute vraie pour la plupart des
s´eries qui mesurent, ou qui sont mesur´ees avec les prix nominaux, du moins
pour notre si`ecle. Elle est ´egalement vraie pour des donn´ees chronologiques qui
mesurent les niveaux des variables ´economiques r´eelles, telles que la consom-
mation, la production, l’investissement, les importations et les exportations.
De nombreuses s´eries tendancielles peuvent ˆetre g´en´eralement caract´eris´ees
669
670 Mod` eles de R´ egressions pour Donn´ ees Chronologiques
par l’un des deux mod`eles suivants:
y
t
= γ
1

2
t +u
t
et (19.01)
y
t
= δ
1
+y
t−1
+u
t
, (19.02)
o` u les al´eas u
t
ne seront, en g´en´eral, ni ind´ependants ni identiquemt dis-
tribu´es. Ils seront cependant stationnaires si le mod`ele est bien adapt´e `a la
s´erie temporelle concern´ee. Le premier mod`ele, (19.10), indique que y
t
est
stationnaire en tendance, c’est-`a-dire qu’il est stationnaire autour d’une ten-
dance. Par contraste, le second mod`ele, (19.02), indique param`etre de d´erive
δ
1
dans (19.02) joue un rˆole comparable au param`etre de tendance γ
2
dans
(19.01), puisque les deux donnent une orientation croissante `a y
t
`a travers
le temps. Mais le comportement de y
t
est tr`es diff´erent dans les deux cas,
parce qu’enlever la tendance de y
t
dans le premier cas en fait une variable
stationnaire, alors que dans le second cas, ce n’est pas exact.
Il existe une litt´erature importante cons´ecr´ee `a la d´etermination du
mod`ele qui caract´erise le mieux la plupart des s´eries temporelles, d´etermina-
tion qui arbitre entre le mod`ele stationnaire en tandance (19.01) et le mod`ele `a
marche al´eatoire avec d´erive (19.02). L’article de Nelson et Plosser (1982) est
une r´ef´erence classique, celui de Campbell et Mankiw (1987) est plus r´ecent, et
celui de Stock et Watson (1988a) offre une discussion excellente de nombreuses
r´esultat de nombreux r´esultats. Dans le prochain chapitre nous discuterons
des m´ethodes que l’on peut employer pour savoir par lequel de ces mod`eles
une s´erie temporelle donn´ee est le mieux caract´eris´ee. Pour l’instant, ce qui
nous pr´eoccupe est ce qui survient si l’on utilise des s´eries chronologiques,
qui sont d´ecrites par l’un ou l’autre de ces mod`eles, en tant que variables
d´ependantes ou ind´ependantes dans un mod`ele de r´egression.
Si une s´erie chronologiqe dont l’´el´ement type est x
t
est toujours croissante,
alors n
−1
¸
n
t=1
x
2
t
divergera vers +∞. Ainsi, si l’on utilise une telle s´erie en
tant que r´egresseur dans un mod`ele de r´egression lin´eaire, la matrice n
−1
X

X
ne peut pas tendre vers une matrice finie, d´efine positive. Toute la th´eorie
asymptotiques que nous avons utilis´ee dans cet ouvrage est donc inadapt´ee
aux mod`eles pour lesquels n’importe quel r´egresseur est caract´eris´e par (19.01)
ou par (19.02).
1
Cela ne signifie pas qu’il ne faut jamais poser une variables
1
Le fait que la th´eorie asymptotique standard soit inadapt´ee `a de tels mod`eles
ne signifie pas qu’aucune th´eorie ne leur soit pas applicable. Par exemple, nous
avons ´etudi´e un mod`ele simple de r´egression sur une tendance lin´eaire dans la
Section 4.4 et nous avons conclu que l’estimateur des moindres carr´es du coef-
ficient du terme de tendance ´etait convergent, mais avec une variance O(n
−3
)
au lieu d’ˆetre O(n
−1
). De plus, puisqu’il existe des TLC qui s’appliquent `a
de tels mod`eles, les proc´edures habituelles pour l’inf´erence sont asymptotique-
ment valables. Par exemple, si u
t
∼ IID(0, σ
2
) et S
n
≡ n
−3/2
¸
n
t=1
tu
t
, alors
S
n
a une distribution qui tend vers N(0, σ
2
/3). Remarquons que le facteur de
normalisation ici est n
−3/2
plutˆot que n
−1/2
.
19.2 R´ egressions Erron´ ees 671
de tendance dans le membre de droite d’une r´egression lin´eaire ou non lin´eaire.
Puisque les ´echantillons observ´es sont finis, et parfois assez restreints, nous ne
pouvons jamais assuser que la tendance est toujours croissante. De plus, les
propri´et´es agr´eables, avec des ´echantillons finis, de la r´egression par moindres
carr´es sont maintenues que des r´egresserus aient une tendance croissante ou
pas. Mais si l’on veut s’appuyer sur la th´eorie asymptotique conventionnelle,
il semblerait que la sp´ecification de nos mod`eles sans variable `a tendance
affirm´e dans le membre de droite soit une attitude prudente. Cela implique
en retour que la variable d´ependante ne peut pas avoir de tendance affirm´ee.
L’approche la plus commune consiste `a prendre les diff´erences de toutes les
varibles avant de sp´ecifier le mod`ele.
Une raison irr´esistible qui motive la consid´eration des diff´erences pre-
mi`eres est le ph´enom`ene de r´egression erron´ee. Il devrait ˆetre clair que si deux
variables, disons y
t
et x
t
, toutes deux `a tendance croissante, une r´egression
de de y
t
sur x
t
a de fortes chances de trouver une relation “significative” en-
tre elles, mˆeme si la seule chose qu’elle ont en commun est cette tendance
croissante. En r´ealit´e, le R
2
pour une r´egression de y
t
sur x
t
et une con-
stante tendra vers 1 alors que n → ∞ lorsque les deux s´eries peuvent ˆetre
caract´eris´ees par (19.01), mˆeme s’il n’y a pas de corr´elation en s´erie entre les
deux parties al´eatoires de y
t
et de x
t
. Les lecteurs trouveraient sans doute
r´ev´elatrice la d´emonstration de ce r´esultat, et nous leur conseillons de consuler
la Section 4.4 pour quelques r´esultats utiles.
Il est intuitivement tr`es plausible que nous devrions observer des relations
en apparence significatives, mais en r´ealit´e fausses, entre des variables sans
lien mais `a tendance croissante dans le temps. Granger et Newbold (1974)
ont d´ecouvert ce qui semble ˆetre au premier abord une forme encore plus
surprenante de r´egression erron´ee. Ils consid´er`erent des s´eries temporelles
g´en´er´ees par une marche al´eatoire sans d´erive, c’est-`a-dire des s´eries g´en´er´ees
par un processus comme y
t
= y
t−1
+ u
t
. Leur r´esultat, obtenu par des
exp´eriences Monte Carlo, est que si x
t
and y
t
sont des variables al´eatoires
ind´ependantes, le t de Student de β = 0 dans la r´egression
y
t
= α +βx
t
+u
t
(19.03)
rejette l’hypoth`ese nulle beaucoup plus souvent qu’il ne le devrait et tend `a
la rejeter d’autant plus souvent que la taille de l’´echantillon, n, augmente.
Ult´erieurement, Phillips (1986) d´emontrera que ce t de Student rejettera con-
stamment l’hypoth`ese nulle, asymptotiquement.
Quelques r´esultats Monte Carlo sur les r´egressions erron´ees figurent dans
le Tableau 19.1. Chaque colonne d´ecrit la proportion des fois, dans plus de
10,000 ex´ecutions, o` u le t de Student de β = 0 rejettera l’hypoth`ese nulle au
niveau 5% dans une r´egression quelconque. Pour la colonne 1, la r´egression
est (19.03) et `a la fois x
t
et y
t
sont g´en´er´ees par des marches al´eatoires
ibnd´ependantes `a al´eas n.i.d. Pour la colonne 2, x
t
et y
t
sont identiques `a
celles de la premi`ere colonne, mais une variable d´ependante retard´ee a ´et´e
672 Mod` eles de R´ egressions pour Donn´ ees Chronologiques
Tableau 19.1 Rejets Erron´es et Taille d’Echantillon
n Marche Al´eatoire Retard Ajout´e D´erive Tendance
25 0.530 0.146 0.645 0.066
50 0.662 0.154 0.825 0.431
75 0.723 0.162 0.905 0.987
100 0.760 0.162 0.945 1.000
250 0.847 0.169 0.997 1.000
500 0.890 0.167 1.000 1.000
750 0.916 0.170 1.000 1.000
1000 0.928 0.169 1.000 1.000
2000 0.947 0.168 1.000 1.000
ajout´ee `a la r´egression. Pour les colonnes 3 et 4, la r´egression est simple-
ment (19.03) `a nouveau. Pour la troisi`eme colonne, x
t
et y
t
sont toutes deux
g´en´er´ees par des marches al´eatoires avec d´erive, le param`etre de d´erive δ
1
´etant ´egal `a un cinqui`eme de la valeur de l’´ecart type σ (ce rapport est le seul
param`etre qui affecte la distribution du t de Student). Pour la colonne 4, x
t
et y
t
sont stationnaires en tendance, avec un coefficient de tendance γ
2
´egal `a
1/25 de la taille de σ.
Les r´esultats dans les colonnes 3 et 4 de tableau ne sont gu`ere surprenants,
puisque x
t
et y
t
sont croissants. Le seul ´el´ement int´eressant concernant ces
r´esultats est la rapidit´e d’accroissement du nombre de rejets en fonction de la
taille de l’´echantillon. C’est une cons´equence du fait que, dans ces deux cas,
la masse d’information contenue dans l’´echantillon augmente `a un taux plus
fort que n. Elle augmente bien sˆ ur encore plus vite dans le cas d’une tendance
que dans le cas d’un e marche al´eatoire avec d´erive.
Par contre, les r´esultats des colonnes 1 et 2 du tableau peuvent surpren-
dre. Apr`es tout, x
t
et y
t
sont des ´eries totalement ind´ependantes, et aucune
ne contient de tendance. Alors pour quelle raison d´ecouvrons-nous souvent
—tr`es souvent en fait pour des tailles d’´echantillon importantes —l’´evidence
d’une relation lorsque nous r´egressons y
t
sur x
t
? Une r´eponse devrait ˆetre
´evidente apr`es la lecture du Chapitre 12. Les t de Student significatifs ne
nous indiquent pas que β = 0 dans (19.03), puisque c’est en r´ealit´e un mod`ele
incorrect. Ils nous indiquent simplement que l’hypoth`ese nulle, qui est (19.03)
avec β = 0, est fausse. Elle est fausse parce que si y
t
est g´en´er´ete par une
march´e al´eatoire, alors y
t
n’est pas ´egal `a une constante plus un terme al´eatoire
stationnaire. Ainsi, lorsque nous testons l’hypoth`ese nulle, mˆeme contre une
hypoth`ese alternative qui est ´egalement fausse, nous la rejetons souvent.
Cette justification intuitive n’est pas enti`erement satisfaisante, quoi qu’il
en soit. L’analyse asymptotique standard ne s’applique pas ici, car si y
t
est g´en´er´ee par une marche al´eatoire n
−1
¸
n
t=1
y
2
t
diverge. Par cons´equent,
l’analyse du Chapitre 12 n’est pas approrpi´ee. De plus, l’explication intuitive
19.2 R´ egressions Erron´ ees 673
n’indique pas pourquoi, pour des tailles d’´echantillon suffisamment impor-
tantes, une relation entre y
t
et x
t
apparaˆıt toujours. On peut imaginer que
puisque les processus qui g´en`erent x
t
et y
t
sont ind´ependants, toute corr´elation
entre les deux doit disparaˆıtre asymptotiquement, mais ce n’est pas le cas ici.
L’explication de ces r´esultats n´ecessite une analyse asymptotique non stan-
dard d’un genre que nous verrons dans le prochain chapitre. Une r´ef´erence
classique est Phillips (1986) et l’article de Durlauf et Phillips (1988) offre des
r´esultats plus approfondis.
Le fait que (19.03) soit un mod`ele mal sp´ecifi´e n’est pas la seule cl´e du
probl`eme, ainsi que le montre la colonne 2. Ces r´esultats sont relatifs au
mod`ele
y
t
= δ
1
+βx
t

2
y
t−1
+u
t
,
qui comprend le DGP en tant que cas particulier lorsque δ
2
= 1 et que les
deux autres param`etres sont nuls. Malgr´e tout, l’hypoth`ese nulle β = 0 est
rejet´ee environ tois fois plus souvent qu’elle ne devrait l’ˆetre, et il n’y a rien
que montre que cette tendance au rejet quasi syst´ematique d´ecline lorsque la
taille d’´echantillon n s’accroˆıt. Le t de Student provoque un rejet excessif dans
ce cas parce qu’il n’est pas asymptotiquement comme une N(0, 1). Puisque
les deux r´egresseurs sont ici g´en´er´es par des marches al´eatoires, la matrice
n
−1
X

X n’est pas finie d´efinie positive, et la th´eorie asymptotiques standard
ne s’applique plus. Comme nous allons le voir dans le prochain chapitre, il
existe de nombreux cas comparables, pour lesquels les t de Student suivent des
distributions non standard asymptotiquement. Ces distributions sont pour
l’instant calcul´ees g´en´eralement au moyen d’exp´eriences Monte Carlo.
Une s´erie qui suit une march´e al´eatoire, avec ou sans d´erive, est souvent
qualifi´ee d’int´egr´ee `a l’ordre un, ou I(1) pour aller vite. L’id´ee sur laquelle
repose cette terminologie est qu’une s´erie doit ˆetre diff´erenci´ee une fois pour
ˆetre stationnaire. Ainsi une s´erie stationnaire est dite I(0). En principe,
une s´erie pourrait ˆetre int´egr´ee `a d’autres ordres. Il est possible de rencontrer
occasionnellement une s´erie I(2), et si l’on diff´erencie malencontreusement une
s´erie I(0), le r´esultat est une s´erie I(−1). N´eanmoins, la grande majorit´e des
travaux ´econom´etriques appliqu´es traite des s´eries temporelles qui sont soit
I(0) ou I(1). Si une s´erie est `a l’origine I(1), il est possible de l´e diff´erencier
une fois pour la rendre I(0). Savoir quand il est n´ecessaire de diff´erencier une
s´erie sera l’onjet du prochain chapitre.
Dans le reste de ce chapitre, nous ferons l’hypoth`ese que toutes les s´eries
sont I(0) et ne contiennent aucun tendance non stochastique. Ces h2 garan-
tissent que ni une r´egression erron´ee ni des r´esultats asymptotiques non stan-
dards ne poseront probl`eme. Ces h2 peuvent paraˆıtre malgr´e tout un voeu
pieux. Par chance, les techniques dont nous discuterons dans le prochain
chapitre rendent possible la garantie que ces h2 ne sont pas trop remises en
cause dans la pratique.
674 Mod` eles de R´ egressions pour Donn´ ees Chronologiques
19.3 Retards
´
Echelonn
´
es
On pense souvent qu’une variable d´ependante y
t
doit d´ependre de nom-
breuses valeurs actuelle et retard´ees d’une variable ind´ependantes x
t
. Une
mod´elisation de ce genre consiste `a utiliser un mod`ele `a retards ´echelonn´es
tel que
y
t
= α +
q
¸
j=0
β
j
x
t−j
+u
t
, u
t
∼ IID(0, σ
2
), (19.04)
o` u il s’agit d’estimer la constante α et les coefficients β
j
. Le nombre entier q est
ici la longueur du dernier retard; dans certains cas, imaginer que q est infini
peut avoir du sens, mais nous supposerons pour l’ibnstant qu’il prend une
valeur finie. La fonction de r´egression pourrait tout `a fait d´ependre d’autre
variables explicatives, mais nous ignorons cette possibilit´e ppur conserver une
notation simple.
Le probl`eme ´evident avec un mod`ele tel que (19.04) est que, parce que x
t
sera souvent fortement corr´el´e `a x
t−1
, x
t−2
, et ainsi de suite, les estimations
par moindres carr´e des coefficients β
j
tendront `a ˆetre assez impr´ecises. De
nombreux moyens pour manipuler ce probl`eme furent propos´es et nous en
parlerons bri`evement. La premi`ere chose `a reconnaˆıtre est, malgr´e tout, que
cela pourrait ne pas ˆetre un probl`eme. Souvent, ce ne sont pas les coefficients
individuels qui nous int´eressent mais leur somme, disons γ, qui mesure l’effet
de long terme sur y
t
d’une variation donn´ee de x
t
. Mˆeme lorsque les β
j
individuels sont estim´es de fa¸con impr´ecise, leur somme peut ˆetre estim´ee
avec suffisamment de pr´ecision.
Posons V (
ˆ
β) la matrice de covarinace du vecteur
ˆ
β des estimations par
moindres carr´es dont l’´el´ement type est
ˆ
β
j
. Alors, si ˆ γ d´esigne la somme des
ˆ
β
j
, la variance de ˆ γ est
V (ˆ γ) = ι

V (
ˆ
β)ι =
q
¸
j=0
V (
ˆ
β
j
) + 2
q
¸
j=0
j−1
¸
k=0
Cov(
ˆ
β
j
,
ˆ
β
k
). (19.05)
Si x
t−j
est corr´el´e positivement `a x
t−k
pour tout j = k, les termes de covar-
iance dans (19.05) seront g´en´eralement n´egatifs. Lorsqu’ils sont importants et
n´egatifs, comme c’est souvent le cas, V (ˆ γ) peut ˆetre plus petite que la somme
des V (
ˆ
β
j
) ou mˆeme que chaque V (
ˆ
β
j
).
Si c’est le param`etre γ qui nous int´eresse plutˆot que les β
j
individuels,
l’approche la plus simple consiste `a estimer une version reparam´etris´ee de
(19.04) par moindres carr´es. La version reparam´etris´ee est
y
t
= α +γx
t
+
q
¸
j=1
β
j
(x
t−j
−x
t
) +u
t
. (19.06)
Il est ais´e de v´erifier que le coefficient γ associ´e `a x
t
dans (19.06) est en fait
´egal `a la somme des β
j
dans (19.04). L’avantage de cette reparam´etris´etion
19.3 Retards
´
Echelonn´ es 675
est que l’´ecart type de ˆ γ est imm´ediatement disponible dans les r´esultats de
la r´egression.
Si notre int´erˆet se focalise sur les β
j
, la colin´earit´e peut ˆetre un probl`eme
urgent. De nombreux moyens d’aborder ce probl`eme furent propos´es. Cer-
tains impliquent l’imposition de contraintes sur les param`etres de (19.04),
alors que d’autres impliquent l’estimation de mod`eles pour lesquels une ou
plusieurs retards de la variables d´ependantes apparaissent dans l’ensemble
des r´egresseurs. Cette derni`ere approche est fondamentalement diff´erente de
la premi`ere, et sera trait´ee dans la section qui suit. L’exemple le plus connu
de la premi`ere approche consiste `a employer ce que l’on nomme les retards
´echelonn´es polynomiaux, ou PDL. Ces derniers sont quelquefois appel´es re-
tards d’Almon `a la suite de l’article d’Almon (1965) `a l’occasion duquel ils
furent propos´es pour la premi`ere fois.
Dans un polynˆome de retards ´echelonn´es, les coefficients β
j
de (19.04)
doivent se situer dans un polynˆome de degr´e d donn´e. Ce polynˆome peut
´eventuellement ˆetre soumis `a des contraintes ult´erieures, telles que les con-
traintes des portant sur les points terminaux. A titre d’exemple simple, si le
polynˆome ´etait du second degr´e, sans contrainte ult´erieure, nous aurions
β
j
= η
0

1
j +η
2
j
2
pour j = 0, . . . , q. (19.07)
A condition que q > 2, il y aura moins de param`etres η
i
que β
j
. Nous voyons
par cons´equent que (19.07) impose q −2 contraintes sur les β
j
’s.
L’estimation d’un mod`ele soumis `a des contraintes impos´ees par un PDL
est conceptuellement assez imm´ediate. Par exemple, pour estimer (19.04)
soumis `a (19.07), nous remplacerions simplement les β
j
par η
0
+ η
1
j + η
2
j
2
.
Cela entraˆınerait
y
t
= α +η
0
q
¸
j=0
x
t−j

1
q
¸
j=0
jx
t−j

2
q
¸
j=0
j
2
x
t−j
+u
t
= α +η
0
z
t0

1
z
t1

2
z
t2
+u
t
.
(19.08)
C’est simplement un mod`ele de r´egression lin´eaire avec trois nouveaux r´egres-
seurs z
ti
qui sont des transformations des q + 1 r´egresseurs d’origine, en plus
de la constante. Ceci est un exemple de mod`ele PDL(q, 2). Pour un mod`ele
PDL(q, d), qui doit toujours ˆetre tel que d < q, il y aurait d + 1 r´egresseurs.
Les contraintes impos´ees aux β
j
sont simplement des contraintes lin´eares.
La r´esolution de (19.07) nous montre que
−β
3
+ 3β
2
−3β
1

0
= 0,
−β
4
+ 3β
3
−3β
2

1
= 0,
−β
5
+ 3β
4
−3β
3

2
= 0, et ainsi de suite.
676 Mod` eles de R´ egressions pour Donn´ ees Chronologiques
On peut ´ecrire ces contraintes sous la forme Rβ = 0, o` u la matrice R serait
dans ce cas
R =

1 −3 3 −1 0 · · · 0 0 0 0
0 1 −3 3 −1 · · · 0 0 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 0 0 · · · 1 −3 3 −1
¸
¸
¸
¸
.
Puisque les contraintes sont lin´eaires, on peut les tester facilement. On peut
utiliser soit un test en F habituel, soit sa version robuste `a l’h´et´erosc´edasticit´e
(voir Section 11.6). Le mod`ele contraint est (19.08), le mod`ele non contraint
est (19.04), et le nombre de contraintes dans ce cas est q − 2. De fa¸con plus
g´en´erale, pour un mod`ele PDL(q, d), il y aura q −d contraintes.
Il faudrait toujours tester les contraintes impos´ees par n’importe quel
type de PDL avant d’accepter, mˆeme `a titre provisoire, un mod`ele qui incor-
pore ces contraintes. Ces contraintes sont de deux natures. Il y a la contrainte
de la longueur du dernier retard qui ne doit pas ˆetre sup´erieure `a q. Puis il y
a les contraintes futures qui sont imos´ees par le PDL, quelles qu’elles soient.
Pour une valeur de q donn´ee, la r´eduction du degr´e du polynˆome de d `a
d − 1 aboutit `a un mod`ele plus restrictif. Cependant, pour un degr´e donn´e
du polynˆome, la reduction de q produit simplement un mod`ele diff´erent, non
emboˆıt´e, qui peut s’ajuster mieux ou plus mal aux donn´ees. Ainsi, on peut
tester un mod`ele PDL(q, d) contre un mod`ele PDL(q, d + 1) en utilisant un
test en F ordinaire, mais on ne peut pas tester un mod`ele PDL(q, d) contre un
mod`ele PDL(q + 1, d) avec le mˆeme instrument. La meilleure approche con-
siste sans doute `a se poser en premier le probl`eme de la longueur du retard, en
d´ebutant par une valeur importante de q et en examinant la d´et´erioration de la
qualit´e de l’ajustement du mod`ele en diminuant sa valeur, sans imposer aucun
contrainte sur la forme des retards ´echelonn´es. Une fois que q est d´etermin´e,
on peut ensuite tenter de d´eterminer d, une fois encore en d´ebutant avec une
valeur importante et en la r´eduisant au fur et `a mesure. Un excellent exemple
empirique est donn´e par Sargan (1980c). La sp´ecification d’un mod`ele final
dans cette optique est un exemple de pr´etest dont nous avons discut´e dans la
Section 3.7; consulter Trivedi (1978).
La plupart des progiciels d’´econom´etrie permettent aux utilisateurs de
sp´ecifier des mod`eles qui incluent des PDL et d’estimer de tels mod`eles avec
des OLS, des IV, et quelquefois d’autres formes d’estimations. Ces mises en
oeuvre sont de fa¸con typique beaucoup plus sophistiqu´ees que notre discus-
sion n’a pu le sugg´erer jusqu’ici. Par exemple, elles permettent souvent `a
l’utilisateur de sp´ecifier des contraintes additionnelles sur la forme des retards
telles que les contraintes β
q
= 0. Plus important encore, les bons progiciels
utilisent des familles de polynˆomes plus sophistiqu´ees que celles que nous avons
d´ecrites. Le probl`eme avec ces derni`eres est que les variables z
ti
tendent `a ˆetre
fortement corr´el´ees entre elles. Cela peut provoquer une singularit´e num´erique
de la matrice X

X. Avec l’aide d’autres types de polynˆomes, tels que les
19.3 Retards
´
Echelonn´ es 677
polynˆomes orthogonaux, on peut r´eduire en grande partie cette corr´elation,
et, par cons´equent, ´eliminer ce genre de probl`eme num´erique. Les r´efr´eences
`a consulter sont Cooper (1972b), Trivedi et Pagan (1979), Sargan (1980c), et
Pagano et Hartley (1981).
Shiller (1973) proposa une variante int´eressante de l’approche PDL.
Comme nous l’avons vu, les contraintes impos´ees par un PDL peuvent tou-
jours s’´ecrire comme Rβ = 0 pour une matrice R de dimension r × k con-
venablement d´efinie. Ici r = q − d et k est le nombre d’´el´ements de β, et
il sera g´en´eralement sup´erieur `a q + 1 s’il y a des r´egresseurs en plus de la
constante et des retards de x
t
. Shiller sugg´era que, au lieu de demander
une v´erification exacte de ces contraintes, nous requ´erions seulement qu’elles
soient approximatives. Ainsi, au lieu de stipuler que chaque ligne de Rβ soit
nulle, il proposa qu’elle soit ´egale `a une variables al´eatoire d’esp´erance nulle
et de variance d´efinie. L’un des avantages de cette approche est que d peut
ˆetre tr`es faible sans pour cela imposer des contraintes excessivement fortes
sur les donn´ees. Puisque les estimations n’ont pas besoin de se conformer
excatement `a la forme du polynˆome, d = 2 est dans la plupart des cas une
situation ad´equate.
Ce genre de contrainte est appel´e contrainte stochastique, parce qu’elle
n’est pas sens´ees ˆetre v´erifi´ee exactement. Les contraintes stochastiques sont
tr`es diff´erentes de n’importe quel autre type de contraintes dont nous avosn
discut´e. Dans de nombreuses situations, elles paraissent assez plausibles, `a
l’inverse des contraintes exactes, qui semblent ˆetre souvent excessivement
fortes. Dans le cas du PDL, par exemple, il est sˆ urement peu probable que
les β
j
se situent r´eellement dans un polynˆome de degr´e quelconque, mais
il est assez probable de croire qu’ils se situent relativement pr`es d’un tel
polynˆome. Il est ais´e conceptuellement, mais plus difficile lors des phases de
calcul, de traiter des contraintes stochastiques, ou n’importe quelle autre sorte
d’information stochastique a priori, si l’on adopte un point de vue bay´esien;
voir Zellner (1971) et Dr`eze et Richard (1983). A l’inverse, il est facile de faire
des calculs avec de telles contraintes, mais leur manipulation est conceptuelle-
ment plus d´elicate lorsuqe l’on reste dans une structure classique. C’est dans
cette derni`ere que nous nous situerons, pour traiter les calculs, en ´evitant
toute discussion relative aux difficult´es conceptuelles.
La technique d’estimation sugg´er´ee par Shiller emploie un cas partic-
ulier de ce que Theil et Goldberger (1961) et Theil (1963) appellent une
estimation mixte. L’estimation mixte est un moyen tr`es simple de com-
biner des informations d’´echantillon avec des informations stochastiques a
priori. On peut imaginer que c’est une approximation d’une proc´edure qui a
toutes les caract´eristiques d’une estimation bay´esienne. Le cas le plus sim-
ple pour lequel on justifie une estimation mixte est le cas dans lequel, avant
d’entreprendre l’estimation d’un quelconque mod`ele, on aurait obtenu des es-
timations pr´ealables d’un ou de plusieurs param`etres du mod`ele, par l’usage
d’un ensemble d’informations totalement ind´ependantes. Pour faire simple,
678 Mod` eles de R´ egressions pour Donn´ ees Chronologiques
supposons que le mod`ele qu’il s’agit d’estimer est le mod`ele de r´egression
lin´eaire
y = Xβ +u, u ∼ IID(0, σ
2
u
I), (19.09)
o` u β est un vecteur `a k composantes. Supposons ensuite qu’un vecteur
d’estimations a priori
ˇ
β soit disponible, avec sa v´eritable matrice de covar-
iance V(
ˇ
β). On peut exprimer la relation entre ces estimations et le vecteur
param´etrique inconnu β comme
ˇ
β = β +v, E(vv

) = V(
ˇ
β) ≡ η
−1

)
−1
. (19.10)
Le membre de droite de l’expression pour la matrice de covariance fait us-
age d’un r´esultat standard sur les matrices d´efinies positives, que nous avons
vu dans le Chapitre 9. En pr´emultipliant chaque membre de (19.10) par la
matrice η de dimension k ×k , le r´esultat est
η
ˇ
β = ηβ +e, E(ee

) = I. (19.11)
Cela ressemble `a une r´egression lin´eiare avec k observations et k variables
ind´ependantes. La r´egressande est η
ˇ
β, et la matrice de covariance des al´eas
est I.
Il devrait ˆetre ais´e de voir comment on peut utiliser l’information con-
tenue dans
ˇ
β pour am´eliorer nos estimations de β. Il suffit d’estimer une
unique r´egression GLS `a n +k observations, o` u n d’entre elles correspondent
aux observations de notre ´echantillon et o` u k d’entre elles correspondent `a
(19.11). On peut ´ecrire cette r´egression comme
¸
y
σ
u
η
ˇ
β

=
¸
X
σ
u
η

β +
¸
u
σ
u
e

. (19.12)
Les al´eas de cette r´egression sont i.i.d. et ont une variance ´egale `a σ
2
u
. La
r´egression (19.12) suppose que nous connaissons σ
u
, puisqu’il faut multipier
les k derni`eres observations par cette quantit´e de fa¸con `a garantir qu’elles ont
le mˆeme poids relativement aux n premi`eres observations. Asymptotiquement
bien sˆ ur, nous aurons le smˆemes r´esultats si nous employons n’importe quelles
estimation convergente de σ
u
.
Dans cet exemple, l’estimation mixte ne prˆete pas trop `a contreverse.
C’est simplement un moyen pratique de prendre en compte les estimations
pr´ealables lorsque l’on utilise un nouvel ensemble de donn´ees. Dans le cas des
retards ´echelonn´es, par contre, l’information a priori sur β ne provient pas
d’une estimation pr´ealable. Au lieu de cela, c’est un ensemble de contraintes
stochastiques, que Shiller appela une information a priori de r´egularit´e parce
qu’il refl`ete la croyance qui veut que les coefficients β
j
d’un retard ´echelonn´e
devraient varier sans `a-coups en fonction de j. Ces contraintes peuvent
19.3 Retards
´
Echelonn´ es 679
paraˆıtre raisonnables au chercheur, mais elles ne se basent pas sur les donn´ees.
Dans le cas g´en´eral, on peut ´ecrire les contraintes stochastiques comme
Rβ = v, v ∼ N(0, σ
2
v
I). (19.13)
Cette formulation autorise un ´eventail tr`es large de contraintes lin´eaires sur
β comprend, en tant que cas particulier, l’imposition d’informaions a priori
de r´egularit´e sur les coefficients d’un retard ´echelonn´e. La matrice R est de
dimension r ×k et, dans le cas d’informations a priori de r´egularit´e, elle aura
r = q −d lignes.
Pour pouvoir estimer (19.09) en imposant les contraintes stochastiques
(19.13), nous r´e´ecrivons simplement ces derni`eres comme 0 = Rβ+v, comme
nous l’avons fait dans (19.12). Les restrictions ressemblent alors aux observa-
tions d’une r´egression. Puis, nous empilons les v´eritables observations sur les
observations artificielles. Cela donne
¸
y
0

=
¸
X
R

β +
¸
u
v

. (19.14)
En fait, nous avons ajout´e r observations suppl´ementaires `a l’ensemble
des donn´ees d’origine. La variance des “al´eas” associ´es `a ces observations
suppl´ementaires est σ
2
v
, alors que celle des al´eas naturels est σ
2
u
.
Posons maintenant λ ≡ σ
u

v
. Si λ ´etait connu, l’estimarion par GLS de
(19.14) serait ´equivalente `a l’estimation par OLS du mod`ele
¸
y
0

=
¸
X
λR

β +
¸
u
λv

. (19.15)
L’estimation OLS de β `a partir de (19.15) est
˜
β =

X

X +λ
2
R

R

−1
X

y.
Il est facile de calculer cette expression, et il est ais´e de la comprendre. Comme
σ
v
→∞, λ →0 et
˜
β →
ˆ
β. Ainsi, au fur et `a mesure que la masse d’information
contenue dans les restristions stochastiques tend vers z´ero, l’estimation mixte
˜
β tend vers l’estimation OLS
ˆ
β. Dans le cas extrˆeme oppos´e, λ → ∞ et
˜
β
converge vers un ensemble d’estimations qui satisfait les contraintes Rβ =
0 au fur et `a mesure que σ
v
→ 0. Ce dernier r´esultat se comprend assez
vite. Puisque r < k, il est toujours possible d’ajuster les r derni`ere lignes
de (19.15) `a la perfection en choisissant
˜
β pour satisfaire les contraintes avec
exactitude. Comme λ →∞, la SSR pour (19.15) s’accroˆıtra infiniment si les
r derni`eres lignes ne s’ajustent pas parfaitement. Ainsi, comme on peut le
voir `a l’aide de l’alg`ebre matriciel fastidieuse, la limite de
˜
β lorsque λ → ∞
est pr´ecis´ement l’estimateur des moindres carr´es qui provient de l’imposition
exacte des contraintes.
680 Mod` eles de R´ egressions pour Donn´ ees Chronologiques
Le probl`eme majeur de cette proc´edure est que λ ne sera jamais connu.
Mˆeme si l’on d´esire sp´ecifier σ
v
a priori, ce qui peut ne pas ˆetre simple `a faire,
σ
u
devra tout de mˆeme ˆetre estim´ee Il existe des moyens vari´es de traiter ce
probl`eme —voir Shiller (1973) et Taylor (1974) —mais aucun d’entre eux
n’est enti`erement satisfaisant. Pour l’essentiel, il s’agit d’estimer σ
u
`a partir
de l’estimation non contrainte de (19.09), soit en prenant une valeur pour
σ
v
soit en estimant σ
v
`a partir des estimations non contraintes de β, et de
construire une estimation de λ. Cela transforme la proc´edure d’estimaion
mixte en une forme d’estimation par GLS faisables. Asymptotiquement, cela
produira les mˆemes estimations que si λ ´etait connu, mais ses performances
avec des ´echantillons finis peuvent ne pas ˆetre aussi bonnes.
Il faudrait toujours tester des contraintes stochastiques avant d’accepter
des estimations bas´ees sur ces contraintes. Puisque l’imposition de telles re-
strictions est ´equivalente `a l’addition d’observation factices, le moyen ´evident
de les tester est d’utiliser un test standard pour l’´egalit´e de deux ensembles
de param`etres de r´egression (Section 11.2). On peut voir (19.15) comme
un mod`ele pour l’´echantillon entier (augment´e), o` u β est contraint `a ˆetre
identique piour les n premi`eres observations et les r observations restantes.
L’estimation de (19.15) produit la somme des r´esidus au carr´e contrainte
RSSR n´ecessaire `a la construction d’un test en F. Puisque r < k, toute tenta-
tive d’estimation des param`etres utilisant le second sous-´echantillon unique-
ment entaˆınera des estimations qui s’ajustent parfaitement. Ainsi la somme
des r´edisus au carr´e non contrainte USSR n´ecessaire `a la construction d’un F
de Fisher est simplement la somme des r´esidus au carr´e de l’estimation par
OLS de (19.09). Le nombre de degr´es d elibert´e pourt le test est r, et par
cons´equent le F de Fisher est simplement
(RSSR −USSR)/r
USSR/(n −k)
.
Bien ´evidemment, on pourait utiliser une quelconque autre forme de statis-
tique de test, telle que celle bas´ee sur la HRGNR (11.66), au lieu du F de
Fischer. Si le test rejette l’hypoth`ese nulle de constance de β sur l’´echantillon
des observations et sur les observations factices, il faudrait soit accroˆıtre la
valeur de σ
v
soit changer la forme de la matrice R, probablement en augmen-
tant d.
Bien que les retards ´echelonn´es polynomiaux, qu’ils soient impos´es en
tant que contraintes exactes ou en tant que contraintes stochastiques, puis-
sent ˆetre utiles lorsqu’un mod`ele tel que (19.04) est inadapt´e, ce ne sont
pas des mod´elisations toujours bien appropri´ees. le probl`ele est que (19.04)
n’est pas un mod`ele dynamique. Bien que y
t
d´epende de vaeurs retard´ees
de x
t
, elle ne d´epend pas de ses propres valeurs retard´ees. Par cons´equent,
seule la valeur courante de u
t
affecte y
t
. Mais si l’on pense que l’al´ea doit
repr´esenter l’influence combin´ee de nombreuses variables dont on ne peut
empˆecher l’omission de la r´egression, cela devrait paraˆıtre ´etrange. Apr`es
19.4 Mod` eles de R´ egression Dynamiques 681
tout, si x
t
affecte y
t
au travers d’un retard ´echelonn´e, comment justifier que
les variables rel´egu´ees dans l’al´ea n’en fassent pas de mˆeme? Cet argument
sugg`ere que les al´eas dans un mod`ele comparable `a (19.04) peuvent ˆetre tr`es
souvent corr´el´es en s´erie. Bien sˆ ur, on peut mod´eliser les u
t
pour les faire
ob´eir `a un quelconque processus ARMA. Mais la meilleure approche consis-
tera souvent `a reformuler le mod`ele originel. Nous allons voir comment dans
la prochaine section.
19.4 Mod
`
eles de R
´
egression Dynamiques
Tout mod`ele de r´egression dans lequel la fonction de r´egression d´epend des
valeurs retard´ees d’une ou de plusieurs varaibles d´ependantes est appel´e
mod`ele dynamic. Les seuls mod`eles dynamiques dont nous ayons discut´e
jusqu’`a pr´esent sont les mod`eles `a erreurs corr´el´ees en s´erie (Chapitre 10);
apr`es transformation, les mod`eles `a erreurs AR ou MA impliquent des retards
de la variable d´ependante. Ces mod`eles peuvent paraˆıtre artificiels, mais les
mod`eles dynamiques peuvent survenir pour de nombreuses autres raisons.
Un mod`ele dynamique simple et tr`es fr´equent est le mod`ele d’ajustement
partiel, dont l’hitoire en ´economie remonte assez loin puisqu’il date de Nerlove
(1958). Supposons que le niveau d´esir´e d’une variable ´economique y
t
quel-
conque soit y

t
, qui est suppos´e ˆetre reli´e `a un vecteur de variables explicatives
exog`enes X
t
comme suit:
y

t
= X
t
β

+e
t
. (19.16)
A cause de certains coˆ uts d’ajustement, les agents ne peuvent pas atteindre y

t
`a chaque p´eriode. Au lieu de cela, y
t
s’ajuste, par hypoth`ese, vers y

t
suivant
l’´equation
y
t
−y
t−1
= (1 −δ)(y

t
−y
t−1
) +v
t
. (19.17)
La r´esolution de (19.16) et de (19.17) pour y
t
nous permet d’obtenir
y
t
= y
t−1
−(1 −δ)y
t−1
+ (1 −δ)X
t
β

+ (1 −δ)e
t
+v
t
= X
t
β +δy
t−1
+u
t
,
(19.18)
o` u β ≡ (1 − δ)β

et u
t
≡ (1 − δ)e
t
+ v
t
. Si l’on d´esire estimer β

, on peut
ais´ement le fair `a partir des estimations OLS de β et δ.
L’ajustement partiel n’est pertinent que si 0 < δ < 1 et si, de plus, δ n’est
pas trop proche de 1, puisque dans le cas contraire la vitesse d’ajustement
que la valeur du param`etre implique devient trop faible. On peut r´esoudre
l’´equation (19.18) pour y
t
comme une fonction des valeurs courantes et pass´ees
de X
t
et u
t
. Le r´esultat est
y
t
=

¸
j=0
δ
j
(X
t−j
β +u
t−j
). (19.19)
682 Mod` eles de R´ egressions pour Donn´ ees Chronologiques
Ainsi ce mod`ele corrige une d´efaillance majeure que nous avions d´ej`a re-
marqu´ee dans les mod`eles `a retards ´echelonn´es: y
t
d´epend maintenant au-
tant des valeurs retard´ees de l’al´ea u
t
que des valeurs retard´ees des variables
exog`enes X
t
. Notons que la solution de (19.19) repose sur l’hypoth`ese que
|δ| < 1, qui est une condition de stationnarit´e pur ce mod`ele.
Le mod`ele d’ajustement partiel n’est qu’un des nombreux mod`eles ´eco-
nomiques que l’on peut utiliser pour justifier la prise en compte d’un ou de
plusieurs retards des variables d´ependantes dans la fonction de r´egression.
Dhrymes (1971) et Hendry, Pagan, et Sargan (1984) discutent de nombreux
autres mod`eles. Nous n’essaierons pas de discuter de ces derniers. Par contre,
nous nous concentrerons sur quelques r´esultats d’ordre g´en´eral qui peuvent
survenir lorsque l’on tente de sp´ecifier et d’estimer des mod`eles de r´egression
dynamiques.
Un probl`eme qui se manifeste chaque fois que la matrice X contient
des variables d´ependantes retard´ees est que les OLS ne produisent pas des
estimations sans biais. Ce probl`eme survient parce que X est une matrice
stochastique, dont certains ´el´ements sont corr´el´es `a quelques ´el´ements de u.
Ainsi
E

(X

X)
−1
X

u

=

X

X

−1
X

E(u).
Le meilleur moyen d’apercevoir ce probl`eme est de consid´erer un exemple tr`es
simple. Supposons que
y
t
= βy
t−1
+u
t
, |β| < 1, u
t
∼ IID(0, σ
2
). (19.20)
L’estimation OLS de β est
ˆ
β =
¸
n
t=2
y
t
y
t−1
¸
n
t=2
y
2
t−1
. (19.21)
Si l’on substitue (19.20) au num´erateur de (19.21), on obtient
ˆ
β =
β
¸
n
t=2
y
2
t−1
+
¸
n
t=2
u
t
y
t−1
¸
n
t=2
y
2
t−1
= β +
¸
n
t=2
u
t
y
t−1
¸
n
t=2
y
2
t−1
. (19.22)
Le second terme dans l’expression la plus `a droite de (19.22) n’est pas
d’esp´erance nulle, parce que le num´erateur et le d´enominateur ne sont pas
ind´ependants. Son esp´erance est assez difficile `a d´eterminer. Nous concluons
que dans ce mod`ele, et dans tous les mod`eles pour lesquels il y a des variables
d´ependantes retard´ees, l’estimateur OLS est biais´e.
Evidemment, l’estimateur OLS
ˆ
β est convergent comme des r´esultats
´etablis ant´erieurement l’ont montr´e (Section 5.3). Si l’on divise `a la fois le
num´erateur et le d´enominateur du terme al´eatoire du membre le plus `a droite
de (19.22) par n et si l’on prend le slimites en probabilit´e, on obtient
plim
n→∞
ˆ
β = β +
plim
n→∞

n
−1
¸
n
t=2
u
t
y
t−1

plim
n→∞

n
−1
¸
n
t=2
y
2
t−1
= β.
19.4 Mod` eles de R´ egression Dynamiques 683
La limite en probabilit´e du num´erateur est z´ero. Cela provient du fait
que E(u
t
y
t−1
) = 0, ce qui implique que n
−1
¸
n
t=2
u
t
y
t−1
est simplement la
moyenne de n quantit´es qui sont toutes d’esp´erance nulle, et que ces quantit´es
sont de variance finie, ce qui est le cas puisque le fait que |β| < 1 implique
que le processus g´en´erateur des y
t
est stationnaire. La limite en probabilit´e
du num´erateur est finie, ce qui n´ecessite `a nouveau la stationnarit´e, et par
cons´equent le rapport des deux limites en probabilit´e est nul.
Mˆeme pour un mod`ele aussi simple que (19.20), les propri´et´es avec des
´echantillons finis de l’estimateur OLS
ˆ
β sont assez difficiles `a ´etablir de fa¸con
analytique et elles d´ependent de la valeur (inconnue) de β; nous pr´esenterons
quelques r´esultats Monte Carlo dans le Chapitre 21. dans des mod`eles plus
compliqu´es, les chercheurs disposent de choix restreints et sont contraints de
se rapporter `a la th´eorie asymptotique. Cela n’est pas un mal en g´en´eral, bien
qu’il y ait un risque ´evident que des inf´erences non correctes soient produites,
en particulier lorsque la taille de l’´echantillon est faible ou que le mod`ele est
presque non stationnaire.
Nous consid´erons maintenant une classe tr`es ´etendue de mod`eles de
r´egression lin´eaire dynamiques qui peuvent ˆetre tr`es utiles dans la pratique.
Ces mod`eles ne pos`edent qu’une seule variables d´ependante y
t
et, pour simpli-
fier la notation, une seule variable ind´ependante x
t
. Un mod`ele autor´egressive
`a retards ´echelonn´es, ou mod`ele ADL, peut s’´ecrire comme
y
t
= α +
p
¸
i=1
β
i
y
t−i
+
q
¸
j=0
γ
j
x
t−j
+u
t
, u
t
∼ IID(0, σ
2
) (19.23)
ou, en utilisant les op´erateurs retard
A(L, β)y
t
= α +B(L, γ)x
t
+u
t
, u
t
∼ IID(0, σ
2
).
Ici A(L, β) et B(L, γ) d´esignent les polynˆomes des op´erateurs retards avec
les coefficients respctifs β et γ. Parce qu’il y a p retards sur y
t
et q retards
sur x
t
, on appelle quelquefois ces mod`eles les mod`eles ADL(p, q). S’il y a
des variables d´ependantes additionnelles, ce qui sera en r´ealit´e le cas le plus
fr´equent, elles apparaˆıtront en tant que r´egresseurs additionnels dans (19.23).
Un cas particuli`erement simple de (19.23), mais largement r´epandu, est
le mod`ele ADL(1, 1)
y
t
= α +β
1
y
t−1

0
x
t

1
x
t−1
+u
t
. (19.24)
Parce que la plupart des r´esultats qui sont vrais pour le mod`ele ADL(1,1)
sont ´egalement vrais, compte tenu de certaines modifications ´evidentes, pour
le mod`ele plus g´en´eral ADL(p, q), nous bornerons notre discussion au cas
particulier la plupart du temps.
de nombreux mod`eles pour s´eries temporelles que l’on rencontre couram-
ment sont des cas sp´eciaux du mod`ele ADL(1, 1). Un mod`ele de r´egression
684 Mod` eles de R´ egressions pour Donn´ ees Chronologiques
statique est un cas particulier avec β
1
= γ
1
= 0, un mod`ele AR(1) univari´e est
un cas particulier avec γ
0
= γ
1
= 0, un mod`ele d’ajustement partiel est un cas
particulier avec γ
1
= 0, un mod`ele statique `a al´eas AR(1) est un cas particulier
avec γ
1
= −β
1
γ
0
, un mod`ele en diff´erences premi`eres est un cas particulier
avec β
1
= 1 et γ
1
= −γ
0
, et ainsi de suite. Le mod`ele ADL(1, 1) fournit une
alternative naturelle contre laquelle on peut tester n’importe lequel de ces cas
particuliers. Un test des contraintes du facteur commun d´ecoulant des al´eas
ob´eissant `a un processus AR(1) en est un exemple; voir la Section 10.9.
Examinons `a pr´esent comment x
t
affecte y
t
en longue p´eriode dans un
mod`ele ADL(1, 1). Sans al´eas, x
t
et y
t
convergeraient vers des valeurs de long
terme stable x

et y

donn´ees par
y

= α +β
1
y


0
x


1
x

.
En r´esolvant cette ´equation pour y

en fonction de x

on obtient
y

=
α
1 −β
1
+
γ
0

1
1 −β
1
x

=
α
1 −β
1
+λx

.
Nous voyons donc que la d´eriv´ee de y

par rapport `a x

en longueur p´eriode
(cette valeur correspondra `a une ´elasticit´e si les deux s´eries sont exprim´ees en
logarithmes) est
λ ≡
γ
0

1
1 −β
1
. (19.25)
A l’´evidence, ce r´esultat est pertinent uniquement si |β
1
| < 1, ce qui, comme
on pourrait s’y attendre, est une conditon de statibilit´e pour ce mod`ele.
L’une de scaract´eristiques int´eressante et importante des mod`eles ADL
est que l’on peut les ´ecrire de diff´erentes fa¸cons sans amoindrir leur facult´e
d’explication des donn´ees ou modifier les estimations par moindres carr´es des
coefficients auxquels on porte un int´erˆet. Par exemple, (19.24) peut ˆetre ´ecrit
selon toutes les formes qui suivent:
∆y
t
= α + (β
1
−1)y
t−1

0
x
t

1
x
t−1
+u
t
; (19.26)
∆y
t
= α + (β
1
−1)y
t−1

0
∆x
t
+ (γ
0

1
)x
t−1
+u
t
; (19.27)
∆y
t
= α + (β
1
−1)y
t−1
−γ
1
∆x
t
+ (γ
0

1
)x
t
+u
t
; (19.28)
∆y
t
= α + (β
1
−1)(y
t−1
−x
t−1
) +γ
0
∆x
t
+ (γ
0

1

1
−1)x
t−1
+u
t
; (19.29)
∆y
t
= α + (β
1
−1)(y
t−1
−λx
t−1
) +γ
0
∆x
t
+u
t
. (19.30)
Ici ∆ est l’op´erateur des diff´erences premi`eres: ∆y
t
≡ y
t
−y
t−1
. Dans (19.30),
λ est la param`etre d´efini dans (19.25). Le fait que (19.24) puisse ˆetre ´ecrit
sous diff´erentes formes sans changer les estimations par moindres carr´es est
souvent tr`es partique. Par exemple, si l’on s’int´eresse `a la somme des γ
i
, les
19.4 Mod` eles de R´ egression Dynamiques 685
estimations et les ´ecarts types s’obtiennent directement `a partir de l’estimation
par OLS de (19.27) ou (19.28), et si l’on porte un int´erˆet `a λ, elles peuvent
ˆetre obtenues par une estimation NLS de (19.30).
La plus int´eressante des sp´ecifications ´equivalentes (19.24) et (19.26)–
(19.30) est sans doute (19.30), dans laquelle le mod`ele est ´ecrit sous la forme
que l’on appelle forme `a correction d’erreur. Le param`etre λ apparaˆıt directe-
ment dans cette forme du mod`ele. Bien que la forme `a correction d’erreur
soit non lin´eaire, l’estimation est malgr´e tout ais´ee parce que le mod`ele est
simplement un mod`ele lin´eaire soumis `a une contrainte non lin´eaire. La
diff´erence entre y
t−1
et λx
t−1
mesure l’importance de la d´efaillance de la
relation d’´equilibre de long terme entre x
t
et y
t
. A ce titre, β
1
− 1 est pour
l’essentiel la mˆeme chose que le param`etre δ −1 dans le mod`ele d’ajustement
partiel. On appelle souvent le terme (β
1
−1)(y
t−1
−λx
t−1
) qui apparaˆıt dans
(19.30) terme de correction d’erreur, et un mod`ele tel que (19.30) est parfois
appel´e mod`ele `a correction d’erreur, ou ECM. Ces mod`eles furent utilis´es
pour la premi`ere fois par Hendry et Anderson (1977) et Davidson, Hendry,
Srba, et Yeo (1978). Nous en discuterons en d´etail dans le prochain chapitre.
Remarquons que le terme d’erreur est implicitement pr´esent dans les autres
versions de (19.24), pusique son coefficient associ´e peut ˆetre retrouv´e `a partir
de celles-ci. Certains auteurs imposent la contrainte λ = 1, qui peut s’av´erer
raisonnable si x
t
et y
t
sont d’amplitudes comparables. Cela est ´equivalent `a
la contrainte β
1
+ γ
0
+ γ
1
= 1 et peut donc ˆetre test´e de fa¸con assez simple
par l’utilisation des t de Student ordinaires pour x
t−1
dans (19.29).
Le point clef `a retenir lorsque l’on tente de sp´ecifier des mod`eles de
r´egression dynamiques est qu’il existe en g´en´eral un grand nombre de mani`eres
a priori plausibles de le faire. C’est une erreur grave que de limiter ses efforts
sur un type particulier de mod`eles, tel que les mod`eles `a retards ´echelonn´es ou
les mod`eles d’ajustement partiel. Parce qu’elle comporte tellement d’autres
cas particuliers, la famille des mod`eles ADL(p, q) fournira souvent une bonne
base de d´epart. Dans de nombreux cas, la sp´ecification p = q = 1 sera
g´en´eralement suffisante , mais avec des donn´ees trimestrielles il serait sage
de d´ebuter avec p = q = 4. Dans le but d’obtenir un mod`ele raisonnable-
ment ´econome et directement interpr´etable, il sera g´en´eralement n´ecessaire
d’imposer une certain nombre de contraintes sur la sp´ecification ADL(p, q)
d’origine. Parce que les mod`eles ADL peuvent s’´ecrire de plusieurs mani`eres
diff´erntes —souvenons-nous des mod`eles (19.24) et (19.26) `a (19.30) —il y a
´egalement de nombreuses contraintes diff´erentes que l’on pourrait imposer.
Notre discussion sur les mod`eles de r´egression dynamiques dut assez
rapide. Pour des traitements plus pointus, consulter Hendry, Pagan, et Sargan
(1984) ou Banerjee, Dolado, Galbraith, et Hendry (1993).
686 Mod` eles de R´ egressions pour Donn´ ees Chronologiques
19.5 Autor
´
egressions Vectorielles
Dans le Chapitre 10, nous avons introduit les mod`eles AR, MA et ARMA
pour des s´eries temporelles univari´ees. Comme on pourrait s’y attendre, il
existe des versions multivari´ees de tous ces mod`eles. Nous ne tenterons pas
de discuter des mod`eles `a moyenne mobile vectoriels ou des mod`eles ARMA
vectoriels, parce que ceux-ci peuvent ˆetre relativement compliqu´es `a traiter;
consulter Fuller (1976) ou Harvey (1981, 1989). Toutefois, dans cette sec-
tion, nous verrons bri`evement les mod`eles autor´egressifs vectoriels, que l’on
connaˆıt ´egalement sous le nom d’autor´egressions vectorielles ou VAR. Ceux-
ci repr´esentent le genre le plus simple de mod`ele de s´eries temporelles multi-
vari´ees `a estimer, et ils ont ´et´e largement employ´es en ´economie ces derni`eres
ann´ees.
Supposons que le vecteur ligne Y
t
de dimension 1×m d´esigne la t
i`eme
ob-
servation d’un ensemble de variables. Alors un mod`ele autor´egressif vectoriel
d’ordre p, ou VAR(p) pour faire court, peut s’´ecrire comme
Y
t
= α+Y
t−1
Φ
1
+· · · +Y
t−p
Φ
p
+U
t
, U
t
∼ IID(0, Ω), (19.31)
o` u α est un vecteur ligne `a m composantes, et Φ
1
, Φ
2
jusqu’`a Φ
p
sont des
matrices de dimension m×m des coefficients qu’il faut estimer. Si y
ti
d´esigne
le i
i`eme
´el´ement de Y
t
et si φ
j,ki
d´esigne le ki
i`eme
´el´ement de Φ
j
, la colonne i
de (19.31) peut s’´ecrire comme
y
ti
= α
i
+
p
¸
j=1
m
¸
k=1
y
t−j,k
φ
j,ki
+u
ti
. (19.32)
C’est simplement une r´egression lin´eaire, dans laquelle y
ti
d´epend d’une con-
stante et des retards 1 `a p des m variables du syst`eme. Ainsi (19.31) prend
la forme d’un syst`eme SUR (Section 9.8).
Parce qu’exactement les mˆemes variables apparaissent dans le membre
de droite de (19.32) quel que soit i, les estimations OLS pour chaque ´equation
sont identiques aux estimations GLS pour (19.31) prises ensembles. Cela est
une consd´equence du Th´eor`eme de Kruskal, ainsi que nous l’avons d´emontr´e `a
la Section 9.8. Ainsi il est tr`es ais´e d’estimer une VAR: on applique simplement
les OLS `a chaque ´equation de fa¸con isol´ee. l’estimation est tr`es rapide siu
le logiciel utilise le fait que chaque ´equation implique exactement le mˆeme
ensemble de r´egresseurs.
L’usage des mod`eles VAR fut pr´econis´e, notemment par Sims (1980),
comme un moyen d’estimer des relations dynamiques entre des variables en-
dog`enes jointes sans avoir `a imposer de fortes contraintes pr´ealables. Des
articles empiriques fond´es sur cette approche furent ´ecrits par Litterman et
Weiss (1985) et Reagan et Sheehan (1985). L’avantage principal de cette ap-
proche est que le chercheur n’a pas besoin de d´ecider quelles sont les variables
19.5 Autor´ egressions Vectorielles 687
endog`enes. De plus, tous les probl`emes associ´es aux mod`eles d’´equations si-
multan´ees sont contourn´es parce que les VAR ne contiennent aucune variable
courante parmi les r´egresseurs. D’un autre cˆot´e, les VAR tendent `a n´ecessiter
l’estimation d’un grand nombre de param`etres, m+pm
2
pour ˆetre pr´ecis, et,
par cons´equent, chaque param`etre individuel a tendance `a ˆetre souvent estim´e
de fa¸con assez impr´ecise. Nous reviendrons sur ce point plus tard.
Bien que le mod`ele VAR ne contienne pas de variables courante parmi
les r´egresseurs, les corr´elations contemporaines sont prises en compte de fa¸con
implicite par la matrice Ω. Cette matrice est int´eressante `a plusieurs titres,
et pas des moindres parce que, si les al´eas sont suppos´es ˆetre normalement
distribu´es, la fonction de log-vraisemblance pour le mod`ele VAR(p) (19.31),
concentr´ee par rapport `a Ω, est simplement
(Y, α, Φ
1
· · · Φ
p
) = C −
n

2
log

Ω(α, Φ
1
· · · Φ
p
)

.
Ici Ω(α, Φ
1
· · · Φ
p
) signifie que l’on prend la valeur de Ω qui maximise la log-
vraisemblance conditionnellement `a α et aux Φ
i
, et Y repr´esente la matrice
dont la ligne type est Y
t
. Ce r´esultat est une application des r´esultats relatifs
aux fonctions de log-vraisemblance concentr´ees pour les mod`eles multivari´es
que nous avons d´eriv´es `a la Section 9.9;
Il est ais´e de voir que Ω(α, Φ
1
· · · Φ
p
) est ´egale `a
1

n
n
¸
t=1

Y
t
−α−Y
t−1
Φ
1
· · · −Y
t−p
Φ
p

Y
t
−α−Y
t−1
Φ
1
· · · −Y
t−p
Φ
p

,
o` u nous avons suppos´e implicitement que les p observations ant´erieures `a celles
de l’´echantillon sont disponibles, ce qui implique que les n observations soient
employ´ees pour l’estimation. Si
ˆ
U
t
d´esigne le vecteur ligne `a m ´el´ements des
r´esidus OLS pour l’observation t, alors
Ω( ˆ α,
ˆ
Φ
1
· · ·
ˆ
Φ
p
) ≡
ˆ
Ω =
1

n
n
¸
t=1
ˆ
U
t

ˆ
U
t
.
Par cons´equent la valeur maximis´ee de la fonction de log-vraisemblance est
(Y, ˆ α,
ˆ
Φ
1
· · ·
ˆ
Φ
p
) = C −
n

2
log |
ˆ
Ω|.
Lorsque nous sp´ecifions une mod´elisation VAR, il est important de
d´eterminer la longueur des retards qu’il est n´ecessaire d’inclure. Si l’on d´esire
tester l’hypoth`ese nulle que le retard le plus long dans le syst`eme est p contre
l’hypoth`ese alternative que c’est p +1, le moyen le plus facile de proc´eder est
probablement de calculer la statistique LR
n

log |
ˆ
Ω(p)| −log |
ˆ
Ω(p + 1)|

,
688 Mod` eles de R´ egressions pour Donn´ ees Chronologiques
avec une notation qui est tr`es explicite. La distribution asymptotique de
cette statistique de test sera le χ
2
(m
2
). Cependant, `a moins que la taille n de
l’´echantillon ne soit tr`es grande par rapport au nombre des param`etres dans
le syst`eme (m + pm
2
sous l’hypoth`ese nulle, m + (p + 1)m
2
sous l’hypoth`ese
alternative) la distribution avec des ´echantillons finis de cette statistique de
test peut diff´erer substantiellement de sa distribution asymptotique.
L’un des usages des mod`eles VAR est le test de l’hypoth`ese nulle qu’une
quelconque variable ne poss`ede pas de causalit´e au sens de Granger sur une
autre varaible. Nous avons discut´e du concept de causalit´e au sens de Granger
dans la Section 18. Dans le contexte d’une VAR, on dit qu’il y a causalit´e au
sens de Granger entre y
t1
et y
t2
si les valeurs retard´ees de y
t1
sont significatives
dans l’´equation de y
t2
. D’un autre cˆot´e, l’hypoth`ese nulle que y
t1
ne cause pas
y
t2
au sens de Granger ne peut pas ˆetre rejet´ee si toutes les valeurs retard´ees
de y
t1
sont conjointement sans pertinence dans l’´equation de y
t2
. Ainsi on
peut facilement tester l’hypoth`ese nulle que n’importe quelle variables dans
une VAR(p) n’a pas de causalit´e au sens de Granger sur n’importe quelle
autre variable en ex´ecutant un tets en F asymptotique avec p et n−(1 +pm)
degr´es de libert´e.
2
A l’´evidence, tous les r´esultats d´ependent de l’hypoth`ese
maintenue que toutes les variables pertinentes ont ´et´e incluses dans la VAR.
Si une variable y
t3
´etait omise de la VAR, nous concluerions `a tort que y
t1
cause y
t2
au sens de Granger, alors qu’en r´ealit´e y
t1
n’explique pas du tout y
t2
ind´ependemment de son effet `a travers la variable omise.
Comme nous le remarquions d´ej`a, un probl`eme pratique particuli`erement
d´elicat avec les VAR est qu’elles r´eclament g´en´eralement l’estimation d’un
nombre de param`etre qui est important relativement `a la taille de l’´echantillon.
Litterman (1979, 1986) sugg´era que si l’objectif est l’utilisation d’une VAR
pour la pr´evision, on peut r´esoudre ce probl`eme en imposant des contraintes
al´eatoires, tr`es similaires `a celles que nous avons vues dans la Section 19.2 et
dant le but ´etait d’imposer des informations a priori de r´egularit´e sur les re-
tards ´echelonn´es. Par exemple, on pourrait imposer l’information a priori que
tous les coefficients sont d’esp´erance nulle et de variance assez forte, except´e
pour le coefficient associ´e `a y
t−1,i
dans l’´equation pour y
ti
. Litterman proposa
une proc´edure d’estimation mixte similaire `a celle dont nous avons discut´e lors
de la Section 19.2, et rapporta que ces VAR “bay´esiennes” produisaient de
meilleures pr´evisions que les VAR non contraintes conventionnelles.
19.6 L’Ajustement Saisonnier
De nombreuses s´eries temporelles ´economiques tendent `a suivre un mod`ele
r´egulier `a travers le d´eroulement de chaque ann´ee. On appelle ce genre de
comportement une variation saisonni`ere ou saisonnalit´e. Il peut provenir de
2
Les propri´et´es des diff´erents tests de causalit´e, incluant celui-ci, furent ´etudi´ees
par Geweke, Meese, et Dent (1983).
19.6 L’Ajustement Saisonnier 689
10.00
10.25
10.50
10.75
11.00
11.25
11.50
.........................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................
Log des Constructions
1969:1 1972:1 1975:1 1978:1 1981:1 1984:1 1987:1
Figure 19.1 Constructions de bˆatiments au Canada, 1968–1987
conditions climatiques saisonni`eres r´eguli`eres ou d’habitudes sociales telles
que les jours f´eri´es l´egaux, les vacances en ´et´e et d’autres. La pr´esence de
saisonnalit´e a des implications importantes dans les travaux ´econom´etriques
appliqu´es qui utilisent des donn´ees chrnologiques. Au mieux, lorsque nous
parvenons `a mod´eliser la saisonnalit´e de mani`ere explicite, cela complique le
travail dans une large mesure. Au pire, l’utilisation de donn´ees corrig´ees des
variations saisonni`eres de fa¸con m´ecanique peut r´eduire drastiquement notre
capacit´e `a pratiquer des inf´erences corrcetes sur des relations ´economiques.
Pour clarifier les id´ees, consid´erons la Figure 19.1, qui pr´esente le loga-
rithme des constructions de bˆatiments au Canada, en donn´ees trimestrielles,
pour la p´eriode 1968:1 `a 1987:4.
3
Il est clair que la variation saisonni`ere
dans cette s´erie est tr`es prononc´ee. Les constructions de bˆatiments tendent
`a ˆetre plus faibles lors du premier trimestre que lors des autres, sans doute
parce que les conditions climatiques ne hiver rendent les travaux difficiles
en cette p´eriode de l’ann´ee. Malgr´e cela, le mod`ele de saisonni`ere paraˆıt
varier consid´erablement d’une ann´ee `a l’autre, d’une mani`ere que ne semble
pas ind´ependante du niveau g´en´eral des constructions d’immeubles. Dans
l’ann´ee de r´ecession de 1982, par exemple, il y a beaucoup moins de varia-
tions saisonni`eres que d’habitude, et le niveau le plus faible des constructions
est enregistr´e pour le troisi`eme trimestre au lieu du premier.
3
Ces donn´ees sont issues de la base de donn´ees CANSIM des Statistiques Cana-
diennes. Elles correspondent aux logarithmes de la s´erie num´ero D2717.
690 Mod` eles de R´ egressions pour Donn´ ees Chronologiques
Il existe deux visions assez divergentes sur la nature de la saisonnalit´e
dans les donn´ees ´economiques. la premi`ere est que la variation saisonni`ere
est une partie fondamentale de nombreuses s´eries ´economiques et, lorsqu’elle
se manifeste, il faudrait essayer de l’expliquer. Ainsi, dans un monde id´eal,
un mod`ele ´econom´etrique pour une variable d´ependante y
t
devrait expliquer
n’importe quelle variation saisonni`ere des variables ind´ependantes, sans doute
en incluant des variables saisonni`eres muettes parmi elles. H´elas, comme nous
allons le voir dans la section qui suit, cela rend la sp´ecification et l’estimaiton
´econom´etrique des mod`eles pour s´eries mensuelles ou trimestrielles relative-
ment compliqu´ees.
La seconde interpr´etation, associ´ee `a Sims (1974), est que la saison-
nalit´e est simplement un type de perturbation qui contamine les donn´ees
´economiques. La th´eorie ´economique n’est pas suppos´ee expliquer ce bruit,
qui, dans le cas de variables ind´ependantes, ´equivaut `a un probl`eme d’erreur
dans les variables. On devrait par cons´equent utiliser ce que l’on appelle
les donn´ees ajust´ees par saison, c’est-`a-dire des donn´ees qui ont ´et´e condi-
tonn´ees d’une certaine fa¸con de sorte qu’elle repr´esentent ce que nous sup-
posons que la s´erie serait en l’absence de saisonnalit´e. En r´ealit´e, de nombreux
bureaux d’´etudes, en particulier aux Etats Unis, produisent uniquement des
chiffres ajust´ee par saison pour de nombreuses s´eries. Dans cette section,
nous allons discuter de la nature des proc´edures d’ajustement saisonnier et
des cons´equences de l’utilisation des donn´ees ajust´ees par saison.
L’id´ee d’ajuster par saison une s´erie temporelle afin d’´eliminer les ef-
fets de la saisonnalit´e est intuitivement attrayante mais assez difficile `a ren-
dre rigoureuse sans avoir `a s’appuyer sur des h2 beaucoup trop irr´ealistes.
L’ajustement saisonnier d’une s´erie y
t
est pertinent pour tout t on peut ´ecrire
y
t
= y

t
+ y
s
t
, o` u y

t
est une s´erie temporelle qui ne contient aucune variation
saisonni`ere, et y
s
t
est une s´erie temporelle qui ne contient que des composantes
saisonni`eres. Mais cela est une hypoth`ese extrˆeme. Mˆeme si elle est v´erifi´ee,
il n’est pas n´ecessairement ais´e de s´eparer y
t
en y

t
et y
s
t
, ce qui est ce que les
proc´edures d’ajustement saisonnier tentent d’accomplir.
Une approche de l’ajustement saisonnier, qui est tr`es populaire parmi les
´econom`etres mais qui n’est presque jamais utilis´ee par les bureaux d’´etudes
statistiques, consiste `a utiliser une r´egression par moindres carr´es. Supposons
pour ˆetre concret, que les donn´ees sont trimestrielles, et consid´erons les vari-
ables saisonni`eres muettes
D
1
=

1
0
0
−1
.
.
.
¸
¸
¸
¸
¸
¸
D
2
=

0
1
0
−1
.
.
.
¸
¸
¸
¸
¸
¸
D
3
=

0
0
1
−1
.
.
.
¸
¸
¸
¸
¸
¸
,
que nous avons rencontr´ees pour la premi`ere fois dans la Section 1.4. Ces
varaibles muettes ont ´et´e d´efinies de telle sorte que leur somme est nulle
19.6 L’Ajustement Saisonnier 691
pour une ann´ee. Supposons maintenant que l’on r´egresse un vecteur `a n
composantes y sur une constante et sur D ≡ [D
1
D
2
D
3
]:
y = β +Dγ +u. (19.33)
Alors une s´erie y

“ajust´ee par saison” peut ˆetre ´elabor´ee comme suit: as
y


ˆ
β + ˆ u, (19.34)
o` u
ˆ
β est l’estimation de β, et ˆ u est le vecteur de r´esidus provenant de
l’estimation par OLS de (19.33). Ainsi toutes les variations de y qui peuvent
avoir comme explication des variables saisonni`eres muettes ont ´et´e ´elimin´ees
pour construire y

.
Cette approche fut pr´econis´ee par Lovell (1963). Il montra, par une
application du Th´eor`eme FWL, que les estimations OLS obtenues `a partir
des deux r´egressions suivantes ´etaient identiques:
y

= X

β +u et (19.35)
y = Xβ +Dγ +u. (19.36)
Ici la premi`ere r´egression utilise des donn´ees “ajust´ees par saison” par la
proc´edure utilis´ee en (19.33) et (19.34). La seconde se contente de r´egresser
les donn´ees brutes y sur des donn´ees brute X, o` u X doit contenir une con-
stante ou un regr´esseur ´equivalent, et sur les variables saisonni`eres muettes D.
Ce r´esultat semble sugg´erer qu’il est peu important d’utiliser soit des donn´ees
ajust´ees par saison soit des donn´ees brutes et des varaibles saisonni`eres
muettes correspodant aux saisons. Une telle conclusion est exacte unique-
ment si les donn´ees ont ´et´e ajust´ees par saison `a l’aide d’une r´egression.
Il existe de nombreux probl`emes concernant l’ajustement saisonnier par
r´egression. Premi`erement, il est clair `a partir des r´esultats standards sur
les r´esidus des moindres carr´es qu’avec des ´echantillons finis une r´egression
comme (19.33) r´eduira la variation dans une trop grande mesure, en at-
tribuant, `a tort, la variation des variables saisonni`eres muettes (Thomas et
Wallis, 1971). En second lieu, s’il existe une tendance croissante dans la s´erie
ajust´ee, une r´egression comme (19.33) attribuera `a tort une partie de cette
tendance aux variables saisonni`eres muettes. Par cons´equent, l’estimation de
l’effet du premier trimestre sera trop faible, et celle de l’effet du quatri`eme
trimestre sera trop forte. Une solution ´evidente consiste `a ajouter une ten-
dance `a la r´egression et `a la traiter de la mˆeme mani`ere qu’une constante.
(Jorgenson, 1964). Cela implique, malgr´e tout, que X doit inclure une ten-
dance et une constante qsi l’on veut que (19.35) et (19.36) produisent en effet
les mˆemes estimations.
Le plus s´erieux probl`eme concernant l’approche de la r´egression et qu’elle
ne permet pas de changement dans l’allure de la saisonnalit´e `a travers le temps.
692 Mod` eles de R´ egressions pour Donn´ ees Chronologiques
Comme la Figure 19.1 l’illustre, les llures saisonni`eres paraissent vraiment
changer dans le temps. Une fa¸con de mod´eliser ce ph´enom`ene consiste `a
ajouter des variables saisonni`eres muettes additionnelles qui ont ´et´e combin´ees
`a des puissances d’une tendance chronologiques annuelle lin´eaire croissante
telle que
T ≡ [1 1 1 1 2 2 2 2 · · · ].
La raison qui veut que la tendance doive prendre cette forme relativement
curieuse est que cela garantit toujours la nullit´e de la somme des variables de
tendance muettes sur la totalit´e de chaque ann´ee, lorsque cette tendance est
multipli´ee par les variables saisonni`eres muettes. Si l’on multipliait simple-
ment les variables saisonni`eres muettes par une tendance ordinaire, cela ne
serait plus le cas.
Le Th´eor`eme FWL s’applique aux r´egressions (19.35) et (19.36) quelle
que soit la mani`ere dont les variables muettes aient ´et´e d´efinies. Ainsi on
peut avoir
D ≡ [D
1
D
2
D
3
D
1
∗T D
2
∗T D
3
∗T D
1
∗T ∗T D
2
∗T ∗T D
3
∗T ∗T ].
Il y a trois ensembles de variables saisonni`eres muettes: celles qui sont les
plus classiques et constantes dans le temps, celles qui sont combin´ees `a une
tendance lin´eaire et celles qui sont combin´ees `a une tendance quadratique.
Le fait de donner une tendance `a des variables saisonni`eres muettes paraˆıt
quelquefois bien fonctionner avec des ´echantillon finis, dans le sens o` u elles
semblent fournir une bonne approximation `a un quelconque sch´ema courant
de changement de saisonnalit´e. Mais cela n’a pas de sens asymptotiquement,
parce que les variables saisonni`eres doivent en fin de compte devenir infinies si
les coefficients associ´e aux variables de tendance muettes sont non nuls dans
la r´egression.
En ce qui concerne les constructions de bˆatiments sur la Figure 19.1, il
est int´eressant de voir que les variables de tendance muettes ne sont d’aucun
usage. La r´egression de ces donn´ees sur une constante et trois variables
saisonni`eres muettes produit quatre coefficients significatifs et un R
2
d’environ
0.48. L’ajout de trois variables de tendance lin´eaire et trois variables de ten-
dance quadratiques muettes `a la r´egression n’am´eliore pas les valeurs ajust´ees
de mani`ere significative. Ainsi il apparaˆıt, soit que la variation saisonni`ere de
cette s´erie n’a pas ´et´e modifi´ee dans le temps, malgr´e l’impression visuelles
qu’elle donne, soit que cette modification s’est d´eroul´ee d’une mani`ere telle
qu’elle ne peut pas ˆetre approxim´ee de fa¸con satisfaisante par une r´egression
sur des variables de tendance saisonni`eres muettes.
Un autre moyen de traiter les sch´ema saisonniers qui varient dans le temps
consiste `a utiliser les m´ethodes du domaine de fr´equence; voir Engle (1974),
Sims (1974), et Hylleberg (1977, 1986). La prmei`ere ´etape consiste `a trans-
former les donn´ees y
t
du domaine chronologique au domaine des fr´equences,
19.6 L’Ajustement Saisonnier 693
habituellement `a l’aide d’une transformation de Fourier.
4
Apr`es transfor-
mation, chaque observation correspond `a une certaine fr´equence plutˆot qu’`a
une certaine p´eriode de temps. Certaines observations sont effac´ees, en ban-
des autour des fr´equences saisonni`eres et de leur harmonique. Le nombre
d’observations effac´ees (c’est-`a-dire les fr´equences) est d’autant plus ´elev´e que
les bandes sont larges, et cela augment la probabilit´e que toute variation
saisonni`ere ait ´et´e ´elimin´ee des donn´ees. Enfin, les donn´ees sont transform´ees
`a nouveau pour aboutir dans le domaine chronologique, donnant une s´erie
ajust´ee par saison.
Sims (1974) montra que cette technique est ´equivalente `a une forme
d’ajustement saisonnier `a l’aide d’une r´egression. Consid´erons la r´egression
(19.33) et la s´erie ajust´ee par saison d´efinie par (19.34). Cette derni`ere serait
´equivalente `a une s´erie ajust´ee dans le domaine des fr´equences que nous venons
de d´ecrire si la matrice D ´etait r´ed´efinie de mani`ere`a ˆetre ´egale `a un cer-
tain ensemble de variables qui sont des fonctions trigonom´etriques du temps.
Les trois premi`eres ou les onze premi`eres de ces variables (dans le cas de
donn´ees trimestrielles ou mensuelles respectivement) engendrent exactement
le mˆeme sous-espace que trois ou onze variables saisonni`eres muettes. Ainsi si
le sch´ema saisonnier ´etait constant dans le temps, il serait n´ecessaire d’exclure
seulement autant de fr´equences sp´ecifiques qu’il y a de p´eriodes chronologiques
dans l’ann´ee. L’exclusion de fr´equences suppl´ementaires en bandes autour des
fr´equences saisonni`eres et et de leur harmonique permet au sch´ema saison-
nier de changer au cours du temps. Cela ´equivaut `a inclure des fonctions
trigonom´etriques du temps suppl´ementaires dans la r´egression. Le nombre de
variables trigonom´etriques `a inclure, qui est identique au nombre de fr´equences
exclues dans l’approche par le domaine des fr´equences, augmentera de fa¸con
lin´eaire avec la taille de l’´echantillon si la largeur des bandes demeure in-
chang´ee.
Le bureaux de statistiques officiels n’emploient presque jamais aucune
sorte de proc´edure d’ajustement saisonnier bas´ee sur la r´egression. Au del`a
des probl`emes li´es `a de telles proc´edures et auxquels nous avons fait r´ef´erence,
elles souffrent d’une difficult´e pratique importante. Au fur et `a mesure que le
temps passe et que la taille de l’´echantillon s’accroˆıt, l’estimation du vecteur γ
dans (19.33) se modifie, et par cons´equent chaque ´el´ement de y

sera modifi´e
chaque fois qu’une nouvelle observation sera disponible. Cette caract´eristique
est `a l’´evidence la moins souhaotable pour les utilisateurs des statistiques
officielles.
Les proc´edures d’ajustement saisonnier qui sont en r´ealit´e employ´ees par
les agences statistiques sont en g´en´eral tr`es compliqu´ees. Elles tentent de
traiter une multitude de probl`emes pratiques, et parmi eux les tendances, les
4
Pour une introduction aux m´ethodes du domaine de fr´equence, consulter Har-
vey (1981). Pour une description de la transformation de Fourier, voir Press,
Flannery, Teukolsky, et Vetterling (1986, Chapitre 12).
694 Mod` eles de R´ egressions pour Donn´ ees Chronologiques
variations chronologiques des saisons, les variations du nombre de jours de
commerce et les dates des vacances, le fait qu’une information plus pauvre
caract´erise le d´ebut de l’´echantillon (parce que les observations qui pr´ec`edent
l’´echantillon sont inconnues), et les identit´es qui peuvent lier certaines s´eries
entre elles. Ces proc´edures sont `a l’origine con¸cues pour produire des donn´ees
qui sont facilement lisibles par les ´economistes qui tentent de d´eterminer les
performances de l’´economie, plutˆot que des donn´ees qui seront n´ecessairement
plus utiles `a des ´econom`etres. La plus connue de ces proc´edures officielles est
la m´ethodes du X-11 invent´ee par le Bureau de Recensement des Etats Unis
(Shisken, Young, et Musgrave, 1967). Pour une discussion sur ce sujet et sur
les proc´edures qui s’en inspirent, consulter Hylleberg (1986); la Figure 5.1
de cet ouvrage illustre le diagramme des op´erations successives, qui r´ev`ele la
complexit´e extrˆeme de la proc´edure X-11.
Malgr´e la complexit´e de la proc´edure X-11 et de ses variantes, on peut
souvent les approximer avec satisfaction par des proc´edures beaucoup plus
simples bas´ees sur ce que l’on appelle les filtres lin´eaires. Posons y un
vecteur `a n composantes des observations (souvent en logarithmes plutˆot qu’en
niveaux) d’une s´erie qui n’a pas ´et´e ajust´ee par saison. Un filtre lin´eaire est
une matrice Φ de dimension n × n dont la somme des ´el´ements d’une mˆeme
ligne ´egale 1, qui pr´emultiplie y pour produire une s´erie ajust´ee par saison y

.
Chaque ligne du filtre est un vecteur de poids filtrants. Ainsi chaque ´el´ement
de y

t
de la s´erie ajust´ee par saison est ´egal `a une somme pond´er´ee des valeurs
pass´ees, actuelle, et futures de y
t
.
Consid´erons l’exemple simple de donn´ees trimestrielles. Supposons que
l’on cr´ee tout d’abord des moyennes mobiles `a trois et onze termes
z
t

1

3

y
t−4
+y
t
+y
t+4

et w
t

1
11
−5
¸
j=5
y
t−j
.
La diff´erence entre z
t
et w
t
est une estimation mobile de la quantit´e par
laquelle la valeur de y
t
du trimestre en cours tend `a diff´erer de sa valeur
moyenne sur l’ann´ee. Ainsi une mani`ere de d´efinir une s´erie ajust´ee par saison
serait d’´ecrire
y

t
≡ y
t
−z
t
+w
t
= .0909y
t−5
−.2424y
t−4
+.0909y
t−3
+.0909y
t−2
+.0909y
t−1
+.7576y
t
+.0909y
t+1
+.0909y
t+2
+.0909y
t+3
−.2424y
t+4
+.0909y
t+5
.
(19.37)
Cet exemple correspond `a un filtre lin´eaire dans lequel la ligne p de Φ (pour
5 < p < n −5) serait compos´ee de p −6 z´eros, suivis par onze coefficients qui
apparaissent dans (19.37), eux-mˆemes suivis par n −p −5 z´eros.
Cet exemple tel qu’il fut construit fut d´elib´er´ement trop simple, mais
l’approche de base qu’il illustre se retrouve, sous des formes modifi´ees vari´ees,
19.6 L’Ajustement Saisonnier 695
dans la plupart des proc´edures d’ajustement saisonnier officielles. Ces der-
ni`eres n’emploient g´en´eralement pas des filtres lin´eaires, mais plutˆot des
moyennes mobiles sous une forme comparable `a cet exemple. Ces moyenes
mobiles tendent `a ˆetre plus longues que celles utilis´ee dans l’exemple; z
t
est
g´en´eralement compos´ee d’au moins 5 termes et w
t
d’au moins 25 termes dans
le cas de donn´ees trimestrielles. Elles tendent ´egalement `a donner progres-
sivement moins de poids aux observations ´eloign´ees de t. Le poids donn´e `a y
t
par ces proc´edures est g´en´eralement compris entre 0.75 et 0.9, mais il est tou-
jours inf´erieur `a 1. Pour plus de d´etails sur les relations entre les proc´edures
officielles et celles bas´ees sur les filtres lin´eaires, voir Wallis (1974), Burridge
et Wallis (1984), et Ghysels et Perron (1993).
Nous avons affirm´e que les proc´edures d’ajustement saisonnier officielles
ont les mˆemes propri´et´es la plupart du temps que les filtres lin´eaires appliqu´es
soit aux niveaux soit aux logarithmes des donn´ees brutes. Cette assertion
peut ˆetre v´erifi´ee empiriquement. Si elle est exacte, la r´egression d’une s´erie
ajust´ee par saison y

t
sur suffisamment de retards et d’avances de la s´erie brute
correspondante y
t
devrait fournir des valeurs ajust´ees d’une qualit´e extrˆeme.
Le coefficient de y
t
devrait ˆetre ´elev´e et positif, mais inf´erieur `a 1, et les
coefficients des y
t+j
devraient ˆetre n´egatifs lorsque j est un entier multiple de
4 ou de 12, pour des donn´ees trimestrielles et mensuelles respectivement.
Pour illustrer ces propos, nous avons r´egress´e les logarithmes de la s´erie
des constructions de bˆatiments pour le Canada ajust´ee par saison qui corre-
spond `a la s´erie brute de la Figure 19.1 sur une constante et sur la valeur
courante et 12 retards et avances de la s´erie brute, pour la p´eriode allant de
1957:1 `a 1986:4. Le R
2
est de .992 et le coefficient de la valeur courante est
de 0.80. Nous avons ´egalement r´egress´e les logarithmes des d´epenses de con-
sommations r´eelles des particuliers, ajust´ees par saison, sur une constante, la
valeur courante et 13 retards et avances de la s´erie brute correspondant, pour
la p´eriode allant de 1953:1 `a 1984:1.
5
Cette fois-ci, le R
2
atteint la valeur
extraordinaire de .999996, et le coefficient associ´e `a la valeur courante est 0.82.
Dans les deux cas, tous les coefficients associ´es `a y
t+j
pour j un multiple de
4 ´etaient n´egatifs, comme pr´evu. Il apparaˆıt donc qu’un filtre lin´eaire fournit
une approximation de grand qualit´e de la proc´edure d’ajustement saisonnier
employ´ee en r´ealit´e dans le cas de donn´ees de d´epenses et une approximation
satisfaisante dans la cas des donn´ees de construction de bˆatiments.
Si l’on r´ealise un ajustement saisonnier `a l’aide d’un filtre lin´eaire, il n’est
pas difficile d’analyser les effets de l’utilisation de donn´ees ajust´ees par saison.
Supposons que le mˆeme filtre soit appliqu´e `a toutes les s´eries dans la r´egression
5
Toutes les donn´ees furent collect´ees `a partir de la banque de donn´ees CANSIM
des Statistiques Canadiennes. Les s´eries de construction de bˆatiments ajust´ees
et brutes portent les num´ero D2717 et D4945. Les s´eries des d´epenses ajust´ees
et brutes portent les num´eros D20131 et D10131.
696 Mod` eles de R´ egressions pour Donn´ ees Chronologiques
de y

sur X

. Alors les estimations par moindres carr´es seront donn´ees par
˜
β =

X

X

−1
X

y

=

X

Φ

ΦX

−1
X

Φ

Φy.
Nous voyons que
˜
β est simplement un vecteur d’estimations GLS, o` u la ma-
trice de dimension n × n Φ

Φ joue le rˆole de l’inverse de la matrice de
covariance des al´eas. Nous concluons donc que la r´egression OLS suivant
l’ajustement saisonnier pratiqu´e `a l’aide d’un filtre lin´eaire est ´equivalent `a
une r´egression GLS, `a condition que le mˆeme filtre lin´eaire soit employ´e pour
toutes les s´eries. Malheureusement, les proc´edures d’ajustement saisonnier
ne pratiquent pas ainsi pour toutes les s´eries (ni quelquefois pour une mˆeme
s´erie en diff´erents points du temps). Par cons´equent, ce r´esultat est rarement
applicable. (Wallis, 1974).
Quoi qu’il en soit, il y a un int´erˆet `a discuter des propri´et´es de
˜
β. Celles-
ci d´ependront `a l’´evidence de la mani`ere dont on a g´en´er´e y
t
. L’une des
possibilit´es est que
y = Xβ
0
+u, u ∼ IID(0, σ
2
I), (19.38)
qui implique que n’importe quelle forme de saisonnalit´e dans y soit rendue
dans sa totalit´e par la saisonnalit´e dans les variables ind´ependantes. Alors
plim
n→∞
˜
β = β
0
+ plim
n→∞

1

n
X

Φ

ΦX

−1
plim
n→∞

1

n
X

Φ

Φu

= β
0
. (19.39)
Ainsi, bien qu’il n’y ait aucune raison d’utiliser des donn´ees ajust´ees par saison
dans ce cas, leur pr´esence conserve quand mˆeme la convergence des estimations
par moindres carr´es. Cependant, le Th´eor`eme de Gauss-Markov implique que
ces estimations seront moins efficaces que les estimations OLS qui utilisent
les donn´ees brutes. C’est le cas, puisque la proc´edure d’ajustement saisonnier
r´eduit la variation des variables ind´ependantes et elle r´eduit ´egalement la
pr´ecision de l’estimation de β. Ce plus, la seconde ´egalit´e de (19.39) r´eclame
que tous les ´el´ements de X soient ind´ependants de tous les ´el´ements de u,
et elle ´elimine implicitement la possibilit´e d’inclure des variables d´ependantes
retard´ees dans la matrice X.
Une seconde possibilit´e, qui rend l’utilisation de donn´ees ajust´ees par
saison plus attaryante est que le DGP soit
y −y
s
= (X −X
s

0
+u, u ∼ IID(0, σ
2
I). (19.40)
Ici y
s
et X
s
d´esignent les parties de y et Xattribu´ees aux saisons. Suppopons
que les poids filtrants aient ´et´e choisis de telle mani`ere que toute saisonnalit´e
19.6 L’Ajustement Saisonnier 697
soit ´elimin´ee. Cela implique que Φy
s
= 0 et ΦX
s
= 0, ce qui implique en
retour que
Φy = Φ

(X −X
s

0
+y
s
+u

= Φ(Xβ
0
+u).
Si l’on substitue Φ(Xβ
0
+ u) `a Φy dans la premi`ere ligne de (19.39), sans
changer la suite de (19.39), on conclue que
˜
β est convergent vers β
0
.
Dans cette seconde situation, l’alternative consistant simplement `a r´egres-
ser les donn´ees brutes y sur X n’est pas du tout attrayante. L’estimation OLS
de β est
ˆ
β =

X

X

−1
X

y
= β
0
+

X

X

−1
X

−X
s
β
0
+y
s
+u

,
et elle ne sera bien ´evidemment pas convergente vers β
0
`a moins que X
ne soit asymptotiquement orthogonale `a la fois `a X
s
et y
s
. Mais une telle
condition ne peut ˆetre valide que si aucune variable de X ne manifeste une
quelconque variation saisonni`ere. Par cons´equent, si l’on d´esire utiliser des
donn´ees ajust´ees par saison, il faut incorporer une saisonnalit´e de fa¸con ex-
plicite dans le mod`ele. Nous traiterons ce th`eme dans la section qui suit.
Souvenons-nous que ces r´esultats ne sont valides que si le mˆeme filtre
lin´eaire est utilis´e pour l’ajustement saisonnier de toutes les s´eries. Si l’on
multiplie les filtres pour les diff´erentes s´eries, ce qui sera presque toujours le
cas avec des donn´ees ajust´ees par les proc´edures officielles, on ne peut plus
affirmer que les r´egressions qui emploient des donn´ees ajust´ees par saison
produiront des estimations convergentes, que les donn´ees aient ´et´e g´en´er´ees
par un mod`ele comme (19.38) ou par un mod`ele comme (19.40). On peut
juste esp´erer qu’une telle d´efaillance dans la convergence soit faible. Consulter
Wallis (1974).
Une limitation beaucoup plus s´erieuse concernant la convergence dans
les r´esultats pr´ec´edents est qu’il supposent l’absence totale de variable d´epen-
dante retard´ee parmi les r´egresseurs. Lorsqu’il existe de telles variables, et
cela sera le cas pour tout mod`ele dynamique et pour tout mod`ele transform´e
de fa¸con `a permettre la corr´elation en s´erie des al´eas, il n’y a aucune raison
de croire que la r´egression par moindres carr´es utilisant des donn´ees ajust´ee
avec un filtre lin´eiare produira des estimations convergentes. En r´ealit´e, des
travaux r´ecents ont montr´e que, dans les mod`eles comportant un seul retard
de la variable d´ependante, l’estimation du coefficient de la variable retard´ee
tend g´en´eralement `a ˆetre s´ev`eement biais´e lorsque l’on utilise des donn´ees
ajust´ees par saison. Consulter Jaeger et Kunst (1990), Ghysels (1990), et
Ghysels et Perron (1993).
Afin d’illustrer ce r´esultat important, nous avons g´en´er´e des donn´ees ar-
tificielles `a partir d’un cas particulier du mod`ele
y
t
= α +βy
t−1
+D
t
γ +u
t
, u
t
∼ N(0, σ
2
), (19.41)
698 Mod` eles de R´ egressions pour Donn´ ees Chronologiques
−1.00 −0.75 −0.50 −0.25 0.00 0.25 0.50 0.75 1.00
−0.10
0.00
0.10
0.20
0.30
................................................................................................................................................................................................. ............ .......... ....................................................................................................................... ......... ........ ................................................................................................................ .... .... .... .... .................................... ............ .... .................................... ........ ........ ........................................................................................................... .......... .......... ........................................................................................................................ ............ ............ ............ ........................................................................................................................................................ .........................
............................................................................................................................................................................................................... .......... .......... ................................................................................................................. ........ ........ ................................ ........................................................................ ........ ........ ................................................................................................ ........ ............................................................................................................ .......... .......... ........................................................................................................................ .......... .......... ............ ............................................................................................................................................... .....
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..............
.............
n = 400
....................................................................................................... . . . . . . . . . . . .
. . . . . . . . . . . . .
n = 50
Figure 19.2 Biais dˆ u `a l’ajustement saisonnier
o` u D
t
est la t
i`eme
ligne d’une matrice de dimension n × 3 de variables
saisonni`eres muettes. La s´erie y
t
a ensuite ´et´e soumise `a un filtre lin´eaire
que l’on pourrait utiliser pour l’ajustelment saisonnier,
6
et la s´erie “ajust´ee”
a ensuite ´et´e r´egress´ee sur une constante et sur sa propre valeur r´etard´ee
pour fournir une estimation
˜
β. Nous avons ex´ecut´e cette proc´edure pour 199
valeurs de β allant de −0.99 `a 0.99, pour des tailles d’´echantillons diverses, et
les exp´eriences furent r´ep´et´ees un grand nombre de fois afin de r´eduire l’erreur
axp´erimentale (voir le Chapitre 21).
La Figure 19.2 illustre le biais estim´e de
˜
β en fonction de β. Seuls les
r´esultats pour n = 50 (bas´e sur 4000 ex´ecutions) et pour n = 400 (bas´es
sur 2000 ex´ecutions) sont report´es. Remarquons que n est le nombre des
observations pour les s´eries ajust´ees par saison, qui est inf´erieur de 54 au
nombre des observations initiales. On voit clairement `a partir de la figure
que, pour la plupart des valeurs de β,
˜
β est s´ev`erement biais´e vers le haut.
Ce biais ne se dissipe pas lorsque la taille de l’´echantillon s’accroˆıt; en r´ealit´e,
pour de nombreuses valeurs de β, il est plus fort avec n = 400 qu’avec n = 50.
La conclusion semble in´eluctable que
˜
β est un estimateur non convergent et
que l’amplitude de cette non convergence est en g´en´eral assez forte.
Un autre r´esultat int´eressant est ressorti de cette batterie d’exp´eriences.
L’estimation de σ qui utilise les donn´ees ajust´ees par saison est biais´ee vers
6
La valeur courante de la s´erie brute est associ´e au poins 0.84. Les 12 valeurs de
retard et d’avance sont associ´ees aux poids 0.08, 0.07, 0.06, −0.16, 0.05, 0.05,
0.04, −0.12, 0.03, 0.03, 0.02, et −0.08. Les valeurs particuli`eres de cas poids
n’ont pas affect´e les r´esultats qualitatifs.
19.7 Mod´ eliser la Saisonnalit´ e 699
le bas dans une large mesure, avoisinant en moyenne entre 87% et 92% de
sa v´eritable valeur. Par contre, lorsque le mod`ele exact (19.41) est estim´e
`a l’aide des donn´ees brutes, l’estiamtion de σ est pratiquement sans biais,
comme pr´evu. Ces r´esultats convergent vers les r´esultats obtenus par Plosser
(1979a), qui trouva que les mod`eles estim´es avec des donn´ees ajust´ees par
saison poss`edent toujours des variances de r´esidus plus faibles que celes cor-
respondant aux mod`eles estim´es avec les donn´ees brutes. Quoi qu’il en soit,
Plosser trouva que les pr´evisions fond´ees sur ces derniers seront plus fines
que celles fond´ees sur les premiers. Ces conclusions sugg`erent que l’on ne de-
vrait jamais choisir un mod`ele bas´e sur les donn´ees ajust´ees par saison plutˆot
qu’un mod`ele bas´e sur les donn´ees brutes simplement parce que les premiers
semblent s’ajuster un peu mieux.
L’usage des donn´ees ajust´ees par saison dans les travaux ´econom´etriques
appliqu´es est tr`es r´epandu, et il est en v´erit´e quelquefois difficile de l’´eviter.
Cependant les r´esultats expos´es dans cette section sugg`erent que cette attitude
peut souvent ˆetre imprudente. Mˆeme pour des mod`eles statiques, il est prob-
able que des probl`emes surgissent si les proc´edures officielles d’ajustement
saisonnier utilisent en r´ealit´e des filtres diff´erents. Pour les mod`eles dy-
namiques la non convergence potentielle provenant de l’utilisation de donn´ees
ajust´ees par saison paraˆıt tr`es marqu´ee. Dans la prochaine section, nous
discuterons par cons´equent des approches vari´ees de la sp´ecification et de
l’estimation des mod`eles qui emploient des donn´ees qui ne sont pas ajust´ees
par saison.
19.7 Mod
´
eliser la Saisonnalit
´
e
Les r´esultats de la section qui pr´ec`ede sugg`erent que, lorsque l’on dispose des
donn´ees brutes, il est probablement plus judicieux de les utiliser plutˆot que
de s’appuyer sur des donn´ees officielles ajust´ees par saison. Malgr´e tout, cela
r´eclame une bonne quantit´e de travail suppl´ementaire. L’estimation simple
d’un mod`ele qui n’est pas con¸cu pour des donn´ees saisonni`eres est rarement
appropri´ee. Une telle approche a toutes les chances de produire des estima-
tions des param`etres s´ev`erement biais´ees si la variation saisonni`ere d’une ou
de plusieurs variables ind´ependantes s’av`ere ˆetre corr´el´ee (mˆeme si elle ne la
provoque pas) avec la variation saisonni`ere de la variable d´ependante. Il ex-
iste de nombreux moyens de g´erer la variation saisonni`ere dans les mod`eles de
r´egression. C’est dans cette section que nous discutons de certaines d’entre
elles.
La strat´egie la plus simple pour la sp´ecification de mod`eles qui utilisent
des donn´ees brutes consiste `a inclure des varaibles saisonni`eres muettes dans le
mod`ele de r´egression lin´eaire, comme dans (19.36). Si la structure saisonni`ere
a ´et´e constante au ccours du temps, de sorte que les trois varaibles saisonni`eres
muettes (dans le cas de donn´ees trimestrielles) ou les onze variables saisonni`ere
700 Mod` eles de R´ egressions pour Donn´ ees Chronologiques
muettes (dans le cas de donn´ees mensuelles) rendent compte de fa¸con satis-
faisante des effets de a saisonnalit´e, cette approche semble ˆetre ad´equate.
Cependant, elle ne sera pas appropri´ee lorsque la structure de la saison-
nalit´e des variables d´ependantes ou ind´ependantes est changeante au cours
de la p´eriode d’´echantillonnage. Une possibilit´e dans ce cas consiste `a in-
clure un ou plusieurs ensembles de variables saisonni`eres muettes combin´ees
`a des tendances annuelles croissantes, en mˆeme temps que des variables
saisonni`eres muettes ordinaires. La pertinence des ensembles additionnels
de variables muettes peut facilement ˆetre test´ee aux moyens des tests en
F `a la mani`ere habituelle. Une critique `a cette approche, ainsi que nous
l’avons not´e pr´ec´edemment, est qu’elle n’a pas de sens asymptotiquement. De
plus, un mod`ele qui poss`ede des variables saisonni`eres `a tendance `a toutes
les chances d’ˆetre inadapt´e `a la pr´evision, puisque mˆeme si les variables
saisonni`eres muettes rendent compte de fa¸con satisfaisante des changements
de la structure de la saisonnalit´e dans l’´echantillon, il n’y a aps de raison de
croire qu’elles le feront en dehors de l’´echantillon. Davidson et MacKinnon
(1983c) offrent un exemple quelque peu extrˆeme de cette approche. Dans cet
article, pas moins de 15 variables saisonni`eres muettes, avec des tendances
allant jusqu’au quatri`eme ordre, furent incluses dans des mod`eles utilisant
des donn´ees trimestrielles, parce que cela semblait ˆetre n´ecessaire pour rendre
compte de toute la saisonnalit´e dans les donn´ees.
Une seconde strat´egie consiste `a mod´elisr les al´eas d’un mod`ele de
r´egression pour qu’ils ob´eissent `a une esp`ece quelconque de processus ARMA
saisonnier, c’est-`a-dire un processus ARMA avec des coefficients non nuls
uniquement sur les retards des saisons. Un tel processus, qui peut ˆetre ad´equat
pour les donn´ees trimestrielles, est le processus Ar(1) simple que nous avons
rencontr´e pour la premi`ere fois dans la Section 10.5:
u
t
= ρ
4
u
t−4

t
, ε
t
∼ IID(0, ω
2
), (19.42)
o` u ρ
4
est le param`etre `a estimer, et ω
2
est la variance de ε
t
. Un autre processus
Ar purement saisonnier consacr´e aux donn´ees trimestrielles est
u
t
= ρ
4
u
t−4

8
u
t−8

t
, ε
t
∼ IID(0, ω
2
), (19.43)
qui est l’analogue d’un processus AR(2) consacr´e `a des donn´ees non saison-
ni`eres.
Dans de nombreux cas, les al´eas peuvent manifester `a la fois de la
corr´elation saisonni`ere et de la corr´elation non saisonni`ere. Cela sugg`ere que
l’on peut combiner un processus saisonnier avec un processus qui ne l’est pas.
Supposons, par exemple, que l’on veuille combiner un processu AR(1) avec
un processus AR(4) simple. Une approche ferait combiner ces deux processus
de fa¸con additive, produisant
u
t
= ρ
1
u
t−1

4
u
t−4

t
, ε
t
∼ IID(0, ω
2
). (19.44)
19.7 Mod´ eliser la Saisonnalit´ e 701
Une seconde approche ferait combiner ces deux processus de fa¸con multiplica-
tive, comme dans
(1 −ρ
1
L)(1 −ρ
4
L
4
)u
t
= ε
t
, ε
t
∼ IID(0, ω
2
),
que l’on pourrait ´ecrire diff´eremment, en oubliant la notation avec l’op´erateur
retard, comme dans
u
t
= ρ
1
u
t−1

4
u
t−4
−ρ
1
ρ
4
u
t−5

t
, ε
t
∼ IID(0, ω
2
). (19.45)
Aussi bien (19.44) que (19.45) paraissent probables, et il n’existe aucune raison
majeure a priori de pr´ef´erer l’un `a l’autre.
A l’´evidence, un grand nombre de processus AR et ARMA diff´erentes
pourraient ˆetre employ´es pour mod´eliser la variaiton saisonni`ere de l’al´ea
dans un mod`ele de r´egression. Il existe une litt´erature tr`es d´evelopp´ee sur
les processus ARMA saisonniers; consulter, parmi d’autre auteurs, Box et
Jenkins (1976), Harvey (1981), et Ghysels (1991). Cependant, l’int´erˆet que
repr´esentent de tels processus pour mod´eliser la saisonnalit´e n’est pas de tout
imm´ediat. D’un cˆot´e, ils offrent g´en´eralement une fa¸con assez ´econome de
le faire; par exemple (19.42) n’emploie qu’un seul param`etre additionnel, et
(19.13) n’en a que deux. De plus, il est certainement exact que si un mod`ele
de r´egression ne rend pas compte de fa¸con ad´equate de la saisonnalit´e, la
corr´elation s´erielle d’ordre quatre se manifestera n´ecesairement. Alors le test
de cette corr´elation fournit souvent un test diagnostique utile. Mais, de mˆeme
que la corr´elation en s´erie `a l’ordre un ne signifie pas que les al´eas ob´eissent en
v´erit´e `a un processus AR(1), la corr´elation en s´erie `a l’ordre quatre ne signifie
pas non plus qu’ils ob´eissent `a un processus AR(4).
L’´enorme difficult´e relative aux processus ARMA saisonniers est qu’ils
ne peuvent pas saisir l’un des caract´eristiques importantes de la saisonnalit´e,
en l’occurrence le fait que des saisons diff´erentes de l’ann´ee poss`edent des
particularit´es diff´erentes: l’´et´e n’est pas simplement l’hiver avec un nouveau
nom. Mais en ce qui concerne un processus ARMA, l’´et´e est juste l’hiver
avec un nom diff´erent. Si les al´eas ob´eissent `a un sch´ema saisonnier partic-
ulier au d´ebut de l’´echantillon, alors il est assez probable qu’ils ob´eissent au
mˆeme sch´ema l’ann´ee suivante. Mais pour un processus ARMA stationnaire,
l’influence des conditions initiales tend vers z´ero lorsque le temps passe. Ainsi
il n’y a aucune raison de croire que le sch´ema saisonnier 10 ou 20 ans apr`es le
d´ebut de l’´echantillon poss`edera une quelconque ressemblance avec le sch´eam
d’origine. En fait, pour T suffisamment ´elev´e, les esp´erances de u
T
, u
T+1
,
u
T+2
, et u
T+3
conditionellement `a u
1
, u
2
, u
3
et u
4
sont toutes (presque) nulles.
Alors l’utilisation d’un processus ARMA pour mod´eliser la saisonnalit´e im-
plique l’hypoth`ese que tout sch´ema de saisonnalit´e particulier est transitoire;
dans le long terme, tout sch´ema est envisageable. Cela nous entraˆıne `a croire
que l’on utilisera sˆ urement pas le sch´ema saisonnier ARMA pour mod´eliser
le sch´ema saisonnier d’un objet tel que le prix des framboises, puisque le
702 Mod` eles de R´ egressions pour Donn´ ees Chronologiques
mod`ele serait incapable d’expliquer que le prix a toutes les chances d’ˆetre
inhabituellement ´elev´e au milieu de l’hiver ou lors de la r´ecolte. Un moyen
´evident de contourner ce probl`eme serait d’inclure des variables saisonni`eres
muettes dans le mod`ele. Les variables saisonni`eres muettes permettraient
aux diff´erentes saisons d’ˆetre naturellement diff´erentes, alors que le processus
ARMA saisonnier permettrait au sch´ema saisonnier d’´evoluer dans le temps.
Une troisi`eme strat´egie consiste `a permettre `a certains coefficients de
la fonction de r´egression de varier dans chaque saison. Ainsi, si le mod`ele
originel poss`ede k coefficients, on estimerait un mod`ele avec 4k ou 12k co-
efficients. Cela serait pertinent si les variations du sch´ema de saisonnalit´e
dans le temps ´etaient associ´ees `a des modifications des valeurs de certaines
variables ind´ependantes dans le temps. Une objection imm´ediate `a cette ap-
proche est que le nombre de coefficients serait souvent tr`es ´elev´e compara-
tivement `a la taille de l’´echantillon, et ils tendront tous `a ˆetre estim´es avec
trop peu de pr´ecision. Gersovitz et MacKinnon (1978) ont `a cette occasion
sugg´er´e l’utilisation des informations a priori de r´egularit´e, comparables `a
celles dont nous avons discut´e lors de la Section 19.3 pour l’estimation des re-
tards ´echelonn´es, afin d’´eviter des variations trop fortes des coefficients d’une
saison `a l’autre. Cela paraˆıt ˆetre une contrainte raisonnable `a imposer dans
le cas de donn´ees mensuelles, mais cela paraˆıtrait difficile `a justifier dans le
cas de donn´ees trimestrielles;
Une quatri`eme strat´egie consiste `a incorporer des dynamiques saison-
ni`eres directement dans la sp´ecification de la fonction de r´egression, `a l’aide
d’une forme quelconque de mod`ele ADL saisonnier. Un mod`ele partic-
uli`erement simple de ce genre est
(1 −L
4
)y
t
= β
0

1
(1 −L
4
)x
t

2
(y
t−4
−λx
t−4
) +u
t
.
Cela ressemble `a un mod`ele ADL(1, 1) ´ecrit sous sa forme `a correction
d’erreur —`a comparer `a (19.30) —mais avec des retards `a la quatri`eme
p´eriode au lieu des retards `a une p´eriode. Il est presque certainement trop
simple, bien sˆ ur, et l’addition de variables saisonni`eres muettes ou de retards
de y
t
et x
t
. Un article tr`es connu qui estime les mod`eles ALD saisonniers fur
´ecrit par Davidson, Hendry, Srba, et Yeo (1978).
A l’exception discutable des mod`eles ADL saisonniers, les strat´egies
aper¸cues jusqu’`a pr´esent sont essentiellement m´ecaniques. On commence avec
un mod`ele non saisonnier et on le transforme afin de lui faire manipuler la
saisonnalit´e. Ce n’est sˆ urement pas le meilleur moyen de proc´eder. Dans
un monde id´eal, on aimerait incorporer la saisonnalit´e d`es le d´epart dans le
mod`ele. Cela a pourtant toutes les chances de rendre l’´elaboration du mod`ele
beaucoup plus difficilie, et cela explique sans doute pourquoi peu d’auteurs
s’y sont attaqu´es, `a l’exception de Plosser (1979b), Miron (1986), et Osborn
(1988, 1991). A moins que la th´eorie ´economique ne prenne explicitement en
compte la saisonnalit´e, il sera tr`es difficile aux ´econom`etres d’int´egrer cette
saisonnalit´e dans les mod`eles qu’ils estiment.
Termes et Concepts 703
19.8 Conclusion
Dans ce chapitre, nous avons vu un certain nombre de probl`emes qui appa-
raissent fr´equemment lorsque l’on tente d’estimer des mod`eles de r´egression
`a l’aide de donn´ees temporelles. Dans la majeure partie du chapitre, nous
avons suppos´e que toutes les s´eries sont stationnaires, ou I(0), de sorte que l’on
peut employer des m´ethodes d’estimation classiques et la th´eorie asymptotique
standard. Pour de nombreuses s´eries cependant, cette hypoth`ese peut ˆetre en-
freinte `a moins de prendre les diff´erences premi`eres avant l’estimation. Mais
comment sait-on qu’une op´eration des diff´erences premi`eres est n´ecessaire?
Dans le chapitre qui suit, nous discutons de la mani`ere de r´epondre `a cette
question, et il nous permet d’aborder des th`emes importants qui lui sont rat-
tach´es.
Termes et Concepts
retards d’Almon
mod`eles ADL(p, q) et mod`eles
ADL(1, 1)
mod`ele autor´egressif `a retard
´echelonn´e (ADL)
mod`ele dynamique
forme `a correction d’erreur (d’un
mod`ele ADL)
terme de correction d’erreur
poids filtrant
op´erateur de la diff´erence premi`ere
causalit´e au sens de Granger dans les
VAR
variables int´egr´ees
variables I(0) et I(1)
filtre lin´eaire
estimation mixte
mod`ele d’ajustement partiel
mod`ele PDL(q, d)
retard ´echelonn´e polynomial (PDL)
marche al´eatoire, avec ou sans d´erive
proc´edure d’ajustement saisonnier
bas´ee sur la r´egression
saisonnalit´e
donn´ees ajust´ees par saison
mod`ele ADL saisonnier
processus AR saisonnier
variation saisonni`ere
informations a priori de r´egularit´e
r´egression erron´ee
contraintes stochastiques
variable `a tendance stationnaire
mod`ele `a vecteur autor´egressif
processus VAR(p)

Sign up to vote on this title
UsefulNot useful