You are on page 1of 118

Econométrie des séries temporelles

Description des séries temporelles


Premières définitions

Définition 1.

Une série temporelle est un ensemble d’observations, x t, chacune étant


enregistrée à un instant spécifique t.

On rencontre des séries temporelles dans de nombreux domaines tels que la
médecine (étude du rythme cardiaque), les télécommunications (étude du trafic
internet et plus particulièrement l’ évolution temporelle du nombre de paquets
TCP par exemple) ou la finance (étude de l’ évolution temporelle de l’indice S&P).

Le but de ce cours est de présenter des techniques pour modéliser de telles
observations c’est à dire de proposer un modèle probabiliste permettant de
représenter les données. Une fois qu’un modèle satisfaisant à été trouvé, il devient
alors possible d’utiliser un tel modèle pour prédire les valeurs futures des
observations.
Premières définitions
Premières définitions
Stationnarité
Stationnarité
Processus Trend Stationary

rocessus TS (Trend stationary) s’écrit:

yt = α + βt + εt où εt représente l’erreur du modèle à la date t.

Il présente une non stationnarité de nature déterministe. Le processus TS


est non stationnaire car E(yt) = α+ βt dépend du temps t.

e processus yt peut être stationnarisé en retranchant à y t la valeur estimée

ar la méthode des Moindres Carrés Ordinaires


Processus Differency Stationary
Processus Differency Stationary
Processus Differency Stationary
Processus Differency Stationary

Une série est dite intégrée d’ordre d (notée yt~> I(d)) s’il convient de la
différencier d fois afin de la stationnariser.
La série stationarisée est alors intégrée d’ordre 0 et est notée yt~> I(0)
Fonction d’autocorrélation
Fonction d’autocorrélation
Méthode d’estimation des moindres carrés
ordinaires
Méthode d’estimation des moindres carrés
ordinaires
Méthode d’estimation des moindres carrés
ordinaires
Méthode d’estimation des moindres carrés
ordinaires
Méthode d’estimation des moindres carrés
ordinaires
Méthode d’estimation des moindres carrés
ordinaires
Méthode d’estimation des moindres carrés
ordinaires
Méthode d’estimation des moindres carrés
ordinaires
Hypothèses et propriétés des estimateurs
de MCO
Hypothèses et propriétés des estimateurs de
MCO
Hypothèses et propriétés des estimateurs de
MCO

Théorème de Gauss-Markov :

Les estimateurs des MCO ont la plus petite variance parmi les
estimateurs linéaires sans biais.

On dit que ce sont des estimateurs BLUE (Best Linear Unbiaised


Estimator).
Test de stationnarité

l existe plusieurs tests de stationnarité. Nous étudieront le test de Dickey Fuller


et le test de Phillips et Perron.

est de Dickey Fuller simple

e test de Dickey Fuller permet de savoir si une série est stationnaire ou non et
permet aussi de déterminer la bonne manière de stationnariser la série.
Test de stationnarité
Test de stationnarité
Stratégie simplifié du test de Dickey Fuller
Stratégie simplifié du test de Dickey Fuller
Stratégie simplifié du test de Dickey Fuller
Stratégie simplifié du test de Dickey Fuller
Stratégie simplifié du test de Dickey Fuller
Stratégie simplifié du test de Dickey Fuller
Stratégie simplifié du test de Dickey Fuller
Stratégie simplifié du test de Dickey Fuller
test de Dickey Fuller Augmenté
test de Dickey Fuller Augmenté
test de Dickey Fuller Augmenté
test de Dickey Fuller Augmenté
test de Dickey Fuller Augmenté
test de Dickey Fuller Augmenté
test de Dickey Fuller Augmenté
test de Dickey Fuller Augmenté
test de Dickey Fuller Augmenté
test de Dickey Fuller Augmenté
test de Dickey Fuller Augmenté
test de Dickey Fuller Augmenté
test de Dickey Fuller Augmenté
test de Dickey Fuller Augmenté
Les modèles ARIMA

Typologie des modèles AR


Typologie des modèles MA
Typologie des modèles ARMA
Typologie des modèles AR
Typologie des modèles AR
Typologie des modèles MA
Typologie des modèles MA
Typologie des modèles MA
Typologie des modèles ARMA
Typologie des modèles ARMA
Typologie des modèles ARMA
Typologie des modèles ARMA
Typologie des modèles ARMA
Typologie des modèles ARMA
Typologie des modèles ARMA

Les modèles AR, MA, ARMA ne sont représentatifs que de chroniques :


stationnaires en tendance ;
corrigées des variations saisonnières.
Processus ARIMA et SARIMA

Les tests de Dickey-Fuller et Dickey-Fuller Augmenté envisagés précédemment


permettent de déterminer si la série est stationnaire et dans le cas d’une
nonstationnarité de quel type il s’agit : TS et DS.

Si la série étudiée est de type TS, il convient de la stationnariser par régression
sur le temps et le résidu d’estimation est alors étudié selon la méthodologie
de Box-Jenkins. Ceci permet de déterminer les ordres p et q des parties AR et
MA du résidu. Le modèle est toujours dans ce cas un ARMA(p, q).
Processus ARIMA et SARIMA
La méthode de BOX et Jenkins

a partie autorégressive d’un processus, notée AR, est constituée par une
combinaison linéaire finie des valeurs passées du processus. La partie moyenne
mobile, notée MA, est constituée d’une combinaison linéaire finie en t des
valeurs passées d’un bruit blanc.

old (1954) montre que les modèles ARMA permettent de représenter la plupart
des processus stationnaires

’approche de Box et Jenkins (1976) consiste en une méthodologie d’étude


systématique des séries chronologiques à partir de leurs caractéristiques afin de
déterminer, dans la famille des modèles ARIMA, le plus adapté à représenter le
phénomène étudié.
La méthode de BOX et Jenkins

rois étapes principales sont définies:

Recherche de la représentation adéquate: L’identification

Estimation des paramètres

Tests d’adéquation du modèle et prévision


La recherche de la représentation
adéquate: l’identification

a phase d’identification est la plus importante et la plus difficile : elle consiste à


déterminer le modèle adéquat dans la famille des modèles ARIMA. Elle est
fondée sur l’étude des corrélogrammes simple et partiel. Nous pouvons essayer
d’édicter quelques règles simples facilitant la recherche des paramètres p, d, q
du modèle ARIMA.

essaisonalisation

ans le cas d’une série affectée d’un mouvement saisonnier, il convient de la


retirer préalablement à tout traitement statistique. Cette saisonnalité est
ajoutée à la série prévue à la fin du traitement afin d’obtenir une prévision en
terme brut.
La recherche de la représentation
adéquate: l’identification

2.Recherche de la stationnarité en terme de tendance

Si l’étude du corrélogramme simple et les tests statistiques s’y rapportant


(statistique Q) présagent d’une série affectée d’une tendance, il convient d’en
étudier les caractéristiques selon les tests de Dickey-Fuller. La méthode
d’élimination de la tendance est fonction du processus DS ou TS sous-jacent à la
chronique étudiée.

Après stationnarisation, nous pouvons identifier les valeurs des paramètres p, q


du modèle ARMA.
2.Si le corrélogramme simple n’a que ses q premiers termes (q = 3 maximum)
différents de 0 et que les termes du corrélogramme partiel diminuent lentement,
nous pouvons pronostiquer un MA(q) .
La recherche de la représentation
adéquate: l’identification

i le corrélogramme partiel n’a que ses p premiers termes (p = 3 maximum)


différents de 0 et que les termes du corrélogramme simple diminuent
lentement, cela caractérise un AR(p) .

i les fonctions d’autocorrélation simple et partiel ne paraissent pas tronquées, il


s’agit alors d’un processus de type ARMA, dont les paramètres dépendent de la
forme particulière des corrélogrammes.
Estimation des paramètres
Estimation des paramètres
Estimation des paramètres
Test d’adéquation du modèle et prévisions

Les paramètres du modèle étant estimés (on vérifie la convergence de la


procédure itérative d’estimation), nous examinons les résultats d’estimation.

Les coefficients du modèle doivent être significativement différents de 0 (le test


du t de Student s’applique de manière classique). Si un coefficient n’est pas
significativement différent de 0, il convient d’envisager une nouvelle spécification
éliminant l’ordre du modèle AR ou MA non valide.
L’analyse des résidus : si les résidus obéissent à un bruit blanc, il ne doit pas
exister d’autocorrélation dans la série et les résidus doivent être
homoscédastiques. Les tests suivants peuvent être utilisés.
Test d’adéquation du modèle et prévisions

le test de Durbin Watson, bien qu’il ne permette de détecter que des
autocorrélations d’ordre 1 ;
les tests de Box et Pierce et de Ljung et Box qui permettent de tester l’ensemble
des termes de la fonction d’autocorrélation. Si le résidu est à mémoire, cela
signifie que la spécification du modèle est incomplète et qu’il convient d’ajouter au
moins un ordre au processus
le test ARCH d’hétéroscédasticité effectué à partir de la fonction
d’autocorrélation du résidu au carré.
Test d’adéquation du modèle et prévisions

Les paramètres du modèle étant estimés (on vérifie la convergence de la


procédure itérative d’estimation), nous examinons les résultats d’estimation.

Les coefficients du modèle doivent être significativement différents de 0 (le test


du t de Student s’applique de manière classique). Si un coefficient n’est pas
significativement différent de 0, il convient d’envisager une nouvelle spécification
éliminant l’ordre du modèle AR ou MA non valide.
L’analyse des résidus : si les résidus obéissent à un bruit blanc, il ne doit pas
exister d’autocorrélation dans la série et les résidus doivent être
homoscédastiques. Les tests suivants peuvent être utilisés.
Test d’adéquation du modèle et
prévisions

a phase de validation du modèle est très importante et nécessite le plus souvent


un retour à la phase d’identification.

orsque le modèle est validé, la prévision peut alors être calculée à un horizon de
quelques périodes, limitées car la variance de l’erreur de prévision croît très vite
avec l’horizon.

ous pouvons résumer les différentes étapes de la méthodologie de Box et

Jenkins à partir du schéma ci dessous


Test d’adéquation du modèle et prévisions

a phase de validation du modèle est très importante et nécessite le plus souvent


un retour à la phase d’identification.

orsque le modèle est validé, la prévision peut alors être calculée à un horizon de
quelques périodes, limitées car la variance de l’erreur de prévision croît très vite
avec l’horizon.

ous pouvons résumer les différentes étapes de la méthodologie de Box et

Jenkins à partir du schéma ci dessous


Test d’adéquation du modèle et prévisions

Série xt analyse du graphique et du


corrélogramme

Analyse de saisonnalité

Test de dickey fuller

Regression sur le temps si TS Passage aux différences si DS

Série stationnaire yt
Test d’adéquation du modèle et prévisions

Série stationnaire yt

Analyse des corrélogramme simple


et partiel

Détermination des ordres p et q du


processus ARMA

Estimation des paramètres

Test de student, les coefficients non


significatifs sont supprimés
Test d’adéquation du modèle et prévisions

Test de student, les coefficients non


significatifs sont supprimés

Test sur les résidus, sont-ils des


bruits blancs.

oui Non, ajout d’un ordre p et q

Prévision par ARMA

Recoloration de la série
(exponentiel, saisonalité
Estimation des paramètres du processus
ARMA(p,q)
Estimation des paramètres du processus
ARMA(p,q)
Estimation des paramètres du processus
ARMA(p,q)
Validation du processus ARMA(p,q)

Tests sur les coefficients :

Parmi les processus ARMA estimés, on ne retiendra que ceux dont tous les
coefficients ont un t de Student > 1,96 (pour un risque de 5% et pour une taille
d’échantillon suffisamment grande : T > 30).

Tests sur les résidus

Test d’autocorrelation

Il existe un grand nombre de tests d’autocorrélation, les plus connus sont ceux de
Box et Pierce (1970) et Ljung et Box (1978).
Le test de Ljung et Box est à appliquer lorsque l’échantillon est de petite taille.
Validation du processus ARMA(p,q)
Validation du processus ARMA(p,q)
Validation du processus ARMA(p,q)
Validation du processus ARMA(p,q)
Validation du processus ARMA(p,q)
Validation du processus ARMA(p,q)
Validation du processus ARMA(p,q)
Validation du processus ARMA(p,q)
Validation du processus ARMA(p,q)
Processus ARCH
Processus ARCH
Processus ARCH
éries non stationnaires, cointégration et modèle à
correction d’erreur(MCE)
Introduction

oient yt~> I(1), xt~> I(1) , xt et yt sont indépendants, si on estime à l’aide des
MCO le modèle suivant :

t = a xt + b + εt

n obtient :

t- a xt t - b = εt ~> I(1) ; εt ne converge pas vers ~> I(0) donc εt n’est pas
stationnaire.
Introduction

Soit yt ~> I(1) xt ~> I(1) , yt et ) xt indépendant. si on estime à l’aide des MCO le
modèle suivant :
y t = a x t + b + εt

on obtient :
yt - a yt - b = εt ~> I(1).

εt ne tend pas vers I(0) ,

εt n’est donc pas stationnaire (le DW est ici très faible).


De plus, on aboutit à une régression dite fallacieuse ou illusoire ("spurious
regression") caractérisée par un R² et des t de Student très élevés alors que les
deux variables n’ont aucun lien entre elles !
Introduction

On peut éviter ce problème en passant les variables en différences premières afin


de les rendre stationnaires (∆ yt ~> I(0) et ∆ xt ~> I(0) si xt et yt sont des processus
non stationnaires aléatoires) et en effectuant la régression suivante :
Introduction

n peut éviter ce problème en passant les variables en différences premières afin de les rendre stationnaires
(∆yt~> I(0) et ∆xt~> I(0) si xt et yt sont des processus non stationnaires aléatoires) et en effectuant la
régression suivante :

∆yt = a ∆xt +
b + μt .
Par ailleurs,
on obtient :
∆yt- a∆xt - b
= μt~> I(0).

Toutefois, il
arrive que l’on souhaite travailler avec des variables plutôt en niveau qu’en différences premières (donc
plutôt avec des variables non stationnaires). Dans ce cas, comment savoir si la régression effectuée est
fallacieuse ou non ?
C’est alors
que la notion de cointégration prend toute son importance ici. Nous n’avons pas de régression fallacieuse
lorsque les variables xt et yt sont cointégrées, c’est à dire lorsque l’on a yt- axt - b = εt~> I(0) alors que yt~>
I(1) et xt~> I(1).
Définition de la cointégration

Granger a montré que si on avait deux variables non stationnaires (y t~> I(1) et
xt~> I(1)), on pouvait avoir : yt- axt - b = εt~> I(1) ou yt- axt - b = εt~> I(0).

Définition

Deux séries non stationnaires (yt~> I(1) et xt~> I(1)) sont dites cointégrées si
on a :
yt- axt - b = εt~> I(0).
Les séries yt et xt sont alors notées :
xt, yt~> CI(1,1).
Test de cointégration entre deux
variables

Etape 1 :
tester l’ordre d’intégration des variables :

Une condition nécessaire de cointégration est que les séries doivent être intégrées
de même ordre. Si les séries ne sont pas intégrées de même ordre, elles ne peuvent
être cointégrées.

Il convient donc de vérifier l’ordre d’intégration des chroniques étudiées à l’aide


par exemple du test de Dickey-Fuller (simple ou augmenté).
Si les séries considérées ne sont pas intégrées de même ordre, il n’y a alors pas de
risque de cointégration et la procédure s’arrête à cette première étape.
Test de cointégration entre deux
variables
Test de cointégration entre deux
variables

Etape 2 :
estimation de la relation de long terme

La stationnarité du résidu est testée à l’aide du test DF ou DFA.


On remarque ici que la relation porte sur les résidus estimés et non pas sur les «
vrais » résidus de l’équation de cointégration. Par conséquent, nous ne pouvons
pas nous référer aux tables de Dickey-Fuller pour mener le test de stationnarité. Il
faut regarder ici les tables de MacKinnon.

Si le résidu est stationnaire nous pouvons alors estimer un modèle appelé modèle
à correction d’erreur (MCE) qui intègre les variables en variation et en niveau
(théorème de la représentation de Granger). L’emploi d’un modèle à correction
d’erreur dans le cas de la cointégration permet d’obtenir des prévisions plus
fiables que si on avait utilisé la relation de long terme car les résultats de
l’estimation de cette relation sont faussés par la non stationnarité des séries.
Modèle à correction d’erreur
Modèle à correction d’erreur

La dynamique de long terme s’exprime de la manière suivante :


yt = axt + b + εt
car à long terme, on a yt-1 = yt , xt-1 = xt et la dynamique de court terme devient à
long terme :
yt= α0+ α1yt+ α2 xt+ α3 xt+ υt
(1- α1)yt= (α2 + α3)xt+ α0 + υt
yt= axt + b + εt
où a = (α2 + α3)/(1- α1), b = α0/(1- α1), εt = υt/(1- α1).

Le MCE s’obtient à partir de la dynamique de court terme :


yt= α0+ α1yt-1+ α2 xt+ α3 xt-1+ υt
yt– yt-1 = α0+ α1yt-1- yt-1 + α2 xt – α2 xt-1 + α2 xt-1 + α3 xt-1+ υt
Modèle à correction d’erreur

∆yt= (α1-1)yt-1 + α2 (xt –xt-1) + α0 +(α2 +α3)xt-1+ υt

∆yt= -(1-α1) yt-1 + α2 (xt –xt-1) + α0 +(α2 +α3)xt-1+ υt

∆yt= -(1-α1)[yt-1 - (α2 +α3) xt-1 / (1-α1) - α0 / (1-α1) ] + α2 ∆xt + υt

∆yt= γ∆xt+ δ(yt-1– axt-1–b) + υt où

α2= γ, δ= -(1-α1) , a = (α2 + α3)/(1- α1 ) et b = α0/(1- α1 )


Explication du MCE avec une seule
variable explicative
• MODELE VAR
Introduction

L’absence de cointégration entre deux séries non stationnaires y 1,t et y2,t


(y1,t~> I(1) et y2,t~> I(1)), mais l’existence d’une causalité entre les séries
stationnaires ∆y1,t et ∆y2,t(∆y1,t~> I(0) et ∆y2,t~> I(0)) nous permet d’estimer un
modèle VAR.
Présentation du modèle VAR
Présentation du modèle VAR

Les variables y1,t, y2,t, ... , yk,t sont stationnaires.


Les perturbations ν1,t , ν2,t , ..., νk,t sont des bruits blancs de variances constantes et
non autocorrélées.
Test de causalité au sens de Granger

Soit le modèle VAR(p) pour lequel les variables y1t et y2t sont stationnaires :

y1,t = γ1 + α11y1,t-1 + α12y1,t-2+ ... + α1py1,t-p + β11y2,t-1 + β12y2,t-2+ ...+


β1py2,t-p + υ1,t
y2,t = γ2 + α21y1,t-1 + α22y1,t-2 + ... + α2py1,t-p + β21y2,t-1 + β22y2,t-2+ ...+ β2py2,t-p + υ2,t

Le test consiste à poser ces deux hypothèses :


y2,t ne cause pas y1,t si l’hypothèse H0suivante est acceptée :

β11 = β12 = β13 = ... = β1p = 0


y1,t ne cause pas y2,t si l’hypothèse H0 suivante est acceptée :
α21 = α22 = α23 = ... = α2p = 0
On teste ces deux hypothèses à l’aide d’un test de Fisher classique.
Test de causalité au sens de Granger

On peut faire le test équation par équation :

H0 : β11 = β12 = β13 = ... = β1p = 0


et y1,t = γ1+ α11y1,t-1 + α12y1,t-2 + ... + α1py1,t-p + υ1,t
H1 : au moins un des coefficients β≠0 et y2,t cause y1,t

H0 : α21 = α22 = α23 = ... = α2p = 0 et


y2,t = γ2+ β21y2,t-1 + β22y2,t-2+ ...+ β2py2,t-p+ υ2,t
H1 : au moins un des coefficients α≠0 et y1,t cause y2,t

Si nous sommes amenés à accepter les deux hypothèses que y 1,t cause y2,t et que y2,t
cause y1,t, on parle de boucle rétroactif.
Estimation du modèle VAR(p)

Dans le cas du modèle VAR, chacune des équations peut être estimée par les MCO,
indépendamment les unes des autres (ou par la méthode de vraisemblance).

Comme il y a énormément de coefficients à estimer dans un modèle VAR, il est


préférable d’effectuer un test de causalité avant de chercher à estimer le modèle
VAR. On pourra ainsi éliminer du modèle à estimer les variables qui
n’interviennent pas sur la variable à expliquer.
Conclusion

 Si xt, yt ~> I(0) et yt- xt a - b ~> I(0) : on estime yt= xt a + b + εt ou un modèle


VAR en niveau pour plusieurs variables.

 Si xt, yt ~> I(1) et yt- xt a - b ~> I(0) : on estime un modèle à correction d’erreur
ou un modèle VECM pour plusieurs variables.

 Si xt, yt ~> I(1) et yt- xt a - b ne tend pas vers I(0) et ∆xt, ∆yt ~> I(0) avec lien de
causalité : on estime la relation ∆yt = ∆xt a + b + ηt ou un modèle VAR en
différence première pour plusieurs variables.

You might also like