You are on page 1of 96

ETUDES DES PROCESSUS STATIONNAIRES

Séries non stationnaires:

Séries stationnaires:

12/08/21 1
Simulation d’un Bruit Blanc Gaussien:

Théorème de WOLD :
Tout processus stationnaire d’ordre deux  x t  t Z peut être représenté sous la forme :

xt    j t  j  u t
j 0

 
 0  1, j  IR , j  IN  ,   2j   et u t BB 0 , u2 , cov  ut , t  j   0 , j  Z
j 0

Remarque :
-Une composante linéaire stochastique du processus.
-Une composante déterministe.
12/08/21 2
II- Fonction d’autocorrélation (F.A.C) et Fonction d’autocorrélation Partielle
(F.A.C.P) :
1- F.A.C :
La F.A.C d’ordre (k) d’un processus  x t  t Z de E  x t   m , notée par  x  k  , est
x  k 
définie :  x  k   , k  Z ,  x  k    1,1 .
 x  0
Le graphe de la F.A.C porte le nom de corrélogramme.

Proposition :
1 k 
var  
ˆx k   1  2   ˆ x2  j  
T  j 1 
ˆ x  k    x  k 
Pour T>>, t  
var  
ˆx k 
Sous H0 :  x  k   0 , Absence d’autocorrélation.

IC   1, 96* var  


ˆx k 


Au seuil de 5%, on remarque que ce coefficient estimé se modifie avec (k). Donc l’IC n’est
pas constant.
1
Si H0 :  x  k   0 , pour k  Z c.a.d  x t  t   ˆx k
est i.i.d alors var   
T
et

IC   1, 96* var  


ˆ x  k    . C’est cet intervalle de confiance qui figure sur le


corrélogramme.

12/08/21 3
2- F.A.C.P :
L’autocorrélation partielle d’ordre (k) désigne la corrélation entre x t et x t  k obtenue,
lorsque l’influence des variables x t  k i  i  k  a été retirée. Elle est notée par p kk .
Proposition 1:
Soit Pk une matrice symétrique formée des (k-1) premières autocorrélations de x t :
 1  x  1    x  k  1 
 
 1 
Pk    
 
  
   k  1 1 
 x 
 1  x  1    x  1 
 
 1 
Pk  

 
 
  
   k  1  x  k  
 x
Pk
Alors p kk  . (En pratique le calcul des éléments de la F.A.C.P utilise les équations de
Pk
Yule-Walker).
Proposition 2:
Pour des échantillons de grande taille, les coefficients p kk d’un AR(p) sont
asymptotiquement distribués selon la loi normale de moyenne nulle et de variance, selon
1
Quenouille(1949), var  ˆp kk   ,si k  p
T
Sous H0 : p kk  0
IC   1, 96* var  ˆp kk  
 
Cet intervalle est constant et identique à celui de la FAC lorsque x t est un BB Gaussien.
12/08/21 4
III- Processus Autorégressif :
1- Définition :
Le processus stationnaire  x t  t Z satisfait une représentation AR(p) ssi :
p
  L  x t  c   t ,c  IR ,   L   1    j L j , j  p ,  j  IR
j 1

0  1, p  IR , t BB  0 ,  2 
c

E  xt   E xtj   p
 m , j  Z
1   j
j 1
Proposition :
Si le processus  x t  t Z est stationnaire, alors toutes les racines du polynôme   L  sont, en
module, strictement supérieures à l’unité.

Remarque :
Un AR(p) est toujours inversible.

2- F.A.C.P d’un AR(p) :

Proposition :
Les F.A.C.P d’un AR(p) Sont nulles pour tout ordre supérieur strictement à p.

12/08/21 5
3- Fonction d’autocovariance d’un AR(p) :
Proposition1 :
La fonction d’autocovariance d’ordre (k) d’un AR(p) est :
 x  k   E  x t  m   x t  k  m   , k  Z
Proposition 2 :
La fonction d’autocovariance d’ordre (k) d’un AR(p) satisfait la relation de récurrence
suivante :
1 x  1  2 x  2      p  x  p    2 , k  0
 x  k    x  k   
1 x  k  1  2 x  k  2      p  x  k  p  , k  Z

4- F.A.C d’un AR(p) :

Proposition :
La F.A.C d’un AR(p) satisfait la relation de récurrence suivante :
1 ,k  0
x  k   
1 x  k  1  2  x  k  2      p  x  k  p  , k  Z

Remarques :

-Si les racines de la fonction de transfert associée à un AR(p) sont réelles, alors les F.A.C
décroissent d’une manière exponentielle amortie lorsque le processus est stationnaire.

-Si les racines de la fonction de transfert associée à un AR(p) sont complexes, alors les F.A.C
décroissent d’une manière sinusoïdale amortie lorsque le processus est stationnaire.

-Si les F.A.C décroissent lentement, on a alors une présomption d’une série non stationnaire.

12/08/21 6
IV- Processus de Moyenne Mobile :
1- Définition :
Le processus stationnaire  x t  t Z satisfait une représentation MA(q) ssi :
q
x t  c    L   t ,c  IR ,   L   1    j L j , j  q ,  j  IR
j 1


 0  1,q  IR  ,  t BB 0 ,  2 
Remarque :
Un MA(q) est toujours stationnaire.

2- Fonction d’autocovariance d’un MA(q) :


Proposition :
La fonction d’autocovariance d’un MA(q) est donnée par :
 
 1  12   22    q2  2 , k  0


 
 x  k     k  1 k 1    q k q  2 , 0  k  q

0 , k  q

3- F.A.C d’un MA(q) :


Proposition :
La F.A.C d’un MA(q) est :
1, k  0

  k  1 k 1    q k q
x  k    2 2 2
,0  k  q
 1  1   2    q
0 , k  q

Remarque :
12/08/21 La FAC d’un MA(q) s’annule à partir de l’ordre (q+1). 7
4- F.A.C.P d’un MA(q) :

Proposition :
Les F.A.C.P d’un MA(q) empruntent soit une allure exponentielle, soit une sinusoïde amortie.

V- Processus Autoregressif-Moyenne Mobile :


1- Définition :
Le processus stationnaire  x t  t Z satisfait une représentation ARMA(p,q) ssi :
  L  x t  c    L   t ,c  IR

t BB 0 ,  2 
2- Fonction d’autocovariance d’un ARMA(p,q) :
Proposition :
Cette fonction satisfait la relation de récurrence de la forme :
 x  k   1 x  k  1  2 x  k  2      p  x  k  p  , k  q
3- F.A.C d’un ARMA(p,q) :
Proposition :
Cette fonction satisfait la relation de récurrence de la forme :
 x  k   1 x  k  1  2  x  k  2      p  x  k  p  , k  q

12/08/21 8
EXERCICE I :

x t  t  0.8t 1

x t  t  0.6t 1  0.3 t 2

x t  0.9x t 1  t

x t  0.9x t 1  0.7 x t  2   t

x t  0.8x t 1  t  0.7 t 1

12/08/21 9
Processus FAC FACP
AR(1) Décroissance exponentielle 1  0 Pic significatif pour le premier retard :
ou sinusoïdale amortie 1  0 . positif si 1  0 et négatif si 1  0 .
Les autres coefficients sont nuls pour
des retards supérieurs à un.
AR(2) Décroissance exponentielle ou Pics significatifs pour le premier et le
sinusoïdale selon les signes de 1 second retard. Les autres coefficients
et de 2 . sont nuls pour des retards supérieurs à
deux.
AR(p) Décroissance exponentielle ou Pics significatifs pour les q premiers
sinusoïdale. retards. Les autres coefficients sont
nuls pour des retards supérieurs à p.
MA(1) Pic significatif pour le premier Décroissance exponentielle 1  0 ou
retard : positif si 1  0 et négatif sinusoïdale amortie   0 .
1
si 1  0 . Les autres coefficients
sont nuls pour des retards
supérieurs à un.
MA(2) Pics significatifs pour le premier et Décroissance exponentielle ou
le second retard. Les autres sinusoïdale selon les signes de 1 et de
coefficients sont nuls pour des 2 .
retards supérieurs à deux.
MA(q) Pics significatifs pour les q Décroissance exponentielle ou
premiers retards. Les autres sinusoïdale.
coefficients sont nuls pour des
retards supérieurs à q.
ARMA(1,1) Décroissance géométrique à partir Décroissance exponentielle 1  0 ou
du premier retard. Le signe est sinusoïdale amortie 1  0 .
déterminé par  1  1  .
ARMA(p,q) Décroissance exponentielle ou Décroissance exponentielle ou
sinusoïdale amortie tronquée après sinusoïdale amortie tronquée après (p-
(q-p) retards. q) retards.

12/08/21 10
EXERCICE II :
Générer les processus sus-indiqués par Eviews.

CREATE EPS 500


GENR EPS = NRND*4
GENR MA1 = EPS+.8*EPS(-1)
GENR MA2 = EPS+.6*EPS(-1) -.3*EPS(-2)
GENR AR1 = 0
SMPL 2 500
GENR AR1 = .9*AR(-1) + EPS
SMPL 1 500
GENR AR2 = 0
SMPL 3 500
GENR AR2 = .8*AR(-1) -.7*AR(-2) + EPS
SMPL 1 500
GENR ARMA=0
SMPL 2 500
GENR ARMA = .8*ARMA(-1)+EPS-.7*EPS(-1)
SMPL 1 500
GENR SARMA=0
SMPL 5 500
GENR SARMA = .8*SARMA(-4)+EPS+.8*EPS(-1)

12/08/21 11
ETUDE DES PROCESSUS NON STATIONNAIRES

Depuis les travaux de Nelson C. R.,. Plosser C., « Trends and random walks in
macroeconomics time series:some evidence and applications », Journal of
Monetary Economics, p.10, 1982, on distingue deux types de processus non
stationnaires:

- Processus de type TS (Trend Stationnary) : des séries qui représentent une non
stationnarité de type déterministe.
- Processus DS (Differency Stationnary) : des séries dont la non stationnarité
émane, éventuellement, d’une saisonnalité. D’une manière générale, on parle de
non stationnarité de type stochastique. Ce sont les modèles de référence pour la
construction des tests de racine unitaire.

I- Processus TS :

Définition : Soit  x t  t Z est un processus de type (TS) qui peut s’écrire sous la
forme : x t  f  t    t
Où  t est processus stochastique stationnaire et f  t  est une fonction linéaire
du temps.

12/08/21 12
Proposition :

Soit f  t   a0  a1t , alors :

E  x t   a0  a1t  E   t 
var  x t   var   t    2
 x  k   0 , k  Z

Où  t BB 0 ,  2 
Remarques :

-La non stationnarité provient la composante déterministe tendancielle.


-L’effet produit par un choc ou par plusieurs chocs aléatoires, à un instant
donné, est transitoire.
-Cette modélisation est de type déterministe, alors la chronique retrouvera son
mouvement de long terme qui est résumé par la droite de la tendance. En
d’autres termes, la variable considérée rejoint alors sa dynamique de long terme
qui déterminée par f  t  .
-Ce résultat illustre l’absence de persistance de chocs ou, encore, l’absence
d’hystérésis pour les processus (TS).

12/08/21 13
Proposition :

Le processus  x t  t Z pourrait être stationnarisé, tel que :


x t  fˆ  t    t ou encore y t  x t   aˆ 0  aˆ 1t    t .

Exercice :


Soit x t  1  0.05t  z t où z t  0.4z t 1   t , z 0  1 et  t BB 0 ,  2 
‘‘Création de la série des chocs’’
SPML 1 50
GENR EPS=NRND
SPML 51 100
GENR EPS=0
‘‘Création de la composante stationnaire Z’’
SMPL 1 100
GENR Z=1
SMPL 2 100
GENR Z=.4*Z(-1)+EPS
‘‘Création de la tendance F’’
SMPL 1 100
GENR F=1+.05*@TREND(1)
‘‘Création de la série X’’
GENR X=F+Z

12/08/21 14
12/08/21 15
II- Processus DS :

Définition :

Un processus non stationnaire  x t  t Z est de type (DS) d’ordre (d), où (d)


désigne l’ordre d’intégration, si le processus filtré  1  L  x t est stationnaire.
d

On dit aussi que le processus  x t  t Z est un processus intégré d’ordre (d), noté
I(d).

Proposition :

Un processus  x t  t Z est de type I(d), si les racines du polynôme   L  ,


associé à sa composante autorégressive, admet (d) racines unitaires :
p
  L  x t  c   t ,c  IR ,   L   1    j L j , j  p ,  j  IR
j 1

0  1,  p  IR  ,  t BB  0 , 2 
Avec   L    1  L  
 L
d

  L  admet des racines à l’extérieur du cercle unité.


Le polynôme 

12/08/21 16
Remarque :
La bonne méthode de stationnarisation d’une série brute  x t  t Z de type (DS)
consiste à la transformer en une série filtrée à des différences premières.

Définition d’un processus de marche aléatoire pure (Random Walk Process) :

Soit  x t  t Z décrit par une représentation de marche aléatoire sans dérive :


x t  x t 1   t

Avec  t BB 0 ,  2 . 

Remarque :
Suite à un raisonnement récursif :

  t  j0  t  j 
E x   E  0

x t   t  j , alors : 
var  x t    E   t  j     2  
 2 
j 0

 j 0 j 0

12/08/21 17
Exercice 1 :

“Création d’un processus de marché aléatoire sans dérive”


CREATE EPS 200
GENR EPS=NRND
GENR RW=0
SMPL 2 200
GENR RW=RW(-1)+EPS
GENR DRW=RW-RW(-1)

12/08/21 18
Exercice 2 :
“Création d’un processus de marché aléatoire avec dérive”

CREATE EPS 200


GENR EPS=NRND
GENR RW=0
SMPL 2 200
GENR RW=5+RW(-1)+EPS
GENR DRW=RW-RW(-1)

12/08/21 19
Exercice 3 :

“Création d’une fausse procédure de stationnarisation”


CREATE EPS 200
GENR EPS=NRND
GENR TS=5+.4*@trend(1)+EPS
GENR RW=0
SMPL 2 200
GENR RW=5+RW(-1)+EPS
SPML 1 200
LS TS C @TREND
GENR RESID1=RESID
LS RW C @TREND
GENR RESID2=RESID

12/08/21 20
12/08/21 21
Remarque:

- L’élimination d’une tendance linéaire d’un processus suivant, au départ, une


marche aléatoire ne fait que créer artificiellement une forte autocorrélation des
résidus pour les premiers retards et introduire un mouvement pseudopériodique.
Ce mouvement est d’ampleur d’autant plus importante que le nombre
d’observation de la chronique de départ est élevé.

- Lorsque un processus de type (TS) est assimilé à un processus de type (DS),


l’on assiste alors à une amplification des valeurs spectrales de fréquences hautes
qui indique l’introduction dans la chronique traitée d’un mouvement cyclique de
court terme.

- Lorsque un processus de type (DS) est assimilé à un processus de type (TS), le


spectre de la série transformée possède une concentration de ses puissances
spectrales autour des faibles fréquences. Il y aura une création d’un mouvement
cyclique long dans la série transformée.

12/08/21 22
III- Test de Racine Unitaire :

1- Test de Dickey-Fuller (1979) simples :

a- Présentation des modèles de base :

Il s’agit d’un test de non stationnarité. Soient les modèles suivants qui serviront
 
de base à ce type de test, tout en supposant que  t BB 0 ,  2 :
 I   1- L  x t  t
 II   1- L   x t      t
 III   1- L   x t  a  bt    t

12/08/21 23
b- Procédure du test :

Modèle (I) :
Soit l’hypothèse de base H0 :   1 , il s’agit d’un processus de type (DS).
H1 :   1, il s’agit d’un processus AR(1).
Modèle (II) :
x t   x t 1  c   t , où c    1   
Soit l’hypothèse de base H0 :   1 , il s’agit d’un processus de type (DS).
H1 :   1, il s’agit d’un processus AR(1) avec
constante.
Modèle (III) :
x t   x t 1  c   t   t , où c  a  1     b et   b  1   
Soit l’hypothèse de base H0 :   1 , il s’agit d’un processus de type (DS) avec
dérive.
H1 :   1, il s’agit d’un processus (TS) avec erreur
ARMA

12/08/21 24
c- Tests d’hypothèses jointes :

Ces tests permettent de distinguer, après avoir effectué le test d’une racine
unitaire, les processus de marche aléatoire des processus (TS).

I x t   x t 1   t
 II  x t   x t 1  c   t
 III  x t   x t 1  c   t   t

12/08/21 25
12/08/21 26
Limite :
Ce test suppose que les termes d’erreur suivent un processus de Bruit Blanc, or
il n’y a pas de raison d’admettre, a priori, cette hypothèse.

2- Test de Dickey-Fuller Augmenté (1981) :

a- Présentation des modèles de base :

Il s’agit d’un test de non stationnarité. Soient les modèles suivants qui serviront
de base à ce type de test, tout en supposant que  t BB 0 ,  2 :  
p
 IV  x t   x t 1    j x t  j 1   t
j 2
p
V  x t   x t 1    j x t  j 1  c   t
j 2
p
VI  x t   x t 1    j x t  j 1  c   t   t
j 2

12/08/21 27
Remarque :

L’intuition de la stratégie du test de Dickey et Fuller Augmenté se résume à


l’élaboration d’un processus de type AR(p) en vue de remédier à une éventuelle
autocorrélation d’ordre (p-1) des innovation d’une représentation AR(1).

b- Procédure du test :

Le test se déroule de la même manière que celle du (DF). Eviews indique


directement les valeurs critiques issues des tables de Mac Kinnon (1991).

Proposition :

La stratégie du test ADF consiste en :


-Une première étape à déterminer le nombre de retard (p) permettant de blanchir
les résidus.
-Une seconde étape à appliquer la stratégie séquentielle du test de DF simple.

12/08/21 28
Détermination du nombre optimal de retards :

La minimisation de critères d’information : le contrôle ex-ante

Critère d’Akaike :

 
AIC ( k )  T log ˆ ˆ2t  2k
Critère de Schwartz (1978) :

 
SC  k   T log ˆ ˆ2t  k log  T 

L’absence d’autocorrélation des innovations : Contrôle ex-post


Portmanteau Test ou Test « Fourre tout ».

1- Test de Box et Pierce :

N
ˆ n2 
Q BP  T   
T 
2  N  k 
n 1

1- Test de Ljung Box :

N ˆ n2
Q LB  T  T  2  
T 
2  N k 
n 1T  n

12/08/21 29
3- Test de Philips et Perron (1988) :

Il est construit pour tenir compte des éventuelles des erreurs hétéroscédastiques.
Ce test se ramène, dans le cas où les erreurs sont homoscédastiques, au test de
DF simple.

1- Estimation par les MCO des trois modèles de DF simple et calcul des résidus
estimés.
1 n 2
ˆ2
2- Estimation de la variance de court terme   ˆ t .
n t 1
3- Estimation de la variance de long terme

ˆS 2  1  ˆ 2  2  1  i  1   
n l n
t t   t t i
n t 1 t 1  l  1  n t i 1

(L) c’est la troncature de Newey et West estimées en fonction du nombre

 100 
2
d’observations où l  4 n
9
.

12/08/21 30
EXERCICE :

Les probabilités critiques indiquent des seuils inférieurs aux seuils de risque de
rejet de l’hypothèse de base.

12/08/21 31
Pratiques des tests de racine unitaire :

Cas du Test D.F :


 I cact   cact 1   t
 II  cact   cact 1  c   t
 III  cact   cact 1  c   t   t

On commence par le modèle (III)

Dependent Variable: DCAC


Method: Least Squares
Date: 12/17/08 Time: 10:11
Sample (adjusted): 2 1160
Included observations: 1159 after adjustments

Variable Coefficient Std. Error t-Statistic Prob.

CAC(-1) -0.008447 0.004113 -2.053788 0.0402


C 14.93911 7.437617 2.008589 0.0448
@TREND 0.002103 0.001896 1.108866 0.2677

R-squared 0.003870 Mean dependent var 0.417204


Adjusted R-squared 0.002147 S.D. dependent var 20.64858
S.E. of regression 20.62640 Akaike info criterion 8.893606
Sum squared resid 491818.4 Schwarz criterion 8.906691
Log likelihood -5150.845 F-statistic 2.245643
Durbin-Watson stat 1.867318 Prob(F-statistic) 0.106321

tˆ  2.053  ttabulée  3.41 , on rejette l’hypothèse d’absence de racine unitaire.


12/08/21 32
genr dcac=cac-cac(-1)
equation eq1.ls dcac cac(-1) c @trend
scalar scr3=@ssr
scalar ddl3=@regobs-@ncoef
equation eq2.ls dcac c
scalar scr3c=@ssr
scalar F3=((scr3c-scr3)/2)/(scr3/ddl3)
On teste l’hypothèse H0 :  c ,  ,     c , 0, 0 
avec F3c  2,1156   2.25  2.99 .
On accepte cette hypothèse, et on passe au modèle (II)
Dependent Variable: DCAC
Method: Least Squares
Date: 12/17/08 Time: 10:34
Sample (adjusted): 2 1160
Included observations: 1159 after adjustments

Variable Coefficient Std. Error t-Statistic Prob.

CAC(-1) -0.007093 0.003928 -1.805839 0.0712


C 13.63563 7.344864 1.856485 0.0636

R-squared 0.002811 Mean dependent var 0.417204


Adjusted R-squared 0.001949 S.D. dependent var 20.64858
S.E. of regression 20.62845 Akaike info criterion 8.892943
Sum squared resid 492341.5 Schwarz criterion 8.901667
Log likelihood -5151.461 F-statistic 3.261054
Durbin-Watson stat 1.867860 Prob(F-statistic) 0.071203

Encore une fois, pour tˆ  1.81  ttabulée  2.86 , on rejette l’hypothèse
12/08/21 d’absence de racine unitaire. 33
equation eq3.ls dcac cac(-1) c
scalar scr2=@ssr
scalar ddl2=@regobs-@ncoef
equation eq4.ls cac cac(-1)
scalar scr2c=@ssr
scalar F2=((scr2c-scr2)/2)/(scr2/ddl2)

On teste l’hypothèse H0 :  c,    0,0 


avec F2c  2,1156   2.34  2.99 ,
On accepte cette hypothèse, et on passe au modèle (I)
Dependent Variable: DCAC
Method: Least Squares
Date: 12/17/08 Time: 10:55
Sample (adjusted): 2 1160
Included observations: 1159 after adjustments

Variable Coefficient Std. Error t-Statistic Prob.

CAC(-1) 0.000174 0.000324 0.536641 0.5916

R-squared -0.000160 Mean dependent var 0.417204


Adjusted R-squared -0.000160 S.D. dependent var 20.64858
S.E. of regression 20.65023 Akaike info criterion 8.894192
Sum squared resid 493808.1 Schwarz criterion 8.898554
Log likelihood -5153.184 Durbin-Watson stat 1.875893

Toujours, pour tˆ  0.53  ttabulée  1.95 , on rejette l’hypothèse d’absence de


racine unitaire.
Donc, le processus xt est un I (1), xt   t
12/08/21 34
Cas du Test A.D.F :
p
A partir du modèle :  VI  xt   xt 1    j xt  j 1  c   t   t
j 2
Null Hypothesis: CAC has a unit root
Exogenous: Constant, Linear Trend
Lag Length: 4 (Fixed)

t-Statistic Prob.*

Augmented Dickey-Fuller test statistic -2.278322 0.4450


Test critical values: 1% level -3.966012
5% level -3.413707
10% level -3.128919

*MacKinnon (1996) one-sided p-values.


Augmented Dickey-Fuller Test Equation
Dependent Variable: D(CAC)
Method: Least Squares
Date: 12/17/08 Time: 11:02
Sample (adjusted): 6 1160
Included observations: 1155 after adjustments

Variable Coefficient Std. Error t-Statistic Prob.

CAC(-1) -0.009478 0.004160 -2.278322 0.0229


D(CAC(-1)) 0.069846 0.029480 2.369234 0.0180
D(CAC(-2)) -0.005537 0.029536 -0.187468 0.8513
D(CAC(-3)) -0.036930 0.029539 -1.250236 0.2115
D(CAC(-4)) 0.069284 0.029507 2.348089 0.0190
C 16.77092 7.525601 2.228516 0.0260
@TREND(1) 0.002180 0.001901 1.146929 0.2516

R-squared 0.014213 Mean dependent var 0.412658


Adjusted R-squared 0.009061 S.D. dependent var 20.68142
S.E. of regression 20.58751 Akaike info criterion 8.893288
Sum squared resid 486574.6 Schwarz criterion 8.923905
Log likelihood -5128.874 F-statistic 2.758722
Durbin-Watson stat 1.997258 Prob(F-statistic) 0.011475
12/08/21 35
p
A partir du modèle :  V  xt   xt 1    j xt  j 1  c   t
j 2
Null Hypothesis: CAC has a unit root
Exogenous: Constant
Lag Length: 4 (Fixed)

t-Statistic Prob.*

Augmented Dickey-Fuller test statistic -2.031024 0.2736


Test critical values: 1% level -3.435797
5% level -2.863833
10% level -2.568041

*MacKinnon (1996) one-sided p-values.


Augmented Dickey-Fuller Test Equation
Dependent Variable: D(CAC)
Method: Least Squares
Date: 12/17/08 Time: 11:03
Sample (adjusted): 6 1160
Included observations: 1155 after adjustments

Variable Coefficient Std. Error t-Statistic Prob.

CAC(-1) -0.008079 0.003978 -2.031024 0.0425


D(CAC(-1)) 0.069552 0.029483 2.359024 0.0185
D(CAC(-2)) -0.005917 0.029538 -0.200314 0.8413
D(CAC(-3)) -0.037283 0.029541 -1.262085 0.2072
D(CAC(-4)) 0.068936 0.029509 2.336098 0.0197
C 15.43264 7.435612 2.075503 0.0382

R-squared 0.013084 Mean dependent var 0.412658


Adjusted R-squared 0.008789 S.D. dependent var 20.68142
S.E. of regression 20.59033 Akaike info criterion 8.892702
Sum squared resid 487132.1 Schwarz criterion 8.918945
Log likelihood -5129.535 F-statistic 3.046540
Durbin-Watson stat 1.997194 Prob(F-statistic) 0.009731
12/08/21 36
p
A partir du modèle :  IV  xt   xt 1    j xt  j 1   t
j 2
Null Hypothesis: CAC has a unit root
Exogenous: None
Lag Length: 4 (Fixed)

t-Statistic Prob.*

Augmented Dickey-Fuller test statistic 0.460098 0.8138


Test critical values: 1% level -2.566966
5% level -1.941098
10% level -1.616515

*MacKinnon (1996) one-sided p-values.


Augmented Dickey-Fuller Test Equation
Dependent Variable: D(CAC)
Method: Least Squares
Date: 12/17/08 Time: 11:03
Sample (adjusted): 6 1160
Included observations: 1155 after adjustments

Variable Coefficient Std. Error t-Statistic Prob.

CAC(-1) 0.000149 0.000325 0.460098 0.6455


D(CAC(-1)) 0.064758 0.029435 2.200051 0.0280
D(CAC(-2)) -0.010602 0.029494 -0.359466 0.7193
D(CAC(-3)) -0.041933 0.029498 -1.421546 0.1554
D(CAC(-4)) 0.064128 0.029460 2.176763 0.0297

R-squared 0.009384 Mean dependent var 0.412658


Adjusted R-squared 0.005938 S.D. dependent var 20.68142
S.E. of regression 20.61992 Akaike info criterion 8.894712
Sum squared resid 488958.4 Schwarz criterion 8.916582
Log likelihood -5131.696 Durbin-Watson stat 1.996794

12/08/21 37
Cas du Test de PHILLIPS-PERRON :
Null Hypothesis: CAC has a unit root
Exogenous: Constant, Linear Trend
Bandwidth: 6 (Fixed using Bartlett kernel)

Adj. t-Stat Prob.*

Phillips-Perron test statistic -2.197413 0.4900


Test critical values: 1% level -3.965984
5% level -3.413694
10% level -3.128911

*MacKinnon (1996) one-sided p-values.

Residual variance (no correction) 424.3472


HAC corrected variance (Bartlett kernel) 470.8600

Phillips-Perron Test Equation


Dependent Variable: D(CAC)
Method: Least Squares
Date: 12/17/08 Time: 11:23
Sample (adjusted): 2 1160
Included observations: 1159 after adjustments

Variable Coefficient Std. Error t-Statistic Prob.

CAC(-1) -0.008447 0.004113 -2.053788 0.0402


C 14.93911 7.437617 2.008589 0.0448
@TREND(1) 0.002103 0.001896 1.108866 0.2677

R-squared 0.003870 Mean dependent var 0.417204


Adjusted R-squared 0.002147 S.D. dependent var 20.64858
S.E. of regression 20.62640 Akaike info criterion 8.893606
Sum squared resid 491818.4 Schwarz criterion 8.906691
Log likelihood -5150.845 F-statistic 2.245643
12/08/21 38
Durbin-Watson stat 1.867318 Prob(F-statistic) 0.106321
Null Hypothesis: CAC has a unit root
Exogenous: Constant
Bandwidth: 6 (Fixed using Bartlett kernel)

Adj. t-Stat Prob.*

Phillips-Perron test statistic -1.948684 0.3100


Test critical values: 1% level -3.435777
5% level -2.863824
10% level -2.568037

*MacKinnon (1996) one-sided p-values.

Residual variance (no correction) 424.7985


HAC corrected variance (Bartlett kernel) 470.5966

Phillips-Perron Test Equation


Dependent Variable: D(CAC)
Method: Least Squares
Date: 12/17/08 Time: 11:28
Sample (adjusted): 2 1160
Included observations: 1159 after adjustments

Variable Coefficient Std. Error t-Statistic Prob.

CAC(-1) -0.007093 0.003928 -1.805839 0.0712


C 13.63563 7.344864 1.856485 0.0636

R-squared 0.002811 Mean dependent var 0.417204


Adjusted R-squared 0.001949 S.D. dependent var 20.64858
S.E. of regression 20.62845 Akaike info criterion 8.892943
Sum squared resid 492341.5 Schwarz criterion 8.901667
Log likelihood -5151.461 F-statistic 3.261054
Durbin-Watson stat 1.867860 Prob(F-statistic) 0.071203
12/08/21 39
Null Hypothesis: CAC has a unit root
Exogenous: None
Bandwidth: 6 (Fixed using Bartlett kernel)

Adj. t-Stat Prob.*

Phillips-Perron test statistic 0.500479 0.8234


Test critical values: 1% level -2.566959
5% level -1.941097
10% level -1.616515

*MacKinnon (1996) one-sided p-values.

Residual variance (no correction) 426.0639


HAC corrected variance (Bartlett kernel) 461.6362

Phillips-Perron Test Equation


Dependent Variable: D(CAC)
Method: Least Squares
Date: 12/17/08 Time: 11:29
Sample (adjusted): 2 1160
Included observations: 1159 after adjustments

Variable Coefficient Std. Error t-Statistic Prob.

CAC(-1) 0.000174 0.000324 0.536641 0.5916

R-squared -0.000160 Mean dependent var 0.417204


Adjusted R-squared -0.000160 S.D. dependent var 20.64858
S.E. of regression 20.65023 Akaike info criterion 8.894192
Sum squared resid 493808.1 Schwarz criterion 8.898554
Log likelihood -5153.184 Durbin-Watson stat 1.875893

12/08/21 40
Cas du Test de K.P.S.S :

KWIATKOWSKI-PHILLIPS-SCHMIDT-SHIN

Null Hypothesis: CAC is stationary


Exogenous: Constant, Linear Trend
Bandwidth: 6 (Fixed using Bartlett kernel)

LM-Stat.

Kwiatkowski-Phillips-Schmidt-Shin test statistic 1.308105


Asymptotic critical values*: 1% level 0.216000
5% level 0.146000
10% level 0.119000

*Kwiatkowski-Phillips-Schmidt-Shin (1992, Table 1)

Residual variance (no correction) 21741.28


HAC corrected variance (Bartlett kernel) 148098.0

KPSS Test Equation


Dependent Variable: CAC
Method: Least Squares
Date: 12/17/08 Time: 11:36
Sample: 1 1160
Included observations: 1160

Variable Coefficient Std. Error t-Statistic Prob.

C 1783.749 8.660392 205.9663 0.0000


@TREND(1) 0.138069 0.012940 10.67029 0.0000

R-squared 0.089519 Mean dependent var 1863.760


Adjusted R-squared 0.088733 S.D. dependent var 154.5946
S.E. of regression 147.5765 Akaike info criterion 12.82829
Sum squared resid 25219888 Schwarz criterion 12.83701
Log likelihood -7438.410 F-statistic 113.8552
Durbin-Watson stat 0.019581 Prob(F-statistic) 0.000000
12/08/21 41
Null Hypothesis: CAC is stationary
Exogenous: Constant
Bandwidth: 6 (Fixed using Bartlett kernel)

LM-Stat.

Kwiatkowski-Phillips-Schmidt-Shin test statistic 2.581505


Asymptotic critical values*: 1% level 0.739000
5% level 0.463000
10% level 0.347000

*Kwiatkowski-Phillips-Schmidt-Shin (1992, Table 1)

Residual variance (no correction) 23878.90


HAC corrected variance (Bartlett kernel) 162634.3

KPSS Test Equation


Dependent Variable: CAC
Method: Least Squares
Date: 12/17/08 Time: 11:41
Sample: 1 1160
Included observations: 1160

Variable Coefficient Std. Error t-Statistic Prob.

C 1863.760 4.539055 410.6054 0.0000

R-squared 0.000000 Mean dependent var 1863.760


Adjusted R-squared 0.000000 S.D. dependent var 154.5946
S.E. of regression 154.5946 Akaike info criterion 12.92035
Sum squared resid 27699521 Schwarz criterion 12.92471
Log likelihood -7492.804 Durbin-Watson stat 0.017832

12/08/21 42
Tous les résultats montrent la présence d’une racine unitaire de la
variable (cac).

On peut se poser la question s’il s’agit d’un processus de type DS sans


dérive ?

Pour répondre à cette question nous utilisons les résultats du


corrélogramme issus de l’application d’un filtre linéaire en différence
première appliqué sur la série (cac).

Il s’agit d’un processus de bruit blanc.


12/08/21 43
On se pose la question s’il est un processus Gaussien ?

Pour répondre à cette question, nous devons étudier la distribution de la série


(dcac), c'est-à-dire est-elle une distribution normale ?

On effectue, à cette fin, le test de Skewness, de Kurtosis et de Jarque et Bera.

300
Series: DCAC
Sample 2 1160
250
Observations 1159

200 Mean 0.417204


Median 0.000000
Maximum 102.7000
150
Minimum -132.7700
Std. Dev. 20.64858
100 Skewness -0.397669
Kurtosis 6.842349
50
Jarque-Bera 743.5087
Probability 0.000000
0
-120 -80 -40 0 40 80

12/08/21 44
Test de Skewness :

1 n
Soit k un moment centré d’ordre k, tel que k    xi  x 
k
n i 1
Soit une hypothèse de base : H0 : 1  0 (symétrie d’une distribution normale)

3  6
11 2   N  0, 
3 n
2  

11 2  0 0.39  0
1    5.42  1.96
6 6
n 1159

Test de Kurtosis :

Soit une hypothèse de base : H0 : 2  0 (aplatissement d’une distribution


normale)
  24 
 2  42  N  3, 
2  n 

2  3 6.83  3
2    26.61  1.96
24 24
n 1159
12/08/21 45
Test de Jarque et Bera :

On définit une statistique S telle que :

n n
S  1    2  3   2  2 
2
6 24

Nous rejetons l’hypothèse de normalité en ce qui concerne la symétrie et


l’aplatissement de la distribution, ce qui est confirmé par la statistique de JB. Le
processus DCAC est donc un bruit blanc non gaussien.

Remarque :

Ces tests de normalité servent également à présumer l’existence d’un


phénomène hétéroscédastique de la chronique étudiée. En effet,
l’hétéroscédasticité se manifeste sur le graphe de la distribution par des queues
de probabilité plus épaisses que la queue d’une distribution normale. Ce type de
distribution est qualifié de leptokurtique.

12/08/21 46
Estimation, Tests de validation et Prévisions des Processus

SARIMA

La procédure de modélisation des séries temporelles de Box-Jenkins (1976)


comporte les étapes suivantes :

- Stationnarisation et désaisonnalisation.

- Identification.

- Estimation.

- Tests de validation.

- Prévisions.

Les deux premières étapes ont été déjà traitées.

12/08/21 47
Rappel :

1-  xt  t  ARIMA( p, d , q) (Integrated Autoregressive Moving Average).


Un processus  x t  tZ est de type I(d), si les racines du polynôme   L  ,
associé à sa composante autorégressive, admet (d) racines unitaires :

  L  1  L d x  c   L 
 t t

p
  L   1    Lj ,j  p,  IR
c  IR, j j
j 1
q
  L   1    j L j ,j  q, j  IR
j 1

0   0  1,  p , q   IR   IR , t BB  0, 2 

  L  et   L  admettent des racines à l’extérieur du cercle


Les polynômes 
unité.

12/08/21 48
2-  xt  t  SARIMAs ,s ( p, d , q) (Seasonal Integrated Autoregressive Moving
Average).

Un processus  x t  tZ est de type I(d), si les racines du polynôme   L  ,


associé à sa composante autorégressive, admet (d) racines unitaires et ce
processus comporte des saisonnalités :

    
d

 Ls 1  Ls xt  c   Ls  t

 
p
 Ls  1    L j ,j  p,  IR
c  IR, j j
j 1

 
q
 Ls  1    j L j ,j  q, j  IR
j 1

0  0  1,  p , q   IR  IR , t BB  0, 2 

Les polynômes 
 Ls    
et  Ls

admettent des racines à l’extérieur du cercle
unité.

12/08/21 49
I- Estimation :

Après avoir identifié le modèle SARIMA, c'est-à-dire les ordres de la


saisonnalité (s), de la partie autoregressive (p), de la moyenne mobile (q) et de
l’intgration (d), l’estimation se réalise principalement au travers de deux
approches :

- Soit les MCO appliquées sur un modèle ne comportant pas de moyenne


mobile et dans ce cas on retrouve les estimateurs de Yule-Walker,

- Soit le Maximum de Vraisemblance pratiquée par Box-Jenkins.

T 1  1 
 
  1
L  xi , i , i   2 2 2  det   i ,i   2 exp   2 X    i ,i   X 
 2  

12/08/21 50
1-Test de redondance :

Le but consiste à vérifier si les composantes AR et MA du processus ARMA


n’ont pas de racines communes. Si tel est le cas, on peut alors se ramener à une
représentation minimale excluant ces racines. Cette représentation sera
préférable selon le principe de parcimonie.
On part de  p  L  xt   q  L   t
On suppose l’existence d’une racine commune, qui est une solution commune,
de ces deux polynômes :  p  L   q  L   0

 L  p  L
 p  L   1    1  
 j
  ii 1j  i 

 L  q  L
 q  L   1     1  
 j
  ii 1j  i 

12/08/21 51
Si la racine commune entre ces deux polynômes est :  j   j , alors :

  L    1  L 
p
 p
i 1  i 
i j

  L    1  L 
q
 q
i 1  i 
i j

  L x  
Ces deux dernières relations nous permettent d’avoir :    L 
p t q t

C’est une représentation minimale de phase. Elle nous permet un gain de degré
de liberté au moment de la phase d’estimation.

2-Tests de significativité :

Les coefficients du modèle doivent être significativement de zéro. On applique


le test de Student d’une manière classique. Si un coefficient n’est pas
significativement différent de zéro, il conviendrait d’envisager une nouvelle
spécification permettant d’éliminer l’ordre du modèle AR et/ou MA non valide.

12/08/21 52
3-Tests sur les résidus :

Test de la moyenne des résidus :

Soit T le nombre de données disponibles, après avoir éliminé les retards


correspondant aux termes AR et MA.
 
Si le processus   t  t est I.I.D 0, 2 , on doit avoir :
1 T
T   ˆt  0
T t 1 T 

Par application du théorème central limite, on montre que, sous H 0 :

T
T  N  0,1
ˆ T T 

Sous H0, à un risque d’erreur de 5%, on peut construire l’intervalle de confiance


suivant :

  1,96 
P  T    ˆ T    0,95
  T 

- si la moyenne des résidus de notre estimation est asymptotiquement à


l’intérieur de l’intervalle, on retient H0.
- sinon, il faudrait ajouter une constante.

12/08/21 53
Tests de « Porte-manteau » :

Il faudrait faire référence aux tests de Box-Pierce et de Lujing-Box.

Si le résidu n’est pas un BB, cela signifie que la spécification est incomplète et
qu’il manque au moins un ordre à un processus.

Tests de normalité des résidus :

En vue de vérifier si le processus des résidus est un BB gaussien, on se réfère


aux tests de Jarque-Bera, de Skewness et de Kurtosis.

4-Critères de comparaison des modèles :

- Critère de AKAIKE (AIC).


- Critère de SCHWARZ (SC).

12/08/21 54
III- Prévision :

1- Transformation de la série :

Il est nécessaire lors de la phase de prévision de prendre en compte la


transformation retenue et de la réintroduire dans la prévision :

- si le processus contient une tendance déterministe, on extrait cette


dernière par régression afin d’obtenir une série stationnaire lors de la
phase d’estimation. Ensuite, lors de la phase de prévision, on adjoint aux
prévisions réalisées sur la composante ARMA stationnaire la projection
de la tendance.

- Si la transformation résulte de l’application d’un filtre linéaire, par


exemple en différence première, on réalise les prévisions sur la série
filtrée stationnaire et l’on reconstruit ensuite par inversion du filtre les
prévisions sur la série initiale.

12/08/21 55
1- Prévision par un processus ARMA :

On part de  p  L  xt  q  L   t et en appliquant la transformation de Wald, on


obtient un MA    :


xt    j t  j
j 0
Avec  0  1

On effectue la prévision à un horizon (1), on onbtient :

xˆt  1  E  xt 1 / I t   E  xt 1 / xt , xt 1,..., x0 

 xˆt  1  E  xt 1 /  t ,  t 1 ,...,  0 


 xˆt  1    j t 1 j
j 1

Ainsi l’erreur de prévision est obtenue par la relation suivante :


xt 1  xˆt  1   t 1

12/08/21 56
On peut généraliser notre prévision à un horizon (h) :


xˆt  h     j t  h1
j h

Et l’erreur de prévision à cet horizon est donnée par :

h 1
xt  h  xˆt  h     j t  h  j
j 0

On peut déterminer un intervalle de confiance sur la prévision xˆt  h  et sous


l’hypothèse de la normalité des résidus :

xt  h  xˆt  h 
 N  0,1
  x  xˆ  h  
var T 
t h t

 h 1  
2

E  xt  h  xˆt  h  
2
 E    j  t  h  j  
   j  0
  

h 1
 E  xt  h  xˆt  h    
2
    2j  2
j 0

 h 1 
IC   xˆt  h   t  / 2   2j ˆ2 
 j 0 

12/08/21 57
APPLICATION (R.BOURBONNAIS) :

Remarque :

Si une série xt est de fréquence trimestrielle et est affectée d’une saisonnalité de


 
manière stable dans le temps et si 1  L4 xt est intégré d’ordre 2, alors on définir
une relation stationnaire :
 
yt   1  L  1  L4 xt
2

On considère une série d’immatriculations de voitures en France, pour la période


allant de janvier 1986 à décembre 1995. a partir de cette chronique, on désire
effectuer des prévision sur 12 mois du nombre de voitures en France.

12/08/21 58
D’après la représentation graphique et l’analyse du corrélogramme, la série des
immatriculations s’avère non stationnaire et saisonnière.

Avant de passer au test de non stationnarité, on doit désaisonnaliser la série. On


écrit, alors l’instruction suivante sur Eviews :

immat.seas(m) imvcvs cs

12/08/21 59
Le corrélogramme de la série corrigée des variations saisonnières est typique
d’une série affectée d’une tendance (tous les termes sont élevés même pour les
décalages importants).

12/08/21 60
ETUDE DE LA RACINE UNITAIRE :

Null Hypothesis: IMCVS has a unit root


Exogenous: Constant, Linear Trend
Lag Length: 4 (Fixed)
t-Statistic Prob.*
Augmented Dickey-Fuller test statistic -2.438979 0.3576
Test critical values: 1% level -4.049586
5% level -3.454032
10% level -3.152652
*MacKinnon (1996) one-sided p-values.

Augmented Dickey-Fuller Test Equation


Dependent Variable: D(IMCVS)
Method: Least Squares
Date: 05/08/07 Time: 18:21
Sample(adjusted): 1986:06 1994:12
Included observations: 103 after adjusting endpoints
Variable Coefficient Std. Error t-Statistic Prob.
IMCVS(-1) -0.294784 0.120864 -2.438979 0.0166
D(IMCVS(-1)) -0.535852 0.134146 -3.994553 0.0001
D(IMCVS(-2)) -0.375454 0.133368 -2.815183 0.0059
D(IMCVS(-3)) -0.229943 0.123335 -1.864384 0.0653
D(IMCVS(-4)) -0.099796 0.099081 -1.007216 0.3164
C 55548.20 22430.44 2.476466 0.0150
@TREND(1986:01) -86.27006 63.76691 -1.352897 0.1793
R-squared 0.412103 Mean dependent var -172.6984
Adjusted R-squared 0.375359 S.D. dependent var 22477.70
S.E. of regression 17765.08 Akaike info criterion 22.47340
Sum squared resid 3.03E+10 Schwarz criterion 22.65246
Log likelihood -1150.380 F-statistic 11.21564
Durbin-Watson stat 2.029934 Prob(F-statistic) 0.000000

Le coefficient de la tendance n’est pas significativement différent de zéro, le


processus n’est pas de type TS.

12/08/21 61
Null Hypothesis: IMCVS has a unit root
Exogenous: Constant
Lag Length: 4 (Fixed)
t-Statistic Prob.*
Augmented Dickey-Fuller test statistic -2.076094 0.2547
Test critical values: 1% level -3.495021
5% level -2.889753
10% level -2.581890
*MacKinnon (1996) one-sided p-values.

Augmented Dickey-Fuller Test Equation


Dependent Variable: D(IMCVS)
Method: Least Squares
Date: 05/08/07 Time: 18:34
Sample(adjusted): 1986:06 1994:12
Included observations: 103 after adjusting endpoints
Variable Coefficient Std. Error t-Statistic Prob.
IMCVS(-1) -0.233839 0.112634 -2.076094 0.0405
D(IMCVS(-1)) -0.576354 0.131321 -4.388897 0.0000
D(IMCVS(-2)) -0.394885 0.133158 -2.965532 0.0038
D(IMCVS(-3)) -0.237733 0.123726 -1.921443 0.0576
D(IMCVS(-4)) -0.101965 0.099491 -1.024865 0.3080
C 40230.73 19445.99 2.068844 0.0412
R-squared 0.400894 Mean dependent var -172.6984
Adjusted R-squared 0.370012 S.D. dependent var 22477.70
S.E. of regression 17840.95 Akaike info criterion 22.47287
Sum squared resid 3.09E+10 Schwarz criterion 22.62635
Log likelihood -1151.353 F-statistic 12.98158
Durbin-Watson stat 2.033983 Prob(F-statistic) 0.000000

12/08/21 62
Null Hypothesis: IMCVS has a unit root
Exogenous: None
Lag Length: 4 (Fixed)
t-Statistic Prob.*
Augmented Dickey-Fuller test statistic -0.171071 0.6222
Test critical values: 1% level -2.587607
5% level -1.943974
10% level -1.614676
*MacKinnon (1996) one-sided p-values.

Augmented Dickey-Fuller Test Equation


Dependent Variable: D(IMCVS)
Method: Least Squares
Date: 05/08/07 Time: 18:35
Sample(adjusted): 1986:06 1994:12
Included observations: 103 after adjusting endpoints
Variable Coefficient Std. Error t-Statistic Prob.
IMCVS(-1) -0.001772 0.010356 -0.171071 0.8645
D(IMCVS(-1)) -0.757236 0.099610 -7.601969 0.0000
D(IMCVS(-2)) -0.526650 0.118880 -4.430104 0.0000
D(IMCVS(-3)) -0.323768 0.118462 -2.733085 0.0074
D(IMCVS(-4)) -0.145994 0.098802 -1.477645 0.1427
R-squared 0.374458 Mean dependent var -172.6984
Adjusted R-squared 0.348926 S.D. dependent var 22477.70
S.E. of regression 18137.06 Akaike info criterion 22.49663
Sum squared resid 3.22E+10 Schwarz criterion 22.62453
Log likelihood -1153.576 Durbin-Watson stat 2.061994

12/08/21 63
Les statistiques des trois modèles de l’ADF relatives à la variable IMCVS(-1)
présentent des valeurs qui favorisent le rejet de l’hypothèse alternative. La série
IMCVS présente une racine unitaire. Elle décrit un processus de type DS.

Pour stationnariser la série, il conviendrait d’utiliser un filtre linéaire en


différence première et écrire l’instruction suivante sur Eviews :

GENR DIMCVS=IMCVS-IMCVS(-1)

Le corrélogramme présente des FAC ayant pour un premier terme une


significativité statistique différente de zéro. Toutefois, les FACP présentent une
décroissance exponentielle amortie de leur valeur. A prioi, on peut postuler pour
une représentation MA(1).

12/08/21 64
Il faut effectuer une estimation MA :

ls DIMCVS MA(1).

Dependent Variable: DIMCVS


Method: Least Squares
Date: 05/08/07 Time: 18:48
Sample(adjusted): 1986:02 1994:12
Included observations: 107 after adjusting endpoints
Convergence achieved after 5 iterations
Backcast: 1986:01
Variable Coefficient Std. Error t-Statistic Prob.
MA(1) -0.775845 0.060759 -12.76919 0.0000
R-squared 0.381379 Mean dependent var 56.49497
Adjusted R-squared 0.381379 S.D. dependent var 22285.87
S.E. of regression 17528.39 Akaike info criterion 22.39033
Sum squared resid 3.26E+10 Schwarz criterion 22.41531
Log likelihood -1196.883 Durbin-Watson stat 2.014168
Inverted MA Roots .78

Le coefficient de cette représentation MA est statistiquement significativement


différent de zéro. Toutes les autres statistiques relatives à la qualité d’ajustement
présagent une bonne spécification du modèle.

Il conviendrait, maintenant, d’analyser les résidus de cette modélisation. Il suffit


de se référer à la commande residuals tests>correligram Q-statistics.

12/08/21 65
Le processus des résidus peut être assimilé à un processus de bruit blanc,
puisque aucun terme des valeurs des FAC n’est statistiquement égal à zéro.

La série d’immatriculation peut être estimée par un processus de type


ARIMA(0,1,1)12.

La série des immatriculations désaisonnalisée et en différence première peut être


écrite :
DIMCVS   1  0.776 L   t

12/08/21 66
Etape de la prévision :

On peut calculer la prévision à un horizon de douze mois.

De l’équation (eq1) on a besoin :

- du dernier résidu estimé (le résidu du mois de décembre 1994) qui est de
l’ordre de (-7326.33) et du coefficient de la MA estimé (-0.776), et qui est
obtenu à partir de Eviews : Actual, Fitted, Risidual, on peut calculer :

On initialise l’erreur  95:01 à zéro

DIMCVS95:01   95:01  0.776   94:12  0  0.776   7326.33

DIMCVS95:01  5685.23

- de la dernière valeur de la série IMCVS (du mois 12 1994) (157854.6), pour


calculer :

IMCV S 95:01  IMCV S 94:12  DIMCV S 95:01

IMCVS95:01  157854.6  5685.23  163539.83

IMMAT95:01  163539.83  0.96  156997.44

Pour les douze mois EVIEWS nous fournit les valeurs dans la série IMCVSF.

12/08/21 67
- de la valeur du CS (0.959867), pour calculer la valeur prévue de
l’immatriculation au mois de janvier 1995 :
IMMAT 95:01  IMCV S 95:01  0.959867

IMMAT 95:12  IMCV S 95:01 1.105866

Ces valeurs sont calculer par EVIEWS sous le nom IMMATF

12/08/21 68
' Prévision du nombre d'immatriculations en France
SMPL 86:01 95:12
' Première étape Désaisonnalisation de la série
' série CVS = IMCVS et les coefficients saisonniers = CS
Immat.seas(M) IMCVS CS
' Stationnarisation de la série par différences premières
Genr DIMCVS = IMCVS - IMCVS(-1)
« Estimation du modèle ARMA »
Equation eq1.LS DIMCVS MA(1)
« Prévision à l'horizon de 12 mois »
SMPL 95:01 95:01
FIT DIMCVSF
« DIMCVS95:01  5685.23 »
GENR IMCVSF = IMCVS(-1) + DIMCVSF
« IMCV S 95:01  IMCV S 94:12  DIMCV S 95:01 »
« IMCVS95:01  157854.6  5685.23  163539.83 »
GENR IMMATF = IMCVSF*CS
« IMMAT95:01  163539.83  0.96  156997.44 »
FOR !I = 2 TO 12
SMPL 95:!I 95:!I
FIT DIMCVSF
GENR IMCVSF = IMCVSF(-1) + DIMCVSF
GENR IMMATF = IMCVSF*CS
NEXT

12/08/21 69
EXEMPLES DE MODELES A VOLATILITE
CONDITIONNELLE AUTOREGRESSIVE

Ce type de modélisation est, généralement, pratiqué sur des chroniques à


volatilité variable. En effet, les séries financières sont caractérisées par une
variance qui n’est pas stable dans le temps. Pour ce type de données, on
constate, par exemple, que pour certaines périodes assez longues la volatilité est
faible. Cette dernière est suivie pour des périodes aussi longues par une volatilité
élevée.

Ce type de chroniques est caractérisé par un comportement où la volatilité est


faible et qui a tendance à se succéder, ainsi que, pour d’autres périodes, par une
volatilité élevée qui a tendance à se suivre

On dit alors que la volatilité, ou la variance, du processus est autorégressive


puisqu’elle dépend de ses valeurs passées. Ainsi, les processus de type
ARCH(p) (Engle 1982) et GARCH(p,q) (Bollerslev 1986) sont mieux adaptés
pour tenir compte de ce comportement volatil.

12/08/21 70
I- Test d’hétéroscédasticité : test ARCH :

1- Calculer le résidu du modèle de la régression  t .

2- Calculer le carré des résidus  t2 .

3- Effectuer une régression autorégressive des résidus sur p retards où seuls les
retards significatifs sont conservés :

p
 t2   0    i t2i
i 1

4- Calculer la statistique du multiplicateur de Lagrange (LM) :

LM  nR 2

Où n et R2 sont respectivement le nombre d’observations et le coefficient de


détermination issus de la régression de l’étape précédente.

Si LM  nR 2   2  p  , on considère que la modélisation la plus appropriée est de


type ARCH(p).

12/08/21 71
II- Présentation du modèle ARCH(p) :

1- Définition :

Soit  xt  t un processus stochastique de type ARCH(p) (Autoregressif


conditionnellement Hétéroscédastique d’ordre p) :

xt     t

et f t xt 1 , xt  2  N  0, ht 

Où sa distribution conditionnelle aux informations passées est :


f x x , x   N   , ht 
t t 1 t 2

p
Avec ht   t2   0    i t2i
i 1
p
et où  i  0 ,   i  1
i 1

2- Caractéristiques :

La distribution conditionnelle du processus  xt  t , c'est-à-dire


conditionnellement à ses valeurs passées, a ainsi une variance qui dépend des
valeurs passées de xt .

L’espérance conditionnelle est :

E  xt xt 1 , xt 2    , t
12/08/21 72
La variance conditionnelle est :

var  xt xt 1 , xt 2   ht , t

Toutefois, la distribution non conditionnelle, ou marginale, du processus  xt  t


n’est pas normale. Ainsi :

E  xt    , t

0
var  xt   p
, t
1   i
i 1

Cette dernière relation n’est valable que lorsque les racines du polynôme
p
  i Lp i sont à l’extérieur du cercle unité.
i 1

Remarque :
Après avoir tenu compte de la volatilité, le processus  xt  t peut être écrit :

xt    ht wt

et wt  N  0,1

12/08/21 73
III- Présentation du modèle GARCH(p,q) :

Il s’agit d’une généralisation du processus ARCH(p), avec :

p q
ht   t2   0    i t2i    j ht  j
i 1 j 1

p q
Sous les conditions :  i  0 et  j  0 et   i    j  1
i 1 j 1

IV- Exemple de modèles de type ARCH :

24

20

16

12

4
25 50 75 100 125 150 175 200

12/08/21 74
Il s’agit d’un AR(2).
Dependent Variable: Y
Method: Least Squares
Date: 05/25/07 Time: 19:18
Sample(adjusted): 3 200
Included observations: 198 after adjusting endpoints
Convergence achieved after 3 iterations
Variable Coefficient Std. Error t-Statistic Prob.
C 14.28529 0.131266 108.8268 0.0000
AR(1) 0.839452 0.058878 14.25747 0.0000
AR(2) -0.569230 0.058859 -9.671123 0.0000
R-squared 0.517464 Mean dependent var 14.28434
Adjusted R-squared 0.512515 S.D. dependent var 1.930592
S.E. of regression 1.347942 Akaike info criterion 3.450071
Sum squared resid 354.3048 Schwarz criterion 3.499893
Log likelihood -338.5570 F-statistic 104.5574
Durbin-Watson stat 1.857435 Prob(F-statistic) 0.000000
Inverted AR Roots .42+.63i .42 -.63i
12/08/21 75
Les premiers termes sont significativement différents de zéro.

12/08/21 76
ARCH :
ARCH Test:
F-statistic 11.30457 Probability 0.000930
Obs*R-squared 10.79472 Probability 0.001018

Test Equation:
Dependent Variable: RESID^2
Method: Least Squares
Date: 05/25/07 Time: 19:27
Sample(adjusted): 4 200
Included observations: 197 after adjusting endpoints
Variable Coefficient Std. Error t-Statistic Prob.
C 1.374943 0.334909 4.105421 0.0001
RESID^2(-1) 0.234064 0.069616 3.362226 0.0009
R-squared 0.054796 Mean dependent var 1.793670
Adjusted R-squared 0.049948 S.D. dependent var 4.476820
S.E. of regression 4.363583 Akaike info criterion 5.794565
Sum squared resid 3712.967 Schwarz criterion 5.827897
Log likelihood -568.7646 F-statistic 11.30457
Durbin-Watson stat 1.948383 Prob(F-statistic) 0.000930

Le fisher empirique et la statistique LM laissent supposer une spécification


ARCH(1). Les deux probabilités critiques sont inférieures à 5%.

12/08/21 77
Pour être sur de notre choix, nous pouvons effectuer un test LM d’ordre (2) :

ARCH Test:
F-statistic 6.849449 Probability 0.001337
Obs*R-squared 12.98983 Probability 0.001511

Test Equation:
Dependent Variable: RESID^2
Method: Least Squares
Date: 05/25/07 Time: 19:33
Sample(adjusted): 5 200
Included observations: 196 after adjusting endpoints
Variable Coefficient Std. Error t-Statistic Prob.
C 1.531062 0.349598 4.379489 0.0000
RESID^2(-1) 0.259801 0.071538 3.631640 0.0004
RESID^2(-2) -0.110554 0.071559 -1.544921 0.1240
R-squared 0.066275 Mean dependent var 1.798191
Adjusted R-squared 0.056599 S.D. dependent var 4.487834
S.E. of regression 4.358981 Akaike info criterion 5.797541
Sum squared resid 3667.138 Schwarz criterion 5.847717
Log likelihood -565.1591 F-statistic 6.849449
Durbin-Watson stat 1.998003 Prob(F-statistic) 0.001337

Le coefficient de RESID^2(-2) n’est pas statistiquement différent de zéro. Donc,


on opte pour un ARCH(1).

12/08/21 78
Dependent Variable: Y
Method: ML - ARCH (Marquardt)
Date: 05/25/07 Time: 19:41
Sample(adjusted): 3 200
Included observations: 198 after adjusting endpoints
Convergence achieved after 19 iterations
Variance backcast: ON
Coefficient Std. Error z-Statistic Prob.
C 14.24263 0.088669 160.6274 0.0000
AR(1) 0.720230 0.058788 12.25135 0.0000
AR(2) -0.466271 0.061722 -7.554369 0.0000
Variance Equation
C 0.834466 0.113545 7.349206 0.0000
ARCH(1) 0.577660 0.143681 4.020423 0.0001
R-squared 0.505514 Mean dependent var 14.28434
Adjusted R-squared 0.495266 S.D. dependent var 1.930592
S.E. of regression 1.371583 Akaike info criterion 3.228554
Sum squared resid 363.0791 Schwarz criterion 3.311591
Log likelihood -314.6268 F-statistic 49.32606
Durbin-Watson stat 1.642802 Prob(F-statistic) 0.000000
Inverted AR Roots .36+.58i .36 -.58i

12/08/21 79
GARCH :
Dependent Variable: Y
Method: Least Squares
Date: 05/25/07 Time: 19:51
Sample(adjusted): 2 200
Included observations: 199 after adjusting endpoints
Convergence achieved after 12 iterations
Backcast: 1
Variable Coefficient Std. Error t-Statistic Prob.
C 49.24035 0.425828 115.6343 0.0000
AR(1) 0.844849 0.089701 9.418478 0.0000
MA(1) -0.647523 0.126611 -5.114261 0.0000
R-squared 0.116618 Mean dependent var 49.28626
Adjusted R-squared 0.107604 S.D. dependent var 2.762905
S.E. of regression 2.610026 Akaike info criterion 4.771558
Sum squared resid 1335.198 Schwarz criterion 4.821206
Log likelihood -471.7700 F-statistic 12.93726
Durbin-Watson stat 2.012030 Prob(F-statistic) 0.000005
Inverted AR Roots .84
Inverted MA Roots .65

12/08/21 80
ARCH Test:
F-statistic 39.33666 Probability 0.000000
Obs*R-squared 33.09581 Probability 0.000000

Test Equation:
Dependent Variable: RESID^2
Method: Least Squares
Date: 05/25/07 Time: 19:59
Sample(adjusted): 3 200
Included observations: 198 after adjusting endpoints
Variable Coefficient Std. Error t-Statistic Prob.
C 4.009598 0.759640 5.278285 0.0000
RESID^2(-1) 0.408494 0.065131 6.271894 0.0000
R-squared 0.167151 Mean dependent var 6.742913
Adjusted R-squared 0.162901 S.D. dependent var 9.569115
S.E. of regression 8.755080 Akaike info criterion 7.187195
Sum squared resid 15023.68 Schwarz criterion 7.220410
Log likelihood -709.5323 F-statistic 39.33666
Durbin-Watson stat 2.042598 Prob(F-statistic) 0.000000

ARCH Test:
F-statistic 19.77794 Probability 0.000000
Obs*R-squared 33.36464 Probability 0.000000

Test Equation:
Dependent Variable: RESID^2
Method: Least Squares
Date: 05/25/07 Time: 20:00
Sample(adjusted): 4 200
Included observations: 197 after adjusting endpoints
Variable Coefficient Std. Error t-Statistic Prob.
C 3.791662 0.816070 4.646244 0.0000
RESID^2(-1) 0.386147 0.071756 5.381394 0.0000
RESID^2(-2) 0.054675 0.071704 0.762508 0.4467
R-squared 0.169364 Mean dependent var 6.755370
Adjusted R-squared 0.160800 S.D. dependent var 9.591885
S.E. of regression 8.786919 Akaike info criterion 7.199517
Sum squared resid 14978.73 Schwarz criterion 7.249515
12/08/21 Log likelihood -706.1524 F-statistic 19.77794 81
Durbin-Watson stat 2.011523 Prob(F-statistic) 0.000000
Dependent Variable: Y
Method: ML - ARCH (BHHH)
Date: 05/25/07 Time: 20:01
Sample(adjusted): 2 200
Included observations: 199 after adjusting endpoints
Convergence achieved after 21 iterations
MA backcast: 1, Variance backcast: ON
Coefficient Std. Error z-Statistic Prob.
C 49.74009 0.360756 137.8775 0.0000
AR(1) 0.830411 0.110463 7.517571 0.0000
MA(1) -0.642140 0.147305 -4.359246 0.0000
Variance Equation
C 1.177110 0.554849 2.121498 0.0339
ARCH(1) 0.287761 0.121744 2.363666 0.0181
GARCH(1) 0.540517 0.141049 3.832111 0.0001
R-squared 0.109183 Mean dependent var 49.28626
Adjusted R-squared 0.086104 S.D. dependent var 2.762905
S.E. of regression 2.641278 Akaike info criterion 4.653624
Sum squared resid 1346.436 Schwarz criterion 4.752920
Log likelihood -457.0356 F-statistic 4.730987
Durbin-Watson stat 1.977406 Prob(F-statistic) 0.000423
Inverted AR Roots .83
Inverted MA Roots .64

12/08/21 82
MODELES VAR

I- Introduction :

On considère deux processus stationnaires  y1t  t et  y2t  t définies par les
relations suivantes :

p p
y1t  1   b1i y1,t i   c1i y2,t i  d1 y2t  1t
i 1 i 1

p p
y2t   2   b2i y1,t i   c2i y2,t i  d 2 y1t   2t
i 1 i 1

Où les innovations  1t  t et   2t  t sont des bruits de variances respectives
12 et  22 et non corrélés E  1t ,  2,t  j   0, j  .

On peut facilement démontrer que ces deux équations peuvent être ramenée en
un VAR(p) structurel :
p
BYt  A0   AY
i t i   t
i 1

12/08/21 83
On remarque un effet bilatéral immédiat entre  y1t  t et  y2t  t, pour
l’éliminer, il faut passer à la forme réduite :

p
B 1BYt  B 1 A0   B 1 AY 1
i t i  B  t
i 1

p
Yt  A0   AY

i t i  vt
i 1

Ainsi, on peut écrire :

p p
y1t  1   b1i y1,t i   c1i y2,t i  v1t
i 1 i 1

p p
y2t   2   b2i y1,t i   c2i y2,t i  v2t
i 1 i 1

12/08/21 84
Les innovations v1t et v2t sont alors fonction des innovations de la forme
structurelle 1t et  2t . Elles peuvent être corrélées même en l’absence de
corrélation des 1t et  2t .
1t  d1 2t
v1t 
1  d1d 2

 2t  d 21t
v2t 
1  d1d 2
On remarque que :

E  v1t   E  v2t   0

12  d12 22
 
E v12t 
 1  d1d2  2

 22  d 22 12
E    1 d d
v22t
2
1 2

 d 22 12  d12 22
 , si h  0
E  v1t v2,t  h     1  d1d 2  2

0, si h  0

Si d1  d 2  0 , alors les processus  y1t  t et  y2t  t n’auront pas d’influence
synchrone l’un sur l’autre.

12/08/21 85
II- Présentation générale d’un VAR :

1- Définition :

Soit un processus vectoriel  yt  t de dimension (k,1) admet une représentation


VAR(p) :

yt  c0  A1 yt 1    Ap yt  p  vt

A  L  yt  c0  vt

Avec A0  I k et Ap  0k

Les matrices Ai , i   1, p  sont de dimension (k,k).

Le vecteur des innovations vt est I .I .D  0k ,   et où  est une matrice carrée


d’ordre (k) symétrique définie positive.

Le vecteur des innovations doit satisfaire les propriétés suivantes :

E  vt   0k

  , j  0
E vt vt   
0, j  0

12/08/21 86
2- Ecriture analytique d’un VAR(p) :
y1t  a10  a11
1 1
y1,t 1  a12 y2,t 1    a11k yk ,t 1
2 2
 a11 y1,t 2  a12 y2,t 2    a12k yk ,t 2

 a11p y1,t  p  a12p y2,t  p    a1pk yk ,t  p  v1t

y2t  a20  a121 y1,t 1  a122 y2,t 1    a12 k yk ,t 1


2 2
 a21 y1,t  2  a22 y2,t 2    a22k yk ,t 2

p p
 a21 y1,t  p  a22 y2,t  p    a2pk yk ,t  p  v2t

D’une manière plus générale, on peut écrire y jt , j   1, k  :

y jt  a 0j  a1j1 y1,t 1  a1j 2 y2,t 1    a1jk yk ,t 1


 a 2j1 y1,t 2  a 2j 2 y2,t 2    a 2jk yk ,t 2

 a jp1 y1,t  p  a jp2 y2,t  p    a jkp yk ,t  p  v jt

12/08/21 87
Encore, on peut retrouver la forme matricielle tout en se conformant aux
écritures suivantes :

 y1t   a10   a11


i i
a12  a1ik   y1,t i   v1t 
     i     
i
y
 2t   a 0
2   a21 a22  a2i k   y2,t i   v2t 
         
      
yt    c0  0 Ai   i y    v   
 y jt  a  a i
a ijk 
t i
 y j ,t i 
t
 v jt 
j1 a j 2 
    j
     
             
y   0 
 ai ai i 
 y  v 
 kt  a  akk i 1, p  k ,t i i 1, p  kt 
 k  k1 k2 

Ainsi, on arrive à rejoindre l’écriture matricielle générale d’un VAR(p)


multivarié qui est représenté sous sa forme réduite.

p p
yt  c0   Ai yt i  vt  c0   Ai Li yt  vt
i 1 i 1

12/08/21 88
III- Stationnarité d’un VAR :

1- Définition :

Un modèle VAR est stationnaire, au sens large, s’il satisfait les trois conditions
suivantes :

E  yt   m, t

 
E yt2  , t

E   y  m  y  m    
t t  k ,k   h 

2- Proposition :

Soit un processus vectoriel  yt  t de dimension (k,1) admet une représentation


VAR(p) :
A  L  yt  c0  vt
est stationnaire ssi les racines du déterminant du polynôme matriciel A  L  noté
par det  A  L   sont en module à l’extérieur du cercle unité, tel que :
det  A  L    det  I k  A1 z    Ap z p   0

12/08/21 89
Remarque 1 :

 p 
Si le déterminant de  I k   Ai Li  est nul pour la totalité de ses racines, qui sont
 i 1 
en module à l’extérieur du cercle unité, cela implique que le polynôme   L  est
inversible et il existe une infinité de matrice  i carrées d’ordre (k) tel que le
processus vectoriel  yt  t puisse avoir une représentation de moyenne mobile
infinie des valeurs courantes et passées du choc aléatoire multivarié.

Remarque 2 :

L’équation caractéristique issue du   L   0 du système VAR(p) admet une ou


plusieurs racines unitaires si   1  0 c'est-à-dire si la matrice
 p 
  1   I k   Ai  est singulière.
 i 1 

12/08/21 90
II- Ecriture VAR(1) d’un VAR(p) :

Proposition :

Tout processus vectoriel  yt  t satisfaisant une représentation VAR(p) peut être
transformé en un processus  yt  t satisfaisant une représentation VAR(1)
d’espérance nulle :

y t  yt 1  vt

Preuve :

On part de la représentation VAR(p) :

A  L  yt  c0  vt

On applique l’opérateur de l’espérance sur cette représentation, on obtient :

E  A  L  yt   E  c0  vt   m

E  yt   A  1
1
c0  m

Où (m) est un vecteur de constante selon l’hypothèse de stationnarité du VAR(p)


de dimension (k,1).

12/08/21 91
Si on centre chaque processus vectoriel courant et décalé par rapport à sa
moyenne, on peut écrire :

A  L   yt  m   vt

Car A  L  m  A  1 m  c0 .

Ainsi, on peut écrire :

 yt  m   A1  yt 1  m   A2  yt 2  m    Ap  yt  p  m   vt

Pour arriver à la représentation VAR(1), il faut disposer des transformations


suivantes :

 A1 A2  Ap 1 Ap 
 yt  m     vt 
   I k 0k  0k 0k   
yt 1  m   0 k ,1 
yt      0k I k 0k 0k  vt  
 
   
 
         
 y  m   0 k ,1 
t  p 1
 kp ,1 0  0k Ik 0k  kp ,kp    kp ,1
 k

12/08/21 92
III- Représentation d’un VMA infini :

On considère le processus vectoriel  yt  t satisfaisant une représentation


VAR(p) et est stationnaire, alors il est possible d’appliquer la décomposition de
Wald pour aboutir à une représentation d’un processus vectoriel de moyenne
mobile infinie noté par VMA    .

On part de yt  yt 1  vt et appliquant l’opérateur retard, on obtient :

  L  yt  vt

avec   L   I  kp   L

En itérant vers le passé, on démontre que :

yt  vt   vt 1   2vt 2  


yt   i vt i    L  vt
i 1

Sous la condition de stationnarité lim i  0 .


i 

12/08/21 93
Proposition :

Tout processus vectoriel  yt  t satisfaisant une représentation VAR(p) de


dimension (k,1) stationnaire :

yt  c0  A1 yt 1    Ap yt  p  vt

admet une représentation moyenne mobile convergente définie par :


yt  m   i vt i  m    L  vt
i 0

Avec E  yt   A  1 c0  m et  0  I k .
1

Proposition :


Le polynôme vectoriel   L    i Li , associé à la représentation VMA    d’un
i 0
VAR  p  stationnaire  yt  t, satisfait la relation de récurrence suivante :

 0  Ik

 s  A1 s1  A2 s2    Ap s  p ; s  1

 s  0 ; s  0

12/08/21 94
Procédure :

L’idée est simple, il d’obtenir une représentation VMA    d’un VAR  p  au


1
moyen d’une identification entre les polynômes matriciels   L  et  A  L   :

1
yt   A  L   vt    L  vt  I k

12/08/21 95
Expand 78:1 96:4
Var Var1.Ls 1 1 Y1 Y2
var1.makemodel(model1) @ALL F
'Calcul de la prévision
'
smpl 96:1 96:4
Model1.SOLVE

smpl 78:1 95:4


'Calcul des écart-types de l'erreur de prévision pour les
' périodes 1, 2, 3 et 4
VAR1.MAKERESID
MATRIX(2, 2) VC
MATRIX(2, 2) A
MATRIX SIG1
MATRIX SIG2
MATRIX SIG3
MATRIX SIG4
A(1,1) = Var1.C(1,1)
A(1,2) = Var1.C(1,2)
A(2,1) = Var1.C(2,1)
A(2,2) = Var1.C(2,2)
FOR !I = 1 TO 2
FOR !J = 1 TO 2
VC(!I, !J) = @cov(RESID0!I, RESID0!J)
NEXT !J
NEXT !I
SIG1 = VC
SIG2 = VC + A * VC * @TRANSPOSE(A)
SIG3 = VC + A * VC * @TRANSPOSE(A) + A*A*VC*@TRANSPOSE(A*A)
SIG4 = VC + A * VC * @TRANSPOSE(A)+ A*A*VC*@TRANSPOSE(A*A) + A*A*A*VC*@TRANSPOSE(A*A*A)
DELETE RESID01 RESID02 A VC model1
'
' Calcul de l'intervalle de prévision
'
for !I=1 TO 4
smpl 96:1 96:!I
GENR ICPY1 = Y1F + 1.96*sqr(SIG!I(1,1))
GENR ICPY2 = Y2F + 1.96*sqr(SIG!I(2,2))
GENR ICMY1 = Y1F - 1.96*sqr(SIG!I(1,1))
GENR ICMY2 = Y2F - 1.96*sqr(SIG!I(2,2))
next
smpl 78:1 96:4

12/08/21 96

You might also like