Professional Documents
Culture Documents
Séries stationnaires:
12/08/21 1
Simulation d’un Bruit Blanc Gaussien:
Théorème de WOLD :
Tout processus stationnaire d’ordre deux x t t Z peut être représenté sous la forme :
xt j t j u t
j 0
0 1, j IR , j IN , 2j et u t BB 0 , u2 , cov ut , t j 0 , j Z
j 0
Remarque :
-Une composante linéaire stochastique du processus.
-Une composante déterministe.
12/08/21 2
II- Fonction d’autocorrélation (F.A.C) et Fonction d’autocorrélation Partielle
(F.A.C.P) :
1- F.A.C :
La F.A.C d’ordre (k) d’un processus x t t Z de E x t m , notée par x k , est
x k
définie : x k , k Z , x k 1,1 .
x 0
Le graphe de la F.A.C porte le nom de corrélogramme.
Proposition :
1 k
var
ˆx k 1 2 ˆ x2 j
T j 1
ˆ x k x k
Pour T>>, t
var
ˆx k
Sous H0 : x k 0 , Absence d’autocorrélation.
12/08/21 3
2- F.A.C.P :
L’autocorrélation partielle d’ordre (k) désigne la corrélation entre x t et x t k obtenue,
lorsque l’influence des variables x t k i i k a été retirée. Elle est notée par p kk .
Proposition 1:
Soit Pk une matrice symétrique formée des (k-1) premières autocorrélations de x t :
1 x 1 x k 1
1
Pk
k 1 1
x
1 x 1 x 1
1
Pk
k 1 x k
x
Pk
Alors p kk . (En pratique le calcul des éléments de la F.A.C.P utilise les équations de
Pk
Yule-Walker).
Proposition 2:
Pour des échantillons de grande taille, les coefficients p kk d’un AR(p) sont
asymptotiquement distribués selon la loi normale de moyenne nulle et de variance, selon
1
Quenouille(1949), var ˆp kk ,si k p
T
Sous H0 : p kk 0
IC 1, 96* var ˆp kk
Cet intervalle est constant et identique à celui de la FAC lorsque x t est un BB Gaussien.
12/08/21 4
III- Processus Autorégressif :
1- Définition :
Le processus stationnaire x t t Z satisfait une représentation AR(p) ssi :
p
L x t c t ,c IR , L 1 j L j , j p , j IR
j 1
0 1, p IR , t BB 0 , 2
c
E xt E xtj p
m , j Z
1 j
j 1
Proposition :
Si le processus x t t Z est stationnaire, alors toutes les racines du polynôme L sont, en
module, strictement supérieures à l’unité.
Remarque :
Un AR(p) est toujours inversible.
Proposition :
Les F.A.C.P d’un AR(p) Sont nulles pour tout ordre supérieur strictement à p.
12/08/21 5
3- Fonction d’autocovariance d’un AR(p) :
Proposition1 :
La fonction d’autocovariance d’ordre (k) d’un AR(p) est :
x k E x t m x t k m , k Z
Proposition 2 :
La fonction d’autocovariance d’ordre (k) d’un AR(p) satisfait la relation de récurrence
suivante :
1 x 1 2 x 2 p x p 2 , k 0
x k x k
1 x k 1 2 x k 2 p x k p , k Z
Proposition :
La F.A.C d’un AR(p) satisfait la relation de récurrence suivante :
1 ,k 0
x k
1 x k 1 2 x k 2 p x k p , k Z
Remarques :
-Si les racines de la fonction de transfert associée à un AR(p) sont réelles, alors les F.A.C
décroissent d’une manière exponentielle amortie lorsque le processus est stationnaire.
-Si les racines de la fonction de transfert associée à un AR(p) sont complexes, alors les F.A.C
décroissent d’une manière sinusoïdale amortie lorsque le processus est stationnaire.
-Si les F.A.C décroissent lentement, on a alors une présomption d’une série non stationnaire.
12/08/21 6
IV- Processus de Moyenne Mobile :
1- Définition :
Le processus stationnaire x t t Z satisfait une représentation MA(q) ssi :
q
x t c L t ,c IR , L 1 j L j , j q , j IR
j 1
0 1,q IR , t BB 0 , 2
Remarque :
Un MA(q) est toujours stationnaire.
Remarque :
12/08/21 La FAC d’un MA(q) s’annule à partir de l’ordre (q+1). 7
4- F.A.C.P d’un MA(q) :
Proposition :
Les F.A.C.P d’un MA(q) empruntent soit une allure exponentielle, soit une sinusoïde amortie.
12/08/21 8
EXERCICE I :
x t t 0.8t 1
x t t 0.6t 1 0.3 t 2
x t 0.9x t 1 t
x t 0.9x t 1 0.7 x t 2 t
x t 0.8x t 1 t 0.7 t 1
12/08/21 9
Processus FAC FACP
AR(1) Décroissance exponentielle 1 0 Pic significatif pour le premier retard :
ou sinusoïdale amortie 1 0 . positif si 1 0 et négatif si 1 0 .
Les autres coefficients sont nuls pour
des retards supérieurs à un.
AR(2) Décroissance exponentielle ou Pics significatifs pour le premier et le
sinusoïdale selon les signes de 1 second retard. Les autres coefficients
et de 2 . sont nuls pour des retards supérieurs à
deux.
AR(p) Décroissance exponentielle ou Pics significatifs pour les q premiers
sinusoïdale. retards. Les autres coefficients sont
nuls pour des retards supérieurs à p.
MA(1) Pic significatif pour le premier Décroissance exponentielle 1 0 ou
retard : positif si 1 0 et négatif sinusoïdale amortie 0 .
1
si 1 0 . Les autres coefficients
sont nuls pour des retards
supérieurs à un.
MA(2) Pics significatifs pour le premier et Décroissance exponentielle ou
le second retard. Les autres sinusoïdale selon les signes de 1 et de
coefficients sont nuls pour des 2 .
retards supérieurs à deux.
MA(q) Pics significatifs pour les q Décroissance exponentielle ou
premiers retards. Les autres sinusoïdale.
coefficients sont nuls pour des
retards supérieurs à q.
ARMA(1,1) Décroissance géométrique à partir Décroissance exponentielle 1 0 ou
du premier retard. Le signe est sinusoïdale amortie 1 0 .
déterminé par 1 1 .
ARMA(p,q) Décroissance exponentielle ou Décroissance exponentielle ou
sinusoïdale amortie tronquée après sinusoïdale amortie tronquée après (p-
(q-p) retards. q) retards.
12/08/21 10
EXERCICE II :
Générer les processus sus-indiqués par Eviews.
12/08/21 11
ETUDE DES PROCESSUS NON STATIONNAIRES
Depuis les travaux de Nelson C. R.,. Plosser C., « Trends and random walks in
macroeconomics time series:some evidence and applications », Journal of
Monetary Economics, p.10, 1982, on distingue deux types de processus non
stationnaires:
- Processus de type TS (Trend Stationnary) : des séries qui représentent une non
stationnarité de type déterministe.
- Processus DS (Differency Stationnary) : des séries dont la non stationnarité
émane, éventuellement, d’une saisonnalité. D’une manière générale, on parle de
non stationnarité de type stochastique. Ce sont les modèles de référence pour la
construction des tests de racine unitaire.
I- Processus TS :
Définition : Soit x t t Z est un processus de type (TS) qui peut s’écrire sous la
forme : x t f t t
Où t est processus stochastique stationnaire et f t est une fonction linéaire
du temps.
12/08/21 12
Proposition :
E x t a0 a1t E t
var x t var t 2
x k 0 , k Z
Où t BB 0 , 2
Remarques :
12/08/21 13
Proposition :
Exercice :
Soit x t 1 0.05t z t où z t 0.4z t 1 t , z 0 1 et t BB 0 , 2
‘‘Création de la série des chocs’’
SPML 1 50
GENR EPS=NRND
SPML 51 100
GENR EPS=0
‘‘Création de la composante stationnaire Z’’
SMPL 1 100
GENR Z=1
SMPL 2 100
GENR Z=.4*Z(-1)+EPS
‘‘Création de la tendance F’’
SMPL 1 100
GENR F=1+.05*@TREND(1)
‘‘Création de la série X’’
GENR X=F+Z
12/08/21 14
12/08/21 15
II- Processus DS :
Définition :
On dit aussi que le processus x t t Z est un processus intégré d’ordre (d), noté
I(d).
Proposition :
0 1, p IR , t BB 0 , 2
Avec L 1 L
L
d
12/08/21 16
Remarque :
La bonne méthode de stationnarisation d’une série brute x t t Z de type (DS)
consiste à la transformer en une série filtrée à des différences premières.
Remarque :
Suite à un raisonnement récursif :
t j0 t j
E x E 0
x t t j , alors :
var x t E t j 2
2
j 0
j 0 j 0
12/08/21 17
Exercice 1 :
12/08/21 18
Exercice 2 :
“Création d’un processus de marché aléatoire avec dérive”
12/08/21 19
Exercice 3 :
12/08/21 20
12/08/21 21
Remarque:
12/08/21 22
III- Test de Racine Unitaire :
Il s’agit d’un test de non stationnarité. Soient les modèles suivants qui serviront
de base à ce type de test, tout en supposant que t BB 0 , 2 :
I 1- L x t t
II 1- L x t t
III 1- L x t a bt t
12/08/21 23
b- Procédure du test :
Modèle (I) :
Soit l’hypothèse de base H0 : 1 , il s’agit d’un processus de type (DS).
H1 : 1, il s’agit d’un processus AR(1).
Modèle (II) :
x t x t 1 c t , où c 1
Soit l’hypothèse de base H0 : 1 , il s’agit d’un processus de type (DS).
H1 : 1, il s’agit d’un processus AR(1) avec
constante.
Modèle (III) :
x t x t 1 c t t , où c a 1 b et b 1
Soit l’hypothèse de base H0 : 1 , il s’agit d’un processus de type (DS) avec
dérive.
H1 : 1, il s’agit d’un processus (TS) avec erreur
ARMA
12/08/21 24
c- Tests d’hypothèses jointes :
Ces tests permettent de distinguer, après avoir effectué le test d’une racine
unitaire, les processus de marche aléatoire des processus (TS).
I x t x t 1 t
II x t x t 1 c t
III x t x t 1 c t t
12/08/21 25
12/08/21 26
Limite :
Ce test suppose que les termes d’erreur suivent un processus de Bruit Blanc, or
il n’y a pas de raison d’admettre, a priori, cette hypothèse.
Il s’agit d’un test de non stationnarité. Soient les modèles suivants qui serviront
de base à ce type de test, tout en supposant que t BB 0 , 2 :
p
IV x t x t 1 j x t j 1 t
j 2
p
V x t x t 1 j x t j 1 c t
j 2
p
VI x t x t 1 j x t j 1 c t t
j 2
12/08/21 27
Remarque :
b- Procédure du test :
Proposition :
12/08/21 28
Détermination du nombre optimal de retards :
Critère d’Akaike :
AIC ( k ) T log ˆ ˆ2t 2k
Critère de Schwartz (1978) :
SC k T log ˆ ˆ2t k log T
N
ˆ n2
Q BP T
T
2 N k
n 1
N ˆ n2
Q LB T T 2
T
2 N k
n 1T n
12/08/21 29
3- Test de Philips et Perron (1988) :
Il est construit pour tenir compte des éventuelles des erreurs hétéroscédastiques.
Ce test se ramène, dans le cas où les erreurs sont homoscédastiques, au test de
DF simple.
1- Estimation par les MCO des trois modèles de DF simple et calcul des résidus
estimés.
1 n 2
ˆ2
2- Estimation de la variance de court terme ˆ t .
n t 1
3- Estimation de la variance de long terme
ˆS 2 1 ˆ 2 2 1 i 1
n l n
t t t t i
n t 1 t 1 l 1 n t i 1
100
2
d’observations où l 4 n
9
.
12/08/21 30
EXERCICE :
Les probabilités critiques indiquent des seuils inférieurs aux seuils de risque de
rejet de l’hypothèse de base.
12/08/21 31
Pratiques des tests de racine unitaire :
Encore une fois, pour tˆ 1.81 ttabulée 2.86 , on rejette l’hypothèse
12/08/21 d’absence de racine unitaire. 33
equation eq3.ls dcac cac(-1) c
scalar scr2=@ssr
scalar ddl2=@regobs-@ncoef
equation eq4.ls cac cac(-1)
scalar scr2c=@ssr
scalar F2=((scr2c-scr2)/2)/(scr2/ddl2)
t-Statistic Prob.*
t-Statistic Prob.*
t-Statistic Prob.*
12/08/21 37
Cas du Test de PHILLIPS-PERRON :
Null Hypothesis: CAC has a unit root
Exogenous: Constant, Linear Trend
Bandwidth: 6 (Fixed using Bartlett kernel)
12/08/21 40
Cas du Test de K.P.S.S :
KWIATKOWSKI-PHILLIPS-SCHMIDT-SHIN
LM-Stat.
LM-Stat.
12/08/21 42
Tous les résultats montrent la présence d’une racine unitaire de la
variable (cac).
300
Series: DCAC
Sample 2 1160
250
Observations 1159
12/08/21 44
Test de Skewness :
1 n
Soit k un moment centré d’ordre k, tel que k xi x
k
n i 1
Soit une hypothèse de base : H0 : 1 0 (symétrie d’une distribution normale)
3 6
11 2 N 0,
3 n
2
11 2 0 0.39 0
1 5.42 1.96
6 6
n 1159
Test de Kurtosis :
2 3 6.83 3
2 26.61 1.96
24 24
n 1159
12/08/21 45
Test de Jarque et Bera :
n n
S 1 2 3 2 2
2
6 24
Remarque :
12/08/21 46
Estimation, Tests de validation et Prévisions des Processus
SARIMA
- Stationnarisation et désaisonnalisation.
- Identification.
- Estimation.
- Tests de validation.
- Prévisions.
12/08/21 47
Rappel :
L 1 L d x c L
t t
p
L 1 Lj ,j p, IR
c IR, j j
j 1
q
L 1 j L j ,j q, j IR
j 1
12/08/21 48
2- xt t SARIMAs ,s ( p, d , q) (Seasonal Integrated Autoregressive Moving
Average).
d
Ls 1 Ls xt c Ls t
p
Ls 1 L j ,j p, IR
c IR, j j
j 1
q
Ls 1 j L j ,j q, j IR
j 1
Les polynômes
Ls
et Ls
admettent des racines à l’extérieur du cercle
unité.
12/08/21 49
I- Estimation :
T 1 1
1
L xi , i , i 2 2 2 det i ,i 2 exp 2 X i ,i X
2
12/08/21 50
1-Test de redondance :
L p L
p L 1 1
j
ii 1j i
L q L
q L 1 1
j
ii 1j i
12/08/21 51
Si la racine commune entre ces deux polynômes est : j j , alors :
L 1 L
p
p
i 1 i
i j
L 1 L
q
q
i 1 i
i j
L x
Ces deux dernières relations nous permettent d’avoir : L
p t q t
C’est une représentation minimale de phase. Elle nous permet un gain de degré
de liberté au moment de la phase d’estimation.
2-Tests de significativité :
12/08/21 52
3-Tests sur les résidus :
T
T N 0,1
ˆ T T
1,96
P T ˆ T 0,95
T
12/08/21 53
Tests de « Porte-manteau » :
Si le résidu n’est pas un BB, cela signifie que la spécification est incomplète et
qu’il manque au moins un ordre à un processus.
12/08/21 54
III- Prévision :
1- Transformation de la série :
12/08/21 55
1- Prévision par un processus ARMA :
xt j t j
j 0
Avec 0 1
xˆt 1 E xt 1 / I t E xt 1 / xt , xt 1,..., x0
xˆt 1 E xt 1 / t , t 1 ,..., 0
xˆt 1 j t 1 j
j 1
12/08/21 56
On peut généraliser notre prévision à un horizon (h) :
xˆt h j t h1
j h
h 1
xt h xˆt h j t h j
j 0
xt h xˆt h
N 0,1
x xˆ h
var T
t h t
h 1
2
E xt h xˆt h
2
E j t h j
j 0
h 1
E xt h xˆt h
2
2j 2
j 0
h 1
IC xˆt h t / 2 2j ˆ2
j 0
12/08/21 57
APPLICATION (R.BOURBONNAIS) :
Remarque :
12/08/21 58
D’après la représentation graphique et l’analyse du corrélogramme, la série des
immatriculations s’avère non stationnaire et saisonnière.
immat.seas(m) imvcvs cs
12/08/21 59
Le corrélogramme de la série corrigée des variations saisonnières est typique
d’une série affectée d’une tendance (tous les termes sont élevés même pour les
décalages importants).
12/08/21 60
ETUDE DE LA RACINE UNITAIRE :
12/08/21 61
Null Hypothesis: IMCVS has a unit root
Exogenous: Constant
Lag Length: 4 (Fixed)
t-Statistic Prob.*
Augmented Dickey-Fuller test statistic -2.076094 0.2547
Test critical values: 1% level -3.495021
5% level -2.889753
10% level -2.581890
*MacKinnon (1996) one-sided p-values.
12/08/21 62
Null Hypothesis: IMCVS has a unit root
Exogenous: None
Lag Length: 4 (Fixed)
t-Statistic Prob.*
Augmented Dickey-Fuller test statistic -0.171071 0.6222
Test critical values: 1% level -2.587607
5% level -1.943974
10% level -1.614676
*MacKinnon (1996) one-sided p-values.
12/08/21 63
Les statistiques des trois modèles de l’ADF relatives à la variable IMCVS(-1)
présentent des valeurs qui favorisent le rejet de l’hypothèse alternative. La série
IMCVS présente une racine unitaire. Elle décrit un processus de type DS.
GENR DIMCVS=IMCVS-IMCVS(-1)
12/08/21 64
Il faut effectuer une estimation MA :
ls DIMCVS MA(1).
12/08/21 65
Le processus des résidus peut être assimilé à un processus de bruit blanc,
puisque aucun terme des valeurs des FAC n’est statistiquement égal à zéro.
12/08/21 66
Etape de la prévision :
- du dernier résidu estimé (le résidu du mois de décembre 1994) qui est de
l’ordre de (-7326.33) et du coefficient de la MA estimé (-0.776), et qui est
obtenu à partir de Eviews : Actual, Fitted, Risidual, on peut calculer :
DIMCVS95:01 5685.23
Pour les douze mois EVIEWS nous fournit les valeurs dans la série IMCVSF.
12/08/21 67
- de la valeur du CS (0.959867), pour calculer la valeur prévue de
l’immatriculation au mois de janvier 1995 :
IMMAT 95:01 IMCV S 95:01 0.959867
IMMAT 95:12 IMCV S 95:01 1.105866
12/08/21 68
' Prévision du nombre d'immatriculations en France
SMPL 86:01 95:12
' Première étape Désaisonnalisation de la série
' série CVS = IMCVS et les coefficients saisonniers = CS
Immat.seas(M) IMCVS CS
' Stationnarisation de la série par différences premières
Genr DIMCVS = IMCVS - IMCVS(-1)
« Estimation du modèle ARMA »
Equation eq1.LS DIMCVS MA(1)
« Prévision à l'horizon de 12 mois »
SMPL 95:01 95:01
FIT DIMCVSF
« DIMCVS95:01 5685.23 »
GENR IMCVSF = IMCVS(-1) + DIMCVSF
« IMCV S 95:01 IMCV S 94:12 DIMCV S 95:01 »
« IMCVS95:01 157854.6 5685.23 163539.83 »
GENR IMMATF = IMCVSF*CS
« IMMAT95:01 163539.83 0.96 156997.44 »
FOR !I = 2 TO 12
SMPL 95:!I 95:!I
FIT DIMCVSF
GENR IMCVSF = IMCVSF(-1) + DIMCVSF
GENR IMMATF = IMCVSF*CS
NEXT
12/08/21 69
EXEMPLES DE MODELES A VOLATILITE
CONDITIONNELLE AUTOREGRESSIVE
12/08/21 70
I- Test d’hétéroscédasticité : test ARCH :
3- Effectuer une régression autorégressive des résidus sur p retards où seuls les
retards significatifs sont conservés :
p
t2 0 i t2i
i 1
LM nR 2
12/08/21 71
II- Présentation du modèle ARCH(p) :
1- Définition :
xt t
et f t xt 1 , xt 2 N 0, ht
p
Avec ht t2 0 i t2i
i 1
p
et où i 0 , i 1
i 1
2- Caractéristiques :
E xt xt 1 , xt 2 , t
12/08/21 72
La variance conditionnelle est :
var xt xt 1 , xt 2 ht , t
E xt , t
0
var xt p
, t
1 i
i 1
Cette dernière relation n’est valable que lorsque les racines du polynôme
p
i Lp i sont à l’extérieur du cercle unité.
i 1
Remarque :
Après avoir tenu compte de la volatilité, le processus xt t peut être écrit :
xt ht wt
et wt N 0,1
12/08/21 73
III- Présentation du modèle GARCH(p,q) :
p q
ht t2 0 i t2i j ht j
i 1 j 1
p q
Sous les conditions : i 0 et j 0 et i j 1
i 1 j 1
24
20
16
12
4
25 50 75 100 125 150 175 200
12/08/21 74
Il s’agit d’un AR(2).
Dependent Variable: Y
Method: Least Squares
Date: 05/25/07 Time: 19:18
Sample(adjusted): 3 200
Included observations: 198 after adjusting endpoints
Convergence achieved after 3 iterations
Variable Coefficient Std. Error t-Statistic Prob.
C 14.28529 0.131266 108.8268 0.0000
AR(1) 0.839452 0.058878 14.25747 0.0000
AR(2) -0.569230 0.058859 -9.671123 0.0000
R-squared 0.517464 Mean dependent var 14.28434
Adjusted R-squared 0.512515 S.D. dependent var 1.930592
S.E. of regression 1.347942 Akaike info criterion 3.450071
Sum squared resid 354.3048 Schwarz criterion 3.499893
Log likelihood -338.5570 F-statistic 104.5574
Durbin-Watson stat 1.857435 Prob(F-statistic) 0.000000
Inverted AR Roots .42+.63i .42 -.63i
12/08/21 75
Les premiers termes sont significativement différents de zéro.
12/08/21 76
ARCH :
ARCH Test:
F-statistic 11.30457 Probability 0.000930
Obs*R-squared 10.79472 Probability 0.001018
Test Equation:
Dependent Variable: RESID^2
Method: Least Squares
Date: 05/25/07 Time: 19:27
Sample(adjusted): 4 200
Included observations: 197 after adjusting endpoints
Variable Coefficient Std. Error t-Statistic Prob.
C 1.374943 0.334909 4.105421 0.0001
RESID^2(-1) 0.234064 0.069616 3.362226 0.0009
R-squared 0.054796 Mean dependent var 1.793670
Adjusted R-squared 0.049948 S.D. dependent var 4.476820
S.E. of regression 4.363583 Akaike info criterion 5.794565
Sum squared resid 3712.967 Schwarz criterion 5.827897
Log likelihood -568.7646 F-statistic 11.30457
Durbin-Watson stat 1.948383 Prob(F-statistic) 0.000930
12/08/21 77
Pour être sur de notre choix, nous pouvons effectuer un test LM d’ordre (2) :
ARCH Test:
F-statistic 6.849449 Probability 0.001337
Obs*R-squared 12.98983 Probability 0.001511
Test Equation:
Dependent Variable: RESID^2
Method: Least Squares
Date: 05/25/07 Time: 19:33
Sample(adjusted): 5 200
Included observations: 196 after adjusting endpoints
Variable Coefficient Std. Error t-Statistic Prob.
C 1.531062 0.349598 4.379489 0.0000
RESID^2(-1) 0.259801 0.071538 3.631640 0.0004
RESID^2(-2) -0.110554 0.071559 -1.544921 0.1240
R-squared 0.066275 Mean dependent var 1.798191
Adjusted R-squared 0.056599 S.D. dependent var 4.487834
S.E. of regression 4.358981 Akaike info criterion 5.797541
Sum squared resid 3667.138 Schwarz criterion 5.847717
Log likelihood -565.1591 F-statistic 6.849449
Durbin-Watson stat 1.998003 Prob(F-statistic) 0.001337
12/08/21 78
Dependent Variable: Y
Method: ML - ARCH (Marquardt)
Date: 05/25/07 Time: 19:41
Sample(adjusted): 3 200
Included observations: 198 after adjusting endpoints
Convergence achieved after 19 iterations
Variance backcast: ON
Coefficient Std. Error z-Statistic Prob.
C 14.24263 0.088669 160.6274 0.0000
AR(1) 0.720230 0.058788 12.25135 0.0000
AR(2) -0.466271 0.061722 -7.554369 0.0000
Variance Equation
C 0.834466 0.113545 7.349206 0.0000
ARCH(1) 0.577660 0.143681 4.020423 0.0001
R-squared 0.505514 Mean dependent var 14.28434
Adjusted R-squared 0.495266 S.D. dependent var 1.930592
S.E. of regression 1.371583 Akaike info criterion 3.228554
Sum squared resid 363.0791 Schwarz criterion 3.311591
Log likelihood -314.6268 F-statistic 49.32606
Durbin-Watson stat 1.642802 Prob(F-statistic) 0.000000
Inverted AR Roots .36+.58i .36 -.58i
12/08/21 79
GARCH :
Dependent Variable: Y
Method: Least Squares
Date: 05/25/07 Time: 19:51
Sample(adjusted): 2 200
Included observations: 199 after adjusting endpoints
Convergence achieved after 12 iterations
Backcast: 1
Variable Coefficient Std. Error t-Statistic Prob.
C 49.24035 0.425828 115.6343 0.0000
AR(1) 0.844849 0.089701 9.418478 0.0000
MA(1) -0.647523 0.126611 -5.114261 0.0000
R-squared 0.116618 Mean dependent var 49.28626
Adjusted R-squared 0.107604 S.D. dependent var 2.762905
S.E. of regression 2.610026 Akaike info criterion 4.771558
Sum squared resid 1335.198 Schwarz criterion 4.821206
Log likelihood -471.7700 F-statistic 12.93726
Durbin-Watson stat 2.012030 Prob(F-statistic) 0.000005
Inverted AR Roots .84
Inverted MA Roots .65
12/08/21 80
ARCH Test:
F-statistic 39.33666 Probability 0.000000
Obs*R-squared 33.09581 Probability 0.000000
Test Equation:
Dependent Variable: RESID^2
Method: Least Squares
Date: 05/25/07 Time: 19:59
Sample(adjusted): 3 200
Included observations: 198 after adjusting endpoints
Variable Coefficient Std. Error t-Statistic Prob.
C 4.009598 0.759640 5.278285 0.0000
RESID^2(-1) 0.408494 0.065131 6.271894 0.0000
R-squared 0.167151 Mean dependent var 6.742913
Adjusted R-squared 0.162901 S.D. dependent var 9.569115
S.E. of regression 8.755080 Akaike info criterion 7.187195
Sum squared resid 15023.68 Schwarz criterion 7.220410
Log likelihood -709.5323 F-statistic 39.33666
Durbin-Watson stat 2.042598 Prob(F-statistic) 0.000000
ARCH Test:
F-statistic 19.77794 Probability 0.000000
Obs*R-squared 33.36464 Probability 0.000000
Test Equation:
Dependent Variable: RESID^2
Method: Least Squares
Date: 05/25/07 Time: 20:00
Sample(adjusted): 4 200
Included observations: 197 after adjusting endpoints
Variable Coefficient Std. Error t-Statistic Prob.
C 3.791662 0.816070 4.646244 0.0000
RESID^2(-1) 0.386147 0.071756 5.381394 0.0000
RESID^2(-2) 0.054675 0.071704 0.762508 0.4467
R-squared 0.169364 Mean dependent var 6.755370
Adjusted R-squared 0.160800 S.D. dependent var 9.591885
S.E. of regression 8.786919 Akaike info criterion 7.199517
Sum squared resid 14978.73 Schwarz criterion 7.249515
12/08/21 Log likelihood -706.1524 F-statistic 19.77794 81
Durbin-Watson stat 2.011523 Prob(F-statistic) 0.000000
Dependent Variable: Y
Method: ML - ARCH (BHHH)
Date: 05/25/07 Time: 20:01
Sample(adjusted): 2 200
Included observations: 199 after adjusting endpoints
Convergence achieved after 21 iterations
MA backcast: 1, Variance backcast: ON
Coefficient Std. Error z-Statistic Prob.
C 49.74009 0.360756 137.8775 0.0000
AR(1) 0.830411 0.110463 7.517571 0.0000
MA(1) -0.642140 0.147305 -4.359246 0.0000
Variance Equation
C 1.177110 0.554849 2.121498 0.0339
ARCH(1) 0.287761 0.121744 2.363666 0.0181
GARCH(1) 0.540517 0.141049 3.832111 0.0001
R-squared 0.109183 Mean dependent var 49.28626
Adjusted R-squared 0.086104 S.D. dependent var 2.762905
S.E. of regression 2.641278 Akaike info criterion 4.653624
Sum squared resid 1346.436 Schwarz criterion 4.752920
Log likelihood -457.0356 F-statistic 4.730987
Durbin-Watson stat 1.977406 Prob(F-statistic) 0.000423
Inverted AR Roots .83
Inverted MA Roots .64
12/08/21 82
MODELES VAR
I- Introduction :
On considère deux processus stationnaires y1t t et y2t t définies par les
relations suivantes :
p p
y1t 1 b1i y1,t i c1i y2,t i d1 y2t 1t
i 1 i 1
p p
y2t 2 b2i y1,t i c2i y2,t i d 2 y1t 2t
i 1 i 1
Où les innovations 1t t et 2t t sont des bruits de variances respectives
12 et 22 et non corrélés E 1t , 2,t j 0, j .
On peut facilement démontrer que ces deux équations peuvent être ramenée en
un VAR(p) structurel :
p
BYt A0 AY
i t i t
i 1
12/08/21 83
On remarque un effet bilatéral immédiat entre y1t t et y2t t, pour
l’éliminer, il faut passer à la forme réduite :
p
B 1BYt B 1 A0 B 1 AY 1
i t i B t
i 1
p
Yt A0 AY
i t i vt
i 1
p p
y1t 1 b1i y1,t i c1i y2,t i v1t
i 1 i 1
p p
y2t 2 b2i y1,t i c2i y2,t i v2t
i 1 i 1
12/08/21 84
Les innovations v1t et v2t sont alors fonction des innovations de la forme
structurelle 1t et 2t . Elles peuvent être corrélées même en l’absence de
corrélation des 1t et 2t .
1t d1 2t
v1t
1 d1d 2
2t d 21t
v2t
1 d1d 2
On remarque que :
E v1t E v2t 0
12 d12 22
E v12t
1 d1d2 2
22 d 22 12
E 1 d d
v22t
2
1 2
d 22 12 d12 22
, si h 0
E v1t v2,t h 1 d1d 2 2
0, si h 0
Si d1 d 2 0 , alors les processus y1t t et y2t t n’auront pas d’influence
synchrone l’un sur l’autre.
12/08/21 85
II- Présentation générale d’un VAR :
1- Définition :
yt c0 A1 yt 1 Ap yt p vt
A L yt c0 vt
Avec A0 I k et Ap 0k
E vt 0k
, j 0
E vt vt
0, j 0
12/08/21 86
2- Ecriture analytique d’un VAR(p) :
y1t a10 a11
1 1
y1,t 1 a12 y2,t 1 a11k yk ,t 1
2 2
a11 y1,t 2 a12 y2,t 2 a12k yk ,t 2
a11p y1,t p a12p y2,t p a1pk yk ,t p v1t
12/08/21 87
Encore, on peut retrouver la forme matricielle tout en se conformant aux
écritures suivantes :
p p
yt c0 Ai yt i vt c0 Ai Li yt vt
i 1 i 1
12/08/21 88
III- Stationnarité d’un VAR :
1- Définition :
Un modèle VAR est stationnaire, au sens large, s’il satisfait les trois conditions
suivantes :
E yt m, t
E yt2 , t
E y m y m
t t k ,k h
2- Proposition :
12/08/21 89
Remarque 1 :
p
Si le déterminant de I k Ai Li est nul pour la totalité de ses racines, qui sont
i 1
en module à l’extérieur du cercle unité, cela implique que le polynôme L est
inversible et il existe une infinité de matrice i carrées d’ordre (k) tel que le
processus vectoriel yt t puisse avoir une représentation de moyenne mobile
infinie des valeurs courantes et passées du choc aléatoire multivarié.
Remarque 2 :
12/08/21 90
II- Ecriture VAR(1) d’un VAR(p) :
Proposition :
Tout processus vectoriel yt t satisfaisant une représentation VAR(p) peut être
transformé en un processus yt t satisfaisant une représentation VAR(1)
d’espérance nulle :
y t yt 1 vt
Preuve :
A L yt c0 vt
E A L yt E c0 vt m
E yt A 1
1
c0 m
12/08/21 91
Si on centre chaque processus vectoriel courant et décalé par rapport à sa
moyenne, on peut écrire :
A L yt m vt
Car A L m A 1 m c0 .
yt m A1 yt 1 m A2 yt 2 m Ap yt p m vt
A1 A2 Ap 1 Ap
yt m vt
I k 0k 0k 0k
yt 1 m 0 k ,1
yt 0k I k 0k 0k vt
y m 0 k ,1
t p 1
kp ,1 0 0k Ik 0k kp ,kp kp ,1
k
12/08/21 92
III- Représentation d’un VMA infini :
L yt vt
avec L I kp L
yt i vt i L vt
i 1
12/08/21 93
Proposition :
yt c0 A1 yt 1 Ap yt p vt
yt m i vt i m L vt
i 0
Avec E yt A 1 c0 m et 0 I k .
1
Proposition :
Le polynôme vectoriel L i Li , associé à la représentation VMA d’un
i 0
VAR p stationnaire yt t, satisfait la relation de récurrence suivante :
0 Ik
s 0 ; s 0
12/08/21 94
Procédure :
1
yt A L vt L vt I k
12/08/21 95
Expand 78:1 96:4
Var Var1.Ls 1 1 Y1 Y2
var1.makemodel(model1) @ALL F
'Calcul de la prévision
'
smpl 96:1 96:4
Model1.SOLVE
12/08/21 96