Welcome to Scribd. Sign in or start your free trial to enjoy unlimited e-books, audiobooks & documents.Find out more
Download
Standard view
Full view
of .
Look up keyword
Like this
2Activity
0 of .
Results for:
No results containing your search query
P. 1
Ch16 it

Ch16 it

Ratings: (0)|Views: 19|Likes:
Published by api-3737025

More info:

Published by: api-3737025 on Oct 15, 2008
Copyright:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as PDF, TXT or read online from Scribd
See more
See less

03/18/2014

pdf

text

original

Chapitre 16
L\u2019H\u00b4et\u00b4erosc\u00b4edasticit\u00b4e
16.1 Introduction

La plupart des r\u00b4esultats obtenus jusqu\u2019`a pr\u00b4esent pour les mod`eles de r\u00b4egression reposaient explicitement ou implicitement sur l\u2019hypoth`ese d\u2019homosc\u00b4edasticit\u00b4e des al\u00b4eas, et certains r\u00b4esultats d\u00b4ependaient sur l\u2019hypoth`ese suppl\u00b4ementaire qu\u2019ils sont normalement distribu\u00b4es. Cependant, dans la pratique, les deux hy- poth`eses d\u2019homosc\u00b4edasticit\u00b4e et de normalit\u00b4e semblent souvent \u02c6etre enfreintes. C\u2019est principalement le cas lorsque les donn\u00b4ees sont relatives `a des observations en coupe transversale des m\u00b4enages ou des entreprises ou `a des observations chronologiques des actifs \ufb01nanciers. Dans ce chapitre, nous traitons d\u2019un cer- tain nombre de th`emes importants, connexes `a l\u2019h\u00b4et\u00b4erosc\u00b4edasticit\u00b4e, `a la non normalit\u00b4e et `a d\u2019autres d\u00b4efaillances des hypoth`eses habituelles concernant les al\u00b4eas des mod`eles de r\u00b4egression.

Comme nous l\u2019avons vu dans le Chapitre 9, il est parfaitement facile d\u2019estimer un mod`ele de r\u00b4egression par moindres carr\u00b4es pond\u00b4er\u00b4es (c\u2019est-`a- dire par GLS) quand les al\u00b4eas sont h\u00b4et\u00b4erosc\u00b4edastiques avec une structure d\u2019h\u00b4et\u00b4erosc\u00b4edasticit\u00b4e d\u00b4etermin\u00b4ee par une fonction sc\u00b4edastique connue. Nous avons aussi vu qu\u2019il \u00b4etait raisonnablement facile d\u2019estimer un mod`ele de r\u00b4egression par GLS faisables ou par maximum de vraisemblance lorsque la forme de la fonction sc\u00b4edastique est connue mais pas ses param`etres. De plus, comme nous l\u2019avons vu dans le Chapitre 14, faire subir `a la variable d\u00b4ependante (et probablement \u00b4egalement `a la fonction de r\u00b4egression) une trans- formation non lin\u00b4eaire appropri\u00b4ee peut \u00b4eliminer enti`erement l\u2019h\u00b4et\u00b4erosc\u00b4edasti- cit\u00b4e. Bien que parfois tr`es e\ufb03caces et pratiques, ces techniques ne nous per- mettent pas de g\u00b4erer le cas le plus commun o`

u presque rien n\u2019est connu sur
la fonction sc\u00b4edastique.

Dans la Section 16.2, nous discutons des propri\u00b4et\u00b4es des estimations NLS (et OLS) lorsque les al\u00b4eas sont h\u00b4et\u00b4erosc\u00b4edastiques. Sous des hy- poth`eses raisonnables, les estimations demeurent convergentes et asympto- tiquement normales, mais leur matrice de covariance asymptotique di\ufb00`ere de la matrice habituelle. Dans la Section 16.3, nous montrons alors qu\u2019il est possible d\u2019employer unestimateur de la matrice de covariance robuste

`a l\u2019h\u00b4et\u00b4erosc\u00b4edasticit\u00b4e, m\u02c6eme si pratiquement rien n\u2019est connu sur la forme
547
548
L\u2019H\u00b4
et\u00b4
erosc\u00b4
edasticit\u00b4
e

de la fonction sc\u00b4edastique. Ce r\u00b4esultat extr\u02c6emement important nous per- met de r\u00b4ealiser des inf\u00b4erences asymptotiquement valables sur des mod`eles de r\u00b4egression lin\u00b4eaire et non lin\u00b4eaire sous des conditions assez peu contraignantes. Cela fournit \u00b4egalement une justi\ufb01cation `a la r\u00b4egression de Gauss-Newton ro- buste `a l\u2019h\u00b4et\u00b4erosc\u00b4edasticit\u00b4e discut\u00b4ee dans la Section 11.6.

Dans la Section 16.4, nous discutons de l\u2019id\u00b4ee d\u2019h\u00b4et\u00b4erosc\u00b4edasticit\u00b4e condi-
tionnelle autor\u00b4egressive, ou ARCH, qui s\u2019est av\u00b4er\u00b4ee extr\u02c6emement utile dans

la mod\u00b4elisation des al\u00b4eas associ\u00b4es aux mod`eles de r\u00b4egression pour certains types de donn\u00b4ees temporelles, et en particulier pour les donn\u00b4ees des march\u00b4es \ufb01nanciers. Puis, dans les Sections 16.5 et 16.6, nous discutons de certains as- pects des tests d\u2019h\u00b4et\u00b4erosc\u00b4edasticit\u00b4e qui \u00b4echappaient `a la discussion de la Sec- tion 11.5. En particulier, nous discutons des cons\u00b4equences de l\u2019orthogonalit\u00b4e des directions de r\u00b4egression et des directions sc\u00b4edastiques, quel que soit le mod`ele dont les al\u00b4eas sont distribu\u00b4es ind\u00b4ependamment de la fonction de r\u00b4egression.

Dans la Section 16.7, nous portons notre attention sur les tests de nor- malit\u00b4e des al\u00b4eas, et focalisons sur les tests d\u2019asym\u00b4etrie et d\u2019exc`es de kurtosis. Il s\u2019av`ere que les tests de normalit\u00b4e sont tr`es faciles dans le contexte des mod`eles de r\u00b4egression. Dans la section suivante, nous introduisons une classe assez large de tests appel\u00b4estests de moments conditionnels. Ces tests sont \u00b4etroitement li\u00b4es auxtests de la matrice d\u2019information, discut\u00b4es dans la Sec- tion 16.9.

16.2 Moindres Carr\u00b4
es et H\u00b4
et\u00b4
erosc\u00b4
edasticit\u00b4
e

Les propri\u00b4et\u00b4es des estimateurs des moindres carr\u00b4es ordinaires et non lin\u00b4eaires appliqu\u00b4es aux mod`eles `a erreurs h\u00b4et\u00b4erosc\u00b4edastiques sont tr`es similaires. Pour simpli\ufb01er, nous commen\u00b8cons donc par le cas lin\u00b4eaire. Supposons que le mod`ele de r\u00b4egression lin\u00b4eaire estim\u00b4e soity= X\u03b2+ u,

o`
uX est une matrice de dimensionn\u00d7k r\u00b4epondant `a la condition de r\u00b4egularit\u00b4e
asymptotique usuelle quen\u22121X\ue000X a pour limite une matrice d\u00b4e\ufb01nie positive
O(1). Les donn\u00b4ees sont en r\u00b4ealit\u00b4e g\u00b4en\u00b4er\u00b4ees par
y= X\u03b20+ u, E(u) =0, E (uu\ue000) = \u2126,
(16.01)
o`
u\u2126 est une matrice diagonale avec des \u00b4el\u00b4ements types diagonaux\u03c92
tborn\u00b4es
sup\u00b4erieurement et inf\u00b4erieurement. Nous nous int\u00b4eressons aux propri\u00b4et\u00b4es de
l\u2019estimateur OLS\u02c6
\u03b2lorsque le DGP est (16.01). Clairement,
\u02c6
\u03b2=
\ue005
X\ue000X
\ue006
\u22121X\ue000y= \u03b20+
\ue005
X\ue000X
\ue006
\u22121X\ue000u.
(16.02)
16.2 Moindres Carr\u00b4
es et H\u00b4
et\u00b4
erosc\u00b4
edasticit\u00b4
e
549
Il s\u2019ensuit que
plim
n\u2192\u221e
(\u02c6
\u03b2) = \u03b20+ plim
n\u2192\u221e
\ue007
1
\u2212nX\ue000X
\ue008
\u22121
plim
n\u2192\u221e
\ue007
1
\u2212nX\ue000u
\ue008
.
Il est par cons\u00b4equent clair que\u02c6
\u03b2sera une estimation convergente de \u03b2`a
condition que
plim
n\u2192\u221e
\ue007
1
\u2212nX\ue000u
\ue008
=0.

Comme nous l\u2019avons vu dans la Section 9.5, cette condition ne tient pas tou- jours quand les al\u00b4eas ne sont pas i.i.d. Bien que la discussion n\u2019ait pas \u00b4et\u00b4e rigoureuse, il \u00b4etait clair que trois situations devaient \u02c6etre \u00b4elimin\u00b4ees. Deux de celles-ci impliquaient des matrices\u2126 non diagonales, la troisi`eme impliquait des variances non born\u00b4ees. Puisque ces trois situations sont exclues par les hypoth`eses d\u00b4ej`a formul\u00b4ees, nous pouvons sans doute conclure que\u02c6

\u03b2est e\ufb00ec-
tivement convergent. Pour un traitement beaucoup plus complet de ce sujet,
voir White (1984).
SiX peut \u02c6etre consid\u00b4er\u00b4ee comme \ufb01xe, il est facile de voir `a partir de
(16.02) que
V(\u02c6
\u03b2\u2212 \u03b20) =E
\ue007
\ue005
X\ue000X
\ue006
\u22121X\ue000uu\ue000X
\ue005
X\ue000X
\ue006
\u22121
\ue008
=
\ue005
X\ue000X
\ue006
\u22121X\ue000\u2126X
\ue005
X\ue000X
\ue006
\u22121.
(16.03)
Nous ferons r\u00b4ef\u00b4erence `a la derni`ere expression en tant quematrice de co-
variance des OLS g\u00b4en\u00b4eralis\u00b4es. Nous pouvons la comparer `a la matrice de
covariance habituelle des OLS,
\u03c32
0
\ue005
X\ue000X
\ue006
\u22121,
(16.04)
o`
u\u03c32
0serait dans ce cas la limite en probabilit\u00b4e de la moyenne des\u03c92
t, et avec
la matrice de covariance GLS
\ue005
X\ue000\u2126\u22121X
\ue006
\u22121.
Le Th\u00b4eor`eme de Gauss-Markov (Th\u00b4eor`eme 5.3) implique que
\ue005
X\ue000X
\ue006
\u22121X\ue000\u2126X
\ue005
X\ue000X
\ue006
\u22121\u2212
\ue005
X\ue000\u2126\u22121X
\ue006
\u22121
doit \u02c6etre une matrice semi-d\u00b4e\ufb01nie positive. Elle sera une matrice nulle dans
les circonstances (relativement rares) o`
u le Th\u00b4eor`eme de Kruskal s\u2019applique
et les estimations OLS et GLS co\u00a8\u0131ncident (voir la Section 9.3).

Evidemment, deux probl`emes di\ufb00\u00b4erents surgissent si nous utilisons les OLS en lieu et place des moindres carr\u00b4es pond\u00b4er\u00b4es, ou GLS. Le premier est que les estimations OLS ne seront pas e\ufb03caces, ce qui d\u00b4ecoule du Th\u00b4eor`eme de

You're Reading a Free Preview

Download
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->