Welcome to Scribd, the world's digital library. Read, publish, and share books and documents. See more
Download
Standard view
Full view
of .
Look up keyword
Like this
4Activity
0 of .
Results for:
No results containing your search query
P. 1
Ch9 Maximum de Vraissemblance Et Moindres Carrés généralisés

Ch9 Maximum de Vraissemblance Et Moindres Carrés généralisés

Ratings: (0)|Views: 302 |Likes:
Published by api-3737025

More info:

Published by: api-3737025 on Oct 15, 2008
Copyright:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as PDF, TXT or read online from Scribd
See more
See less

03/18/2014

pdf

text

original

Chapitre 9
Le Maximum de Vraisemblance et
Les Moindres Carr\u00b4es G\u00b4en\u00b4eralis\u00b4es
9.1 Introduction

Jusqu\u2019`a pr\u00b4esent nous avons suppos\u00b4e que les erreurs relatives aux mod`eles de r\u00b4egression sont ind\u00b4ependamment distribu\u00b4ees avec une variance constante. C\u2019est une hypoth`ese tr`es forte, qui est souvent mise `a mal dans la pratique. Dans ce chapitre, nous envisageons des techniques d\u2019estimation qui permettent de la rel\u02c6acher. Ce sont d\u2019une part lesmoindres carr\u00b4es g\u00b4en\u00b4eralis\u00b4es, ouGLS, et lesmoindres carr\u00b4es g\u00b4en\u00b4eralis\u00b4es non lin\u00b4eaires, ouGNLS, et d\u2019autre part des applications vari\u00b4ees de la m\u00b4ethode du maximum de vraisemblance. Nous traitons les GLS et le ML ensemble parce que quand le ML est appliqu\u00b4e aux mod`eles de r\u00b4egression dont les erreurs sont normales, les estimateurs qui en r\u00b4esultent entretiennent des liens \u00b4etroits avec les estimateurs GLS.

Le plan de ce chapitre est le suivant. Tout d\u2019abord, dans la Section 9.2, nous rel\u02c6achons l\u2019hypoth`ese selon laquelle les al\u00b4eas sont ind\u00b4ependamment distribu\u00b4es avec une variance constante. L\u2019estimation ML des mod`eles de r\u00b4egression sans ces hypoth`eses se trouve \u02c6etre conceptuellement simple et tr`es proche de la m\u00b4ethode des GNLS. Dans la Section 9.3, nous discutons de la g\u00b4eom\u00b4etrie des GLS, et consid\u00b4erons un cas particulier important dans lequel les estimations OLS et GLS sont identiques. Dans la Section 9.4, nous d\u00b4ecrivons la mani`ere d\u2019utiliser une version de la r\u00b4egression de Gauss-Newton avec des mod`eles estim\u00b4es par GNLS. Dans la Section 9.5, nous \u00b4etablissons un lien entre les GNLS et lesGNLS faisables, et discutons d\u2019un certain nombre de r\u00b4esultats fondamentaux concernant `a la fois les GNLS et les GNLS faisables. La rela- tion entre les GNLS et le ML est ensuite trait\u00b4ee dans la Section 9.6. En\ufb01n, de la Section 9.7 `a la Section 9.9, nous consid\u00b4erons lesmod`eles de r\u00b4egression non

lin\u00b4eaire multivari\u00b4ee. Bien que de tels mod`eles puissent souvent para\u02c6\u0131tre tr`es

di\ufb03ciles, et en premier lieu `a cause de la notation complexe qui doit permettre de prendre en compte de nombreuses variables d\u00b4ependantes entre elles, nous montrons qu\u2019ils sont en fait assez simples `a estimer `a l\u2019aide des GNLS ou du ML. Pour terminer, dans la Section 9.10, nous discutons des mod`eles qui traitent des donn\u00b4ees de panel et d\u2019autres ensembles de donn\u00b4ees qui combinent

300
9.2 Les Moindres Carr\u00b4
es G\u00b4
en\u00b4
eralis\u00b4
es
301

des observations chronologiques et des donn\u00b4ees en coupe transversale. Dans ce chapitre, nous ne discutons pas de ce qui est probablement l\u2019application des GLS la plus commun\u00b4ement rencontr\u00b4ee, `a savoir l\u2019estimation des mod`eles de r\u00b4egression avec corr\u00b4elation en s\u00b4erie. L\u2019\u00b4enorme litt\u00b4erature sur ce sujet sera le th`eme du Chapitre 10.

9.2 Les Moindres Carr\u00b4
es G\u00b4
en\u00b4
eralis\u00b4
es
Nous nous proposons de consid\u00b4erer dans cette section la classe des mod`eles
y= x(\u03b2)+ u, u\u223cN(0, \u2126),
(9.01)
o`

u\u2126, une matrice d\u00b4e\ufb01nie positive de dimensionn\u00d7 n, est la matrice de covariance du vecteur des al\u00b4easu. L\u2019hypoth`ese de normalit\u00b4e peut naturelle- ment \u02c6etre rel\u02c6ach\u00b4ee, mais nous la conservons pour le moment puisque nous voulons utiliser la m\u00b4ethode du maximum de vraisemblance. Dans certaines applications, la matrice\u2126 peut \u02c6etre connue. Dans d\u2019autres, elle peut \u02c6etre connue seulement `a une constante multiplicative pr`es, ce qui permet d\u2019\u00b4ecrire

\u2126=\u03c32\u2206, avec \u2206une matrice connue de dimensionn\u00d7 n et\u03c32 un scalaire

positif inconnu. Dans la plupart des applications, seule la structure de\u2126 sera connue; nous pourrions par exemple savoir qu\u2019elle provient d\u2019un sch\u00b4ema particulier d\u2019h\u00b4et\u00b4erosc\u00b4edasticit\u00b4e ou de corr\u00b4elation en s\u00b4erie, et par cons\u00b4equent qu\u2019elle d\u00b4epend dans un sens d\u2019un certain nombre de param`etres. Nous nous int\u00b4eresserons `a ces trois cas.

La fonction de densit\u00b4e du vecteuru est la fonction de densit\u00b4e normale
multivari\u00b4ee
f(u) = (2\u03c0)\u2212n/2|\u2126|\u22121/2 exp
\ue00d
\u22121
\u22122u\ue000\u2126\u22121u
\ue00e
.
(9.02)

A\ufb01n de passer de la fonction de densit\u00b4e du vecteur des al\u00b4easu `a celle du vecteur des variables d\u00b4ependantesy, nous rempla\u00b8consu pary\u2212 x(\u03b2) dans (9.02) et nous multiplions par la valeur absolue du d\u00b4eterminant de la ma- trice Jacobienne associ\u00b4ee `a la transformation qui exprimeu en termes dey. L\u2019usage de ce facteur Jacobien est l\u2019analogue de ce que nous avons d\u00b4ej`a r\u00b4ealis\u00b4e dans la Section 8.10 avec les variables al\u00b4eatoires scalaires. Pour les d\u00b4etails, consulter l\u2019Annexe B. Dans ce cas, la matrice Jacobienne correspond `a la ma- trice identit\u00b4e, et son d\u00b4eterminant est \u00b4egal `a un. En cons\u00b4equence, la fonction de vraisemblance est

Ln(y,\u03b2,\u2126) = (2\u03c0)\u2212n/2|\u2126|\u22121/2 exp
\ue00d
\u22121
\u22122
\ue00a
y\u2212 x(\u03b2)
\ue00b
\ue000\u2126\u22121
\ue00a
y\u2212 x(\u03b2)
\ue00b
\ue00e
,
et la fonction log-vraisemblance est
\ue000n(y ,\u03b2 ,\u2126) =\u2212n
\u22122log (2\u03c0)\u22121
\u22122log|\u2126|\u22121
\u22122
\ue00a
y\u2212 x(\u03b2)
\ue00b
\ue000\u2126\u22121
\ue00a
y\u2212 x(\u03b2)
\ue00b
.(9.03)
302
Les Moindres Carr\u00b4
es G\u00b4
en\u00b4
eralis\u00b4
es
Si la matrice\u2126 est connue, il est clair que cette fonction peut \u02c6etre maximis\u00b4ee
par la minimisation de lasomme g\u00b4en\u00b4eralis\u00b4ee des r\u00b4esidus au carr\u00b4e
SSR(\u03b2| \u2126 ) =
\ue00a
y\u2212 x(\u03b2)
\ue00b
\ue000\u2126\u22121
\ue00a
y\u2212 x(\u03b2)
\ue00b
.
(9.04)
Ce probl`eme de minimisation est celui r\u00b4esolu par lesmoindres carr\u00b4es non
lin\u00b4eaires g\u00b4en\u00b4eralis\u00b4es, ou GNLS. En d\u00b4erivant (9.04) par rapport `a\u03b2 et en an-
nulant les d\u00b4eriv\u00b4ees, nous obtenonsk conditions du premier ordre comparables
`a (2.04):
\u22122X\ue000(\u02dc
\u03b2)\u2126\u22121
\ue00a
y\u2212 x(\u02dc
\u03b2)
\ue00b
=0.
(9.05)
La r\u00b4esolution de ces \u00b4equations donne\u02dc
\u03b2, qui est le vecteur `a la fois des esti-
mations ML et GNLS pour ce probl`eme. Il est simple de prolonger la th\u00b4eorie
asymptotique du Chapitre 5, pour montrer que
n1/2(\u02dc
\u03b2\u2212 \u03b20)a
\u223cN
\ue00d
0,plim
n\u2192\u221e
\ue00a
n\u22121X\ue000(\u03b20)\u2126\u22121X(\u03b20)
\ue00b
\u22121
\ue00e
,
(9.06)
o`

u\u03b20 est la valeur de\u03b2 sous le DGP. Ce r\u00b4esultat implique que nous pouvons r\u00b4ealiser des inf\u00b4erences pour les estimations GNLS essentiellement de la m\u02c6eme mani`ere que nous les r\u00b4ealisons pour les estimations NLS.

Dans le cas lin\u00b4eaire o`
ux(\u03b2) =X\u03b2, les conditions du premier ordre (9.05)
deviennent
\u22122X\ue000\u2126\u22121y + 2X\ue000\u2126\u22121X\u02dc
\u03b2=0.
Celles-ci peuvent \u02c6etre r\u00b4esolues analytiquement pour donner la formule stan-
dard de l\u2019estimateur desmoindres carr\u00b4es g\u00b4en\u00b4eralis\u00b4es, ouGLS,1
\u02dc
\u03b2=
\ue00a
X\ue000\u2126\u22121X
\ue00b
\u22121X\ue000\u2126\u22121y.
(9.07)
Cependant, en pratique, on calcule rarement les estimations GLS en utilisant
cette formule. Supposons que\u03b7 soit une matrice de dimensionn\u00d7 n telle que
\u03b7\ue000\u03b7= \u2126\u22121.
(9.08)

Il existe di\ufb00\u00b4erentes mani`eres d\u2019obtenir une matrice\u03b7 qui satisfasse (9.08) (voir l\u2019Annexe A); on la choisit habituellement, mais pas n\u00b4ecessairement, triangu- laire. Etant donn\u00b4ee\u03b7, il est possible de calculer les estimations GLS au moyen de la r\u00b4egression OLS

\u03b7y= \u03b7X\u03b2+ \u03b7u.
(9.09)
Cette r\u00b4egression poss`ede des erreurs qui sont ind\u00b4ependantes et qui ont une
variance constante unitaire, puisque
E
\ue00a
\u03b7uu\ue000\u03b7\ue000
\ue00b
=\u03b7\u2126\u03b7\ue000 =\u03b7
\ue00a
\u03b7\ue000\u03b7
\ue00b
\u22121\u03b7\ue000= \u03b7\u03b7\u22121
\ue00a
\u03b7\ue000
\ue00b
\u22121\u03b7\ue000=In,
1L\u2019estimateur GLS est occasionnellement appel\u00b4eestimateur Aitken, parce qu\u2019il
fut propos\u00b4e par Aitken (1935).

Activity (4)

You've already reviewed this. Edit your review.
1 thousand reads
1 hundred reads
selmi liked this

You're Reading a Free Preview

Download
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->