Welcome to Scribd, the world's digital library. Read, publish, and share books and documents. See more ➡
Download
Standard view
Full view
of .
Add note
Save to My Library
Sync to mobile
Look up keyword
Like this
1Activity
×
0 of .
Results for:
No results containing your search query
P. 1
Ch3 Inférence Dans Les Modèles de régression Non Linéaires

Ch3 Inférence Dans Les Modèles de régression Non Linéaires

Ratings: (0)|Views: 732|Likes:
Published by api-3737025

More info:

Published by: api-3737025 on Oct 15, 2008
Copyright:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as PDF, TXT or read online from Scribd
See More
See less

03/18/2014

pdf

text

original

Chapitre 3
Inf\u00b4erence dans les
Mod`eles de R\u00b4egression non Lin\u00b4eaire
3.1 Introduction

Supposons que l\u2019on dispose d\u2019un vecteury donn\u00b4e des observations de quelques variables d\u00b4ependantes, d\u2019un vecteurx(\u03b2) de fonctions de r\u00b4egression en g\u00b4en\u00b4eral non lin\u00b4eaires, qui devraient d\u00b4ependre et d\u00b4ependront en g\u00b4en\u00b4eral de variables ind\u00b4ependantes, et des donn\u00b4ees n\u00b4ecessaires au calcul dex(\u03b2). Puis en sup- posant que ces donn\u00b4ees permettent d\u2019identi\ufb01er tous les \u00b4el\u00b4ements du vecteur de param`etres\u03b2, et que l\u2019on ait acc`es `a un programme informatique ad\u00b4equat pour les moindres carr\u00b4es non lin\u00b4eaires et `a su\ufb03samment de temps, il serait possible d\u2019obtenir des estimations NLS\u02c6

\u03b2. Dans le but d\u2019interpr\u00b4eter ces esti-
mations, il faut g\u00b4en\u00b4eralement faire l\u2019hypoth`ese tr`es forte selon laquelley est
en r\u00b4ealit\u00b4e g\u00b4en\u00b4er\u00b4e par un DGP de la famille
y= x(\u03b2)+ u, u\u223cIID(0,\u03c32I),
(3.01)

de sorte que le mod`ele est suppos\u00b4e \u201ccorrect\u201d. Sans recourir `a cette hypoth`ese, ou `a une de ses variantes moins restrictives, il serait extr\u02c6emement di\ufb03cile de dire quoi que ce soit `a propos des propri\u00b4et\u00b4es de\u02c6

\u03b2, bien que cela soit possible
dans certains cas particuliers.
Il est clair que\u02c6
\u03b2doit \u02c6etre un vecteur de variables al\u00b4eatoires, puisqu\u2019il
d\u00b4epend dey, et donc du vecteur d\u2019al\u00b4easu. Ainsi, si l\u2019on d\u00b4esire op\u00b4erer des
inf\u00b4erences sur\u03b2, il nous faut reconna\u02c6\u0131tre que\u02c6
\u03b2est al\u00b4eatoire, et quanti\ufb01er cet
al\u00b4ea. Dans le Chapitre 5, nous d\u00b4emontrerons lorsque la taille de l\u2019\u00b4echantillon
est su\ufb03samment importante qu\u2019il est raisonnable de traiter\u02c6
\u03b2comme nor-

malement distribu\u00b4e autour de la vraie valeur de\u03b2, que nous nommerons\u03b20. Ainsi, la seule chose dont on a besoin si l\u2019on d\u00b4esire pratiquer des inf\u00b4erences asymptotiques correctes `a propos de\u03b2 est lamatrice de covariance de\u02c6

\u03b2,
not\u00b4eeV (\u02c6
\u03b2). Dans la prochaine section, nous verrons comment la matrice

de covariance pourrait \u02c6etre estim\u00b4ee pour les mod`eles de r\u00b4egression lin\u00b4eaire et non lin\u00b4eaire, et dans la Section 3.3 nous montrerons comment les estimations obtenues peuvent \u02c6etre utilis\u00b4ees pour faire des inf\u00b4erences sur\u03b2. Dans la Sec- tion 3.4, nous discuterons des id\u00b4ees de base qui sous-tendent tous les types

72
3.2 Estimation de la Matrice de Covariance
73

de tests d\u2019hypoth`eses. Dans la Section 3.5, nous discuterons des proc\u00b4edures pour les tests d\u2019hypoth`eses dans les mod`eles de r\u00b4egression lin\u00b4eaire, et dans la Section 3.6, nous verrons les proc\u00b4edures similaires qui s\u2019appliquent aux tests d\u2019hypoth`eses dans les mod`eles de r\u00b4egression non lin\u00b4eaire. Cette derni`ere section nous o\ufb00rira l\u2019opportunit\u00b4e de pr\u00b4esenter les trois principes fondamen- taux sur lesquels la plupart des tests d\u2019hypoth`eses se basent, c\u2019est-`a-dire les principes de Wald, du multiplicateur de Lagrange et du rapport de vraisem- blance. En\ufb01n, dans la Section 3.7, nous discuterons des e\ufb00ets de restric- tions incorrectes, et nous introduirons la notion des estimateurs issus des tests pr\u00b4eliminaires.

3.2 Estimation de la Matrice de Covariance
Dans le cas du mod`ele de r\u00b4egression lin\u00b4eaire
y= X\u03b2+ u, u\u223cIID(0,\u03c32I),
(3.02)
il est bien connu que lorsque le DGP v\u00b4eri\ufb01e (3.02) pour des valeurs d\u00b4e\ufb01nies des
param`etres de\u03b20 et de\u03c30, la matrice de covariance du vecteur des estimations
\u02c6
\u03b2obtenu par OLS, est
V(\u02c6
\u03b2) =\u03c32
0
\ue003
X\ue001X
\ue004
\u22121.
(3.03)
La d\u00b4emonstration de ce r\u00b4esultat familier est assez imm\u00b4ediate. La matrice de
covarianceV (\u02c6
\u03b2) est d\u00b4e\ufb01nie comme l\u2019esp\u00b4erance du produit ext\u00b4erieur de\u02c6
\u03b2\u2212 \u03b20
avec lui-m\u02c6eme, conditionnellement aux variables ind\u00b4ependantesX. A partir
de cette d\u00b4e\ufb01nition, et en utilisant le fait queE(\u02c6
\u03b2) = \u03b20, on remplace tout
d\u2019abord\u02c6
\u03b2par un terme qui lui est \u00b4equivalent sous le DGP, puis on calcule
l\u2019esp\u00b4erance conditionnellement `aX, et on simpli\ufb01e l\u2019expression alg\u00b4ebrique
pour obtenir (3.03):
V(\u02c6
\u03b2)\u2261E(\u02c6
\u03b2\u2212 \u03b20)(\u02c6
\u03b2\u2212 \u03b20)\ue001
=E
\ue003
(X\ue001X )\u22121X\ue001y\u2212 \u03b20
\ue004\ue003
(X\ue001X )\u22121X\ue001y\u2212 \u03b20
\ue004
\ue001
=E
\ue003
(X\ue001X )\u22121X\ue001(X\u03b20 +u)\u2212\u03b20
\ue004\ue003
(X\ue001X )\u22121X\ue001(X\u03b20 +u)\u2212\u03b20
\ue004
\ue001
=E
\ue003
\u03b20+(X\ue001X)\u22121X\ue001u\u2212 \u03b20
\ue004\ue003
\u03b20+(X\ue001X)\u22121X\ue001u\u2212 \u03b20
\ue004
\ue001
=E
\ue003
X\ue001X
\ue004
\u22121X\ue001uu\ue001X
\ue003
X\ue001X
\ue004
\u22121
=
\ue003
X\ue001X
\ue004
\u22121X\ue001
\ue003
\u03c32
0I
\ue004
X
\ue003
X\ue001X
\ue004
\u22121
=\u03c32
0
\ue003
X\ue001X
\ue004
\u22121X\ue001X
\ue003
X\ue001X
\ue004
\u22121
=\u03c32
0
\ue003
X\ue001X
\ue004
\u22121.
Obtenir un r\u00b4esultat analogue pour le mod`ele de r\u00b4egression non lin\u00b4eaire (3.01)
requiert quelques concepts d\u2019analyse asymptotique que nous n\u2019avons pas
74
Inf\u00b4
erence dans les Mod`
eles de R\u00b4
egression non Lin\u00b4
eaire

d\u00b4evelopp\u00b4es jusqu\u2019ici, et une certaine quantit\u00b4e de manipulations math\u00b4ema- tiques. Nous repoussons donc cette analyse au Chapitre 5, et nous \u00b4etablissons ici un r\u00b4esultat au plus approximatif.

Pour un mod`ele non lin\u00b4eaire, on ne peut pas en g\u00b4en\u00b4eral obtenir une
expression exacte deV (\u02c6
\u03b2) dans le cas d\u2019un \u00b4echantillon de taille \ufb01nie. Dans

le Chapitre 5, sous l\u2019hypoth`ese que les donn\u00b4ees ont \u00b4et\u00b4e g\u00b4en\u00b4er\u00b4ees par un DGP qui serait un cas particulier de (3.01), nous obtiendrons toutefois un r\u00b4esultat asymptotique qui nous permettra d\u2019\u00b4etablir que

V(\u02c6
\u03b2)\u223c=\u03c32
0
\ue003
X\ue001(\u03b20)X(\u03b20)
\ue004
\u22121,
(3.04)
o`

u\u223c= signi\ufb01e \u201cest approximativement \u00b4egal `a\u201d, etX(\u03b20) est la matrice des d\u00b4eriv\u00b4ees partielles de la fonction de r\u00b4egression pr\u00b4esent\u00b4ee dans (2.04). La qualit\u00b4e de cette approximation d\u00b4ependra du mod`ele et de la taille de l\u2019\u00b4echantillon. Elle sera en g\u00b4en\u00b4eral bien meilleure pour des mod`eles quasiment lin\u00b4eaires et pour des \u00b4echantillons de grande taille.

Dans la pratique, nous ne pourrions bien \u00b4evidemment pas faire usage de
(3.04) car\u03c32
0et\u03b20 ne sont pas connus; il nous faut les estimer. Le seul moyen
raisonnable d\u2019estimer\u03b20 dans ce contexte est de prendre\u02c6
\u03b2, mais il y a au
moins deux fa\u00b8cons d\u2019estimer\u03c32
0. Il en r\u00b4esulte deux fa\u00b8cons d\u2019estimerV (\u02c6
\u03b2). La
premi`ere que l\u2019on peut utiliser est
\u02c6
V(\u02c6
\u03b2)\u2261 \u02c6
\u03c32
\ue003
\u02c6
X\ue001\u02c6
X
\ue004
\u22121,
(3.05)
o`
u \u02c6
\u03c32\u2261 n\u22121SSR(\u02c6
\u03b2), et l\u2019autre est
Vs(\u02c6
\u03b2)\u2261s2
\ue003
\u02c6
X\ue001\u02c6
X
\ue004
\u22121,
(3.06)
o`
us2\u2261 (n\u2212 k)\u22121SSR(\u02c6
\u03b2).

Le premier de ces estimateurs, l\u2019expression (3.05), fait usage de l\u2019estima- teur\u03c32 du maximum de vraisemblance (consulter le Chapitre 8), qui est biais\u00b4e vers le bas. Pour se rendre compte de cela, remarquons que

SSR(\u02c6
\u03b2)\u2264SSR(\u03b20).
carSSR(\u02c6
\u03b2) minimiseSSR(\u03b2). De plus,
E
\ue003
SSR(\u03b20)
\ue004
=n\u03c32
0,
sous le DGP pr\u00b4esum\u00b4e, carSSR(\u03b20) est alors tout simplement
\ue001
nt=1u2t, et
u2ta une esp\u00b4erance \u00b4egale `a \u03c32
0. Ainsi, en faisant usage de \u02c6
\u03c32dans (3.05),
nous tendrons `a sous-estimer\u03c32 et donc, `a sous-estimer la variabilit\u00b4e de nos
estimations des param`etres.

You're Reading a Free Preview

Download
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->