You are on page 1of 16

ECONOMETRIE I

LE MODELE LINEAIRE
SIMPLE

CHAPITRE I : SPECIFICATION DU MODELE ET


ESTIMATION DES PARAMETRES
SPECIFICATION DU MODELE
SPECIFICATION DU MODELE LINEAIRE
SIMPLE : Le modèle
 MODELE :
Etant donné n couples d’observations (X1,Y1) ,(X2,Y2)… (Xn,Yn) et en supposant que la
relation plausible entre Y et X est linéaire d’ordre1 alors la modèle de régression linéaire
simple s’écrit :
Yi = b0 + b1Xi + ei i=1,….,n
Y est la variable dépendante ou expliquée ayant un caractère aléatoire, Y i représentant la ième
observation
b0 et b1 sont les paramètres du modèle de régression
X est la variable explicative, mesurée sans erreur ou dont les valeurs sont fixées avant
l’expérience à des valeurs arbitraires : c’est une grandeur certaine
e Dénote la fluctuation aléatoire non observable attribuable à un ensemble de facteurs ou de
variables non prises en compte dans le modèle
Remarques
 QUELLES TYPES DE SERIES UTILISER?
On s’intéressera essentiellement aux séries en coupe instantanée ou transversale. Pour les
séries temporelles, il convient de vérifier leur stationnarité au cours du temps. On vérifiera
notamment leur stationnarité en moyenne (graphiquement puis par l’application de tests de
racine unitaire) et en variance. Pour stationnariser une série, on utilise généralement la
différence logarithmique.
 DE QUELLE LINEARITE PARLE-T-ON ? On distingue la linéarité dans les variables (A
vérifier graphiquement et le cas échéant à obtenir par changement de variables ou
linéarisation) et la linéarité dans les paramètres, ce qui signifie que ceux-ci sont affectés
d’une puissance égale à 1 et ne sont pas multipliés ou divisés par un ou plusieurs autres
paramètres.
La linéarité qui nous intéresse ici est celle dans les paramètres, puisque en ce qui concerne les
variables, il suffit que le modèle puisse être linéarisé. En d’autres termes, le modèle peut être
linéaire en X ou en n’importe quelle transformation de X.
 Tout ceci montre également l’importance d’une ANALYSE GRAPHIQUE PREALABLE.
SPECIFICATION DU MODELE LINEAIRE
SIMPLE : Les composantes
Les valeurs Yi de la variable dépendante s’exprime comme une somme de deux composantes :
 Une composante non aléatoire (b0 + b1Xi) attribuable aux valeurs certaines prises par X.
Pour chaque Xi , b0 + b1Xi est une valeur fixe
 Une composante aléatoire ei qui tient compte du caractère aléatoire de Y. Cette composante
ei = Yi – (b0 + b1Xi ) représente la fluctuation aléatoire des valeurs individuelles Y i pour
chaque Xi autour de la valeur b0 + b1Xi
 CONSEQUENCE :
Pour chaque valeur particulière prise par la variable indépendante X, la variable
dépendante Y est une variable aléatoire caractérisée par une distribution de probabilité
possédant une espérance et une variance
SPECIFICATION DU MODELE LINEAIRE
SIMPLE : e
Le terme e mesure la différence entre les valeurs réellement observées de Yi et les valeurs qui
auraient été observées si la relation spécifiée avait été exacte. Il regroupe 3 types d’erreurs :
 Une erreur de spécification, le fait que la seule variable explicative n’est pas suffisante
pour rendre compte de la totalité du phénomène expliqué
 Une erreur de mesure, les données utilisées ne représentant pas parfaitement le phénomène
 Une erreur de fluctuation d’échantillonnage: d’un échantillon à l’autre les observations et
donc les estimations sont différentes
SPECIFICATION DU MODELE LINEAIRE
SIMPLE : les hypothèses fondamentales
 Hypothèse de linéarité entre X et Y : La courbe joignant les moyennes des distributions de Yi
pour les diverses valeurs de Xi est appelée équation de régression. On suppose que les
moyennes sont alignées et que cette équation est une droite, dite droite de régression de la
forme E(Yi )= b0 + b1Xi Ce qui équivaut à E(ei ) = 0
 La variance s² de chaque distribution des Yi est la même, peu importe les valeurs particulières
Xi : V(Yi)=s². Ceci revient à spécifier que la variance ei est constante pour toutes les valeurs
de X. C’est l’hypothèse d’homoscédasticité des erreurs : V(ei )= s²
 Les Yi ne sont pas corrélés entre eux ce qui équivaut à spécifier que :
1) E(ei ej )=0 si i≠j ; hypothèse d’absence d’autocorrélation
2) E(ei xi )=0 hypothèse qui implique que X est une variable certaine, observée sans erreur
 Hypothèse de normalité des Yi ou des ei
SPECIFICATION DU MODELE LINEAIRE
SIMPLE : Récapitulatif
La spécification complète du modèle de régression simple est donc :
Yi = b0 + b1Xi + ei i=1,….,n
Avec
E(ei ) = 0
E(ei ej )= 0 si i≠j ou E(ei ej )= s² si i=j
Et ei  N(0, s²)
OU ENCORE
Yi = b0 + b1Xi + ei i=1,….,n
Avec : ei  Nid(0, s²)
(les erreurs sont normalement et indépendamment distribuées)
E(Y)= aX+b

E(Y/X’)
E(Y/X)
La droite de régression (en rouge) E(Y)=aX+b passe par les points E(Y/Xi), pour tout i=1,…n et donc en
particulier en E(Y/X) et E(Y/X’) représentés sur ce graphique.
ESTIMATION DES PARAMETRES
ESTIMATION DES PARAMETRES :
Introduction
On veut obtenir de bonnes estimations des paramètres b 0 et b1 de la droite de régression E(Y)=
b0 + b1X . On voudra également évaluer l’ampleur de la variabilité des observations Yi autour
de la droite de régression cad obtenir une estimation de la variance des erreurs.
Comme tout travail statistique, nous nous servons des données de l’expérience pour calculer
les statistiques qui servent d’estimateurs des paramètres. En régression linéaire simple
l’objectif est d’obtenir une droite qui s’ajuste le mieux possible aux points du diagramme de
dispersion. On verra comment.
Pour chaque échantillon de taille n issu de la population, on obtiendra une estimation
différente de la droite de régression E(Y)= b0 + b1X . Soit une estimation de cette droite notée
= b0+b1X où b0 (estimateur de b0) représente l’ordonnée à l’origine et b1 (estimateur de b1) la
pente de la droite. On montrera que la méthode des moindres carrés ordinaires assurent que b 0
et b1 ont des propriétés importantes.
ESTIMATION DES PARAMETRES :
Principe des MCO
On cherche donc la droite = b0+b1Xi qui ajuste le mieux le nuage de points (X1,Y1), (X2,Y2),…,
(Xn,Yn). La valeur estiméede Yi est l’ordonnée d’un point de la droite dont l’abscisse est X i.
Comme le montre la figure ci-dessous certains points du couple(X i,Yi) sont au-dessus de la
droite d’autres en-dessous. Ces écarts notés e i par rapport à la droite et définis par : e i = Yi - =
Yi - b0+b1Xi
sont appelés résidus.
Le meilleur ajustement suppose que ces écarts mesurés verticalement entre les points du nuage
et la droite de régression soient aussi faibles que possible. La méthode des MCO consiste à
minimiser la somme des carrés des écarts donc la somme des carrés des résidus :
MCO  min ² =
empirique

Valeur estimée

Ecart ei = Yi -

Valeur observée
ESTIMATION DES PARAMETRES :
Application des MCO
 Etape 1 : Annulation des dérivées partielles :  Etape 2 : Positivité des dérivées
secondes
=0  (1)
(1)  =0
= 2n ≥ 0
(1) 
=0  (2) =2≥0

(2)  =0 b0 et b1 sont donc des minimums


(2) 

(1) et (2) sont appelées équations normales. La résolution de ce


système donne :

et
Remarques
 = = =
CSQ :
Lorsque que les variables sont centrées, cad lorsque les observations sont centrées sur leur
moyenne telles que et ,
Alors et =
 la droite de régression empirique passe toujours par le point (, ):
On a : = b0+b1Xi , en remplaçant b0 par sa valeur on obtient :
= +b1(Xi -)
 Les équations normales peuvent s’écrire :
et
ESTIMATION DES PARAMETRES :
Résidus et mesure de dispersion
On cherche à obtenir une estimation de la dispersion des Yi donc de s².
 Résidu :
ei = Yi - = Yi - b0- b1Xi = = b0 + b1Xi + ei - b0 - b1Xi et donc ei = ei – ( b0 -b0 )- (b1-b1)Xi
 Estimation de s²
On montre que la statistique est un estimateur sans biais de s². Une estimation s² de s² est calculée sur
l’échantillon. Il s’agit de la variance corrigée des résidus :
s² =
 Propriétés des résidus
1) : la somme des résidus est nulle, et le modèle en moyenne est correctement estimé
2) est minimale
3) 
4) 

You might also like