You are on page 1of 21

ÉCONOMETRIE 1

Support de cours licence 1 sciences économiques

1 Dr Éric KOUASSI
Par définition, un économiste est un analyste c’est-à-dire un spécialiste qui combine des données pour
aider les décideurs à comprendre le fonctionnement de l’économie et leur faire des recommandations de
politique. Ainsi, l’économétrie est pur eux un outil d’analyse quantitative primordial utilisé par les
économistes, mais aussi par les gestionnaires dans divers domaines d’application, comme la
macroéconomie, la finance ou le marketing.

2
SOMMAIRE
SOMMAIRE ............................................................................................................................................ 3
INTRODUCTION GENERALE .................................................................................................................. 4
L’ESSENTIEL A RETENIR SUR LA CORRELATION ................................................................................. 6
1 Définition et caractéristiques ........................................................................................................ 6
2 Étude de la corrélation linéaire ..................................................................................................... 6
L’ESSENTIEL A RETENIR SUR LA REGRESSION .................................................................................. 14
1 Généralités ................................................................................................................................... 14
2 Estimation des modèles .............................................................................................................. 15
3 Adéquation du modèle ................................................................................................................ 16
4 Significativité du modèle ............................................................................................................. 17
5 Diagnostic des résidus ................................................................................................................. 18
6 Prévision d’une valeur ultérieure ................................................................................................ 19
REFERENCE BIBLIOGRAPHIQUE ......................................................................................................... 21

3
INTRODUCTION GENERALE
Définition
« l’union de l’analyse économique, des mathématiques et de l’inférence statistiques » (cf.
A. Pirotte cité par Bresson).1

• Au sens large, c’est un ensemble de techniques utilisant la statistique


mathématique pour vérifier la validité empirique des relations supposées entre les
phénomènes économiques et pour en mesurer les paramètres.
• Au sens strict, c’est l’art de construire et d’estimer des modèles empiriques
adéquats par rapport aux caractéristiques de la réalité, et intelligibles au regard de
la théorie économique.

Utilité et démarche
L’économétrie est un outil d’aide à la décision dont les quatre principales fonctions sont :
1) Tester les théories économiques ou certaines hypothèses de la théorie économique
2) Évaluer les paramètres des relations économiques.
3) Prévoir l’évolution des variables économiques : si la théorie n’est pas rejetée, on
peut utiliser le modèle pour prédire les valeurs futures du phénomène étudié.
4) Contrôle ou politique économique
L’analyse économétrique dérive d’une démarche en 8 étapes :
1) Énoncer la théorie ou les hypothèses à étudier
2) Spécifier le modèle mathématique de la théorie en question ;
3) Spécifier le modèle statistique ou économétrique qui en découle ;
4) Collecter les données ;
5) Estimer les paramètres du modèle économétrique ;
6) Tester les hypothèses sur les paramètres du modèle ;
7) Faire des prévisions ou prédictions en cas de validité du modèle
8) Contrôle ou de politique économique
En général, c’est la théorie (économique,) qui doit guider l’économètre pour la
spécification du modèle, les données ne doivent servir qu’à valider ou invalider les
hypothèses émises.
Type de données et notations
Soit la fonction y = f ( x; b0 , b1 ) qui indique que le phénomène y est exclusivement
expliqué par x si on connait les paramètres β0 et β1. Pour déterminer les valeurs de ces
paramètres, l’économètre va utiliser des données observées de différentes manières. Il
peut s’agir de :

• Séries chronologiques ou séries temporelles correspondent à des observations de


variables à intervalles temporels réguliers. Les variables de la fonction étudiée
seront alors marquées d’un indice de temps t : yt = f ( xt ; b0 , b1 ) avec t=1,…, T. Ici

1
Raguar Frisch définit l’économétrie comme tel dans son éditorial du premier numéro de
la revue Econometrica paru en 1993.
4
t désigne l’année, le trimestre ou encore le mois correspondant à l’observation
considérée. T est le nombre total d’observations (années) disponibles.
• Coupes instantanées ou coupes transversales correspondent à l’observation, à un
moment donné, de variables sur différents « individus ». Les variables de la fonction
étudiée seront alors marquées d’un indice d’individus i : yi = f ( xi ; b0 , b1 ) avec i=1,
…, n. Ici i désigne un individu, un ménage, une entreprise, un secteur, un pays…
correspondant à l’observation considérée. N est le nombre total d’observation
(individus) disponibles.
• Données de panel ou donnée individuelles-temporelles ou encore coupes répétées
intègrent les deux dimensions, individuelle et temporelle, puisqu’elles
correspondent à l’observation d’individus suivis dans le temps. Les variables de la
fonction étudiée seront alors marquées simultanément d’un indice d’individu et
d’un indice de temps it : yit = f ( xit ; b0 , b1 ) avec i=1, …, n et t=1, …, T.

Objet du cours
Pour exprimer la relation ou l’association entre deux, on a recours à la régression et à la
corrélation, deux notions souvent confondues.
Une analyse de régression univariée donne une idée du mode d’association entre deux
variables, mais elle ne permet pas de déterminer le degré́ de cette association. L’intensité́
de la liaison s’exprime au moyen du coefficient de corrélation.

5
L’ESSENTIEL A RETENIR SUR LA CORRELATION

1 Définition et caractéristiques
Des phénomènes (économique) sont dits « corrélés » lorsqu’ils ont une évolution
commune.

• La corrélation peut être simple ou multiple (partielle). Dans le premier cas il s’agit
de la liaison existante entre deux phénomènes représentés par des variables, tandis
que dans le deuxième cas, il s’agit de la liaison entre trois variables ou plus.
• La corrélation est dite positive lorsqu’il y a une augmentation (ou diminution, ou
constance) simultanée des valeurs des deux variables, tandis qu’elle est dite
négative, lorsque les valeurs de l’une augmentent, les valeurs de l’autre diminuent.
Il y a non corrélé, s’il n’y a aucune relation entre les variations des valeurs de l’une
des variables et les valeurs de l’autre.
• La corrélation peut être linéaire ou non linéaire.

2 Étude de la corrélation linéaire


En général, l’étude de la corrélation cherche à rendre compte de la forme, de la direction
et de la force de la liaison linéaire éventuelle entre les deux phénomènes.
Cette étude comporte les éléments suivants : Vérification des conditions de validité, Calcul
d’un coefficient de corrélation, Test de significativité, Interprétation du coefficient.
2.1 Vérification des conditions de validité de l’étude
Elles sont au nombre de trois :

• Indépendance des observations associées à chaque variable (x et y) ;


• Existence d’une liaison linéaire entre x et y.
• Distribution conditionnelle normale et variance constante des deux variables ;

2.1.1 Forme de la liaison entre x et y


La forme linéaire de la liaison peut s’appréhender par l’observation et l’interprétation d’un
diagramme de dispersion, qui permet de rendre compte de la direction et de la forme de la
corrélation. Soient des échantillons (aléatoires) de n observations {(xi, yi), i=1, …, n}. Pour
chaque échantillon, chaque couple (xi, yi) peut être représenté dans le plan par un point Mi
d’abscisse xi et d’ordonnée yi. Par exemple :

y I y II

x x
y III IV
6
• La corrélation est linéaire, lorsque tous les points du couple de valeurs (x, y) des
deux variables semblent alignés sur une droite. Par exemple les points des nuages I
et II sont presque alignés, mais de directions différentes traduisant une corrélation
linéaire respectivement y positive (I) et négative (II) entre les variables x et y.
• La corrélation non linéaire lorsque le couple de valeurs se trouve sur une même
courbe d’allure quelconque. Par exemple, le nuage IV décrit une courbe régulière
qui n'est pas une droite traduisant une corrélation non-linéaire entre les variables x
et y .
• Le nuage III ne présente pas de structure particulière, traduisant ainsi une absence
il n’y a donc pas de corrélation entre les variables x et y.

2.1.2 Normalité des variables x et y

On peut utiliser des tests de normalité dont le test de Jarque-Bera et le test de Shapiro-
Wilk.

2.1.2.1 Test de Jarque-Bera


Le test JB est applicable lorsque n˃88. Il est basé sur les coefficients d’asymétrie et
d’aplatissement. Sous l’hypothèse nulle (H0) de « normalité », la statistique du test JB suit
asymptotiquement une distribution χ2(2) à deux degrés de liberté au seuil de signification
α = 5% est :
𝑛 ! (𝐾 − 3)!
𝐽𝐵 = &𝑆 + /
6 4
Où n est la taille de l’échantillon, S le Skewness et K la Kurtosis. Si JB≥ à la valeur du χ2(2)
lue dans la table au seuil α, on rejette H0 et la variable ne suit pas une loi normale.

Encadré 1 asymétrie et aplatissement

7
SKEWNESS

En théorie des probabilités et statistique, le coefficient d’asymétrie ou skewness


correspond à une mesure d’asymétrie de la distribution d’une variables aléatoire réelle.

Soit une variables aléatoire réelle X de moyenne 𝜇 et d’écart-type 𝜎 on définit son


coefficient d’asymétrie comme le moment d’ordre trois de la variables aléatoire réelle
𝑥−𝜇 #
𝛾" = 𝐸 45 7 8
𝜎
Lorsque cette espérance existe alors on a :
𝜇#
𝛾" =
𝜎#
𝛾" < 0 distribution décalée à droite de la médiane et donc une queue de distribution étalée
vers la gauche
𝛾" > 0 distribution décalée à gauche de la médiane et donc une queue de distribution étalée
vers la droite
𝛾" = 0 distribution symétrique mais pas forcement

KURTOSIS

En théorie des probabilités et statistique, le kurtosis correspond à une mesure directe


de Pearson de l’acuité ou indirecte de l’aplatissement de la distribution d’une variables
aléatoire réelle. On l’appelle aussi coefficient d’aplatissement ou coefficient d’acuité
Soit une variables aléatoire réelle X de moyenne 𝜇 et d’écart-type 𝜎 on définit son
coefficient d’asymétrie comme le moment d’ordre quatre de la variable aléatoire réelle
𝑥−𝜇 $
𝛽! = 𝐸 45 7 8
𝜎
Lorsque cette espérance existe alors on a :
𝜇$
𝛽! =
𝜎$
𝛽! = 3, on parle de distribution mésokurtique.
𝛽! > 3, on parle de distribution leptokurtique .
𝛽! < 3, on parle de distribution platikurtique .
La loi normale est un cas particulier de distribution mésokurtique pour laquelle le skewness
est nul 𝛾" = 0

MOMENTS CENTRÉ D’ORDRE k

8
𝜇% = 𝐸 [(𝑥 − 𝐸(𝑥))% ]

Avec 𝜇"&' 𝑒𝑡 𝜇! = 𝜎 !

Test de Shapiro-Wilk

Ce test applicable lorsque n<55 est basé sur une statistique W.


!
C∑(,&" 𝑎( F𝑥(*+,-") − 𝑥(,)GH
𝑊= !
∑*,&"F𝑥(,) − 𝑥̄ G
Où n est la taille de l’échantillon, j est la partie entière du rapport (n/2), x(i) correspond à la
série des données triées en ordre croissant, ai sont des valeurs lues dans la table des
coefficients de Shapiro et Wilk sachant n et j. Sous l’hypothèse nulle (H0) « la variable est
gaussienne», on rejette H0 si W < WTable(n) au seuil α, la variable est non gaussienne.

2.2 Coefficients de corrélation linéaire

Un coefficient de corrélation permet de quantifier l’intensité ou degré et le sens de la


liaison linéaire entre x et y. Le coefficient de corrélation le plus couramment utilisé est celui
de Bravais-Pearson ou coefficient de Pearson.
2.2.1 Coefficient de Bravais-Pearson
Le coefficient de corrélation linéaire simple, dit de Bravais-Pearson (ou de Pearson), est une
normalisation de la covariance par le produit des écarts-type des variables.

𝐶𝑂𝑉(𝑋, 𝑌) 𝐶𝑂𝑉(𝑋, 𝑌)
𝑟/0 = =
Q𝑉𝐴𝑅 (𝑋). 𝑉𝐴𝑅(𝑌) 𝜎/ 𝜎0

Ce coefficient est un chiffre se situant toujours entre -1 (relation linéaire parfaite avec
pente négative) et +1 (relation linéaire parfaite avec pente positive).
Les propriétés de ce coefficient sont :

Il est de même signe que la variance, avec les mêmes interprétations.


1. Le coefficient de corrélation est indépendant des unités de mesure des variables, ce qui
permet les comparaisons.
2. Le coefficient de corrélation est une mesure normalisée qui prend des valeurs entre -1 et 1 ;
3. 𝑟 = +1, la liaison entre 𝑋 et 𝑌 est linéaire, positive et parfaite c.-à-d. la connaissance
de 𝑋 nous fournit la valeur de 𝑌 (et inversement) ;
4. 𝑟 = −1, la liaison est linéaire négative ;
5. Si 𝑋 et 𝑌 sont indépendants, alors 𝑟/0 = 0. La réciproque est fausse car il peut exister
une liaison fonctionnelle, mais non monotone entre les variables une corrélation que
le coefficient Bravais-Pearson ne permet pas de révéler.
6. L’intensité de la corrélation d’une variable avec elle-même est 𝑟// = 1

9
7. il s’agit d’une mesure symétrique qui n’établit pas de distinction entre les variables
dépendantes et indépendantes

2.2.1.1 Coefficient de corrélation empirique :

Sur un échantillon de taille 𝑛, nous estimons le coefficient de corrélation à l’aide de la formule


suivante :

∑*,&"(𝑥, − 𝑥̅ )(𝑦, − 𝑦Y) ∑ 𝑥, 𝑦, − 𝑛𝑥̅ 𝑦Y


𝑟̂ = =
Q∑*,&"(𝑥, − 𝑥̅ )! Q∑*,&"(𝑦, − 𝑦Y)! Q𝑥, ! − 𝑛𝑥̅ ! Q𝑦, ! − 𝑛𝑦Y !

2.2.1.2 Biais et coefficient de corrélation ajusté :

Le coefficient de corrélation empirique est un estimateur biaisé. Fort heureusement, le biais


devient négligeable lorsque l’effectif augmente. L’espérance de l’estimateur s’écrit :

𝑟(1 − 𝑟 ! )
𝐸 [𝑟̂ ] = 𝑟 −
2𝑛

Pour cette raison, on peut être amené à utiliser un coefficient de corrélation ajusté :

𝑛−1
12 = \1 −
𝑟[ (1 − 𝑟̂ ! )
𝑛−2

Bien entendu, l’ajustement est d’autant plus sensible que l’effectif est faible. Lorsque 𝑛 est élevé,
𝑟̂ et 𝑟[
12 se confondent.

Outre le coefficient de corrélation linéaire de Bravais-Pearson, on utilise souvent le


coefficient de rangs de Spearman.

2.2.2 Coefficient des rangs de Spearman

Ce coefficient est une mesure non paramétrique du degré de liaison linéaire entre deux
variables quantitatives X et Y.

6 ∑*,&" 𝐷,!
𝑟ℎ𝑜34 =1−
𝑛(𝑛! − 1)
Où Di = Ri - Si, où Ri est le rang de x et Si est le rang de y ; n est le nombre d’observations.
Avant d’appliquer la formule, il faut déterminer les rangs Ri et Si. Pour ce faire, il
faut affecter des rangs entre 1 et n à chaque observation sachant que la plus petite
observation reçoit le rang 1 et la plus grande observation reçoit le rang n. En présence d’ex

10
aequo dans les observations, on leur affecte la moyenne arithmétique de leurs rangs
respectifs.

2.3 Différences entre Spearman vs Bravais-Pearson

Les différences entre le coefficient de Spearman et de Braivais-Pearson peuvent être mises en


évidence à partir de trois critères : présence de valeurs atypiques, aberrantes ; la normalité des
variables et l’existence d’un liaison linéaire et monotone entre x et y.

Spearman Bravais - Pearson


Les variables doivent être normalement distribuées
Cela n’est pas obligatoire pour rhoxy. Cela est obligatoire pour rxy. En cas de
distribution normale des variables rhoxy = rxy

Lorsque la liaison entre les variables est non linéaire mais monotone
rhoxy est approprié, car il estime mieux le rxy donne une idée sur le sens de la liaison
sens et la force de la liaison entre x et y. mais estime mal sa force de la liaison entre x
et y.
En présence de points atypiques ou aberrants des déviants
Le rhoxy résiste Le rxy très influencé.
Si la liaison entre les deux variables étudiées est non linéaire et non monotone, les deux
coefficients rxy et rhoxy ne sont plus adaptés.

2.4 Significativité du coefficient de corrélation

Le coefficient de corrélation de Pearson ρ qui mesure le degré d’association linéaire entre


X et Y à partir des données sur la population est :

cov( X , Y ) E ( XY ) - E ( X ) E (Y )
r= =
s XsY s ( X )s (Y )
Le coefficient de Pearson r calculé à partir des données de l’échantillon est un estimateur
de ρ supposé inconnu. Le coefficient ρ des valeurs rarement très proche des bornes -1, 0, 1
et il est donc difficile de proposer une interprétation fiable à la simple lecture de ce
coefficient.
La théorie des tests statistiques nous permet de lever cette indétermination. Un test
d’hypothèse est une démarche qui vise à fournir une règle de décision permettant de faire
un choix entre deux hypothèses (nulle H0 et alternative H1) et ce sur la base de résultats
d’échantillon.
Ici il permet de vérifier si le coefficient 𝛽, est significativement différent de 0. Ce test est
efficace lorsque n > 30.

11
2.4.1 Les hypothèses du test
• H0 : ρ = 0 (absence de liaison linéaire entre x et y)
• H1 bilatérale : ρ ¹ 0 (existence d’une liaison entre X et Y)
2.4.2 Seuil de confiance

La décision de favoriser H0 est basée sur une information partielle, résultant d’un
échantillon. Ainsi, il est statistiquement impossible de prendre toujours la bonne décision.
Le seuil de confiance α est le risque de rejeter l’hypothèse nulle H0 alors qu’elle est vraie.
On l’appelle aussi seuil de significativité ou erreur de première espèce.

Réalité H0 vraie H0 fausse


Décision

Non-rejet de H0 correct Manque de puissance


risque de second
espèce b

Rejet de H0 Rejet à tort Puissance du test


risque de première 1-b
espèce a

2.4.3 Statistique du test


Le test du coefficient de corrélation consiste à calculer la grandeur tC et à la comparer à la
valeur seuil tα sur la table de la loi associée à tC. Le rapport de l’estimateur du coefficient de
corrélation r sur son écart-type suit une loi de Student à (n-2) degrés de liberté.

r r r n-2
tC = = = ® T( n - 2)
var(r ) 1- r2 1- r2
n-2

Le nombre de degré de liberté est la différence entre le nombre d’observation n de


l’échantillon et le nombre de paramètre dans la relation linéaire.
2.4.4 Règle de décision
• Si tC > ta / 2;n - 2 ou tC < -ta / 2;n - 2 on rejette H0 avec un risque 0 ≤ α ≤ 1
• Si P (tC > ta / 2;n - 2 ) < a ou P ( tC < -ta /2;n-2 ) < a , on rejette H0 avec un risque 0 ≤ α ≤ 1

Lorsqu’on rejette l’hypothèse nulle, cela signifie que le coefficient de corrélation calculé
est significativement différent de zéro. Il existe donc une liaison linéaire entre les variables
y et x étudiées.

12
2.5 Interprétation
Le coefficient de corrélation est un nombre forcément compris entre −1 et 1. La covariance
entre deux variables mesure la part de dépendance linéaire entre X et Y.
Interprétation géométrique de la corrélation

• Si ρ > 0 alors lorsque X tend à augmenter, Y augmente aussi et vice-versa.


• Si ρ < 0 alors lorsque X tend à augmenter, Y diminue aussi et vice-versa.
• Si ρ = 0 alors X et Y sont non corrélées : il n’y a pas d’association linéaire entre X et
Y.
• Si | ρ |=1 alors l’une des variables est une fonction affine de l’autre, par exemple y
est une fonction affine de x i.e. Y = β1X + β0 avec β1 du signe de ρ.
2.6 Limites
Le coefficient de corrélation linéaire présente essentiellement quatre faiblesses, à savoir :

• Le coefficient de corrélation de Bravais-Pearson ne mesure que les liaisons linéaires.


Lorsque la liaison est non linéaire, il induit une erreur sur l’intensité de la liaison.
• En présence des variables qualitatives comme la paix, la religion, etc., ces
coefficients ne sont plus adaptés.
• Ile coefficient de corrélation n’informe ni sur l’impact ni sur la causalité. Il ne permet
pas d’établir une causalité mais, rendre compte du sens et du degré d’association
éventuelle entre variables.
• La corrélation peut être fortuite ou fallacieuse : un coefficient de corrélation
différent de zéro n’implique pas toujours une liaison d’ordre économique. Les deux
variables peuvent être liés à un même phénomène (troisième variable) dont il faut
neutraliser l’effet.

13
L’ESSENTIEL A RETENIR SUR LA REGRESSION

1 Généralités
1.1 Définition
La régression est une « Méthode statistique visant à analyser la relation (association) entre
une variable dépendante particulière et une ou plusieurs variables indépendantes ».
Soit l’échantillon (aléatoire) de n observations {(xi, yi), i=1, …, n}. Chaque couple (xi, yi) est
représenté dans le plan par le point Mi d’abscisse xi et d’ordonnée yi (graphique 1.a)

y y

x x
Graphique 1.a Graphique 1.b

Lorsqu’un diagramme de dispersion suggère que les variations d’une variable sont
proportionnelles à celles de l’autre variable, l’analyse de régression linéaire permet de
déterminer la droite approchant au mieux cette variation proportionnelle. Cela revient à
chercher la droite de laquelle tous les points sont aussi peu éloignés que possible de cette
droite.

1.2 Modèle linéaire simple


Le modèle linéaire simple est un modèle qui établit une relation linéaire entre une seule
variable explicative (X) et une variable à expliquer (Y). Il peut se présenter sous forme de :

• Modèle théorique : 𝑦, = 𝛽' + 𝛽" 𝑥,


• Modèle économétrique : 𝑦, = 𝛽' + 𝛽" 𝑥, + 𝜀,

• 𝛽" est le coefficient de régression qui indique dans quelle mesure la valeur d’une
variable dépendante (ou variable expliquée) varie avec la variation de la valeur de
la variable indépendante (ou variable explicative).
• 𝛽' est l’intercept ou ordonnée à l’origine. C’est la valeur de la variable dépendante
lorsque la variable indépendante vaut zéro.
• 𝜀, est le bruit ou terme d’erreurs ou perturbations résultant de trois types d'erreurs
:

14
o Erreur de spécification (omissions): d’autres variables omises peuvent avoir
une influence sur y. L’estimation de β1 est biaisée car sa vraie valeur est
surestimée ou sous-estime par le modèle.
o Erreur de mesure : les données ne représentent pas pleinement le
phénomène. Cela arrive lorsqu’on utilise des « proxy ».
o Erreur de fluctuation d'échantillonnage : les observations varient d'un
échantillon à l’autre provoquant des fluctuations de y autour de sa moyenne.
Les estimations seront différentes.

2 Estimation des modèles


Les paramètres 𝜷𝟎 et 𝜷𝟏 de la population ou univers de référence sont inconnues. On
peut les estimer à partir des données observées sur un échantillon. Le modèle estimé
obtenu en effectuant la régression de y sur x est :
d𝟎 + 𝜷
c𝒊 = 𝜷
𝒚 d 𝟏 𝒙𝒊

La droite de régression associée à cette équation de régression donne la valeur ajustée,


ou prédiction, ou encore valeur estimée de y pour x. Cette droite de régression avec
constante passe par le centre de gravité du nuage de points, noté ( x , y ) .

Lorsqu’on compare les points de la droite aux autres observations on remarque que, pour
un xi la valeur de y est plus ou moins éloignée de la valeur prédite pour ce même xi. Les
différences entre les valeurs observées et les valeurs estimées de y sont appelées résidus
ei :
c 𝒊 = 𝒆𝒊
𝒚𝒊 − 𝒚 (4)
Graphiquement β0 et β1 sont construits pour minimiser les distances verticales entre les
observations et la droite de régression théorique. En organisant l’équation (4) et en
remplaçant yˆt on obtient l’équation suivante :

d𝟎 + 𝜷
𝒚𝒊 = 𝜷 d 𝟏 𝒙𝒊 + 𝒆𝒊 (5)
On remarque que le résidu ei est une estimation de la perturbation 𝜺𝒊 .

2.1 Estimateurs des MCO des paramètres


La méthode la plus couramment utilisée pour estimer les paramètres de l’équation de
régression linéaire est celle dite des moindres carrés ordinaires. Les estimateurs des
moindres carrés 𝛽h' et 𝛽h" des paramètre 𝛽' et 𝛽" s’obtiennent en minimisant la quantité la
somme des carrés des résidus.
* *
!
i 𝑒,! = iF𝑦, − 𝛽h' + 𝛽h" 𝑥, G
,&" ,&"

Les solutions de ce programme sont :

𝛽h' = 𝑦̄ − 𝛽h" 𝑥̄
∑*,&"(𝑦, − 𝑦̄ )(𝑥, − 𝑥̄ ) ∑*,&" 𝑦, 𝑥, − 𝑛𝑦̄ 𝑥̄
𝛽h" = = * !
∑*,&"(𝑥, − 𝑥̄ )(𝑥, − 𝑥̄ ) ∑,&" 𝑥, − 𝑛𝑥̄ !

15
2.2 Qualité des estimateurs
Théorème de Gauss-Markov : les estimateurs des MCO sont « the Best Linear Unbiased
Estimator (BLUE) » c’est-à-dire qu’ils sont les meilleurs estimateurs linéaires sans biais.

2.3 Estimation de variances


Estimation de la variance des erreurs :

!
∑*,&" 𝜀̂,! ∑*,&" 𝑒,! ∑*,&"(𝑦, − 𝑦j, )!
𝜎j = = =
𝑛−2 𝑛−2 𝑛−2
Estimation des variances de paramètres :

𝜎j ! ∑*,&" 𝑥,! 𝜎j !
𝑉k F𝛽h' G = , 𝑉k F𝛽h" G =
𝑛 ∑*,&"(𝑥, − 𝑥̄ )! ∑*,&"(𝑥, − 𝑥̄ )!

3 Adéquation du modèle
3.1 Analyse de la variance (ANOVA)
L’ANOVA consiste à décomposer la variance de la variable dépendante en deux sources
de variation : une variation explicable par la droite de régression et une variance
résiduelle ou inexplicable. On a donc :
Somme des carrés totale (SCT) = Somme des carrés expliquée par le modèle (SCE) + la
somme des carrés résiduelles (SCR).
* * * * *

i(𝑦, − 𝑦̄ )! = i(𝑦j, − 𝑦̄ )! + i(𝑦, − 𝑦j, )! = i(𝑦j, − 𝑦̄ )! + i 𝜀̂,!


,&" ,&" ,&" ,&" ,&"

L’ANOVA est résumé dans le tableau ANOVA

Source de variation Somme des carrés Degré de liberté Carré moyen F


Régression SCE 1 SCE
Résiduelle SCR n-2 SCR/(n-2)
Totale SCT n-1 SCT/n-1

3.2 Coefficient de détermination (R²)


Le R² est une mesure descriptive de la qualité de l’ajustement des points expérimentaux de
la droite. Il s’obtient par la formule :
𝑆𝐶𝐸 1 − 𝑆𝐶𝑅 ∑*,&"(𝑦j, − 𝑦̄ )!
𝑅! = = = *
𝑆𝐶𝑇 𝑆𝐶𝑇 ∑,&"(𝑦, − 𝑦̄ )!

Le R² est donc la part de la variabilité expliquée par le modèle sur la variabilité totale. Le
coefficient de corrélation R² est le carré du coefficient de corrélation empirique entre X et
Y. Il prend des valeurs dans l’intervalle [0, 1] et :

• Si R² = 0 : SCE =0 et donc que yˆi = y . Pas de liaison linéaire entre x et y. La droite


horizontale et le modèle de régression linéaire est inadapté, la variable x n’explique
pas de façon affine bien la variable réponse y.

16
• Si R² = 1, le modèle explique tout. Il y a une liaison linéaire parfaite entre x et y ; c’est-
à-dire que yi = β0 + β1xi pour tout i et mes points de l’échantillon sont parfaitement
alignés sur la droite des moindres carrés ;
Pour comparer des modèles qui ont un nombre différent de données il faut calculer le
coefficient de détermination ajusté qui corrigé les degrés de liberté :
𝑛−1
𝑅1! = 1 − (1 − 𝑅! )
𝑛−2

4 Significativité du modèle
Les 𝛽h, appelés coefficients empiriques, calculés partir d’un échantillon d’observations, sont
des estimations des coefficients vrai 𝛽, supposé inconnu. Pour se rassurer que 𝛽, ≠ 0 et
qu’ils peuvent être estimé par 𝛽h, on utilise la théorie des tests d’hypothèse.
Ainsi avant tout interpréter des résultats des estimations, il faut se rassurer de la
significativité globale du modèle et de la significativité individuelle des coefficients estimés.
4.1 Significativité globale
1) Hypothèses du test : H0 : β1=0 vs H1 : β1≠0 (test bilatéral)
2) Seuil de confiance α=5%
89: ;!
3) Calcul de la statistique : 𝐹 = 89;/(*+!) = ("+;! )/(*+!)
4) Décision
a. Si 𝐹9 > 𝑓=;(",*+!) ou 𝐹9 < −𝑓=;(",*+!) on rejette H0 avec un risque α=5%
o Si 𝑃(𝐹9 > 𝑓=;(",*+!) ) < 𝛼 ou 𝑃F𝐹9 < −𝑓=;(",*+!) G < 𝛼 on rejette H0 au seuil
α=5%
4.2 Significativité individuelle
Elle porte sur la pente de la droite de régression (β1) et l’ordonnée à l’origine (β0).
Test pour β1
1) Hypothèses du test : H0 : β1=0 vs H1: β1≠0 (test bilatéral)
2) Seuil de confiance α=5%
A"
@
3) Calcul de la statistique : 𝑡" = #
$ → 𝑇(*+B+")
!
%∑- '() *(̄ ,
)."

4) Décision
a. Si 𝑡" > 𝑡=/!;*+! ou 𝑡" < −𝑡=/!;*+! on rejette H0 avec un risque α=5%
b. Si 𝑃(𝑡" > 𝑡=/!;*+! ) < 𝛼 ou 𝑃(𝑡" < −𝑡=/!;*+! ) < 𝛼 on rejette H0 au seuil α=5%

Test pour β0
1) Hypothèses du test : H0: β0=0 vs H1: β0≠0 (test bilatéral)
2) Seuil de confiance α=5%
A/
@
3) Calcul de la statistique : 𝑡' = → 𝑇(*+B+")
∑ - (!
DE
C )." )
- !
- ∑)."'() *(̄ ,

4) Décision
a. Si 𝑡' > 𝑡=/!;*+! ou 𝑡' < −𝑡=/!;*+! on rejette H0 avec un risque α=5%

17
b. Si 𝑃(𝑡' > 𝑡=/!;*+! ) < 𝛼 ou 𝑃(𝑡' < −𝑡=/!;*+! ) < 𝛼 on rejette H0 au seuil α=5

5 Diagnostic des résidus


Les hypothèses de distribution des erreurs sont très essentielles lorsqu’on doit construire
des tests et des intervalles de confiance et réaliser des prévisions à partir de la méthode
des MCO. Jusqu’ici il est supposé que

• H1 : les erreurs sont centrées : 𝛦 [𝜀, ] = 0


• H3 : les termes d’erreur εi sont non corrélés : 𝐶𝑜𝑣F𝜀, , 𝜀( G = 0, ∀𝑖 ≠ 𝑗
• H2 : d’hypothèse d’homoscédasticité (homogénéité des variances) : 𝑉(𝜀, ) = 𝜎 !
• H4 : les termes d’erreur εi sont normalement distribués : 𝜀, → 𝛮(0, 𝜎 ! )
On ne peut vérifier ou tester ces hypothèses qu’a posteriori en utilisant les résidus du
modèle : {𝜀̂, , 𝑖 = 1, … , 𝑛}. Si elles sont satisfaites alors le modèle peut servir pour la
prévision.
5.1 Hétéroscédasticité
• Définition : il y a hétéroscédasticité des résidus lorsque l’hypothèse E(εi²) σ² est
violée c’est-à-dire si E(εi²) ≠ σ². Ainsi E(εi²) dépend des valeurs de la variable
explicative.
• Problème : les estimateurs des paramètres sont sans biais, mais inefficaces puisque
les estimateurs de leur variance sont biaisés.
• Détection graphique : nuage de points des résidus normalisés en fonction des
valeurs de la variable explicative ou des valeurs prédites de la variable expliquée.
Les points du nuage décrivent un éparpillement autour de la valeur 0, sans
comportement particulier. Dans notre exemple, les résidus se situent à l’intérieur
d’une bande horizontale et les points ne présentent pas d’écart plus ou moins
important à mesure que X augmente, les erreurs sont homoscédastiques.

2
normalisés

0
Résidus

x
-2

• Détection par test : plusieurs (Goldfeld-Quandt, White, Breush-Pagan et Park-


Glejser), mais nous nous limitons au test de White.
5.2 Autocorrélation des résidus
• Définition : il y a autocorrélation des résidus apparait lorsque l’hypothèse
probabiliste E(εi,εj)=0 est violée, c’est-à dire lorsque E(εi, εj)≠0.
• Détection graphique : tracé d’un nuage de points des résidus normalisés en
fonction des valeurs de la variable explicative ou des valeurs prédites de la variable
expliquée:

18
• Détection par tests : On utilise le test de Durbin-Watson qui vérifie l’existence d’une
autocorrélation d’ordre 1 de la forme :
𝜺𝒕 = 𝝆𝜺𝒕+𝟏 + 𝒗𝒕
}
𝒗𝒕 ≡ 𝑵(𝟎, 𝝈𝟐𝒗 )
• Hypothèses du test
o H0 : ρ=0
o H1 : ρ≠0
∑-
0.!(J
K +JK0*" )!
• Statistique du test : 𝐷𝑊 = ∑-
0
K 0!
0." J
• Règle de décision : on compare le DW calculé avec les seuils d1 et d2 fournis par la
table de Durbin et Watson
o Si 0 < DW < d1 alors ρ > 0 : il y a autocorrélation positive
o Si d2 < DW < 4-d2 alors ρ = 0 : il y a absence d’autocorrélation
o Si 4-d1<DW<4 alors ρ < 0 : il y a autocorrélation négative
5.3 Normalité
• Problème : une non-normalité des résidus ne remet pas en cause l’équation du
modèle mais elle empêche d’estimer les intervalles de confiance des paramètres.
• Détection par tests : Jarque-Bera (applicable à de grand échantillon : n˃88) et
Shapiro-Wilk (applicable à des petits échantillons : n ≤50)
• Détection graphique : histogramme des résidus et des résidus studentisés ou
nuage de points des résidus en fonction des quantiles normalisés (courbe de
Henry). Les résidus normalement distribués si les points sont alignés selon une
droite. Ainsi, tout écart systématique indiquerait que les résidus ne sont pas
normalement distribués.
Résidus

Quantiles normalisés

Prévision d’une valeur ultérieure


On peut prévoir, à l’aide du modèle de régression, la valeur de la variable y pour une valeur non
observé xi+z de x. La prévision peut être ponctuelle ou par intervalle de confiance.
Prévision ponctuelle
Soit le modèle

19
𝑦!"# = 𝛽$ + 𝛽% 𝑥!"# + 𝜀!"#
y&"' et ε&"' sont des variables aléatoires.
𝑥!"# est la nouvelle valeur de x pour un individu ou une période z.
On prédit en moyenne ponctuellement y&"' la nouvelle valeur de y pour la nouvelle valeur 𝑥!"#
donnée de x en substituant la nouvelle valeur 𝑥!"# dans le modèle estimé pour obtenir la nouvelle
valeur y&"' . La prédiction naturelle est alors :
ˆ [ y ] = bˆ + bˆ x
ˆi + z = E
y i+ z 0 1 i+z

Puisque que les estimations portent sur un échantillon, la prévision peut se faire avec une marge
d’erreur.
Erreur de prévision

L’erreur de prédiction est définie par 𝑦!"# − 𝑦+!"# = 𝑒!"# . Or comme 𝑦!"# est inconnu au moment de
la prédiction, l’erreur de prévision dépendra de sa réalisation.
On peut montrer que sous les hypothèses du modèle (incluant l’hypothèse de normalité), on a :
1 (𝑥!"# − 𝑥̄ )(
𝑦!"# − 𝑦+!"# → 𝑁 /0, 𝜎 ( 31 + + ) :;
𝑛 ∑!*%(𝑥! − 𝑥̄ )(
On en déduit que :
𝑦!"# − 𝑦+!"#
→ 𝑁(0,1)
1 (𝑥 − 𝑥̄ )(
𝜎<=1 + 𝑛 + ) !"#
∑!*%(𝑥! − 𝑥̄ )( >
On peut montrer que :
𝑦!"# − 𝑦+!"#
→ 𝑡(),-,%)
1 (𝑥!"# − 𝑥̄ )(
𝑠<=1 + +
𝑛 ∑)!*%(𝑥! − 𝑥̄ )( >
On peut utiliser le résultat ci-dessus pour construire un intervalle de prédiction pour yi+z
2
Prévision par intervalle de confiance
On utilise le résultat ci-dessus pour construire un intervalle de prédiction pour yi+z, c’est à dire
l’intervalle [A, B] tel que :
𝑃(𝐴 ≤ 𝑦!"# ≤ 𝐵) = 1 − 𝛼
Ici, 𝑦!"# est une variable aléatoire et non pas un paramètre. L’intervalle de prédiction est donc un
intervalle dans lequel une future observation 𝑦!"# va tomber avec une certaine probabilité (différent
d’un intervalle de confiance). On en déduit l’intervalle de prédiction pour 𝑦!"# au niveau de
confiance 1–α suivant :
1 (𝑥!"# − 𝑥̄ )(
F𝑦+!"# ± 𝑠<31 + + ) : × 𝑡(),-,%,%,0/() I
𝑛 ∑!*%(𝑥! − 𝑥̄ )(
La variance de l’erreur de prévision dépend de la variabilité intrinsèque σ² de la variable (aléatoire)
𝑦!"# de la variabilité due à l’imprécision des estimations de 𝛽$ et 𝛽% dans la formule de régression.
Cette source de variabilité peut être réduite (en augmentant la taille de l’échantillon par exemple),
contrairement à la première source de variabilité.

2
On peut aussi construire un intervalle de confiance de la valeur moyenne qui est cette fois un paramètre :
𝛦[𝑦123 ] = 𝛽4 + 𝛽5 𝑥1
On va donc chercher l’intervalle aléatoire [A, B] tel que : 𝑃(𝐴 ≤ 𝛦[𝑦123 ] ≤ 𝐵) = 1 − 𝛼
5 (9 :9̄ )$ <=!"# :>( :>' 9!"#
Pour construire cet intervalle, on montre que : 𝑦2123 → 𝑁 5𝛽4 + 𝛽5 𝑥123 , 𝜎 6 87 + ∑% !"#
(9 :9̄ )$
9: et $

!&' ! ' )*!"# +*̄ -
?@A%2
% $B

!&')*! +*̄ -
𝑇(7:C:5)
5 (9 :9̄ )$
On en déduit l’intervalle de confiance de E[yi+z] suivant : <𝑦2123 ± 𝑠?87 + ∑% !"#
(9 :9̄ )$
9 × 𝑡(7:C:5,5:E/6) B
!&' !

20
REFERENCE BIBLIOGRAPHIQUE
Dor Eric (2009). « Économétrie », Pearson Éducation, collection synthex, Paris, 2009
Tombola Cédrick (2012) : « Économétrie 1 » Note de cours.

21

You might also like