Professional Documents
Culture Documents
ECONOMETRIE
ECONOMETRIE
1 Dr Éric KOUASSI
Par définition, un économiste est un analyste c’est-à-dire un spécialiste qui combine des données pour
aider les décideurs à comprendre le fonctionnement de l’économie et leur faire des recommandations de
politique. Ainsi, l’économétrie est pur eux un outil d’analyse quantitative primordial utilisé par les
économistes, mais aussi par les gestionnaires dans divers domaines d’application, comme la
macroéconomie, la finance ou le marketing.
2
SOMMAIRE
SOMMAIRE ............................................................................................................................................ 3
INTRODUCTION GENERALE .................................................................................................................. 4
L’ESSENTIEL A RETENIR SUR LA CORRELATION ................................................................................. 6
1 Définition et caractéristiques ........................................................................................................ 6
2 Étude de la corrélation linéaire ..................................................................................................... 6
L’ESSENTIEL A RETENIR SUR LA REGRESSION .................................................................................. 14
1 Généralités ................................................................................................................................... 14
2 Estimation des modèles .............................................................................................................. 15
3 Adéquation du modèle ................................................................................................................ 16
4 Significativité du modèle ............................................................................................................. 17
5 Diagnostic des résidus ................................................................................................................. 18
6 Prévision d’une valeur ultérieure ................................................................................................ 19
REFERENCE BIBLIOGRAPHIQUE ......................................................................................................... 21
3
INTRODUCTION GENERALE
Définition
« l’union de l’analyse économique, des mathématiques et de l’inférence statistiques » (cf.
A. Pirotte cité par Bresson).1
Utilité et démarche
L’économétrie est un outil d’aide à la décision dont les quatre principales fonctions sont :
1) Tester les théories économiques ou certaines hypothèses de la théorie économique
2) Évaluer les paramètres des relations économiques.
3) Prévoir l’évolution des variables économiques : si la théorie n’est pas rejetée, on
peut utiliser le modèle pour prédire les valeurs futures du phénomène étudié.
4) Contrôle ou politique économique
L’analyse économétrique dérive d’une démarche en 8 étapes :
1) Énoncer la théorie ou les hypothèses à étudier
2) Spécifier le modèle mathématique de la théorie en question ;
3) Spécifier le modèle statistique ou économétrique qui en découle ;
4) Collecter les données ;
5) Estimer les paramètres du modèle économétrique ;
6) Tester les hypothèses sur les paramètres du modèle ;
7) Faire des prévisions ou prédictions en cas de validité du modèle
8) Contrôle ou de politique économique
En général, c’est la théorie (économique,) qui doit guider l’économètre pour la
spécification du modèle, les données ne doivent servir qu’à valider ou invalider les
hypothèses émises.
Type de données et notations
Soit la fonction y = f ( x; b0 , b1 ) qui indique que le phénomène y est exclusivement
expliqué par x si on connait les paramètres β0 et β1. Pour déterminer les valeurs de ces
paramètres, l’économètre va utiliser des données observées de différentes manières. Il
peut s’agir de :
1
Raguar Frisch définit l’économétrie comme tel dans son éditorial du premier numéro de
la revue Econometrica paru en 1993.
4
t désigne l’année, le trimestre ou encore le mois correspondant à l’observation
considérée. T est le nombre total d’observations (années) disponibles.
• Coupes instantanées ou coupes transversales correspondent à l’observation, à un
moment donné, de variables sur différents « individus ». Les variables de la fonction
étudiée seront alors marquées d’un indice d’individus i : yi = f ( xi ; b0 , b1 ) avec i=1,
…, n. Ici i désigne un individu, un ménage, une entreprise, un secteur, un pays…
correspondant à l’observation considérée. N est le nombre total d’observation
(individus) disponibles.
• Données de panel ou donnée individuelles-temporelles ou encore coupes répétées
intègrent les deux dimensions, individuelle et temporelle, puisqu’elles
correspondent à l’observation d’individus suivis dans le temps. Les variables de la
fonction étudiée seront alors marquées simultanément d’un indice d’individu et
d’un indice de temps it : yit = f ( xit ; b0 , b1 ) avec i=1, …, n et t=1, …, T.
Objet du cours
Pour exprimer la relation ou l’association entre deux, on a recours à la régression et à la
corrélation, deux notions souvent confondues.
Une analyse de régression univariée donne une idée du mode d’association entre deux
variables, mais elle ne permet pas de déterminer le degré́ de cette association. L’intensité́
de la liaison s’exprime au moyen du coefficient de corrélation.
5
L’ESSENTIEL A RETENIR SUR LA CORRELATION
1 Définition et caractéristiques
Des phénomènes (économique) sont dits « corrélés » lorsqu’ils ont une évolution
commune.
• La corrélation peut être simple ou multiple (partielle). Dans le premier cas il s’agit
de la liaison existante entre deux phénomènes représentés par des variables, tandis
que dans le deuxième cas, il s’agit de la liaison entre trois variables ou plus.
• La corrélation est dite positive lorsqu’il y a une augmentation (ou diminution, ou
constance) simultanée des valeurs des deux variables, tandis qu’elle est dite
négative, lorsque les valeurs de l’une augmentent, les valeurs de l’autre diminuent.
Il y a non corrélé, s’il n’y a aucune relation entre les variations des valeurs de l’une
des variables et les valeurs de l’autre.
• La corrélation peut être linéaire ou non linéaire.
y I y II
x x
y III IV
6
• La corrélation est linéaire, lorsque tous les points du couple de valeurs (x, y) des
deux variables semblent alignés sur une droite. Par exemple les points des nuages I
et II sont presque alignés, mais de directions différentes traduisant une corrélation
linéaire respectivement y positive (I) et négative (II) entre les variables x et y.
• La corrélation non linéaire lorsque le couple de valeurs se trouve sur une même
courbe d’allure quelconque. Par exemple, le nuage IV décrit une courbe régulière
qui n'est pas une droite traduisant une corrélation non-linéaire entre les variables x
et y .
• Le nuage III ne présente pas de structure particulière, traduisant ainsi une absence
il n’y a donc pas de corrélation entre les variables x et y.
On peut utiliser des tests de normalité dont le test de Jarque-Bera et le test de Shapiro-
Wilk.
7
SKEWNESS
KURTOSIS
8
𝜇% = 𝐸 [(𝑥 − 𝐸(𝑥))% ]
Avec 𝜇"&' 𝑒𝑡 𝜇! = 𝜎 !
Test de Shapiro-Wilk
𝐶𝑂𝑉(𝑋, 𝑌) 𝐶𝑂𝑉(𝑋, 𝑌)
𝑟/0 = =
Q𝑉𝐴𝑅 (𝑋). 𝑉𝐴𝑅(𝑌) 𝜎/ 𝜎0
Ce coefficient est un chiffre se situant toujours entre -1 (relation linéaire parfaite avec
pente négative) et +1 (relation linéaire parfaite avec pente positive).
Les propriétés de ce coefficient sont :
9
7. il s’agit d’une mesure symétrique qui n’établit pas de distinction entre les variables
dépendantes et indépendantes
𝑟(1 − 𝑟 ! )
𝐸 [𝑟̂ ] = 𝑟 −
2𝑛
Pour cette raison, on peut être amené à utiliser un coefficient de corrélation ajusté :
𝑛−1
12 = \1 −
𝑟[ (1 − 𝑟̂ ! )
𝑛−2
Bien entendu, l’ajustement est d’autant plus sensible que l’effectif est faible. Lorsque 𝑛 est élevé,
𝑟̂ et 𝑟[
12 se confondent.
Ce coefficient est une mesure non paramétrique du degré de liaison linéaire entre deux
variables quantitatives X et Y.
6 ∑*,&" 𝐷,!
𝑟ℎ𝑜34 =1−
𝑛(𝑛! − 1)
Où Di = Ri - Si, où Ri est le rang de x et Si est le rang de y ; n est le nombre d’observations.
Avant d’appliquer la formule, il faut déterminer les rangs Ri et Si. Pour ce faire, il
faut affecter des rangs entre 1 et n à chaque observation sachant que la plus petite
observation reçoit le rang 1 et la plus grande observation reçoit le rang n. En présence d’ex
10
aequo dans les observations, on leur affecte la moyenne arithmétique de leurs rangs
respectifs.
Lorsque la liaison entre les variables est non linéaire mais monotone
rhoxy est approprié, car il estime mieux le rxy donne une idée sur le sens de la liaison
sens et la force de la liaison entre x et y. mais estime mal sa force de la liaison entre x
et y.
En présence de points atypiques ou aberrants des déviants
Le rhoxy résiste Le rxy très influencé.
Si la liaison entre les deux variables étudiées est non linéaire et non monotone, les deux
coefficients rxy et rhoxy ne sont plus adaptés.
cov( X , Y ) E ( XY ) - E ( X ) E (Y )
r= =
s XsY s ( X )s (Y )
Le coefficient de Pearson r calculé à partir des données de l’échantillon est un estimateur
de ρ supposé inconnu. Le coefficient ρ des valeurs rarement très proche des bornes -1, 0, 1
et il est donc difficile de proposer une interprétation fiable à la simple lecture de ce
coefficient.
La théorie des tests statistiques nous permet de lever cette indétermination. Un test
d’hypothèse est une démarche qui vise à fournir une règle de décision permettant de faire
un choix entre deux hypothèses (nulle H0 et alternative H1) et ce sur la base de résultats
d’échantillon.
Ici il permet de vérifier si le coefficient 𝛽, est significativement différent de 0. Ce test est
efficace lorsque n > 30.
11
2.4.1 Les hypothèses du test
• H0 : ρ = 0 (absence de liaison linéaire entre x et y)
• H1 bilatérale : ρ ¹ 0 (existence d’une liaison entre X et Y)
2.4.2 Seuil de confiance
La décision de favoriser H0 est basée sur une information partielle, résultant d’un
échantillon. Ainsi, il est statistiquement impossible de prendre toujours la bonne décision.
Le seuil de confiance α est le risque de rejeter l’hypothèse nulle H0 alors qu’elle est vraie.
On l’appelle aussi seuil de significativité ou erreur de première espèce.
r r r n-2
tC = = = ® T( n - 2)
var(r ) 1- r2 1- r2
n-2
Lorsqu’on rejette l’hypothèse nulle, cela signifie que le coefficient de corrélation calculé
est significativement différent de zéro. Il existe donc une liaison linéaire entre les variables
y et x étudiées.
12
2.5 Interprétation
Le coefficient de corrélation est un nombre forcément compris entre −1 et 1. La covariance
entre deux variables mesure la part de dépendance linéaire entre X et Y.
Interprétation géométrique de la corrélation
13
L’ESSENTIEL A RETENIR SUR LA REGRESSION
1 Généralités
1.1 Définition
La régression est une « Méthode statistique visant à analyser la relation (association) entre
une variable dépendante particulière et une ou plusieurs variables indépendantes ».
Soit l’échantillon (aléatoire) de n observations {(xi, yi), i=1, …, n}. Chaque couple (xi, yi) est
représenté dans le plan par le point Mi d’abscisse xi et d’ordonnée yi (graphique 1.a)
y y
x x
Graphique 1.a Graphique 1.b
Lorsqu’un diagramme de dispersion suggère que les variations d’une variable sont
proportionnelles à celles de l’autre variable, l’analyse de régression linéaire permet de
déterminer la droite approchant au mieux cette variation proportionnelle. Cela revient à
chercher la droite de laquelle tous les points sont aussi peu éloignés que possible de cette
droite.
• 𝛽" est le coefficient de régression qui indique dans quelle mesure la valeur d’une
variable dépendante (ou variable expliquée) varie avec la variation de la valeur de
la variable indépendante (ou variable explicative).
• 𝛽' est l’intercept ou ordonnée à l’origine. C’est la valeur de la variable dépendante
lorsque la variable indépendante vaut zéro.
• 𝜀, est le bruit ou terme d’erreurs ou perturbations résultant de trois types d'erreurs
:
14
o Erreur de spécification (omissions): d’autres variables omises peuvent avoir
une influence sur y. L’estimation de β1 est biaisée car sa vraie valeur est
surestimée ou sous-estime par le modèle.
o Erreur de mesure : les données ne représentent pas pleinement le
phénomène. Cela arrive lorsqu’on utilise des « proxy ».
o Erreur de fluctuation d'échantillonnage : les observations varient d'un
échantillon à l’autre provoquant des fluctuations de y autour de sa moyenne.
Les estimations seront différentes.
Lorsqu’on compare les points de la droite aux autres observations on remarque que, pour
un xi la valeur de y est plus ou moins éloignée de la valeur prédite pour ce même xi. Les
différences entre les valeurs observées et les valeurs estimées de y sont appelées résidus
ei :
c 𝒊 = 𝒆𝒊
𝒚𝒊 − 𝒚 (4)
Graphiquement β0 et β1 sont construits pour minimiser les distances verticales entre les
observations et la droite de régression théorique. En organisant l’équation (4) et en
remplaçant yˆt on obtient l’équation suivante :
d𝟎 + 𝜷
𝒚𝒊 = 𝜷 d 𝟏 𝒙𝒊 + 𝒆𝒊 (5)
On remarque que le résidu ei est une estimation de la perturbation 𝜺𝒊 .
𝛽h' = 𝑦̄ − 𝛽h" 𝑥̄
∑*,&"(𝑦, − 𝑦̄ )(𝑥, − 𝑥̄ ) ∑*,&" 𝑦, 𝑥, − 𝑛𝑦̄ 𝑥̄
𝛽h" = = * !
∑*,&"(𝑥, − 𝑥̄ )(𝑥, − 𝑥̄ ) ∑,&" 𝑥, − 𝑛𝑥̄ !
15
2.2 Qualité des estimateurs
Théorème de Gauss-Markov : les estimateurs des MCO sont « the Best Linear Unbiased
Estimator (BLUE) » c’est-à-dire qu’ils sont les meilleurs estimateurs linéaires sans biais.
!
∑*,&" 𝜀̂,! ∑*,&" 𝑒,! ∑*,&"(𝑦, − 𝑦j, )!
𝜎j = = =
𝑛−2 𝑛−2 𝑛−2
Estimation des variances de paramètres :
𝜎j ! ∑*,&" 𝑥,! 𝜎j !
𝑉k F𝛽h' G = , 𝑉k F𝛽h" G =
𝑛 ∑*,&"(𝑥, − 𝑥̄ )! ∑*,&"(𝑥, − 𝑥̄ )!
3 Adéquation du modèle
3.1 Analyse de la variance (ANOVA)
L’ANOVA consiste à décomposer la variance de la variable dépendante en deux sources
de variation : une variation explicable par la droite de régression et une variance
résiduelle ou inexplicable. On a donc :
Somme des carrés totale (SCT) = Somme des carrés expliquée par le modèle (SCE) + la
somme des carrés résiduelles (SCR).
* * * * *
Le R² est donc la part de la variabilité expliquée par le modèle sur la variabilité totale. Le
coefficient de corrélation R² est le carré du coefficient de corrélation empirique entre X et
Y. Il prend des valeurs dans l’intervalle [0, 1] et :
16
• Si R² = 1, le modèle explique tout. Il y a une liaison linéaire parfaite entre x et y ; c’est-
à-dire que yi = β0 + β1xi pour tout i et mes points de l’échantillon sont parfaitement
alignés sur la droite des moindres carrés ;
Pour comparer des modèles qui ont un nombre différent de données il faut calculer le
coefficient de détermination ajusté qui corrigé les degrés de liberté :
𝑛−1
𝑅1! = 1 − (1 − 𝑅! )
𝑛−2
4 Significativité du modèle
Les 𝛽h, appelés coefficients empiriques, calculés partir d’un échantillon d’observations, sont
des estimations des coefficients vrai 𝛽, supposé inconnu. Pour se rassurer que 𝛽, ≠ 0 et
qu’ils peuvent être estimé par 𝛽h, on utilise la théorie des tests d’hypothèse.
Ainsi avant tout interpréter des résultats des estimations, il faut se rassurer de la
significativité globale du modèle et de la significativité individuelle des coefficients estimés.
4.1 Significativité globale
1) Hypothèses du test : H0 : β1=0 vs H1 : β1≠0 (test bilatéral)
2) Seuil de confiance α=5%
89: ;!
3) Calcul de la statistique : 𝐹 = 89;/(*+!) = ("+;! )/(*+!)
4) Décision
a. Si 𝐹9 > 𝑓=;(",*+!) ou 𝐹9 < −𝑓=;(",*+!) on rejette H0 avec un risque α=5%
o Si 𝑃(𝐹9 > 𝑓=;(",*+!) ) < 𝛼 ou 𝑃F𝐹9 < −𝑓=;(",*+!) G < 𝛼 on rejette H0 au seuil
α=5%
4.2 Significativité individuelle
Elle porte sur la pente de la droite de régression (β1) et l’ordonnée à l’origine (β0).
Test pour β1
1) Hypothèses du test : H0 : β1=0 vs H1: β1≠0 (test bilatéral)
2) Seuil de confiance α=5%
A"
@
3) Calcul de la statistique : 𝑡" = #
$ → 𝑇(*+B+")
!
%∑- '() *(̄ ,
)."
4) Décision
a. Si 𝑡" > 𝑡=/!;*+! ou 𝑡" < −𝑡=/!;*+! on rejette H0 avec un risque α=5%
b. Si 𝑃(𝑡" > 𝑡=/!;*+! ) < 𝛼 ou 𝑃(𝑡" < −𝑡=/!;*+! ) < 𝛼 on rejette H0 au seuil α=5%
Test pour β0
1) Hypothèses du test : H0: β0=0 vs H1: β0≠0 (test bilatéral)
2) Seuil de confiance α=5%
A/
@
3) Calcul de la statistique : 𝑡' = → 𝑇(*+B+")
∑ - (!
DE
C )." )
- !
- ∑)."'() *(̄ ,
4) Décision
a. Si 𝑡' > 𝑡=/!;*+! ou 𝑡' < −𝑡=/!;*+! on rejette H0 avec un risque α=5%
17
b. Si 𝑃(𝑡' > 𝑡=/!;*+! ) < 𝛼 ou 𝑃(𝑡' < −𝑡=/!;*+! ) < 𝛼 on rejette H0 au seuil α=5
2
normalisés
0
Résidus
x
-2
18
• Détection par tests : On utilise le test de Durbin-Watson qui vérifie l’existence d’une
autocorrélation d’ordre 1 de la forme :
𝜺𝒕 = 𝝆𝜺𝒕+𝟏 + 𝒗𝒕
}
𝒗𝒕 ≡ 𝑵(𝟎, 𝝈𝟐𝒗 )
• Hypothèses du test
o H0 : ρ=0
o H1 : ρ≠0
∑-
0.!(J
K +JK0*" )!
• Statistique du test : 𝐷𝑊 = ∑-
0
K 0!
0." J
• Règle de décision : on compare le DW calculé avec les seuils d1 et d2 fournis par la
table de Durbin et Watson
o Si 0 < DW < d1 alors ρ > 0 : il y a autocorrélation positive
o Si d2 < DW < 4-d2 alors ρ = 0 : il y a absence d’autocorrélation
o Si 4-d1<DW<4 alors ρ < 0 : il y a autocorrélation négative
5.3 Normalité
• Problème : une non-normalité des résidus ne remet pas en cause l’équation du
modèle mais elle empêche d’estimer les intervalles de confiance des paramètres.
• Détection par tests : Jarque-Bera (applicable à de grand échantillon : n˃88) et
Shapiro-Wilk (applicable à des petits échantillons : n ≤50)
• Détection graphique : histogramme des résidus et des résidus studentisés ou
nuage de points des résidus en fonction des quantiles normalisés (courbe de
Henry). Les résidus normalement distribués si les points sont alignés selon une
droite. Ainsi, tout écart systématique indiquerait que les résidus ne sont pas
normalement distribués.
Résidus
Quantiles normalisés
19
𝑦!"# = 𝛽$ + 𝛽% 𝑥!"# + 𝜀!"#
y&"' et ε&"' sont des variables aléatoires.
𝑥!"# est la nouvelle valeur de x pour un individu ou une période z.
On prédit en moyenne ponctuellement y&"' la nouvelle valeur de y pour la nouvelle valeur 𝑥!"#
donnée de x en substituant la nouvelle valeur 𝑥!"# dans le modèle estimé pour obtenir la nouvelle
valeur y&"' . La prédiction naturelle est alors :
ˆ [ y ] = bˆ + bˆ x
ˆi + z = E
y i+ z 0 1 i+z
Puisque que les estimations portent sur un échantillon, la prévision peut se faire avec une marge
d’erreur.
Erreur de prévision
L’erreur de prédiction est définie par 𝑦!"# − 𝑦+!"# = 𝑒!"# . Or comme 𝑦!"# est inconnu au moment de
la prédiction, l’erreur de prévision dépendra de sa réalisation.
On peut montrer que sous les hypothèses du modèle (incluant l’hypothèse de normalité), on a :
1 (𝑥!"# − 𝑥̄ )(
𝑦!"# − 𝑦+!"# → 𝑁 /0, 𝜎 ( 31 + + ) :;
𝑛 ∑!*%(𝑥! − 𝑥̄ )(
On en déduit que :
𝑦!"# − 𝑦+!"#
→ 𝑁(0,1)
1 (𝑥 − 𝑥̄ )(
𝜎<=1 + 𝑛 + ) !"#
∑!*%(𝑥! − 𝑥̄ )( >
On peut montrer que :
𝑦!"# − 𝑦+!"#
→ 𝑡(),-,%)
1 (𝑥!"# − 𝑥̄ )(
𝑠<=1 + +
𝑛 ∑)!*%(𝑥! − 𝑥̄ )( >
On peut utiliser le résultat ci-dessus pour construire un intervalle de prédiction pour yi+z
2
Prévision par intervalle de confiance
On utilise le résultat ci-dessus pour construire un intervalle de prédiction pour yi+z, c’est à dire
l’intervalle [A, B] tel que :
𝑃(𝐴 ≤ 𝑦!"# ≤ 𝐵) = 1 − 𝛼
Ici, 𝑦!"# est une variable aléatoire et non pas un paramètre. L’intervalle de prédiction est donc un
intervalle dans lequel une future observation 𝑦!"# va tomber avec une certaine probabilité (différent
d’un intervalle de confiance). On en déduit l’intervalle de prédiction pour 𝑦!"# au niveau de
confiance 1–α suivant :
1 (𝑥!"# − 𝑥̄ )(
F𝑦+!"# ± 𝑠<31 + + ) : × 𝑡(),-,%,%,0/() I
𝑛 ∑!*%(𝑥! − 𝑥̄ )(
La variance de l’erreur de prévision dépend de la variabilité intrinsèque σ² de la variable (aléatoire)
𝑦!"# de la variabilité due à l’imprécision des estimations de 𝛽$ et 𝛽% dans la formule de régression.
Cette source de variabilité peut être réduite (en augmentant la taille de l’échantillon par exemple),
contrairement à la première source de variabilité.
2
On peut aussi construire un intervalle de confiance de la valeur moyenne qui est cette fois un paramètre :
𝛦[𝑦123 ] = 𝛽4 + 𝛽5 𝑥1
On va donc chercher l’intervalle aléatoire [A, B] tel que : 𝑃(𝐴 ≤ 𝛦[𝑦123 ] ≤ 𝐵) = 1 − 𝛼
5 (9 :9̄ )$ <=!"# :>( :>' 9!"#
Pour construire cet intervalle, on montre que : 𝑦2123 → 𝑁 5𝛽4 + 𝛽5 𝑥123 , 𝜎 6 87 + ∑% !"#
(9 :9̄ )$
9: et $
→
!&' ! ' )*!"# +*̄ -
?@A%2
% $B
∑
!&')*! +*̄ -
𝑇(7:C:5)
5 (9 :9̄ )$
On en déduit l’intervalle de confiance de E[yi+z] suivant : <𝑦2123 ± 𝑠?87 + ∑% !"#
(9 :9̄ )$
9 × 𝑡(7:C:5,5:E/6) B
!&' !
20
REFERENCE BIBLIOGRAPHIQUE
Dor Eric (2009). « Économétrie », Pearson Éducation, collection synthex, Paris, 2009
Tombola Cédrick (2012) : « Économétrie 1 » Note de cours.
21