Professional Documents
Culture Documents
Chapitre1 Mrls
Chapitre1 Mrls
Royaume du Maroc
Haut Commissariat au Plan
Institut National de Statistique
et d’Economie Appliquée
CHAPITRE 1
RÉGRESSION LINÉAIRE SIMPLE
MUSTAPHA BERROUYNE
INGÉNIEUR EN CHEF PRINCIPAL
ENSEIGNANT À L’INSEA
Absence de corrélation
Mustapha BERROUYNE 6 CHAPITRE 1. RÉGRESSION LINÉAIRE SIMPLE
2. LA FORCE DE LA CORRELATION
Coefficient de Pearson
La représentation graphique ne donne qu’une
«impression» de la corrélation entre deux variables
sans donner une idée précise de l’intensité de la liaison,
c’est pourquoi nous calculons une statistique appelée
coefficient de corrélation linéaire simple, noté 𝐗𝐘 .
𝐍
𝐢=𝟏 𝐗 𝐢 − 𝐗 (𝐘𝐢 − 𝐘) 𝐂𝐨𝐯(𝐗, 𝐘)
𝐗𝐘 = =
𝐗 𝐘
𝐍
𝐢=𝟏 𝐗𝐢 − 𝐗 ² 𝐍
𝐢=𝟏 𝐘𝐢 − 𝐘 ²
PROPRIETES
La décision est prise sur base des données observées, et peut donc conduire
à deux types d'erreurs :
- Rejeter H0 alors que H0 est vraie, cette erreur est appelée erreur de
première espèce.
- Ne pas rejeter H0 alors que H0 est fausse, cette erreur est appelée erreur
de deuxième espèce.
Mustapha BERROUYNE 18 CHAPITRE 1. RÉGRESSION LINÉAIRE SIMPLE
2. LA FORCE DE LA CORRELATION
Coefficient de Pearson
RAPPEL SUR LES TESTS D’HYPOTHESES
La décision prise sur base des données observées ne peut pas être exacte,
on calcule donc les probabilités de commettre les erreurs.
Probabilité de commetre les erreurs
H0 est vraie H0 est fausse
RH0 Pr(RH0| H0 vraie)= Pr(𝐑H0| H0 vraie)= 1-
𝐑H0 Pr(𝐑H0| H0 vraie)= 1- Pr(𝐑H0| H0 fausse)=
Mustapha BERROUYNE 20 CHAPITRE 1. RÉGRESSION LINÉAIRE SIMPLE
2. LA FORCE DE LA CORRELATION
Coefficient de Pearson
RAPPEL SUR LES TESTS D’HYPOTHESES
AVEC STATA
DEFINITION
On appelle estimateurs des moindres carrés ordinaires
(mco) 𝐚0 et 𝐚1 les valeurs minimisant la quantité :
𝐧
𝐒 𝐚𝟎 , 𝐚𝟏 = 𝐢=𝟏(𝐲𝐢 − 𝐚𝟎 − 𝐚𝟏 𝐱𝐢 )𝟐
𝐚𝟎 = 𝐲 − 𝐚𝟏𝐱
(𝟑)
où 𝐱 et 𝐲 sont les moyennes des xi et des yi.
(3) montre que la droite passe par le point (𝐱, 𝐲).
𝐚𝟏 =
𝐧 𝐧
𝐢=𝟏 𝐱𝐢 (𝐲𝐢 −𝐲) 𝐢=𝟏(𝐱𝐢 −𝐱)(𝐲𝐢 −𝐲) 𝐂𝐎𝐕(𝐗,𝐘)
𝐧 𝐱 (𝐱 −𝐱) = 𝐧 (𝐱 −𝐱)(𝐱 −𝐱) =
𝐢=𝟏 𝐢 𝐢 𝐢=𝟏 𝐢 𝐢 𝐕(𝐗)
Mustapha BERROUYNE 38 CHAPITRE 1. RÉGRESSION LINÉAIRE SIMPLE
4. ESTIMATION DU MODELE DE LA RLS
Pour vérifier qu’il s’agit bien d’un minimum, on doit montrer que la matrice
Hessienne (H) des dérivées secondes est définie positive.
𝛛𝟐 𝐒 𝐚 𝟎 , 𝐚 𝟏 𝛛𝟐 𝐒 𝐚 𝟎 , 𝐚 𝟏
𝛛𝐚𝟎 𝟐 𝛛𝐚𝟎 𝛛𝐚𝟏
𝐇 =
𝛛𝟐 𝐒 𝐚 𝟎 , 𝐚 𝟏 𝛛𝟐 𝐒 𝐚 𝟎 , 𝐚 𝟏
𝛛𝐚𝟎 𝛛𝐚𝟏 𝛛𝐚𝟏 𝟐
𝛛𝟐 𝐒 𝐚𝟎 ,𝐚𝟏
= 𝟐𝐧
𝛛𝐚𝟎 𝟐
𝐧
𝛛𝟐 𝐒𝐚𝟎 ,𝐚𝟏 𝐧 𝟐 𝐧 𝐢=𝟏 𝐱 𝐢
=𝟐 𝐱
𝐢=𝟏 𝐢 𝐇=𝟐 𝐧 𝐧 𝟐
𝛛𝐚𝟏 𝟐
𝐢=𝟏 𝐱 𝐢 𝐱
𝐢=𝟏 𝐢
𝛛𝟐 𝐒 𝐚𝟎 ,𝐚𝟏 𝐧
=𝟐 𝐢=𝟏 𝐱 𝐢
𝛛𝐚𝟎 𝛛𝐚𝟏
Mustapha BERROUYNE 39 CHAPITRE 1. RÉGRESSION LINÉAIRE SIMPLE
5. HYPOTHESES DE LA RLS
Les hypothèses suivantes permettent de déterminer les estimateurs des
coefficients du modèle ayant de bonnes propriétés et de construire des tests
statistiques (tests et intervalles de confiance).
H1 : le modèle est linéaire en xt ou f(xt) ;
On suppose l’existence d’une relation linéaire liant X et Y.
La vérification se fait par l’analyse de la corrélation linéaire (nuage de
points, intensité et test statistique
Les erreurs sont non corrélées. Une erreur à l’instant t n’a pas d’influence
sur les erreurs suivantes.
H6 : COV(xt,t)=0, l’erreur est indépendante de la variable explicative ;
H7 : t N(0, ), hypothèse utilisée pour les inférences.
𝟐
𝐧 𝐧 𝐧
𝟏 (𝐱𝐭 − 𝐱) 𝟏 (𝐱𝐭 − 𝐱) 𝐱
𝐚𝟎 = 𝐲 − 𝐚𝟏𝐱 = 𝐲𝐭 − 𝐱 𝐧 𝟐 𝐲𝐭 = − 𝐧 𝐲
𝟐 𝐭
𝐧 𝐭=𝟏(𝐱𝐭 − 𝐱) 𝐧 𝐭=𝟏(𝐱𝐭 − 𝐱)
𝐭=𝟏 𝐭=𝟏 𝐭=𝟏
Mustapha BERROUYNE 44 CHAPITRE 1. MODELE LINEAIRE SIMPLE
6. PROPRIÉTÉS DES ESTIMATEURS
2. Les estimateurs des MCO sont non-biaisés si les observations xt sont non
aléatoires (H2) et l’espérance mathématique de l’erreur est nulle (H3).
Pour la pente 𝐚𝟏 : 𝐄(𝐚𝟏) = 𝐚𝟏
𝐲𝐭 = 𝐚𝟎 + 𝐚𝟏 𝐱𝐭 + 𝐭 (𝟕)
; (7) – (8) ➔ 𝐲𝐭 − 𝐲 = 𝐚𝟏 𝐱𝐭 − 𝐱 + (𝐭 − )
𝐲 = 𝐚𝟎 + 𝐚𝟏𝐱 + (𝟖)
𝐧
𝐧
𝐭=𝟏(𝐱𝐭−𝐱) (𝐲𝐭−𝐲) 𝐭=𝟏
(𝐱 𝐭 −𝐱 ) 𝐚 𝟏 𝐱 𝐭 −𝐱 +( −) 𝐭=𝟏 𝐱𝐭−𝐱 𝐭
𝐧
➔ 𝐚𝟏 = 𝐧 (𝐱 −𝐱)𝟐 = 𝐧 (𝐱 −𝐱)𝟐
𝐭
= 𝐚𝟏 + 𝐧 (𝐱 −𝐱)𝟐
𝐭=𝟏 𝐭 𝐭=𝟏 𝐭 𝐭=𝟏 𝐭
Mustapha BERROUYNE 45 CHAPITRE 1. MODELE LINEAIRE SIMPLE
6. PROPRIÉTÉS DES ESTIMATEURS
𝐭=𝟏 𝐱𝐭 − 𝐱 𝐄( 𝐭 )
𝐧
= 𝐚𝟏 + 𝐧 𝟐
𝐭=𝟏(𝐱𝐭 − 𝐱)
2. Les estimateurs des MCO sont non-biaisés si les observations xt sont non
aléatoires (H2) et l’espérance mathématique de l’erreur est nulle (H3).
𝟐
𝐭=𝟏 𝐱 𝐭 − 𝐱 𝐭
𝐧
2
𝐕𝐚𝐫 𝐚𝟏 = 𝐄 𝐚𝟏 − 𝐚𝟏 =𝐄 𝐧 𝟐
𝐭=𝟏(𝐱𝐭 − 𝐱)
𝟐
𝐧
𝐭=𝟏 𝐱 𝐭 − 𝐱 𝐭 𝐄 𝐧
𝐭=𝟏 𝐱𝐭 − 𝐱 ²𝟐𝐭 + 𝟐 𝐧
𝐱𝐭 − 𝐱 𝐱𝐭′ − 𝐱 𝐭 𝐭 ′
𝐭<𝐭′
=𝐄 𝐧 𝟐 2
= 𝐧 𝟐 2
𝐭=𝟏(𝐱 𝐭 − 𝐱) 𝐭=𝟏(𝐱 𝐭 − 𝐱)
𝐧
𝐭=𝟏 𝐱 𝐭 −𝐱 2 𝐄 𝟐 𝐧
𝐭 +𝟐 𝐭<𝐭′ 𝐱 𝐭 −𝐱 𝐱 𝐭′ −𝐱 𝐄( 𝐭 𝐭 ′ )
= 𝐧 (𝐱 −𝐱)𝟐 2
𝐭=𝟏 𝐭
𝐕𝐚𝐫( 𝐭 ) 𝟐
= 𝐧 (𝐱 −𝐱)𝟐 = 𝐧 (𝐱 −𝐱)𝟐
𝐭=𝟏 𝐭 𝐭=𝟏 𝐭
𝐕𝐚𝐫 𝐚𝟎 = 𝐄 𝐚𝟎 − 𝐚𝟎 2 = 𝐄 (− 𝐚𝟏 − 𝐚𝟏 𝐱 + )²
=𝐄 𝐚𝟏 − 𝐚𝟏 𝐱 𝟐 + 𝐄 2 − 𝟐 𝐄[( 𝐚𝟏 − 𝐚𝟏 𝐱 ]
𝟏
𝐭=𝟏 𝐭
𝐧
= 𝐱²𝐄 𝐚𝟏 − 𝐚𝟏 2
+𝐄 ²
𝐧
𝟏
= 𝐱²𝟐𝐚𝟏 + 𝐧² 𝐄 𝐭=𝟏 𝐭 𝐭 𝐭 ′]
𝐧 𝟐 n
+𝟐 𝐭<𝐭′
𝟏
= 𝐱 2 𝟐𝐚𝟏 + 𝐧2 n𝐄 𝟐𝐭 + 2 n
𝐭<𝐭 ′ E[𝐭 𝐭 ′]
𝟐 𝟏 𝟏 𝐱²
= 𝐱²
𝐧 (𝐱 −𝐱)𝟐 +
𝐧
𝟐 = 𝟐
𝐧+ 𝐧 (𝐱 −𝐱)𝟐
𝐭=𝟏 𝐭 𝐭=𝟏 𝐭
𝟏 𝐱²
𝐕𝐚𝐫 𝐚𝟎 = 𝟐
𝐧
+ 𝐧 𝟐 Pour n assez grand ➔ 𝐕𝐚𝐫 𝐚𝟎 = 𝟎
𝐭=𝟏(𝐱 𝐭 − 𝐱)
𝐂𝐨𝐯 𝐚𝟎 , 𝐚𝟏 = 𝐄 𝐚𝟎 − 𝐚𝟎 𝐚𝟏 − 𝐚𝟏
= 𝐄 − 𝐚𝟏 − 𝐚𝟏 𝐱 + 𝐚𝟏 − 𝐚𝟏
= 𝐄 − 𝐚𝟏 − 𝐚𝟏 ² 𝐱 + 𝐚𝟏 − 𝐚𝟏
= 𝐄 − 𝐚𝟏 − 𝐚𝟏 2 𝐱 + 𝐄 𝐚𝟏 − 𝐚𝟏
𝐄 𝐚𝟏 − 𝐚𝟏 ² = −𝐱 𝐕𝐚𝐫( 𝐚𝟏 )
= 𝟐𝐚𝟏 =0
5. Matrice de variances-covariances
EN SOMME
✓ CODE STATA
Regress consommation revenu
𝟐
= 𝐭(𝐲𝐭 − 𝐲)² + 𝐭 𝐲𝐭 − 𝐲 −𝟐 𝐭 𝐚𝟏 𝐱𝐭 − 𝐱 ²
𝟐 𝟐
= 𝐭(𝐲𝐭 − 𝐲)² + 𝐭 𝐲𝐭 − 𝐲 −𝟐 𝐭 𝐲𝐭 − 𝐲
𝟐
= 𝐢(𝐲𝐢 − 𝐲)² − 𝐭 𝐲𝐭 − 𝐲
Soit 𝐭(𝐲𝐭 − 𝐲)² = 𝐭 𝐲𝐭 − 𝐲 𝟐
+ 𝐭(𝐲𝐭 − 𝐲𝐭 )²
Mustapha BERROUYNE 56 CHAPITRE 1. MODELE LINEAIRE SIMPLE
8. DECOMPOSITION DE LA VARIANCE
1. EQUATION FONDAMENTALE DE L’ANALYSE DE LA VARIANCE
Ce que le modèle explique et ce qu’il n’explique pas
𝐧 𝐧 𝟐 𝐧
𝐭=𝟏(𝐲𝐭 − 𝐲)² = 𝐭=𝟏 𝐲𝐭 − 𝐲 + 𝐭=𝟏(𝐲𝐭 − 𝐲𝐭 )²
SCT = SCE + SCR
SOMME DES CARRES TOTAUX SOMME DES CARRES EXPLIQUES SOMME DES CARRES RESIDUELS
TOTAL SUM OF SQUARES REGRESSION SUM OF SQUARES ERROR SUM OF SQUARES
(TSS) (RSS) (ESS)
- SCT est la somme des carrés totaux. Elle indique la variabilité totale de Y
c.-à-d. l'information disponible dans les données.
- SCE est la somme des carrés expliqués. Elle indique la variabilité
expliquée par le modèle c'est-à-dire la variation de Y expliquée par X.
- SCR est somme des carrés résiduels. Elle indique la variabilité non
expliquée (résiduelle) par le modèle c’est à dire l'écart entre les valeurs
observées de Y et celles prédites par le modèle.
CONSEQUENCES
𝟐
𝐕𝐚𝐫 𝐚𝟏 = 𝐧 (𝐱 −𝐱)𝟐
𝐭=𝟏 𝐭
𝟐 𝟏 𝐱²
𝐕𝐚𝐫 𝐚𝟎 = + 𝐧 𝟐
𝐧 (𝐱
𝐭=𝟏 𝐭 − 𝐱 )
𝟐 𝟐
Un estimateur sans biais " " de la variance de l’erreur " " est donné
l’expression suivante :
𝐧 𝐧
𝟐 𝐭=𝟏 𝐞𝐭 ² 𝐭=𝟏 𝐲𝐭 − 𝐲𝐭 ²
= =
𝐧−𝟐 𝐧−𝟐
Mustapha BERROUYNE 67 CHAPITRE 1. MODELE LINEAIRE SIMPLE
9. INFERENCE STATISTIQUE
1. LA VARIANCE DE L’ERREUR : DISTRIBUTION
RAPPEL SUR LA VARIABLE KHI-CARRE
Soit z une variable aléatoire normale, centrée réduite (c'est-à-dire de
moyenne nulle et de variance égale à 1), alors la variable aléatoire :
Q1= z² suit la loi de Khi-deux à 1 seul degré de liberté notée 𝟐𝟏
𝐞𝐭 𝟐 𝐧 𝟐
𝐭=𝟏 𝐞𝐭
En sommant les termes, nous obtenons : 𝐧
𝐭=𝟏 𝛔 = ~ ²(𝐧 − 𝟐)
𝛆 𝛔𝟐𝛆
En se référant à l’estimateur de la variance de l’erreur, on a :
𝛔𝟐𝛆 ²(𝐧 − 𝟐)
𝟐
𝛔𝛆 𝐧−𝟐
Mustapha BERROUYNE 71 CHAPITRE 1. MODELE LINEAIRE SIMPLE
9. INFERENCE STATISTIQUE
2. DISTRIBUTION DES ESTIMATEURS « MCO »
RAPPEL SUR LA VARIABLE DE STUDENT
𝐙
variable aléatoire : 𝐭𝐩 = est appelée variable aléatoire de Student à p
𝟐𝐩 𝐩
degrés de liberté.
Mustapha BERROUYNE 72 CHAPITRE 1. MODELE LINEAIRE SIMPLE
9. INFERENCE STATISTIQUE
2. DISTRIBUTION DES ESTIMATEURS « MCO »
✓ Cas de la pente
𝛆𝐭 𝑵(𝟎, 𝛔𝟐𝛆 ) 𝐲𝐭 = 𝐚𝟎 + 𝐚𝟏 𝐱 𝐭 + 𝐭 suit aussi une loi normale.
𝐚𝟏 −𝐚𝟏
𝐚𝟏 étant une combinaison linéaire en 𝐲𝐭 𝛔𝐚𝟏
𝑵(𝟎, 𝟏) ;
𝛔𝟐𝛆 𝛔𝟐𝛆
𝐕𝐚𝐫 𝐚𝟏 = 𝛔𝟐𝐚𝟏 = 𝐧 (𝐱 −𝐱)𝟐 (1) 𝐕𝐚𝐫 𝐚𝟏 = 𝛔𝟐𝐚𝟏 = 𝐧 (𝐱 −𝐱)𝟐 (2)
𝐭=𝟏 𝐭 𝐭=𝟏 𝐭
(𝟐) 𝛔𝟐
𝐚 𝛔𝟐 𝛔𝟐 𝛔𝟐 2 𝐧−𝟐
= 𝟏
= 𝛆
𝐚𝟏
= 𝛆
(𝟏) 𝛔𝟐
𝐚𝟏 𝛔𝟐
𝛆 𝛔𝟐
𝐚𝟏 𝛔𝟐
𝛆 𝐧−𝟐
𝐚 𝟏 − 𝐚𝟏
𝐚𝟏 − 𝐚𝟏 𝛔𝐚 𝟏 ~ 𝐍(𝟎, 𝟏)
= ~~ 𝐭
𝐭 (𝐧−𝟐)
𝛔𝐚 𝟏 𝛔𝐚 𝟏 2 𝐧 − 𝟐 (𝐧−𝟐)
𝛔𝐚 𝟏 𝐧−𝟐
Mustapha BERROUYNE 73 CHAPITRE 1. MODELE LINEAIRE SIMPLE
9. INFERENCE STATISTIQUE
2. DISTRIBUTION DES ESTIMATEURS « MCO »
✓ Cas de la constante
𝐚𝟏−𝟎
Sous 𝐇𝟎 ( 𝐚𝟏 = 𝟎), le ratio de Student 𝐭𝐜𝐚𝐥𝐜𝐮𝐥é = suit donc une loi de
𝛔𝐚𝟏
Le test de significativité
Ledetest
la constante
de se présente comme suit :
significativité
𝐇𝟎 ∶ 𝐚𝟎 = 𝟎 𝐇 ∶ 𝐚 = 𝟎
𝟎
𝐇 ∶ 𝐚 ≠ 𝟎
𝟏
𝟎
𝟎
La𝐇𝟏statistique
∶ 𝐚𝟎 ≠ 𝟎 du test suit une loi de Student à (n-2) de grés de liberté :
𝐚𝟎
𝐭 𝐚𝟎 =
𝛔𝐚 𝟎
𝐑. 𝐂. : 𝐭𝐚𝟎 > 𝐭𝟏− ; où 𝐭𝟏− est le quantile d’ordre (1- /2) de la loi de
𝟐 𝟐
Student. Il s’agit aussi d’un test bilatéral.
Mustapha BERROUYNE 78 CHAPITRE 1. MODELE LINEAIRE SIMPLE
9. INFERENCE STATISTIQUE
3. TESTS D’HYPOTHÈSES SUR LES PARAMÈTRES
✓ Exemple d’application t (Année) yt (Consommation) xt (Revenu)
2000 6000 7500
✓ Test de significativité de la constante 2001 4800 6000
2002 5840 7300
2003 7840 9800
2004 7960 9950
2005 8600 10000
2006 9030 10500
2007 9030 10500
2008 9460 11000
2009 9945 11050
2010 10620 11800
2011 10800 12000
2012 11250 12500
2013 12303 12950
2014 12350 13000
2015 12825 13500
2016 12968 13650
2017 13300 14000
Mustapha BERROUYNE 79 CHAPITRE 1. MODELE LINEAIRE SIMPLE
9. INFERENCE STATISTIQUE
4. EVALUATION GLOBALE DE LA RÉGRESSION
✓ Test de Fisher
RAPPEL SUR LA VARIABLE DE FISHER
Sous H0, SCE est distribué selon ²(1) et SCR selon ²(n-2).
²(𝟏)
➔ 𝐅 𝟏
²(𝐧−𝟐)
𝓕(𝟏, 𝐧 − 𝟐)
𝐧−𝟐
Sous H0, F est donc distribué selon une loi de Fisher à (1, n-2) degrés de liberté.
La région critique (R.C.) du test, correspondant au rejet de H0, au risque α
est définie pour les valeurs anormalement élevées de F c'est-à-dire :
𝐑.𝐂. : 𝐅𝐜𝐚𝐥𝐜𝐮𝐥é > 𝓕𝟏−𝛂(𝟏,𝐧 − 𝟐)
Mustapha BERROUYNE 84 CHAPITRE 1. MODELE LINEAIRE SIMPLE
9. INFERENCE STATISTIQUE
4. EVALUATION GLOBALE DE LA RÉGRESSION
✓ Test de Fisher
𝐫𝐱𝐲 𝟐
𝟏
𝐫𝐱𝐲 𝐚𝟏 𝐱 𝐚𝟏 𝐱
𝐱 𝐲 𝐲
= 𝐧−𝟐 = 𝐧−𝟐 = 𝐧−𝟐
𝟐 )
(𝟏−𝐫𝐱𝐲 𝟐
𝟏−𝐫𝐱𝐲 𝟐
𝟏− 𝐚𝟏 𝐱 ² 𝟏− 𝐚𝟏 𝐱 ²
𝐧−𝟐 𝐱 𝐲 𝐲
𝐧 (𝐱 −𝐱)² 𝐧 (𝐱 −𝐱)²
𝐭=𝟏 𝐭 𝐭=𝟏 𝐭
𝐚𝟏 𝐚𝟏
𝐧 (𝐲 −𝐲)² 𝐧 (𝐲 −𝐲)²
𝐭=𝟏 𝐭 𝐭=𝟏 𝐭
= 𝐧−𝟐 = 𝐧−𝟐
𝐚𝟐 𝐧 (𝐱 −𝐱)²
𝐭
𝐧 (𝐲 −𝐲)²−𝐚𝟐 𝐧 (𝐱 −𝐱)²
𝐭=𝟏 𝐭 𝟏 𝐭=𝟏 𝐭
𝟏− 𝐧 𝐭=𝟏
𝟏
𝐧 (𝐲 −𝐲)²
𝐭=𝟏(𝐲𝐭 −𝐲)² 𝐭=𝟏 𝐭
Mustapha BERROUYNE 87 CHAPITRE 1. MODELE LINEAIRE SIMPLE
9. INFERENCE STATISTIQUE
5. ÉQUIVALENCE DES TESTS DANS UN MODÈLE DE RLS
✓ Test de signification de rxy 𝐇𝟎 : 𝐫𝐱𝐲 = 𝟎
𝐇𝟎 : 𝐫𝐱𝐲 ≠ 𝟎
𝐚𝟏 𝐱𝐭 − 𝐱 = 𝐲𝐭 − 𝐲
𝐚𝟏 𝐧 (𝐱 −𝐱)² 𝐚𝟏 𝐧 (𝐱 −𝐱)²
𝐭=𝟏 𝐭 𝐭=𝟏 𝐭
= 𝐧−𝟐 = Equation fondamentale
𝐧 (𝐲 −𝐲)²− 𝐧 [𝐚 𝐱 −𝐱 𝐧 (𝐲 −𝐲)²− 𝐧 (𝐲 −𝐲)² de l’analyse de la
𝐭=𝟏 𝐭 𝐭=𝟏 𝟏 𝐭 ]² 𝐭=𝟏 𝐭 𝐭=𝟏 𝐭 variance
𝐚𝟏
𝐧 (𝐱 −𝐱)² 𝐚𝟏
𝐧 (𝐱 −𝐱)²
𝐭=𝟏 𝐭 𝐭=𝟏 𝐭 𝐚𝟏 𝐚𝟏 𝐚𝟏
= = = = = ~𝐭 (𝐧−𝟐)
𝟐 𝐚𝟏
𝐧 𝐞𝟐
𝐭=𝟏 𝐭 𝟐 𝟐 𝐚𝟏
(𝐧−𝟐)
𝐧−𝟐 (𝐧−𝟐) 𝐧 (𝐱 −𝐱)²
𝐭=𝟏 𝐭 𝟐𝐚𝟏
AVEC STATA
. import excel "D:\C-VEHICULES_28.xlsx", twoway (scatter Puissance Cylindree)
sheet("Données") firstrow
Cylind~e Puissa~e
Cylindree 1.0000
Puissance 0.9465 1.0000
Mustapha BERROUYNE 89 CHAPITRE 1. MODELE LINEAIRE SIMPLE