You are on page 1of 69

COURS D’INITIATION AU

LOGICIEL EVIEWS
Cours d’Informatique (Initiation au logiciel EVIEWS), Licence 2 Economie 2019-2020

Ce cours d’initiation en informatique (Logiciel EVIEWS) est destiné aux étudiants de la


deuxième année de Licence des Sciences Economiques.

Objectif du cours

Ce cours est une initiation au logiciel EVIEWS utilisé fréquemment par les économistes dans
le traitement des données statistiques. Il a pour objectif de permettre à l’étudiant de se
familiariser avec le logiciel économétrique EVIEWS dans l’analyse, la prévision et la
modélisation des données. Il aidera également l’étudiant dans le traitement et l’interprétation
des données statistiques.

Objectifs spécifiques

À la fin du cours, l’étudiant devrait :


Être en mesure de maitriser l’environnement de travail EVIEWS, de manipuler les données,
d’effectuer la statistique descriptive, de créer et modifier un graphique, de maîtriser la gestion
de formules simples et complexes et être en mesure d’effectuer des régressions linéaires.

Pré requis
Savoir utiliser, voire manipuler un ordinateur, avoir des connaissances de base en économie et
en statistique mathématique.

Contenu du cours

Chapitre 1 : Présentation du logiciel EVIEWS


Chapitre 2 : Manipulation des données dans EVIEWS
Chapitre 3 : Application à l’estimation de modèle linéaire général
Chapitre 4 : Modèles de régression linéaire (Quelques formes fonctionnelles)

Matériels pédagogiques

 Aide du logiciel

Dr. GBAME Hervé Daniel


Page 2
Cours d’Informatique (Initiation au logiciel EVIEWS), Licence 2 Economie 2019-2020

 Bourbonnais R. (1998) : Econométrie, Cours et Exercices corrigés 2ième édition,


Dunod, Paris.
 Bourbonnais R. et Terraza M. (1998) : Analyse des séries temporelles en économie,
PUB, Paris.
 EViews 7 User’s Guide
 EViews 7 Commands and Programming Reference
 Doucouré F. B. (2004), Méthodes Econométriques : cours et travaux pratiques,
Université Cheick Anta Diop, Dakar.
 KEHO Y. (2012), Guide Pratique d’Introduction à l’Econometrie sur Eviews, Tome
1, pp.144.

Méthode d’enseignement

Le cours est purement pratique et se déroule en salle machines. Toutefois, il comporte


néanmoins un léger volet théorique voire cours magistral.

Modalités d’évaluation

Evaluation continue : 40%


 Participation 7%
 Interrogations 10%
 Devoirs sur table 15%
 Travaux à rendre 8%
Examen final en fin de semestre : 60%
1ère session : à la fin du cours
Session de rattrapage (2ème session)

Dr. GBAME Hervé Daniel


Page 3
Cours d’Informatique (Initiation au logiciel EVIEWS), Licence 2 Economie 2019-2020

TABLE DES MATIERES

Chapitre 1 : Présentation du logiciel EVIEWS ________________________________________ 6


1.1. Présentation générale du fonctionnement de EViews ______________________________ 6
1.2. Champs d’application de EViews ______________________________________________ 7
1.3. Objets types ________________________________________________________________ 8
1.4. Opérateurs et fonctions de référence ___________________________________________ 9
1.4.1. Les opérateurs de base ____________________________________________________ 9
1.4.2. Les fonctions mathématiques basiques ______________________________________ 10
1.4.3. Les fonctions de séries chronologiques ______________________________________ 10
Chapitre 2 : Manipulation des données sous EVIEWS _________________________________ 11
2.1. Création d’un Workfile ______________________________________________________ 12
2.2. Saisie directe des données____________________________________________________ 14
2.3. Importation des données ____________________________________________________ 15
2.4. Générer de nouvelles séries __________________________________________________ 18
2.5. Représentations graphiques __________________________________________________ 19
2.6. Statistiques descriptives de base ______________________________________________ 21
Chapitre 3 : Application à l’estimation de modèle linéaire général_______________________ 24
3.1. Spécification du modèle économétrique et hypothèses ____________________________ 24
3.2. Estimation d’une équation linéaire ____________________________________________ 26
3.3. Tests de diagnostic sur les résidus du modèle ___________________________________ 28
3.3.1. Test de normalité des erreurs ______________________________________________ 29
3.3.2. Test d’hétéroscédasticité des erreurs ________________________________________ 31
3.3.3. Tests d’autocorrélation ___________________________________________________ 33
3.4. Tests d’erreur de spécification de Ramsey ______________________________________ 37
3.5. Estimation en présence d’autocorrélation des erreurs ____________________________ 39
3.6. Tests de restrictions linéaires sur les coefficients _________________________________ 40
3.6.1. Test de significativité globale ______________________________________________ 40
3.6.2. Test de significativité individuelle des coefficients______________________________ 42
3.6.3. Test de stabilité des coefficients ____________________________________________ 44
3.7. Prévisions conditionnelles ___________________________________________________ 47
3.7.1. Simulation historique et évaluation du pouvoir prédictif du modèle _______________ 47
3.7.2. Prévision sur l’horizon 2013 - 2020 _________________________________________ 50
Chapitre 4 : Modèles de régression linéaire (quelques formes fonctionnelles) ______________ 52
4.1. Modèles logarithmiques _____________________________________________________ 52

Dr. GBAME Hervé Daniel


Page 4
Cours d’Informatique (Initiation au logiciel EVIEWS), Licence 2 Economie 2019-2020

4.2. Modèles semi-logarithmiques ________________________________________________ 53


4.2.1. Modèle log-linéaire (1.2b) _________________________________________________ 53
4.2.2. Modèle linéaire – logarithme (1.3a) / Modèle de dépense d’Engel _________________ 53
4.3. Modèle de régression linéaire avec variables binaires indépendantes ________________ 55
4.3.1. Modèles ANOVA (Régression variable quantitative sur une ou plusieurs variables
binaires) ____________________________________________________________________ 55
4.3.2. Modèles ANCOVA (Régression variable quantitative sur un mélange de variables
binaires et quantitatives) _______________________________________________________ 57
4.3.3. Régression variable quantitative sur une variable quantitative et deux variables binaires)
___________________________________________________________________________ 58
4.3.4. Autres utilisations de variables binaires ____________________________________ 59
ANNEXES _____________________________________________________________________ 61
Base 1 : Importation et PIBR ____________________________________________________ 61
Base 2 : Quantité et Prix ________________________________________________________ 62
Base 3 : Intérêts composés_______________________________________________________ 63
Base 4 : Dépenses de soins de santé (DS) et revenus de ménage (RM) ___________________ 64
Base 5 : Régression var quantitative sur binaire (ANOVA) ___________________________ 65
Base 6 : Régression var quantitative sur plusieurs variables binaires ___________________ 66
Base 7 : Répartition de salaire et années d’expérience (ANCOVA) _____________________ 67
Base 8 : Répartition des salaires en fonction de la nationalité, le sexe et les années d’expérience
_____________________________________________________________________________ 68
Base 9 : Investissement et chocs pétrolier __________________________________________ 69

Dr. GBAME Hervé Daniel


Page 5
Cours d’Informatique (Initiation au logiciel EVIEWS), Licence 2 Economie 2019-2020

Chapitre 1 : Présentation du logiciel EVIEWS

Le logiciel choisit pour les applications pratiques est EViews. Le choix de ce logiciel se
justifie surtout par la convivialité qu’elle offre à l’utilisateur dans la mise en œuvre des tâches.
L’utilisateur familier à l’environnement Windows n’éprouvera pas de difficultés à naviguer
dans les menus du logiciel pour chercher ce dont il a besoin. Dans ce chapitre introductif,
nous donnons premièrement une présentation générale du logiciel EViews. Secundo, une
description des différents modes de fonctionnement du logiciel, ses champs d’applications, les
différents types d’objets sur lesquels est basé le fonctionnement du logiciel et enfin les
opérateurs et fonctions de référence couramment utilisées par le logiciel. Bien entendu, cette
présentation n’épuise pas l’ensemble des potentialités du logiciel. Le lecteur pourra consulter
le guide d’utilisation du logiciel (dans le Menu help) pour approfondir certains points.

1.1. Présentation générale du fonctionnement de EViews

EViews est un logiciel qui permet de faire l’analyse, la prévision et la modélisation des
données. C’est un outil performant d’analyse de données. Il représente la version nouvelle
d’un ensemble d’outils de traitement des séries temporelles initialement fait par TSP (Time
Series Processor) développé initialement par les économistes. Aujourd’hui, EViews connaît
une large application dans beaucoup de domaines. Il offre la possibilité d’entrer des données à
partir du clavier ou de fichiers d’une disquette, de créer de nouvelles séries à partir de séries
existantes, de faire des analyses statistiques des relations entre plusieurs grandeurs. EViews
utilise les caractéristiques visuelles des logiciels sous Windows. L’utilisateur peut utiliser sa
souris pour faire des opérations à l’aide des menus et boites de dialogue standard de
Windows. Les résultats apparaissent en Windows et peuvent être manipulés par les techniques
standards. Ils peuvent être copiés puis collés dans Word ou Excel lors du processus de
rédaction du rapport d’analyse. Alternativement, EViews dispose d’un langage de
programmation et de commandes assez variées que pourrait utiliser l’utilisateur. De plus, le
logiciel contient un menu d’aide en ligne bien documenté sur la mise en œuvre des procédures
d’analyse, des commandes et des opérations qu’il permet de faire.

EViews peut fonctionner aussi bien en mode interactif qu’en mode batch (se dit d’un

Dr. GBAME Hervé Daniel


Page 6
Cours d’Informatique (Initiation au logiciel EVIEWS), Licence 2 Economie 2019-2020

traitement informatique effectué par lots). En mode interactif, l’utilisateur choisit, à partir des
différentes fenêtres, ce qu’il veut faire. Il tape la commande dans une fenêtre de commande et
clique sur un bouton pour obtenir le résultat. Il fait en quelque sorte de l’économétrie presse-
bouton. Le mode interactif est utilisé lorsque certaines étapes du traitement exigent un
examen des résultats et des prises de décision de l'utilisateur. Le mode interactif présente
l'avantage d'être simple, mais montre rapidement ses limites pour réaliser certaines tâches plus
élaborées. Il est alors préférable d'utiliser le mode batch : les instructions sont écrites sous
forme d’un programme à l’aide d’une succession d’instructions utilisant des commandes. Le
mode batch nécessite donc la construction d’un fichier texte contenant une série d’instructions
pour aboutir aux résultats que l’on souhaite. L’utilisateur a la possibilité d’exécuter une partie
de ce programme dans différentes circonstances. L’un des avantages des programmes est
qu’ils permettent de documenter l’analyse. On peut savoir comment on est arrivé aux
résultats. Notons cependant que le mode batch est plus complémentaire qu'incompatible avec
le mode interactif. Dans ce cours d’initiation, nous allons volontairement utiliser le mode de
fonctionnement interactif du logiciel EViews et l’illustrer à partir d’exemples pratiques. Le
lancement du logiciel se fait comme tout autre logiciel à partir du bureau ou du menu
démarrer.

1.2. Champs d’application de EViews

EViews connaît des applications dans de nombreux domaines de la vie impliquant le


traitement et l’analyse des données. Il est utilisé notamment dans les activités suivantes:

 La gestion de modèles macroéconomiques

 La prévision macroéconomique :
 Prévision de l’inflation ;
 Prévision du taux de croissance ;
 Prévision du taux d’investissement ;
 Prévision des recettes budgétaires etc. ;

 La prévision en entreprise
 Prévision des ventes ;

Dr. GBAME Hervé Daniel


Page 7
Cours d’Informatique (Initiation au logiciel EVIEWS), Licence 2 Economie 2019-2020

 Prévision de la demande ;
 Prévision des prix, etc.;

 L’analyse financière
 Caractéristiques des séries financières
 Hétéroscédacticité et volatilité
 Les modèles à effets ARCH, ARCH en moyenne, ARCH généralisé ;

L’analyse des séries à haute fréquence et les techniques de prévision avancées (modélisation
ARIMA, ARCH, GARCH …) ne seront pas abordées dans le présent cours qui se présente
comme une introduction à la pratique économétrique.

1.3. Objets types

EViews est basé sur la notion d’objets. Les objets sont des blocs d’éléments liés par une
notion commune et qui sont mis ensemble pour être utilisés plus aisément. De façon virtuelle,
tout le travail dans EViews impliquera l’utilisation et la manipulation d’objets. L’objet le plus
important dans EViews est le workfile (espace de travail) et la première chose à faire sera de
créer un workfile ou d’ouvrir un workfile existant. Chaque objet est un ensemble
d’information se rapportant à un domaine particulier de l’analyse. Les objets peuvent recevoir
également des noms. Les objets les plus importants après le workfile sont les séries et les
équations. Il existe cependant un certain nombre d’autres objets qui jouent des fonctions
différentes. Il s’agit par exemple des vecteurs de coefficients, des bases de données, des
graphes, des groupes, des modèles, etc. Tous ces objets, à l’exception des workfile et des
bases de données, possèdent leurs propres icônes qui apparaissent dans le workfile. Lorsqu’un
nouvel espace de travail (workfile) est créé, deux objets apparaissent automatiquement : le
vecteur des coefficients et la série des résidus. Le vecteur des coefficients sert à stocker les
coefficients des équations estimées. Par défaut, ce vecteur est nommé par la lettre c et ses
coefficients sont c(1), c(2), …, c(k). Toutefois, on peut définir d’autres vecteurs pour recevoir
les coefficients, par exemple a ou b. Voici l’aperçu des icônes associés à certains objets :

Dr. GBAME Hervé Daniel


Page 8
Cours d’Informatique (Initiation au logiciel EVIEWS), Licence 2 Economie 2019-2020

Pour créer un nouvel objet, il suffit de sélectionner Object/New Object, à partir du menu
principal ou du menu du workfile, de choisir ensuite le type d’objet, de le nommer et de
cliquer sur OK pour valider.

1.4. Opérateurs et fonctions de référence

EViews dispose d’un éventail d’opérateurs et de fonctions qui permet de faire des calculs
mathématiques (additions, soustraction, multiplication, division, puissance ...). Il dispose
également de certaines fonctions spécialisées utilisées couramment dans l’analyse des séries
temporelles (logarithmes, exponentielles, différences premières, différences secondes). Nous
présentons ci-dessous quelques opérateurs de base et des fonctions fréquemment utilisés.

1.4.1. Les opérateurs de base

+ Addition
- Soustraction
* Multiplication
/ Division
^ Exposant
> Supérieur strictement
< Inférieur strictement
= Egalité
<= Inférieur ou égal
>= Supérieur ou égal

Dr. GBAME Hervé Daniel


Page 9
Cours d’Informatique (Initiation au logiciel EVIEWS), Licence 2 Economie 2019-2020

1.4.2. Les fonctions mathématiques basiques

Les fonctions suivantes effectuent les opérations mathématiques de base. Le tableau ci-
dessous donne quelques fonctions mathématiques couramment utilisées.

Commandes Fonction exemples


@abs(X), abs (X) Valeur absolue @abs(-3) = 3
@exp (X), exp (X) Exponentielle, ex @exp(1) =2,71813
@fact(X) Factoriel, x ! @fact(3) = 6, @fact(0)=1
@factlog(X) Logarithme naturel du factoriel, @factlog(3)= 1,79176
log(x !) @factlog(0) = 0
@inv (X) Inverse, 1/x Inv(2)= 0,5
@log(X), log(X) Logarithme naturel, log(x) @log(2)=0,693
log(@exp(1)) = 1
@sqrt(X), sqrt(X) Racine carrée @sqrt(9) = 3

1.4.3. Les fonctions de séries chronologiques

Les fonctions suivantes facilitent l’utilisation des données de séries chronologiques.

Commandes Fonction exemples


d (X) Différence première (1- L) X = X - X(-1)
L est opérateur de retard
d (X,n) Différence d’ordre n (1- L)n X
dlog(X) Différence première du log de X

Dr. GBAME Hervé Daniel


Page 10
Cours d’Informatique (Initiation au logiciel EVIEWS), Licence 2 Economie 2019-2020

Chapitre 2 : Manipulation des données sous EVIEWS

Ce chapitre aborde les manipulations préliminaires à réaliser avant de passer à l’étape de


modélisation. Il s’agira de :

 Savoir créer un espace de travail (Workfile),


 Importer ou saisir des données,
 Créer de nouvelles séries
 Et de produire des statistiques descriptives sur les données.

La maîtrise de ces opérations est indispensable pour la suite des applications.


Nous allons considérer des données portant sur des séries macroéconomiques à savoir les
Investissements (INV), Produit Intérieur Brut (PIB) et le Taux d’intérêt réel (Tx_int). Les
données couvrent la période de 1972 à 2004. La base de données se trouve ci-dessous.

Tableau 1 : Données sur l’investissement, le PIB et le taux d’intérêt réel

annees INV PIB Tx_int


1972 158 1090 3,5
1973 202 1255 5,5
1974 275 1414 5,5
1975 289 1906 8
1976 264 1933 8
1977 287 1979 8
1978 316 2209 8
1979 314 2751 8
1980 350 2987 10,5
1981 317 2479 10,5
1982 316 2583 12,5
1983 317 2480 10,5
1984 300 2337 10,5
1985 270 2579 10,5
1986 429 3763 8,5
1987 574 4600 8,5
1988 633 4980 9,5
1989 548 4626 11
1990 787 5698 11
1991 708 5500 11

Dr. GBAME Hervé Daniel


Page 11
Cours d’Informatique (Initiation au logiciel EVIEWS), Licence 2 Economie 2019-2020

1992 894 6027 12,5


1993 765 5431 10,5
1994 676 3642 10
1995 748 4476 7,5
1996 859 4651 6,5
1997 789 4387 6,5
1998 866 4646 6,25
1999 905 4752 5,75
2000 867 4371 6,5
2001 925 4620 6,5
2002 4625 6,75
2003 4635 6,85
2004 4650 7,5

La période de 2002 à 2004 est utilisée pour des fins de prévisions.

2.1. Création d’un Workfile

La première action à faire sous EViews est de créer un espace de travail (Workfile). L’espace
de travail organise et enregistre tous les objets qui vont être générés lors du traitement des
données. La création de l’espace de travail définit le nombre d’observations, leur fréquence
(données annuelles, trimestrielles, mensuelles, journalière…ou irrégulière), le nombre et les
noms des variables. Il est nécessaire de relever ces caractéristiques dans le cas d’une
importation de données.
Pour la création d’un Workfile, sélectionner File/New/Workfile comme indiqué ci- dessous :

A la suite de cette opération, on a l’onglet suivant qui s’affiche :

Dr. GBAME Hervé Daniel


Page 12
Cours d’Informatique (Initiation au logiciel EVIEWS), Licence 2 Economie 2019-2020

Au niveau du workfile structure type : le type de données (pour les séries chronologiques,
données de panels et non datée pour les coupes instantanées) ;
Date specification : indique la fréquence des données (annuelle ou mensuelle pour les séries
chronologiques, nombre d’observations pour les séries en coupes instantanées).
Start date et End date : pour la période d’étude c'est à dire le début et fin des observations.
Workfile names (optional) : pour indiquer dans la première case le nom du Workfile
(optionnel) et le nom de la plage (optionnel).
Dans notre exemple, les données sont annuelles et commencent en 1972 pour finir en 2004. Si
les données étaient trimestrielles, on aurait indiqué le trimestre après l’année en tapant 1972:1
et 2004:4. Après avoir cliqué sur Ok, l’écran suivant s’affiche :

Dr. GBAME Hervé Daniel


Page 13
Cours d’Informatique (Initiation au logiciel EVIEWS), Licence 2 Economie 2019-2020

Nous venons à présent de créer un espace de travail ou Workfile. Ce Workfile ne contient pas
encore de variables. Il convient à présent de procéder à la saisie ou à l’importation des
données du fichier du tableau 1.

2.2. Saisie directe des données

EViews donne la possibilité d’entrer directement des données dans un workfile. Pour cela, on
peut le faire de deux manières :

 Premièrement, sélectionnez, dans le menu principal, Objects/New Object/Series.


Entrez ensuite le nom de la série (par exemple Y).

(2) Tapez ici le


nom de la série à
créer

(3) Validez ici


(1) Type d’Objet

Après avoir validé, la variable Y apparaît dans le workfile. Répétez ces opérations autant de
fois que vous voulez créer de variables. Pour visualiser la variable créée, faites un double-clic
sur l’icône de la série dans le workfile. Toutes les valeurs apparaissent en NA. Ce symbole
indique qu’aucune valeur numérique n’est encore saisie pour la variable. Cliquez sur Edit +/-
pour activer l’édition des données. Vous pouvez maintenant entrer les observations de la série
Y. Appuyez la touche Entrée (sur votre clavier) après chaque nouvelle saisie. Avant de fermer
la fenêtre de saisie, cliquez à nouveau sur Edit +/-.

 Deuxièmement, taper dans la ligne de commande : data suivi des variables.


Exemple data inv pib tx_int puis ok. Puis ensuite cliquer sur Edit +/- pour activer l’édition
des données. Nous suivons donc le même procédé que précédemment.

Dr. GBAME Hervé Daniel


Page 14
Cours d’Informatique (Initiation au logiciel EVIEWS), Licence 2 Economie 2019-2020

2.3. Importation des données

Dans la pratique, les données sont déjà saisies sous un autre logiciel. Généralement, il s’agit
de fichiers de format Excel. Dans ce cas, EVIEWS offre la possibilité d’importer ces données
sans avoir à la saisir à nouveau. Dans notre cours, les données existantes sont au format Excel
et nous allons utiliser la procédure d’importation dans EVIEWS.
Nous pouvons utiliser deux manières :

 Premièrement, dans le menu principal, cliquer sur File/Import/Import from file…

Vous allez chercher le fichier cible (comportant les données). On a les fenêtres suivantes :

Dr. GBAME Hervé Daniel


Page 15
Cours d’Informatique (Initiation au logiciel EVIEWS), Licence 2 Economie 2019-2020

En cliquer sur « suivant », on la fenêtre ci-dessous :

Toujours cliquer sur « suivant »

Et enfin en cliquant sur « Finish » on a les données importées (voir fenêtre ci-dessous)

 Secundo, dans le menu principal, cliquer sur File/Import/Read…

Dr. GBAME Hervé Daniel


Page 16
Cours d’Informatique (Initiation au logiciel EVIEWS), Licence 2 Economie 2019-2020

Précisez ensuite le nom du fichier de données et cliquez sur ouvrir. Vous obtenez l’écran
suivant :
Les données commencent à la
colonne B, ligne 2 (voir note*)

Les séries sont en


colonne

Taper ici le nombre


de variables

Note * : La colonne A du fichier Excel contient les années. Le fait d’avoir déjà précisé que les
données vont de 1972 à 2004 génère automatiquement la variable « année ». Les séries
commencent donc à partir de la colonne B, ligne 2 dans le fichier Excel. La ligne 1 étant
réservée aux noms des séries.
En cliquant sur OK, nous obtenons la fenêtre suivante:

Dr. GBAME Hervé Daniel


Page 17
Cours d’Informatique (Initiation au logiciel EVIEWS), Licence 2 Economie 2019-2020

Nous venons par les deux méthodes d’importer les données du fichier Excel contenant notre
base de données. Les trois (03) séries Inv, Pib et Tx_int apparaissent bien dans le workfile. Il
faut noter que Range indique la période couverte par les séries. Sample indique la période qui
va être considérée dans les calculs. Nous pouvons maintenant procéder à l’analyse des
données.
Pour visualiser les observations d’une série, double-cliquer sur la série. Pour visualiser un
groupe de variables, sélectionnez-les et faire Show puis Ok. On peut également faire un clic
droit et sélectionner Open/As Group.

Nb : Il est important d’enregistrer ou sauvegarder le workfile. Cliquer pour ce faire sur Save
et choisir un nom de fichier.

2.4. Générer de nouvelles séries

La création ou transformation de variables sont des opérations courantes dans la pratique


économétrique. Pour générer de nouvelles séries à partir des séries existantes, on a deux
méthodes :

Méthode 1 : Sélectionner Quick/Generate Series, ou cliquer sur l’onglet Genr situé dans le
menu du Workfile, puis taper la formule de calcul dans la boîte de dialogue.

Pour générer la variable linv qui égale au logarithme de la variable inv, la formule à inscrire
est indiquée dans l’écran suivant :

Dr. GBAME Hervé Daniel


Page 18
Cours d’Informatique (Initiation au logiciel EVIEWS), Licence 2 Economie 2019-2020

On peut également générer de la même façon les logarithmes des autres variables. Les
nouvelles séries apparaissent dans le workfile.
On peut aussi calculer des taux de croissance des variables. Par exemple la variable Pib. On a
la formule suivante :

Pour créer un groupe comprenant les nouvelles séries, sélectionnez-les variables et choisissez
Show dans le menu puis nommez le groupe.

Méthode 2 : Taper directement dans la ligne de commande, Genr suivi de la série à créer.

Par exemple, on veut créer un terme aléatoire qui suit une loi normale centrée et de variance
20000. Dans <Quick> <Generate series> taper : EPS = NRND * SQR(20000) ou bien
rentrer dans la zone de commande : GENR EPS = NRND * SQR(20000).

2.5. Représentations graphiques

Pour obtenir la représentation d’une série, il faut d’abord la visualiser en faisant un double-
clic sur la série. Ensuite cliquer sur View/Graph/line. Pour afficher plusieurs séries sur le

Dr. GBAME Hervé Daniel


Page 19
Cours d’Informatique (Initiation au logiciel EVIEWS), Licence 2 Economie 2019-2020

même graphique, sélectionner les séries en utilisant la touche CRTL, ensuite cliquer sur le
bouton droit de la souris et choir Open/As group. Dans la nouvelle fenêtre qui s’affiche,
cliquer sur View/Graph/line.
Pour afficher les séries séparément, même démarche mais cliquer sur View/Multiple
Graph/line.

Exemples de représentations graphiques


- Graphiques séparés

INV PIB
1,000 7,000

900
6,000
800

700 5,000

600
4,000
500

400 3,000

300
2,000
200

100 1,000
1975 1980 1985 1990 1995 2000 1975 1980 1985 1990 1995 2000

TX_INT
14

12

10

2
1975 1980 1985 1990 1995 2000

Dr. GBAME Hervé Daniel


Page 20
Cours d’Informatique (Initiation au logiciel EVIEWS), Licence 2 Economie 2019-2020

- Graphiques simultanés

7,000

6,000

5,000

4,000

3,000

2,000

1,000

0
1975 1980 1985 1990 1995 2000

INV PIB

On peut également représenter le nuage de points entre deux variables. Ouvrez les deux
variables et sélectionnez View/Graph/Scatter. Pour le couple (INV, PIB), on obtient le nuage
de points suivant :

7,000

6,000

5,000
PIB

4,000

3,000

2,000

1,000
100 200 300 400 500 600 700 800 900 1,000

INV

On peut sauvegarder le graphique en cliquant sur Name dans la boîte de dialogue et entrer le
nom du graphique. Après fermeture de la fenêtre graphique, le graphique figurera dans le
workfile comme un objet aux côtés des objets déjà présents.

2.6. Statistiques descriptives de base

Nous calculons à l’aide de EViews quelques statistiques élémentaires sur les variables Linv,
Lpib et Tx_int. Pour ce faire, on sélectionne les trois variables, puis faire Show. Une fois le

Dr. GBAME Hervé Daniel


Page 21
Cours d’Informatique (Initiation au logiciel EVIEWS), Licence 2 Economie 2019-2020

groupe ouvert, on sélectionne View/Descriptives Stats/Common Samples. On obtient le


tableau suivant :

Tableau 2.1 : Statistiques descriptives sur les séries Linv, Lpib et Tx_int
LINV LPIB TX_INT
Mean 6.146406 8.072259 8.583333
Median 6.183866 8.216630 8.250000
Maximum 6.829794 8.704005 12.50000
Minimum 5.062595 6.993933 3.500000
Std. Dev. 0.533203 0.478332 2.286894
Skewness -0.171407 -0.608692 -0.162739
Kurtosis 1.656809 2.333363 2.189163

Jarque-Bera 2.402105 2.408037 0.954241


Probability 0.300877 0.299986 0.620568

Sum 184.3922 242.1678 257.5000


Sum Sq. Dev. 8.244855 6.635236 151.6667

Observations 30 30 30

La statistique de Jarque Bera (JB) montre que les séries linv, lpib et tx_int suivent toutes une
loi lognormale et normale sur la période d’étude c'est à dire de 1972 à 2001. Pour retourner
aux données, cliquer sur Sheet. Nous reviendrons sur cette statistique (JB).

Pour obtenir la matrice des corrélations empiriques entre les variables, sélectionner
Views/Covariance Analysis…/correlation.

Tableau 2.2 : Matrice des coefficients de corrélation


LINV LPIB TX_INT
LINV 1.000000 0.933674 0.103225
LPIB 0.933674 1.000000 0.363224
TX_INT 0.103225 0.363224 1.000000

Les coefficients de corrélation permettent d’évaluer les relations linéaires entre les variables.
Le coefficient de corrélation entre les variables Lpib et Linv est élevé contrairement à celui
des variables Linv et Tx_int ; et Tx_int et Lpib : les trois variables sont donc positivement
corrélées entre elles. Cela signifie qu’elles évoluent dans le même sens. Lorsque la variable
Lpib prend des valeurs élevées, Linv prend également des valeurs élevées. L’analyse des
corrélations est une étape importante dans le processus de modélisation. D’une part, elle
permet d’évaluer la pertinence d’une relation linéaire entre les variables, et d’autre part, de
détecter l’existence d’une multicolinéarité entre les variables explicatives.
Pour suspecter la multicolinéarité des variables indépendantes, on compare le coefficient de

Dr. GBAME Hervé Daniel


Page 22
Cours d’Informatique (Initiation au logiciel EVIEWS), Licence 2 Economie 2019-2020

détermination et le carré des différents coefficients de corrélation. Ainsi si R 2 p rx2i , x j ( rxi , x j

étant le coefficient de corrélation entre les variables xi et x j ) il y a une présomption de

multicolinéarité entre les variables indépendantes xi et x j . Dans le cas contraire, il y a absence

de multicolinéarité entre les variables.

Dr. GBAME Hervé Daniel


Page 23
Cours d’Informatique (Initiation au logiciel EVIEWS), Licence 2 Economie 2019-2020

Chapitre 3 : Application à l’estimation de modèle linéaire général

L’étude d’un phénomène économique nécessite souvent l’introduction de plusieurs variables


explicatives. Une variable endogène s’exprime alors en fonction de plusieurs variables
exogènes. On distingue alors deux types de variables dans un modèle économétrique : les
variables dites exogènes (ou variables explicatives) et les variables endogènes (ou variables à
expliquer). Les variables exogènes sont les variables explicatives de la variable étudiée. Elles
sont considérées comme des données autonomes. Ainsi dans le modèle
Consi   0  1 * Revi   i

La grandeur Revenu ( Rev ) de l’individu i est la variable explicative. C’est sa valeur pour i
donné qui permet de déterminer la consommation ( Cons ) à l’aléatoire près  i .

La consommation est la variable endogène du modèle précédent. Cette distinction entre la


nature des variables est très importante et devra toujours être précisée avant l’étude d’un
modèle.
Dans ce chapitre, nous allons nous consacrer à l’estimation du modèle linéaire général appelé
aussi modèle de régression multiple. Il synthétise un ensemble de connaissances
fondamentales en économétrie. Les aspects théoriques de l’estimation et de l’inférence
statistique ne seront pas développés, on se limitera à les rappeler en mettant l’accent sur leur
signification, leur importance, leur interprétation et surtout leur vérification pratique. Après
avoir rappelé la spécification générale et les hypothèses théoriques à la base de ces modèles,
le chapitre propose une application à partir de l’estimation d’une fonction de consommation.
Le modèle estimé est soumis à une série de tests d’évaluation. Les procédures de correction
sont abordées de façon pratique. L’équation estimée est utilisée pour prévoir la consommation
sur un horizon temporel spécifié. Il est clair que la maîtrise des aspects théoriques de
l’économétrie du modèle linéaire est un atout indéniable qui facilitera l’évaluation, la
validation et l’interprétation des modèles économétriques. Le lecteur pourra consulter des
ouvrages comme Gujarati (2004), Greene (2000) ou Bourbonnais (1998) sur les
développements théoriques relatifs à l’économétrie du modèle linéaire.

3.1. Spécification du modèle économétrique et hypothèses

Nous nous intéressons à l’estimation d’une fonction de consommation sous la forme linéaire
suivante :

Dr. GBAME Hervé Daniel


Page 24
Cours d’Informatique (Initiation au logiciel EVIEWS), Licence 2 Economie 2019-2020

Lconst   0  1 Lpibt   2 Lipct  3 Lgtt  et (3.1)

Dans cette spécification, la variable endogène (ou dépendante) et exogène (ou indépendante)
sont respectivement LCONS et LPIB, LIPC puis LGT. e t est un terme d’erreur qui capte

l’ensemble d’autres variables explicatives pertinentes non prises en compte dans la


spécification, mais aussi d’autres types d’erreurs de spécification telles que la forme de la
relation mathématique, l’erreur d’échantillonnage et les erreurs de mesure sur les variables.
Ce terme est supposé aléatoire, ce qui permet de rendre le modèle non déterministe : les
valeurs observées de la consommation peuvent ainsi s’écarter des valeurs théoriques issues de
l’équation. Toutefois, pour que l’ajustement soit satisfaisant, les valeurs de e t ne doivent pas

être trop « grandes », sinon le modèle n’expliquerait pas grande chose des variations de la
consommation.
Une fois le modèle spécifié, il faut fournir des estimations des paramètres structurels  0 , 1

 2 et 3 à partir d’un échantillon d’observations. Ces coefficients sont importants pour


l’analyse économique étant donnée leur signification économique. Par exemple, le coefficient
1 représente l’élasticité de la consommation par rapport au revenu, il indique de combien
varie la consommation lorsque le revenu augmente de 1%. De même, le coefficient  2 évalue

l’élasticité de la consommation privée par rapport au niveau général des prix. Ces paramètres
structurels sont importants pour la formulation des politiques économiques.
Pour « gérer » les termes d’erreurs e t ainsi que les propriétés du modèle, on pose les
hypothèses suivantes:
- Les erreurs e t sont de moyenne nulle : les erreurs se compensent sur toute la période;

- La variance des erreurs e t est constante (hypothèse d’homoscédasticité) ;

- Les erreurs e t sont indépendantes (l’erreur au temps t n’est pas influencée par l’erreur
aux temps t-1, t-2, ou plus généralement la corrélation entre deux observations
distinctes est nulle donc on parle d’absence d’autocorrélation des erreurs) ;
- Les erreurs e t suivent une distribution normale.

On résume ces quatre hypothèses en posant que les termes d’erreurs sont normalement
identiquement et indépendamment distribuées et on note et ~ iid 0,  2  . La pertinence des
tests que nous allons faire sur le modèle dépendra de la validité de ces hypothèses.
L’hypothèse de normalité n’est pas indispensable pour garantir l’absence de biais dans

Dr. GBAME Hervé Daniel


Page 25
Cours d’Informatique (Initiation au logiciel EVIEWS), Licence 2 Economie 2019-2020

l’estimation des coefficients, mais elle s’avère cruciale pour réaliser les tests statistiques sur le
modèle.
En plus des hypothèses précédentes sur les termes d’erreurs, on pose également un certain
nombre d’hypothèses sur les variables explicatives. Ainsi une des hypothèses importantes
dans les modèles structurels est l’exogénéïté des variables explicatives. Cette hypothèse
signifie que les variables explicatives sont indépendantes du terme d’erreur et

( cov( xt , et )  0) . La violation de cette hypothèse implique un traitement économétrique


approprié. On suppose d’une part que le nombre d’observations excède le nombre de
paramètres à estimer et, d’autre part, qu’il n’existe pas de multicolinéarité parfaite entre les
variables explicatives. La première condition est une condition nécessaire pour vérifier la
deuxième. L’absence d’une multicolinéarité parfaite signifie qu’il n’y a pas de redondance des
différentes variables explicatives dans la détermination de la variable expliquée. Cette
hypothèse conditionne la possibilité d’estimer les paramètres du modèle.

L’ensemble de ces hypothèses confère à l’estimateur des moindres carrés la propriété de


meilleur estimateur linéaire sans biais. De plus, il est convergent, c’est-à-dire qu’on améliore
la précision lorsque le nombre d’observations augmente. De plus, l’estimateur suit
asymptotiquement une loi normale.

3.2. Estimation d’une équation linéaire

Pour estimer l’équation (3.1), on peut procéder de deux façons. La première consiste à
sélectionner, dans le menu principal, Quick/Estimate Equation…. Dans la fenêtre qui
s’affiche, on tape l’équation en commençant par la variable endogène suivie d’une constante
et des variables explicatives.

Dr. GBAME Hervé Daniel


Page 26
Cours d’Informatique (Initiation au logiciel EVIEWS), Licence 2 Economie 2019-2020

Cette méthode devient fastidieuse si le modèle comporte un grand nombre de variables


explicatives. En outre, l’obligation de taper les noms exacts des variables ajoute une difficulté
supplémentaire à cette procédure.

La deuxième façon de procéder (et la plus simple) consiste à sélectionner les variables qui
interviennent dans l’équation en commençant par la variable endogène (LCONS), à faire
ensuite un clic droit et à sélectionner Open as Equation. Quand vous cliquez sur as
Equation, vous obtenez la même fenêtre que précédemment : la première variable
sélectionnée occupe la première position suivie des autres variables. Cette variable est
interprétée par EViews comme étant la variable endogène de l’équation et les autres variables
les explicatives. Faites attention à la position de la variable endogène dans la succession des
variables qui s’affichent dans la fenêtre de spécification.
Une troisième méthode consiste à taper directement dans la ligne de commande :
ls lcons c lpibr lipc lgt

Les résultats de la régression est donnée par le tableau ci-dessous :

Tableau 3.1 : Coefficients de régression de la fonction de consommation

Dependent Variable: LCONS


Method: Least Squares
Date: 09/29/16 Time: 15:25
Sample: 1975 2012
Included observations: 38

Variable Coefficient Std. Error t-Statistic Prob.

C -0.342447 0.373813 -0.916092 0.3661


LPIBR 0.940533 0.060660 15.50491 0.0000
LIPC 0.065592 0.023270 2.818805 0.0080
LGT 0.026650 0.036613 0.727890 0.4717

R-squared 0.988375 Mean dependent var 8.003352


Adjusted R-squared 0.987349 S.D. dependent var 0.397189
S.E. of regression 0.044674 Akaike info criterion -3.279550
Sum squared resid 0.067856 Schwarz criterion -3.107172
Log likelihood 66.31145 Hannan-Quinn criter. -3.218219
F-statistic 963.5798 Durbin-Watson stat 1.302632
Prob(F-statistic) 0.000000

Le tableau présente les principales valeurs caractéristiques d’une régression. La colonne


variable indique les variables explicatives du modèle. La colonne suivante donne les valeurs
numériques estimées des coefficients associés à chaque variable. La troisième colonne

Dr. GBAME Hervé Daniel


Page 27
Cours d’Informatique (Initiation au logiciel EVIEWS), Licence 2 Economie 2019-2020

indique les écart-types des coefficients estimés. Le rapport entre le coefficient estimé et son
écart-type donne le ratio de Student appelé plus couramment le t de Student. Cette statistique
est donnée dans la quatrième colonne du tableau. Enfin, la dernière colonne indique les
probabilités attachées aux différentes valeurs de la statistique de Student.

Le menu de la fenêtre équation permet d’accéder à différentes sorties de la régression. Par


exemple, si vous cliquez sur l’onglet Resids de ce menu, vous obtenez un graphique des
termes d’erreurs. On peut créer la série des résidus, c’est-à-dire les termes êt , en sélectionnant
Procs/Make Residual Series… et en donnant un nom à la série (par exemple RESIDU).

On peut nommer l’équation en tant qu’objet. Pour cela, cliquez sur Name et tapez le nom
(Equation1 par exemple). Pour documenter les résultats (dans un document Word par
exemple), cliquez sur View/Representations. L’on obtient trois lignes de textes qui indiquent
la commande utilisée, l’équation estimée et les valeurs des coefficients de l’équation. Pour
revenir aux résultats de la régression, cliquez sur l’onglet Stats.

Nous allons maintenant procéder aux différents tests de spécification sur le modèle. Il s’agit
des tests sur les termes d’erreurs, du test d’erreur de spécification et des tests sur les
coefficients.

3.3. Tests de diagnostic sur les résidus du modèle

Les propriétés des estimateurs des MCO reposent sur un certain nombre d’hypothèses
formulées a priori sur les termes d’erreur. Il s’agit plus précisément de la nullité de la
moyenne, de l’absence d’autocorrélation, de l’homocédasticité et de la normalité des erreurs.
Ces hypothèses économétriques sont importantes pour garantir de bonnes propriétés aux
estimateurs (BLUE) de la MCO. Les tests d’hypothèses économiques n’auront un sens que si
la spécification économétrique du modèle n’a pas été préalablement rejetée. Ne commentez
pas les coefficients sans avoir vérifié au préalable les hypothèses économétriques. En effet, le
rejet, par exemple, des hypothèses d’absence d’autocorrélation et d’homocédasticité des
erreurs rend l’estimateur des moindres carrés ordinaires inefficace, et toute décision
économique basée sur cet estimateur est risquée. En corrigeant les estimations de
l’autocorrélation ou de l’hétéroscédasticité, la significativité de certains coefficients peut s’en
trouver modifiée.

Dr. GBAME Hervé Daniel


Page 28
Cours d’Informatique (Initiation au logiciel EVIEWS), Licence 2 Economie 2019-2020

Dans les lignes qui suivent, nous présenterons les tests d’hypothèses économétriques
permettant d’évaluer la spécification économétrique retenue.

3.3.1. Test de normalité des erreurs

Pour réaliser le test de normalité, sélectionnez View/Residual Diagnostics/Histogram-


Normality Test, comme indiqué ci-dessous:

On obtient le graphique suivant :

Graphique 3.1 : Histogramme de la série des résidus de l’équation (3.1)


10
Series: Residuals
Sample 1975 2012
8 Observations 38

Mean -8.92e-16
6 Median -0.009997
Maximum 0.114133
Minimum -0.072786
4 Std. Dev. 0.042825
Skewness 0.687527
Kurtosis 3.013219
2
Jarque-Bera 2.994003
Probability 0.223800
0
-0.05 0.00 0.05 0.10

Le graphique présente la distribution de fréquence des résidus dans un histogramme. La


distribution normale est caractérisée graphiquement par:

 une symétrie des observations autour de la moyenne: on observe autant


d'observations en-deçà de la moyenne que d'observations au-délà de la
moyenne;

Dr. GBAME Hervé Daniel


Page 29
Cours d’Informatique (Initiation au logiciel EVIEWS), Licence 2 Economie 2019-2020

 une forte concentration des observations autour de la moyenne;


 le nombre d'observations diminue rapidement lorsque l'on s'écarte de la
moyenne. On dit que les queues de distribution sont peu épaisses ou que la
distribution est mesokurtique.

Cependant, un certain nombre d’ambiguités compliquent l'interprétation « visuelle » de


l’histogramme. Tout d'abord, l'histogramme ne donne une répresentation fidèle de la vraie
densité que si le nombre d'observations est suffisamment important. Si le nombre
d'observations est "faible", la forme de l'histogramme sera moins suggestive. Ensuite, des lois
de probabilités différentes voient les réprésentations graphiques de leurs fonctions de densité
être semblables de sorte qu'il n'est pas toujours possible que l'on puisse distinguer le processus
générateur des séries issus de ces lois à partir de l'étude des seuls histogrammes. Par exemple
les distributions de probabilités de la loi normale et de la loi de Student sont pratiquement
indiscernables.
A droite de l’histogramme se trouvent un ensemble de statistiques descriptives portant sur la
série des résidus : la moyenne, la médiane, le maximum, le minimum et l’écart-type. L’écart-
type est estimé à partir de la formule suivante :
T

 e  e
2
t
T 1
s (3.2)
T 1
où T est le nombre d’observations et e la moyenne de la série des résidus.

En plus de ces statistiques, EViews reporte des indicateurs de forme qui permettent
d’apprécier la normalité de la série. Le Skewness mesure l’asymétrie de la distribution autour
de sa moyenne. Elle est calculée par la formule:
3
1 T
 et  e 
S
T
 
t 1  ˆ 
 (3.3)

T 1
où ˆ  s est l’écart type des observations résiduelles.
T

Le Skewness d’une distribution symétrique, comme la distribution normale, est nulle. Ainsi
un Skewness positif signifie que la distribution est décalée vers la droite et une valeur
négative signifie que la distribution a une longue queue vers la gauche. Dans notre cas, le
Skewness n’est pas trop éloigné de zéro.

Dr. GBAME Hervé Daniel


Page 30
Cours d’Informatique (Initiation au logiciel EVIEWS), Licence 2 Economie 2019-2020

Le Kurtosis mesure le degré d’aplatissement de la distribution. Il est donné par la formule


suivante:
4
1 T
 et  e 
K
T
 
t 1  ˆ 
 (3.4)

Le Kurtosis d’une distribution normale est égal à 3. Si le Kurtosis reporte une valeur
supérieure à 3, alors la distribution est plus pointue par rapport à la normale (elle est dite
leptokurtique) ; si la valeur du Kurtosis est inférieure à 3, la distribution est plus aplatie que
la normale (elle est dite platikurtique). Dans notre cas, le Kurtosis approche la valeur 3.

La statistique de Jarque-Bera propose un test de normalité qui tienne compte du Skewness et


du Kurtosis. Elle est définie par:

 S 2 ( K  3)2 
JB  n    (3.5)
 6 4 

K le Kurtosis et S le Skewness avec n, la taille de l’échantillon.

Sous l’hypothèse de normalité, la statistique de Jarque-Bera est distribuée suivant une loi du
 2 à 2 degrés de liberté.
On lit dans la table du Khi-Deux à 2 degrés de liberté, au seuil de 5% : A = 5,99.
 On accepte l’hypothèse de normalité si la statistique de Jarque-Bera est inférieure à
5,99.
 On rejette l’hypothèse de normalité si la statistique de Jarque-Bera est supérieure ou
égale à 5,99.
Sur le logiciel Eviews, la règle de décision est la suivante :
 Au seuil de 5%, on accepte l’hypothèse de normalité (H0) dès que la valeur de la
probabilité est supérieure à 0,05.
 Une probabilité inférieure à 0,05 conduit à rejeter l’hypothèse nulle d’une distribution
normale au seuil de 5%.

3.3.2. Test d’hétéroscédasticité des erreurs

Il y a hétéroscédasticité lorsque les données n’ont pas une variance constante.


L’hétéroscédasticité des erreurs ne biaise pas l’estimation des coefficients, mais plutôt les

Dr. GBAME Hervé Daniel


Page 31
Cours d’Informatique (Initiation au logiciel EVIEWS), Licence 2 Economie 2019-2020

tests statistiques puisque les écarts-types estimés des coefficients ne sont pas adéquats. Le
problème de l’hétéroscédasticité se rencontre plus fréquemment sur des données en coupe
instantanée ou bien sur des données groupées. Elle prend souvent une forme particulière sur
des données temporelles. Néanmoins, il est important dans tous les cas de savoir la détecter et
la corriger.
Plusieurs tests existent pour détecter l’hétéroscédasticité. Il s’agit en particulier du test de
Goldfeld et Quandt (1965), du test de Breusch et Pagan (1979), du test de Glesjer (1969) et du
test de White (1980). L’idée générale de ces tests est de vérifier si le carré des résidus peut
être expliqué par les variables du modèle. Si c’est le cas, il y a hétéroscédasticité. Dans le
contexte du test d’hétéroscédasticité de White, l’hypothèse nulle est que tous les coefficients
de la régression des carrés des résidus sont nuls, c’est-à-dire les variables du modèle
n’expliquent pas la variance des termes d’erreurs. Nous mettrons l’accent sur le test de White.
Nous allons tester l’hypothèse d’hétéroscédasticité à l’aide du test de White. Nous
l’appliquons ici dans sa forme complète, c’est-à-dire en introduisant dans l’équation non
seulement les variables explicatives et leurs carrés mais également les doubles produits. Pour
ce faire, il faut sélectionner View/Residual Diagnostics/White Heteroskedasticity (cross
terms). Le tableau qui s’affiche donne la régression de White. Les statistiques sur lesquelles
est basé le test de White figurent dans le haut du tableau. Il s’agit des tests de Fisher (F-
statistic) et du Chi-deux. La statistique du test de White est égale au produit du nombre
d’observations et du coefficient de détermination de la régression de test (Obs*R-squared). Le
résultat du test figure dans le tableau suivant:

Tableau 3.2 : Statistiques du test d’hétéroscédasticité de White (avec termes croisés)

Heteroskedasticity Test: White

F-statistic 0.636300 Prob. F(9,28) 0.7566


Obs*R-squared 6.452294 Prob. Chi-Square(9) 0.6939
Scaled explained SS 5.199550 Prob. Chi-Square(9) 0.8166

À chaque statistique du test est associée une probabilité. L’hypothèse d’homocédasticité ne


peut être rejetée au seuil de 5% car la probabilité de se tromper en rejetant H0 est de 69%.
Autrement dit, pour les deux options du test de White, on remarque que les probabilités sont
supérieures à 5%, on accepte donc l’hypothèse d’homocédasticité des erreurs.
Le test de White avec termes non croisés donne les résultats suivants :

Dr. GBAME Hervé Daniel


Page 32
Cours d’Informatique (Initiation au logiciel EVIEWS), Licence 2 Economie 2019-2020

Tableau 3.3 : Statistiques du test d’hétéroscédasticité de White (termes non croisés)

Heteroskedasticity Test: White

F-statistic 0.955014 Prob. F(3,34) 0.4251


Obs*R-squared 2.953248 Prob. Chi-Square(3) 0.3989
Scaled explained SS 2.379861 Prob. Chi-Square(3) 0.4974

Les erreurs sont homocédastiques. Finalement, on retient l’hypothèse d’homocédasticité.


Remarque : Lorsque le test conclue à l’existence d’une hétéroscédasticité, on peut chercher à
en détecter la source et proposer une méthode de correction. Le principe de la correction
consiste à modifier l’écriture de l’équation afin de rendre les erreurs homocédastiques.

3.3.3. Tests d’autocorrélation

L’autocorrélation des erreurs signifie que le terme d’erreur correspondant à une période est
corrélé avec le terme d’erreur d’une autre période. Si cette corrélation joue entre deux termes
consécutifs ( et et et 1 ), on parle d’autocorrélation d’ordre un. La plupart des applications sur

des données annuelles impliquent des autocorrélations d’ordre un. Dans les séries temporelles,
l’autocorrélation des erreurs peut avoir plusieurs origines. Elle peut provenir de phénomènes
de mémoire dans la fonction de comportement des agents. Elle peut également être liée à une
erreur de spécification de la forme fonctionnelle ou à une erreur de mesure ou encore à
l’omission d’une variable explicative pertinente corrélée dans le temps. Dans le cas des
données transversales, il est possible d’observer une autocorrélation spatiale si les
observations ont été préalablement rangées selon un certain ordre, par exemple géographique.
Il existe plusieurs tests de l’autocorrélation des erreurs. Les plus couramment utilisés sont le
test de Durbin et Watson (1950 et 1951), le test de Ljung et Box (1979) et le test de Breusch
et Godfrey (1978).

 Test de Durbin et Watson

Le test de Durbin-Watson (DW) permet de détecter une autocorrélation des erreurs


d’ordre un selon la forme :
 t   t 1  ut
Le test d’hypothèse est le suivant :
H0 : Erreurs non corrélées (   0 ) vs H1 : Erreurs corrélées (   0 )

Dr. GBAME Hervé Daniel


Page 33
Cours d’Informatique (Initiation au logiciel EVIEWS), Licence 2 Economie 2019-2020

La statistique de Durbin-Watson est la suivante :


n

 ( t  t 1 ) 2
DW  t 2
n
 2(1  ˆ ) (3.6)

t 1
t
2

Où  t est le résidu calculé


La lecture de la table de Durbin-Watson (DW) permet de déterminer deux valeurs dinf et dsup
1
comprises entre 0 et 2 qui délimitent l’espace entre 0 et 4 selon le schéma ci-dessous.
Absence de corrélation

0 corrélation>0 dinf dsup 2 4-dsup 4-dinf corrélation<0 4

0 <DW<dinf ou 4-dinf<DW<4 : il y a autocorrélation des erreurs respective positive et négative.

dsup <DW<4-dsup : il y a absence d’autocorrélation des erreurs

dinf<DW<dsup ou 4-dsup<DW<4-dinf : nous sommes dans la zone de doute et on ne peut pas conclure
dans un sens comme dans l’autre. Mais dans la pratique, on supposera qu’il y a absence de corrélation
des erreurs.

Par ailleurs, la formule ci-dessus à savoir DW  2(1  ˆ ) s’avère utile en pratique car elle
permet dans certains cas d’avoir très rapidement une idée sur l’autocorrélation des erreurs.
Une valeur proche de 2 indique une absence d’autoccorélation des erreurs tandis qu’une
valeur proche de 0 ou de 4 est revélatrice d’une autocorrélation des erreurs (autocorrélation
positive ou négative). Pour des valeurs s’éloignant de ces deux valeurs, il faut consulter les
valeurs critiques tabulées par Durbin et Watson pour pouvoir décider avec précision (voir
schema ci-dessus).

L’autocorrélation des erreurs peut provenir d’une mauvaise spécification analytique du


modèle et de l’oubli d’une variable explicative importante2.
Conditions d’application du test de Durbin-Watson
- Le modèle doit comporter impérativement un terme constant ;
- Le nombre d’observations doit être supérieur ou égal à 15 ;
- Le modèle doit être spécifié en séries temporelle ;
- La variable à expliquer ne doit pas figurer parmi les variables explicatives du

1
Sur la table de Durbin-Watson, k correspond au nombre de variable explicatives constantes exclues.
2
On peut également mentionner l’instabilité des coefficients et la présence de points aberrants.

Dr. GBAME Hervé Daniel


Page 34
Cours d’Informatique (Initiation au logiciel EVIEWS), Licence 2 Economie 2019-2020

modèle en tant que variable retardée. Si c’est le cas, on peut utiliser par exemple le
test h de Durbin ou le test de Breusch-Godfrey.

Dans le cas de notre exercice, la statistique de Durbin-Watson donne une valeur de 1,302 qui
n’est ni proche de zéro ni proche de 2.

Dependent Variable: LCONS


Method: Least Squares
Date: 09/29/16 Time: 15:25
Sample: 1975 2012
Included observations: 38

Variable Coefficient Std. Error t-Statistic Prob.

C -0.342447 0.373813 -0.916092 0.3661


LPIBR 0.940533 0.060660 15.50491 0.0000
LIPC 0.065592 0.023270 2.818805 0.0080
LGT 0.026650 0.036613 0.727890 0.4717

R-squared 0.988375 Mean dependent var 8.003352


Adjusted R-squared 0.987349 S.D. dependent var 0.397189
S.E. of regression 0.044674 Akaike info criterion -3.279550
Sum squared resid 0.067856 Schwarz criterion -3.107172
Log likelihood 66.31145 Hannan-Quinn criter. -3.218219
F-statistic 963.5798 Durbin-Watson stat 1.302632
Prob(F-statistic) 0.000000

Le recours à la table de Durbin et Watson s’avère nécessaire pour conclure. On lit dans la
table de Durbin et Watson à n = 38 ; k = 3 et dinf = 1,32; dsup = 1,66. La valeur de Durbin-
Watson (DW = 1,302) se situe 0 < DW < dinf , il y a alors une autocorrélation positive des résidus,
donc une présomption de dépendance des erreurs.

 Analyse du corrélogramme et test de Ljung et Box

Le corrélogramme d’une série est la représentation graphique des coefficients de corrélation


de la série avec elle-même décalée de k périodes. Le corrélogramme permet une interprétation
instantanée de la significativité des coefficients d’autocorrélation. Pour obtenir le
corrélogramme de la série des résidus, sélectionnez View/Residual Diagnostic/
Correlogram- Q-statistics…

Figure 3.2 : Corrélogramme de la série des résidus de l’équation (3.1)

Dr. GBAME Hervé Daniel


Page 35
Cours d’Informatique (Initiation au logiciel EVIEWS), Licence 2 Economie 2019-2020

La colonne AC indique les autocorrélations et la colonne PAC les autocorrélations partielles.


La statistique du test de Ljung-Box est donnée par la Q-Stat avec sa probabilité critique dans
les deux dernières colonnes. Cette statistique teste la significativité globale de plusieurs
coefficients d’autocorrélation.
Le corrélogramme permet d’identifier rapidement les termes significatifs des fonctions
d’autocorrélation simples et partielles. Les bornes de l’intervalle de confiance indiquées par
les pointillés horizontaux ; chaque terme qui sort de cet intervalle est significativement
différent de zéro au seuil de 5%. S’il n’y a pas d’autocorrélation, tous les coefficients AC et
PAC devraient être proches de zéro, et toutes les Q-statistiques seraient non significatives
avec des probabilités élevées. Si les coefficients AC sont décroissants géométriquement et les
PAC non significatifs à partir d’un retard d’ordre p, alors la série obéit à un processus
autorégressif d’ordre p (AR(p)). En revanche, si les AC sont non significatifs à partir d’un
ordre q et les PAC décroissant géométriquement, alors la série suit un processus moyen
mobile d’ordre q (MA (q)).
On observe ici que seul le premier terme du corrélogramme sort de l’intervalle de confiance.
En effet, la Q-stat de Ljung-Box reporte une valeur de 3,883 avec une probabilité de 0,049
inférieure à 0.05. Nous rejetons donc l’hypothèse de nullité du premier coefficient
d’autocorrélation. Il y a alors autocorrélation des erreurs.

 Test de Breusch et Godfrey

Contrairement au test de Durbin et Watson, le test de Breusch et Godfrey permet de tester une
autocorrélation d’ordre supérieur à 1 et reste valable en présence de la variable endogène

Dr. GBAME Hervé Daniel


Page 36
Cours d’Informatique (Initiation au logiciel EVIEWS), Licence 2 Economie 2019-2020

retardée parmi les variables explicatives. Pour réaliser ce test, sélectionnez View/Residual
Diagnostics/ Serial Correlation LM Test…. Précisez l’ordre de l’autocorrélation et cliquez
sur OK. Pour un nombre de retards égal à un, on obtient le tableau suivant:

Tableau 3.4 : Statistiques du test d’autocorrélation de Breusch-Godfrey

Breusch-Godfrey Serial Correlation LM Test:

F-statistic 4.036971 Prob. F(1,33) 0.0528


Obs*R-squared 4.141939 Prob. Chi-Square(1) 0.0418

La statistique de test de Breusch-Godfrey nous donne une valeur de 4, 142 et une probabilité
de 0,042. Ces valeurs nous conduisent à rejeter l’hypothèse nulle d’absence d’autocorrélation
d’ordre d’un des erreurs.

On retient finalement l’hypothèse d’une autocorrélation des erreurs à l’ordre un. L’équation
de consommation doit donc être re-spécifiée et re-estimée avant d’être utilisée à des fins de
prévision ou pour la prise de décision. N’oublions pas que l’autocorrélation des erreurs d’un
modèle peut provenir d’une mauvaise spécification ou d’un oubli de variables explicatives
pertinentes. Avant d’appliquer une méthode de correction, nous allons effectuer le test
d’erreur de spécification de Ramsey (1969).

3.4. Tests d’erreur de spécification de Ramsey

Selon Ramsey, la plupart des erreurs de spécification dans les modèles est due au fait que le
vecteur-erreur  est non nul. Pour tester l’erreur de spécification, Ramsey considère le modèle
suivant :

Y  X  Z   
Le test d’hypothèse est le suivant :
H 0 :   0 (modèle est bien spécifié) vs H1 :   0 (modèle est malspécifié)
On accepte H0 si la valeur de la probabilité est supérieure à 5%. On rejette H0 si la valeur de la
probabilité est inférieure à 5%.
On note que le test de Ramsey (1969) teste les trois types d’erreurs de spécification
suivantes :
- Omission de variables explicatives pertinentes ;

Dr. GBAME Hervé Daniel


Page 37
Cours d’Informatique (Initiation au logiciel EVIEWS), Licence 2 Economie 2019-2020

- Forme fonctionnelle incorrecte ; certaines variables pourraient être prises en log, en


puissance (forme non linéaire) ou transformées autrement ;
- Corrélation entre les variables explicatives et le terme d’erreur. Cette situation peut
provenir soit d’une erreur de mesure sur les variables, soit d’un problème
d’endogénéïté de certaines explicatives ou de la présence de l’endogène retardée en
explicative avec des erreurs autocorrélées.

Pour réaliser le test de Ramsey, sélectionnez View/Stability Diagnostics/Ramsey RESET


Test… comme indiqué ci-dessous:

Le résultat du test est donné dans le tableau ci-dessous :

Tableau 3.5 : Statistiques du test de Ramsey de l’équation (3.1)

Ramsey RESET Test


Equation: EQ01
Specification: LCONS C LPIBR LIPC LGT
Omitted Variables: Squares of fitted values

Value df Probability
t-statistic 1.171018 33 0.2500
F-statistic 1.371282 (1, 33) 0.2500
Likelihood ratio 1.547126 1 0.2136

La probabilité critique de la statistique de test indique qu’il n’y a pas d’erreur de spécification
dans l’équation estimée.

Dr. GBAME Hervé Daniel


Page 38
Cours d’Informatique (Initiation au logiciel EVIEWS), Licence 2 Economie 2019-2020

3.5. Estimation en présence d’autocorrélation des erreurs

La présence de l’autocorrélation des erreurs affecte négativement l’inférence statistique et


ainsi la validité globale du modèle. En effet, si les erreurs sont autocorrélées, l’estimateur des
coefficients reste sans biais dans la mesure où cette propriété dépend de l’hypothèse
d’orthogonalité des variables explicatives et du terme d’erreur. Toutefois sa variance n’est
plus minimale. Par conséquent, les tests basés sur ces coefficients sont biaisés. Si, en plus,
l’équation estimée comporte la variable endogène retardée en explicative (forme
autorégressive), alors s’ajoute un problème d’endogénéïté qui rend les estimateurs non
convergents.
Il convient donc de re-estimer les coefficients du modèle en utilisant une procédure
d’estimation adéquate. A cet égard, plusieurs techniques existent : on peut citer en autres la
méthode itérative de Cochrane-Orcutt, la procédure de Prais-Winsten, la méthode du
maximum de vraisemblance, la méthode des variables instrumentales etc.
Nous allons re-estimer le modèle en retenant une autocorrélation d’ordre 1. Pour cela, cliquez
sur Estimate dans le menu de l’équation pour retourner à la spécification de l’équation, et
ajoutez un terme AR(1) à la fin de l’équation.

En cliquant sur OK et en validant, on obtient le tableau des résultats suivant :

Dr. GBAME Hervé Daniel


Page 39
Cours d’Informatique (Initiation au logiciel EVIEWS), Licence 2 Economie 2019-2020

Tableau 3.6 : Coefficients de régression en présence d’erreurs AR(1)

Dependent Variable: LCONS


Method: Least Squares
Date: 09/30/16 Time: 16:55
Sample (adjusted): 1976 2012
Included observations: 37 after adjustments
Convergence achieved after 22 iterations

Variable Coefficient Std. Error t-Statistic Prob.

C -0.234253 0.641742 -0.365026 0.7175


LPIBR 0.923298 0.096142 9.603444 0.0000
LIPC 0.070504 0.034983 2.015371 0.0523
LGT 0.029336 0.046975 0.624505 0.5367
AR(1) 0.344097 0.181853 1.892175 0.0675

R-squared 0.987706 Mean dependent var 8.028882


Adjusted R-squared 0.986170 S.D. dependent var 0.369709
S.E. of regression 0.043479 Akaike info criterion -3.308005
Sum squared resid 0.060493 Schwarz criterion -3.090313
Log likelihood 66.19808 Hannan-Quinn criter. -3.231258
F-statistic 642.7456 Durbin-Watson stat 1.588166
Prob(F-statistic) 0.000000

Inverted AR Roots .34

Les coefficients estimés, les écart-types et les statistiques s’interprètent de la façon habituelle.
Le coefficient estimé du terme AR(1) est le coefficient de l’autocorrélation sérielle des résidus
inconditionnels. On constate que ce coefficient est significatif au seuil de 10% et est inférieur
à l’unité.

3.6. Tests de restrictions linéaires sur les coefficients

Les tests de restrictions linéaires sur les coefficients sont de trois types : le test de
significativité globale des coefficients, le test de significativité des coefficients pris
individuellement et le test de stabilité. Le test de significativité globale et le test de
significativité individuelle des coefficients sont réalisés à partir respectivement de la
statistique de Fisher et de la statistique de Student. Ces statistiques reposent sur l’hypothèse
de normalité des erreurs.

3.6.1. Test de significativité globale

Le test de significativité globale des coefficients cherche à savoir s’il existe au moins un
coefficient parmi tous les coefficients, à l’exception de la constante, qui soit significativement

Dr. GBAME Hervé Daniel


Page 40
Cours d’Informatique (Initiation au logiciel EVIEWS), Licence 2 Economie 2019-2020

différent de zéro, c’est-à-dire une variable explicative qui influence significativement la


variable endogène. On teste H0 selon laquelle tous les coefficients du modèle, à l’exception de
la constante, sont égaux à zéro, contre H1 selon laquelle il existe au moins un coefficient
différent de zéro. Ce test est réalisé à partir de la statistique de Fisher. Si H0 est acceptée, cela
voudrait dire qu’il n’existe aucune relation linéaire significative entre la variable endogène et
les variables explicatives retenues.
Dans notre exemple, la valeur de la statistique de Fisher est de 642,7456 avec une probabilité
presque nulle (Prob(F-statistic) = 0,000000). Cela implique les coefficients sont globalement
significatifs, ce qui signifie que, prises ensemble, les trois variables explicatives influencent
de façon significative les variations de la consommation.

Le coefficient de détermination R 2 est un indicateur statistique qui permet d’évaluer le


pouvoir explicatif global du modèle puisqu’il fournit la part de la variance expliquée par le
modèle. Il permet de juger de la qualité de l’ajustement.
SCE Variance Expliquée
R2  
SCT Variance Totale
On s’aperçoit que R2 est très élevée: 98,77% des variations de la consommation (en log) sont
expliquées par le modèle, ce qui est très satisfaisant.
Il existe une relation entre le coefficient de détermination R2 et la statistique de Fisher :
R2 T  k  1
F (3.7)
1  R2 k

Où T est le nombre d’observations et k le nombre de variables explicatives.

Si le coefficient de détermination R 2 est une statistique très facile à comprendre, il faut


cependant se garder d’y attacher trop d’importance, car il présente un défaut gênant. En effet,
le R 2 croit avec le nombre de variables explicatives, même si celles-ci n’ont aucun rapport
avec la variable endogène. A la limite, quand le nombre de variables explicatives est égal au
nombre d’observations, on obtient un R 2 égal à 1 et la variable endogène est expliquée à
100%, quelle que soit la pertinence économique des variables explicatives retenues, pourvu
que l’hypothèse d’indépendance linéaire des vecteurs des observations de ces variables soit
respectée. On comprend alors pourquoi le R 2 n’est pas pertinent pour comparer le pouvoir
explicatif de plusieurs modèles ne comportant pas le même nombre de degrés de liberté. Il
convient de calculer une version pénalisée du R 2 par les degrés de liberté, appelée R 2 - ajusté

Dr. GBAME Hervé Daniel


Page 41
Cours d’Informatique (Initiation au logiciel EVIEWS), Licence 2 Economie 2019-2020

(Adjusted R-squared). Le coefficient de détermination ajusté R 2 se calcule à partir de


l’expression suivante :

T 1
R2  1 (1  R 2 ) (3.8)
T  k 1

Le coefficient ajusté permet de comparer objectivement les pouvoirs explicatifs de deux


modèles portant sur la même variable dépendante mais n’impliquant pas le même nombre de
variables explicatives3.

Il est important de noter que le coefficient de détermination n’est interprétable que si


l’équation estimée comporte une constante. En effet, lorsque le modèle ne comporte pas de
terme constant, l’équation de décomposition de la variance de la variable expliquée n’est plus
vérifiée. Dans ce cas, le R 2 peut donner une valeur négative.

3.6.2. Test de significativité individuelle des coefficients

On dit qu’un coefficient est significatif signifie que la variable explicative correspondante
contribue de façon significative à l’explication de la variable endogène. La significativité d’un
coefficient est testée à partir du t de Student. On teste l’hypothèse d’un coefficient nul contre
l’hypothèse alternative d’un coefficient différent de zéro (positif ou négatif, le test étant
bilatéral). Un coefficient sera significatif si la probabilité est inférieure au seuil de 5%. Cette
probabilité apparaît dans la dernière colonne du tableau des estimations (cf. tableau 3.1).
Rappelons que cette probabilité est calculée sur la base de l’hypothèse de normalité des
termes d’erreurs.
Pour la variable LPIBR, la probabilité est presque nulle. Par conséquent, quel que soit le seuil
retenu, cette variable contribue significativement à expliquer le niveau de la consommation.
L’élasticité-revenu de la consommation est égale à 0,94, ce qui signifie que, toutes choses
égales par ailleurs, une augmentation du revenu de 10% entraîne un accroissement de la
consommation de 9,4%. On constate également que le coefficient de la variable de prix est
significatif au seuil de 5%. En revanche, l’utilisation des probabilités permet de rejeter, sans
ambiguïté, le caractère significatif des dépenses publiques. En effet, si on rejetait l’hypothèse

3
L’ajout d’une variable à l’équation entraîne une augmentation du R 2 si et seulement si le t de Student de cette variable est, en valeur
2 2
absolue, supérieure à 1 (Greene, 1997). Le R est inférieur au R . Les deux statistiques sont asymptotiquement équivalentes.

Dr. GBAME Hervé Daniel


Page 42
Cours d’Informatique (Initiation au logiciel EVIEWS), Licence 2 Economie 2019-2020

nulle cela équivaudrait à une probabilité d’erreur de 47%. On peut cependant continuer à
interpréter les résultats de l’estimation dans la mesure où le maintien d’une variable
explicative non significative ne biaise pas les estimations sous les hypothèses économétriques
initiales. Toutefois, si le modèle doit être utilisé à des fins de prévision, on peut être amené à
éliminer cette variable conformément au principe de parcimonie.

La non significativité de la variable LGT peut apparaître surprenante dans la mesure où cette
variable présente une très forte corrélation avec la consommation (voir la matrice de
corrélation présentée dans le tableau ci-dessous).

Tableau 3.7 : Matrice des coefficients de corrélation

LN_CONS LN_PIBR LN_IPC LN_GT


LN_CONS 1.000000 0.992048 0.933267 0.924916
LN_PIBR 0.992048 1.000000 0.914904 0.916743
LN_IPC 0.933267 0.914904 1.000000 0.905945
LN_GT 0.924916 0.916743 0.905945 1.000000

En fait, il existe une très forte corrélation entre les trois variables explicatives, qui fait peser
un risque de multicolinéarité. Or la multicolinéarité entre les variables explicatives d’un
modèle linéaire conduit à des écarts-types des coefficients élevés, donc à des statistiques de
Student faibles, conduisant à la non significativité des coefficients alors que le coefficient de
détermination R 2 reporte une valeur élevée. En outre, en présence de multicolinéarité
approchée, il est difficile, sinon impossible, d’isoler l’effet intrinsèque de chacune des
variables explicatives sur l’endogène (il y a confusion des effets), car toute variation de l’une
des variables explicatives implique une variation des autres variables. En supprimant tour à
tour chacune des variables, on constate que les autres variables présentent des coefficients
bien significatifs. Mais la forte colinéarité entre les variables génère un coefficient non
significatif pour la dernière variable. On rencontre très souvent ce genre de problème
d’adéquation entre la théorie économique et la pratique économétrique : en théorie on peut
supposer que des variables sont orthogonales mais lors de la modélisation on se rend compte
qu’elles sont liées entre elles. On peut obtenir des coefficients non significatifs ou affectés
d’un signe erroné.
Il existe plusieurs techniques pour détecter la multicolinéarité entre les variables explicatives,
dont le test de Klein et le test de Farrar-Glauber4. La procédure du test de Klein (1962)

4
Une présentation théorique et une application de ces tests sont faites dans Bourbonnais (1998) pages 100-103.

Dr. GBAME Hervé Daniel


Page 43
Cours d’Informatique (Initiation au logiciel EVIEWS), Licence 2 Economie 2019-2020

consiste à comparer le coefficient de détermination R 2 du modèle et le carré des différents


coefficients de corrélation entre les variables explicatives considérées deux à deux rx2i , x j . Ainsi

si R 2  rx2i , x j ( rxi , x j étant le coefficient de corrélation entre les variables xi et x j ) il y a une

présomption de multicolinéarité entre les variables indépendantes xi et x j . Dans le cas

contraire, il y a absence de multicolinéarité entre les variables. La faiblesse de cette méthode


vient de ce que la colinéarité peut impliquer plus de deux variables explicatives.
L’une des techniques utilisées pour surmonter ou du moins réduire l’inconvénient de la
multicolinéarité consiste à éliminer certaines variables explicatives suspectées.
On peut aussi pour corriger les effets d’une forte multicolinéarité, augmenter le nombre des
observations ou bien transformer la relation fonctionnelle qui lie les variables explicatives à la
variable endogène.

3.6.3. Test de stabilité des coefficients

L’analyse économétrique des comportements repose sur l’hypothèse de constance dans le


temps et dans l’espace des coefficients du modèle. Cette hypothèse signifie que sur la période
d’estimation le comportement des agents n’a pas connu de changement structurel important.
Cette constance des paramètres de comportement est à la base des simulations qui vont être
faites pour évaluer l’impact de différentes politiques économiques. Des ruptures structurelles
dans la valeur des coefficients peuvent évoquer un problème de spécification du modèle.

Il est donc important après la série des tests économétriques, de faire les tests de stabilité. Ces
tests s’intéressent plus généralement à des questions du genre : peut-on considérer qu’il y a eu
un changement dans le comportement de consommation des ménages après telle date? La
propension marginale à consommer est-elle restée constante sur toute la période d’estimation?
Les sources de la croissance sont-elle restées les mêmes avant et après la crise des années
1980? Le comportement de consommation des hommes est-il identique à celui des femmes?
Lorsqu’on travaille sur des données temporelles, les tests de stabilité prennent la forme de
tests de stabilité temporelle ou structurelle. Sur des données en coupe instantanée, il s’agit de
tests d’homogénéité de comportements (hommes/femmes ; riches/pauvres etc.).

Il existe plusieurs tests de stabilité dont les plus utilisés sont le test de Chow, l’analyse des
résidus et des coefficients récursifs et les tests CUSUM et CUSUMQ de Brown, Durbin et

Dr. GBAME Hervé Daniel


Page 44
Cours d’Informatique (Initiation au logiciel EVIEWS), Licence 2 Economie 2019-2020

Evans (1975). Le test de Chow effectue un test de Fisher en comparant les estimations des
coefficients sur deux ou plusieurs sous périodes. Il nécessite d’indiquer une ou plusieurs dates
de rupture dans les séries, ce qui requiert une analyse exploratoire plus précise des séries. Les
tests CUSUM et CUSUMQ dispensent de cette connaissance préalable.

Nous allons réaliser le test de Chow en considérant les deux sous périodes 1975-2003 et 2004-
2012. A partir du menu de l’équation, sélectionnez View/Stability Tests/Chow Breakpoint
Test…
Entrez 2004 dans la boîte de dialogue qui apparaît. Cette date correspond à la date supposée
de rupture. Cliquez sur OK pour obtenir le tableau suivant :

Tableau 3.8 : Résultat du test de stabilité de Chow

Chow Breakpoint Test: 2004


Null Hypothesis: No breaks at specified breakpoints
Varying regressors: All equation variables
Equation Sample: 1975 2012

F-statistic 0.879369 Prob. F(4,30) 0.4880


Log likelihood ratio 4.213047 Prob. Chi-Square(4) 0.3779
Wald Statistic 3.517478 Prob. Chi-Square(4) 0.4752

La statistique de Fisher reporte une probabilité supérieure à 5% : on ne peut donc pas rejeter
au seuil de 5% l’hypothèse de stabilité des coefficients. En d’autres termes, l’année 2004
n’introduit pas un changement structurel significatif dans le comportement de consommation
des ménages. Notons que le test de Chow n’est pas pertinent si la date choisie ne correspond
pas à la véritable date de rupture.
Une autre procédure de test de stabilité des coefficients et de faire les tests CUSUM et
CUSUMSQ basés sur les résidus récursifs. Le CUSUM utilise la somme cumulée des résidus
récursifs tandis que le CUSUMSQ utilise le carré des résidus récursifs. Ces statistiques de test
offrent l’avantage par rapport au test de Chow de ne pas connaître a priori la date de rupture.

Pour mettre en œuvre ces tests, sélectionnez, à partir du menu de l’équation, View/Stability
Tests/Recursive Estimates…
Il suffit de cocher la case correspondante au test que l’on veut faire (CUSUM ou CUSUMQ).
Les résultats pour les tests CUSUM et CUSUMQ sont représentés dans les graphiques
suivants :

Dr. GBAME Hervé Daniel


Page 45
Cours d’Informatique (Initiation au logiciel EVIEWS), Licence 2 Economie 2019-2020

 Test de stabilité ponctuelle (Test Cusum of Squares)

Ce test permet de détecter les instabilités ponctuelles. Après estimation des paramètres par la
MCO, taper : View/Stability Tests/Recursive Estimates/Cusum of squares Test
1.4

1.2

1.0

0.8

0.6

0.4

0.2

0.0

-0.2

-0.4
1980 1985 1990 1995 2000 2005 2010

CUSUM of Squares 5% Significance

Conclusion : il y a une stabilité ponctuelle.

 Test de stabilité structurelle (Test Cusum)

Ce test permet de détecter les instabilités structurelles. Après estimation des paramètres par la
MCO, taper : View/Stability Tests/Recursive Estimates/Cusum Test

20

15

10

-5

-10

-15

-20
1980 1985 1990 1995 2000 2005 2010

CUSUM 5% Significance

Conclusion : le modèle est structurellement stable.

Si les courbes sortent du corridor stylisé par les droites en pointillés, on conclut qu’il y a
instabilité du modèle. Sinon, le modèle peut être considéré comme stable sur toute la période.

Dr. GBAME Hervé Daniel


Page 46
Cours d’Informatique (Initiation au logiciel EVIEWS), Licence 2 Economie 2019-2020

Ici, aucune des statistiques CUSUM et CUSUMQ ne franchit les droites: nous pouvons donc
conclure que le comportement de consommation des ménages est resté stable sur toute la
période.

3.7. Prévisions conditionnelles

Nous avons estimé une équation de consommation sur la période 1975-2012. Nous allons
maintenant utiliser cette équation pour réaliser des prévisions sur la période 2013-2020. Il
s’agira de déterminer les valeurs de la consommation pour des valeurs attribuées au revenu et
au prix. La variable LGT sera éliminée parmi les variables explicatives. Avant de se livrer à
l’exercice, nous allons évaluer la capacité prédictive du modèle en réalisant une simulation
historique.

3.7.1. Simulation historique et évaluation du pouvoir prédictif du modèle

La simulation historique consiste à appliquer le modèle pour générer les valeurs passées de la
consommation. Cette simulation par resubstitution permet d’évaluer la capacité prédictive du
modèle, c’est-à-dire son aptitude à reproduire les données historiques. Pour réaliser la
simulation, sélectionnez Procs/Forecast ou cliquez simplement sur le bouton Forecast dans
la barre de menu de la fenêtre des estimations. Vous obtenez la fenêtre suivante :

EViews offre la possibilité de prévoir directement les valeurs de la série pour l’horizon
temporelle défini. La série simulée est nommée en ajoutant la lettre F (pour Forecast) au nom
de la variable endogène. Ici cette série prend le nom LN_CONSF. Toutefois, il est possible de
la renommer autrement. La variable LN_CONSF apparaît dans le workfile.

Dr. GBAME Hervé Daniel


Page 47
Cours d’Informatique (Initiation au logiciel EVIEWS), Licence 2 Economie 2019-2020

Il existe deux méthodes de prévision : la méthode statique et la méthode dynamique. La


différence réside dans le traitement des valeurs retardées des variables endogènes durant la
simulation. Le choix entre ces deux méthodes se pose lorsque le modèle compote une
dynamique autorégressive. La prévision statique requiert que les données sur les variables
explicatives (exogènes et endogènes retardées éventuellement) soient disponibles sur toute la
période de prévision. La méthode dynamique utilise les valeurs passées estimées de la
variable dépendante pour former la prévision de la période suivante. Pour la première
observation, ces deux méthodes donnent la même prévision. L’équation que nous avons
estimée n’est pas un modèle dynamique, c’est pourquoi seule l’option Static est disponible.

Dans le champ Forecast sample, indiquez la période de prévision et cliquez sur OK pour
valider. Vous obtenez le graphique donnant l’évolution de la variable LN_CONSF sur toute la
période historique 1975-2012. Les courbes en pointillés matérialisent les bornes inférieure et
supérieure de l’intervalle de confiance à 5% des valeurs prévisionnelles. Une bonne
adéquation se traduit par un resserrement de ces deux courbes.

Evolution de la série prévisionnelle LN_CONSF


8.8
Forecast: LN_CONSF
Actual: LN_CONS
8.4 Forecast sample: 1975 2020
Adjusted sample: 1975 2012
Included observations: 38
8.0
Root Mean Squared Error 0.042585
Mean Absolute Error 0.033940
Mean Abs. Percent Error 0.421441
7.6
Theil Inequality Coefficient 0.002657
Bias Proportion 0.000000
7.2 Variance Proportion 0.002969
Covariance Proportion 0.997031

6.8
1975 1980 1985 1990 1995 2000 2005 2010

LN_CONSF ± 2 S.E.

On peut représenter simultanément les évolutions des séries LN_CONS et LN_CONSF afin
d’évaluer graphiquement l’écart entre les valeurs réelles et les valeurs simulées. On constate
(cf figure ci-dessous) que globalement les simulations historiques ne s’écartent pas trop des
valeurs réelles.

Dr. GBAME Hervé Daniel


Page 48
Cours d’Informatique (Initiation au logiciel EVIEWS), Licence 2 Economie 2019-2020

Evolution des séries LN_CONS et LN_CONSF


8.6

8.4

8.2

8.0

7.8

7.6

7.4

7.2

7.0
1975 1980 1985 1990 1995 2000 2005 2010

LN_CONSF LN_CONS

Les statistiques figurant à droite du graphique de CONSF (cf graphique évolution


prévisionnelle de ln_consf) permettent de procéder à une évaluation statistique de la qualité
prédictive du modèle. Root Mean Squared Error et Mean Absolute Error sont des
statistiques qui dépendent de l’échelle de mesure de la variable endogène. Elles permettent de
comparer les prévisions d’une même endogène pour différents modèles. Mean Absolute
Percentage Error (MAPE) et Theil Inequality Coefficient sont indépendantes de l’échelle
de mesure de la variable endogène. Le coefficient d’inégalité de Theil est compris en 0 et 1,
une valeur proche de zéro indiquant une bonne adéquation.
La moyenne des carrés des erreurs de prévision (Mean Squared Error) est décomposée
suivant trois types de proportions. Bias Proportion indique combien la moyenne des
prévisions s’écarte de la moyenne des valeurs actuelles de la série. Variance Proportion
indique combien la variation des valeurs prévisionnelles s’écarte de celle des valeurs
actuelles. Covariance Proportion mesure les erreurs de prévision non systématiques. Pour
une bonne prévision, les deux premières proportions devraient fournir des valeurs faibles.

Notons que EViews n’affiche ces différentes statistiques que lorsque les valeurs de la variable
endogène sont renseignées sur la période de simulation. Il s’agit en effet de comparer les
valeurs prédites avec les valeurs réellement observées de la variable endogène. En pratique,
on utilise ces statistiques pour évaluer l’adéquation des prévisions avec les réalisations. Si
cette adéquation est bonne alors on peut procéder à la prévision proprement dite de la variable
endogène. Dans notre exemple, MAPE = 0,42% et Theil = 0,0026 (proche de 0). La
performance prévisionnelle du modèle est donc bonne.

Dr. GBAME Hervé Daniel


Page 49
Cours d’Informatique (Initiation au logiciel EVIEWS), Licence 2 Economie 2019-2020

Cette méthode d’évaluation présente cependant un biais : elle fournit le plus souvent une
mesure optimiste de la capacité prédictive du modèle car elle applique le modèle à des
données qui ont servi à le construire. Une autre façon d’apprécier plus objectivement la
capacité prédictive d’un modèle consiste à utiliser le modèle pour prédire les valeurs de la
variable endogène pour une période non comprise dans l’échantillon d’estimation et à vérifier
si les valeurs prédites sont suffisamment proches des valeurs effectivement observées durant
cette période. Cette approche repose sur l’hypothèse de stabilité structurelle du modèle.

3.7.2. Prévision sur l’horizon 2013 - 2020

Nous allons maintenant procéder à la prévision de la consommation sur la période 2013-2020.


Pour ce faire, nous devons d’abord étendre la taille du workfile (Range) et celle de
l’échantillon (Sample). Ensuite, nous devons renseigner les valeurs futures du revenu et du
prix. De façon pratique, voici les étapes à suivre:

 Sélectionnez, à partir du menu du workfile, Procs/Structure/Resize current page.


Changez la date de fin en 2020. On peut aussi double-cliquer sur Range.
 Ouvrez la série PIBR. Les valeurs pour 2013-2020 sont marquées par « NA ». Entrez
les valeurs pour la période 2013-2020. Nous allons générer ces valeurs en supposant
une augmentation des revenus de 10% par an de 2013 à 2020. Sous cette hypothèse,
les valeurs du revenu réel ainsi que celles du prix sont données dans le tableau suivant:

Tableau: Valeurs de PIBR et IPC de 2013 à 2020


Année PIBR (x 109) IPC
2013 7383.92236 130.580
2014 8122.314596 137.501
2015 8934.546055 144.685
2016 9828.000661 152.139
2017 10810.80072 159.867
2018 11891.88080 167.873
2019 13081.06888 176.163
2020 14389.17576 184.739

On peut générer ces valeurs en utilisant le menu Quick/Generate Series puis en


entrant la formule comme indiquée dans la fenêtre suivante :

Dr. GBAME Hervé Daniel


Page 50
Cours d’Informatique (Initiation au logiciel EVIEWS), Licence 2 Economie 2019-2020

 Retournez à l’équation et cliquez sur Forecast. Précisez la période de prévision qui est
2013-2020. Cochez l’option Static.

Les prévisions de consommation sont données dans le tableau suivant:

Consommation prévisionnelle de 2013 à 2020


Année CONS (x 109)
2003 5021.0238
2004 5608.9072
2005 6198.3274
2006 6823.6568
2007 7501.8256
2008 8243.1766
2009 9055.8617
2010 9947.5928

Quatre types d’erreurs entachent la qualité des prévisions : l’incertitude sur l’évolution future
des termes d’erreur; l’incertitude sur les coefficients structurels; l’incertitude sur les valeurs
futures des variables explicatives et l’erreur sur la spécification du modèle5.

5
L’incertitude sur les termes d’erreur provient du fait que ces termes ne sont pas connus sur la période de prévision, ils sont remplacés par
leur valeur moyenne. Or si cette moyenne est nulle sur une période, les valeurs individuelles peuvent cependant être non nulles. Plus l’erreur
individuelle sera importante, plus l’erreur de la prévision sera grande. L’erreur-type fournit une mesure statistique de la variation des erreurs
individuelles.
L’incertitude sur les coefficients structurels provient du fait que ces derniers sont estimés. Il se peut donc que ces estimations dévient des
valeurs vraies des coefficients. Les écart-types des coefficients donnent une idée sur la précision avec laquelle ces coefficients sont estimés.
L’effet de ces incertitudes sur la prévision dépend de la trajectoire prévisionnelle des variables exogènes. Plus ces variables dévieront
fortement de leurs tendances moyennes, plus grande sera l’imprécision des prévisions. La connaissance imprécise des valeurs futures des
variables exogènes introduit un élément supplémentaire d’incertitude dans la prévision de la variable endogène. La qualité des prévisions
dépend également du choix de la spécification du modèle. Par exemple, si l’on adopte une spécification linéaire de façon « mécanique » alors
qu’en réalité la relation véritable est non linéaire, les prévisions seront mauvaises. C’est pour ces diverses raisons que la prévision
conditionnelle ne doit pas être utilisée sur un horizon temporel assez long.

Dr. GBAME Hervé Daniel


Page 51
Cours d’Informatique (Initiation au logiciel EVIEWS), Licence 2 Economie 2019-2020

Chapitre 4 : Modèles de régression linéaire (quelques formes


fonctionnelles)

4.1. Modèles logarithmiques

Modèle (1.1a) : Qt  APt 1 eut avec Qt : quantité et Pt le prix

 Modèle linéaire ou log-log (1.1b) : ln Qt  ln A  1 ln Pt  ut où

ln Qt   0  1 ln Pt  ut avec  0  ln A

Taf :
1) Estimer le modèle linéaire (1.1b) par les MCO (voir base 2 pour les données en
Annexe);
2) Calculer l’élasticité prix de la demande (élasticité de la demande par rapport au prix).

Réponses aux questions :

1) Linéarisation sous EViews : genr ln_ Q  log(Qt ); genr ln_ P  log( Pt )

2) Estimation par les MCO : ls ln_ Q c ln_ P

Dependent Variable: LN_Q


Method: Least Squares
Date: 11/11/18 Time: 21:54
Sample (adjusted): 1979 2013
Included observations: 35 after adjustments

Variable Coefficient Std. Error t-Statistic Prob.

C 3.354970 0.283153 11.84862 0.0000


LN_P 0.546428 0.060048 9.099867 0.0000

R-squared 0.715045 Mean dependent var 5.927172


Adjusted R-squared 0.706410 S.D. dependent var 0.181632
S.E. of regression 0.098416 Akaike info criterion -1.743791
Sum squared resid 0.319625 Schwarz criterion -1.654914
Log likelihood 32.51635 Hannan-Quinn criter. -1.713111
F-statistic 82.80758 Durbin-Watson stat 0.567374
Prob(F-statistic) 0.000000

3) L’élasticité de la demande par rapport au prix

 log(Qt ) Qt Pt
Q/ P   *  0,55 . En effet si le prix P du bien augmente de 10% alors la
 log( Pt ) Pt Qt
demande Q du bien augmente de 5,5%.

Dr. GBAME Hervé Daniel


Page 52
Cours d’Informatique (Initiation au logiciel EVIEWS), Licence 2 Economie 2019-2020

4.2. Modèles semi-logarithmiques

Modèle (1.2a) / Intérêt composé : Yt  Y0 (1  r )t avec Yt : quantité vendue, r : le taux de

croissance de vente et t : le temps.

4.2.1. Modèle log-linéaire (1.2b)

ln Yt  ln Y0  t ln(1  r )  ut où ln Y   0  1t  ut avec  0  ln Y0 , 1  ln(1  r )


Taf :
1) Estimer le modèle log-linéaire (1.2b) par les MCO (voir la base 3 en Annexe);
2) Calculer « Y0 » et « r » ;
3) Représenter la droite de régression du modèle estimé.

Réponses aux questions


1) Résultats des estimations

Dependent Variable: LN_Y


Method: Least Squares
Date: 11/11/18 Time: 22:10
Sample: 1979 2017
Included observations: 39

Variable Coefficient Std. Error t-Statistic Prob.

C 5.406596 0.041270 131.0048 0.0000


T 0.005699 0.001798 3.169259 0.0031

R-squared 0.213506 Mean dependent var 5.520583


Adjusted R-squared 0.192249 S.D. dependent var 0.140635
S.E. of regression 0.126396 Akaike info criterion -1.248879
Sum squared resid 0.591107 Schwarz criterion -1.163568
Log likelihood 26.35313 Hannan-Quinn criter. -1.218270
F-statistic 10.04420 Durbin-Watson stat 1.860328
Prob(F-statistic) 0.003063

2) Calculer « Y0 » et « r » ;

0  ln Y0  5, 406596  Y0  e5,406596  222,87


1  ln(1  r )  1  r  e  et r  e   1; r  e0,005699  1  0, 00572
1 1

Et on a Yˆt  222,87(1, 00572)t

4.2.2. Modèle linéaire – logarithme (1.3a) / Modèle de dépense d’Engel

DSt   0  1 ln( RM t ) avec DSt : Dépenses en soins de santé (DS) et RM t : Niveau de salaire

Dr. GBAME Hervé Daniel


Page 53
Cours d’Informatique (Initiation au logiciel EVIEWS), Licence 2 Economie 2019-2020

payé aux chefs de ménages. Soit le modèle défini par : DSt   0  1 ln( RM t )  ut
Taf :
1) Estimer le modèle par les MCO (voir la base de données 4 en Annexe).
2) Représenter graphiquement DS et ln_RM

Réponses aux questions


1) Résultats des estimations

Dependent Variable: DS
Method: Least Squares
Date: 11/12/18 Time: 13:57
Sample: 1979 2017
Included observations: 39

Variable Coefficient Std. Error t-Statistic Prob.

C -522.6757 183.2003 -2.853029 0.0070


LN_RM 114.9215 30.34675 3.786946 0.0005

R-squared 0.279328 Mean dependent var 170.4615


Adjusted R-squared 0.259850 S.D. dependent var 56.76723
S.E. of regression 48.83796 Akaike info criterion 10.66481
Sum squared resid 88250.41 Schwarz criterion 10.75012
Log likelihood -205.9639 Hannan-Quinn criter. 10.69542
F-statistic 14.34096 Durbin-Watson stat 0.653489
Prob(F-statistic) 0.000543

2) Représentation graphique des dépenses de santé et le Ln_RM


DS
300

250

200

150

100

50

0
1980 1985 1990 1995 2000 2005 2010 2015

LN_RM
6.6

6.4

6.2

6.0

5.8

5.6

5.4
1980 1985 1990 1995 2000 2005 2010 2015

Dr. GBAME Hervé Daniel


Page 54
Cours d’Informatique (Initiation au logiciel EVIEWS), Licence 2 Economie 2019-2020

4.3. Modèle de régression linéaire avec variables binaires indépendantes

4.3.1. Modèles ANOVA (Régression variable quantitative sur une ou plusieurs variables
binaires)

 Le Modèle (2.1a)
Yi   0  1 Di   i Avec Yi : le salaire payé et

1 si le salaire est payé à un salarié national


Di  
0 si le salaire est payé à un salarié étranger

Taf :
1) Estimer le modèle linéaire par la MCO (voir base 5 en Annexe) ;
2) Interpréter les résultats

Réponses aux questions :


1) Instruction EViews pour estimation :
ls Yi c Di
:
Dependent Variable: Yi
Method: Least Squares
Date: 11/11/18 Time: 14:47
Sample: 1 39
Included observations: 39

Variable Coefficient Std. Error t-Statistic Prob.

C 436.3838 23.64990 18.45183 0.0000


DI -13.94846 33.88323 -0.411663 0.6830

R-squared 0.004559 Mean dependent var 429.5884


Adjusted R-squared -0.022345 S.D. dependent var 104.6034
S.E. of regression 105.7656 Akaike info criterion 12.21025
Sum squared resid 413895.1 Schwarz criterion 12.29556
Log likelihood -236.0998 Hannan-Quinn criter. 12.24086
F-statistic 0.169466 Durbin-Watson stat 0.225056
Prob(F-statistic) 0.682962

2) Interprétation

 Le salaire moyen des étrangers (SME) est de 436,38


 Le salaire moyen des nationaux (SMN) est de 436,38-13,95 = 422,43.
 1 est non significatif ( Prob > 5% ; t-stat calculé  1,96 ) : c’est-à-dire pas de différence
significative entre les salaires des nationaux et des étrangers.

Dr. GBAME Hervé Daniel


Page 55
Cours d’Informatique (Initiation au logiciel EVIEWS), Licence 2 Economie 2019-2020

 Le Modèle (2.1b)

Yi   0  1 D1i   2 D2i   i Avec Yi : le salaire payé et

1 si le salaire est payé à un salarié national


D1i  
0 si le salaire est payé à un salarié étranger

1 si le salairié est un homme


D2i  
0 si le salairié est une femme

Taf :
1) Estimer le modèle linéaire par la MCO (voir base 6 en Annexe);
2) Interpréter les résultats

Réponses aux questions


1) Instructions sur Eviews pour estimation:
ls Yi c D1i D2i

Dependent Variable: YI
Method: Least Squares
Date: 11/11/18 Time: 15:20
Sample: 1 39
Included observations: 39

Variable Coefficient Std. Error t-Statistic Prob.

C 446.7770 35.32173 12.64879 0.0000


D1I -19.65296 37.12398 -0.529387 0.5998
D2I -14.84733 37.12398 -0.399939 0.6916

R-squared 0.008963 Mean dependent var 429.5884


Adjusted R-squared -0.046095 S.D. dependent var 104.6034
S.E. of regression 106.9870 Akaike info criterion 12.25710
Sum squared resid 412064.2 Schwarz criterion 12.38506
Log likelihood -236.0134 Hannan-Quinn criter. 12.30301
F-statistic 0.162785 Durbin-Watson stat 0.253273
Prob(F-statistic) 0.850396

2) Interprétation

Les deux variables explicatives binaires (D1i et D2i) ne sont pas significatives. D’où, pas de
discrimination d’après la nationalité, ni d’après le sexe, dans la distribution de salaires. En
effet les 1 et  2 sont non significatifs ( Prob > 5% ou encore t-stat calculé  1,96 ).

Dr. GBAME Hervé Daniel


Page 56
Cours d’Informatique (Initiation au logiciel EVIEWS), Licence 2 Economie 2019-2020

4.3.2. Modèles ANCOVA (Régression variable quantitative sur un mélange de variables


binaires et quantitatives)

 Le Modèle (2.2a)
Yi   0  1 X i   2 Di   i Avec Yi : le salaire moyen des salariés ; X i : le nombre
d’années d’expérience ;

1 si le salarié est national


Di  
0 si le salarié est étranger

Taf :
1) Estimer le modèle linéaire par la MCO (voir base 7 en Annexe);
2) Interpréter les résultats

Réponses aux questions


1) Instructions sur Eviews pour estimation du modèle de distribution de salaires selon
la nationalité et le nombre d’années d’expérience:
ls Yi c Xi Di

Dependent Variable: YI
Method: Least Squares
Date: 11/11/18 Time: 15:55
Sample: 1 39
Included observations: 39

Variable Coefficient Std. Error t-Statistic Prob.

C 148.1088 25.95009 5.707447 0.0000


XI 66.04240 5.426288 12.17082 0.0000
DI 12.93775 15.34864 0.842925 0.4048

R-squared 0.805376 Mean dependent var 429.5884


Adjusted R-squared 0.794564 S.D. dependent var 104.6034
S.E. of regression 47.41154 Akaike info criterion 10.62941
Sum squared resid 80922.75 Schwarz criterion 10.75738
Log likelihood -204.2735 Hannan-Quinn criter. 10.67533
F-statistic 74.48615 Durbin-Watson stat 1.959944
Prob(F-statistic) 0.000000

2) Interprétation
La nationalité n’est pas décisive dans la distribution des salaires (  2 est non significatif ( Prob >

5% ou encore t-stat calculé  1,96 ). En revanche, le nombre d’années d’expérience est une

variable clé dans la distribution des salaires. La répartition des salaires est donc fonction du

Dr. GBAME Hervé Daniel


Page 57
Cours d’Informatique (Initiation au logiciel EVIEWS), Licence 2 Economie 2019-2020

nombre d’années d’expérience qui est facteur de discrimination salariale. En effet la


significativité de 1 l’atteste ( 1 est significatif ( Prob < 5% ou encore t-stat calculé  1,96 ).

4.3.3. Régression variable quantitative sur une variable quantitative et deux variables
binaires)

Le Modèle :
Yi   0  1 D1i   2 D2i   3 X i   i Avec Yi : le salaire moyen des salariés ; X i : le nombre

d’années d’expérience ;

1 si le salaire est payé à un salarié national


D1i  
0 si le salaire est payé à un salarié étranger

1 si le salairié est un homme


D2i  
0 si le salairié est une femme

Taf :
1) Estimer le modèle linéaire par la MCO (voir base 8 en Annexe);
2) Interpréter les résultats

Réponses aux questions

1/ résultats de l’estimation : distribution de salaire d’après la nationalité, le sexe et le


nombre d’années d’expérience

Dependent Variable: YI
Method: Least Squares
Date: 11/11/18 Time: 16:27
Sample: 1 39
Included observations: 39

Variable Coefficient Std. Error t-Statistic Prob.

C 118.3256 30.09103 3.932253 0.0004


D1I 25.12773 16.34612 1.537229 0.1332
D2I 29.51239 16.33894 1.806261 0.0795
XI 68.13279 5.389138 12.64261 0.0000

R-squared 0.821971 Mean dependent var 429.5884


Adjusted R-squared 0.806712 S.D. dependent var 104.6034
S.E. of regression 45.98839 Akaike info criterion 10.59157
Sum squared resid 74022.62 Schwarz criterion 10.76219
Log likelihood -202.5356 Hannan-Quinn criter. 10.65279
F-statistic 53.86590 Durbin-Watson stat 2.113970
Prob(F-statistic) 0.000000

Dr. GBAME Hervé Daniel


Page 58
Cours d’Informatique (Initiation au logiciel EVIEWS), Licence 2 Economie 2019-2020

2/ Interprétation des résultats

 Le salaire moyen d’une ouvrière étrangère :


E Y / D1  0; D2  0; X    0   3 X i  118, 3256

 Le salaire moyen d’une ouvrière nationale :


E Y / D1  1; D2  0; X    0  1    3 X i  118,3256  25,12773  143, 4533

 Le salaire moyen d’un ouvrier étranger :


E Y / D1  0; D2  1; X    0   2    3 X i  118,3256  29,51239  147,8380

 Le salaire moyen d’un ouvrier national :


E Y / D1  1; D2  1; X    0  1   2    3 X i  118,3256  25,12773  29, 51239  172,9657

L’anciennété est le seul facteur qui influence la distribution des salaires (au seuil de 5%).

4.3.4. Autres utilisations de variables binaires

Le modèle est le suivant : INVt   0  1 Di   2 PIBt   3 ( Di PIBt )   t

Avec INVt : Investissements ; PIBt : le produit intérieur brut ;

1 Pour la sous période de 2000/2018 (après le choc)



Di  
0 Pour la sous période 1980/1999 (avant le choc)

Taf :
1) Estimer le modèle linéaire par la MCO (voir Base 9 en Annexe);
2) Interpréter les résultats (quel est l’impact du choc pétrolier en 2000)

Réponse aux questions

1/ Résultats de l’estimation du modèle ci-dessous :

Dr. GBAME Hervé Daniel


Page 59
Cours d’Informatique (Initiation au logiciel EVIEWS), Licence 2 Economie 2019-2020

Dependent Variable: INV


Method: Least Squares
Date: 11/12/18 Time: 15:31
Sample: 1980 2018
Included observations: 39

Variable Coefficient Std. Error t-Statistic Prob.

C -718.6430 215.3341 -3.337340 0.0020


DI 2245.555 344.4341 6.519549 0.0000
PIB 1.154690 0.224112 5.152297 0.0000
DI_PIB -1.709446 0.288067 -5.934189 0.0000

R-squared 0.761396 Mean dependent var 540.6908


Adjusted R-squared 0.740944 S.D. dependent var 228.5221
S.E. of regression 116.3122 Akaike info criterion 12.44735
Sum squared resid 473498.5 Schwarz criterion 12.61797
Log likelihood -238.7233 Hannan-Quinn criter. 12.50857
F-statistic 37.22876 Durbin-Watson stat 0.939861
Prob (F-statistic) 0.000000

2/ Interprétation des résultats

1 et  3 sont statistiquement significatifs au seuil de 5%. L’investissement a subit les effets


du choc pétrolier. Cela signifie que les paramètres du modèle n’ont pas été stables sur la
période de l’étude.

Tester la stabilité du modèle


On peut faire un test de Cusum of squares (test de stabilité conjoncturelle) ou de Cusum
(test de stabilité structurelle). Mieux encore, on peut faire un test de Chow également.

Dr. GBAME Hervé Daniel


Page 60
Cours d’Informatique (Initiation au logiciel EVIEWS), Licence 2 Economie 2019-2020

ANNEXES

Base 1 : Importation et PIBR

Date IMPORT PIBR


1962 311 761,3
1963 309,1 791,1
1964 305 810,8
1965 291,6 844,7
1966 308,8 868,9
1967 323,3 858,4
1968 304,1 912,4
1969 276,2 852,5
1970 307,8 925,7
1971 298,1 924,3
1972 297,8 983,3
1973 295,7 928,4
1974 301,4 967,4
1975 336,7 1040,3
1976 375,5 1133,1
1977 434 1102,6
1978 356,2 1059
1979 390,9 1133,2
1980 373 1095,8
1981 407,3 1082,8
1982 404,3 1249
1983 401,1 1276,1
1984 432,5 1225
1985 407,8 1271,3
1986 433,6 1329,3
1987 438,2 1382,3
1988 440,3 1452,4
1989 450,5 1432,2
1990 464,2 1496,7
1991 469,2 1506,8
1992 477,3 1549,7
1993 477,2 1535,9
1994 452,6 1526,7
1995 466,2 1599,4
1996 1606
1997 1627,9
1998 1649,7
1999 1671,6
2000 1693,5

Dr. GBAME Hervé Daniel


Page 61
Cours d’Informatique (Initiation au logiciel EVIEWS), Licence 2 Economie 2019-2020

Base 2 : Quantité et Prix

Date Qt Pt
1979 311 50
1980 309,1 55
1981 301 81,8
1982 321,6 84,7
1983 308,8 86,9
1984 323,3 85,4
1985 304,1 91,4
1986 276,2 85,5
1987 307,8 95,7
1988 298,1 94,3
1989 297,8 98,3
1990 295,7 98,4
1991 301,4 96,4
1992 336,7 104,3
1993 375,5 113,1
1994 434 110,6
1995 356,2 106
1996 390,9 113,2
1997 402 109,8
1998 407,3 109,9
1999 404,3 125
2000 401,1 127,1
2001 432,5 125
2002 407,8 127,3
2003 433,6 133,3
2004 438,2 138,3
2005 440,3 145,4
2006 450,5 143,2
2007 464,2 149,7
2008 469,2 150,8
2009 477,3 154,7
2010 476,2 153,9
2011 452,6 152,7
2012 468,2 159,4
2013 462,8 160
2014 162,9
2015 164,7
2016 167,6
2017 169,5

Dr. GBAME Hervé Daniel


Page 62
Cours d’Informatique (Initiation au logiciel EVIEWS), Licence 2 Economie 2019-2020

Base 3 : Intérêts composés

Date Yt t
1979 201 1
1980 209,1 2
1981 210 3
1982 221,6 4
1983 208,8 5
1984 223,3 6
1985 204,1 7
1986 276,2 8
1987 207,8 9
1988 298,1 10
1989 277,8 11
1990 295,7 12
1991 201,4 13
1992 236,7 14
1993 275,5 15
1994 234 16
1995 256,2 17
1996 290,9 18
1997 302 19
1998 307,3 20
1999 208,5 21
2000 301,1 22
2001 232,5 23
2002 207,8 24
2003 233,6 25
2004 238,2 26
2005 240,3 27
2006 250,5 28
2007 264,2 29
2008 269,2 30
2009 277,3 31
2010 276,2 32
2011 252,6 33
2012 268,2 34
2013 257,7 35
2014 280,7 36
2015 252 37
2016 246,6 38
2017 341,2 39

Dr. GBAME Hervé Daniel


Page 63
Cours d’Informatique (Initiation au logiciel EVIEWS), Licence 2 Economie 2019-2020

Base 4 : Dépenses de soins de santé (DS) et revenus de ménage (RM)

Date DS RM
1979 50 375,0
1980 150 369,2
1981 125 339,5
1982 129 348,3
1983 130 378,7
1984 155 364,0
1985 170 411,3
1986 145 432,6
1987 200 457,2
1988 125 432,4
1989 180 439,3
1990 105 412,6
1991 98 489,6
1992 102 445,9
1993 137 450,5
1994 85 255,7
1995 175 267,2
1996 185 224,9
1997 177 235,5
1998 179 260,7
1999 136 332,2
2000 145 371,2
2001 135 407,0
2002 120 422,8
2003 155 474,6
2004 205 469,6
2005 160 453,0
2006 165 392,6
2007 200 449,9
2008 185 451,7
2009 190 528,1
2010 195 494,6
2011 255 545,8
2012 250 542,2
2013 270 588,9
2014 275 612,4
2015 225 603,0
2016 285 640,8
2017 295 583,3

Dr. GBAME Hervé Daniel


Page 64
Cours d’Informatique (Initiation au logiciel EVIEWS), Licence 2 Economie 2019-2020

Base 5 : Régression var quantitative sur binaire (ANOVA)

Yi Di
375,0 0
369,2 1
339,5 0
348,3 0
378,7 0
364,0 1
411,3 1
432,6 0
457,2 1
432,4 0
439,3 0
412,6 1
489,6 1
445,9 1
450,5 0
255,7 0
267,2 1
224,9 1
235,5 1
260,7 0
332,2 0
371,2 1
407,0 0
422,8 1
474,6 0
469,6 1
453,0 0
392,6 1
449,9 1
451,7 0
528,1 1
494,6 0
545,8 0
542,2 1
588,9 1
612,4 0
603,0 0
640,8 0
583,3 1

Dr. GBAME Hervé Daniel


Page 65
Cours d’Informatique (Initiation au logiciel EVIEWS), Licence 2 Economie 2019-2020

Base 6 : Régression var quantitative sur plusieurs variables binaires

Yi D1i D2i
375,0 0 1
369,2 1 0
339,5 0 1
348,3 0 0
378,7 0 1
364,0 1 0
411,3 1 0
432,6 0 0
457,2 1 1
432,4 0 1
439,3 0 1
412,6 1 0
489,6 1 1
445,9 1 0
450,5 0 1
255,7 0 1
267,2 1 0
224,9 1 0
235,5 1 0
260,7 0 1
332,2 0 1
371,2 1 1
407,0 0 1
422,8 1 0
474,6 0 0
469,6 1 1
453,0 0 1
392,6 1 0
449,9 1 0
451,7 0 1
528,1 1 1
494,6 0 1
545,8 0 1
542,2 1 0
588,9 1 1
612,4 0 0
603,0 0 0
640,8 0 0
583,3 1 0

Dr. GBAME Hervé Daniel


Page 66
Cours d’Informatique (Initiation au logiciel EVIEWS), Licence 2 Economie 2019-2020

Base 7 : Répartition de salaire et années d’expérience (ANCOVA)

Yi Di Xi
375,0 0 3,8
369,2 1 3,7
339,5 0 3
348,3 0 3,4
378,7 0 3,5
364,0 1 3
411,3 1 4
432,6 0 4,25
457,2 1 4,5
432,4 0 4
439,3 0 4
412,6 1 4
489,6 1 5
445,9 1 4,25
450,5 0 4,25
255,7 0 2,4
267,2 1 2,5
224,9 1 2
235,5 1 2
260,7 0 2
332,2 0 3
371,2 1 3,5
407,0 0 4
422,8 1 4,25
474,6 0 4,7
469,6 1 4,5
453,0 0 4
392,6 1 3,5
449,9 1 4
451,7 0 4,5
528,1 1 5
494,6 0 4,5
545,8 0 5
542,2 1 5,5
588,9 1 5
612,4 0 7
603,0 0 6
640,8 0 10
583,3 1 5

Dr. GBAME Hervé Daniel


Page 67
Cours d’Informatique (Initiation au logiciel EVIEWS), Licence 2 Economie 2019-2020

Base 8 : Répartition des salaires en fonction de la nationalité, le sexe et les années d’expérience

Yi D1i D2i Xi
375,0 0 1 3,8
369,2 1 0 3,7
339,5 0 1 3
348,3 0 0 3,4
378,7 0 1 3,5
364,0 1 0 3
411,3 1 0 4
432,6 0 0 4,25
457,2 1 1 4,5
432,4 0 1 4
439,3 0 1 4
412,6 1 0 4
489,6 1 1 5
445,9 1 0 4,25
450,5 0 1 4,25
255,7 0 1 2,4
267,2 1 0 2,5
224,9 1 0 2
235,5 1 0 2
260,7 0 1 2
332,2 0 1 3
371,2 1 1 3,5
407,0 0 1 4
422,8 1 0 4,25
474,6 0 0 4,7
469,6 1 1 4,5
453,0 0 1 4
392,6 1 0 3,5
449,9 1 0 4
451,7 0 1 4,5
528,1 1 1 5
494,6 0 1 4,5
545,8 0 1 5
542,2 1 0 5,5
588,9 1 1 5
612,4 0 0 7
603,0 0 0 6
640,8 0 0 10
583,3 1 0 5

Dr. GBAME Hervé Daniel


Page 68
Cours d’Informatique (Initiation au logiciel EVIEWS), Licence 2 Economie 2019-2020

Base 9 : Investissement et chocs pétrolier

Années INV Di PIB


1980 158 0 761,3
1981 202 0 791,1
1982 275 0 810,8
1983 289 0 844,7
1984 264 0 868,9
1985 287 0 858,4
1986 316 0 912,4
1987 314 0 852,5
1988 350 0 925,7
1989 317 0 924,3
1990 316 0 983,3
1991 317 0 928,4
1992 300 0 967,4
1993 270 0 1040,3
1994 429 0 1133,1
1995 574 0 1102,6
1996 633 0 1059
1997 548 0 1133,2
1998 787 0 1095,8
1999 708 0 1082,8
2000 894 1 1249
2001 765 1 1276,1
2002 676 1 1225
2003 748 1 1271,3
2004 859 1 1329,3
2005 789 1 1382,3
2006 866 1 1452,4
2007 905 1 1432,2
2008 867 1 1496,7
2009 925 1 1506,8
2010 528,1 1 1549,7
2011 494,6 1 1535,9
2012 545,8 1 1526,7
2013 542,2 1 1599,4
2014 588,9 1 1606
2015 612,4 1 1627,9
2016 603,0 1 1649,7
2017 640,8 1 1671,6
2018 583,3 1 1693,5

Dr. GBAME Hervé Daniel


Page 69

You might also like