Professional Documents
Culture Documents
Brooks, Capitolo 3
Walter Distaso
Universit`a di Messina
w.distaso@imperial.ac.uk
Outline
Ancora sui test di ipotesi
Test Uni-direzionali (one-side)
Gli Intervalli di Condenza
Regressione Lineare Multipla
Stimatori OLS
Il test F
Bont`a di adattamento ai dati
Hedge Funds Returns Replication
Test unidirezionali
= N(0, 1).
t
T2;
SE(
),
+ t
T2;
SE(
))
5. Implementate il test: se il valore ipotizzato di (
) giace al
di fuori dellintervallo di condenza, allora rigettate lipotesi
nulla secondo cui =
SE(
)
t
T2;
t
T2;
SE(
t
T2;
SE(
+ t
T2;
SE(
mercato
SMB
HML
Regressione multipla e intercetta
x
1
si riferisce allintercetta, rappresentata da una colonna
composta da 1 di ampiezza T.
1
sostituisce come coeciente dellintercetta.
Modi diversi per rappresentare il modello di regressione
lineare multiplo
Per ogni t
y
1
=
1
+
2
x
21
+. . . +
k
x
k1
+ u
1
y
2
=
1
+
2
x
22
+. . . +
k
x
k2
+ u
2
.
.
. =
.
.
.
y
T
=
1
+
2
x
2T
+. . . +
k
x
kT
+ u
T
1
.
.
.
k
_
_
_
. .
[k1]
+
_
_
_
_
_
u
1
u
2
.
.
.
u
T
_
_
_
_
_
. .
u
[T1]
y
[T1]
= X
[T1]
+ u
[T1]
Somma dei residui al quadrato
u = (u
1
u
2
. . . u
T
)
_
_
_
_
_
u
1
u
2
.
.
.
u
T
_
_
_
_
_
=
u
2
t
rispetto a .
Derivare gli stimatori OLS I
vogliamo trovare
che minimizza
L = (y X)
(y X)
Lultimo termine sopra pu`o essere scritto come
y
y y
X +
X
= y
y 2
y +
= 2X
y + 2X
X.
Derivare gli stimatori OLS II
Lo stimatore OLS
`e quel valore di , tale per cui
L
= 0,
cio`e
2X
y 2X
= 0
e quindi
= (X
X)
1
X
y.
Assunzioni del modello lineare I
1. Linearit`a
La variabile y dipende in maniera lineare dai regressori, cio`e
y = X + u.
2. Rango pieno
La matrice T k X ha rango pari a k.
Ci`o signica che nessuna colonna di X `e una combinazione
lineare di altre colonne.
Questa `e la condizione di identicazione che permette di
stimare leetto specico di ogni singola variabile indipendente
sulla nostra y.
(cio`e, se diciamo x
2
= 3x
3
non riusciremmo a distinguere
leetto di x
2
da quello di x
3
).
3. E(u
t
) = 0, t.
4. cov(u
t
, X) = 0
, t.
5. Errori Sferici
Assunzioni del modello lineare II
var(u
t
) =
2
(chiamato anche omoschedasticit`a) e
cov(u
t
, u
s
) = 0 per tutte le t = s (chiamato anche non
autocorrelazione).
Utilizzando lapproccio matriciale, possiamo scrivere
E(uu
) =
2
I,
dove I `e una matrice Identit`a di dimensione T T .
6. Regressori Nonstocastici
Abbiamo bisogno di regressori che sano ssi tra campioni
estratti ripetutamente dalla popolazione
7. Errori normali
u N(0,
2
I).
Propriet`a degli stimatori OLS
Se valgono tutte le assunzioni riportate sopra allora
= + (X
X)
1
X
u
e
E(
) = , var(
) =
2
(X
X)
1
.
Inne, abbiamo
N(,
2
(X
X)
1
).
Test Multivariati
N(,
2
(X
X)
1
)
implica che
_
[1k]
_
var
_
__
1
[kk]
_
_
[k1]
2
k
.
Questo costituisce la base dei test multivariati.
Calcolare gli Standard Errors per i modelli di regressione
multipla I
u
2
t
T 2
.
Ora, usiamo
s
2
=
u
2
t
T k
=
RSS
T k
.
Sappiamo che
var
_
_
=
2
_
X
X
_
[kk]
1
che pu`o essere stimato da
s
2
_
X
X
_
1
Testare ipotesi multiple: il test F
Sostituiamo la restrizione (
3
+
4
= 1) nella regressione, in
modo da imporla direttamente sui dati
3
+
4
= 1 =
4
= 1
3
Il test F: determinare la regressione ristretta
quindi stimiamo
P
t
=
1
+
2
x
2t
+
3
Q
t
+ u
t
.
Calcolare la statistica F
Esempi
Ipotesi H
0
Restrizioni, m
1
+
2
= 2 1
1
= 1 e
3
= 1 2
2
= 0,
3
= 0 e
4
= 0 3
Signicativit`a della regressione con la statistica F
Se il modello `e
y
t
=
1
+
2
x
2t
+
3
x
3t
+
4
x
4t
+ u
t
allora lipotesi nulla
H
0
:
2
= 0,
3
= 0,
4
= 0
`e testata dalla statistica F Interpretation.
Ipotesi come
H
0
:
2
3
= 2
o
H
0
:
2
2
= 3
non possono essere testate.
Bont`a di adattamento ai dati
(y
t
y)
2
(y
t
y)
2
=
( y
t
y)
2
+
u
2
t
R
2
`e sempre compreso tra 0 e 1.
Il caso estremo R
2
= 0
Il caso estremo R
2
= 1
Problemi legati allR
2
1. R
2
`e denito in termini di variazione di y rispetto alla sua
media, cos` se un modello `e riparametrizzato e la variabile
dipendente varia, R
2
cambier`a.
2. R
2
non si riduce mai quando inseriamo nuovi regressori
allinterno della regressione, ad esempio, considerate:
Regressione 1: y
t
=
1
+
2
x
2t
+
3
x
3t
+ u
t
Regressione 2: y
t
=
1
+
2
x
2t
+
3
x
3t
+
4
x
4t
+ u
t
R
2
sar`a sempre pi` u alto per la seconda regressione in quanto il
numero di regressori `e maggiore.
R
2
aggiustato
Potremmo usare R
2
o R
2
aggiustato, ma cosa accadrebbe se
il numero delle variabili indipendenti fosse diverso tra i due
modelli?
2
`e signicativo ma
3
non lo `e
3
`e signicativo ma
2
non lo `e
2
e
3
sono entrambi statisticamente signicativi
N`e
2
n`e
3
sono signicativi.