You are on page 1of 62

Χ.

ΚΟΥΚΟΥΒΙΝΟΣ
Καθηγητής Ε.Μ.Π.

ΓΡΑΜΜΙΚΑ ΜΟΝΤΕΛΑ
ΚΑΙ
ΣΧΕΔΙΑΣΜΟΙ

Ανάλυση διασποράς με έναν παράγοντα

ΑΘΗΝΑ 2021
ΠΕΡΙΕΧΟΜΕΝΑ
1.1 Εισαγωγή .................................................................................................................... 1
1.2 Ανάλυση διασποράς με έναν παράγοντα.................................................................... 5
1.3 Ισοδυναμία ανάλυσης διασποράς και παλινδρόμησης ............................................. 21
1.4 Πολλαπλές συγκρίσεις.............................................................................................. 26
1.4.1 Κριτήριο ελάχιστης σημαντικής διαφοράς, του Fisher (L.S.D.) ....................... 27
1.4.2 Μέθοδος T (Tukey) ........................................................................................... 29
1.4.3 Μέθοδος Newman-Keuls .................................................................................. 33
1.4.4 Μέθοδος του Duncan ........................................................................................ 35
1.4.5 S-Μέθοδος (Scheffé) ......................................................................................... 40
1.4.6 Μέθοδος Bonferroni .......................................................................................... 41
1.4.7 Συνολικό σφάλμα για τις πολλαπλές συγκρίσεις .............................................. 42
1.5. Η υπόθεση κανονικότητας....................................................................................... 43
1.6 Μοντέλο τυχαίων επιδράσεων.................................................................................. 47
1.7 Έλεγχοι ομογένειας διασπορών................................................................................ 54
1.8 Ασκήσεις................................................................................................................... 58
ΚΕΦΑΛΑΙΟ 1

ΑΝΑΛΥΣΗ ΔΙΑΣΠΟΡΑΣ ΜΕ ΕΝΑΝ ΠΑΡΑΓΟΝΤΑ

1.1 Εισαγωγή

Ανάλυση διασποράς είναι η μέθοδος εκείνη με την οποία η ολική μεταβολή που
υπάρχει σε ένα σύνολο δεδομένων διαχωρίζεται σε διάφορες συνιστώσες. Σε κάθε μια
από αυτές τις συνιστώσες υπάρχει ένα συγκεκριμένο είδος (πηγή) μεταβολής. Έτσι στην
ανάλυση είναι δυνατό να διερευνηθεί η σπουδαιότητα (συμβολή) κάθε μιας από τις πηγές
μεταβολής στην ολική μεταβολή.
Μια από τις υποθέσεις που απαιτούμε για την προσαρμογή του μοντέλου
παλινδρόμησης
Y  X   ,
είναι οι μεταβλητές x i να είναι ποσοτικές. Υπάρχουν όμως αρκετές περιπτώσεις που οι
μεταβλητές x i είναι ποιοτικές ή κατηγορικές. Σε προβλήματα αυτής της μορφής παρ’
όλο που η θεωρία της γραμμικής παλινδρόμησης εφαρμόζεται με κατάλληλους
μετασχηματισμούς μεταβλητών, εντούτοις η σχετική μέθοδος που κυρίως
χρησιμοποιείται είναι η ανάλυση διασποράς (analysis of variance). Δηλαδή η μέθοδος
αυτή δεν διαφέρει από την παλινδρόμηση με ανεξάρτητες ποιοτικές μεταβλητές.
Η ανάλυση διασποράς έχει μεγάλη εφαρμογή στην ανάλυση πειραματικών
δεδομένων. Η σχέση μεταξύ της θεωρίας “σχεδιασμού πειραμάτων” και “ανάλυσης
διασποράς” έγκειται στο ότι όταν γίνεται ο σχεδιασμός πειραμάτων, ο ερευνητής έχει εκ
των προτέρων υπόψη του τις μεταβολές εκείνες τις οποίες θεωρεί σημαντικές και έτσι
μπορεί να επιλέξει ένα σχεδιασμό για τον οποίο είναι δυνατό να εκφράσει το μέγεθος της
συμβολής αυτών των πηγών μεταβολής στην ολική μεταβολή των δεδομένων.

Παράδειγμα 1.1
Θέλουμε να συγκρίνουμε τη ζωή των μπαταριών τριών διαφορετικών τύπων, παίρνοντας
δείγματα μεγέθους 5 από κάθε τύπο. (Τα δείγματα μεγέθους 5 είναι πολύ μικρά για
ασφαλή συμπεράσματα, μπορούμε όμως να δείξουμε τη βασική ιδέα που στηρίζεται η
μέθοδος).
Μπορούν αυτά τα δείγματα να μας δώσουν πληροφορίες, για το αν υπάρχουν
διαφορές στη διάρκεια ζωής των μπαταριών των τριών τύπων; Μια πρώτη ματιά στα
δεδομένα, μας δείχνει μικρή μεταβλητότητα μέσα στα δείγματα, ενώ η μεταβλητότητα
μεταξύ των δειγμάτων είναι μεγάλη.

1
Πίνακας 1.1
Διάρκεια ζωής σε ώρες

Τύπος Α Τύπος Β Τύπος Γ


58.0 50.2 40.2
58.4 50.0 40.0
58.2 50.0 39.8
57.8 49.8 39.6
57.6 50.0 40.4
x1  58.0 x 2  50.0 x 3  40.0
s1  0.32 s 2  0.14 s 3  0.32

Παράδειγμα 1.2
Στα παρακάτω δείγματα, η μεταβλητότητα μεταξύ των δειγμάτων είναι όπως και στο
προηγούμενο Παράδειγμα 1.1, η μεταβλητότητα όμως μέσα στα δείγματα είναι
μεγαλύτερη.

Πίνακας 1.2
Διάρκεια ζωής σε ώρες

Τύπος Α Τύπος Β Τύπος Γ


58.0 67.2 30.4
28.6 11.8 78.6
90.0 32.6 29.6
97.8 83.0 51.0
15.6 55.4 10.4
y1  58.0 y 2  50.0 x 3  40.0
s1  36.30 s 2  28.18 s 3  25.92

Αν θελήσουμε τώρα να δώσουμε μια γραφική παράσταση των δύο παραπάνω


δειγμάτων τότε έχουμε :

Σχήμα 1.1

2
Ι αναφέρεται στον Πίνακα 1.1
ΙΙ αναφέρεται στον Πίνακα 1.2

Παρατηρούμε ότι και στους δύο Πίνακες 1.1 και 1.2 οι μπαταρίες τύπου Α έχουν
την ίδια μέση διάρκεια ζωής αλλά διαφορετική διασπορά. Το ίδιο συμβαίνει και για τις
μπαταρίες τύπων Β και Γ.
Από το Σχήμα 1.1 γίνεται φανερό για το τι εννοούμε με τον όρο ανάλυση διασποράς:
όλες οι διαφορές στους δειγματικούς μέσους, κρίνονται στατιστικά σημαντικές ή όχι σε
σχέση με τις διασπορές μέσα στα δείγματα.
Πριν δώσουμε το κριτήριο της ανάλυσης διασποράς, θα πρέπει να υπογραμμίσου-
με τις δύο βασικές υποθέσεις της μεθόδου.
Πρώτη υπόθεση : Όλα τα δείγματα είναι ανεξάρτητα και προέρχονται από
πληθυσμούς που ακολουθούν κανονική κατανομή.
Δεύτερη υπόθεση : Όλοι οι πληθυσμοί έχουν την ίδια διασπορά σ2.
Αν τα δείγματα στα Παραδείγματα 1.1 και 1.2 ικανοποιούν τις παραπάνω υποθέσεις,
τότε η αρχική υπόθεση γίνεται :
H 0 : 1   2   3
και ισοδυναμεί με την υπόθεση ότι και τα τρία δείγματα προέρχονται από έναν και μόνο
πληθυσμό.
Το κριτήριο για τη σύγκριση δύο δειγμάτων από κανονική κατανομή και με κοινή
διασπορά σ2 είναι το εξής :
x1  x 2 (n 1  1)s12  (n 2  1)s 22
t με s2 
1 1 n1  n 2  2
s 
n1 n 2
Σύμφωνα με αυτό το κριτήριο, θα μπορούσαμε να συγκρίνουμε μέσες τιμές ανά δύο,
δηλαδή : 1   2 ,  2   3 , 1   3
Αυτή η διαδικασία γίνεται κοπιαστική, όταν έχουμε να συγκρίνουμε περισσότερα
δείγματα : π.χ. για τέσσερα δείγματα οι συγκρίσεις ανά δύο, είναι σε πλήθος 6, για 5
δείγματα, το πλήθος των συγκρίσεων είναι 10 κ.ο.κ. Το πιο σημαντικό όμως μειονέκτημα
των συγκρίσεων ανά δύο, είναι ότι η πιθανότητα να απορρίψουμε, ενώ είναι σωστή,
τουλάχιστο μια αρχική υπόθεση, αυξάνει με την αύξηση του αριθμού των δοκιμασιών.
Ενδεικτικά αναφέρουμε ότι για 5 δείγματα μόνο και για σ.σ. α = 0.05, το συνολικό
σφάλμα είναι περίπου 40%. Χρειάζεται λοιπόν να αντιμετωπίσουμε το πρόβλημα
σφαιρικά. Γι’ αυτό σκεφτόμαστε ως εξής :
(n 1  1)s12  (n 2  1)s 22
Γνωρίζουμε ότι η ποσότητα s  2
είναι ένας εκτιμητής της
n1  n 2  2
διασποράς σ2.
Επεκτείνοντας αυτό το αποτέλεσμα για k δείγματα, ο εκτιμητής του σ2 γίνεται :

3
(n 1  1)s12  (n 2  1)s 22    (n k  1)s 2k
s 
2

n1  n 2    n k  k
Αν θεωρήσουμε τις μέσες τιμές των k δειγμάτων x i , i = 1, 2, …, k σαν ένα δείγμα
μεγέθους k, υπολογίζουμε τη διασπορά τους :
2
 k 
 xi 
x i2   
k

 i 1

k
s 2  i 1
k 1
Γνωρίζουμε ότι η διασπορά των δειγματικών μέσων (τυπικό σφάλμα) είναι :
2
s 2    2  ns 2
n
Αν ισχύει η H 0 , τότε όλα τα δείγματα προέρχονται από τον ίδιο πληθυσμό και
συνεπώς έχουμε δύο εκτιμητές της διασποράς σ2, το s 2 και το s 2 . Έτσι λοιπόν, το πηλίκο
s 2
F  2 , μπορεί να χρησιμοποιηθεί σαν κριτήριο για τη σύγκριση των μέσων τιμών. Αν
s
η αρχική υπόθεση H 0 ισχύει, δηλαδή, αν δεν υπάρχει σημαντική διαφορά μεταξύ των
δειγμάτων, τότε οι δύο εκτιμητές της διασποράς του πληθυσμού σ2, πρέπει λογικά να
s 2
συμπίπτουν, ή τουλάχιστον να είναι κοντά ο ένας στον άλλον και ο λόγος F  πρέπει
s 2
να είναι κοντά στη μονάδα. Αν όμως τα δείγματα είναι από διαφορετικούς πληθυσμούς,
τότε η διασπορά μεταξύ των δειγμάτων s 2 θα πρέπει να είναι μεγαλύτερη από την
διασπορά μέσα στα δείγματα s 2 δηλαδή s 2 > s 2 , όπως ακριβώς στα Παραδείγματα 1.1
και 1.2. Αυτό οφείλεται στο γεγονός ότι, ενώ η διασπορά μέσα στα δείγματα s 2 είναι
ένας “καλός” εκτιμητής της διασποράς του πληθυσμού (διότι είναι σταθερή είτε ισχύει η
H 0 , είτε ισχύει η H1 ), η διασπορά μεταξύ των δειγμάτων s 2 αποτελείται από δύο όρους
: τη διασπορά του πληθυσμού, συν έναν όρο που είναι αποτέλεσμα της διαφοράς των
μέσων τιμών των δειγμάτων. Έτσι, όταν η H 0 δεν ισχύει, ο λόγος F αναμένεται
μεγαλύτερος από τη μονάδα και όσο πιο μεγάλη είναι η διαφορά μεταξύ των δειγμάτων,
τόσο μεγαλύτερος είναι ο λόγος F.
Για να προσδιορίσουμε εάν είναι σημαντικές οι διαφορές μεταξύ των δειγμάτων,
s 2
συγκρίνουμε τον λόγο F  που υπολογίσαμε, με κάποια θεωρητική τιμή Fk 1, n -k ;  που
s 2
βρίσκεται από τους πίνακες της F-κατανομής (για k1 και nk β.ε. και σε σ.σ. α),
δεδομένου ότι ο λόγος δύο διασπορών ακολουθεί την F-κατανομή.

4
Εφαρμογές : Εφαρμόζοντας τα δεδομένα των Πινάκων 1.1 και 1.2 έχουμε :
α) Για τα δεδομένα του Πίνακα 1.1
4  (0.32) 2  4  (0.14) 2  4  (0.32) 2
s 2   0.07
12
(58  40  50) 2
(58 2  50 2  40 2 ) 
s 2  3  (9.02)
2

2
(9.02) 2
F  1161.9 > F2, 12 ; 0.05  3.89
0.07
Η αρχική υπόθεση H 0 : 1   2   3 απορρίπτεται σε σ.σ. α = 0.05, που σημαίνει ότι οι
τρεις τύποι μπαταριών δεν έχουν τον ίδιο μέσο όρο ζωής, όπως φάνηκε στο Σχήμα 1.1 Ι.
β) Για τα δεδομένα του Πίνακα 1.2 έχουμε :
s 2  927.88 s 2  (9.02) 2
(9.02) 2
F  0.087 < F2, 12 ; 0.05  3.89
927.88
Η αρχική υπόθεση H 0 : 1   2   3 γίνεται δεκτή σε σ.σ. α = 0.05, όπως περιμέναμε
και από το Σχήμα 1.1 ΙΙ.

1.2 Ανάλυση διασποράς με έναν παράγοντα

Με τον όρο αυτό εννοούμε την ανάλυση προβλημάτων, όπου μια εξαρτημένη
παρατηρούμενη ποσοτική μεταβλητή Υ, υποτίθεται ότι επηρεάζεται από έναν παράγοντα
(factor). Ο παράγοντας είναι μια ποιοτική, ελέγξιμη μεταβλητή, η οποία μπορεί να
παίρνει ένα πεπερασμένο πλήθος τιμών που λέγονται στάθμες (levels). Αν είχαμε δύο ή
περισσότερους παράγοντες, τότε οι παρατηρήσεις της Υ θα γίνονταν για συγκεκριμένους
συνδυασμούς από στάθμες των παραγόντων. Κάθε τέτοιος συνδυασμός λέγεται αγωγή
(treatment). Στην περίπτωση του ενός παράγοντα οι αγωγές ταυτίζονται με τις στάθμες.
Ας υποθέσουμε λοιπόν ότι έχουμε έναν παράγοντα που εμφανίζεται σε k στάθμες
ή μια ασθένεια που αντιμετωπίζεται με k διαφορετικές θεραπείες ή k διαφορετικές
ομάδες ατόμων ή αντικειμένων που δέχονται την ίδια μεταχείριση. Κάνουμε τότε μια
σειρά από n παρατηρήσεις, από τις οποίες n i , i = 1, 2, …, k σε κάθε στάθμη ή θεραπεία
ή ομάδα, όπου n1  n 2    n k  n . Συμβολίζουμε με Yi j την τιμή μιας εξαρτημένης
μεταβλητής στην j-στη παρατήρηση της i-στης ομάδας. Είναι φανερό ότι η εξαρτημένη
μεταβλητή Υ μπορεί να επηρεάζεται ή όχι από τις διαφορετικές στάθμες ή ομάδες.
Ένας τρόπος να το ελέγξουμε αυτό είναι να προσαρμόσουμε στα δεδομένα μας το
μοντέλο :

5
Yi j   i   i j
από το οποίο λαμβάνουμε :
 i j  Yi j   i
όπου  i j το αποκαλούμενο σφάλμα μέτρησης και εκφράζει τις επιδράσεις που ασκούνται
στην παρατήρηση Yi j και δεν είναι δυνατό να αποδοθούν στον παράγοντα Α που
χρησιμοποιήθηκε, αλλά σε κάποιον άλλο παράγοντα που δεν λήφθηκε υπόψη.
Υποθέτουμε γενικά ότι οι k στάθμες του παράγοντα Α αποτελούν k
(υπο)πληθυσμούς και έστω ότι η αληθής μέση τιμή για τον ενιαίο πληθυσμό που
αποτελείται από όλους τους k (υπο)πληθυσμούς παριστάνεται με μ. Προφανώς


k
i
 i 1
k
Όπως κάθε τιμή σε συγκεκριμένη ομάδα (υπο-πληθυσμό) διαφέρει κατά κάποια
ποσότητα από τον μέσο της ομάδας (στάθμης), έτσι και κάθε μέσος της ομάδας (  i )
διαφέρει από τον ολικό πληθυσμιακό μέσο μ κατά κάποια ποσότητα. Αυτή η διαφορά
καλείται επίδραση μεθόδου (treatment effect) και ασκείται στο χαρακτηριστικό κατά τη
δοκιμασία που υποβάλλεται στην αντίστοιχη μονάδα εξαιτίας του ότι ανήκει στη στάθμη
i. Η επίδραση της μεθόδου συμβολίζεται με
i  i  
από αυτή λύνοντας ως προς  i έχουμε
i  i  
και αντικαθιστώντας στην Yi j   i   i j έχουμε
Yi j     i   i j (1.1)
όπου :
μ είναι σταθερά
 i είναι αυτό που θα ονομάζεται κύρια επίδραση (main effect) του παράγοντα Α στη
στάθμη i ( i = 1, 2, …, k )
 i j είναι το σφάλμα της j παρατήρησης ( j = 1, 2, …,𝑛𝑖 ) στην i στάθμη ( i = 1, 2, …,k
). Το  i j υποτίθεται ότι είναι τιμή τυχαίας μεταβλητής ε που έχει κατανομή Ν(0, σ2).

Προϋποθέσεις. Οι υποθέσεις που γίνονται εξαρτώνται από τον τρόπο με τον οποίο έχουν
εκλεγεί οι ομάδες (treatments). Εξετάζουμε δύο περιπτώσεις αναφερόμενες συνήθως σαν

i) Μοντέλο με σταθερές επιδράσεις (Fixed effects model)


Οι υποθέσεις είναι :

6
1. Τα k δείγματα αποτελούν τυχαία δείγματα από αντίστοιχους πληθυσμούς.
2. Κάθε ένας πληθυσμός ακολουθεί την κατανομή Ν(  i ,  i2 ).
3. 12   22     2k   2
k
4. Τα  i είναι άγνωστες σταθερές για τις οποίες ισχύει ότι : 
i 1
i 0

Οι αντίστοιχες υποθέσεις για τα σφάλματα  i j είναι :


α) E ( i j )  0

β) Var ( i j )  Var ( Yi j )   2
γ) τα  i j ακολουθούν την κανονική κατανομή
δ) τα  i j είναι ανεξάρτητα

ii) Μοντέλο όπου οι επιδράσεις είναι τ.μ. (Random effects model)


Οι υποθέσεις εδώ είναι :
1. Τα k δείγματα αποτελούν τυχαία δείγματα από αντίστοιχους πληθυσμούς.
2.  i j ~ Ν(0,  2 ) και ανεξάρτητα

3.  i ~ Ν(0,  2 ) και ανεξάρτητα


Σχηματικά το όλο πείραμα (ή φαινόμενο) με τη βοήθεια του μοντέλου (1.1) μπορεί να
παρασταθεί στον Πίνακα 1.3.
Πίνακας 1.3

Στάθμη 1 Στάθμη 2 ... Στάθμη k


Y11    1  11 Y21     2   21 ... Yk 1     k   k 1
Y1 2    1  1 2 Y2 2     2   2 2 ... Yk 2     k   k 2
…………………. …………………. ... ………………….
Y1 n    1  1 n
1 1
Y2 n     2   2 n
2 2
... Yk n     k   k n
k k

Η υπόθεση κανονικότητας για το σφάλμα, μας επιτρέπει να γράψουμε το μοντέλο


(1.1) στη μορφή :
E (Yi j )     i (1.2)
Στα παρακάτω για τα αθροίσματα τιμών Yi j με i = 1, 2, …, p, j = 1, 2, …, q θα
χρησιμοποιούμε τους παρακάτω συμβολισμούς :
q q
Yi . 1
Yi .   Yi j και Yi .   Y ij
j1 q q j1

p Y. j p

Y Y
1
Y. j  ij και Y. j   ij (1.3)
i 1 p p i 1

7
p q p q p q
1
Y. .   Yi j   Yi .   Y. j , Y  Y. .   Y
1
Yi .  .j .
i 1 j1 i 1 j1 p i 1 q j1

Αν ο δείκτης j εξαρτάται από τον i, αν δηλαδή έχουμε τη μεταβλητή Yi j με i = 1, 2,


…, k, j = 1, 2, …, n i τότε θα συμβολίζουμε :
ni ni
Yi .   Yi j Y
Yi . 1
και Yi .   ij
j 1 ni ni j 1

k ni k
 k   k 
Y. .   Yi j   n i Yi . ,
i 1 j 1 i 1
Y  Y. .    n i Yi .  /   n i  .
 i 1   i 1 
(1.4)

Εφαρμόζοντας τώρα το μοντέλο (1.2) διαδοχικά για i = 1, 2, …, k στα στοιχεία


του Πίνακα 1.3 και χρησιμοποιώντας τους προηγούμενους συμβολισμούς έχουμε :
E(Y1 j )     1  Y1 .

E(Y2 j )     2  Y2 . (1.5)
……………………..
E(Yk j )     k  Yk .
οπότε
 k   k 
    n i  i  /   n i   Y. . (1.6)
 i 1   i 1 
1 k ni
Η ποσότητα Y. .   Yi j είναι ο γενικός μέσος όρος (general mean) όλων
n i 1 j1
των παρατηρήσεων. Επειδή οι παράμετροι που πρέπει να εκτιμηθούν από τις σχέσεις
(1.5) είναι κατά μια περισσότερες από τις σχέσεις που έχουμε, χρειαζόμαστε μια επιπλέον
σχέση, έναν περιορισμό στις παραμέτρους. Από την (1.6) προκύπτει ότι, αν θεωρήσουμε
τον περιορισμό :
k

n 
i 1
i i  n11  n 2  2    n k  k  0 (1.7)

τότε η σταθερά μ θα ταυτίζεται με το γενικό μέσο. Η εκτίμηση τώρα των κύριων


επιδράσεων γίνεται εύκολα με την επίλυση των (1.5). Έχουμε επομένως :
ˆ  Y. .
ˆ 1  Y1.  Y. .
ˆ 2  Y2 .  Y. .
……………… (1.8)
ˆ k  Yk .  Y. .
Αξίζει να σημειωθεί ότι θα μπορούσαμε να εκτιμήσουμε τις κύριες επιδράσεις
χρησιμοποιώντας οποιονδήποτε άλλο περιορισμό αντί του (1.7). Μπορούμε για παρά-

8
δείγμα να υποθέσουμε ότι ο σταθμισμένος μέσος (weighted mean) των  i με βάρη τα
n i είναι  0  0 , δηλαδή ότι :
 k   k  1 k
  nii  /   n i   n  i i  0 (1.9)
 i 1   i 1  n i 1

Το μοντέλο (1.1) μπορεί τότε να γραφεί ισοδύναμα :


Yi j     0  ( i   0 )   i j 

  '   i'   i j
Για το μοντέλο αυτό έχουμε :
k k k

n   n 
i 1
i
'
i
i 1
i i   0  n i  n 0  n 0  0
i 1

δηλαδή ισχύει η συνθήκη (1.7), οπότε η σταθερά μ΄ θα είναι ο γενικός μέσος και οι
επιδράσεις  i' θα υπολογίζονται από τις σχέσεις (1.8). Από τις ισότητες τώρα μ = μ΄α0
και  i   i'  α0 μπορούν να εκτιμηθούν και οι αρχικές σταθερές.
Ακόμη αντί της συνθήκης (1.7) θα μπορούσαμε να θεωρήσουμε την :
k


i 1
i 0 (1.10)

η οποία βέβαια ταυτίζεται με την (1.7) όταν n1  n 2   n k . Τότε από τις (1.5) θα
k
1
βρίσκαμε ότι  
k
Y
i 1
i. , δηλαδή η σταθερά μ θα ήταν ο μέσος όρος των μέσων κάθε

στάθμης. Αντί της (1.8) θα είχαμε τότε :


k
1
ˆ 
k
Y
i 1
i.

ˆ 1  Y1.  ̂
……………… (1.11)
ˆ k  Yk .  ̂
Παρόλο όμως που είναι ανάλογα με τη συνθήκη (1.7), (1.9) ή (1.10) που θα
υποθέσουμε, έχουμε διαφορετικές εκτιμήσεις των παραμέτρων, εντούτοις είναι φανερό
ότι αν ̂ , ̂ i , ̂ ' , ̂ i' είναι δύο διαφορετικές εκτιμήσεις, τότε :
̂  
ˆ i  ˆ '  ̂ i'
οπότε προκύπτει ότι :

ˆ i  ˆ i'  ˆ '  ̂  σταθερό (1.12)
Θα ονομάζεται γραμμική αντίθεση (linear contrast) των στοιχείων  i του k1
διανύσματος  , κάθε γραμμικός συνδυασμός   , όπου το k1 διάνυσμα  ικανοποιεί
'

την σχέση  1 0 δηλαδή :


'

9
11   2  2     k  k
με 1   2     k  0
Για παράδειγμα οι εκφράσεις 1   3 ,  4  1 , 1   3  2 4 κ.λ.π. είναι γραμμικές
αντιθέσεις των στοιχείων του   ( 1 ,  2 ,  3 ,  4 )΄.
Από την (1.12) προκύπτει ότι οι γραμμικές αντιθέσεις των στοιχείων του
διανύσματος ̂  ( ̂1 , 
ˆ 2 , , ̂ k )΄ ορίζονται μονοσήμαντα.
Στα επόμενα θα αναφερόμαστε μόνο στον περιορισμό (1.7).
Το ζητούμενο σε ένα πρόβλημα, όπως αυτό που εξετάζουμε είναι να ελέγξουμε
αν οι k διαφορετικές στάθμες ή ομάδες είναι πράγματι διαφορετικές. Και εφόσον το
μοντέλο που υποθέτουμε είναι το (1.2), αυτό είναι ισοδύναμο με τον έλεγχο της υπόθεσης
H 0 : 1   2     k με εναλλακτική την άρνησή της.
Για τον έλεγχο αυτής της υπόθεσης πρέπει προηγούμενα να διασπάσουμε τη
συνολική διασπορά γύρω από τον μέσο. Προσθέτοντας και αφαιρώντας την τιμή Yi .
μπορούμε αμέσως να δείξουμε την ταυτότητα :
k ni k k ni

 (Yi j  Y.. ) 2 
i 1 j1
 n i (Yi .  Y. . ) 2 
i 1
 (Y
i 1 j1
ij  Yi . ) 2 (1.13)

αφού ο όρος
k ni
2 (Yi j  Yi . )( Yi .  Y. . )
i 1 j1

είναι προφανώς ίσος με 0.


Συμβολίζουμε τους τρεις όρους της (1.13) ως SST, SSA και SSE αντίστοιχα.
Δηλαδή,
k ni k ni
SST =  (Y
i 1 j1
ij  Y. . ) = 2
 Y
i 1 j1
2
ij  nY. 2.

k ni ni
SSΑ =  (Yi .  Y.. ) 2 =
i 1 j1
 n (Y )
i 1
i i.
2
 n (Y. . ) 2

k ni k ni 2 
SSE =  (Yi j  Yi . ) 2 =    Yi j  n i Yi2. 
 
i 1 j1 i 1  j1 
Ισχύει, λοιπόν, ότι
SST = SSΑ  SSE
Να σημειώσουμε ότι αν το μοντέλο μας είναι σωστό, έχουμε
E(Yi2j ) = (μαi)2 σ2
E ( Yi2. ) = (μαi)2 σ2/ni
E ( Y. 2. ) = μ2 σ2/n

10
Τότε οι κατανομές αθροισμάτων τετραγώνων, που είναι τετραγωνικές μορφές είναι
k k
SST   2  2n 1,  , Ε(SST) = n 
i 1
i
2
i  (n  1) 2 , δ= n 
i 1
i
2
i / 2

k k
SSΑ   2  2n 1,  , Ε(SSΑ) =  n i  i2  (k  1) 2 ,
i 1
δ= n 
i 1
i
2
i / 2

SSE   2  2n k , Ε(SSE) = (n  k) 2


Ο όρος SSA περιέχει το μέρος της διασποράς που οφείλεται στις διάφορες ομάδες
(στάθμες) γι’ αυτό στη διεθνή βιβλιογραφία αναφέρεται ως άθροισμα τετραγώνων,
“μεταξύ των ομάδων” (between groups). Ο όρος SSE περιέχει την υπόλοιπη διασπορά
που οφείλεται σε σφάλματα ανάμεσα στις ομάδες γι’ αυτό αναφέρεται ως άθροισμα
τετραγώνων “ανάμεσα στις ομάδες” (within groups). Για να γίνει κατανοητή η σημασία
αυτών των όρων ας θεωρήσουμε τα παρακάτω δύο παραδείγματα που περιγράφουν
ακραίες καταστάσεις.
Στο πρώτο από αυτά κάθε ομάδα έχει σταθερή τιμή ίση με Yi . και επομένως
SSE   (Yi j  Yi . ) 2  0 . Άρα SSA = SST, δηλαδή όλη η διασπορά οφείλεται σε
i, j

διαφορές μεταξύ των ομάδων. Η διάκριση των ομάδων εδώ είναι σαφής.

1ο 2ο
Ομάδα 1 Ομάδα 2 Ομάδα 3 Ομάδα 1 Ομάδα 2 Ομάδα 3
3 4.5 5 3 3 3
3 4.5 5 4 5 4
3 5 2 5
3 7
Y1 .  3 Y2 .  4.5 Y3 .  5 Y1.  4 Y2 .  4 Y3 .  4
Y. .  4 Y. .  4

Αντίθετα στο δεύτερο παράδειγμα οι ομάδες δεν διαφέρουν μεταξύ τους, μάλιστα
ο μέσος κάθε μιας ισούται με το γενικό μέσο. Άρα SSE = SST, δηλαδή όλη η διασπορά
οφείλεται σε σφάλματα ανάμεσα στις ομάδες.
Στη γενική περίπτωση τα αθροίσματα SSA, SSE είναι διάφορα του 0 και μάλιστα
όσο μεγαλύτερο είναι το SSA σε σχέση με το SSE τόσο πιο σημαντικές είναι οι διαφορές
μεταξύ των ομάδων. Όσο μεγαλύτερο ποσοστό του SST περιέχεται στο SSA, τόσο
σημαντικότερος είναι ο παράγοντας Α. Ένα μέτρο επομένως της σημαντικότητας του
παράγοντα Α, είναι ο λόγος :

SSA
n2  (1.14)
SST

11
Μπορούμε να αποδείξουμε ότι κάτω από συνθήκες κανονικότητας των σφαλμάτων
τα αθροίσματα SSA, SSE και SST είναι τυχαίες μεταβλητές κατανεμημένες με χ2
κατανομές και βαθμούς ελευθερίας αντίστοιχα k1, nk, n1. Ο λόγος επομένως :
MSA SSA /( k  1)
F  , (1.15)
MSE SSE /( n  k )
θα ακολουθεί την κατανομή F με k1 και nk βαθμούς ελευθερίας. Με το στατιστικό F
ελέγχουμε επομένως την υπόθεση H 0 : 1   2     k , ότι δεν υπάρχει διαφορά
μεταξύ των ομάδων. Τελικά η αρχική υπόθεση H 0 απορρίπτεται σε : σ.σ. α, αν :
F  Fk 1, n -k ; 
Σχήμα 1.2

Η εναλλακτική υπόθεση στην ανάλυση διασποράς είναι η άρνηση της H 0 ,


δηλαδή μια τουλάχιστο μέση τιμή διαφέρει σημαντικά από τις υπόλοιπες.
Όλες οι χαρακτηριστικές ποσότητες που περιγράψαμε προηγούμενα, καθώς και
οι τύποι υπολογισμού αυτών, συγκεντρώνονται στον Πίνακα 1.4 τον πίνακα ανάλυσης
της διασποράς κατά ένα παράγοντα.

12
Πίνακας 1.4
Ανάλυση της διασποράς για έναν παράγοντα.

Αθροίσματα Βαθμοί Μέσα


Πηγή τετραγώνων ελευθερίας τετράγωνα F
Παράγοντας Α SSA   n i ( Yi .  Y. . ) 2 
(μεταξύ ομάδων) SSA MSA
i
k 1 MSA  F
Y2 Y 2 k 1
=  i .  ..
MSE
i ni n
Υπόλοιπα SSE   (Yi j  Yi . ) 2 
(ανάμεσα στις i j SSE
ομάδες) nk MSE 
Y2 nk
  Yi2j   i . 
i j i ni
 SST  SSA
Σύνολο SST   (Yi j  Y. . ) 2 
(ολική διασπορά i j

γύρω από το Y.2. n 1


μέσο)   Yi2j 
i j n

Παράδειγμα 1.3
Σε 12 αυτοκίνητα τεσσάρων διαφορετικών τύπων, βάλαμε 10 lt βενζίνη. Η απόσταση σε
Km που διανύθηκε από κάθε αυτοκίνητο ήταν :

Τύπος Απόσταση σε km
Α (1) 72 80 88
Β (2) 84 88 104
Γ (3) 92 104 104
Δ (4) 80 76 84

Με την προϋπόθεση ότι ισχύουν οι βασικές υποθέσεις της ανάλυσης διασποράς


μπορούμε να συμπεράνουμε ότι η κατανάλωση βενζίνης δεν είναι ίδια σε όλα τα
αυτοκίνητα ;
Απάντηση
H 0 : 1   2   3   4
H1 : τουλάχιστο ένα από τα  i είναι διαφορετικό.
Έχουμε ότι : n1  n 2  n 3  n 4  3  n  12
Y1.  72  80  88 = 240
Y2 .  84  88  104 = 276
Y3 .  92  104  104 = 300
Y4 .  80  76  84 = 240

13
Y. .  240  276  300  240 = 1056
240 2  276 2  300 2  240 2 1056 2
SSA    93792  92928 = 864
3 12
240 2  276 2  300 2  240 2
SSE  (72 2  80 2    84 2 )   94272  93792 = 480
3

Πίνακας Ανάλυσης διασποράς

Πηγή Αθροίσματα Μέση


Β.Ε. F
μεταβολής τετραγώνων μεταβλητότητα
864 288
Μεταξύ δειγμάτων SSA = 864 3 MSA   288 F  4.8
3 60
480
Μέσα στα δείγματα SSE = 480 8 MSE   60
8
Ολική SSΤ = 1344 11

F = 4.8 > F3, 8 ; 0.05 = 4.07


Η H 0 απορρίπτεται σε σ.σ. α = 0.05, που σημαίνει ότι η κατανάλωση βενζίνης, δεν
είναι ίδια σε όλους τους τύπους των αυτοκινήτων.

Παράδειγμα 1.4
Προκειμένου να διαπιστωθεί αν υπάρχει διαφορά στην αντοχή τεσσάρων υλικών Α, Β, Γ
και Δ, δοκιμάστηκαν 4 δοκίμια από κάθε υλικό, ως προς την αντοχή τους. Ένα από τα
δοκίμια καταστράφηκε πριν δοκιμαστεί και έτσι πήραμε μόνο τις μετρήσεις που δίνονται
στον Πίνακα 1.5.

Πίνακας 1.5
Αντοχή δοκιμίων από 4 υλικά

Α Β Γ Δ
1.700 1.725 1.735 2.025
1.505 1.825 1.925 2.075
1.800 1.660 1.815 2.110
1.640 1.890 1.970

Αν πρόκειται να εργασθούμε χωρίς χρήση Η.Υ., είναι χρήσιμο να κωδικοποιήσουμε


τα δεδομένα.
Ένας γραμμικός μετασχηματισμός της μορφής Zi  h(Yi  m) , όπου h, m
αυθαίρετες τιμές, διατηρεί τις αναλογίες ανάμεσα στις κύριες επιδράσεις και επομένως
οδηγεί στα ίδια συμπεράσματα. Οι υπολογισμοί των αθροισμάτων τετραγώνων των
αποκλίσεων των κωδικοποιημένων τιμών, μπορούν με κατάλληλη επιλογή σταθερών h
14
και m, να απλουστευθούν ενώ το στατιστικό F έχει και για τις κωδικοποιημένες τιμές την
ίδια τιμή που είχε και για τις αρχικές.
Θέτοντας εδώ h = 200, m = 1.5 παίρνουμε τις κωδικοποιημένες τιμές Z i j , που
δίνονται στον Πίνακα 1.6. Στον ίδιο πίνακα φαίνονται τα αθροίσματα Z i . , Z. . καθώς οι
μέσες τιμές Z i . , Z. .  Z που μας χρειάζονται για τους υπολογισμούς του αθροίσματος
τετραγώνων.

Πίνακας 1.6
Κωδικοποιημένες τιμές αντοχής 4 υλικών

Α B Γ Δ
40 45 47 105
1 65 85 115
60 32 63 122
28 78 94
Z1.  101 Z 2 .  170 Z 3 .  273 Z 4 .  436 Z . .  980
n1  3 n2  4 n3  4 n4  4 n  15
Z1.  33.667 Z 2 .  42.500 Z 3 .  68.250 Z 2 .  109 Z  Z . .  65.333

Θα έχουμε :
Z12. Z 22 .  Z 32 .  Z 24 . Z .2.
SSA     12754.917
3 4 15
Z .2.
SST  Z  Z    Z
2
11
2
12
2
44   16689.333
15
οπότε μπορούμε να συμπληρώσουμε τον πίνακα.

Πίνακας 1.7
Ανάλυση διασποράς για το παράδειγμα

Πηγή Αθροίσματα Βαθμοί Μέσα


μεταβολής τετραγώνων ελευθερίας τετράγωνα F
Υλικό 12754.917 3 4251.639 11.887
Υπόλοιπα 3934.417 11 357.674
Σύνολο 16689.333 14

Επειδή από τους πίνακες της κατανομής F έχουμε F3, 10 ; 0,005  8.08 ,
F3, 12 ; 0,005  7.23 προκύπτει ότι 11.887 > F3, 11; 0,005  7.65 , άρα το στατιστικό F = 11.887

είναι σημαντικό για α = 0.005, επομένως η υπόθεση H 0 : 1   2   3   4 , ότι δηλαδή


δεν υπάρχει διαφορά μεταξύ των υλικών απορρίπτεται.

15
΄Ώστε οι τιμές των κύριων επιδράσεων είναι διαφορετικές και εκτιμήσεις αυτών
των τιμών παίρνουμε από τις σχέσεις (1.8) :
ˆ 1  Z1.  Z. .  31.666
ˆ 2  Z 2 .  Z. .  22.833
ˆ 3  Z 3 .  Z. .  2.917
ˆ 4  Z 4 .  Z. .  43.667
Παρατηρούμε ότι το υλικό Δ έχει τη μεγαλύτερη αντοχή απ’ όλα, ενώ το υλικό Α
έχει τη μικρότερη. Ακόμη παρατηρούμε ότι ισχύει όπως αναμενόταν :
3ˆ 1  4ˆ 2  4ˆ 3  4ˆ 4  0 .
Θα μπορούσαμε χωρίς μεγάλη δυσκολία να εργαστούμε και με τα αρχικά δεδομένα.
Στον Πίνακα 1.8, βλέπουμε μέρος της εκτύπωσης του προγράμματος ANOVA του
Statgraphics, για τα δεδομένα του Πίνακα 1.5

Πίνακας 1.8
Ανάλυση διασποράς για τα αρχικά δεδομένα του Παραδείγματος 1.4

ANOVA Table
Analysis of Variance
-----------------------------------------------------------------------------------------------
Source Sum of Squares Df Mean Square F-Ratio P-Value
-----------------------------------------------------------------------------------------------
Between groups 0.318873 3 0.10629100 11.887 0.0009
Within groups 0.0983604 11 0.00894186
-----------------------------------------------------------------------------------------------
Total (Corr.) 0.417233 14

Στον Πίνακα 1.8 παρουσιάζεται η ανάλυση διασποράς, που όπως βλέπουμε δίνει
τον ίδιο λόγο F, επομένως ο έλεγχος της υπόθεσης H 0 : 1   2   3   4 οδηγεί στο
ίδιο συμπέρασμα. Ακόμη μπορεί να διαπιστωθεί ότι τα αθροίσματα τετραγώνων του
Πίνακα 1.7 ταυτίζονται με τα αθροίσματα των τετραγώνων του Πίνακα 1.8, αν τα
τελευταία διαιρεθούν με h2 = 2002 = 40000.
Στον Πίνακα 1.9, βλέπουμε διάφορα στατιστικά για κάθε μία από τις στήλες των
δεδομένων.

16
Πίνακας 1.9

Summary Statistics
Group Count Average Variance Standard deviation Standard error
---------------------------------------------------------------------------------------------------
A 3 1.66833 0.02250830 0.150028 0.086619
B 4 1.71250 0.00694167 0.0833167 0.041658
C 4 1.84125 0.00712292 0.0843974 0.042199
D 4 2.04500 0.00371667 0.0609645 0.030482
---------------------------------------------------------------------------------------------------
Total 15 1.82667 0.02980240 0.172634 0.0446

ni

 (Y
j1
ij  Yi . ) 2
Η διασπορά (variance) προκύπτει από τον τύπο s i2  ˆ 2  .
ni 1
Συνεπώς η τυπική απόκλιση (standard deviation) είναι η s i  s i2 . Το τυπικό σφάλμα
s ̂
(standard error) είναι i  i .
ni ni
Η εκτίμηση της παραμέτρου ̂ είναι 1.82667 και οι εκτιμήσεις των παραμέτρων
̂ i είναι
ˆ 1  Y1.  Y. .  1.66833  1.82667 = 0.15834
ˆ 2  Y2 .  Y. .  1.71250  1.82667 = 0.11417
ˆ 3  Y3 .  Y. .  1.84125  1.82667 = 0.01458
ˆ 4  Y4 .  Y. .  2.04500  1.82667 = 0.21833
με 3ˆ 1  4ˆ 2  4ˆ 3  4ˆ 4  0 . Μπορεί εύκολα να διαπιστωθεί ότι οι παράμετροι ̂ i
προκύπτουν από τις αντίστοιχες παραμέτρους που εκτιμήσαμε προηγούμενα, μετά τη
διαίρεση με h = 200. Δεν ισχύει το ίδιο και για το ̂ .
SSA 0.319
Επίσης έχουμε n 2    0.765, πράγμα που σημαίνει ότι ο
SST 0.417
παράγοντας “υλικό” εξηγεί περίπου το 76% της συνολικής διασποράς.
 2 
Τέλος είναι γνωστό ότι Yi .  N  i , i  . Συνεπώς ένα διάστημα εμπιστοσύνης

 ni 
γύρω από κάθε μέσο θα είναι

i
Yi .  t n i 1 ;  / 2 (1.16)
ni
Ο παρακάτω πίνακας παρουσιάζει τα διαστήματα εμπιστοσύνης γύρω από κάθε μέσο.

17
Test Value = 0
95% Confidence
Interval of the
Difference
Group t df Sig. Mean Lower Upper
(2-tailed) Difference
A 19.261 2 0.003 1.66833 1.29564 2.04102
B 41.108 3 0.000 1.71250 1.57992 1.84508
C 43.633 3 0.000 1.84125 1.70695 1.97555
D 67.088 3 0.000 2.04500 1.94799 2.14201
Total 15 1.82667 1.73110 1.92230

Παράδειγμα 1.5
Μας ενδιαφέρει να εξετάσουμε 5 δίαιτες. (Α, Β, Γ, Δ, Ε) που δίνονται σε παιδιά ηλικίας
ενός έτους. Μετράμε το βάρος, σε γραμμάρια, που κέρδισε κάθε παιδί σε μια εβδομάδα.
Τα αποτελέσματα δίνονται παρακάτω στον Πίνακα 1.10 :

Πίνακας 1.10

Δίαιτα Βάρος Yi j σε γραμμάρια / εβδομάδα ni Yi . Yi .


A 28.0, 24.8, 27.9, 24.7, 28.7, 34.8, 30.9 7 28.543 199.8
B 24.7, 30.7, 30.5, 22.0, 26.7, 28.6, 28.8, 22.6,
34.8 9 27.711 249.4
Γ 30.5, 24.8, 30.9, 22.5, 37.6, 28.6, 28.7, 28.8,
33.6, 24.0 10 29.000 290.0
Δ 30.4, 28.9, 27.8, 30.7, 32.7, 30.8, 30.5, 34.5,
32.8, 31.7, 28.6, 38.8 12 31.517 378.2
Ε 28.5, 20.8, 22.9, 17.8, 23.6, 18.9, 24.7, 16.3,
25.4, 20.9, 25.1 11 22.264 244.9

Ο παράγοντας είναι η δίαιτα που έχει 5 στάθμες Α, Β, Γ, Δ, Ε. Μας ενδιαφέρει να


συγκρίνουμε τις στάθμες (δίαιτες) και να εντοπίσουμε τις πιο σημαντικές. Ο πίνακας
ανάλυσης διασποράς για το παράδειγμά μας είναι

Πίνακας ANOVA

Πηγή (source) SS d.f. MS F-ratio p-value


Between groups 521.262 4 130.315 9.0801 0.0000
(Αγωγές)
Within groups 631.508 44 14.352
(Σφάλμα)
Total 1152.763 48
(Ολικό)

18
Αυτό σημαίνει ότι, σε στάθμη α = 0.05, απορρίπτουμε την υπόθεση ότι όλοι οι μέσοι
είναι ίσοι, διότι η τιμή πιθανότητας (p-value) είναι 0.0000 < 0.05. Η εκτίμηση για τη
διασπορά των σφαλμάτων είναι ̂ 2 = 14.352.
Η σωστή διαδικασία είναι πρώτα να ελέγξουμε αν το μοντέλο μας είναι σωστό, δηλαδή
αν τα σφάλματα είναι ανεξάρτητα με σταθερή διασπορά, αν ακολουθούν την κανονική
κατανομή, αν δεν υπάρχουν άλλοι παράγοντες που επηρεάζουν το αποτέλεσμα του
πειράματος. Αυτοί οι έλεγχοι γίνονται με τη χρήση των καταλοίπων.
Στο συγκεκριμένο παράδειγμα εξετάζουμε αν τα σφάλματα έχουν την ίδια διασπορά σε
όλες τις ομάδες (δίαιτες), θεωρώντας ότι μέσα σε κάθε ομάδα η διασπορά είναι σταθερή.
Αυτός ο έλεγχος γίνεται γραφικά με το κριτήριο Cochran ή Bartlett ή Hartley. Η εκτίμηση
της διασποράς  i2 κάθε ομάδας (δίαιτας) είναι
ni
̂ = SSEi / (ni1), SSEi =
2
i  (Y
j1
ij  Yi . ) 2 (1.17)

To SSE αναλύεται σε k ανεξάρτητα αθροίσματα τετραγώνων,


SSE = SSE1  …  SSEk, SSEi   2  2n i 1 (1.18)
Τα διαστήματα εμπιστοσύνης 100(1α)% για τις μέσες τιμές μi, μπορούμε να τα πάρουμε
με δύο τρόπους
α) Χρησιμοποιούμε την εκτίμηση της διασποράς μέσα σε κάθε ομάδα (internal estimate),
οπότε
Yi .  t n i 1, 1- / 2 ˆ i2 / n i

β) Χρησιμοποιούμε την εκτίμηση ̂ 2 της διασποράς από όλες τις παρατηρήσεις (pooled
estimate), δηλαδή s2 = SSE/(nk), το αντίστοιχο διάστημα εμπιστοσύνης για το μi είναι
Yi .  t nk , 1- / 2 
ˆ i2 / n i (1.19)
Όμοια για τη διαφορά  i   j το 100(1α)% διάστημα εμπιστοσύνης είναι

Yi .  Yj .  t n k , 1- / 2 ˆ 1 / n i  1 / n j (1.20)
Εκείνο που μας ενδιαφέρει περισσότερο είναι η εκτίμηση και το διάστημα εμπιστοσύνης
για τη διαφορά  i   j ώστε να συγκρίνουμε ανά δύο τις μέσες τιμές. Γενικά μας
ενδιαφέρει να εκτιμήσουμε και να υπολογίσουμε το διάστημα εμπιστοσύνης για
γραμμικές αντιθέσεις των μεταβλητών, όπως ορίζονται παρακάτω.
Στο παράδειγμα με τις δίαιτες έχουμε

19
Πίνακας μέσων τιμών

Δίαιτα ni Yi . ̂ i / n i ̂ / n i 95% δ.ε. των μi


Α 7 28.543 1.329 1.643 25.231 31.854
Β 9 27.711 1.383 1.449 24.790 30.630
Γ 10 29.000 1.438 1.374 26.230 31.770
Δ 12 31.517 0.860 1.094 29.958 33.076
Ε 11 22.264 1.111 1.142 20.635 23.892
Σύνολο 49 27.802 0.541 0.541 27.031 28.573

Το ̂ i / n i λέγεται εσωτερικό τυπικό σφάλμα (standard error, internal), ενώ το ̂ / n i


λέγεται συνολικό τυπικό σφάλμα (standard error, pooled).

Ορισμός 1
Η σχέση L = c1μ1  ckμk, όταν c1  ck = 0 λέγεται γραμμική αντίθεση (linear
contrast), οι c1, ... , ck είναι σταθερές.

Ορισμός 2
Δύο γραμμικές αντιθέσεις L1 = c1μ1 ... ckμk και L2 = d1μ1 ... dkμk λέγονται
ορθογώνιες, όταν ισχύει
c1d1/n1  … ckdk/nk = 0 (1.21)

Οι μ1 μ3, μ1 2μ2 μ3 είναι γραμμικές αντιθέσεις και αν n1 = n3 θα είναι και


ορθογώνιες, διότι (c1, c2, c3) = (1, 0, 1) και (d1, d2, d3) = (1, 2, 1). Η καλύτερη
αμερόληπτη εκτιμήτρια (Θεώρημα Gauss-Markov) της γραμμικής αντίθεσης
L = c1μ1 ... ckμk είναι L̂  c1 Y1.    c k Yk . με κατανομή

 k

L̂  N L,  2  c i2 / n i 
 i 1 
(1.22)
Το 100(1α)% διάστημα εμπιστοσύνης για το L είναι
L̂  t n k; / 2 
ˆ c12 / n 1    c 2k / n k (1.23)

20
1.3 Ισοδυναμία ανάλυσης διασποράς και παλινδρόμησης

Ας θεωρήσουμε πάλι ότι έχουμε όπως στην προηγούμενη παράγραφο, ένα


παράγοντα με k στάθμες, ή k διαφορετικές ομάδες που δέχονται την ίδια μεταχείριση
κ.λ.π. Χρησιμοποιώντας τότε τις βωβές μεταβλητές μπορούμε αντί να κάνουμε ανάλυση
δια-σποράς να κάνουμε παλινδρόμηση, η οποία θα δείξουμε ότι οδηγεί στα ίδια
συμπεράσματα.
Πράγματι, έστω οι μεταβλητές x 1 , x 2 , …, x k που ορίζονται από τις σχέσεις :
1,   ή ί

xi    ά (ή ά) i (1.24)
0, ύ

όταν i = 1, 2, …, k. Προσαρμόζουμε τότε στα δεδομένα μας το μοντέλο :
Yi j   0  1 x 1   2 x 2     k x k   i j
(1.25)
Οι συντελεστές παλινδρόμησης στο νέο μοντέλο, συνδέονται με τις παραμέτρους
 i και μ του μοντέλου (1.1) και μάλιστα είναι εύκολο να δούμε ότι :
   i   0  i για i = 1, 2, …, k.
Το μοντέλο (1.25) γράφεται με χρήση πινάκων ως :
Y  X   (1.26)
όπου :
 Y11  1 1 0 0  0  11 
Y  1
 12   1 0 0  0  
 12 
          
     0   
 Y1 n 1  1 0 0  0  
1  1 n 1 
 Y2 1  1 0 1 0  0  1  21 
 ,      2  ,  
Y   0 1 0  0 ,
X  
1   
 
Y         
 2 n2     2 n2 
1 0 1 0  0  k 
     
Y  1 0 0 0  1  
 k1     k1 
   1 0 0 0  1
    
        
Yk n k  1  k n k 
0 0 0  1
Έχουμε τότε :
n n1 n2  nk   Y. . 
n n1 0  0  Y 
X X  n X ' Y   
1 1.
'
0 n2  0  και
2 Y2 .
   
       
n k 0 0  n k  Yk . 

21
Ο πίνακας X ' X δεν έχει αντίστροφο γιατί το άθροισμα όλων των γραμμών του,
εκτός της πρώτης, ισούται με την πρώτη γραμμή. Έτσι το σύστημα των κανονικών
εξισώσεων, που στην περίπτωσή μας γράφεται :
(X ' X)  X ' Y (1.27)
δεν μπορεί να λυθεί. Αυτό εξάλλου ήταν αναμενόμενο και από το γεγονός ότι ο πίνακας
Χ έχει ισχυρή πολυσυγγραμμικότητα, αφού από τον ορισμό προκύπτει :
x1  x 2    x k  1
Οι σχέσεις (1.27) γράφονται :
n 0  n 11  n 2 2    n k  k  Y. .
n 1 0  n 11  Y1.
n 2 0 + n 2 2  Y2 . (1.28)
…………………………………….
n k0  n k  k  Yk .
Ένας τρόπος να ξεπεράσουμε το αδιέξοδο είναι να υποθέσουμε ότι οι παράμετροι i ,
ικανοποιούν και κάποια άλλη σχέση. Έτσι υποθέτουμε ότι ικανοποιείται η σχέση :
n 11  n 2 2    n k  k  0 (1.29)
που είναι ανάλογη με την (1.7). Τότε η πρώτη από τις σχέσεις (1.28) δίνει :
Y
ˆ 0  . .  Y
n
ενώ οι υπόλοιπες δίνουν :
Y
ˆ i  i .  Y  Yi .  Y
ni
ώστε : ̂  ( Y , Yi .  Y , …, Yk .  Y )΄.
Το άθροισμα τετραγώνων SSR που θα οφείλεται στην παλινδρόμηση, θα είναι
τώρα :
k
1 ' 1
SSR  ˆ X Y  (Y 1) 2  YY. .   (Y
' '
i.  Y )Yi .  ( Y. . ) 2
n i 1 n
ή
k
Yi2. Y.2.
SSR    (1.30)
i 1 ni n
Μπορεί να δειχθεί ότι το άθροισμα τετραγώνων SSR μένει αμετάβλητο αν αντί
της σχέσης (1.29) είχαμε υποθέσει κάποια άλλη γραμμική σχέση μεταξύ των
συντελεστών i . Ακόμη θα μπορούσαμε να αντιμετωπίσουμε το πρόβλημα

22
χρησιμοποιώντας γενικευμένους αντίστροφους πίνακες. Πράγματι μπορούμε εύκολα να
διαπιστώσουμε ότι ο πίνακας :
0 
 n 1 (0) 
 1 
A  n 21 
 
 (0)  
 1 
nk 
ικανοποιεί τη σχέση (Χ΄Χ)Α(Χ΄Χ) = Χ΄Χ. Είναι επομένως Α = (Χ΄Χ)  , είναι δηλαδή
ένας γενικευμένος αντίστροφος του Χ΄Χ. Τότε θα είναι :
b̂  (Χ΄Χ)  Χ΄ Y
που δίνει
b̂  (0, Y1 . , …, Yk . )΄

διαφορετικό από το προηγούμενο ̂ . Για τον υπολογισμό όμως του SSR έχουμε :
k
Yi2. Y.2.

' 1 ' 2
SSR  b̂ X ' Y  (Y 1)  
n i 1 n i n
το ίδιο ακριβώς που βρήκαμε στην (1.30).
Παρατηρούμε τώρα ότι το ίδιο άθροισμα τετραγώνων είχαμε βρει και στην
προηγούμενη παράγραφο και το είχαμε συμβολίσει με SSA. Επειδή βεβαίως το συνολικό
άθροισμα τετραγώνων SST, δεν εξαρτάται από τη μέθοδο, προκύπτει ότι οι δύο μέθοδοι
είναι ισοδύναμες.
Μια άλλη προσέγγιση του προβλήματος με παλινδρόμηση, που δεν απαιτεί την
εύρεση γενικευμένων αντιστρόφων είναι η παρακάτω :
Έστω ότι έχουμε το μοντέλο (1.1) δηλαδή ότι Yi j     i   i j . Θέτουμε
i     i , οπότε το μοντέλο γράφεται :
Y  X   (1.31)
όπου Y το διάνυσμα των παρατηρήσεων όπως ορίστηκε στην αρχή της παραγράφου και
Χ, ο πίνακας που προκύπτει από τον προηγούμενο Χ χωρίς την πρώτη στήλη του, δηλαδή
:
1n1 
 1n 2 0 
X (1.32)
0  
 
 1n k 
Τότε
Χ΄Χ = diag ( n1 , n 2 , …, n k )
Χ΄ Y = ( Y1 . , Y2 . , …, Yk . )΄

23
και άρα
̂  (Χ΄Χ) 1 Χ΄ Y = ( Y1 . , Y2 . , …, Yk . )΄
οπότε και
k
Yi2. Y.2.

1 '
SSR  ˆ X ' Y  (Y 1) 2 
'

n i 1 ri n
το ίδιο ακριβώς που βρήκαμε και με τις προηγούμενες μεθόδους.
Ένας ακόμη τρόπος προσέγγισης του προβλήματος με παλινδρόμηση είναι να
χρησιμοποιήσουμε k1 μόνο βωβές μεταβλητές όπως στο παρακάτω παράδειγμα.

Παράδειγμα 1.6
Έστω πάλι το πρόβλημα που διατυπώθηκε στο Παράδειγμα 1.4. Επειδή έχουμε τέσσερα
διαφορετικά υλικά ορίζουμε τρεις διαφορετικές βωβές τ.μ. τις x 1 , x 2 και x 3 , όπου η x 1
είναι 1 αν η παρατήρηση αφορά το υλικό Α και 0 σε κάθε άλλη περίπτωση και ανάλογα
ορίζονται οι x 2 , x 3 . Τα δεδομένα του Πίνακα 1.5 μπορούν τώρα να γραφούν, όπως στον
Πίνακα 1.11.

Πίνακας 1.11
Αντοχή δοκιμίων με χρήση βωβών μεταβλητών

x1 x2 x3 Y x1 x2 x3 Y
1 0 0 1.700 0 0 1 1.735
1 0 0 1.505 0 0 1 1.925
1 0 0 1.800 0 0 1 1.815
0 1 0 1.725 0 0 1 1.890
0 1 0 1.825 0 0 0 2.025
0 1 0 1.660 0 0 0 2.075
0 1 0 1.640 0 0 0 2.110
0 0 0 1.970

Για τα δεδομένα του Πίνακα 1.11 θεωρούμε το μοντέλο


Y   0  1 x 1   2 x 2   3 x 3   (1.33)
που είναι ισοδύναμο με τη σχέση
Y  X   ,
όπου : Υ = (1.700, 1.505, 1.800, 1.725, …, 1.970)΄ και για τον πίνακα Χ έχουμε :
15 3 4 4  Y. .  27.400
3 3 0 0 Y   5.005 
Χ΄Χ =  , Χ΄ Y =  1.    
4 0 4 0 Y2 .   6.850 
     
4 0 0 4  Y3 .   7.365 
Θα είναι επομένως:
24
 3  3  3  3 27.400  2.04500 
 3   5.005   0.37667 
1  3 7 3
̂  (Χ΄Χ) Χ΄ Y 
1
· =
12  3 3 6 3   6.850    0.33250 
     
 3 3 3 6   7.365    0.20375
οπότε το μοντέλο πρόβλεψης γράφεται :
Ŷ  2.0450  0.37667x1  0.33250x 2  0.20375x 3
Αντικαθιστώντας τις τιμές των x i βρίσκουμε ότι :
Ŷ  1.66833, για το υλικό Α
Ŷ  1.71250, για το υλικό Β
Ŷ  1.84125, για το υλικό Γ (1.34)
Ŷ  2.04500, για το υλικό Δ
Η μηδενική υπόθεση, ότι δηλαδή τα τέσσερα υλικά δεν έχουν διαφορά είναι η
H 0 : 1   2   3  0 , η οποία απορρίπτεται αφού
ˆ' ' 1 2
  (X Y)  Y. .  / 3
SSR / 3  15   0.31887 / 3  11.887
F 
SSE / 11  
Y ' Y  ˆ ' (X ' Y) / 11 0.09836 / 11
Παρατηρούμε ότι ο λόγος F, είναι πάλι ο ίδιος με αυτόν που βρήκαμε στις
προηγούμενες ισοδύναμες λύσεις του προβλήματος.
Τέλος αφαιρώντας τη μέση τιμή ˆ  Y. .  1.82667 από τις (1.34) βρίσκουμε πάλι
τις κύριες επιδράσεις ̂ i που είχαμε βρει στο προηγούμενο παράδειγμα.
Συνοψίζοντας τα συμπεράσματα, σχηματίζουμε τον Πίνακα 1.12, τον οποίο
πήρα-με με τον Η.Υ., προσαρμόζοντας το μοντέλο (1.33) στα δεδομένα του Πίνακα 1.11.

Πίνακας 1.12

Analysis of variance
DF Sum of Squares Mean Square
Regression 3 .31887 .10629
Residual 11 .09836 .00894

F = 11,88690 Signif F = .0009 R Square = .76426


Variables in the Equation
Variable B SE B Beta T Sig T
x3 -.20375 .06686 -.54024 -3.047 .0111
x1 -.37667 .07222 -.90339 -5,215 .0003
x2 -.33250 .06686 -.88162 -4,973 .0004
(Constant) 2.04500 .04728 43,252 .0000

25
Σημείωση 1. Στη στήλη Beta αναγράφονται οι τυποποιημένες τιμές των i έστω Beta i
που συνδέονται με τα i με τη σχέση :
S xi
Beta i  ̂ i
SY
όπου S x i SY , οι τυπικές αποκλίσεις των x i και Υ αντίστοιχα. Τα Beta i είναι συντελεστές
x i  E(x i )
των τυποποιημένων μεταβλητών στο μοντέλο :
Sxi

Y  E(Y)  x  E( x 1 )   
 Beta 1  1     Beta k  x k  E( x k )   e i
SY  S x1   Sxk 
   

Σημείωση 2. Αν στο Παράδειγμα 1.6 αντί των βωβών μεταβλητών x 1 , x 2 , x 3 είχαμε


χρησιμοποιήσει κάποιο άλλο σύνολο τριών μεταβλητών, τότε ενδεχόμενα το μοντέλο
πρόβλεψης θα ήταν διαφορετικό. Οι σχέσεις όμως (1.34), που δίνουν την πρόβλεψη για
κάθε διαφορετικό υλικό, θα ήταν οι ίδιες.
Αντίθετα, αν είχαμε θεωρήσει το μοντέλο Y   0  1 x   , όπου η μεταβλητή x
να παίρνει τις τιμές 1, 2, 3 ή 4, τότε οι προβλέψεις για τα διάφορα υλικά θα ήταν
διαφορετικές. Το τελευταίο μοντέλο μπορεί να εφαρμοστεί σε ποιοτικές μεταβλητές μόνο
αν η κατηγοριοποίηση δείχνει διάταξη π.χ. από το χειρότερο προς το καλύτερο.

1.4 Πολλαπλές συγκρίσεις

Η ανάλυση διασποράς είναι μια μέθοδος που με τη βοήθειά της αποφασίζουμε αν


θα δεχθούμε ή θα απορρίψουμε την υπόθεση η H 0 : 1   2     k , k > 2. Αν η H 0
απορριφθεί σημαίνει ότι υπάρχει ένα τουλάχιστο μi διάφορο από τα άλλα, δεν έχουμε
όμως καμιά πληροφορία για το ποιο ή ποια από τα μi είναι διαφορετικά. Απάντηση σε
αυτό το ερώτημα μπορεί να μας δώσει ένα πλήθος μεθόδων που ονομάζονται πολλαπλές
συγκρίσεις. Οι μέθοδοι των πολλαπλών συγκρίσεων είναι πολλές. Παρακάτω θα
παρουσιάσουμε τα κριτήρια που συναντάμε συχνότερα στη βιβλιογραφία,
υπενθυμίζοντας ότι αυτά εφαρμόζονται μόνον εφόσον έχει απορριφθεί η H 0 : 1 
 2     k , στην ανάλυση διασποράς.

26
1.4.1 Κριτήριο ελάχιστης σημαντικής διαφοράς, του Fisher (L.S.D.)

Εφαρμόζεται για συγκρίσεις ανά δύο.


H 0 : i   j  0
H1 :  i   j  0
Η αρχική υπόθεση H 0 απορρίπτεται σε σ.σ. α αν :

1 1
| Yi .  Yj . |  t  / 2 s  
ni n j

όπου : Yi . , Yj . είναι οι μέσες τιμές των δειγμάτων i και j, n i , n j είναι τα μεγέθη των

δειγμάτων i και j, s 2 είναι η διασπορά μέσα στα δείγματα ( s 2  ˆ 2 ) και t  / 2 η τιμή της
t-κατανομής για β.ε. όσοι είναι οι β.ε. (nk) του s 2 και σε σ.σ. α/2. (Υπολογίζεται από
πίνακες. Το 100(1α)% δ.ε. για τη διαφορά  i   j είναι :

1 1
(Yi .  Yj .  t  / 2 s 2 (  ))
ni n j

Παράδειγμα 1.7
Για την παραγωγή ορισμένων χρωμάτων, χρησιμοποιείται υδροχλωρικό οξύ (HCL). Έξι
διαφορετικά διαλύματα HCL χρησιμοποιήθηκαν για την παραγωγή ενός ειδικού
χρώματος. Για κάθε διάλυμα έγιναν πέντε μετρήσεις και τα αποτελέσματα (σε gr
χρώματος) ήταν :
Διάλυμα : 1 2 3 4 5 6
Δειγματικοί μέσοι : 505 528 564 498 600 470
Δίνεται επίσης και ο

Πίνακας ανάλυσης διασποράς

Πηγή Άθροισμα Μέση


μεταβολής τετραγώνων Β.ε. μεταβολή F
Μεταξύ δειγμάτων SSA = 56360 5 MSA = 11272 F = 4.6
Μέσα στα δείγματα SSE = 58824 24 MSE = 2451
Ολική SST = 115184 29

Σε σ.σ. α = 0.05 και με τη μέθοδο L.S.D. να γίνουν όλες οι συγκρίσεις ανά δύο.
Απάντηση
Παρατηρούμε ότι F = 4.6 > F5, 24 ; 0.05 = 2.62, άρα η υπόθεση η H 0 : 1   2     6
απορρίπτεται. Στη συνέχεια ελέγχουμε τις υποθέσεις :

27
H 0 : i   j  0
H1 :  i   j  0

1 1
Υπολογίζουμε την ποσότητα L.S.D. = t  / 2 s 2 (  )
ni n j

2
Οι β.ε. του t  / 2 είναι 24, έτσι t 0.025  2.064 και τελικά L.S.D. = 2.064 2451( )  64.63
5
Διατάσσουμε τους δειγματικούς μέσους από τον μικρότερο στον μεγαλύτερο και
σχηματίζουμε τις διαφορές του μικρότερου από όλους τους μέσους, κατόπιν
σχηματίζουμε τις διαφορές του δεύτερου κατά σειρά μεγέθους από όλους τους μέσους
κ.ο.κ.
α/α δείγματος 6 4 1 2 3 5
Μέση τιμή 470 498 505 528 564 600
| Y6 .  Y5 . |  |470  600| = 130 > LSD = 64.63
| Y6 .  Y3 . |  |470  564| = 94 > LSD
| Y6 .  Y2 . |  |470  528| = 58 < LSD σταματάμε

(Επειδή οι δειγματικοί μέσοι είναι διατεταγμένοι, δεν παίρνουμε τις διαφορές


| Y6 .  Y1. | , | Y6 .  Y4 . | γιατί θα είναι προφανώς μικρότερες από τη διαφορά | Y6 .  Y2 . |
, συνεπώς μικρότερες από τον αριθμό LSD).
| Y4 .  Y5 . |  |498  600| = 102 > LSD
| Y4 .  Y3 . |  |498  564| = 66 > LSD
| Y4 .  Y2 . |  |498  528| = 30 < LSD σταματάμε

| Y1.  Y5 . |  |505  600| = 95 > LSD


| Y1.  Y3 . |  |505  564| = 59 < LSD σταματάμε

| Y2 .  Y5 . |  |528  600| = 72 > LSD


| Y2 .  Y3 . |  |528  564| = 36 < LSD σταματάμε

| Y3 .  Y5 . |  |564  600| = 36 < LSD σταματάμε

Συνοψίζουμε τα αποτελέσματα στο παρακάτω σχήμα :

28
Σχήμα 1.3

δείγματα : 6 4 1 2 3 5

Για τα δείγματα που είναι υπογραμμισμένα σημαίνει ότι ισχύει :


| Yi .  Yj . |  LSD
δηλαδή σημαίνει ότι δεν έχουν σημαντική διαφορά. Έτσι τα μόνα δείγματα που φαίνεται
στο Σχήμα 1.3 ότι έχουν σημαντική διαφορά (σύμφωνα με το κριτήριο LSD) είναι : τα
δείγματα 6, 4, 1 και 2 δίνουν μέση τιμή σημαντικά μικρότερη από τη μέση τιμή του
δείγματος 5. Και τα δείγματα 6 και 4 δίνουν μέση τιμή σημαντικά μικρότερη από τη μέση
τιμή του δείγματος 3.

1.4.2 Μέθοδος T (Tukey)

Το κριτήριο LSD του Fisher, αν και κοπιαστικό, είναι σχετικά απλό στην
εφαρμογή του. Έχει όμως ένα σημαντικό μειονέκτημα. Η πιθανότητα να κάνουμε λάθος
σε ένα τουλάχιστον ζευγάρι είναι σημαντική.
Η μέθοδος T (Tukey) εφαρμόστηκε στην αρχή για ισομεγέθη δείγματα και για
διαφορές μέσων τιμών ανά δύο, μετά όμως επεκτάθηκε σε ανισομεγέθη δείγματα και για
γραμμικές αντιθέσεις.
Αν X1, …, Xr είναι ανεξάρτητες τ.μ. με κατανομή Ν(μi, σ2), i = 1, …, r και
1) W = maxXi  minXi
2) Έχουμε έναν εκτιμητή s2 του σ2 με υ βαθμούς ελευθερίας ανεξάρτητο του W, ώστε
υs2/σ2   2 ,
τότε ο λόγος q(r, υ) = W/s λέγεται τυποποιημένο εύρος (studentized range). Η κατανομή
του q(r, υ) έχει μελετηθεί και υπάρχουν πίνακες που δίνουν τα σημεία q(r, υ; α) για
διάφορες τιμές των r, υ και α, π.χ. q(5, 10; 0.95) = 4.65 δηλαδή Ρ(q(5, 10) < 4.65) = 0.95.

Εφαρμογή στην Ανάλυση διασποράς, ισομεγέθη δείγματα


Έχουμε τις τ.μ. Y1. ,  , Yk . που είναι ανεξάρτητες με κατανομή Ν(μi, σ2/m) και s2 είναι
ένας εκτιμητής του σ2 ανεξάρτητος από τα Yi . , με (nk)s2 /σ2   2n k , m = n1 = … = nk.
Από τον ορισμό του q(r, υ) προκύπτει ότι :

29
Πρόταση 1
Η πιθανότητα είναι 1α, να ισχύουν συγχρόνως οι k(k1)/2 σχέσεις
Yi .  Yj .  T  s   i   j  Yi .  Yj .  T  s (1.35)

όπου Τ = q(k, nk; 1α) / m .

Παρατηρούμε ότι αν ενδιαφερόμαστε μόνο για το 100(1α)% διάστημα


εμιστοσύνης της διαφοράς  i   j χρησιμοποιούμε τη σχέση (1.19), δηλαδή θα πρέπει

να αντικαταστήσουμε στη σχέση (1.35) το q(k, nk; 1α) με 2t n  k , 1-/2 . Το διάστημα


που προκύπτει είναι μικρότερο από το παραπάνω. Δηλαδή ισχύει q(k, nk; 1α) >
2t n  k , 1-/2 , π.χ. q(5, 10; 0.95) = 4.65 > 2t 10, 0.975 = (1.141)2.228 = 3.15.
Με τη μέθοδο Tukey για ισομεγέθη δείγματα, που λέγεται και HSD (honestly
significant difference), κατατάσσουμε τους εκτιμημένους μέσους Yi . κατά αύξουσα
σειρά μεγέθους και εξετάζουμε αν
| Yi .  Yj . | < Wk = q(k, nk; α)s / m
Όσες διαφορές ικανοποιούν τη σχέση αυτή, τότε οι αντίστοιχοι μέσοι είναι ίσοι (ανήκουν
στην ίδια ομάδα), αλλιώς είναι άνισοι. Έτσι οι μέσοι χωρίζονται σε ομάδες. Η πιθανότητα
να κάνουμε μια ή περισσότερες λαθεμένες εκτιμήσεις είναι α.

Παράδειγμα 1.8
Δίσκοι από μείγμα χαλκού με άλλο μέταλλο τοποθετήθηκαν σε θειικό οξύ για να
μελετηθεί το βάρος που χάνεται από τη διάβρωση. Το μείγμα είναι χαλκός με άργυρο ή
χαλκός με πυρίτιο. Έγιναν δέκα μετρήσεις για κάθε μείγμα, με τα παρακάτω
αποτελέσματα. Yi j δίνει το χάσιμο βάρους σε mg/dm2 ανά ημέρα.

1 2 3 4 5
Καθαρό Άργυρος Πυρίτιο Άργυρος Πυρίτιο
.35% .25% .87% .50%
Yi . 31.80 30.13 30.10 32.58 31.83
s i2 1.181 2.085 5.008 1.170 1.640
ni 10 10 10 10 10

Η κατάταξη των μέσων βαρών δίνει :


Y3 . = 30.10, Y2 . = 30.13, Y1. = 31.80, Y5 . = 31.83, Y4 . = 32.58
Από την (1.17) υπολογίζουμε το
s2 = SSE/45 = (SSE1 … SSE5)/45
s2 = ( s12    s 52 )/5 = 11.084/5 = 2.2168

30
Από τους πίνακες παίρνουμε :
q(5, 45; 0.95) = 4.02 και W5 = 4.02 2.2168 / 10 = 1.89.
32.5830.10 = 2.48 > 1.89, επομένως όλοι οι μέσοι δεν είναι ίσοι.
32.5830.13 = 2.45 > 1.89, ούτε οι τέσσερις μεγαλύτεροι είναι ίσοι.
32.5831.80 = 0.78 < 1.89, οι τρεις μεγαλύτεροι μέσοι ανήκουν στην ίδια ομάδα
(θεωρούνται ίσοι).
31.8331.80 = 1.73 < 1.89, οι τέσσερις μικρότεροι μέσοι είναι στην ίδια ομάδα.

i: 3 2 1 5 4
Yi . 30.10 30.13 31.80 31.83 32.58

Συμπεραίνουμε ότι, οι τρεις μεγαλύτεροι μέσοι θεωρούνται ίσοι και μεγαλύτεροι από
τους δύο μικρότερους που θεωρούνται ίσοι. Επίσης συμπεραίνουμε ότι οι τέσσερις
μικρότεροι μέσοι θεωρούνται ίσοι και μικρότεροι από το μεγαλύτερο μέσο. Η πιθανότητα
ότι έχουμε κάνει μια ή περισσότερες λανθασμένες εκτιμήσεις είναι 0.05.

Ισομεγέθη δείγματα, Τ-μέθοδος σε γραμμικές αντιθέσεις


Η μέθοδος Tukey (Τ-μέθοδος) εφαρμόζεται σε ταυτόχρονα διαστήματα
εμπιστοσύνης για γραμμικές αντιθέσεις, εκτός από τις διαφορές των μέσων που
εξετάσαμε παραπάνω.

Πρόταση 2
Η πιθανότητα είναι τουλάχιστον 1α, να ισχύουν συγχρόνως οι σχέσεις
 k | c j |   k | c j | 
 j1   j1 
L̂  Ts    L  L̂  Ts   (1.36)
 2   2
   
όπου m το μέγεθος κάθε δείγματος, T = q(k, nk; 1α)/ m και L = c1μ1 ... ckμk, c1
... ck = 0.
Στο προηγούμενο παράδειγμα, η Τ-μέθοδος δίνει για τις γραμμικές αντιθέσεις,
L1 = μ1μ22μ3μ4μ5, L2 = μ12μ2μ3μ4μ5,
L3 = μ1μ2μ32μ4μ5, L4 = 2μ1μ2μ3μ4μ5,
L5 = μ1μ2μ3μ42μ5,
τα ταυτόχρονα διαστήματα εμπιστοσύνης
L̂ i  3Ts  Li  L̂ i  3Ts (1.37)
διότι |c1|  |c2|  |c3|  |c4|  |c5| = 6. L̂ i  c1 Y1.  …  c 5 Y5 . . Εδώ έχουμε

31
Τ = q(5, 45; 0.95)/ 10 = 4.02/3.16 = 1.27, s = 2.618 = 1.472, 3Ts = 3(1.27)(1.472) =
5.608 και τα ταυτόχρονα διαστήματα εμπιστοσύνης είναι :
L̂1  3Ts = 0.98  5.608 = (4.628, 6.588)
L̂ 2  3Ts = 5.85  5.608 = ( 0.242, 11.458)
L̂ 3  3Ts = 1.53  5.608 = (7.138, 4.078)
L̂ 4  3Ts = 0.78  5.608 = (6.388, 4.828)
L̂ 5  3Ts = 2.65  5.608 = (2.958, 8.258)
Αν δεν ενδιαφερόμαστε για ταυτόχρονα διαστήματα εμπιστοσύνης, χρησιμοποιούμε τις


k
j1
|cj |
σχέσεις (1.22), δηλαδή αντικαθιστούμε το q(k, nk; 1α) με το tnk; 1α/2 και το
2
= 3 με το c12    c 52 = 8 = 2.828. Στην περίπτωσή μας είναι q(5, 45; 0.95) = 4.02 >
t45; 0.975 = 2.02 και τα 95% διαστήματα εμπιστοσύνης (όχι ταυτόχρονα) είναι
L̂ i  (2.02)(1.472)(2.828) / 10 = L̂ i  2.659
που έχουν λιγότερο από το μισό μήκος από τα προηγούμενα αλλά η πιθανότητα να
κάνουμε μια ή περισσότερες λαθεμένες εκτιμήσεις είναι μεγαλύτερη από 0.05 (περίπου
1(0.95)5 = .226).

Τ-μέθοδος για ανισομεγέθη δείγματα


Όταν όλα τα δείγματα δεν έχουν το ίδιο μέγεθος και συγκρίνουμε όλους τους
μέσους ανά δύο, πάλι εφαρμόζεται η Τ-μέθοδος που λέγεται και μέθοδος Tukey-Kramer.
Τα ταυτόχρονα διαστήματα εμπιστοσύνης δίνονται από τις σχέσεις
D̂  Ts (D̂) (1.38)
όπου
D̂  Yi .  Yj .

s 2 ( D̂) = s2(1/ni1/nj)

T = q(k, nk; 1α)s / 2


Ανάλογα ενεργούμε και για γραμμικές αντιθέσεις. Στο Παράδειγμα 1.5 έχουμε
S2 = 14.352, T = q(5, 44; 0.95) / 2 = 3.60/1.41 = 2.546
YA .  YB .  (2.546) 14.352(1 / 7  1 / 9) = 0.83  4.86

YA .  Y .  (2.546) 14.352(1 / 7  1 / 10) = 0.46  4.75

YA .  Y .  (2.546) 14.352(1 / 7  1 / 12) = 2.98  4.58

YA .  Y .  (2.546) 14.352(1 / 7  1 / 11) = 6.28  4.66

32
YB .  Y .  (2.546) 14.352(1 / 9  1 / 10) = 1.29  4.43

YB .  Y .  (2.546) 14.352(1 / 9  1 / 12) = 3.81  4.25

YB .  YE .  (2.546) 14.352(1 / 9  1 / 11) = 5.447  4.33

Y .  Y .  (2.546) 14.352(1 / 10  1 / 12) = 2.52  4.13

Y .  YE .  (2.546) 14.352(1 / 10  1 / 11) = 6.74  4.21

Y .  YE .  (2.546) 14.352(1 / 12  1 / 11) = 9.253  4.11


Όταν το διάστημα περιέχει το 0 οι αντίστοιχοι μέσοι είναι ίσοι, έτσι οι μέσοι χωρίζονται
σε 2 ομάδες, η δίαιτα Ε έχει το μικρότερο βάρος ενώ οι άλλες θεωρούνται ισοδύναμες.

i: Δ Γ Α Β Ε
Yi . 31.517 29.000 28.543 27.711 22.264

1.4.3 Μέθοδος Newman-Keuls

Σε αντίθεση με την T-μέθοδο που όλα τα διαστήματα εμπιστοσύνης για τις


διαφορές δύο μέσων έχουν το ίδιο μήκος, σε αυτή τη μέθοδο υπολογίζουμε σε κάθε
σύγκριση την τιμή q(r, nk; 1α), όπου r είναι το πλήθος των μέσων μεταξύ αυτών που
συγκρίνουμε. Η διαδικασία που ακολουθούμε, για να κατατάξουμε σε ομάδες τους
μέσους  i είναι :
1. Τοποθετούμε τα Yi . κατά αύξουσα (ή φθίνουσα) σειρά μεγέθους, Y(1.) , …, Y(  .) .

2. Υπολογίζουμε το : Wk = q(k, nk; 1α)s / m.


3. Εξετάζουμε αν ισχύει η σχέση :
Y(  .)  Y(1.)  W ,
οπότε δεχόμαστε ότι όλοι οι μέσοι είναι ίσοι.
4. Αν δεν ισχύει, υπολογίζουμε το Wk1 = q(k1, nk; 1α)s / m.
5. Εξετάζουμε αν
Y( 1.)  Y(1.)  W1 ,
οπότε οι μέσοι χωρίζονται σε δύο ομάδες με ένα μέσο μεγαλύτερο από όλους τους
άλλους. Επίσης εξετάζουμε αν
Y(  .)  Y( 2 .)  W1 ,
οπότε πάλι οι μέσοι χωρίζονται σε δύο ομάδες με ένα μέσο μεγαλύτερο από όλους
τους άλλους.

33
6. Αν δεν ισχύει καμία από τις σχέσεις αυτές υπολογίζουμε το : Wk2 = q(k2, nk;
1α)s / m και συνεχίζουμε χωρίζοντας τους μέσους σε τρεις ομάδες κ.λ.π.
Έτσι κατατάσσουμε τους μέσους ανά ομάδες. Οι μέσοι που περιέχονται σε μια ομάδα
θεωρούνται ίσοι. Η πιθανότητα να είναι σωστές όλες οι ομαδοποιήσεις που κάναμε είναι
1α.

Παράδειγμα 1.9
Εφαρμόζουμε τη μέθοδο αυτή στο Παράδειγμα 1.8. Η κατάταξη των μέσων βαρών δίνει:
Y3 . = 30.10, Y2 . = 30.13, Y1 . = 31.80. Y5 . = 31.83, Y4 . = 32.58
Από την (1.17) υπολογίζουμε το
s2 = SSE/45 = (SSE1 … SSE5)/45
s2 = ( s12    s 52 )/5 = 11.084/5 = 2.2168
Από τους πίνακες παίρνουμε
q(5, 45; 0.95) = 4.02 και W5 = 4.02 2.2168 / 10 = 1.89,
όμοια βρίσκουμε W4 = 1.78, W3 = 1.62, W2 = 1.34.
Y4 .  Y3 . = 32.5830.10 = 2.48 > W5 = 1.89
Επομένως όλοι οι μέσοι δεν είναι ίσοι.
Y5 .  Y3 . = 31.8330.10 = 1.73 < W4 = 1.78
Άρα οι τέσσερις μικρότεροι μέσοι θεωρούνται ίσοι και μικρότεροι του μεγαλύτερου
μέσου.
Y4 .  Y2 . = 32.5830.13 = 2.45 > W4 = 1.78
Δηλαδή οι τέσσερις μεγαλύτεροι μέσοι δεν είναι στην ίδια ομάδα.
Y4 .  Y1 . = 32.5831.80 = 0.78 < W3 = 1.62
Επομένως η μέθοδος Newman-Keuls δίνει τις ομάδες :
(30.10, 30.13), (31.80, 31.83, 32.58) ή τις ομάδες :
(30.10, 30.13, 31.80, 31.83), (32.58)
Η μέθοδος Tukey μας έδωσε επίσης τον ίδιο διαχωρισμό σε ομάδες, αυτό όμως δεν
συμβαίνει πάντα. Η πιθανότητα να είναι σωστός ο παραπάνω διαχωρισμός είναι 0.95.

Αντί να χωρίσουμε σε ομάδες τους μέσους, μια ισοδύναμη διαδικασία είναι να


βρούμε τα 100(1α)% διαστήματα εμπιστοσύνης για τις διαφορές των μέσων ανά δύο
και αν ένα διάστημα περιέχει το 0 οι μέσοι είναι στην ίδια ομάδα, αλλιώς είναι σε
διαφορετικές ομάδες. Για παράδειγμα παίρνουμε τα διαστήματα
2.451.78 = (0.67, 4.23) για τη διαφορά μ4μ2
1.731.78 = (0.05, 3.51) για τη διαφορά μ5μ3

34
Όμοια βρίσκουμε και τα υπόλοιπα διαστήματα των διαφορών δύο μέσων. Η
πιθανότητα να περιέχονται όλες οι διαφορές δύο μέσων στα αντίστοιχα διαστήματα είναι
0.95, γι’ αυτό τα λέμε ταυτόχρονα διαστήματα εμπιστοσύνης. Βέβαια, τα διαστήματα
εμπιστοσύνης που δίνει η μέθοδος Newman-Keuls είναι μικρότερα από τα αντίστοιχα
της μεθόδου Tukey.
Η μέθοδος αυτή μπορεί να επεκταθεί και σε άλλες γραμμικές αντιθέσεις και
επίσης σε περιπτώσεις που τα ni δεν είναι ίσα όπως έγινε στη μέθοδο Tukey.

1.4.4 Μέθοδος του Duncan

Μια διαδικασία που χρησιμοποιείται συχνά για τη σύγκριση όλων των ζευγών
των μέσων είναι το test πολλαπλών συγκρίσεων, που αναπτύχθηκε από τον Duncan
(1955).
Για να εφαρμόσουμε το test του Duncan σε δείγματα με ίδιο μέγεθος m,
διατάσσουμε τους δειγματικούς μέσους σε αύξουσα σειρά και υπολογίζουμε το τυπικό
σφάλμα κάθε μέσου :
MSE s2
s Yi .   
m m
Για δείγματα με διαφορετικά μεγέθη αντικαθιστούμε στην προηγούμενη εξίσωση το
m με τον αρμονικό μέσο m h των {n i } , όπου :
k
mh  k
1
n
i 1 i

Σημειώνουμε ότι αν n1  n 2   n k  m , τότε m h  m


Από τον πίνακα του Duncan, βρίσκουμε τις τιμές :
r (p, ) , p = 2, 3, …, k
όπου α είναι η σ.σ. και ν οι βαθμοί ελευθερίας για το σφάλμα (ν = nk).
Στη συνέχεια υπολογίζουμε τις ποσότητες :
R p  r (p, )  s Yi . , p = 2, 3, …, k

Έτσι ελέγχονται οι παρατηρούμενες διαφορές μεταξύ των μέσων, ξεκινώντας από


τη μεγαλύτερη ενάντια στη μικρότερη, η οποία συγκρίνεται με το ελάχιστο σημαντικό
εύρος (least significant range) RK.
Στη συνέχεια υπολογίζουμε τη διαφορά της μεγαλύτερης από τη δεύτερη μικρότερη,
η οποία συγκρίνεται με το ελάχιστο σημαντικό εύρος Rk-1. Αυτές οι συγκρίσεις
συνεχίζονται μέχρις ότου όλοι οι μέσοι να έχουν συγκριθεί με τον μεγαλύτερο μέσο.

35
Στη συνέχεια υπολογίζεται η διαφορά του δεύτερου μεγαλύτερου μέσου και του
μικρότερου, η οποία συγκρίνεται με την τιμή Rk-1. Η διαδικασία αυτή συνεχίζεται μέχρις
ότου εξαντληθούν οι διαφορές όλων των δυνατών k(k1)/2 ζευγών των μέσων.
Αν μια παρατηρούμενη διαφορά i είναι μεγαλύτερη από το αντίστοιχο ελάχιστο
σημαντικό εύρος Ri, τότε συμπεραίνουμε ότι αυτό το ζεύγος των μέσων διαφέρει
σημαντικά.
Για να αποφύγουμε τις αντιφάσεις, οι διαφορές μεταξύ ενός ζεύγους μέσων δεν θα
θεωρούνται σημαντικές, αν οι δύο μέσοι συμφωνούν (είναι κοντά) με δύο άλλους μέσους,
που δεν διαφέρουν σημαντικά.

Παράδειγμα 1.10
Για την παραγωγή συνθετικών ενδυμάτων χρησιμοποιούνται διάφορα ποσοστά
βαμβακιού. Πέντε διαφορετικά ποσοστά χρησιμοποιήθηκαν και για κάθε ποσοστό έγιναν
πέντε μετρήσεις. Τα αποτελέσματα είναι :

Ποσοστό Παρατηρούμενη ελαστικότητα


βαμβακιού 1 2 3 4 5
(Α) 15% 7 7 15 11 9
(Β) 20% 12 17 12 18 18
(C) 25% 14 18 18 19 19
(D) 30% 19 25 22 19 23
(E) 35% 7 10 11 15 11

Yi . 49 77 88 108 54
Yi . 9.8 15.4 17.6 21.6 10.8

Y. .  376, Y. .  15.04
Ο πίνακας ανάλυσης διασποράς (ANOVA) για την ελαστικότητα είναι :

Πίνακας ανάλυσης διασποράς


---------------------------------------------------------------------------------
Source Sum of Squares D.f. Mean Square F-Ratio
---------------------------------------------------------------------------------
Between groups 475.76 4 118.94 14.76
Within groups 161.20 20 8.06
---------------------------------------------------------------------------------
Total (Corr.) 636.96 24

Έτσι η υπόθεση H 0 : 1   2   3   4   5 έναντι της H1 : τουλάχιστον ένα από


τα  i είναι διαφορετικό, απορρίπτεται αφού
F = 14.76 > F4, 20 ; 0.05 = 2.87, και ακόμη

36
F = 14.76 > F4, 20 ; 0.01 = 4.43.
Θα εφαρμόσουμε τώρα το κριτήριο ελάχιστης σημαντικής διαφοράς (LSD), για να
ελέγξουμε την υπόθεση :
H 0 :  i   j  0 έναντι της :
H1 :  i   j  0
Η αρχική υπόθεση H 0 απορρίπτεται σε σ.σ. α, δηλαδή οι μέσοι  i ,  j διαφέρουν
σημαντικά, αν
1 1
| Yi .  Yj . |  t  s 
n k ; ni n j
2

Η ποσότητα
1 1
LSD = t  s 
n k ; ni n j
2

ονομάζεται ελάχιστη σημαντική διαφορά (least significance difference)


Αν n1  n 2   n k  m , τότε
2
LSD = t  s
n k ; m
2

Για τα δεδομένα του παραπάνω παραδείγματος, σε σ.σ. α = 0.05, βρίσκουμε:


2 2
LSD = t 20 ; 0.025 s   2.086  8.06   3.75
5 5
Διατάσσουμε τους δειγματικούς μέσους σε αύξουσα σειρά
Y1 . Y5 . Y2 . Y3 . Y4 .
9.8 10.8 15.4 17.6 21.6

| Y1.  Y4 . |  | 9.8  21.6 |  11.8* > LSD = 3.75


| Y1.  Y3 . |  | 9.8  17.6 |  7.8* > LSD
| Y1.  Y2 . |  | 9.8  15.4 |  5.6* > LSD
| Y1.  Y5 . |  | 9.8  10.8 |  1.0 < LSD
| Y5 .  Y4 . |  | 10.8  21.6 |  10.8* > LSD
| Y5 .  Y3 . |  | 10.8  17.6 |  6.8* > LSD
| Y5 .  Y2 . |  | 10.8  15.4 |  4.6* > LSD
| Y2 .  Y4 . |  | 15.4  21.6 |  6.2* > LSD
| Y2 .  Y3 . |  | 15.4  17.6 |  2.2 < LSD
| Y3 .  Y4 . |  | 17.6  21.6 |  4.0* > LSD

37
Οι τιμές που σημειώνονται με αστεράκι, σημαίνουν ότι τα ζεύγη των μέσων
διαφέρουν σημαντικά.
Είναι χρησιμότερο να κάνουμε ένα σχήμα, όπως το παρακάτω, υπογραμμίζοντας
τα ζεύγη των μέσων που δεν διαφέρουν σημαντικά.
Y1 . Y5 . Y2 . Y3 . Y4 .
9.8 10.8 15.4 17.6 21.6

Είναι φανερό, ότι τα μόνα ζεύγη μέσων που δεν διαφέρουν σημαντικά είναι τα 1, 5
και 2, 3 και ότι η αγωγή 4, δίνει σημαντικά μεγαλύτερη ελαστικότητα από τις υπόλοιπες.
Στη συνέχεια, θα εφαρμόσουμε τη μέθοδο του Duncan, για να βρούμε τους μέσους
που διαφέρουν. Στην περίπτωση αυτή είναι : MSE = s 2  8.06 , n = 25, m = 5, k = 5, ν
= nk = 255 = 20 βαθμοί ελευθερίας για το σφάλμα. Διατάσσουμε τους δειγματικούς
μέσους σε αύξουσα σειρά.
Y1 . Y5 . Y2 . Y3 . Y4 .
9.8 10.8 15.4 17.6 21.6
Η τυπική απόκλιση κάθε μέσου είναι :
8.06
s Yi .   1.27
5
Από τον πίνακα του Duncan για 20 β.ε. και α = 0.05, βρίσκουμε ότι :
r0.05 (2, 20)  2.95, r0.05 (3, 20)  3.10, r0.05 (4, 20)  3.18, r0.05 (5, 20)  3.25
Υπολογίζουμε τις τιμές :
R 2  r0.05 (2, 20) s Yi .  (2.95)(1.27) = 3.75

R 3  r0.05 (3, 20) s Yi .  (3.10)(1.27) = 3.94


R 4  r0.05 (4, 20) s Yi .  (3.18)(1.27) = 4.04
R 5  r0.05 (5, 20) s Yi .  (3.25)(1.27) = 4.13
Οι συγκρίσεις δίνουν :
4 v.s. 1 : 21.6  9.8 = 11.8 > 4.13 (R5)
4 v.s. 5 : 21.6  10.8 = 10.8 > 4.04 (R4)
4 v.s. 2 : 21.6  15.4 = 6.2 > 3.94 (R3)
4 v.s. 3 : 21.6  17.6 = 4.0 > 3.75 (R2)
3 v.s. 1 : 17.6  9.8 = 7.8 > 4.04 (R4)
3 v.s. 5 : 17.6  10.8 = 6.8 > 3.95 (R3)
3 v.s. 2 : 17.6  15.4 = 2.2 < 3.75 (R2) 
2 v.s. 1 : 15.4  9.8 = 5.6 > 3.94 (R3)
2 v.s. 5 : 15.4  10.8 = 4.6 > 3.75 (R2)

38
5 v.s. 1 : 10.8  9.8 = 1.0 < 3.75 (R2) 

Από τις συγκρίσεις παρατηρούμε ότι υπάρχουν σημαντικές διαφορές όλων των
ζευγών των μέσων εκτός των 3, 2 και 5, 1. Είναι χρησιμότερο να κάνουμε ένα σχήμα,
όπως παρακάτω υπογραμμίζοντας τα ζεύγη των μέσων που δεν διαφέρουν σημαντικά.
Y1 . Y5 . Y2 . Y3 . Y4 .
9.8 10.8 15.4 17.6 21.6

Σημειώνουμε ότι στο παράδειγμα αυτό η μέθοδος του Duncan και η μέθοδος LSD
δίνουν ακριβώς τα ίδια αποτελέσματα.

Παρατήρηση
Η μέθοδος του Duncan απαιτεί, η μεγαλύτερη παρατηρούμενη διαφορά να ανακαλύπτει
ζεύγη μέσων που διαφέρουν σημαντικά, καθώς ο αριθμός των μέσων που
συμπεριλαμβάνεται σε κάθε ομάδα αυξάνει. Στο παραπάνω παράδειγμα είχαμε R2 = 3.75
(δύο μέσοι) ενώ R3 = 3.94 (τρεις μέσοι). Για δύο μέσους η τιμή R2 είναι πάντοτε ίση με
την τιμή LSD από το t-test.
Οι τιμές r (p, ) από τον πίνακα του Duncan διαλέγονται έτσι, ώστε να
πετυχαίνεται η σ.σ. α. Δηλαδή όταν συγκρίνονται δύο μέσοι που απέχουν p βήματα, η
σ.σ. είναι (1  ) p1 , όπου α είναι η σ.σ. που ορίζεται για δύο συνεχόμενους μέσους. Έτσι
το σφάλμα είναι 1  (1  ) p1 , που δείχνει τουλάχιστον μια λανθασμένη σημαντική
διαφορά μεταξύ δύο μέσων, όταν το μέγεθος της ομάδας είναι p.
Για παράδειγμα αν α = 0.05, τότε 1  (1  0.05)1  0.05 είναι η σ.σ. για σύγκριση
συνεχόμενων ζευγών μέσων, 1  (1  0.05) 2  0.10 είναι η σ.σ. για μέσους που απέχουν
ένα βήμα κ.ο.κ.
Γενικά αν η σ.σ. είναι α, τότε οι έλεγχοι για τους μέσους έχουν σ.σ. που είναι 
α. Συνεπώς η διαδικασία του Duncan είναι αρκετά αποδοτική, δηλαδή είναι πολύ
αποδοτικό να ανακαλύπτουμε διαφορές μεταξύ των μέσων, όταν υπάρχουν πραγματικές
διαφορές. Για το λόγο αυτό η μέθοδος του Duncan είναι πολύ διαδεδομένη.

39
1.4.5 S-Μέθοδος (Scheffé)

Η μέθοδος αυτή εφαρμόζεται και στις περιπτώσεις που το πλήθος των


παρατηρήσεων δεν είναι ίδιο σε όλες τις ομάδες. Όταν έχουμε ίδιο πλήθος
παρατηρήσεων, είναι προτιμότερη η μέθοδος Τ διότι δίνει μικρότερα διαστήματα
εμπιστοσύνης. Η S μέθοδος δίνει ταυτόχρονα διαστήματα εμπιστοσύνης με στάθμη α,
για όλες τις γραμμικές αντιθέσεις των μέσων.

Πρόταση 3
Η πιθανότητα είναι 1α, να ισχύουν συγχρόνως οι σχέσεις
L̂  Ss(L̂)  L  L̂  Ss(L̂)
(1.39)


k
όπου S = (k  1)Fk 1, n -k;  , s( L̂) = s i 1
c i2 / n i και L = c1μ1  ...  ckμk,

L̂  c1 Y1.  …  c k Yk . , c1  ...  ck = 0.

Παρατηρούμε ότι τα ταυτόχρονα διαστήματα εμπιστοσύνης διαφέρουν από τα


αντίστοιχα που δίνει η σχέση (1.22) κατά τον συντελεστή S που είναι μεγαλύτερος από
τον tnk; α/2.
Η διαδικασία που ακολουθούμε για να κατατάξουμε σε ομάδες τους μέσους μi με
την S-μέθοδο είναι
1) Τοποθετούμε τα Yi . κατά αύξουσα (ή φθίνουσα) σειρά μεγέθους, Y(1.) , ..., Y( k .)
2) Υπολογίζουμε την ποσότητα
D(i, j) = s (1 / n i  1 / n j )( k  1)Fk 1, n -k; 

3) Αν | Yi .  Yj . | < D(i, j), δεχόμαστε ότι οι μέσοι μi, μj είναι ίσοι (ανήκουν στην ίδια
ομάδα), διαφορετικά είναι άνισοι.
Για να αποφύγουμε πολλές συγκρίσεις παίρνουμε πρώτα τη διαφορά Y( k .)  Y(1.)
καθώς, αν αυτοί είναι ίσοι, όλοι οι μέσοι είναι ίσοι. Αν δεν είναι ίσοι, παίρνουμε τις
διαφορές Y( k 1.)  Y(1.) και Y( k .)  Y( 2 .) και συνεχίζουμε μέχρι να χωρίσουμε όλους τους
μέσους σε ομάδες.
Η εφαρμογή της S-μεθόδου στο Παράδειγμα 1.5 για α = 0.05 δίνει : s2 = 14.352, k
= 5, n = 49 και

Δίαιτα E B A Γ Δ
Yi . 22.264 27.711 28.543 29.000 31.517
ni 11 9 7 10 12

40
D(E, Δ) = 14.352(1 / 11  1 / 12)4(2.60) = 5.099
31.517  22.264 = 9.253 > 5.099
D(Β, Δ) = 14.352(1 / 9  1 / 12)4(2.60) = 5.387
31.517  27.711 = 3.806 < 5.387
D(E, Γ) = 14.352(1 / 11  1 / 10)4(2.60) = 5.338
29.000  22.264 = 7.736 > 5.338
D(E, Α) = 14.352(1 / 11  1 / 7)4(2.60) = 5.907
28.543  22.264 = 6.279 > 5.907
D(E, Β) = 14.352(1 / 11  1 / 9)4(2.60) = 5.491
27.711  22.264 = 5.447 < 5.491
Επομένως οι ομάδες που χωρίστηκαν οι μέσοι είναι :

i: Δ Γ Α Β Ε
Yi . 31.517 29.000 28.543 27.711 22.264

Αν ενδιαφερόμαστε για ταυτόχρονα διαστήματα εμπιστοσύνης που μας δίνει η S-


μέθοδος, τότε από τα παραπάνω παίρνουμε
9.253  5.099 = (4.154, 14.352) για τη διαφορά μΕ μΔ που δεν περιέχει το 0.
3.806  5.387 = (1.581, 9.193) για τη διαφορά μΒ μΔ που περιέχει το 0.
Όμοια βρίσκουμε τα διαστήματα εμπιστοσύνης για τις διαφορές δύο μέσων. Η S-μέθοδος
δίνει 100(1α)% ταυτόχρονα διαστήματα εμπιστοσύνης για οποιαδήποτε γραμμική
αντίθεση όπως δίνεται στην προηγούμενη πρόταση.

1.4.6 Μέθοδος Bonferroni

Αντί να χωρίσουμε σε ομάδες τους μέσους, μια ισοδύναμη διαδικασία είναι να


βρούμε τα 100(1-α)% διαστήματα εμπιστοσύνης για τις διαφορές των μέσων ανά δύο και
αν ένα διάστημα περιέχει το μηδέν οι μέσοι είναι στην ίδια ομάδα, αλλιώς είναι σε
διαφορετικές ομάδες.
Για παράδειγμα, με τη μέθοδο Newman-Keuls παίρνουμε τα διαστήματα :
2.451.78 = (0.67, 4.23) για τη διαφορά μ4μ2
1.731.78 = (0.05, 3.51) για τη διαφορά μ5μ3
Η πιθανότητα να περιέχονται όλες οι διαφορές δύο μέσων στα αντίστοιχα
διαστήματα είναι 1α, γι’ αυτό τα λέμε ταυτόχρονα διαστήματα εμπιστοσύνης. Βέβαια

41
τα διαστήματα εμπιστοσύνης που δίνει η μέθοδος Newman-Keuls είναι μικρότερα από
τα αντίστοιχα της μεθόδου Tukey. Αν θέλουμε η πιθανότητα να είναι 1α για να ισχύουν
και τα g διαστήματα εμπιστοσύνης, που το καθένα μόνο του έχει συντελεστή
εμπιστοσύνης 1β, θα πρέπει : 1α  1gβ, οπότε αρκεί να πάρουμε β = α/g.
Στην περίπτωση που το πλήθος των παρατηρήσεων δεν είναι το ίδιο για όλες τις
ομάδες, η μέθοδος Tukey δεν είναι ακριβής, οπότε η μέθοδος Bonferroni μπορεί να δώσει
μικρότερα ταυτόχρονα διαστήματα εμπιστοσύνης.
Αν έχουμε να συγκρίνουμε ανά δύο k μέσους ή να βρούμε ταυτόχρονα
k
διαστήματα εμπιστοσύνης για k μέσους, τότε g =   = k(k1)/2. Η μέθοδος Bonferroni
2 
είναι προτιμότερη όταν το g είναι μικρό.

1.4.7 Συνολικό σφάλμα για τις πολλαπλές συγκρίσεις

Ένα σημείο που θα πρέπει να προσέξουμε στις μεθόδους των πολλαπλών


συγκρίσεων, είναι η εκλογή της στάθμης σημαντικότητας. Πράγματι, αν υποθέσουμε ότι
θέλουμε να συγκρίνουμε k μέσους με τη βοήθεια c γραμμικών αντιθέσεων και σε σ.σ. α
και όλες οι μηδενικές υποθέσεις ισχύουν, τότε η πιθανότητα να απορρίψουμε λάθος την
H 0 ως προς ένα τουλάχιστον test αποδεικνύεται ότι είναι 1  (1  ) c . Αυτή η ποσότητα,
ονομάζεται συνολικό σφάλμα για τις c συγκρίσεις και αυξάνει όσο αυξάνει το c. Γι’ αυτό
ορίζουμε ένα συνολικό σφάλμα έστω b και προσδιορίζουμε τη σ.σ. α από τη σχέση :
1  (1  ) c  b
π.χ. για c = 10 και b = 0.1 βρίσκουμε α = 0.01.

42
1.5. Η υπόθεση κανονικότητας

Ένας έλεγχος της υπόθεσης κανονικότητας μπορεί να γίνει σχεδιάζοντας το


ιστόγραμμα των υπολοίπων. Αν ικανοποιείται η υπόθεση ότι τα σφάλματα (υπόλοιπα)
είναι ανεξάρτητες τυχαίες μεταβλητές που ακολουθούν την κανονική κατανομή Ν(0, σ2),
τότε αυτή η γραφική παράσταση πρέπει να μοιάζει με ένα δείγμα από μια κανονική
κατανομή με κέντρο το μηδέν. Ατυχώς, με μικρά δείγματα, συχνά εμφανίζεται σημαντική
διακύμανση, έτσι η εμφάνιση μιας μέτριας απόκλισης από την κανονικότητα δεν
συνεπάγεται αναγκαστικά μια σοβαρή παραβίαση των υποθέσεων. Μεγάλες αποκλίσεις
από την κανονικότητα είναι πολύ σοβαρές και απαιτούν επιπλέον ανάλυση.
Μια άλλη χρήσιμη διαδικασία είναι να κατασκευάσουμε το διάγραμμα κανονικής
πιθανότητας (normal probability plot) των υπολοίπων. Το διάγραμμα κανονικής
πιθανότητας είναι ακριβώς το διάγραμμα της αθροιστικής κατανομής των υπολοίπων σε
χαρτί κανονικής πιθανότητας, δηλαδή σε ένα ειδικό φύλλο χαρτιού, στο οποίο ο
κατακόρυφος άξονας ή άξονας των y, είναι διαβαθμισμένος με τέτοιον τρόπο ώστε αν οι
παρατηρήσεις μας (δηλαδή τα υπόλοιπα) είναι ανεξάρτητες και ακολουθούν την
κανονική κατανομή με σταθερή διασπορά, τότε τα σημεία ( x (i ) , i) θα βρίσκονται περίπου
πάνω σε ευθεία γραμμή, όπου x (i ) είναι η i-οστή παρατήρηση κατά αύξουσα σειρά
μεγέθους.
Αντί για τον κατακόρυφο άξονα, μπορεί να διαβαθμίσουμε τον οριζόντιο άξονα
και τότε οι παρατηρήσεις x (i ) θα σημειώνονται στον κατακόρυφο άξονα, ενώ στον
οριζόντιο θα είναι τα i  1, 2,  . Αυτός ο έλεγχος μπορεί να γίνει για οποιαδήποτε τυχαία
μεταβλητή με συνεχή συνάρτηση κατανομής. Βέβαια για καλύτερη επιβεβαίωση
μπορούμε να κάνουμε και άλλους ελέγχους, όπως Kolmogorov-Smirnov, x2 κ.λ.π. για να
διαπιστώσουμε αν οι δοσμένες παρατηρήσεις προέρχονται από τη συγκεκριμένη
κατανομή.
Για να κατασκευάσουμε το διάγραμμα κανονικής πιθανότητας, τοποθετούμε τα
υπόλοιπα σε αύξουσα σειρά και σχεδιάζουμε το k-στο από αυτά τα διατεταγμένα
1
υπόλοιπα ως προς το σημείο αθροιστικής πιθανότητας p k  (k  ) / N στο χαρτί
2
κανονικής πιθανότητας. Αν η κατανομή των υπολοίπων είναι η κανονική, τότε αυτό το
διάγραμμα θα μοιάζει με μια ευθεία γραμμή.

Παράδειγμα 1.11
Αναφερόμαστε στα δεδομένα του παραδείγματος, όπου για την παραγωγή συνθετικών
ενδυμάτων είχαμε χρησιμοποιήσει πέντε διαφορετικά ποσοστά βαμβακιού και για κάθε
ποσοστό είχαν γίνει πέντε μετρήσεις.
Το μοντέλο είναι :

43
Yi j     i  e i j
Η εκτίμηση των παραμέτρων δίνει :
376
̂  Y. .   15.02
25
ˆ 1  Y1.  Y. .  9.80  15.04 = 5.24
ˆ 2  Y2 .  Y. .  15.40  15.04 = 0.36
ˆ 3  Y3 .  Y. .  17.60  15.04 = 2.56
ˆ 4  Y4 .  Y. .  21.60  15.04 = 6.56
ˆ 5  Y5 .  Y. .  10.80  15.04 = 4.24
Μπορούμε επίσης να βρούμε ένα 95% δ.ε. για το Yi . ως εξής:
 MSE 
 Y4 .  t n k ; /2  , δηλαδή
 m 
 
 8.06 
 21.60  2.086  ή 21.60  2.65 = (18.95, 25.25)
 5 
 
Από το προηγούμενο μοντέλο έχουμε :
Ŷ11  ˆ  ˆ 1  15.02  5.24 = 9.78
Έτσι βρίσκουμε ότι :
e11  Y11  Ŷ11  7  9.78 = 2.78 = 2.8
Όμοια βρίσκουμε :
e12  7  9.78 = 2.8, e13  5.2, e14  1.2, e15  = 0.8 κ.λ.π.
Έτσι σχηματίζουμε τον παρακάτω πίνακα :

Ποσοστό Παρατηρούμενη ελαστικότητα


βαμβακιού 1 2 3 4 5
2.8 2.8 5.2 1.2 0.8
15 7
3.4 1.6 3.4 2.6 2.6
20
3.6 0.4 0.4 1.4 1.4
25
2.6 3.4 0.4 2.6 1.4
30
3.8 0.8 0.2 4.2 0.2
35

44
Διατεταγμένα υπόλοιπα και σημεία πιθανότητας

Τάξη Υπόλοιπο 1
p k  (k  ) / 25
k ei j 2

1 3.8 0.0200
2 3.6 0.0600
3 3.4 0.1000
4 3.4 0.1400
5 2.8 0.1800
6 2.8 0.2200
7 2.8 0.2600
8 2.6 0.3000
9 0.8 0.3400
10 0.8 0.3800
11 0.2 0.4200
12 0.2 0.4600
13 0.4 0.5000
14 0.4 0.5400
15 0.4 0.5800
16 1.2 0.6200
17 1.4 0.6600
18 1.4 0.7000
19 1.4 0.7400
20 1.6 0.7800
21 2.6 0.8200
22 2.6 0.8600
23 3.4 0.9000
24 4.2 0.9400
25 5.2 0.9800

45
Διάγραμμα κανονικής πιθανότητας

Το διάγραμμα κανονικής πιθανότητας παρουσιάζεται στο προηγούμενο σχήμα. Στο


σχήμα αυτό τα υπόλοιπα έχουν σχεδιαστεί ως προς τα σημεία p k  100 στον δεξιό
κατακόρυφο άξονα.
Σημειώνουμε ότι στο τέλος αυτού του σχήματος παρουσιάζεται επίσης το
σημειόγραμμα (dot diagram) των υπολοίπων.
Η γενική εντύπωση από την εξέταση αυτού του διαγράμματος είναι ότι η κατανομή
των σφαλμάτων μπορεί να είναι ελαφρώς λοξή με την δεξιά ουρά να είναι μακρύτερη
από την αριστερή. Η τάση το διάγραμμα κανονικής πιθανότητας να κλίνει προς τα κάτω
ελαφρά στην αριστερή μεριά, συνεπάγεται ότι η αριστερή ουρά της κατανομής των
υπολοίπων είναι κάπως αραιότερη απ’ όσο θα περιμέναμε στην κανονική κατανομή.
Δηλαδή τα αρνητικά κατάλοιπα δεν είναι αρκετά μεγάλα (κατ’ απόλυτη τιμή) όσο θα
περιμέναμε. Εντούτοις, αυτό το διάγραμμα δεν αποκλίνει πάρα πολύ από την κανονική
κατανομή.

46
1.6 Μοντέλο τυχαίων επιδράσεων

Ένας πειραματιστής συχνά ενδιαφέρεται για έναν παράγοντα που έχει ένα μεγάλο
αριθμό πιθανών σταθμών. Αν ο πειραματιστής επιλέγει τυχαία k από αυτές τις στάθμες
από τον πληθυσμό των σταθμών του παράγοντα, τότε λέμε ότι ο παράγοντας είναι
τυχαίος. Επειδή οι στάθμες του παράγοντα που χρησιμοποιούνται στο πείραμα
επελέγησαν τυχαία, εξάγονται συμπεράσματα σχετικά με ολόκληρο τον πληθυσμό των
σταθμών του παράγοντα. Υποθέτουμε ότι ο πληθυσμός των σταθμών του παράγοντα
είναι είτε απείρου μεγέθους ή αρκετά μεγάλος ώστε να θεωρείται άπειρος. Καταστάσεις
στις οποίες ο πληθυσμός των σταθμών του παράγοντα είναι αρκετά μικρός που να
θεωρείται προσέγγιση ενός πεπερασμένου πληθυσμού δεν συναντώνται συχνά.
Παραπέμπουμε τον αναγνώστη στους Bennett και Franklin (1954) καθώς επίσης
και Searle και Fawcett (1970) για μια παρουσίαση της περίπτωσης του πεπερασμένου
πληθυσμού. Το γραμμικό μοντέλο είναι :
Yi j     i   i j , i  1, 2,  , k , j  1, 2,  , n (1.40)

όπου οι  i και  i j είναι τυχαίες μεταβλητές. Αν η  i έχει διασπορά  2 και είναι


ανεξάρτητη από την  i j , η διασπορά οποιασδήποτε παρατήρησης είναι :

V(Yi j )   2   2

Οι διασπορές  2 και  2 ονομάζονται συνιστώσες της διασποράς και το μοντέλο


(1.40) ονομάζεται μοντέλο τυχαίων επιδράσεων. Για να κάνουμε έλεγχο υποθέσεων στο
μοντέλο αυτό, απαιτούμε ότι οι {  i j } είναι ανεξάρτητες τυχαίες μεταβλητές με κανονική

κατανομή Ν(0,  2 ), οι {  i } είναι ανεξάρτητες τυχαίες μεταβλητές με κανονική


κατανομή Ν(0,  2 ) και οι  i και  i j είναι ανεξάρτητες μεταξύ τους. Η υπόθεση ότι οι {
k
 i } είναι ανεξάρτητες τυχαίες μεταβλητές σημαίνει ότι η συνήθης υπόθεση 
i 1
i 0

από το μοντέλο των σταθερών επιδράσεων δεν εφαρμόζεται στο μοντέλο τυχαίων
επιδράσεων.
Η ταυτότητα του αθροίσματος τετραγώνων
SST  SSTreatmen ts  SSE (1.41)
εξακολουθεί να ισχύει. Δηλαδή, διαχωρίζουμε την συνολική μεταβλητότητα των
παρατηρήσεων σε μια συνιστώσα που μετρά τη μεταβολή μεταξύ των αγωγών (
SSTreatmen ts ) και μια συνιστώσα που μετρά τη μεταβολή μέσα στις αγωγές (SSE). Δεν
έχει έννοια να ελέγξουμε τις υποθέσεις σχετικά με τις επιδράσεις μεμονωμένων αγωγών,
έτσι αντί γι’ αυτό ελέγχουμε την υπόθεση
H 0 :  2  0

47
H1 :  2  0
Αν  2  0 , όλες οι αγωγές είναι ταυτόσημες. Αλλά αν  2  0 , τότε υπάρχει
μεταβλητότητα μεταξύ των αγωγών. Όπως προηγουμένως, το SSE /  2 ακολουθεί την x
2
Nk κατανομή και κάτω από την μηδενική υπόθεση, το SSTreatmen ts /  2 ακολουθεί την
x 2k 1 κατανομή. Οι δύο τυχαίες μεταβλητές είναι ανεξάρτητες. Συνεπώς κάτω από την
μηδενική υπόθεση  2  0 , ο λόγος
SSTreatmen ts /( k  1) MSTreatmen ts
F0  
SSE /( N  k ) MSE
(1.42)
ακολουθεί την Fk 1, N - k κατανομή.
Εντούτοις, χρειάζεται να εξετάσουμε τις αναμενόμενες μέσες τιμές για να
περιγράψουμε πλήρως τη διαδικασία του ελέγχου. Θεωρούμε
1 1  k Yi2. Y.2. 
E(MSTreatmen ts )  E (SSTreatmen ts )  E   
k 1 k  1  i 1 n N

1 1 k  n 
2
1 k n  
2

 E        i   i j        i   i j  
k  1  n i 1  j1  N  i 1 j1  

Όταν υψώνουμε στο τετράγωνο και παίρνουμε μέσες τιμές των ποσοτήτων στις
αγκύλες, παρατηρούμε ότι οι όροι που έχουν  i2 αντικαθίστανται με  2 , επειδή
k n
E( i )  0 . Επίσης οι όροι που έχουν  i2. ,  .2. και  
i 1 j1
2
i αντικαθίστανται με n 2 , kn 2

και kn  αντίστοιχα. Επιπλέον όλοι οι όροι των σταυροειδών γινομένων που έχουν  i
2 2

και  i j έχουν μέση τιμή μηδέν. Έτσι παίρνουμε


1
E(MSTreatmen ts )  [ N 2  N 2  k 2  N 2  n 2   2 ]
k 1
ή
E(MSTreatmen ts )   2  n 2 (1.43)
αφού N  k n . Παρόμοια μπορούμε να δείξουμε ότι :
E(MSE )   2 (1.44)
Από τα αναμενόμενα μέσα τετράγωνα, παρατηρούμε ότι κάτω από την H 0 , ο
αριθμητής και ο παρονομαστής του στατιστικού ελέγχου (1.42) είναι αμερόληπτοι
εκτιμητές του  2 , ενώ κάτω από την H1 , η αναμενόμενη τιμή του αριθμητή είναι
μεγαλύτερη από την αναμενόμενη τιμή του παρονομαστή. Κατά συνέπεια, θα

48
απορρίπτουμε την H 0 για τιμές του F0 που είναι αρκετά μεγάλες. Έτσι θα απορρίπτουμε
την H 0 αν F0 > Fk 1, N -k ; a .

Η διαδικασία υπολογισμού και ανάλυσης της διασποράς για το μοντέλο τυχαίων


επιδράσεων είναι ταυτόσημη με εκείνη για το μοντέλο των σταθερών επιδράσεων.
Εντούτοις, τα συμπεράσματα είναι αρκετά διαφορετικά επειδή αυτά εφαρμόζονται σε
ολόκληρο τον πληθυσμό αγωγών.
Συνήθως μας ενδιαφέρει η εκτίμηση των συνιστωσών της διασποράς (  2 και  2 )
του μοντέλου. Η διαδικασία που χρησιμοποιούμε για να εκτιμήσουμε τα  2 και  2
ονομάζεται “μέθοδος ανάλυσης της διασποράς”, επειδή αυτή χρησιμοποιεί τον πίνακα
ανάλυσης διασποράς. Η διαδικασία συνίσταται στο να εξισώσουμε τα αναμενόμενα μέσα
τετράγωνα με τις παρατηρηθείσες τιμές αυτών στον πίνακα ανάλυσης διασποράς και να
λύσουμε ως προς τις συνιστώσες της διασποράς. Κατά την εξίσωση των
παρατηρούμενων και των αναμενόμενων μέσων τετραγώνων στο μοντέλο τυχαίων
επιδράσεων με έναν παράγοντα, έχουμε
MSTreatmen ts   2  n 2
και MSE   2
Κατά συνέπεια, οι εκτιμητές των συνιστωσών της διασποράς είναι :
ˆ 2  MSE (1.45)
MSTreatmen ts  MSE
ˆ 2  (1.46)
n
Για άνισα μεγέθη δειγμάτων, αντικαθιστούμε το n στην εξίσωση (1.46) από την ποσότητα
 k

1  k  n i2 
n0   n i  i k1 
k  1  i 1 



i 1
ni 

Η μέθοδος ανάλυσης διασποράς για την εκτίμηση των συνιστωσών της
διασποράς δεν απαιτεί την υπόθεση της κανονικότητας. Αυτή δίνει εκτιμητές του  2 και
του  2 , που είναι οι καλύτεροι τετραγωνικά αμερόληπτοι (δηλαδή, από όλες τις
αμερόληπτες τετραγωνικές συναρτήσεις των παρατηρήσεων, αυτοί οι εκτιμητές έχουν
την ελάχιστη διασπορά).
Μερικές φορές η μέθοδος της ανάλυσης διασποράς δίνει μια αρνητική εκτίμηση
μιας συνιστώσας της διασποράς. Προφανώς, οι συνιστώσες της διασποράς είναι εξ
ορισμού μη αρνητικές, έτσι μια αρνητική εκτίμηση μιας συνιστώσας της διασποράς
αντιμετωπίζεται με κάποιον προβληματισμό. Ένας τρόπος αντιμετώπισης είναι να
δεχτούμε την εκτίμηση και να την χρησιμοποιήσουμε σαν μια μαρτυρία ότι η αληθινή
τιμή της συνιστώσας της διασποράς είναι μηδέν, υποθέτοντας ότι η δειγματοληπτική
49
μεταβολή οδήγησε στην αρνητική εκτίμηση. Αυτό ενώ είναι διαισθητικά ελκυστικό, στην
πράξη εμφανίζει θεωρητικές δυσκολίες. Για παράδειγμα, χρησιμοποιώντας μηδέν στη
θέση της αρνητικής εκτίμησης αυτό μπορεί να διαταράξει τις στατιστικές ιδιότητες των
άλλων εκτιμήσεων. Μια άλλη εναλλακτική λύση είναι να εκτιμήσουμε ξανά την
αρνητική συνιστώσα της διασποράς χρησιμοποιώντας μια μέθοδο που δίνει πάντοτε μη
αρνητικές εκτιμήσεις. Μια ακόμη εναλλακτική λύση είναι να θεωρήσουμε την αρνητική
εκτίμηση σαν μαρτυρία ότι το γραμμικό μοντέλο που υποθέσαμε δεν είναι σωστό και να
εξετάσουμε ξανά το πρόβλημα. Μια καλή παρουσίαση της εκτίμησης των συνιστωσών
της διασποράς δίνεται στον Searle (1971).

Παράδειγμα 1.12
Ένα εργοστάσιο έχει πολλές μηχανές που παράγουν ένα ύφασμα και μας ενδιαφέρει να
υπάρχει ομοιομορφία στην αντοχή του υφάσματος που παράγεται από την ίδια μηχανή
αλλά και από όλες τις μηχανές. Ο μηχανικός παραγωγής υποπτεύεται ότι, εκτός της
συνήθους μεταβολής στην αντοχή ανάμεσα στα δείγματα του υφάσματος από την ίδια
μηχανή, μπορεί επίσης να υπάρχουν σημαντικές μεταβολές στην αντοχή μεταξύ των
μηχανών. Για να το ερευνήσει αυτό, επιλέγει τυχαία τέσσερις μηχανές και κάνει τέσσερις
καθορισμούς αντοχής στο ύφασμα που κατασκευάσθηκε σε κάθε μηχανή. Αυτό το
πείραμα εκτελείται με τυχαία σειρά και τα δεδομένα που προκύπτουν παρουσιάζονται
στον Πίνακα 1.13.
Πίνακας 1.13

Παρατηρήσεις
Μηχανές 1 2 3 4 Yi .
1 98 97 99 96 390
2 91 90 93 92 366
3 96 95 97 95 383
4 95 96 99 98 388
Y. .  1527

Η ανάλυση διασποράς παρουσιάζεται στον Πίνακα 1.14

Πίνακας 1.14
Πίνακας ANOVA

Πηγή μεταβολής S.S. d.f. M.S. F0


Μηχανές 89.19 3 29.73 15.68*
Σφάλμα 22.75 12 1.90
Ολική 111.94 15

50
* Σημαντικότητα στο 5%

Από τον πίνακα ανάλυσης διασποράς συμπεραίνουμε ότι οι μηχανές διαφέρουν


σημαντικά.
Οι συνιστώσες της διασποράς εκτιμώνται από :
ˆ 2  1.90 και
29.73  1.90
ˆ 2   6.96
4
Κατά συνέπεια, η διασπορά οποιασδήποτε παρατήρησης στην αντοχή εκτιμάται από :
ˆ 2  ˆ 2  1.90 + 6.96 = 8.86. Η περισσότερη από αυτή τη μεταβλητότητα οφείλεται σε
διαφορές μεταξύ των μηχανών.

Αυτό το παράδειγμα εξηγεί μια σημαντική χρήση των συνιστωσών της


διασποράς. Την απομόνωση των διαφορετικών πηγών μεταβλητότητας που επηρεάζουν
ένα προϊόν ή ένα σύστημα. Το πρόβλημα της μεταβλητότητας ενός προϊόντος συχνά
εμφανίζεται στην ποιότητα της ασφάλειας και είναι πολλές φορές δύσκολο να
απομονώσουμε τις πηγές μεταβλητότητας. Για παράδειγμα, αυτή η μελέτη μπορεί να έχει
παρακινηθεί από πολύ μεγάλη μεταβλητότητα στην αντοχή του υφάσματος όπως
φαίνεται στο Σχήμα 1.4.
Σχήμα 1.4

Το Σχήμα 1.4α δείχνει τη μεταβλητότητα στην αντοχή του υφάσματος που


μοντελοποιείται σαν μια κανονική κατανομή με διασπορά ˆ 2y  8.86. Επίσης

51
παρουσιάζονται άνω και κάτω προσδιορισμοί για την αντοχή και είναι σχετικά εύκολο
να παρατηρήσουμε ότι μια αρκετά μεγάλη αναλογία της μεταβλητότητας της αντοχής
είναι έξω από τους προσδιορισμούς.
Ο μηχανικός παραγωγής ρωτήθηκε γιατί τόσο πολύ ύφασμα είναι ελαττωματικό και
πρέπει να αχρηστεύει, να δουλευτεί ξανά, ή να θεωρηθεί σαν προϊόν κατώτερης
ποιότητας. Η απάντηση είναι ότι η περισσότερη από τη μεταβλητότητα της αντοχής του
προϊόντος είναι αποτέλεσμα των διαφορών μεταξύ των μηχανών. Διαφορετική απόδοση
της μηχανής μπορεί να είναι το αποτέλεσμα της εσφαλμένης εκκίνησης, φτωχής
συντήρησης, μη αποτελεσματικής επίβλεψης, φτωχά εκπαιδευμένων χειριστών,
ελαττωματικών ινών εισόδου κ.ο.κ. Ο μηχανικός παραγωγής πρέπει τώρα να
προσπαθήσει να απομονώσει τις συγκεκριμένες αιτίες της διαφοράς στην απόδοση των
μηχανών. Αν μπορέσει να αναγνωρίσει και να απαλείψει αυτές τις πηγές της
μεταβλητότητας μεταξύ των μηχανών, η διασπορά της μεταβλητότητας της αντοχής θα
ελαττωθεί σημαντικά, ίσως τόσο χαμηλά όσο ˆ 2y  1.90, η εκτίμηση της συνιστώσας της
διασποράς μέσα στη μηχανή (σφάλμα) στο Παράδειγμα 1.12.
Το Σχήμα 1.4b δείχνει μια κανονική κατανομή της αντοχής του υφάσματος με ˆ 2y 
1.90. Σημειώνουμε ότι η αναλογία του ελαττωματικού προϊόντος στην περίπτωση αυτή
έχει μειωθεί δραστικά. Αν και είναι απίθανο να μπορεί να εξαλειφθεί όλη η
μεταβλητότητα μεταξύ των μηχανών, είναι προφανές ότι μια σημαντική μείωση σε αυτή
τη συνιστώσα της διασποράς μπορεί να αυξήσει σημαντικά την ποιότητα του
παραγόμενου υφάσματος.
Μπορούμε εύκολα να βρούμε ένα διάστημα εμπιστοσύνης για τη συνιστώσα της
διασποράς  2 . Αν οι παρατηρήσεις είναι ανεξάρτητες και κανονικά κατανεμημένες, τότε
το ( N  k)MSE /  2 ακολουθεί την x 2N  k κατανομή. Συνεπώς
 ( N  k )MSE 
P x 2    x 2
  1 
N k ; 

 N  k ; 1-
2
 2
2 

και ένα 100(1α)% διάστημα εμπιστοσύνης για το  2 είναι :


 
 ( N  k )MSE ( N  k )MSE 
 2
 
2
 (1.47)
 x N k ;  x2  
N  k ; 1-
 2 2 
Θεωρούμε τώρα τη συνιστώσα της διασποράς  2 . Ο σημειακός εκτιμητής του
 2 είναι :
MSTreatmen ts  MSE
ˆ 2 
n

52
Η τυχαία μεταβλητή (k  1)MSTreatmen ts / ( 2  n 2 ) ακολουθεί την x 2k 1
κατά-νομή και η τυχαία μεταβλητή ( N  k )MSE /  2 ακολουθεί την x 2N  k κατανομή.
Συνεπώς η κατανομή πιθανότητας του ˆ 2 είναι ένας γραμμικός συνδυασμός δύο x2
τυχαίων μεταβλητών, έστω
u 1 x 2k 1 - u 2 x 2N  k
 2  n 2 2
όπου u 1  και u 2 
n (k  1) n( N  k)
Ατυχώς, μια έκφραση σε κλειστή μορφή για την κατανομή αυτού του γραμμικού
συνδυασμού των x2 τυχαίων μεταβλητών δεν μπορεί να βρεθεί. Συνεπώς ένα ακριβές
διάστημα εμπιστοσύνης για το  2 δεν μπορεί να κατασκευασθεί. Προσεγγιστικές
διαδικασίες δίνονται στον Graybill (1961) και Searle (1971).
Είναι εύκολο να βρούμε μια ακριβή έκφραση για ένα διάστημα εμπιστοσύνης για
τον λόγο  2 / ( 2   2 ) . Αυτός είναι σημαντικός λόγος αφού δείχνει την αναλογία της
διασποράς μιας παρατήρησης (υπενθυμίζουμε ότι V(Yi j )   2   2 ) που είναι το
αποτέλεσμα των διαφορών μεταξύ των αγωγών. Για να αναπτύξουμε αυτό το διάστημα
εμπιστοσύνης για την περίπτωση ενός ισορροπημένου σχεδιασμού, σημειώνουμε ότι οι
MSTreatments και MSE είναι ανεξάρτητες τυχαίες μεταβλητές και, επιπλέον μπορεί να
δειχθεί ότι :
MSTreatmen ts /( n 2   2 )
 Fk 1, N - k
MSE /  2
Συνεπώς
 MSTreatmen ts 2 
P F   F 
   1  (1.48)
 k 1, N -k ; 1-
2
MSE n 2
   2
k 1, N -k ;
2 

Από την εξίσωση (1.48) προκύπτει ότι :


  2 

P L  2  U   1   (1.49)
  
όπου
 
1  MSTreatmen ts 1 
L   1 (1.50)
n MSE F  
k 1, N -k ;
 2 
και
 
1  MSTreatmen ts 1 
U   1 (1.51)
n MSE F  
k 1, N-k ; 1-
 2 

53
Σημειώνουμε ότι L και U είναι 100(1α)% κατώτερο και ανώτερο όρια
εμπιστοσύνης αντίστοιχα, για το λόγο  2 /  2 . Συνεπώς, ένα 100(1α)% διάστημα
εμπιστοσύνης για το  2 / ( 2   2 ) είναι
L 2 U
 2  2  (1.52)
1  L    1  U
Για να επεξηγήσουμε αυτή τη διαδικασία, θα βρούμε ένα 95% διάστημα
εμπιστοσύνης για το  2 / ( 2   2 ) για τα δεδομένα του Παραδείγματος 1.12.
Υπενθυμίζουμε ότι MSTreatments = 29.73, MSE = 1.90, k = 4, n = 4, F3, 12 ; 0.025 = 4.47
και F3, 12 ; 0.975 = 1/ F12, 3 ; 0.025 = 1/14.34 = 0.070.
Κατά συνέπεια από τις εξισώσεις (1.50) και (1.51) βρίσκουμε
1  29.73  1  
L     1  0.625
4  1.90  4.47  
και
1  29.73  1  
U     1  54.883
4  1.90  0.070  
και από την εξίσωση (1.40), το 95% διάστημα εμπιστοσύνης για το  2 / ( 2   2 ) είναι
0.625 2 54.883  2
 2  2  ή 0.39   0.98 .
1.625     55.883  2   2
Συμπεραίνουμε ότι η μεταβλητότητα μεταξύ των μηχανών εξηγεί το ποσοστό
μεταξύ 39% και 98% της διασποράς στην παρατηρούμενη αντοχή του παραγόμενου
υφάσματος. Αυτό το διάστημα εμπιστοσύνης είναι σχετικά μεγάλο εξαιτίας του μικρού
μεγέθους του δείγματος που χρησιμοποιήθηκε στο πείραμα. Εντούτοις, προφανώς η
μεταβλητότητα μεταξύ των μηχανών (  2 ) δεν είναι αμελητέα.

1.7 Έλεγχοι ομογένειας διασπορών

Αν έχουμε k ομάδες παρατηρήσεων και οι διασπορές των σφαλμάτων είναι ίσες


μέσα σε κάθε ομάδα, αλλά ίσως διαφέρουν από ομάδα σε ομάδα, τότε εκτιμάμε τη
διασπορά  2j σε κάθε ομάδα με το s 2j  SSE j /( n j  1) j = 1, 2, …, k και κάνουμε test
ισότητας των διασπορών :
H 0 : 12   22     2k
H1 : Όχι όλες οι διασπορές ίσες.
Τα γνωστά tests στην περίπτωση αυτή δόθηκαν από τους Barlett (1937), Cochran (1941),
Hartley (1950).

54
α) Test του Barlett
Αυτό χρησιμοποιείται σε όλες τις περιπτώσεις με ίσα ή άνισα δείγματα και υποθέτει ότι
τα σφάλματα ακολουθούν την κανονική κατανομή. Το στατιστικό που χρησιμοποιείται
είναι :

T 
 f ln sk
i 1 i
2 k

 i 1 f i ln s i2 
1
C

όπου f i  n i  1 , s 2


k
f s2
i 1 i i
, C 1 

k
f 1 
i 1 i
 f 
k
i 1 i
1

 3(k  1)
k
f
i 1 i

Όταν η H 0 είναι σωστή, το T1  X 2k 1 και η προσέγγιση είναι ικανοποιητική όταν f i  3


. Η H 0 απορρίπτεται σε στάθμη α, όταν T1 > X 2k 1,  .
Αυτό το test είναι ευαίσθητο στη μη κανονικότητα των σφαλμάτων.

β) Test του Cohran


Όταν οι βαθμοί ελευθερίας των s i2 είναι ίσοι με f1  f 2   f k   , να χρησιμοποιεί-
ται το στατιστικό :
max( s12 , , s 2k )
T2 
s12   s 2k
Αυτό το test είναι ευαίσθητο και προτιμάται στην περίπτωση που όλες οι διασπορές είναι
ίσες εκτός από μια. Όταν ισχύει η H 0 έχει μελετηθεί η κατανομή του στατιστικού T2 και
υπάρχουν πίνακες κρίσιμων τιμών του T2 για α = 0.05, α = 0.01.

γ) Test του Hartley


Και αυτό χρησιμοποιείται όταν οι β.ε. των s i2 είναι ίσοι με f1  f 2   f k   . Το
στατιστικό είναι :
max( s12 ,  , s 2k )
Fmax 
min( s12 ,  , s 2k )
Όταν η H 0 ισχύει, έχει μελετηθεί η κατανομή του Fmax και υπάρχουν πίνακες κρίσιμων
τιμών του Fmax για α = 0.05, α = 0.01.

55
Παράδειγμα 1.13
Για τον έλεγχο της ομοιογένειας των διασπορών του Παραδείγματος 1.10, έχουμε

. S .2
Α 7 7 15 11 9 9.8 11.2
Β 12 17 12 18 18 15.4 9.8
Γ 14 18 18 19 19 17.6 4.3
Δ 19 25 22 19 23 21.6 6.8
Ε 7 10 11 15 11 10.8 8.2

Για παράδειγμα,
7  7  15  11  9 49
A = = = 9.8
5 5
1
s 2A = [(7  9.8) 2  (7  9.8) 2  (15  9.8) 2  (11  9.8) 2  (9  9.8) 2 ]
(5  1)
1
= [( 2.8) 2  (2.8) 2  (5.2) 2  (1.2) 2  (0.8) 2 ]
4
= 11.2
Στην περίπτωσή μας είναι FA = FB = FΓ = FΔ = FE = 4 και k = 5.

Test του Cochran


Θέλουμε να ελέγξουμε την υπόθεση Η0 :  2A =  2B =  2 =  2 =  2E
ενάντια στην Η1 : κάποια  i2 είναι διαφορετικά
max( s 2A , s 2B ,  , s 2E ) 11.2
Τ2 = = = 0.2779 (ίδια τιμή με Statgraphics)
(s 2A  s 2B    s 2E ) 40.3
Οι κρίσιμες τιμές για k = 5, F = 4, α = 0.05 είναι 0.5441 και για α = 0.01 είναι 0.6329.
Επομένως, δεν μπορούμε να απορρίψουμε την Η0.

Test του Hartley


Για τον ίδιο έλεγχο μπορούμε να εφαρμόσουμε το στατιστικό test του Hartley
χρησιμοποιώντας τον παρακάτω τύπο :
max( s 2A , s 2B ,  , s 2E ) 11.2
Fmax = = = 2.60465 (ίδια τιμή με Statgraphics)
min( s 2A , s 2B ,  , s 2E ) 4.3
Οι κρίσιμες τιμές για k = 5, F = 4, α = 0.05 και α = 0.01 είναι 25.2 και 59 αντίστοιχα.
Επομένως, η Η0 δεν απορρίπτεται.

Test του Bartlett


5 5

T1 =  f i  ln( s )   (f i  ln( s i2 ))  / C
2

 i1 i 1 

56
με fi = 4 και

 fs
5 2
2 i 1 i i 4  (11.2)  4  (9.8)  4  (4.3)  4  (6.8)  4  (8.2)
s = = = 8.06,
 f 44444
5
i 1 i

όπου C = 1 

5
f
i 1 i
1
  f 
5
i 1 i
1

= 1
1/ 4  1 / 4  1/ 4  1/ 4  1 / 4  1/ 20
= 1.1.
3(n  1) 3(5  1)
Τότε έχουμε
5  4  ln( 8.06)  4(ln( 11.2)  ln( 9.8)  ln( 4.3)  ln( 6.8)  ln( 8.2))
Τ1 =
1.1
20  (2.0869)  4(2.4159  2.2823  1.4586  1.9169  2.1041)
=
1.1
= 0.933.
Η κρίσιμη τιμή δίνεται από την Χ2 κατανομή με 4 βαθμούς ελευθερίας σε στάθμη
σημαντικότητας α = 0.05. Είναι X 02.05, 4 = 9.49, οπότε δεν μπορούμε να απορρίψουμε την
μηδενική υπόθεση.

57
1.8 Ασκήσεις

1. Τα παρακάτω δεδομένα είναι μετρήσεις του δείκτη του ζάχαρου στο αίμα ποντικών
που εξετάστηκαν : Α υπό κανονικές συνθήκες, Β μετά από ένεση pitressin, Γ μετά
από ένεση pitocin:
Α : 101, 112, 113, 99, 110, 107, 108, 120, 122, 97, 115, 121
Β : 134, 129, 130, 127, 138, 134, 131, 145, 142
Γ : 115, 106, 108, 99, 105, 112, 109, 98
(i) Να εξετάσετε αν οι μέσες τιμές των δεικτών είναι ίσες σε στάθμη α = 0.01.
(ii) Να χωρισθούν οι μέσοι σε ομάδες με τη μέθοδο του Duncan και να
κατασκευάσετε 95% δ.ε. με τη μέθοδο του Scheffé για το μΒ  μΑ. Ακόμη να βρείτε
95% δ.ε. για τη γραμμική αντιπαραβολή μΒ  μΓ  2μΑ.
(iii) Να ελέγξετε αν οι διασπορές των παρατηρήσεων είναι ίσες στις περιπτώσεις Α,
Β, Γ σε στάθμη α = 0.01.

2. Τρεις τύποι ελαστικών Α, Β, Γ ελέγχθηκαν για την αντοχή τους σε δύσκολες


καιρικές συνθήκες. Οι μετρήσεις που πήραμε, σε δεκάδες χιλιάδες χιλιόμετρα,
δείχνουν την απόσταση που διανύθηκε μέχρι να καταστούν ακατάλληλα τα
ελαστικά. Έχουμε τις παρακάτω μετρήσεις:
Α : 4, 4, 5, 5, 5, 4, 5, 3, 3
Β : 4, 4, 4, 5, 5, 5, 3
Γ : 5, 6, 5, 5, 6, 6, 6, 5, 6, 5
i) Να εξετάσετε αν οι μέσες τιμές είναι ίσες σε σ.σ. α = 0.05.
ii) Να χωριστούν οι μέσοι σε ομάδες με τη μέθοδο LSD, και να κατασκευαστεί 95%
διάστημα εμπιστοσύνης για το μΑμΒ με τη μέθοδο του Scheffé.
iii) Να ελέγξετε αν οι διασπορές των παρατηρήσεων είναι ίσες στις περιπτώσεις Α,
Β, Γ σε σ.σ. α = 0.05.

58

You might also like