Professional Documents
Culture Documents
ΥΠΟΛΟΓΙΣΤΙΚΗ ΝΟΗΜΟΣΥΝΗ ΣΤΑΥΡΟΣ ΑΔΑΜ ΠΑΝΕΠΙΣΤΗΜΙΟ ΙΩΑΝΝΙΝΩΝ
ΥΠΟΛΟΓΙΣΤΙΚΗ ΝΟΗΜΟΣΥΝΗ ΣΤΑΥΡΟΣ ΑΔΑΜ ΠΑΝΕΠΙΣΤΗΜΙΟ ΙΩΑΝΝΙΝΩΝ
ΥΠΟΛΟΓΙΣΤΙΚΗ ΝΟΗΜΟΣΥΝΗ
ΣΤΑΥΡΟΣ ΑΔΑΜ
35
30
25
20
Άλογα
15 Γαϊδούρια
10
0
0 50 100 150 200
35
30
25
20 Άλογα
Γαϊδούρια
15
Νέο
10
0
0 50 100 150 200
35
30
25
20 Άλογα
Γαϊδούρια
15
Line
10 Linear (Line)
0
0 50 100 150 200
-5
30
25
Άλογα
20
Γαϊδούρια
15 Νέο
Line
10
Linear (Line)
0
0 50 100 150 200
-5
35
30
25
Άλογα
20 Γαϊδούρια
Νέο
15
Line
10 Linear (Line)
0
0 50 100 150 200
35
30
25
20
15
10
0
0 20 40 60 80 100 120 140
https://www.commonlounge.com/discussion/6caf4957
0d9c4d0789afbc544b32cdbf
Δενδρίτες
Κλάδοι του
άξονα
Συνάψεις
Πυρήνας
Κατεύθυνση μετάδοσης
των παλμών
Σώμα
• Γραμμική διαχωρισιμότητα.
• Ύπαρξη μιας ευθείας που διαχωρίζει δύο κατηγορίες
• Εξίσωση ευθείας,
• π.χ.
• Γράφημα
15
10
0
-5 -4.5 -4 -3.5 -3 -2.5 -2 -1.5 -1 -0.5 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
-5
-10
• Ευθεία
25
20
15
10
0
-5 -4.5 -4 -3.5 -3 -2.5 -2 -1.5 -1 -0.5 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
-5
-10
-15
• Γράφημα ⇒
15
10
0
-5 -4.5 -4 -3.5 -3 -2.5 -2 -1.5 -1 -0.5 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
-5
-10
• Γράφημα ⇒
15
10
0
-5 -4.5 -4 -3.5 -3 -2.5 -2 -1.5 -1 -0.5 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
-5
-10
• Ευθεία ⇒
25
20
15
10
0
-5 -4.5 -4 -3.5 -3 -2.5 -2 -1.5 -1 -0.5 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
-5
-10
-15
• Ευθεία ⇒
25
20
15
10
0
-5 -4.5 -4 -3.5 -3 -2.5 -2 -1.5 -1 -0.5 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
-5
-10
-15
a b c
x1
x2
+, , 0 ή 0, 1 ή -1, 1
Κλάδοι του
άξονα
Δενδρίτες Συνάψεις
Πυρήνας
Κατεύθυνση μετάδοσης
των παλμών
Σώμα
Γενικές αρχές:
• Το συναπτικό δυναμικό μπορεί να ενισχύει (θετικό) ή
να καταστέλλει (αρνητικό) το σήμα εισόδου.
• Μάθηση στα βιολογικά συστήματα είναι η μεταβολή
των συναπτικών δυναμικών.
• Οσο περισσότερο χρησιμοποιείται μια σύναψη τόσο
ενισχύεται το δυναμικό της.
• Η γνώση μας είναι «αποθηκευμένη» στις τιμές των
συναπτικών δυναμικών.
x1 x2 Έξοδος
0 0 Ενεργή (Α)
0 1 Ενεργή (Α)
1 1 Ανενεργή (Ι)
x2
(0, 1) (1, 1)
(0, 0) x1
Bias x1 x2 DO w0 w1 w2 AO I/D/N
+1 0 0 A 0 0 0 I
+0.1 Incr.
+1 0 1 A 0.1 0 0 A
No c.
+1 1 1 I 0.1 0 0 A
-0.1 -0.1 -0.1 Decr.
+1 0 0 A 0 -0.1 -0.1 I
+0.1 Incr.
+1 0 1 A 0.1 -0.1 -0.1 I
+0.1 +0.1 Incr.
Bias x1 x2 DO w0 w1 w2 AO I/D/N
+1 1 1 I +0.2 -0.1 0 A
-0.1 -0.1 -0.1 Decr.
+1 0 0 A +0.1 -0.2 -0.1 A
No c.
+1 0 1 A +0.1 -0.2 -0.1 I
+0.1 +0.1 Incr.
+1 1 1 I +0.2 -0.2 0 I
No c.
+1 0 0 A +0.2 -0.2 0 A
No c.
Bias x1 x2 DO w0 w1 w2 AO I/D/N
+1 0 1 A +0.2 -0.2 0 A
No c.
+1 1 1 I +0.2 -0.2 0 I
No c.
+0.2 -0.2 0
• DO: Desired Output, η έξοδος που θέλουμε για το συγκεκριμένο
πρότυπο
• AO: Actual Output, η έξοδος που παίρνουμε για το συγκεκριμένο
πρότυπο με τα συγκεκριμένα βάρη
• I/D/N: Increase/Decrease/No change, αύξηση/μείωση/καμμία
αλλαγή στις τιμές των βαρών
ΣΤΑΥΡΟΣ ΑΔΑΜ ΥΠΟΛΟΓΙΣΤΙΚΗ ΝΟΗΜΟΣΥΝΗ
ΕΚΠΑΊΔΕΥΣΗ ΤΕΧΝΗΤΟΥ ΝΕΥΡΩΝΑ
Ασκήσεις:
1. Να επαναλάβετε την προηγούμενη διαδικασία με τιμή
για το bias=-1 και για δ=0.5
2. Να επαναλάβετε τον αλγόριθμο με τιμές για το
bias=+1 και το δ=0.5, για το πρόβλημα:
x1 x2 Έξοδος
0 0 Ενεργή (A)
1 1 Ενεργή (A)
1 0 Ανενεργή (I)
Κλάδοι του
άξονα
Δενδρίτες Συνάψεις
Πυρήνας
Κατεύθυνση μετάδοσης
των παλμών
Σώμα
ΜΑΘΗΜΑ 3Ο
ΒΙΟΛΟΓΙΚΟΣ ΚΑΙ ΤΕΧΝΗΤΟΣ ΝΕΥΡΩΝΑΣ
Τυπική δομή βιολογικού νευρώνα
Κλάδοι του
άξονα
Δενδρίτες Συνάψεις
Πυρήνας
Κατεύθυνση μετάδοσης
των παλμών
Σώμα
γράφεται:
ή ακόμη:
y t
p p
Επανάλη
1 2 ... P P+1 P+2 … 2P 2P+1 …
ψη
Πρότυπο 1 2 ... P 1 2 … P 1 …
u p (k 1) u p (k ) (t p (k ) y p (k ))x p (k )T x p (k )
(t p (k ) y p (k )) 0
• Συμπεραίνουμε πως,
u (k 1) u (k )
p p
• Τότε (t p (k ) y p (k )) 2
• Επί πλέον y p (k ) 1 u p (k ) 0
• Άρα χρειάζεται u p (k 1) u p (k )
ΣΤΑΥΡΟΣ ΑΔΑΜ ΥΠΟΛΟΓΙΣΤΙΚΗ ΝΟΗΜΟΣΥΝΗ
PERCEPTRON
και
u (k 1) u (k ) (t (k ) y (k ))x (k ) x (k )
p p p p p T p
και
u (k 1) u (k ) (t (k ) y (k ))x (k ) x (k )
p p p p p T p
(t p (k ) y p (k )) 0
• Συμπεραίνουμε ότι: u (k 1) u (k )
p p
x1 x2 Έξοδος
0 0 0
0 1 1
1 0 1
1 1 0
x2
(0, 1) (1, 1)
(0, 0) x1
(1, 0)
x2
(0, 1) (1, 1)
(0, 0) x1
(1, 0)
x2
(0, 1) (1, 1)
(0, 0) x1
(1, 0)
35
30
25
20
15
10
0
0 20 40 60 80 100 120 140
35
30
25
20
15
10
0
0 20 40 60 80 100 120 140
35
30
25
20
15
10
0
0 20 40 60 80 100 120 140
ΜΑΘΗΜΑ 4Ο
PERCEPTRON
Οι λογικές συναρτήσεις ως προβλήματα ταξινόμησης
• Η συνάρτηση AND
x1 x2 Έξοδος
0 0 0
0 1 0
1 0 0
1 1 1
(0, 1) (1, 1)
x1
(0, 0)
(1, 0)
x1 x2 Έξοδος
0 0 0
0 1 1
1 0 1
1 1 1
(0, 1) (1, 1)
x1
(0, 0)
(1, 0)
x1 x2 Έξοδος
0 0 0
0 1 1
1 0 1
1 1 0
x2
(0, 1) (1, 1)
(0, 0) x1
(1, 0)
x2
(0, 1) (1, 1)
x1
(0, 0)
(1, 0)
x2
(0, 1) (1, 1)
(0, 0) x1
(1, 0)
x1 w11 a1
1
w12 w31 y
3
w21
x2 w32
2
w22 a2 w03
w02
0 0 0 0 0
0 1 1 0 1
1 1 1 0 1
1 1 1 1 0
ΜΑΘΗΜΑ 5Ο
MULTI LAYER PERCEPTRON
Δίκτυα Πρόσθιας Τροφοδότησης
(Feed-forward Neural Networks)
• Η ροή των υπολογισμών είναι προς την κατεύθυνση από
την είσοδο προς την έξοδο.
• Οι νευρώνες συνδέονται ώστε να υποστηρίζουν τη ροή
των υπολογισμών. Δηλαδή, δεν υπάρχει ανατροφοδότηση
της εξόδου ενός νευρώνα προς τους νευρώνες που
προηγούνται στη ροή των υπολογισμών.
• Tο γράφημα του δικτύου δεν περιλαμβάνει κύκλους. Τα
δίκτυα δεν είναι αναδρομικά.
• Γενικά τα δίκτυα αυτά χρησιμοποιούνται για να
υλοποιήσουν στατικές απεικονίσεις από το χώρο εισόδου
Rn στο χώρο εξόδου Rm.
ΣΤΑΥΡΟΣ ΑΔΑΜ ΥΠΟΛΟΓΙΣΤΙΚΗ ΝΟΗΜΟΣΥΝΗ
MULTI LAYER PERCEPTRON
Δίκτυα Πρόσθιας Τροφοδότησης
(Feed-forward Neural Networks)
MULTI LAYER PERCEPTRON
Το Πολυεπίπεδο Perceptron
• Είναι ένα δίκτυο πρόσθιας τροφοδότησης
• Οι νευρώνες είναι τύπου perceptron αλλά διαφέρουν από
το απλό perceptron ως προς τον τύπο της συνάρτησης
ενεργοποίησης
• Αποτελείται από επίπεδα (στρώματα) δηλ. ομάδες
νευρώνων που εκτελούν την ίδια λειτουργία
• Κάθε επίπεδο τροφοδοτεί το επόμενο στην κατεύθυνση
από την είσοδο προς την έξοδο του δικτύου
• Οι νευρώνες του ίδιου επιπέδου δεν αλληλεπιδρούν
μεταξύ τους (no lateral connections)
• Η οργάνωση αυτή σε επίπεδα διευκολύνει τη μαθηματική
ανάλυση του τρόπου λειτουργίας και προσφέρει τη
δυνατότητα υλοποίησης σε παράλληλη αρχιτεκτονική
ΣΤΑΥΡΟΣ ΑΔΑΜ ΥΠΟΛΟΓΙΣΤΙΚΗ ΝΟΗΜΟΣΥΝΗ
MULTI LAYER PERCEPTRON
Το Πολυεπίπεδο Perceptron
• Στο επίπεδο εισόδου δεν εκτελούνται υπολογισμοί δηλ.
δεν υπάρχει επεξεργασία των σημάτων εισόδου
• Τα κρυμμένα επίπεδα (ένα ή περισσότερα) αποτελούνται
από μη γραμμικούς νευρώνες που διεγείρονται από τα
σήματα εξόδου των νευρώνων του προηγούμενου
επιπέδου σταθμισμένα με τα αντίστοιχα συναπτικά βάρη
• Κάθε νευρώνας υπολογίζει ως διέγερση το εσωτερικό
γινόμενο των εξόδων των νευρώνων του προηγούμενου
επιπέδου και των αντίστοιχων συναπτικών βαρών
• Στο επίπεδο εξόδου χρησιμοποιούνται γραμμικοί ή μη
γραμμικοί νευρώνες ανάλογα με τον τύπο του
προβλήματος
MULTI LAYER PERCEPTRON
Το Πολυεπίπεδο Perceptron
• Ένα Δίκτυο Perceptron Πολλαπλών Στρωμάτων με ένα
κρυμμένο επίπεδο.
(l )
• wi 0 : η πόλωση (το συναπτικό βάρος του bias) του νευρώνα
• f (l ) (.) : η συνάρτηση ενεργοποίησης των νευρώνων στο l επίπεδο
• d (l ) : ο αριθμός των νευρώνων στο l επίπεδο
• wij(l ) : βάρος της σύνδεσης από τον j νευρώνα του l-1 επιπέδου
στον i νευρώνα του l επιπέδου
MULTI LAYER PERCEPTRON
Υπολογισμός σε ευθύ πέρασμα:
• Ένα MLP με n εισόδους, m εξόδους και Η κρυμμένα επίπεδα. Το
επίπεδο εισόδου είναι το μηδέν το επίπεδο εξόδου το Η+1. Άρα
d( 0) n, d ( H 1) m
j 0
1 xi x
• ˆxi , όπου y
1 e y r
και r είναι τιμή που δίνει ο χρήστης
– Πολυτετραγωνική συνάρτηση
f (x) ( x c 2 )1/ 2
2
( x c 2 ) 1
2
– Επίπεδο εισόδου
– Κρυμμένο επίπεδο
• Διέγερση
• Έξοδος
RADIAL BASIS FUNCTION NEURAL NETWORKS
Δίκτυο RBF (πρόσθιο πέρασμα)
– Επίπεδο εξόδου
• Διέγερση
• Έξοδος
– Έξοδοι δικτύου
p 1 2
RADIAL BASIS FUNCTION NEURAL NETWORKS
Εκπαίδευση δικτύου RBF
• ή ακόμη,
1 m
E (θ) (t p ,i oi (x p , θ)) 2
p
2 i 1
1 m
E (oi t p ,i )2
p
2 i 1
RADIAL BASIS FUNCTION NEURAL NETWORKS
Εκπαίδευση δικτύου RBF
• Επί πλέον θα ισχύουν τα εξής:
n
xp w 2
( x p ,l w jl )2
h j (x p ) exp exp l 1
j
2 2j 2 j2
H
oi wi 0 wij h j (x p ), i 1,2,..., m
j 1
E p E p
• Άρα, (oi t p ,i )h j (x p ), (oi t p ,i )
wij wi 0
2
E p m x wj p
j i 1 2 3j
RADIAL BASIS FUNCTION NEURAL NETWORKS
Εκπαίδευση δικτύου RBF
• Έτσι είναι δυνατή η εφαρμογή του gradient descent με ομαδική
ή σειριακή ενημέρωση. Γενικά, προτιμάται η ομαδική
ενημέρωση.
• Τα βάρη των συνδέσεων μεταξύ του κρυμμένου επιπέδου και
του επιπέδου εξόδου wij αρχικοποιούνται όπως στο MLP: π.χ.
επιλέγοντας τυχαίες τιμές στο (-1,1).
• Αν τα βάρη των συνδέσεων από το επίπεδο εισόδου στο
κρυμμένο επίπεδο δηλαδή τα κέντρα και οι ακτίνες των
συναρτήσεων βάσης αρχικοποιηθούν σε τυχαίες τιμές τότε ο
αλγόριθμος gradient descent παγιδεύεται σε ρηχά τοπικά
ελάχιστα.
• Αντίθετα, αν τα κέντρα και οι ακτίνες αρχικοποιηθούν σε καλές
τιμές, τότε βρίσκουμε καλές λύσεις.
Pj x p
ΕΞΕΛΙΚΤΙΚΟΣ ΥΠΟΛΟΓΙΣΜΟΣ
Βελιστοποίηση
• Γενικά, για κάποιο πρόβλημα, η βελτιστοποίηση
αναφέρεται στην αναζήτηση της «καλύτερης» από όλες τις
δυνατές λύσεις που επιδέχεται το εν λόγω πρόβλημα.
• Αν δεχτούμε ότι ένα πρόβλημα είναι δυνατό να
περιγραφεί μαθηματικά, δηλ. να μοντελοποιηθεί, με μία
συνάρτηση τότε η βελτιστοποίηση συνίσταται στη
βελτιστοποίηση της εν λόγω συνάρτησης.
• Έτσι, ως βελτιστοποίηση χαρακτηρίζεται η διαδικασία
εύρεσης εκείνης της τιμής από το πεδίο ορισμού της
συνάρτησης στην οποία η συνάρτηση εμφανίζει ολικό (ή
τοπικό) μέγιστο ή ελάχιστο.
Βελιστοποίηση (συνέχεια)
• Στην απλούστερη περίπτωση ένα πρόβλημα
βελτιστοποίησης συνίσταται στη μεγιστοποίηση ή στην
ελαχιστοποίηση μιας πραγματικής συνάρτησης
• Θεωρητικά, αυτό μπορεί να επιτευχθεί με συστηματική
επιλογή τιμών για την ανεξάρτητη ή τις ανεξάρτητες
μεταβλητές από ένα σύνολο επιτρεπτών τιμών και τον
υπολογισμό των αντίστοιχων τιμών της συνάρτησης από
τις οποίες επιλέγεται η βέλτιστη (μέγιστη ή ελάχιστη).
ΕΞΕΛΙΚΤΙΚΟΣ ΥΠΟΛΟΓΙΣΜΟΣ
Βελιστοποίηση (συνέχεια)
• Δεδομένης της πραγματικής συνάρτησης
από κάποιο σύνολο προς το σύνολο των πραγματικών
αριθμών, ζητείται να βρεθεί στοιχείο
τέτοιο ώστε:
• είτε
αν πρόκειται για ένα πρόβλημα μεγιστοποίησης,
• είτε
αν πρόκειται για ένα πρόβλημα ελαχιστοποίησης.
Βελιστοποίηση (συνέχεια)
Συνήθεις ονομασίες για τη συνάρτηση f είναι:
• αντικειμενική συνάρτηση (objective function) ή συνάρτηση
κόστους (cost function) αν το πρόβλημα αφορά
ελαχιστοποίηση, και
• συνάρτηση χρησιμότητας (utility function) ή ακόμη
συνάρτηση ενέργειας (energy function) αν το πρόβλημα
αφορά μεγιστοποίηση.
ΕΞΕΛΙΚΤΙΚΟΣ ΥΠΟΛΟΓΙΣΜΟΣ
Βελιστοποίηση (συνέχεια)
• Συνήθως για το πεδίο ορισμού της αντικειμενικής
συνάρτησης ισχύει ότι
και το A καθορίζεται από ένα σύνολο περιορισμών τους
οποίους απαιτείται να ικανοποιούν τα στοιχεία του. Το
σύνολο A ονομάζεται και χώρος αναζήτησης (search
space), ή ακόμη εφικτή περιοχή (feasible region), τα δε
στοιχεία του ονομάζονται υποψήφιες λύσεις (candidate
solutions) ή ακόμη εφικτές λύσεις (feasible solutions).
Βελιστοποίηση (συνέχεια)
Βελιστοποίηση - Παραδείγματα
• Να λυθεί το πρόβλημα: min ,
• Να λυθεί το πρόβλημα:
Η Αντικειμενική Συνάρτηση
• Οι κλασσικές μέθοδοι ενδείκνυνται σε προβλήματα όπου η
αντικειμενική συνάρτηση είναι συνεχής και παραγωγίσιμη,
γραμμική, κυρτή ή ακόμη είναι γνωστό πως στο χώρο των
υποψήϕιων λύσεων της υπάρχει ένα ολικό βέλτιστο ενώ
απουσιάζουν τα τοπικά βέλτιστα.
• Αντίθετα, οι ΕΑ καλούνται να αντιμετωπίσουν προβλήματα
στα οποία η αντικειμενική συνάρτηση δεν είναι
υποχρεωτικά παντού συνεχής και παραγωγίσιμη και επί
πλέον δεν υπάρχουν πληροϕορίες για το είδος και το
πλήθος των βέλτιστων σημείων.
Η Τεχνική Αναζήτησης
• Οι «κλασσικές» μέθοδοι βελτιστοποίησης διακρίνονται ως
προς την τεχνική αναζήτησης που υιοθετούν κυρίως σε
μεθόδους, εξαντλητικής αναζήτησης, στις οποίες ο χώρος
των υποψήϕιων λύσεων εξετάζεται εξαντλητικά, ή
στοχαστικής αναζήτησης.
• Στην περίπτωση των ΕΑ η μετάβαση στο επόμενο σημείο
του χώρου αναζήτησης καθοδηγείται από το αποτέλεσμα
της αναζήτησης στο τρέχον σημείο συνυπλογίζοντας
κάποιους τυχαίους παράγοντες που αϕορούν τη
διατήρηση της ποικιλομορϕίας μεταξύ των ατόμων του
πληθυσμού.
ΕΞΕΛΙΚΤΙΚΟΣ ΥΠΟΛΟΓΙΣΜΟΣ
ΑΣΑΦΗΣ ΛΟΓΙΚΗ
18 30
ΑΣΑΦΗΣ ΛΟΓΙΚΗ
1 2 3 4 5 6 7 8
a 0.25 0.25 0.25 0.25 0.25 0.25 0.25 0.25
b 0.5 0.5 0.5 0.5 0.5 0.5 0.5 0.5
c 0.5 0.5 0.75 1 1 0.7 0.6 0.5
d 0.5 0.5 0.75 0.75 0.75 0.7 0.6 0.5
e 0.5 0.5 0.5 0.5 0.5 0.5 0.5 0.5
ΤΕΧΝΗΤΑ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ
ΜΑΘΗΜΑ 5Ο
ΑΝΤΑΓΩΝΙΣΤΙΚΗ ΜΑΘΗΣΗ KAI
ΑΥΤΟΟΡΓΑΝΟΥΜΕΝΟΙ ΧΑΡΤΕΣ (SOM)
Ανταγωνιστική Μάθηση
• Η μέθοδος μαθησης σύμφωνα με την οποία οι νευρώνες ενός
δικτύου ανταγωνίζονται μεταξύ τους κατά τη διαδικασία της
μάθησης ως προς το ποιός νευρώνας εκπροσωπεί καλύτερα τα
δεδομένα
• Ένα ΤΝΔ ανταγωνιστικής μάθησης συνήθως αποτελείται από
– ένα επίπεδο εισόδου, και
– ένα επίπεδο με ανταγωνιστικούς νευρώνες, που ονομάζεται
ανταγωνιστικό επίπεδο (competitive layer).
• Τύποι ΤΝΔ ανταγωνιστικής μάθησης:
– Learning Vector Quantization (LVQ),
– Self Organizing Maps (SOM) ή Self-Organizing Feature Maps
𝑥1
𝑜1
𝑥2
𝑜2
𝑜𝑚
𝑥𝑛
Ομαδοποίηση (clustering)
• Διαμερισμός του συνόλου παραδειγμάτων σε υποσύνολα που
ονομάζονται ομάδες (clusters): θέλουμε τα δεδομένα της ίδιας
ομάδας να είναι 'κοντά' μεταξύ τους (σύμφωνα με κάποια νόρμα
απόστασης) και μακριά από τα δεδομένα των άλλων ομάδων.
• Συνήθως ο αριθμός των ομάδων καθορίζεται από τον χρήστη.
• Κάθε ομάδα μπορεί περιγράφεται από ένα αντιπρόσωπο:
συνήθως το κέντρο της ομάδας (κεντροειδές) δηλ. από τον μέσο
όρο των προτύπων (παραδειγμάτων εκπαίδευσης) της ομάδας.
– τ=τ+1
• Έλεγχος τερματισμού.
Εάν όχι t=t+1 και έναρξη νέας εποχής.
To δίκτυο SOM
• Προτάθηκε από τον T. Kohonen στα μέσα της δεκαετίας του 1980,
σε μια προσπάθεια μοντελοποίησης της διαδικασίας αυτο-
οργάνωσης που παρατηρείται σε πολλές περιοχές του
εγκεφαλικού ιστού και για διάφορες γνωστικές λειτουργίες.
• Οι νευρώνες στον φλοιό του εγκεφάλου είναι οργανωμένοι σε
πολλές περιοχές σχηματίζοντας το χάρτη του εγκεφάλου
To δίκτυο SOM
• Το χαρακτηριστικό της οργάνωσης σε περιοχές είναι ότι
διαφορετικά εξωτερικά ερεθίσματα (από τα αισθητήρια όργανα)
διεγείρουν τους νευρώνες σε διαφορετικές περιοχές στον
εγκέφαλο.
• Συγκεκριμένα, αισθήσεις όπως της αφής, της όρασης και της
ακοής, απεικονίζονται σε διαφορετικές περιοχές του
εγκεφαλικού φλοιού.
• Στην ουσία ο χάρτης ορίζεται από έναν πλέγμα νευρώνων οι
οποίοι είναι συντονισμένοι με τέτοιο τρόπο ώστε γειτονικοί
νευρώνες να αντιδρούν σε παρόμοια ερεθίσματα.
• Τα σήματα εισόδου απεικονίζονται στα σημεία του χάρτη,
ανάλογα με τα ιδιαίτερα χαρακτηριστικά τους.
To δίκτυο SOM
• Δίκτυο SOM: τεχνητό ανάλογο του βιολογικού χάρτη.
• Είναι ΤΝΔ ανταγωνιστικής μάθησης με ένα επί πλέον
χαρακτηριστικό: θεωρούμε ότι οι ανταγωνιστικοί νευρώνες είναι
τοποθετημένοι στους κόμβους ενός πλέγματος μιας ή δύο
(συνήθως) διαστάσεων.
• Κάθε ανταγωνιστικός νευρώνας χαρακτηρίζεται από δύο
ποσότητες:
α) το διάνυσμα βαρών (σημείο στο χώρο των προτύπων R )
n
To δίκτυο SOM
• Yλοποιείται ένας τοπογραφικός χάρτης (topographic map) των
δεδομένων εισόδου: oι θέσεις στο πλέγμα των νευρώνων που
είναι νικητές κατά τον ανταγωνισμό για κάποιο παράδειγμα
εισόδου είναι ενδεικτικές των χαρακτηριστικών αυτού του
παραδείγματος.
Συνήθως για το πεδίο ορισμού της αντικειμενικής συνάρτησης ισχύει ότι και
το καθορίζεται από ένα σύνολο περιορισμών τους οποίους απαιτείται να
ικανοποιούν τα στοιχεία του. Το σύνολο ονομάζεται και χώρος αναζήτησης
(search space), ή ακόμη εφικτή περιοχή (feasible region), τα δε στοιχεία του
ονομάζονται υποψήφιες λύσεις (candidate solutions) ή ακόμη εφικτές λύσεις (feasible
solutions).
1
αντικειμενικής συνάρτησης στο οποίο παίρνει τη βέλτιστη τιμή ονομάζεται
βελτιστοποιητής (optimizer) δηλ. ελαχιστοποιητής (minimizer) ή μεγιστοποιητής
(maximizer). Στην πλέον συνήθη μορφή του ένα πρόβλημα βελτιστοποίησης αφορά
στην ελαχιστοποίηση μιας αντικειμενικής συνάρτησης. Η διατύπωση ενός
προβλήματος βελτιστοποίησης συνήθως ακολουθεί τον εξής φορμαλισμό:
Όταν το πρόβλημα εστιάζει στην εύρεση του βελτιστοποιητή τότε η διατύπωση είναι:
Δηλαδή, οι τιμές της f για όλα τα σημεία που βρίσκονται σε μια περιοχή του
είναι μεγαλύτερες (ή μικρότερες) από την τιμή της f στο δηλαδή το . Αν
οι προηγούμενες ανισότητες ισχύουν για όλα τα σημεία x του πεδίου ορισμού της f
τότε το είναι ολικό ελάχιστο (ή ολικό μέγιστο) ή απλά βέλτιστο.
2
Ένας αλγόριθμος βελτιστοποίησης είναι ο αλγόριθμος καθορισμού του ελαχίστου (ή
του μεγίστου) μιας αντικειμενικής συνάρτησης. Η πλέον γνωστή περίπτωση
βελτιστοποίησης αφορά στην εύρεση του ελαχίστου μιας κυρτής συνάρτησης. Στην
περίπτωση αυτή ο αλγόριθμος συνίσταται στην εύρεση της ρίζας της πρώτης
παραγώγου της αντικειμενική συνάρτησης. Ως γνωστό, στο σημείο που μηδενίζεται η
πρώτη παράγωγος της η αντικειμενική συνάρτηση παρουσιάζει ακρότατο (ελάχιστο).
Παραδείγματα:
1. Να λυθεί το πρόβλημα: ( ),
Στο πρόβλημα αυτό το ελάχιστο της αντικειμενικής συνάρτησης είναι 1 και
επιτυγχάνεται για
3. Να λυθεί το πρόβλημα:
Ένας σημαντικός αριθμός αλγορίθμων που προτείνονται γιά την επίλυση μη κυρτών
προβλημάτων βελτιστοποίησης δεν είναι ικανοί να διαφοροποιήσουν ένα τοπικό
ελάχιστο (ή μέγιστο) από ένα ολικό ελάχιστο (ή μέγιστο), δηλαδή αυτό που
ονομάζεται, μιά αυστηρά βέλτιστη λύση. Έτσι κατά τη διαδικασία εξερεύνησης του
χώρου των εφικτών λύσεων το πρώτο σημείο που θα εντοπίσουν θα το θεωρήσουν ως
τη βέλτιστη λύση του προβλήματος.
3
Βελτιστοποίηση με Σμήνος Σωματιδίων
(Particle Swarm Optimization)
Η μέθοδος βελτιστοποίησης αυτή προτάθηκε από τους Kennedy και Eberhart στην
εργασία τους:
Προτερήματα
Εύκολη υλοποίηση
Προσέγγιση αδιάφορη προς την αλλαγή κλίμακας των μεταβλητών
Δεν κάνει χρήση της έννοιας της παραγώγου και του συνεπαγόμενου
υπολογιστικού κόστους
Χρησιμοποιεί ελάχιστες παραμέτρους
Χαρακτηρίζεται ως αποτελεσματική μέθοδος για την ολική εξερεύνηση του
χώρου των εφικτών λύσεων
4
Μειονεκτήματα
Παραδείγματα εφαρμογών
Ταυτοποίηση της νόσου Parkinson
Αναγνώριση εικόνας
Βελτιστοποίηση δικτύων διανομής ηλεκτρικής ενέργειας
Βιοχημικές διεργασίες
Ταυτοποίηση βιομηχανικών συστημάτων
Εκπαίδευση νευρωνικών δικτύων
Εξαγωγή κανόνων από ασαφή δίκτυα
κλπ.
5
Βασικός Αλγόριθμος PSO
Στη συνέχεια παρουσιάζεται η βασική έκδοση του αλγορίθμου, χωρίς κάποια από τις
διάφορες βελτιώσεις που έχουν παρουσιαστεί κατά καιρούς από διάφορους
συγγραφείς.
Ο όρος καλύτερη θέση για ένα σωματίδιο σημαίνει τη θέση στην οποία το
σωματίδιο έχει την καλύτερη τιμή για την αντικειμενική συνάρτηση δηλ. τη
μικρότερη ή τη μεγαλύτερη εφικτή τιμή.
Σημείωση: Η τιμή δεν είναι πάντα γνωστή και δεν χρησιμοποιείται σε όλες τις
εκδόσεις του αλγορίθμου.
6
όπου,
.
7
12.
13. Υπολογισμός της συνθήκης τερματισμού, Συνέχεια στο βήμα 10.
14. Τέλος αλγορίθμου. Προσδιορίστηκαν, η καλύτερη δυνατή θέση για τα σωματίδια
του σμήνους και η βέλτιστη τιμή που αντιστοιχεί στη θέση αυτή.
a)
Σχόλιο
Ένα σωματίδιο του σμήνους του οποίου η θέση υπολογίζεται σύμφωνα με τις
προηγούμενες σχέσεις από τον αλγόριθμο υπάρχει σοβαρός κίνδυνος να
«εκτροχιαστεί» αν δεν περιοριστεί. Γιά το λόγο αυτό έχουν προταθεί διάφορες
προσεγγίσεις εκ των οποίων οι επικρατέστερες είναι οι ακόλουθες:
Μέγιστη ταχύτητα
Σύμφωνα με τη μέθοδο αυτή μετά τον υπολογισμό των ταχυτήτων η ταχύτητα
κάθε σωματιδίου συγκρίνεται με μία προκαθορισμένη μέγιστη ταχύτητα
σύμφωνα με την ακόλουθη λογική:
εάν τότε
;
εάν τότε
Να σημειωθεί ότι η τιμή της μέγιστης ταχύτητας είναι δυνατό να αλλάζει κατά την
εκτέλεση του αλγορίθμου.
8
σωματιδίου σε κάθε επανάληψη. Συγκεκριμένα η σχέση υπολογισμού της
ταχύτητας των σωματιδίων παίρνει τη μορφή:
Είναι προφανές ότι η μέθοδος του αδρανειακού βάρους και η μέθοδος που
χρησιμοποιεί τον παράγοντα σύσφιγξης είναι ισοδύναμες.
9
Δυαδικά Σμήνη Σωματιδίων (Binary Particle Swarms)
Μια εκδοχή της μεθόδου PSO είναι αυτή στην οποία ισχύει ότι οι θέσεις των
σωματιδίων είναι οι κορυφές υπερ-κύβου στις n διαστάσεις. Αν και οι μεταβλητές
που αφορούν τις ταχύτητες των σωματιδίων του σμήνους είναι συνεχείς αλλά
περιορισμένες στο διάστημα και οι μεταβλητές και υπολογίζονται
όπως και στα σμήνη σωματιδίων με συνεχείς τιμές, εν τούτοις οι θέσεις των
σωματιδίων είναι σημεία του συνόλου . Έτσι η αντικειμενική συνάρτηση
έχει τη μορφή .
Για τον υπολογισμό των θέσεων των σωματιδίων χρησιμοποιείται ο ίδιος αλγόριθμος
με τις αναγκαίες τροποποιήσεις. Η βασική διαφορά έγκειται στο ότι οι ταχύτητες
υπολογίζονται όπως και στα σμήνη με συνεχείς τιμές αλλά ορίζονται με όρους
πιθανοτήτων. Έτσι η ταχύτητα του i σωματιδίου ορίζεται στο διάστημα
μέσω μιας διαδικασίας αναγωγής ή αλλιώς κανονικοποίησης η οποία συντελείται με
χρήση της γνωστής σιγμοειδούς συνάρτησης:
όπου βέβαια η τιμή της υπολογίζεται με χρήση της γνωστής, από την
προηγούμενη παράγραφο, σχέσης.
Σχόλια
Στη δυαδική εκδοχή του αλγορίθμου εκτός από την ερμηνεία της ταχύτητας που
αλλάζει σε σχέση με τη συνεχή εκδοχή διαφορετικός είναι και ο ρόλος του
αδρανειακού βάρους ή του συντελεστή σύσφιγξης. Το αποτέλεσμα των συντελεστών
αυτών είναι αντίθετο από εκείνο στη συνεχή εκδοχή.
Επί πλέον στη συνεχή εκδοχή μεγάλες τιμές για την ταχύτητα ή τη μέγιστη ταχύτητα
ενισχύουν την αναζήτηση. Αντίθετα στη δυαδική PSO μικρές τιμές της μέγιστης
ταχύτητας προωθούν την αναζήτηση και αν η μέγιστη ταχύτητα είναι μηδέν τότε η
αναζήτηση είναι καθαρά τυχαία (στοχαστική).
10