Professional Documents
Culture Documents
neuronowe
Jerzy Stefanowski
Plan wykadu
1. Wprowadzenie
2. Model sztucznego neuronu.
3. Topologie sieci neuronowych
4. Reguy uczenia sieci neuronowych.
5. Klasyfikacja sieci neuronowych.
6. Sieci warstwowe uczone algorytmem BP.
7. Zastosowania.
Pozna, 2006
Wprowadzenie
Sztuczna sie neuronowa (SSN) - definicje:
Zbir prostych jednostek obliczeniowych
przetwarzajcych dane, komunikujcych si ze sob i
pracujcych rwnolegle.
Lub inaczej:
Zbir poczonych ze sob jednostek wejciwo-wyjciowych.
Z kadym poczeniem skojarzona jest waga, ktra moe
zosta zmieniona w trakcie uczenia.
topologii,
w0
w1
w2
w3
f(e)
wn
x
e = wi xi = wT x
i =1
e = wi xi = wT x
i =0
y = f (e)
Funkcje aktywacji
Ma istotne znaczenie dla dziaania neuronu.
Podstawowe typy funkcji:
liniowa y = ke
nieliniowe (cige i niecige, unipolarne i bipolarne)
funkcja skoku jednostkowego, progowa (McCulloch i Pitts):
1 dla e
f (e ) =
0 dla e <
funkcja sigmoidalna:
f (e ) =
1
1 + exp( e )
wspczynnik stromoci
1,2
1
0,8
0,6
0,4
0,2
0
f(e)
-6
-4
-2
f (e) = tgh(
)=
1 exp(e)
1 + exp(e)
warstwa wyjsciowa
warstwy ukryte
warstwa wejsciowa
wejscia sieci
sie
adaptacyjna
W
obliczanie
odlegoci
z-y
Pozdana
odpowied
z
j = z j y j = z j wT x j
Korekta wag jest nastpujca (Widrow,Hoff 1962):
wi = j xij
Regua delta
Obowizuje dla neuronw z cigymi funkcjami aktywacji i nadzorowanego
trybu uczenia. Regu delta wyprowadza si jako wynik minimalizacji
kryterium bdu redniokwadratowego Q.
1 N j
Q= z yj
2 j =1
= Q j,
j =1
Qj =
( )
j 2
Korekta wag:
wi = j f ' (e j ) x j
i
wi = j (1 y j ) y j x j
i
synchroniczny
asynchroniczny:
Topologia
Propagacja
pobudzenia
Perceptron warstwowa
synchron.
SOM
Hopfield
warstwowa
rekurencyjna
synchron.
synchr. lub
asynchr
Poczenia
Uczenie
kady
nadzor.
z kadym
warstwami
spec. jedno- nienadzor.
warstwa
kady
nienadzor.
z kadym
iteracyjne
iteracyjne
w jednym
kroku
j
( k ,l )
N l +1
1.
2.
3.
4.
5.
6.
Sp
Sk
wi
Q j
wi =
wi
j
Q t
w =
+ wit 1
wi
t
i
(0.1)
modyfikacja przyrostowa:
Poprawki obliczone przy prezentacji wzorca s uywane bezporednio
(w tym samym kroku algorytmu) do modyfikacji wag.
Problem "przeuczenia"
"Przeuczenie" (overlearning): sie uczy si "zbyt dobrze" pojedynczych
obiektw, nie generalizujc (szczeglnie istotne w interesujcym nas
zastosowaniu w uczeniu maszynowym, ML)
y
1
Qnew = Q + wi2
2 i
Wada: bardziej karze za jedn du wag, ni za wiele maych.
usuwanie wag
usuwanie nadmiarowych neuronw
specjalizowane algorytmy uczce:
cascade correlation