Professional Documents
Culture Documents
x1 w1
w2 y
x2
∑
wn
xn
n
y = ∑ wixi (2.1)
i =1
y = WT . X. (2.2)
y1 y2 yk
w (11) w (21) ... w (n1) w (12 ) w (22 ) ... w (n2 ) w (1k ) w (2k ) ... w (nk )
x1
x2
xn
y = W kT ⋅ X (2.4)
- 21 -
δ = z – y. (2.5)
- 22 -
x1 w1
x2 w2 Σ y
xn w3
δ
Σ
y = ϕ (e) (2.6)
n
e = ∑ wi ⋅ xi (2.7)
i =1
n
e = ∑ wi ⋅ xi + b (2.8)
i =1
zapis wektorowy:
e = WT . X. (2.9)
x1
w1
wi e ϕ
xi Σ y
xn wn bias
b=1
1 gdy e≥0
ϕ (e) = (2.10)
0 gdy e<0
ϕ (e)
0 e
lub
1 gdy e≥0
ϕ (e) = (2.11)
-1 gdy e<0
ϕ (e)
0 e
-1
ϕ (e)
0 e
1
ϕ (e) = (2.12)
1 + exp (− β ⋅ e)
Zaletą tej funkcji jest prosta i łatwa do obliczenia wartość jej pochodnej,
którą wykorzystuje się przy uczeniu sieci (rozdział 3)
dϕ
= ϕ (e) ⋅ (1 − ϕ (e)) (2.13)
de
- 26 -
ϕ (e)
1,0
0,8
0,6
0,5
0,4
0,2
-4 -2 0 2 4 e
ϕ (e)
1,0
0,75
0,5
0,25
-4 -2 0 2 4 e
- 0,25
- 0,5
- 0,75
- 1,0
dϕ
= (1 + ϕ (e) ) (1 − ϕ (e) ). (2.15)
de
• funkcję signum
1 gdy e>0
ϕ (e) = 0 gdy e=0 (2.17)
-1 gdy e<0
w1,1 e1 ϕ
x1 Σ y1
b1
1
e2 ϕ
x2 Σ y2
b2
1
ek ϕ
xn
wk,n Σ yk
bk
1
Rys. 2.10. Pojedyncza warstwa neuronów [3]
Po połączeniu kilku warstw powstaje sieć:
wejście 1-sza warstwa neuronów 2-ga warstwa neuronów 3-cia warstwa neuronów
y = ϕ (WT . X +B)
1 1 1
e1(2) y1(2) e2(2) y2(2) e3(2) y3(2)
x(2) Σ ϕ1 Σ ϕ2 Σ ϕ3
- 29 -
e1( k ) y1( k ) e 2( k )
y 2( k )
e3( k y 3( k )
)
x(n) w Σ
1
ϕ1 1
Σ
2
ϕ2 2
Σ
3
ϕ3 3
1( k1 , n )
w 2( k ,k1 )
w 3( k ,k 2 )
b1( k ) 2
b 2( k )
3
b 3( k )
1 2 3
1 1 1
(2.18)