Professional Documents
Culture Documents
sn14 01 Perceptron
sn14 01 Perceptron
26 luty 2014
1
Igor T. Podolak, WMiI UJ
igor.podolak@uj.edu.pl
/17
1/17
1. biologiczne rda
3. Zadania nauczania
4. modele nauczania
igor.podolak@uj.edu.pl
/17
2/17
2. dowiadczenia
zdolno do generalizacji
pojcie ryzyka i ryzyka empirycznego
funkcje kosztu i ocena poprawnoci
kwadratowa, Hamminga,
koszt jako funkcja L(x, y(x), y(x))
zbir uczcy / testujcy / walidujcy
1outofn
walidacja krzyowa
bootstrap oraz bd typu Err0.632
f1, Mattweths Correlation Coefcient,
3. testy statystyczne
test t-Studenta, test F
porwnywanie klasykatorw
rangowe porwnywanie klasykatorw na rnych zbiorach
3
Igor T. Podolak, WMiI UJ
igor.podolak@uj.edu.pl
/17
3/17
2. perceptron
model McCulloch-Pittsa
liniowa separowalno problemu
nauczanie perceptronu przez popraw bdu
zbieno procesu nauczania
rozszerzenia gdy problem nie jest separowalny
igor.podolak@uj.edu.pl
/17
4/17
newtonowska, quasi-newtonowska
quickprop
brain surgeon i optimal brain surgeon
LevenbergMarquardt
3. nauczanie ze wspzawodnictwem
winnertakesall
sieci Kohonena
adaptacja w sieciach typu GNG
5
Igor T. Podolak, WMiI UJ
igor.podolak@uj.edu.pl
/17
5/17
1. sieci rekurencyjne
model Hopelda
prbkowanie Gibbsa
modele nauczania oparte o energi
warunki zbienoci nauczania w modelu Hopelda
trudne problemy a model Hopelda
6
Igor T. Podolak, WMiI UJ
igor.podolak@uj.edu.pl
/17
6/17
Literatura
1. Simon Haykin Neural networks and learning machines, Pearson 2009
2. David Hand, Heikki Mannila, Padhraic Smyth Principles of data mining,
MIT Press 2001
3. Trevor Hastie, Robert Tishirani, Jerome Friedman The elements of
Statistical Learning, Springer 2001
4. Christopher M. Bishop Pattern recognition and machine learning, Springer
2006
5. John Hertz, Anders Krogh, Richard Palmer Wstp do teorii oblicze
neuronowych, WNT 1993
6. Daphne Koller, Nir Friedman Probabilistic Graphical models: principles
and techniques, MIT Press 2009
7. Stanisaw Osowski Sieci neuronowe w ujciu algorytmicznym, WNT 1996
8. artykuy, skrypty
7
Igor T. Podolak, WMiI UJ
igor.podolak@uj.edu.pl
/17
7/17
klasykator liniowy
.
Denicja (klasykator liniowy)
.
Klas klasykatorw deniowanych przez hiperpaszczyzn
< w, x > +b = 0
odpowiadajcej funkcji decyzyjnej
igor.podolak@uj.edu.pl
17
8/17
Architektura perceptronu
1. neuron McCullochPitts w ktrym po kombinacji
(v)
decyzyjn ni=1 wi xi + b = 0
b .
x1 x2 x3 x4
xn
9
igor.podolak@uj.edu.pl
/17
9/17
Architektura perceptronu
nauczanie
(v)
v
b .
x1 x2 x3 x4
xn
10
/17
10/17
y
(v)
v
b .
x1 x2 x3 x4
xn
11
Igor T. Podolak, WMiI UJ
igor.podolak@uj.edu.pl
/17
11/17
wT (n)x(n)
(v)
v
b .
x1 x2 x3 x4
xn
11
Igor T. Podolak, WMiI UJ
igor.podolak@uj.edu.pl
/17
11/17
wT (n)x(n)
(v)
v
b .
x1 x2 x3 x4
xn
11
Igor T. Podolak, WMiI UJ
igor.podolak@uj.edu.pl
/17
11/17
wT (n)x(n)
(v)
ktrego
wT x(n)
x1 x2 x3 x4
xn
11
Igor T. Podolak, WMiI UJ
igor.podolak@uj.edu.pl
/17
11/17
wT (n)x(n)
(v)
ktrego
wT x(n)
niech =
T x(n)
min wopt
b .
x(n)C1
x1 x2 x3 x4
xn
11
Igor T. Podolak, WMiI UJ
igor.podolak@uj.edu.pl
/17
11/17
wT (n)x(n)
(v)
ktrego
wT x(n)
niech =
T x(n)
min wopt
b .
x(n)C1
x1 x2 x3 x4
xn
11
Igor T. Podolak, WMiI UJ
igor.podolak@uj.edu.pl
/17
11/17
wT (n)x(n)
(v)
ktrego
wT x(n)
niech =
T x(n)
min wopt
b .
x(n)C1
z nierwnoci CauchySchwartza
T w(n + 1)]2
wopt 2 w(n + 1)2 [wopt
x1 x2 x3 x4
xn
11
Igor T. Podolak, WMiI UJ
igor.podolak@uj.edu.pl
/17
11/17
wT (n)x(n)
(v)
ktrego
wT x(n)
niech =
T x(n)
min wopt
b .
x(n)C1
z nierwnoci CauchySchwartza
T w(n + 1)]2
wopt 2 w(n + 1)2 [wopt
igor.podolak@uj.edu.pl
x1 x2 x3 x4
xn
n2 2
wopt 2
11
11/17
/17
w(n + 1)2
n2 2
wopt 2
y
(v)
v
b .
x1 x2 x3 x4
xn
12
Igor T. Podolak, WMiI UJ
igor.podolak@uj.edu.pl
/17
12/17
w(n + 1)2
n2 2
wopt 2
y
(v)
v
b .
x1 x2 x3 x4
xn
12
Igor T. Podolak, WMiI UJ
igor.podolak@uj.edu.pl
/17
12/17
w(n + 1)2
n2 2
wopt 2
(v)
x1 x2 x3 x4
xn
12
Igor T. Podolak, WMiI UJ
igor.podolak@uj.edu.pl
/17
12/17
w(n + 1)2
n2 2
wopt 2
(v)
b .
x1 x2 x3 x4
xn
12
Igor T. Podolak, WMiI UJ
igor.podolak@uj.edu.pl
/17
12/17
w(n + 1)2
n2 2
wopt 2
(v)
b .
x1 x2 x3 x4
xn
12
Igor T. Podolak, WMiI UJ
igor.podolak@uj.edu.pl
/17
12/17
w(n + 1)2
n2 2
wopt 2
(v)
b .
w(0) = 0 mamy
w(n + 1)2
x1 x2 x3 x4
xn
x(k)2 n
k=1
12
Igor T. Podolak, WMiI UJ
igor.podolak@uj.edu.pl
/17
12/17
n2 2
wopt 2
w(n + 1)2 n
(v)
v
b .
x1 x2 x3 x4
xn
13
Igor T. Podolak, WMiI UJ
igor.podolak@uj.edu.pl
/17
13/17
n2 2
wopt 2
w(n + 1)2 n
(v)
v
nmax =
b .
wopt 2
2
x1 x2 x3 x4
xn
13
Igor T. Podolak, WMiI UJ
igor.podolak@uj.edu.pl
/17
13/17
n2 2
wopt 2
w(n + 1)2 n
(v)
v
nmax =
b .
wopt 2
2
x1 x2 x3 x4
xn
iteracji
13
Igor T. Podolak, WMiI UJ
igor.podolak@uj.edu.pl
/17
13/17
1. w(0) = 0
y
(v)
v
b .
x1 x2 x3 x4
xn
14
igor.podolak@uj.edu.pl
/17
14/17
1. w(0) = 0
(v)
v
b .
x1 x2 x3 x4
xn
14
igor.podolak@uj.edu.pl
/17
14/17
1. w(0) = 0
2. y(n) = sgn[wT (n)x(n)]
(v)
v
b .
x1 x2 x3 x4
xn
14
igor.podolak@uj.edu.pl
/17
14/17
1. w(0) = 0
2. y(n) = sgn[wT (n)x(n)]
(v)
v
b .
x1 x2 x3 x4
xn
14
igor.podolak@uj.edu.pl
/17
14/17
1. w(0) = 0
2. y(n) = sgn[wT (n)x(n)]
(v)
v
b .
x1 x2 x3 x4
xn
14
igor.podolak@uj.edu.pl
/17
14/17
1. w(0) = 0
2. y(n) = sgn[wT (n)x(n)]
(v)
v
b .
x1 x2 x3 x4
xn
14
igor.podolak@uj.edu.pl
/17
14/17
1. w(0) = 0
2. y(n) = sgn[wT (n)x(n)]
(v)
v
b .
x1 x2 x3 x4
xn
14
igor.podolak@uj.edu.pl
/17
14/17
Perceptron
nauczanie w trybie batch i algorytm gradientowy
J(w) =
(wT x)
xmisclass
J(w) =
(x)
xmiclass
=
,
,...,
w0 w1
wN
]T
= w(n) + (n)
xmisclass
15
Igor T. Podolak, WMiI UJ
igor.podolak@uj.edu.pl
/17
15/17
Perceptron
problemy
poprawnych klasykacji
sieci Pao
rozszerzenie wejcia o dodatkowe elementy, ktre s losowymi nieliniowymi
igor.podolak@uj.edu.pl
/17
16/17
Perceptron
1. perceptron jest sieci jedno-warstwow i dziaa tylko
jeli problem jest liniowo separowalny
(v)
v
b .
x1 x2 x3 x4
xn
17
igor.podolak@uj.edu.pl
/17
17/17