Professional Documents
Culture Documents
VI Užbenik 2015 CH 11 NN
VI Užbenik 2015 CH 11 NN
Neuronske
mree
U ovom poglavlju bie izloena osnovna svojstva, arhitekture i algoritmi obuavanja vetakih neuronskih mrea. Kao to je ve napomenuto u poglavljima 2 i 3,
neuronske mree predstavljaju osnovu tzv. konekcionistikog pristupa VI. Ovaj pristup, za razliku od komplementarnog simbolikog pristupa, podrava princip od dole
ka gore (botom-up), po kome se, polazei od senzorskih signala ili sirovih podataka,
induktivo kroz proces obuavanja, formiraju koncepti, pojmovi, kategorije i sl. Ove
apstrakcije formirane na izlaznim slojevima neuronskih sistema, mogu predstavljati
osnovu za prelazak na procesiranje simbolikih struktura i povezivanje sa sistemima
dizajniranim na osnovu simbolikog pristupa. Tipian primer ovakve sinergije dva
komplementarna pristupa je najnoviji Google-ov sistem, koji automatski tekstualno
opisuje ta se vidi na jednoj slici.
Neuronske mree pobudjuju velika oekivanja u oblasti VI, ne samo kao samostalni
blokovi modelovanja pojedinih preslikavanja, neophodnih u sintezi sistema VI, ve i
kao alat pomou koga se mogu modelovati bioloki neuronski sistemi, ukljuujui i
ovekov centralni nervni sistem i mozak. Ukoliko bi se u nekom trenutku tehnolokog
razvoja mogao simulirati sistem koji ima kapacite ljudskog mozga, oekuje se da bi
se time ostvarila najbolja mogua raunarska podloga za izuavanje svih kognitivnih
procesa prisutnih u naem mozgu, to bi u svakom sluaju dalo snaan podsticaj ostvarivanju veine ciljeva VI. Dananji najsloeniji simulatori pokrivaju samo procente ili
delove procenata ukupnog broja neurona i sinaptikih veza ljudskog mozga. Stoga su
tzv. emergentna svojstva neuronskih mrea (osobine nastale kao posledica interakcije
ogromnog broja jednostavnih elemenata) jo uvek van domaaja istraivaa.
......................
177
U velikoj meri se oblast vetakih neuronskih mrea danas razvija kao saostalna
oblast, u kojoj je VI samo jedna od oblasti primene. Neuronskih mrea su u okviru
mainskog uenja ve stekle status dobro teorijski obradjene oblasti, koja je stavlja u
istu ravan sa ostalim top tehnikama, kao to su SVM (Support Vector Machine) metode
ili grafki verovatnosni modeli. Poseban vetar u jedra je oblast dobila aktuelizovanjem
tzv. dubokih arhitektura za obuavanje, ime nastaje itava nova oblast DNN (Deep
Neural Networks), za koju se ispostavlja da je danas najefikasnije sredstvo za obradu
senzorskih signala ljudskog perceptivnog sistema, kao to su vizuelni i audio signali.
Ako neuronske mree posmatramo kao novu raunarsku paradigmu, moemo napraviti interesantna poredjenja sa klasinom raunarskom tehnikom zasnovanoj na
Fon Nojmanovoj arhitekturi, Tabela 11.1. i 11.2. Kao to se moe zapaziti, distinktivna
razlika neuronskih mrea u odnosu na klasino raunarstvo potie od masovnog paralelizma i brze adaptacije ogromnog broja konekcija sinapsi. U pogledu ekvivalentnog
programiranja, dok klasino raunarstvo zahteva eksplicitno pisanje programa u nekom
izabranom programskom jeziku, neuronske mree obavljaju namenjeni zadatak implicitno, preko faze obuavanja podrane primerima struktuiranim u tzv. obuavajue
skupove, to u izvesnom smislu odgovara konceptu automatskog adaptivnog programiranja, potpuno stranom za Fon Nojmanove arhitekture.
Neuronske mree
Zavisan od programa
7 Procesiranje je anarhino
8
Procesiranje je autokratino
Tabela 11.1 Slinosti i razlike izmedju neuronskih mrea i Fon Nojmaovog raunara.
......................
178
Neuronske
mree
Fon Nojmanov
digitalni raunar
1011 neurona
Memorijske jedinice
1011 neurona
1014 sinapsi
10 -9 sec
10-3 sec
Propusni opseg
1010 b/sec
1014 b/sec
Promene u vremenu
1010
1014
Tabela 11. 2. Slinosti i razlike izmedju neuronskih mrea i Fon Nojmaovog raunara,
kvantitativni pokazatelji
179
6. Otpornost na otkaz.
7. Mogunost realizacije u VLSI (Very Large Scale Integration) tehnologiji.
8. Uniformnost analize i sinteze. Neuron je zajedniki element za sve tipove neuronskih mree. Modularne neuronske mree se mogu formirati integracijom
pojedinih celina-modula. Za reavanje razliitih praktinih problema koriste se
iste teorijske postavke i algoritmi obuavanja.
9. Neurobioloke analogije. Neurobiolozi gledaju na neuronske mree kao istraivaki alat za interpretaciju neurobiolokih fenomena, i obrnuto, inenjeri gledaju na neurobiologiju kao oblast iz koje mogu da izvlae nove ideje za reavanje
kompleksnijih problema od onih koji se mogu reiti klasinim hardversko-softverskim tehnikama.
u k = wkj x j
j =1
180
(11.1)
y k = a (u k k )
(11.2)
Alternativni zapis
v k = wkj x j ,
y k = a (v k ) , x0 = 1, wk 0 = k . (11.3)
Sl.11.2. Nelinearni model neurona sa proirenim ulazom i prenosom praga u sinaptiku teinu.
Ako stavimo da je x 0 = 1, a
Sl.11.3. Nelinearni model neurona sa proirenim ulazom i bajasom u obliku sinaptike teine.
......................
181
1, v 0
a (v ) =
0, v < 0
Sl.11.4. Aktivaciona funkcija tipa praga. Neuron sa ovom aktivacionom funkcijom je poznat
kao McCulloch Pitts-ov model neurona (1943)
U delovima linearna
a(v)
1, v 1 / 2
v
1/2
-1/2
Sigmoidalna (logistika)
a(v)
1
a(v) =
b1
b2
1
1 + exp(bv)
b1 > b2
182
a(v)
1
1, v 0
a (v) = 0, v = 0
1, v < 0
-1
a(v)
b1
b2
v
1 exp(v)
a (v) = tanh( ) =
2 1 + exp(v)
b1 > b2
-1
......................
183
ulazni sloj
izlazni sloj
Vieslojne neuronske mree sa prostiranjem signala unapred (feedforward multilayer neural network)
skriveni sloj
ulazni sloj
izlazni sloj
184
z 1
z 1
z 1
Sl.11.11. Rekurentna neuronska mrea bez sopstvenih povratnih sprega i skrivenih slojeva.
Operator z-1 ima znaenje jedininog vremenskog kanjenja.
t
e
x
t
t
e
x
t
z 1
t
e
x
t
t
e
x
t
izlaz
z 1
t
e
x
t
z 1
t
e
x
t
t
e
x
t
te
ulaz
t
e
x
t
t
e
x
t
x
t
t
e
x
t
185
186
Sl.11.15 Samoobuavanje
Kod obuavanja sa uiteljem prisutan je obuavajui skup u formi parova {X(i),d(i)},
gde je X(i) ulaz, a d(i) eljeni izlaz.
Kod obuavanja sa podsticanjem, neuronska mrea dobija rudimentirane informacije o tome kakav izlaz produkuje, najee samo u formi jednog bita informacije
tipa {dobar, lo}. Analogno obuavanju sa uiteljem, ova forma obuavanja se moe
......................
187
tretirati na isti nain s tim to umesto uitelja, koji egzaktno ukazuje kakav odziv
neuronske mree treba da bude, u ovom sluaju imamo kritiara koji daje grublju
ocenu odziva neuronske mree.
Samoobuavanje je karakterisano odsustvom bilo kakve povratne sprege od okruenja.
11.7.1. OPTA FORMA PRAVILA OBUAVANJA
T
(w
=
, i 1, 2,..., n
i 1 , w i 2 ,..., w im )
wi ( t ) = r x( t ) , (11.4)
- koeficijent obuavanja pozitivna konstanta.
r signal obuavanja, u optem sluaju funkcija oblika
(11.5)
wi ( t + 1=
) wi ( t ) + f r ( wi ( t ),x( t ),di ( t )) x( t ) ,
(11.6)
Na osnovu opte jednaine (11.6), generisani su mnogi zakoni obuavanja, dominantno variranjem naina generisanja signala obuavanja r.
11.7.2 HEBOVO UENJE
Hebov princip uenja je jedan od najstarijih i najpoznatijih. Zasniva se na Hebovom
postulatu:
Kada je akson neurona A dovoljno blizu neurona B, tako da ga moe eksitovati, i
ako se to ponavlja dovoljno esto, deavaju se takve promene i metaboliki procesi u obe
elije da je efikasnost uticaja neurona A na neuron B poveana.
......................
188
r =yi , wi = yi x.
(11.7)
Hebovo uenje je u osnovi samoobuavajue, budui da nije prisutan signal eljenog izlaza. U skalarnoj formi (11.7), ima formu
=
wij =
yi x j , i 1,=
2,...,n, j 1,2,...,m (11.8)
{( x
(1)
,d ( 1 ) ),...,( x( p ) ,d ( p ) )} .
(11.9)
(k )
w j x(j k ) d=
, k 1,2,..., p (11.10)
=
j =1
E( w=
)
w j =
=
( d ( k ) W T x( k ) ) x(j k ) ,
k =1
j=
1,2,...,m
(11.13)
Ukoliko se ove promene obavljaju individualno za svaki ulazni signal x(k), nalazimo
da je
=
w j ( d ( k ) W T x( k ) ) x(j k )
(11.14)
to je poznato Vidrov-Hofovo pravilo obuavanja. Ono se susree i pod nazivom
LMS pravilo (pravilo najmanjih kvadrata, Least Mean Square).
Ako elimo da Vidrov-Hofovo pravilo obuavanja izvedemo iz opte jednaine
obuavanja, neophodno je staviti za signal uenja
r = d y = d W T x . (11.15)
......................
189
= n )
m broj ulaza
n brj izlaza
p duina obuavajueg skupa
......................
190
m
y i( k ) = a Wi T x ( k ) = a wij x (jk ) = d i( k ) ,
j =1
gde je
Wi T = [wi1 , wi 2 , , wim
]T
(11.17)
)] (
p
E
= d i( k ) a net i( k ) a ' net i( k ) x (jk )
wij
k =1
net i( k ) = Wi T x ( k )
a ' net i( k ) =
m
2
1 p n
1 p n
= d i( k ) a ( wiT x ( k ) ) = d i( k ) a wij x (jk ) .
2 k =1 i =1
2 k =1 i =1
j =1
(11.18)
a net i( k )
net i( k )
(11.19)
wij =
] (
E
= d i( k ) a(net i( k ) ) a ' net i( k ) x (jk )
wij
(11.20)
i naziva se Delta pravilo obuavanja (delta learning rule), koje se iz opteg pravila
obuavanja dobija stavljanjem
(11.21)
Opisana procedura konvergira ka nekom od lokalnih ekstremuma. Budui da kriterijum obuavanja poseduje vie lokalnih ekstremuma, gradijentna procedura (11.20)
ne garantuje globalni, ve samo neki od lokalnih ekstremuma, zavisno od poetnih
uslova i parametara obuavanja.
......................
191
Sl.11.19 George Cybenko (levo) i Kurt Hornik (desno). Cybenko je prvi pokazao 1989. godine
da je jednoslojna neuronska mrea univerzalni aproksimator. Hornik je 1991. godine pokazao
da svojstvo univerzalnog aproksimatora ne potie od posebnih osobina aktivacionih funkcija,
ve od same arhitekture neuronskih mrea.
Cibenkova Teorema
Vieslojna neuronska mrea sa najmanje jednim skrivenim slojem i aktivacionom
funkcijom koja poseduje sledea svojstva
1. lim a ( ) = 1
2. lim a ( ) = 0 (1)
3. a ( ) je neopadajua funkcija
aproksimira bilo koju Borel merljivu funkciju na kompaktnim skupovima, sa proizvoljnom tanou, pod uslovom da je na raspolaganju dovoljan broj neurona u
skrivenom sloju.
......................
192
193
net q = v qj x j ,
j =1
=
zq a=
vqj x j
( netq ) a
j =1
=
neti
=
wiq zq wiq a vqj x j .
q 1
=
q 1=j 1
=
=
yi a=
wiq zq a wiq a vqj x j .
( neti ) a =
=
q 1
=
j 1
q 1=
l
1 n
1 n
1 n
2
2
E ( w) = (d i y i ) = [d i a(net i )] = d i a wiq z q .
2 i =1
2 k =1
2 i =1
q =1
U skladu sa gradijentnim postupkom ekstremizacije, korekcija teina izmedju skrivenog i izlaznog sloja je data sa
wiq =
E
,
wiq
odnosno uzimajui u obzir relaciju o prostiranju unapred i lanano pravilo parcijalnih izvoda za E/wij, imamo
E y neti
[ di yi ] a ( neti ) zq =
0i zq ,
=
yi neti wiq
wiq =
i
0i =
E y
E
= i = [d i y i ] [a (net i )] ,
net i
y i net i
a (net i ) =
a(net i )
.
net i
......................
194
=
vqj
netq vqj
zq netq vqj
n
vqj
=
0i wiq a ( netq ) x j hq x j ,
i =1
=
netq
i =1
zq netq
hq =
Neka postoji m ulaznih i n izlaznih vorova. Neka qwij oznaava teinu veze izmedju
yi i qyi .
q-1
......................
195
ULAZ:
q
y i = a ( q net i ) = a q wij q 1 y j i, q
E=
Q
1 n (k ) Q
d i yi
2 i =1
) (
y i = d i( k ) Q y i a
+E ,
Q
net i .
196
ki
k i
Konzistentno, moe da ima znaenje ili npr. K uzastopnih koraka ili teinsko pokretno usrednjavanje E.
......................
197
E=
1
(d i yi ) p
p i
ebievljeva norma
, 1 p < ,
L = sup d i y i .
i
11.10.4.4 Momentum
Jedan od naina da se konstanta obuavanja povea, a da ne dodje do divergentnog oscilovanja je dodavanje tzv. momentum lana. Momentum je u stvari dodatni
inercijalni lan koji omoguava odvijanje procesa obuavanja u pravcu srednje sile
na dole. Ovo se moe ostvariti ukljuivanjem prethodnih promena teina u trenutnu
promenu, npr. na sledei nain
198
gde je
2 E
2 E( w ) , H ij =
H( w ) =
.
wi w j
E( w ) =
E( w0 ) + H( w0 )( w w0 ) + =
0.
Ako zanemarimo lanove reda veeg od dva u gornjem razvoju, dobijamo
w = w0 H 1 ( w)E ( w0 ) ,
ili u iterativnoj proceduri
w ( k +1) = w ( k ) H 1 ( w ( k ) )E ( w ( k ) ) ,
to je poznat Njutnov metod korekcije teina, za koga se dokazuje da u sluaju
konveksnih kriterijumskih funkcija E, konvergira kvadratno ka reenju. Medjutim i
dalje procedura ima niz nedostataka:
raunarska kompleksnost
zahteva dobro poetno pogadjanje
za ne konveksne kriterijumske funkcije moe da konvergira ka lokalnom ekstremumu i sedlastim takama.
Raunarski relaksirana metoda pogodna za implementaciju je npr. kvazi Njutnova
metoda ili algoritam konjugovanih pravaca.
11.10.4.6 Obuavajui skup i generalizacija.
Algoritam propagacije greke umazad ima dobra svojstva generalizacije. Neuronska
mrea dobro generalizuje ukoliko daje dobre interpolacije za nove ulaze, koji nisu bili
prisutni u postupku obuavanja. Neuronska mrea sa isuvie slobodnih parametara
za zadati obuavajui skup moe biti dobro obuena, sa velikom verovatnoom loe
generalizacije. Ovaj fenomen se naziva overfitting. Ukoliko medjutim mrea ima isuvie malo slobodnih parametara, nije u stanju da se obui na obuavajuem skupu, a
samim tim ima loe performanse i na test skupu (skup za testiranje obuhvata primere
koji ne pripadaju obuavajuem skupu). Budui da generalizacija predstavlja vano
svojstvo, razvijeno je vie procedura za njeno poboljanje.
......................
199
{(
) }
1 E f
2 x1
E f
+
x2
+ + f
xn
gde je Ef funkcional greke u standardnom algoritmu obuavanja. Razlog za ukljuivanje Eb je da njegova minimizacija u stvari znai, prema gornjoj definiciji, malu
osetljivost Ef na varijacije ulaza, to je i bio cilj.
b. Regularizacija. Ovaj metod se svodi na proirivanje kriterijumske funkcije tzv.
regularizacionim lanom
E= E +
gde je E standardni kriterijum, je parametar kojim se kontrolie uticaj dodatnog
lana , koji je u direktnoj vezi sa kompleksnou neuronske mree. Na taj nain,
~
minimizacijom ukupnog kriterijuma E postie se uslovna ekstremizacija standardnog kriterijuma E uz uslov minimalne kompleksnosti neuronske mree, koja je
osnovni uzrok overfittinga. Najee korien oblik regularizacionog lana je
1
wi2
2 i
,
poznat pod nazivom weight decay smanjivanje teina, pri emu se suma odnosi
na sve teine i bajase u mrei. Praksa pokazuje da se na ovaj nain postie znaajno
poboljanje generalizacije. Mogue heuristiko objanjenje ovog efekta se svodi
na sledee rezonovanje. Ukoliko su teine mree velike, aktivacije neurona su u
predelu zasienja, dakle nelinearnih oblasti koje upravo prouzrokuju kompleksna
preslikavanja mree, i obrnuto, za male vrednosti teina aktivacije su u predelu
linearnosti aktivacionih funkcija i kompleksnost mree je mala, ime se smanjuje
verovatnoa overfitinga za fiksiranu duinu obuavajueg skupa.
c. Rano zaustavljanje (Early stopping).
Tokom tipine procedure obuavanja greka obuavanja (vrednost kriterijumske
funkcije) po pravilu opada sa brojem iteracija obuavanja. Medjutim greka merena
na skupu podataka nezavisnih od obuavajueg skupa (test ili validacioni skup)
po pravilu opada do jedne odredjene vrednosti iteracia, a zatim poinje da raste,
......................
200
Sl.11.21. Ovaj rast je vezan za pojavu overfittinga, pa je stoga celishodno proceduru obuavanja zaustaviti u toj taki, iako kriterijumska funkcija na obuavajuem
skupu i dalje opada. Otuda naziv ove metode rano zaustavljanje.
d. Kresanje (Prunning)
Budui da je generalizacija vezana za adekvatan odnos izmedju broja slobodnih
parametara (bogatstvo arhitekture) i sloenosti modelovane pojave (struktura i
duina obuavajueg skupa), ideja kresanja se temelji na principu ostvarivanja to
boljih performansi sa to siromanijom arhitekturom. Operativno se ovo moe
postii sledeom klasom procedura:
Korak.1. Izabrati poetnu bogatu arhitekturu neuronske mree. Obuiti zatim.
neuronsku mreu na obuavajuem skupu i testirati na validacionom
skupu. Neka su vrednosti ovih kriterijuma Eobuka i Evalid .
Korak.2. Saobrazno nekom od unapred usvojenih kriterijuma znaajnosti parametra, iz raunati znaajnost svih parametara obuene neuronske
mree i sortirati ih po rastuim vrednostima, tako da se na prvom
mestu nalazi najneznaajniji parametar.
Korak.3. Izbaciti granu lil bajas koji odgovara najneznaajnijem parametru.
Na ovaj nain smo smanjili sloenost arhitekture i broj slobodnih
parametara
Korak.4. Za novu arhitekturu izvriti novu sluajnu inicijalizaciju mree i novo
obuavanje. Izraunati ponovo E'valid . Ako je E'valid Evalid , staviti da je
Evalid= E'valid i prei na korak 2., u suprotnom zaustaviti proceduru.
Nakon zavretka rada ovog algoritma, posedovaemo neuronsku mreu najsiromanije arhitekture i minimalne vrednosti kriterijumske funkcije na validacionom
skupu, to i jeste bio cilj.
......................
201
Sl.11.23 Poetna arhitektura neuronskog prediktora 12. reda, budui da koristi 12 prolih godina za predvidjanje sunevih pega u tekuoj godini. Primenjena neuronska mrea ima 12
ulaza, 8 neurona u skrivenom sloju i jedan izlazni neuron. Po svojoj prirodi to je jednoslojni
perceptron sa prostiranjem signala unapred.
......................
202
Sl.11.24 Prikaz analizirane vremenske serije broja sunanih pega u periodu (1700-1979). Posebno je oznaen interval treninga (1700-1920) i validacije (1921-1979).
Sl.11.25 Prikaz promene greke treninga u toku obuavanja poetne neuronske mree sa maksimalnim brojem sinaptikih veza.
......................
203
Sl.11.26 Prikaz tri vrste greke u toku procesa kresanja pune arhitekture: greka na treningu
(puna zelena linija), greka na test skupu (isprekidana crvena linija), procena finalne greke
predikcije (Final Prediction Error FPE) u funkciji broja parametara neuronske mree. Procena
FPE daje u stvari procenu greke generalizacije.
Sl. 11.27 Na osnovu analize zavisnosti FPE od broja parametara, Sl. 11.25, zakljuujemo da se
minimum FPE postie za arhitekturu od 27 parametara, koja je i prikazana na ovoj slici. Uoavamo da je za dobru predikciju dovoljno imati 4 neurona u skrivenom sloju. Primetimo da
sinaptike veze nacretane punom linijom odgovaraju ekscitirajuim, a isprekidanom linijom
inhibirajuim vezama.
......................
204
Nm
,
j =0 j
m
Nm
gde je =
0 , za N m < j .
j
( N m 1)( N m j + 1)
m!
, za N m > m.
205
206
Cilj prve faze je istovetan kao i kod projekata zasnovanih na informacionim tehnologijama, tj. identifikacija potencijalne primene i studija ostvarljivosti uz odgovarajuu
tehnoekonomsku analizu razvoja i uvodjenja reenja. Studija ostvarljivosti je praena
posebnim dokumentom - specifkacijom zahteva. Uobiajeno je da kod ovog tipa
projekata osnovni zahtev bude usmeren ka tanosti sistema, mada mogu biti prisutni
i zahtevi u pogledu ogranienja arihitekture, npr. broja ulaznih vorova.
Razvoj prototipa je iterativni postupak sukcesivnog poboljanja i optimizacije neuronskog sistema, sl.1. ime se omoguava razreavanje problema sinteze kroz eksperimentisanje. Evidentne prednosti ovakvog pristupa su:
eksperimenti se mogu obavljati i na pogodno odabranom podsistemu celovitog
reenja,
prototip i konano reenje mogu biti implementirani na razliitim hardversko
- softverskim platformama, ime se za svaku fazu razvoja mogu izabrati najpogodnije varijante,
prototip moe biti strogo testiran i verifikovan pre nego to se pristupi njegovoj
konverziji u konano reenje.
......................
207
Finalna faza konverzije prototipa u konano reenje, obuhvata eventualno reprogramiranje u operativno softversko reenje, kao i implementaciju dodatnih funkcija,
npr. specifinih korisnikih interfejsa. Ovu fazu implementiraju softver - inenjeri i
kao takva se malo razlikuje od ekvivalentnih faza implementacije klasinih informacionih sistema.
11.11.3 PLANIRANJE PROJEKTA
Planiranje i upravljanje projektom se moe posmatrati kao aktivnost u okviru tri
faze: planiranje (u cilju ostvarivanja postavljenih zahteva), realizcija (ostvarivanje plana
uz nadlgedanje i kontrolu aktivnosti) i analiza - revizija (odredjivanje ta je uradjeno
a ta ne, uz donoenje zakljuaka koji slue kao ulaz u naredni ciklus planiranih aktivnosti).
U odnosu na konvencionalne informacione projekte, neuroraunarski projekti
zahtevaju posebno planiranje faze razvoja prototipa i kolekcije podataka.
11.11.3.1 PLANIRANJE RAZVOJA PROTOTIPA
Prototipski razvoj unosi dodatne elemente neodredjenosti, kao to su:
broj ciklusa neophodnih za razvoj prototipa
vreme i resursi neophodni za razvoj prototipa
vreme i resursi neophodni za kolekciju neophodnih podataka
Posebno je vano odrediti ciljeve svakog ciklusa razvoja prototipa. Praksa je pokazala da je bolje usvojiti vei broj kraih ciklusa iako to zahteva vie napora za upravljanje
i kontrolu.
11.11.3.2. PLANIRANJE PRIKUPLJANJA PODATAKA
Praksa pokazuje da je ovaj deo planiranja neuroraunarskih projekata jedan od
najkritinijih. Istaknimo neke od tipinih tekoa:
prikupljanje podataka moe da obuhvata personal i organizacije koje nisu pod
direktnom kontrolom rukovodioca projekta
neophodnost korienja kompleksne i nedovoljno poznate akvizicione opreme
prikupljanje podataka je isprekidano svakodnevnim radnim aktivnostima date
radne organizacije.
Budui da ova aktivnost dominantno utie na vreme realizacije celokupnog projekta, posebno se moraju razmotriti sledee podaktivnosti:
provera celokupne glavne procedure kolekcije podataka
konverzija podataka, ukoliko je neophodna,
provera kvaliteta podataka.
Poeljno je da procedura prikupljanja podataka bude praena odgovarajuom dokumentacijom, naroito ako se obavlja od strane personala koji nije ukljuen u projekt.
......................
208
209
210
Pitanja i zadaci
1. Objasnite svojim reima razliku izmedju ljudsog mozga i savremenih digitalnih
raunara.
2. Zato je potrebno da aktivacione funkcije u modelu neurona budu neprkidne?
3. ta je smisao Hebovog uenja?
4. Ako je prema Cibenkovoj teoremi dovoljno imati samo jedan skriveni sloj neurona, da li uopte i zato imamo praktine potrebe za neuronskim mreama
sa vie skrivenih slojeva?
5. Ako BP algoritam putamo da radi vie puta za isti obuavajui skup, da li e i
rezultujua obuena neuronska mrea biti ista ili razliita?
6. Kako bi ste eksperimentalno odredili znaaj pojedinih ulaza u obuenu neuronsku mreu u odnosu na zadatak koji obavlja?
7. Kako bi ste dizajnirali sistem za nabolje predvidjanje sledeeg izvlaenja kombinacija u igri Loto, ako su vam na raspolaganju dobitne kombinacije iz prolih
izvlaenja?
......................
211
......................
212