Professional Documents
Culture Documents
Univerzitet u Beogradu
1. UVOD 3
1.1 Osnovna jedinica i struktura ANN 4
1.2 Tokovi informacija kroz ANN 4
2. PRINCIP RADA ANN 6
2.1 Model neurona 6
2.2 Preciznost modela 7
2.3 Razvoj ANN modela 12
3. PRIMENA I NEDOSTACI ANN 13
3.1 Nedostaci ANN 14
4. ANN U HEMIJSKOM INŽENJERSTVU 15
3.1 Primer upotrebe ANN u hemijskom inženjerstvu 15
5. ZAKLJUČAK 19
6. LITERATURA 20
2
1. UVOD
“Verujem da će se na kraju veka korišćenje reči kao i opšte mišljenje obrazovanih toliko izmeniti da
će razgovor o tome kako mašine razmišljaju biti moguć bez očekivanja kontradikcije.”
ˮI believe that at the end of the century the use of words and general educated opinion will have altered so
much that one will be able to speak of machines thinking without expecting to be contradictedˮ
Ljudski mozak sadrži otprilike 100 milijardi neurona međusobno povezanih sinapsama, koji su
sačinjeni od tela ćelije – some (slika 1). Telo ima određen broj ulaza tj. dendrita, koji dovode
informacije ka somi i jedan akson, preko kojeg se prenosi rezultat rada tj. izlaz ćelije. U
računaru, ekvivalent neurona bio bi nanoskopski prekidački uređaj koji se zove tranzistor.
Moderni mikroprocesori sadrže preko dve milijarde tranzistora, spakovanih u integrisano kolo
površine od oko 25 kvadratnih milimetara.
Slika 1: Prikaz dve nervne ćelije (dva neurona) međusobno povezanih sinapsama [2]
3
1.1 Osnovna jedinica i struktura ANN
Standardna artificijelna neuronska mreža ima od nekolicine do stotinu, hiljadu, čak i milion
veštačkih neurona tj. jedinica, umreženih u serije slojeva, gde je svaki neuron povezan sa oba
sloja sa obe strane. Neki od njih, koji su grupisani u početnom sloju (sloju ulaza), dizajnirani su
tako da primaju različite oblike informacija iz spoljašnjeg sveta. Jedinice koje se nalaze u
krajnjem, izlaznom, sloju, signaliziraju način na koji mreža reaguje na naučene informacije.
Između leži jedan ili više skrivenih slojeva, koji zajedno čine većinu veštačkog mozga. Većina
neuronskih mreža su potpuno povezane, što znači da je svaki neuron iz skrivenog nivoa kao i
svaki neuron iz izlaznog sloja, spojen sa svakim neuronom iz slojeva sa obe strane. Ove veze su
predstavljene brojem koji se definiše kao težina. Težina može da bude ili pozitivna (ukoliko
jedan neuron pobuđuje drugog) ili negativna (ukoliko jedan neuron inhibira drugog). Što je ova
težina veća, veći je uticaj jedanog neurona na drugi. Prave neuronske ćelije pobuđuju jedne
druge na sličan način kroz sinapse. Na slici 2 prikazan je jedan veštački neuron sa svojim
elementima: ulazi sa težinskim koeficijentima, izlaz i aktivaciona funkcija o kojima će biti više
reči u daljem tekstu.
Tok informacija kroz neuronsku mrežu odvija se na dva načina. Kada uči, tj. dok biva trenirana
ili radi u uobičajenom režimu (nakon što se istrenira), šabloni informacija ulaze u mrežu putem
ulaznog sloja, koji potom dalje pobuđuje slojeve skrivenih jedinica, da bi na kraju završili u
izlaznom sloju. Ovakav uobičajeni dizajn zove se mreža propagacije unapred (eng. Feedforward
network). Svaka jedinica dobija svoj ulaz od jedinica iz prethodnog sloja, nakon čega se ulazne
vrednosti množe sa težinama veza kojima su povezane. Svaka jedinica sumira sve ulazne
vrednosti koje dobija na ovakav način. Ako je suma veća od određene vrednosti, koja se obično
zove prag (eng. Threshold), jedinica se aktivira i pobuđuje jedinice sa kojima je povezana sa
desne strane.
4
Slika 3: Struktura ANN sa jednim skrivenim slojem i međusobno povezanim jedinicama [4]
Imajući u vidu široku primenu ANN u prepoznavanju šablona, veoma jednostavan primer za
razumevanje principa rada ANN je upravo onaj koji pokazuje na koji bi način ANN došla do
odgovora na ovakva i slična pitanja. Ulazi neuronske mreže su brojevi, tako da je svaka jedinica
ulaza ili isključena ili uključena. Ako postoji pet ulaznih jedinica, mreža se može izložiti
informacijama o pet različitih karakteristika stolica koristeći binarne da/ne odgovore. Pitanja bi
bila npr. Da li ima naslon? Da li ima ploču? Da li je tapaciran? Da li može udobno da se sedi duže
vreme? Da li može da se stavi veća količina stvari na površinu? Tipična stolica bi bila
predstavljena sa Da, Ne, Da, Da, Ne ili binarno 10110, dok bi tipični sto bio predstavljen sa Ne,
Da, Ne, Ne, Da ili 01001. Tokom faze učenja, ANN zapravo samo posmatra veliku količinu
brojeva kao što su 10110 i 01001 i uči da neki od njih znače stolica (što bi na primer bio izlaz 1),
dok neki drugi znače sto (izlaz 0). [6]
5
2. PRINCIP RADA ANN
Kao što je već pomenuto, osnovna komponenta neuronskih mreža je neuron (element
procesiranja). U skladu sa slikom 2, dat je sledeći matematički model [7]:
Za prenosnu (aktivacionu) funkciju koriste se linerana f-ja, sigmoidalna kriva (S), stepenasta
(Heaviside-ova) funkcija i druge. Najčešće je u upotrebi sigmoidalna kriva koja se izražava kao:
1
y (4)
1 e wT X
j
6
2.2 Preciznost modela
Algoritam propagacije unazad (BNN) bio je presudan za široku komercijalnu upotrebu ANN
metodologije. Ovim postupkom, ulaz se propagira kroz mrežu od ulaznog do izlaznog sloja, a
zatim se određuje greška koja se vraća unazad sve do ulaznog sloja ugrađujući se u formulu za
učenje. Standardni algoritam uključuje optimizaciju greške koristeći deterministički algoritam
gradijentnog opadanja (eng. gradient descent). Glavni nedostatak ovog algoritma je problem
čestog pronalaženja lokalnog umesto globalnog minimuma greške, stoga novija istraživanja
uključuju njegovo unapređivanje nekim drugim determinističkim (npr. metode drugoga reda) ili
stohastičkim metodama kao što su simulirano žarenje ili genetski algoritmi [8]. Primera radi, GA
se sastoje od tri osnovne genetske operacije koje se izvršavaju u svakoj iteraciji: selekcije,
ukrštanja i mutacije (nalik na biološke sisteme). Navedene operacije se koriste da bi se početno
rešenje problema modifikovalo tokom iteracija, čime se dolazi do optimalnog rešenja problema.
Genetski algoritmi simultano analiziraju više rešenja, čime se brže dolazi do konvergencije na
globalnom nivou, pri čemu se smanjuje verovatnoća da se iterativni proces zaustavi na nekom
od lokalnih minimuma [9].
BNN algoritam - tok podataka kroz mrežu može se ukratko opisati u nekoliko koraka:
1. od ulaznog sloja prema skrivenom sloju: ulazni sloj učitava podatke iz ulaznog
vektora X, i šalje ih u prvi skriveni sloj,
2. u skrivenom sloju: jedinice u skrivenom sloju primaju ulaz i prenose ga u naredni
skriveni ili u izlazni sloj koristeći prenosnu funkciju,
3. kako informacije putuju kroz mrežu, računaju se sumirani ulazi i izlazi za svaku jedinicu
obrade,
4. u izlaznom sloju: za svaku jedinicu obrade, računa se skalirana lokalna greška koja se
upotrebljava u određivanju povećanja ili smanjenja težina,
5. propagiranje unazad od izlaznog sloja do skrivenih slojeva: skalirana lokalna greška, te
povećanje ili smanjenje težina računa se za svaki sloj unazad, počevši od sloja
neposredno ispod izlaznog sve do prvog skrivenog sloja, a težine se podešavaju.
7
Zapis:
Delta pravilo predstavlja određivanje greške između izračunatog izlaza i primeraka izlaznih
podataka uz implementaciju forme gradijentnog opadanja. To znači da se za iterativno
ažuriranje vektora težinskih faktora W koriste parcijalni izvodi funkcije kvadrata odstupanja po
težinama. Time se zapravo dobija osetljivost funkcije greške na promenu težina. Za primenu
ovog algoritma potrebno je odabrati pogodnu funkciju prenosa, kojoj se lako (sa malo
izračunavanja) može odrediti izvod. Zato se koriste sigmoidalne funkcije koje su kontinualne i
diferencijabilne:
1
Izvod σ(x) => σ’= σ (1 – σ) (5)
1 e X
Greška za jednu iteraciju treninga mreže je predstavljena kao suma kvadrata odstupanja
pojedinačnih neurona iz izlaznog sloja:
1
E (Ok tk ) (6)
2
2 k K
𝜕𝐸
Potrebno je odrediti , odnosno stepen promene greške u odnosu na dat težinski faktor,
𝜕𝑊𝑗𝑘
kako bi bilo moguće minimizovati grešku. Potrebno je razmotriti dva slučaja, ukoliko se čvor
nalazi u izlaznom sloju, ili u skrivenom sloju.
𝜕𝐸 𝜕 1
= ∑(𝑂𝑘 − 𝑡𝑘 )2 (7)
𝜕𝑊𝑗𝑘 𝜕𝑊𝑗𝑘 2
𝑘∈𝐾
𝜕𝐸 𝜕
= (𝑂𝑘 − 𝑡𝑘 ) 𝑂 (8)
𝜕𝑊𝑗𝑘 𝜕𝑊𝑗𝑘 𝑘
𝜕𝐸 𝜕
= (𝑂𝑘 − 𝑡𝑘 ) 𝜎(𝑥𝑘 ) (9)
𝜕𝑊𝑗𝑘 𝜕𝑊𝑗𝑘
𝜕𝐸 𝜕𝑥𝑘
= (𝑂𝑘 − 𝑡𝑘 )𝜎(𝑥𝑘 )(1 − 𝜎(𝑥𝑘 )) (10)
𝜕𝑊𝑗𝑘 𝜕𝑊𝑗𝑘
𝜕𝐸
= (𝑂𝑘 − 𝑡𝑘 )𝑂𝑘 (1 − 𝑂𝑘 )𝑂𝑗 (11)
𝜕𝑊𝑗𝑘
8
Zbog jednostavnijeg zapisa uvodi se:
𝛿𝑘 = 𝑂𝑘 (1 − 𝑂𝑘 )(𝑂𝑘 − 𝑡𝑘 ) (12)
𝜕𝐸
= 𝑂𝑗 𝛿𝑘 (13)
𝜕𝑊𝑗𝑘
𝜕𝐸 𝜕 1
= ∑(𝑂𝑘 − 𝑡𝑘 )2 (14)
𝜕𝑊𝑖𝑗 𝜕𝑊𝑖𝑗 2
𝑘∈𝐾
𝜕𝐸 𝜕
= ∑(𝑂𝑘 − 𝑡𝑘 ) 𝑂 (15)
𝜕𝑊𝑖𝑗 𝜕𝑊𝑖𝑗 𝑘
𝑘∈𝐾
𝜕𝐸 𝜕
= ∑(𝑂𝑘 − 𝑡𝑘 ) 𝜎(𝑥𝑘 ) (16)
𝜕𝑊𝑖𝑗 𝜕𝑊𝑖𝑗
𝑘∈𝐾
𝜕𝐸 𝜕𝑥𝑘
= ∑(𝑂𝑘 − 𝑡𝑘 ) 𝜎(𝑥𝑘 )(1 − 𝜎(𝑥𝑘 )) (17)
𝜕𝑊𝑖𝑗 𝜕𝑊𝑖𝑗
𝑘∈𝐾
𝜕𝐸 𝜕𝑥𝑘 𝜕𝑂𝑗
= ∑(𝑂𝑘 − 𝑡𝑘 ) 𝑂𝑘 (1 − 𝑂𝑘 ) ⋅ (18)
𝜕𝑊𝑖𝑗 𝜕𝑂𝑗 𝜕𝑊𝑖𝑗
𝑘∈𝐾
𝜕𝐸 𝜕𝑂𝑗
= ∑(𝑂𝑘 − 𝑡𝑘 ) 𝑂𝑘 (1 − 𝑂𝑘 )𝑊𝑗𝑘 (19)
𝜕𝑊𝑖𝑗 𝜕𝑊𝑖𝑗
𝑘∈𝐾
𝜕𝐸 𝜕𝑂𝑗
= ∑(𝑂𝑘 − 𝑡𝑘 ) 𝑂𝑘 (1 − 𝑂𝑘 )𝑊𝑗𝑘 (20)
𝜕𝑊𝑖𝑗 𝜕𝑊𝑖𝑗
𝑘∈𝐾
𝜕𝐸 𝜕𝑥𝑗
= 𝑂𝑗 (1 − 𝑂𝑗 ) ∑(𝑂𝑘 − 𝑡𝑘 ) 𝑂𝑘 (1 − 𝑂𝑘 )𝑊𝑗𝑘 (21)
𝜕𝑊𝑖𝑗 𝜕𝑊𝑖𝑗
𝑘∈𝐾
𝜕𝐸
= 𝑂𝑗 (1 − 𝑂𝑗 )𝑂𝑖 ∑(𝑂𝑘 − 𝑡𝑘 ) 𝑂𝑘 (1 − 𝑂𝑘 )𝑊𝑗𝑘 (22)
𝜕𝑊𝑖𝑗
𝑘∈𝐾
𝜕𝐸
= 𝑂𝑖 𝑂𝑗 (1 − 𝑂𝑗 ) ∑ 𝛿𝑘 𝑊𝑗𝑘 (23)
𝜕𝑊𝑖𝑗
𝑘∈𝐾
9
Kako težinski faktori utiču na grešku
Za izlazni sloj važi:
𝜕𝐸
= 𝑂𝑗 𝛿𝑘 , gde je
𝜕𝑊𝑗𝑘
𝛿𝑘 = 𝑂𝑘 (1 − 𝑂𝑘 )(𝑂𝑘 − 𝑡𝑘 ) (12)
𝜕𝐸
= 𝑂𝑖 𝛿𝑗 (24)
𝜕𝑊𝑖𝑗
𝛿𝑗 = 𝑂𝑗 (1 − 𝑂𝑗 ) ∑ 𝛿𝑘 𝑊𝑗𝑘 (25)
𝑘∈𝐾
𝛿𝑘 = 𝑂𝑘 (1 − 𝑂𝑘 )(𝑂𝑘 − 𝑡𝑘 ) (12)
𝛿𝑗 = 𝑂𝑗 (1 − 𝑂𝑗 ) ∑ 𝛿𝑘 𝑊𝑗𝑘 (25)
𝑘∈𝐾
𝑊 + Δ𝑊 → 𝑊 (30)
𝜃 + Δ𝜃 → 𝜃 (31)
10
Parametri arhitekture koje je potrebno definisati kod BNN algoritma
Jedan od važnih parametara arhitekture BNN mreže je broj jedinica u slojevima. Broj neurona u
ulaznom sloju (Nul) jednak je broju ulaznih promenljivih, broj neurona u izlaznom sloju (Niz)
jednak je broju izlaznih promenljivih, dok se broj neurona u skrivenom sloju (Nsk) (za model
troslojne BNN mreže prikazan na slici 5) određuje ili empirijski (metodom probe i greške) ili
prema jednačini:
N N
N
sk
ul
n iz
tr
(32)
2
gde je ntr broj serija podataka u grupi podataka za obučavanje mreže.
funkcija za skaliranje,
impuls (momentum).
Funkcija za skaliranje predstavlja vezu između ulaznih i skrivenih neurona, i može biti linearna
funkcija u različitim opsezima (-1 do 1, 0 do 1 i sl.), sigmoidalna funkcija ili hiperbolično-
tangetna funkcija. Aktivacione funkcije se definišu za neurone u skrivenom i izlaznom sloju.
Početne vrednosti težinskih koeficijenata se moraju zadati, da bi se u prvoj iteraciji BP algoritma
mogla izračunati matrica težinskih koeficijenata. U praksi se zadaje opseg vrednosti (od -1 do
+1), iz koga se početna vrednost nasumično bira. Stopom obučavanja (𝜂 iz jednačine 28) se
zadaje brzina promene težinskih koeficijenata, npr. ukoliko je stopa obučavanja 0,5 tada se
težinski koeficijenti menjaju za polovinu vrednosti greške. Što je stopa obučavanja veća to je
brža konvergencija mreže, s tim što ukoliko se zada prevelika vrednost stope obučavanja može
doći do oscilacija u performansama ili čak do divergencije mreže (nenalaženje rešenja). Stopa
obučavanja najčešće iznosi 0,1. Impuls definiše koliki će biti udeo prethodne vrednosti težinskih
koeficijenata u njihovoj novoj vrednosti. Vrednost impulsa zavisi od složenosti problema: što je
problem kompleksniji to impuls ima nižu vrednost. [11].
11
2.3. Razvoj ANN modela
12
3. PRIMENA I NEDOSTACI ANN
Imajući u vidu da su otporne na pogrešan ulaz i šum, kao i da imaju sposobnost učenja i
generalizacije, ANN su pronašle veliku primenu u situacijama kada nema jasno definisanog
matematičkog modela jer su pojave nedovoljno proučene i/ili razumljive, kada je potrebna
otpornost na nepotpun ulaz, kada postoji jako složena struktura, pa je determinističko
modelovanje nepraktično, kada postoji veliki broj ulaza i veliki broj veza između promenjivih
koje se ne mogu tačno definisati, kao i kada postoji dosta odstupanja od osnovnog obrasca
ponašanja sistema.[12] Oblasti primene ANN podrazumevaju sisteme identifikacije i upravljanja
(vozila, trajektorije, procesa, prirodnim resursima), kvantnu hemiju, igre i donošenje odluka,
prepoznavanje šablona (radarski sistemi, prepoznavanje lica, objekata itd.), prepoznavanje
sekvenci (gestova, govora, rukopisa), medicinske dijagnoze, finansijske aplikacije (automatski
sistemi trgovine), filtriranje neželjenih elektronskih poruka (spam), itd. U tabeli 1 prikazane su
mnoge oblasti u kojima su ANN našle svoju primenu. [13]
Nauka: Finansije:
Prepoznavanje šablona • Predviđanja na berzi
Modelovanje fizičkih sistema • Dostojnost kredita
Evaluacija ekosistema • Kreditni rejting
Identifikacija polimera • Predviđanja bankrota
Prepoznavanje gena • Procena vlasništva
Botanička klasifikacija • Otkrivanje prevara
Procesiranje signala • Prognoza cena
Analiza bioloških sistema • Prognoza ekonomskog indikatora
13
3.1 Nedostaci ANN
Iako su se pokazale kao veoma široko upotrebljive, korišćenje ANN nije toliko jednostavno i
podrazumeva odlično poznavanje teorije. Jedan od nedostataka ANN je to što funkcioniše po
principu “crne kutije”, što znači da se fenomeni i pojave ne mogu proučavati, niti dobro
razumeti. Zatim, upotreba ANN za rezultate van opsega izemerenih vrednosti (ekstrapolacija),
može biti veoma nepouzdana. Učenje mreže, za složene sisteme, može biti sporo i zahtevati
dosta vremena i kompjuterskih resursa. U slučaju da nije upotrebljen dobar metod za
optimizaciju (minimizaciju greške) rezultat može da bude lokalni, a ne globalni minimum
greške. Takođe, moguće je pretrenirati mrežu, odnosno može se desiti da mreža postane “kruta”
i nedovoljno robustna u predviđanju ponašanje za druge vrednosti ulaza. [14] To znači da je uz
pravilno definisanje arhitekture i parametara, jedan od najvažnijih problema upravo
dimenzionisanje procesa obučavanja neuronske mreže. Ukoliko proces obučavanja nije dovoljno
dug, mreža ne može da „nauči” zakonitosti problema. Ukoliko je obučavanje predugo, mreža ne
uči zakonitosti problema već memoriše dati uzorak, uključujući i šumove, i ne može da izvrši
adekvatna predviđanja sa novim slučajevima (slika 6).
14
4. ANN U HEMIJSKOM INŽENJERSTVU
Za potrebe ovog seminarskog rada, u daljem tekstu su prikazani rezultati iz ove doktorske teze
koji se odnose na modelovanje sadržaja rastvorenog kiseonika u površinskim vodama, kao
interesantnog primera primene ANN u hemijskom inženjerstvu. U ovom delu svoje doktorske
teze, dr Antanasijević je opisao razvoj i evaluaciju tri ANN modela, baziranih na različitim ANN
arhitekturama, za predviđanje sadržaja rastvorenog kiseonika u reci Dunav. Pored odabira
najpreciznije ANN arhitekture, akcenat je bio i na razvoju modela koji bi, kao ulazne
promenljive, koristio samo nespecifične parametre kvaliteta voda, s obzirom da je i potencijalna
primena šira.
15
Tabela 2: Statistička analiza grupa podataka za obučavanje i proveru modela
16
Slika 7: Poređenje izmerenog sadržaja rastvorenog kiseonika i vrednosti dobijenih modelima
tokom obučavanja: a) GRNN, b) BPNN, c) RNN
Kada se uzmu u obzir i statistički pokazatelji performansi modela (RMSE - koren srednje
kvadratne greške, MAE - srednja apsolutna greška, FA1.1 - udeo tačnih predviđanja u odnosu
1:1,1 u odnosu na tačnu vrednost, IA – Indeks slaganja) iz tabele 4, može se pretpostaviti da je
odličan rezulatat GRNN modela zapravo posledica "pretreniranosti", koja značajno smanjuje
sposobnost uopštavanja. Takođe, može se pretpostaviti da će RNN i BPNN imati bolju
sposobnost uopštavanja i samim tim i bolje rezultate prilikom provere modela, u odnosu na
GRNN model.
18
Kao što se može uočiti, RNN model je pokazao mnogo bolje performanse od MLR modela kod
obučavanja i provere modela. MLR rezultati su imali MAE i RMSE greške čak i do tri puta veće u
poređenju sa RNN modelom. Takođe, tek 55 % predviđanja MLR modela za 2009. godinu je bilo
u okviru FA1.1, što je gotovo dva puta lošiji rezultat od RNN modela, čije su sve predikcije za
navedenu godinu bile u okviru FA1.1 (Slika 9).
5. ZAKLJUČAK
Dokle god je problem dobro definisan, a podaci iz realnog sveta pronađu svoju odgovarajući
digitalni oblik, neuronske mreže uz određeno vreme prilagođavanja konkretnom problemu
mogu predstavljati rešenje za mnoge složene izazove. Moderni trendovi danas iziskuju ljudski
potencijal koji se bavi analitikom ogromne količine podataka, što će se nastaviti i u godinama
koje dolaze. Artificijelne neurnoske mreže su našle široku primenu i u modelovanju i
optimizaciji različitih hemijsko-inženjerskih procesa i fenomena upravo zahvaljujući svojoj
neosetljivosti na pogrešne ulaze i šumove, sposbnosti učenja i uopštavanja. Kako su mnogi
sistemi u hemijskom inženjerstvu kompleksni i nelinearni, upravo se korišćenjem različitih
arhitektura ANN može jednostavnije doći do rešenja u njima. Ipak, ANN imaju i svoja
ograničenja koja se ogledaju u nedostataku semantike u strukturi, problemima sa određivanjem
arhitekture i parametara algoritma za učenje, problemima sa treningom za određenu primenu,
problemima sa plastičnošću i stabilnošću i dr. Razvijanjem naprednih neuronskih mreža koje
kombinuju ANN sa genetskim algortimima i fuzzy logikom će se mnogi od ovih problema
uspešno rešiti (computational intelligence). Razumevanjem teorije neuronskih mreža, kao i
njihovog nastanka i predmeta inspiracije, može se zaključiti da je to jedna od tehnologija
budućnosti, koja će biti inkorporirana u skoro sve aspekte ljudske delatnosti.
19
6. LITERATURA
[2] https://www.khanacademy.org/science/ap-biology
[3, 4] https://www.innoarchitech.com/artificial-intelligence-deep-learning-neural-networks-
explained
[5, 13] S. Gavran, Veštačke neuronske mreže u istraživanju podataka: pregled i primena, Master
rad, Matematički fakultet, Univerzitet u Beogradu, 2016.
[6] http://www.explainthatstuff.com/introduction-to-neural-networks.html
[7] Z. Ševarac, Aplikacioni okvir za razvoj neuronskih mreža, Diplomski rad, Fakultet
organizacionih nauka, Univerzitet u Beogradu, 2004.
[8] R. Rojas, Neural Networks - A Systematic Introduction, Online book, Springer-Verlag, Berlin,
New-York, 1996
[9, 11, 15] D. Antanasijević, Modelovanje indikatora kvaliteta životne sredine primenom veštačkih
neuronskih mreža, Doktorska distertacija, Tehnološko – metalurškli fakultet, Univerzitet u
Beogradu, 2014.
20