You are on page 1of 10

4.

YAPAY S N R A LARI
4.1 Giri
Yapay sinir a lar ya da ksaca YSA; insan beyninin al ma sisteminin yapay olarak
benzetimi abalarnn bir sonucu olarak ortaya km tr. En genel anlamda bir YSA insan
beynindeki birok nronun (sinir hcresinin), ya da yapay olarak basit i lemcilerin
birbirlerine de i ik etki seviyeleri ile ba lanmas sonucu olu an karma k bir sistem olarak
d nlebilir. nceleri temel tp birimlerinde insan beynindeki nronlarn matematiksel
modelleme abalar ile ba layan al malar, geti imiz on sene ierisinde, disipline bir ekil
alm tr. YSA bugn fizik, matematik, elektrik ve bilgisayar mhendisli i gibi ok farkl
bilim dallarnda ara trma konusu haline gelmi tir. YSA'nn pratik kullanm genelde, ok
farkl yapda ve formlarda bulunabilen informasyon verilerini hzl bir ekilde tanmlama ve
alglama zerinedir. Aslnda mhendislik uygulamalarnda YSA'nn geni apl kullanmnn
en nemli nedeni, klasik tekniklerle zm zor problemler iin etkin bir alternatif
olu turmasdr. nk bilgisayarlar insann beyinsel yetene inin en zayf oldu u arpma,
blme gibi matematiksel ve algoritmik hesaplama i lemlerinde hz ve do ruluk asndan
yzlerce kat ba arl olmalarna ra men insan beyninin renme ve tanma gibi i levlerini
hala yeteri kadar gerekle tirememektedir. izelge 4.1'de bilgisayar ile insan beyni arasndaki
al ma sistem yaps kar la trmal olarak verilmi tir.
izelge 4.1 Bilgisayar ile insan beyni arasndaki al ma sistem yapsnn kar la trlmas
B LG SAYAR

NSAN BEYN

Saysal

Analog

Seri

Paralel

Komut Kmeli

Bilgiye Adapte Olma

Yanl Hesaplamalar Sonucu Etkiler

Birimlerin Ana lemlere Etkisi Azdr

Giri Verilerindeki Hatalar Sonucu Etkiler

Giri Verilerindeki Hatalara Her Zaman


Duyarl De il

4.2 YSA'nn Tanm ve Modeli


4.2.1 YSA'nn tanm
YSA paralel da lm bir bilgi i leme sistemidir. Yani, YSAnn temelinde, zeka gerektiren
i lemlerden olu an bilgi i leme i levi vardr. Bu sistem tek ynl i aret kanallar (ba lantlar)
ile birbirine ba lanan i lem elemanlarndan olu ur. k i areti bir tane olup iste e gre
o altlabilir. YSA yakla mnn temel d ncesiyle, insan beyninin fonksiyonlar arasnda
benzerlik vardr. Bu yzden YSA sistemine insan beyninin modeli denilebilir. YSA evre
artlarna gre davran larn ekilleyebilir. Giri ler ve istenen k larn sisteme verilmesi ile

kendisini farkl cevaplar verebilecek ekilde ayarlayabilir. Ancak son derece karma k bir
iyaps vardr. Onun iin bugne kadar gerekle tirilen YSA; biyolojik fonksiyonlarn temel
nronlarn rnek alarak yerine getiren kompoze elemanlar olmu tur.
4.2.2 Nronun biyolojik yaps ve nron modeli
nsann bilgi i leme olay beyninde gerekle ir. Gerektende en karma k sinir a Cerebral
Cortex denilen beyindir. Sinir sisteminin en basit yaps nronlardr. Beyinde yakla k
olarak 10 10 sinir hcresi vardr. Yine hcre ba na ba lant says ise 10 4 mertebesindedir.
Beyin iin al ma frekans 100 Hzdir. Fiziksel boyutlar ise 1.3 kg ve 0.15 m2 kesitlidir.
Vcudun de i ik yerleri ile bilgi al veri i yapan nron hcresidir. ekil 4.1 de basit bir nron
hcresi grlmektedir.

ekil 4.1 Basit bir nron yaps


Nron, soma ad verilen hcre gvdesi dentrit denilen kvrml uzantlar ve somann dallar
sayesinde nronu dallarna ba layan tek sinir fiberli aksondan olu ur. Dendrit'ler hcreye
gelen giri leri toplarlar. Dendrit tarafndan alnan i aretler hcrede birle tirilerek bir k
darbesi retilip retilemeyece ine karar verilir. E er bir i yaplacaksa retilen k darbesi
aksonlar tarafndan ta narak di er nronlarla olan ba lantlara veya terminal organlara
iletilir. Beyindeki korteksde her nronun bir kar l vardr. Bir nronun k ona ba l olan
btn nronlara iletilir. Fakat korteks, i in yaplabilmesi iin hangi nron harekete
geirilecekse, sadece ona komut gnderir.
Somann iinde ve evresinde sodyum, kalsiyum, potasyum ve klor iyonlar vardr. Potasyum
yo unlu u nronun iinde, sodyum yo unlu u d ndadr. Somann zar elektriksel olarak
uyarlnca (sz konusu uyar genellikle bir gerilim d mesidir) zar, Na ve Ca gibi di er
iyonlarn ieri gemesine izin verir ve somann i durumunu de i tirir. Nronlar arasndaki
ba lantlar hcre gvdesinde veya "sinaps" ad verilen dendritlerdeki gei lerde olur.
Yardmc bir benzetme aksonlarla, dendritleri elektrik sinyallerini nrona ileten de i ik
empedansdaki yaltlm iletken olmasdr. Sinir sistemi milyarlarca nron ile tek bir nrondan
kan aksonun 10000 kadar di er nronu ba layan bir a dr. Sinapslarla dzeltilen i aretleri

ta yan aksonlar ve dendritlerle iie gemi nronlar bir sinir a olu tururlar. ekil 4.2'de en
basit formda gsterilen nron modeli, bir e ik birimi olarak alglanabilir.

ekil 4.3de ise

YSAnn genel blok emas gsterilmektedir.

X0 Kutup+1

I=X1W11+X2W12
I

X1

W11

Yi

W12
X2

ekil 4.2 Nron modeli


EYLEM
BM

GR

RENME
BM

IKI
STENEN IKI

ekil 4.3 YSAnn genel blok emas


E ik birimi, k lar toplayan ve sadece giri in toplam i e ik de erini a t nda bir k
reten i lem elemandr. Bir e ik birimi olarak nron sinapslarndaki i aretleri alr ve hepsini
toplar. E er toplanan i aret gc e i i geecek kadar gl ise di er nronlar ve dendritleri
uyaran akson boyunca bir i aret gnderilir. Kesi en dendritlerden gelen sinapslarla kaplanan
btn i aretleri soma toplar. Toplam i aret daha sonra nronun i e ik de eri ile kar la trlr
ve e ik de erini a m sa aksona bir i aret yayar. YSA, bu basit nronlarn (d mlerin ya da
nitelerin) ba lanarak bir a 'a dn trlmesiyle meydana getirilir.

4.3 YSA'nn Yaps ve

lem Eleman

YSA temel olarak, basit yapda ve ynl bir graf biimindedir. Her bir d m hcre denilen
n. dereceden lineer olmayan bir devredir. D mler i lem eleman olarak tanmlanr.
D mler arasnda ba lantlar vardr. Her ba lant tek ynl i aret iletim yolu (gecikmesiz)
olarak grev yapar. Her i lem eleman istenildi i sayda giri ba lants ve tek bir k
ba lants alabilir. Fakat bu ba lant kopya edilebilir. Yani bu tek

k birok hcreyi

besleyebilir. A 'daki tek gecikme, k lar ileten ba lant yollarndaki iletim gecikmeleridir.
lem elemannn k istenilen matematiksel tipte olabilir. Ksmen srekli al ma
konumunda "aktif" halde eleman bir k i areti retir. Giri i aretleri YSA'na bilgi ta r.
Sonu ise k i aretlerinden alnabilir. ekil 4.4 'de genel bir i lem eleman (nron, d m)
gsterilmi tir.

X2 G R LER X3
0 (Aktif Yapma areti)

X1

TRANSFER
FONKS YONU

YEREL
BELLEK

ekil 4.4 Genel i lem eleman yaps


YSA birtakm alt kmelere ayrlabilir. Bu alt kmelerdeki elemanlarn transfer fonksiyonlar
ayndr. Bu kk gruplara "katman" layer ad verilir. A katmanlarn birbirlerine hiyerar ik
bir ekilde ba lanmasndan olu mu tur. D dnyadan alnan bilgi giri katman ile ta nr. Bir
transfer fonksiyonlar yoktur. YSA transfer fonksiyonu ve yerel bellek eleman, bir renme
kural ile giri k i areti arasndaki ba ntya gre ayarlanr. Giri i aktif yapabilmek iin
yukarda ad geen kural ve i aretlerin bir zamanlama fonksiyonu tanmlamas gerekebilir.
Ksaca bir YSAdan beklenen grev, gerek dnyadaki nesneler ile biyolojik sinir a nn
yapt i levi, benzer bir yolla yerine getirmesidir. YSAnn giri veri tipleri ikili (binary) 0-1
veya srekli de erlerdir. Bu giri durumlarndan ba ka, i lem elemanlarna ait giri leri
matematiksel olarak da snflamak gerekmektedir. nk bir i lem elemanna gelen giri lerin
bir ksm azaltc uyarma giri leri olmaktadr.
Bu arttrc veya azaltc giri ler giri snflarn olu turur.

4.3.1 Giri i areti snflar


lem elemannn transfer fonksiyonu, giri ine gelen btn i aretler iin tanmlanr. Bazen
de i ik katman davran larnn farkl olmas tabiidir.

aretlerin hangi blgelerden geldi inin

bilinmesi gerekir. De i ik blgelere gre i aretlerin snflar tamamlanabilir. Ska izlenen bir
yap ise merkezde evet/evrede hayr (on centre/off surround) yapsdr. ekil 4.5'de bu yap
gsterilmektedir. Meksika apkasna benzer ba lant tipindedir.

ekil 4.5 Kom u hcrelerin merkez hcreye etkisi


lem eleman tetikleyici giri lerin kendine yakn kom u giri lerden yasaklanan giri lerini
daha uzaktan alr. Bylece i lem elemanna gelen giri ler snflarna gre de erlendirilmi
olur. Tetikleyici blgeden gelen giri ler yasaklanan snf olu turur. ekil 4.6 byle bir i lem
elemann gsterir.
Tetikleyici

Yasaklayc

giri ler

giri ler

(snf 1)

lem

(snf 2)

Eleman
k

ekil 4.6 Tetikleyici ve yasaklanan giri lere sahip bir i lem eleman
Bir i lem elemanna gelen giri ler matematiksel tiplerine gre etiketlendirilerek snflandrlr.
YSA, giri veri tiplerine gre ikili giri (0,1) ve srekli de erli giri olmak zere a a daki
gibi snflandrlr ( ekil 4.7).
Burada giri i areti olarak seilen I , w ve yk olarak kullanlan DC motordan gelen ykn P
saysal de erleri, bu de erlerin lmler boyunca okunmas srasnda srekli-de er de (reel
say) oldu undan, snflandrc olarak reticili renmeye sahip olan ok katmanl
perseptrona ba l olarak ileri-besleme sinir a ve hzl hatann geriye-yaylm algoritmas
(Fast Backpropagation Algorithm) kullanlm tr. Bu arada klasik hatann geriye-yaylm
algoritmasyla yaplan e itme sonular da kar la trmal olarak sunulmu tur.

ekil 4.7 YSA Snflandrclar

4.3.2 Ba lant geometrileri


Ba lantlarda ta nan i aret verisinin cinsi tanmlanmaldr. Ba lant geometrisi YSA iin ok
nemlidir.ba lant i areti her cinsten olabilir. Ba lantnn nerede ba layp nerede bitti ini
bilmesi gerekir. 1'den N'e kadar olan bir i lem eleman kmesinin ba lantlar a a da
tanmland gibi NxN boyutlu matris biiminde gsterilebilir.

w11

w12

. . w1n

w21

w22

. . w2 n

wij = .

. .

. .

wn1

wn 2

. . wnn

wij = w ji = 1 i . ilem eleman .j ilem elemanna bal


wij = w ji = 0 bal deil

En fazla N2 ba lant olur. Ba lantlar e itli geometrik blgeler arasnda demetler halinde
d nlebilir. Bu ba lant demetlerinin uymas gereken kurallar unlardr.
1- Ba lant demetini olu turan i lem elemanlar ayn blgeden kmaldr.
2- Ba lant demetinin i aretleri ayn matematiksel tipten olmaldr.
3- Ba lant demetinin i aretleri ayn snftan olmaldr.
4- Ba lant demetinin bir seim fonksiyonu ( ) olmaldr.

:T 2 s T:Hedef belgesi S:kaynak blgesi

Hedef blgesindeki her i lem eleman kaynak blgesindeki her elemana giderse "tam" (full)
ba ldr. (rn:ok katmanl perceptron). E er her hedef blgesi eleman N kaynak blgesi

elemanna ba l ise " dzgn da lm " (uniform) olasldr. Ayrca her bir elemana, yine bir
kaynak eleman ba l ise buna "bire-bir" ba l denir.

4.3.3 A tipleri
e it A Tipi Vardr
1- leri beslemeli a : Her bir katmandaki hcreler sadece bir nceki katmann hcrelerince
beslenir.
2- Kaskat ba lantl a : Hcreler sadece nceki katmanlardaki hcrelerce beslenir.
3- Geri beslemeli a : En az bir hcre sonraki katmanlardaki hcrelerce de beslenir. (Bu
al mada hem ileri, hem de geri beslemeli a tipi birlikte uygulanmaldr).

4.3.4 E ik fonksiyonlar
Transfer veya i aret fonksiyonlar olarak da adlandrlan e ik fonksiyonlar, muhtemel sonsuz
domen giri li i lem elemanlarn nceden belirlenmi snrda k olarak dzenler. Drt tane
yaygn e ik fonksiyonu vardr. Bunlar, rampa, basamak ve sigmoid fonksiyonudur.
4.8'de bu fonksiyonlar gsterilmi tir.

f(x)

f(x)

(a)

(b)

f(x)

f(x)
1 1

+1
x

0.5

-1
(c)

0
(d)

ekil 4.8 Ska kullanlan drt e ik fonksiyonu


ekil 4.8 (a)'da gsterilen lineer fonksiyonun denklemi a a daki gibidir.
f(x) = .x

ekil

: i lem elemannn x aktivitesini ayarlayan reel de erli bir sabittir. Lineer fonksiyon [-,+]
snrlar arasnda kstland nda (b)'deki rampa e ik fonksiyonu olur ve denklemi;
+ : eer x ise
f ( x) =

x : eer x ise
: eer x - ise

eklini alr.

+ ( -) i lem elemannn maksimumu (minimumu) o u zaman doyma seviyesi olarak


adlandrlan k de eridir. E er e ik fonksiyonu bir giri i aretine ba l ise yayd + giri
toplam pozitif, ba l de ilse e ik basamak fonksiyonu [-] olarak adlandrlr. ekil 4.8 (c),
basamak e ik fonksiyonunu gsterir ve denklemi;
+ : eer x 0 ise
f ( x) =

: dier durumlar

eklindedir.

Son ve en nemli e ik fonksiyonu (bu al mada kullanlan) sigmoid fonksiyonudur. ekil 4.8
(d) de gsterilen S biimindeki sigmoid fonksiyonu; seviyeli, lineer olmayan k veren,
snrl, monoton artan fonksiyondur. Denklemi;
f ( x) =

1+ ex

biimindedir

Her i lem eleman kendisine verilen yerel veriye gre, kendisini ayarlayacak btn YSA'nn
enformasyon blgesinin renmesini sa lar. (Enformasyon blgesi olaslk-yo unluk
fonksiyonu ile de tanmlanabilir). Enformasyon blgesi birok uygulamada, gerek de erin
"0" ile "1" arasnda normalize edilmesi gerekir. (Normalize etmek:gerek de eri 85 olan bir
giri i 0.85

eklinde a a uygulamaktr.)

Normalizasyon ayn anda btn giri lere

uygulanabilir.

4.3.5 A rlk uzay


Bir ok YSA renme i lemi, i lem elemanlarnn a rl de i tirilerek sa lanr. Bylece
tanmlanan a rlk de i tirilerek renmede iyi bir model kullanp, a rlklarn bu modele
gre de i tirilmesi esastr. Basit bir matematiksel model olarak herbir i lem elemannn "n"
adet gerek a rl oldu u d nlerek ve N adet i lem eleman gznne alnrsa;
w = ( w 11 , w12 , ..., w1n , w21 , w22 ,..., w2n ,...., w N 1 , w N 2 ,..., w Nn ) T
w = ( w 1T , w 2T , w 3T ,... , w TN )

w1, w2,..., wN: i lem elemanlarnn a rlk vektrleridir.


w11
w12

w1 = .

w N1
wN2

......... w N =

w1n

w Nn

YSA a rlk vektr N, n boyutlu orkid uzaynda yaylr. YSA'nn enformasyon i leme
performans, a n a rlk vektrnn belirli bir de eri ile bulunacaktr.
Hata de i imini inceleyen iki e it kural vardr.
1- Hata dzeltme kurallar ,
2- Gradyen kurallar.
Hata dzeltme kurallar; Her bir giri rntsnde a rlklar yeniden a rlayarak kt hatasn
en aza indirmeye al rlar. Gradyen kurallarnda ise, a rlklar yeniden ayarlanarak ortalama
karesel hatay (MSE) en aza indirilmeye al lr.
Bu noktada gradyen kuralndan ksaca bahsedecek olursak, hatay dzeltmenin (yani
minimize etmenin) geometrik bir yorumunu yapmak mmkndr. Bunu yapabilmek iin
a rlklarn mmkn olan tm de erleri, hatalarn kareleri toplamna kar gelecek ekilde
boyutlu koordinat sisteminde izilir. Bu izim sonunda hata yzeyi kresel bir top eklindedir.
Bu yzeyi bir tasa da benzetmek mmkndr. Tasn en alt ksm hatalarn kareleri toplamnn
en kk de erlerine kar gelmektedir. E itme srasnda ama a rlklar kmesinin en iyisini
bulmak olan, en alt ksmna ula maktr. Geriye-yaylm algoritmas o andaki a rlklar yerine,
yzey hatasnn e imini hesaplayarak amacna ula r. Daha sonra da bu a rlklar tasn alt
ksmna do ru artmsal olarak de i tirir.

te bu artmsal olarak tasn st ksmndan alt

ksmna do ru ilerleme i lemine gradyen ini denir.


A rlk vektr ile al an YSA'da nemli noktalardan birisi, bir renme kural geli tirip,
enformasyon blgesi kullanarak (e ik fonksiyonu ile) a rlk vektr "w" iy istenilen YSA
performans verecek noktaya yneltmektir. Genellikle renme kural iin bir performans ya
da maliyet fonksiyonu tanmlanr. Minimizasyon veya maksimizasyon ile "w" vektr
bulunur. Bir performasyon e idi olarak bilinen, MSE (karesel ortalama hata) u ekilde
tanmlanr.
2

f ( x) G ( x, w) ( x)dv( x)

F ( w) =
A

Ama F'i kltmeye al maktr.


y=G(w,x):sistemin giri k fonksiyonu.
y:k i areti vektr
x:giri i areti vektr
w:a rlk vektr

(x):olaslk yo unluk fonksiyonu

4.4 YSA'da E itme (Training)


4.4.1 E itme algoritmalar
E itme algoritmalar YSA'nn ayrlmaz bir parasdr. E itme algoritmas eldeki problemin
zelli ine gre renme kuraln YSA'na nasl adapte edece imizi belirtir. e it e itme
algoritmas yaygn olarak kullanlmaktadr.
1- reticili e itme (supervised traning).
2- Skor ile e itme (graded training).
3- Kendini dzenleme ile e itme (self-organization training)
reticili e itmede, elimizde do ru rnekler vardr. Yani (X1,X2,.........Xn) eklindeki giri
vektrnn, (y1,y2,...,yn) eklindeki k vektr, tam ve do ru olarak bilinmektedir. Herbir
(x1,y1), (x2,y2),...,(xN,yN) ifti iin a do ru sonular verecek ekilde seilen bir renme
kural ile beraber e itilir.
Ne tr e itme yntemi kullanlrsa kullanlsn, herhangi bir a

iin gerekli karakteristik

zellik, a rlklarn verilen e itme rne ine nasl ayarlanaca nn belirtilerek renme
kuralnn olu turulmasdr. renme kuralnn olu turulmas iin bir rne in, a a defalarca
tantlmas gerekebilir. renme kural ile ili kili parametreler a n zaman iinde geli me
kaydetmesiyle de i ebilir.

4.4.2 Bellek
YSA'nn nemli bir zelli i bilgiyi saklama

eklidir. Ba lant a rlklar YSA bellek

biimleridir. A rlklarn de erleri a n o anki bilgi durumunu temsil eder. Mesela; bir
giri /istenen k

iftinin belirtilen bilgi paras a n iinde birok bellek biimine

da tlm tr. Bellek niteleri ile di er sakl bilgiler, bu bilgiyi payla rlar. Baz YSA
bellekleri ili kilidir. yleki e itilen a a bir ksm uygulanrsa, a bu giri e belle indeki en
yakn k bu giri iin seer ve tam giri e ba l k ortaya kar. E er YSA oto-ili kili ise,
ksmi giri vektrlerinin a a verilmesi bu giri lerin tamamlanmas ile sonulanr. YSA
belle inin yaps; eksik, grltl ve tam seilemeyen bir giri uyguland zaman bile
mantkl k retmeye uygundur. Bu kurala "genelleme " ad verilir. Bir genellemenin
kalitesi ve anlam, uygulama e idine, a n tipine ve karma kl na dayanr. Lineer olmayan
ok katmanl a lar (zellikle geri beslemeli a lar) gizli katmandaki zelliklerden renirler ve
bunlar k lar retmek iin birle tirirler. Gizli katmandaki bilgi, yeni giri rntlerine aklc
zmler olu turmak iin kullanlabilir.

You might also like