You are on page 1of 28

4.

YAPAY SINIR AGLARI


Donald Hebb (1949) bugnn sinir agi teorisinin babasi olarak bilinmektedir. Nrolog olan Hebb, beynin nasil grendigi ile ilgili alismalar yapmistir. alismalarina beynin en temel birimi olan sinir hcresini ele alarak baslamistir. Iki sinir hcresinin birbirleriyle nasil bir koralasyon sergilediklerini incelemis ve sinir agi teorisini bu temel zerine oturtmustur. Bu temel kuskusuz tek gerek degildir. nk beynin nasil bir alisma sergiledigi su an dahi teoriler yardimiyla aiklanmaktadir. Ancak Hebbin yardimiyla bu fikir ile yola ikilmis ve gnmzdeki yzlerce ayri teoriyle genis bir yelpazeye hitap eder hale gelmistir. Su an gerek yasamda kullanilan ve basari orani %99lar ile ifade edilegelen bir sr yapay sinir agi modeli mevcuttur. Tm gelistirilen modeller bilgisayar dnyasinda zmsz veya np karmasik olarak nitelendirilen problemlerin zmn hedeflemekte ve hatta bir kismini basariyla zmektedir.(Fausett L.,1994)

4.1 Yapay Sinir Agi Nedir?


Yapay sinir agi; insan beyninin sinir hcrelerinden olusmus katmanli ve paralel olan yapisinin tm fonksiyonlariyla beraber sayisal dnyada gereklenmeye alisilan modellenmesidir. Sayisal dnya ile belirtilmek istenen donanim ve yazilimdir. Bir baska ifadeyle yapay sinir agi hem donanimsal olarak hemde yazilim ile modellenebilir. Bu baglamda, yapay sinir aglari ilk elektronik devreler yardimiyla kurulmaya alisilmis ancak bu girisim kendini yavas yavas yazilim sahasina birakmistir. Bylesi bir kisitlanmanin sebebi; elektronik devrelerin esnek ve dinamik olarak degistirilememesi ve birbirinden farkli olan nitelerin biraraya getirilememesi olarak ortaya konmaktadir.

Yazilim yardimiyla daha kolay kurulabilen yapay sinir aglari, yine yazilimsal olarak alistirilabilmesi de rahat olabilecek modellerdir. Ancak elektronik devrelerle kurulan yapay sinir agi modelleri dogal olarak yazilim ile kurulan modellere kiyasla daha hizli sonuca ulasabilecektir. Bu sebepten dolayi, yapay sinir aglari gnmzde yazilimsal olarak kurulup, alistirilip, test edilmekte ve gerekli tm degisiklikler ve dinamik gncellemeler yapilmakta, ardindan sonulara gre karar verilmektedir. Eger elde edilen sonularin basarisi %99lar ifade edilebiliniyorsa, o zaman gerekli grldg takdirde model elektronik devreler zerine aktarilmaya alismaktadir. Bylece yapay sinir agi modelleri, gerek yasama uygulanmak zere fiziksel bir platform zerinde hazir hale getirilmis olmaktadir.

Buraya kadar, yapay sinir aginin donanim ve yazilim sahasiyla olan iliskisi gndeme getirilmistir. Simdi ise, yapay sinir aginin yapisindan ve onu olusturan elemanlardan sz edilecektir. Bu yapiyi anlayabilmek iin ncelikle biyolojik sinir hcresinden bahsedilmesi gerekmektedir.(Sekil 21.)

Sekil 21. Biyolojik sinir hcre yapisi(Fausset L.,1994)

Dendrit : Grevi diger sinir hcrelerinden iletilen sinyalleri, sinir hcresinin ekirdegine iletme ktedir. Bu yapi basit gibi grnse de gnmzde dendritlerin grevlerinin daha kompleks oldugu yolunda sylemler hakim olan grstr. Hcrenin ekirdegi ile herbir dendrit arasinda farkli bir iletisim sz konusudur. Bu sebeple bazi dendritlerin etkilesimde agirlikli (dominand) pay sahibi, digerlerinin de pasif (resesif) oldugu gzlenmektedir. Bu ise disaridan alinan sinyallerde seicilik gibi nemli bir olgunun sinir hcresi tarafindan gereklestirilmesi anlamini tasimaktadir.

Soma : Dendritler yoluyla iletilen tm sinyalleri alip toplayan merkezdir. Biyolojik olarak hcre ekirdegi (nkleus) olarak da bilinen yapidir. ekirdek gelen toplam sinyali diger sinir hcrelerine gndermek zere, bilgiyi aksona iletir.

Akson: Hcre ekirdeginden aldigi toplam bilgiyi bir sonraki sinir hcresine dagitmakla grevlidir. Ancak akson bu toplam sinyalin n islemden geirilmeden diger sinir hcresine aktarilmasina engel olur. nk akson ucunda sinapsis denilen birimlere bilgiyi aktarir.

Sinapsis : Aksondan gelen toplam bilgiyi n islemden geirdikten sonra diger sinir hcrelerinin dendritlerine iletmekle grevlidir. Sinapsisin n islem ile gereklestirdigi grev ok nem tasimaktadir. Bu n islem gelen toplam sinyalin, belli bir esik degerine gre degistirilmesinden ibarettir. Bylece toplam sinyal oldugu gibi degil, belli bir araliga indirgenerek diger sinir hcrelerine iletilmis olunur. Bu aidan, her gelen toplam sinyal ile dendrite iletilen sinyal arasinda bir korelasyon (iliski) olusturulur. Buradan yola ikilarak

grenme isleminin sinapsislerde gereklestigi fikri ortaya atilmis ve bu hipotez, gnmz yapay sinir agi dnyasi iin teori haline dnsmstr. Yapay sinir agi modelleri zerinde grenme bu teoriye dayanilarak, sinapsisler ve dendritler arasinda yer alan agirlik katsayilarinin gncellenmesi olarak algilanmaktadir.

Yukarida biyolojik olan sinir hcresinin elemanlari tanitilmaktadir. yleyse yapay sinir agi hcre modeline geis yapmak gerekmektedir. Yapay sinir hcresi, gerek biyolojik hcreyle ayni ilkelere dayandirilmaya alisilmistir. (Fausett L.,1994)

Sekil 22. Yapay sinir hcre yapisi

Sekil 22.de grnen yapay sinir hcresinin dendritleri

x n ve herbir dendritin agirlik katsayisi

(nemlilik derecesi) wn ile belirtilmistir. Bylece x n girdi sinyallerini, w n ise o sinyallerin agirlik katsayilarinin degerlerini tasimaktadir. ekirdek ise tm girdi sinyallerinin agirlikli toplamlarini elde etmektedir. Tm bu toplam sinyal yin ile gsterilmis ve sinapsise esiklenme fonksiyonuna girdi olarak ynlendirilmistir. Sinapsis zerindeki esikleme fonksiyonundan ikan sonu sinyali y ile belirtilmis ve diger hcreye beslenmek zere ynlendirilmistir.

Yapay sinir hcresinin grevi kisaca; xn girdi rntsne karsilik y iktisi sinyalini olusturmak ve bu sinyali diger hcrelere iletmektir. Her xn ile y arasindaki korelasyonu temsil eden wn agirliklari, her yeni girdi rnts ve ikti sinyaline gre tekrar ayarlanir. Bu ayarlama sreci grenme olarak adlandirilir. grenmenin tamamlandiginin belirtilebilmesi iin; girdi rntleri, w n agirliklarindaki degisim stabilize olana dek sistemi beslemektedir. Stabilizasyon (duraganlik) saglandigi zaman hcre grenmesini tamamlamistir.

Yapay sinir aglari; grevi yukaridaki biimde belirtilen yapay sinir hcrelerinin birlesiminden olusan katmanli yapinin tm olarak nitelendirilir. Bylece m adet yapay sinir hcresinin katmanli yapisiyla yapay sinir agi modeli kurulmus olunmaktadir.

4.2 Yapay Sinir Aglarinda grenme


nceki blmde yapay sinir agi yapis inin islevi kisaca anltilmistir. Bu temel zerine, yapay sinir hcresinin grenme srecinin aiklanmasi gerekmektedir. Bir yapay sinir hcresi nasil grenir ? grenme sreci neye gre belirlenir ? gibi sorularin cevaplari bu blmde verilmeye alisilacaktir.

grenmenin ilk adimi aktivasyon olarak nitelendirilebilir. Sinir hcresine giren sinyallerin toplami o hcreyi aktif hale getirebilecek bir degere sahip midir ya da degil midir ? Cevap olarak su verilmektedir: eger toplam sinyal hcreyi atesleyebilecek, esik degerini atalatabilecek kadar yksek ise o hcre aktiftir (y=1) aksi durumda o hcre pasiftir (y=0). Bu sorunun cevabi yardimiyla yapay sinir hcresinin siniflandirma yapabildigi sonucuna ulasilacaktir. ok basit anlamda; girdi rntlerine 1 ya da 0 cevabini vererek siniflandirma yapabilen byle bir hcre, hangi girdi rntsne 1 hangi rntye 0 diyecegi hakkinda karar vermis sayilmaktadir. Karar vermek ve siniflandirmak, grenme srecinin temel yapi taslarini

olusturmaktadir.(Fausett L.,1994)

Bir yapay sinir hcresi neye gre girdi rntsne 0 ya da 1 demektedir? Bu noktada sinir hcresinin agirliklari olarak adlandirilan ve Sekil 22. de belirtilen wn degerleri devreye girmektedir. Disaridan alinan herbir girdi rnts (girdi sinyali) ile her defasinda ayarlanan bu agirliklar grenmenin gereklestiginin temsilcisidirler. Matematiksel bir ifadeyle wn agirliklari, tm girdi rntlerini en iyi temsil etmeye alisan ve tm girdi rntlerinin uzakliklar toplaminin minimum oldugu regresyon egrisinin temsil edildigi geometrik seklin en belirleyici noktalarini olusturmaktadir. Bu sayede girilen rntye en dogru olan cevap verilebilmektedir.

rnegin; x1=10, x 2 =18, x 3=24, x 4 =6 olarak belirtilen 4 girdili bir hcrenin baslangi agirliklari syle varsayilsin; w1=w2=w3=w4=0,4. Bir baska girdi kombinasyonu da syle verilsin: x1=11, x2=18, x3=20, x4=2. Eger hcre iki rntyede 1 cevabi vermis ise agirliklari rnegin su sekilde degisime ugratacaktir, x1 ykseldigi iin w1=0,45; x 2 degismedigi iin w2 =0,4; x 3 dstg iin w 3=0,35; x 4 dstg iin w 4 =0,35. Bylece hcre her iki girdi ile karsilastiginda 1 cevabi verecek sekilde agirliklari (korelasyon matrisi degerleri) ayarladi. Diger bir ifadeyle iki girdi rntsn grendi. Bu teorik olarak belirtilen aiklamanin formlize edilmis hali asagidaki gibidir;

y in = xi * wi
i =1

(1)

(1) de (Fausett L., 1994) xi sinyali kendine ait olan katsayi ile arpilarak toplan sinyale eklenmektedir. Yin seklinde toplanan deger ekirdek tarafindan akson kullanilarak sinapsise gnderilir. Sinapsis gelen toplam sinyal degerini esikleyerek ikti degerini vermektedir.

y = f ( yin )

(2)

(2) de f olarak betimlenen foksiyon matematiksel herhangi bir fonksiyona denk olabilir. Ancak yapay sinir agi modellerinde temel alinan 3 tip fonksiyon vardir(Sekil 23.)(Lipmann R.P.,1987): a. Hard Limiter fonksiyonu : Bu fonksiyon girdi rntlerinin degerlerine gre ayrik (discrete) sonu elde etmek iin kullanilir. Bir baska ifadeyle girdi ya +1 sonucu verir ya da -1. Baska bir ihtimal sz konusu degildir. Bylece kesin bir limit alinmasi saglanmistir. b. Threshold fonksiyonu: Bu fonksiyonda Hard Limiter fonksiyonuna benzemekle beraber, girdi rntsnn toplam degerine belli bir esik degerine kadar dogrusal (lineer) artan degerlerle cevap vermektedir. st limite ulasildiginda ise (esik degeri, threshold) artik cevap ayrik olarak yine kesinlik gstermektedir. Artan bir egilim gstermez. c. Sigmoid fonksiyonu: Bu fonksiyonda girdi rntsne devam eden, sreklilik gsteren (continuos) cevaplar verilmektedir. Cevaplar kesinlikle ayrik degildir. Bu sebeple sigmoid fonksiyonu yaygin bir kullanima sahiptir. nk hassas degerlendirmelerin kullanilacagi problemler iin uygulanmasi en uygun olan fonksiyonu temsil etmektedir. Sigmoid fonksiyonu yerine yine sreklilik arz eden tanjant fonksiyonlarida ya da benzeri fonksiyonlarda kullanilabilir. nemli olan fonksiyonun trevinin alinabilecek bir fonksiyon olmasidir.

wi , yeni (t + 1) = wi ,eski (t ) + ( * d ( t ) f ( y in ) * xi ( t ))

(3)

(3) de(Fausett L., 1994) esikleme sonucu elde edilen cevap ile f(y in) olmasi beklenen deger olan d(t) arasindaki yanilma payi grenme katsayisi ile ve girdi sinyaliyle arpilip yeni agirligi belirlemek iin eski agirlik ile toplanir. Bu forml yardimiyla, yapay sinir hcresinin grenmek iin isleme koydugu gncelleme sreci aiklanmis olmaktadir.

Sekil 23. A) hard limiter B) Threshold C)Sigmoid

Sinir hcrelerinin yapay modelleri iin, grenmeninw zerinde gereklesti teorisi yapay sinir aglari modelleri iin kabul edilmis bir teori olup bu alismada da teori aynen korunacaktir. Bu aiklamanin isigi altinda, grenme srecinin ka degisik yntemle yapilabileceginin vurgulanmasi gerekmektedir.

grenme

sreci

ana

prensip

gzetimi

altinda

gereklestirilmektedir;

gretmenli

grenme(supervised learning) ve kendi kendine grenme(unsupervised learning) (Fausett L., 1994).

gretmenli grenmede (Supervised learning), yapay sinir aginin disaridan etki ile egitilmesi sz konusudur. Bu tip bir gretimde, girilen x i(t) degerlerinin ne tr bir ikti vermesi gerektigi nceden bilinmekte ( d(t) ) ve yapay sinir agi agirliklari bu korelasyona gre gncellenmektedir. Bu gretimde temel bilinen d(t) ile yapay sinir aginin verdigi y sonucu arasindaki hatanin w i agirliklarina gretilmesidir. Kabaca bir rneklendirme yapilmak istenirse; insani tarif ederken su zellikler dikkate alinsin: boy, kile, sa rengi, ayakkabi numarasi. Bu kriterlere gre bir grencinin futbol oynayabilir ya da oynayamaz seklinde ayrimi yapilmak istensin. Bir gretmenin verdigi bilgiler isiginda her grenciye oynayabilir, oynayamaz bilgisi atansin. Eger yapay sinir agimiz 100 kisilik byle bir grubu grenseydi ve ardindan 100 kisinin iinden herhangi biri yapay sinir agina boyu, kilosu, sa rengi, ayakkabi numarasi verilerek sorulsaydi, yapay sinir agi o grencinin oynayip oynayamayacaginin cevabini verecekti. nk yapay sinir agi her bir zellik iin (boy kilo vs) agirlik gncellemesini (3) nolu formule gre yapacak ve gretmenin gsterdigi her grenci ve ona ilistirilen karari arasindaki korelasyonu w agirliklari zerinde gncelleye gncelleye gretecekti. Ag burada grenmesini bir gretmenle yapmistir.

Kendi kendine grenme(Self, Unsupervised Learning) ise yapay sinir aginin disaridan herhangi bir etki olmaksizin aldigi bilgileri kendi ierisinde kiyaslama yaparak siniflandirmasi ile olusan grenme srecini belirtmektedir. Bunu yapabilmek iin yapay sinir agi ilk aldigi rnegi (ya da rnekleri, ka sinifa ayirmak istiyorsa o kadar rnek alinabilir) bir sinif olarak ilan eder. Ve geriden gelecek tm girdi rntlerini o sinifa

benzetmeye alisir. Bu sekilde, tm girdi rntlerini kendi aralarinda benzeyip benzememelerine gre ayirt edecektir. Elbette burada siniflandirma yaparken hatali bazi cevaplar retmek kainilmazdir. Ancak girdi rntleri sisteme ok defalar grenim iin beslenecek olunursa, elde edilen sonu %4 gibi bir yanilma oranina kadar dsecektir. Yine kabaca rneklendirmek gerekirse, 100 kisilik bir sinifin boy, kilo, sa rengi ve ayakkabi numarasi yine girdi rntlerinin degerlerini olustursun. Yapay sinir agi ilk gelen kisiyi bir sinif olarak ilan edecek ve ardindan sisteme beslenen tm girdileri bu buna benziyor ya da benzemiyor diye ayirt edecektir. Bu ayrimi yapabilmesi iin 100 kisilik grubun degerleri 1000 kere sisteme tekrar tekrar beslendigi takdirde, yapay sinir agi en sonunda grenmesini tamamlayacak ve 2 sinif grenmis olacaktir. 1.girdiye benzeyenler ve benzemeyenler. Adini koyamadigi bu siniflar yadrimiyla hanimlar ve beyler gibi olarak rahatlikla sinif ayrilmis daha dogrusu bu iki sinif basariyla grenilmis olunacaktir. Byle bir ag modeline yabanci bir kisi degerleri verilirse, sinir agi bu kisiye dogru cinsiyetini sylecektir.

Yapay sinir aglari temelde bu iki grenme metodundan ya birini ya da hibrid denilen karma modeli kullanir. Ancak grenmede w ile gsterilen agirliklarin gncellenmesinin bu metodlara gre yapilmasi, grenme ile ilgili baska etkin rol oynayan etmenlerin var olmadigi anlamina gelmemektedir. Gncellemede kullanilan forml (3)te yer alan ile sembolize edilmis bir grenme katsayisi da grenmenin srecini etkileyen bir faktrdr. katsayisi grenmenin sresinin ve dogrulugunun iliskisini dzenleyen nemli bir degiskendir. Uzayda bir merkez dsnlrse ve bir baslangi noktasindan interpolasyon yntemiyle merkeze yaklasilmak istense, merkeze dogru atilacak her adimin byklk degeri nem tasir. rnegin ikis noktasindan merkeze dogru 5cm atlayarak gidilmeye alisilsa merkez belki de 3 adim sonrasinda ulasilmanin tesinde stnden atlanip geilmis bile olacaktir. Eger adim uzakligi 1cm seklinde belirlenecek olunursa, merkeze 14 adim sonra tam olarak ulasilmis olunacaktir. rnekten grldg gibi, degiskeninin degeri byk alinirsa grenme kaba ve kisa sreli, kk alinirsa hassas ve uzun sreli olacaktir. Bu noktada degeri mmkn oldugunca optimum tutulmalidir, ne byk ne de ok kk alinmalidir. nk byk alinan deger yznden istenilen sonuca ulasilamayacak, ok kk alindigi takdirde ise istenen hedefe ok dsk bir performans ile ulasacaktir. Bunun iin yapay sinir aglarinin grenme algoritmalarinda genelde belli bir iterasyon (dng sayisi) getikten sonra, degeri azaltilir. Bylelikle, baslangita algoritma byk adimlar atarak hedefe dogru ynelir, belli bir sre sonra adimlarini kltmeye baslar. Bu sayede algoritma hizli bir biimde sonuca, hassas bir yaklasimla ulasir. Bunun gereklestirilmesi iin degeri belli bir sabir katsayi ile arpilmaktadir.(Kung S.Y.,1993)

= * sabit

(4)

grenmenin baska bir kritik gesi verilerin byklg ve iterasyon sayisidir. Yapay sinir aginin zme ulasabilmesi iin problemin karakteristigini yakalayabilecek kadar girdi rntsne (veri) sahip olmasi gerekir. rnegin Trkiyenin yagmur yagisini tahminleyebilmek iin 30 gnlk verilerin kullanilmasi, o

problemin zme ulasabilmesini engelleyen bir etken faktr olacaktir. Bu yzden problemin zmnden nce kullanilacak veriler zerinde istatistiksel bir yorumlamanin yapilmis olmasi, yapay sinir aglarinin o verileri kullanarak basariya ulasmasi iin yararli olacaktir. Kullanilacak veri poplasyonun byklg her probleme gre degisik olabilir, bu nedenle yapay sinir aglarinin basariya ulasmasi iin gereken iterasyon (dng) sayisi her bir probleme gre degisebilir. Bunun yanisira yapay sinir aginin problemi daha iyi grenebilmesi, cevap retirken daha hassas derecelerde dogru cevap retebilmesi iin problemin kendi iinde de iterasyon sayisi degistirilebilir. rnegin, Trkiyenin yagisinin modellenebilmesi iin 10 senelik veri, yapay sinir agina bir kere beslenirse verecegi cevap ok kaba ve yuvarlamali olacak iken, 1000 kere ayni veriyi beslemek ile daha hassas derecelere kadar grenmesi saglanmis olacaktir. Bu noktada iterasyon sayisi problemden probleme ve problemin kendi iindeki hassasiyete gre degisebilecektir. ok fazla dng performansi azaltip sonuca ulasmayi uzun bir zamana yayarken, az sayida dng de sonuca ulasmayi engelleyecek kadar kaba sonular retme ye neden olacaktir. Bu yzden yapay sinir aglari, her bir problem iin uygulanirken iterasyon sayisi deneme yanilma yntemiyle tesbit edilmeye alisilir.

grenmenin zerinde etkin rol oynayan bir baska faktr, o yapay sinir agi zerinde kullanilan katman sayisidir. Burada kisaca su sylenebilir. Modelden modele katman sayisi degisiklik gsterse de, su an yaygin olan grse gre; 3 katmandan olusan bir yapay sinir agi modelinin en karmasik problemlere dahi yeterli oldugudur(nal N., 1994). Ancak bu bir kis itlama degildir, 2 katmanli ya da 4 katmanli yapay sinir agi modelleriyle problemler zlemez anlami iermemektedir. Bu 3 katman sirasiyla; girdi, sakli, ikti katmani olarak adlandirilirlar. 5 katmanli bir yapida 1.katman girdi, 5.katman ikti ve arada kalan katmanlar sakli katmanlar olarak adlandirilirlar.

grenmede etkili olan bir diger faktr, her katman zerinde kullanilan sinir hcresinin sayisidir. rnegin Sekil 24.te girdi katmaninda 30, sakli katmanda 6 ve ikti katmaninda 8 tane sinir hcresi yer almaktadir. Ve buradaki sayilar probleme giris iin kullanilan tamamen kullanicinin kurgusuyla belirlenmis sayilari ifade etmektedir. Bu yzden her katmanda olmasi gereken hcre sayisi gibi sabit bir belirleme sz konusu olmayip ayni iterasyon sayisi gibi bu da deneme yanilma yntemiyle tesbit edilmektedir. Ancak yine en iyileme aisindan su vurgulanabilir; ok sayida yapay sinir hcresi yapinin karmasik ve kompleks fonksiyonlarla alisip dsk performans sergilemesine, az sayida hcre ise problemin grenilmemesine neden olacaktir.

Tm buraya kadar grenmede etkin olan unsurlarin yapay sinir aglari iin tasidigi nemin aktarilmasi yer almistir. Bunlara ek olarak, grenmeyle dogrudan iliskili olan kapasiteden sz etmek gerekmektedir. grenmede bahsedilen yukaridaki tm etmenler kullanilarak yapay sinir aginin ne kadar grendigi tesbit edilir. Bunun lt olarak gretilen populasyondan tek tek girdi rntleri alinarak yapay sinir agina sorulur. Eger yapay sinir agi bunlari dogru olarak cevaplandirabiliy orsa, bu dogru cevaplarin orani tutulur. Isletim sistemi

teorisindeki hit ratio, vurus yzdesi mantiginin aynisi yapay sinir aglari zerinde kapasiteyi belirtmektedir. rnegin Hopfield modelinde, 100 bitlik girdi rntleri kullaniliyorsa, Hopfield kapasitesi 15 adet girdi rntsn tutar denmektedir. Bir baska deyisle, Hoprfiel modelinde 16. Girdi rntsnn yapay sinir agina gretilmesi mmkn degildir. Buna kiyasla, backpropagation modelinde ise %99 ulasan grenme kapasitesine ulasilmaktadir.(Fausett L.,1994)

4.3 Sorgulama
Yapay sinir agi modellerinin temel iki islevi vardir. grenmek ve grendiginin sorgulamasi yapildiginda buna yanit vermek. Ancak dikkat edilmesi gereken nokta, yapay sinir agi modellerine daha nce hi grenmedigi bir rntnn sorulmasiyla, yapay sinir aginin bu rnty daha nce grendigi rntlerden birine benzeterek cevap vermeye alismasidir. Bu alisma prensibi sayesinde, yapay sinir agi modelleri hata-toleransli fault tolerant mekanizmalara olarak bilinirler.

Hata-toleransli yapisina rnek vermek gerekirse, yz tanima ile ugrasan yapay sinir agi modelleri vardir. Bu sistem yz tiplerini grenmeye ynelik alismaktadir, ve ok iterasyon yaparak bir kisinin yzndeki bazi karakteristikleri grenmek suretiyle, insan yzn tanimaya alismaktadir. Eger bu sistem bir kisinin yzn grendiyse, yzn bir parasinin kapatilarak sorgulanmasi, sistemin yine dogru cevap vermesini etkilemeyebilir. Iste girdi rntsnn belli bir miktari yok olsa dahi, yapay sinir aginin o girdi rntsne dogru cevap veriyor olmasi, yapay sinir aglarinin hataya olan toleransli yaklasimini gstermektedir.

Sorgulama esnasinda kullanilan ok basit teknikler vardir. Bu tekniklerden bazilari;

Hamming

Distance (HD), Eucledean Distance (ED), Partitioned Generalized Eucledean Distance (PGED) olarak isimlendirilen uzaklik lm teknikleridir(Cinsdikici M.,vd.,1997,ISCIS XII). Girilen rntnn

saklanan(grenilmis) olan rntlerle matematiksel olarak uzakliklarini bulmak iin kullanilan bu teknikler sayesinde, girdi rntsne en yakin olan grenilmis rnt cevap olarak yapay sinir agi tarafindan disari verilmektedir.

Sorgulamada baska bir metodolojide (1) ve (2) formllerinin uygulanip sonuta kimlerin y iktisinda aktif, kimlerin ise pasif olduklarina gre girdi-grenilmis ikilisi arasinda yakinlik karari verilmesidir. Burada yapay sinir aginin kendi aktiflik fonksiyonu disinda HD, ED, PGED gibi harici bir foksiyon kullanilmadigi iin, bu tip sorgulama yapan yapay sinir aglari modelleri sorgulama sonucuna daha hizli ulasmaktadirlar. (Cinsdikici M., vd., 1997)

Yapay sinir aglarinin hepsi ayri ayri sorgulama teknigi kullaniyor olabilirler. Bazilari ise bahsi geen sorgulama tekniklerinin hibrid(ikili) seklinde birlikte kullanimini da uyguluyor olabilirler. Bu noktada sorgulama

tekniginin belirlenmesi durumu modeli gelistiren kisinin tercihine ve problemin kararkteristigine birakilmistir. Ancak basit bir genelleme ile su vurgulanabilir; HD, ED, PGED gibi matematiksel uzaklik hesaplama fonksiyonlari grnt isleme problemlerinde, rnt tanima problemlerinde sik kullanilmaktadir. Optimizasyon (en iyileme) problemlerinde ise (1) ve (2) formllerinin birarada kullanilarak hcre aktivasyonuna gre sorgulamanin saglandigi grlmektedir.

Sekil 24. Girdi katmani 30 hcreli, sakli katmani 6 hcreli, ikti katmani 8 hcreli bir sinir agi.

4.4 Temel Yapay Sinir Agi Modelleri

Daha nceki blmlerde yapay sinir aglari iin gereken temel elemanlar ile grenme ve sorgulama sistemi irdelenmistir. Bu blmde ise varolan yapay sinir agi modellerinin bu tez kapsami iinde nem tasiyanlari aiklanacaktir.

4.4.1 Hebb Net


Yapay sinir agi modellerinin ilk bilinen tipidir. grenme metodolojisinde Hebb kuralini kullandigi iin bu adi almistir. Hebbin koymus oldugu kural ok basittir; eger iki hcre ayni aktivasyonu gsteriyorsa arasindaki bagin kuvvetlenmesi gerekir. Eger ikisinin aktivasyonu farkli ise aralarindaki bag degismez ya da azaltilmalidir. (Fausett L.,1994)

Yapisi itibariyle ileri beslemeli olan bu model, tek katmanli bir yapi ile olusturulmustur. Bu yapi girdi hcreleri ve onlarin bagli oldugu ikti hcresinden ibarettir. Girdi hcrelerinin birbirleri arasinda baglantilari sz konusu degildir. Hebb netin mimarisi Sekil 25.te gsterildigi gibidir.

Sekil 25. Hebb netin mimarisi

grenme sreci daha ncede belirtildigi gibi hcreler arasindaki iliskinin kuvvetlendirilip, azaltilmasiyla saglanmaktadir. w agirliklari bagli oldugu iki hcrede ayni aktiflikte ise arttirilir, farkli ise azaltilir yahut girdi rnt tipine gre degistirilmez. Burada girdi rntsnn kullandigi veri tipi de nemlidir. Eger girdi rnts olarak ikili (binary, 0 ve 1) tipi kullaniliyorsa, o zaman w ler farkli aktiflikteyken degisime (azaltilmaya) ugratilmazlar. Ancak kullanilan rnt iki kutuplu (bipolar) ise o zaman w ler farkli aktifliklerde azaltilirlar. Buna gre grenme forml asagida verilmistir.

wi ( yeni ) = w i (eski ) + x i * y

(5)

nemle vurgulanmasi gereken husus ise (5) formlnde yer alan xi * y ifadesinden yola ikilarak bir hata ile karsilasildigidir. Eger binary (0,1) tipli rntler kullaniliyorsa xi ve ynin aktivasyonlari zitlik gsteriyorsa w ide degismeyecektir. Bu dogrudur. Ancak xi ve y ikisi birden pasif aktivasyonda ise (0,0) o zaman w i yine degismemektedir. Oysaki winin kevvetlendirilmesi gerekmektedir. Bu sebeple girdi rntlerinin bipolar (iki kutuplu) alinmasi Hebb net iin en dogru olan girdi rnts veri tipi olacaktir.

Hebb netin algoritmasi asagidaki gibidir; (Fausett L.,1994)

Adim 0: Tm agirliklari baslangi degerlerine ata wi = 0 i=1,2,3,..n

Adim 1: Herbir girdi rnts (s) ve o rntnn istenen sonucu (t) gereken deger ikilisi iin Adim 2-4 arasini tekrarla. Adim 2: Herbir girdi elemanini girdi rntsden al: xi=s i i=1,2,3,..n

Adim 3: imasi gereken sonu ata y=t Adim 4: Agirliklari ve denge unsurunu ayarla wi(yeni)=w i(eski) + xi*y b(yeni)=b(eski) + y (i=1,2,3..n)

Hebb netin basit yapisi gncel olarak basit siniflandirma problemlerinde kullanilmaktadir. Siniflandirma rol oynayan y (1) formlndeki gibi hesaplandiginda ikan sonu grenmenin tamamlandigini ve girdinin hangi sinifa ait oldugunu belirtir. En basit rnekleri AND ve OR kapilarinin Hebb net ile simle edilmesidir. rnegin AND iin ; s1=(1,1) t 1= 1 b=1, s2=(1,1) t 2=1 b=1, s3=(1,1) t 3=1 b=1, s4=(1,1) t 4=1 b=1, Bu girdilerin iin Hebb net grenmesini yaptiginda elde edilen agirliklar w1=2, w2=2, b=-2. Hebb net bu durumdayken (-1,1) sorulsa cevap olarak (-1) deger alinacaktir. Bu ise 2 boyutlu uzayda girdi rntlerini bir dogru ile iki paraya ayirmak bir baska degisle siniflandirma yapmasi anlamina gelmektedir. Hebb netin sayesinde (-1) ve (+1) olan girdiler vardir. Bu Sekil 26.daki aika ifadesini bulmaktadir.

Sekil 26. AND kapisinin modellenmesi ile elde edilebilecek 2 boyutlu dzlem ve (+1) (-1) siniflari.

Sekil 26.dan anlasilacagi zere Hebb net (+1,+1) (-1,+1) (+1.-1) (-1,-1)i dogru biimde siniflandiracaktir. nk bir tek ikti hcresi bu sistemde (-1), (+1) cevabi verebilecektir. Ancak dogrunun dzlemdeki, konumu paralel olarak iterasyon sayisina bagli olarak degisiklik gsterebilir. nemli olan Hebb netin AND kapisini basariyla benzetilebildigidir. (Fausett L.,1994)

Eger bizim girdi rntmz 3 girdili (x1,x2,x3) olsaydi ve Hebb netten yine AND kapisini simle edilmesi istenseydi, Hebb net 3 boyutlu girdi dzlemini yine basarili bir biimde 2 sinifa ayirabilecekti. Bu boyutlu dzlemin 2 ayri sinifa ayrilmasi isleminin sonucu ise Sekil 27.de belirtilmistir.

Sekil 27. Hebb net ile 3 girdili AND kapisinin simle edilmis(siniflandirilmis) hali.

Sekil 27.de de rahatlikla grlecegi zere 3 boyutlu bir girdi kmesi, bir araci dzlem tayin edilerek yine 2 paraya blnebilmistir. Kbn (1,1,1) noktasi ile gen dzlem arasi kalan hacimli blge (+1) sinifini, geri kalan byk hacimli blge ise (-1) sinifini belirtecek sekilde basarili bir siniflandirma yapilmistir.

4.4.2 Perceptron
Hebb net modelinden sonra ortaya konan perceptron modeli, bugnk yapay sinir aglari iin nemli bir temel olusturmaktadir. nk Hebb netin grenme kavrami yerine simdi esikleme fonksiyonundan geirilme kavrami gelmektedir. Bu model yardimiyla, grenmede esiklemenin rol kabul edilmektedir. Sekil 23.te

yer alan herhangi bir fonksiyonun kullanilmasini neren bu model, temelde kendine hard limiter tipindeki esikleme fonksiyonunu referans olarak kabul etmektedir. Perceptron modeli de yine Hebb netin mimarisini kullanmaktadir.(Sekil 25.) (Fausett L.,1994)

Perceptron modelinde en nemli faktr esik degeridir. Saptanacak olan esik degeri problemin karakteristigine gre belirlenebilir. Esik degeri yardimiyla perceptron modeli basarili bir siniflandirma yapabilmektedir. Hebb nette yer almayan bir kavram olan kararsiz (geis) blge diye adlandirilan zm blgesinide nemseyen perceptron, hebb nete gre siniflandirmayi daha dikkatli yerine getirmektedir. Bilindigi gibi Hebb net zm uzayini 2 paraya bir bicak gibi blmekte ve blmlemeyi saglayan dogrunun (ya da dzlemin) bir yanina A sinifi(+1) diger yanina B sinifi(-1) seklinde esikleme yapmaktadir. Oysa ki perceptron yine zm uzayini iki ayri paraya ayirmakla beraber, A ve B sinifina ait zelliklerin karma seklini zerinde tasiyan ntr sahayi da grenebilme yetenegine sahiptir.

Perceptron yapisinda kullanilan dng (iterasyon) sayisinin ykseltilmesi sonucunda zm iin daha kararli bir yapiya ulasilmaktadir. Bu sayede A sinifi ve B sinifi daha net konumlandirilabilinecek, arada kalan ntr blge (kararsiz blge) daha inceltilebilecektir. Sekil 28.de perceptron hcresinin belli bir iterasyon sonunda 2 boyutlu girdi (x1,x2) rntlerinin grenilmesi sonucunda elde edilen siniflandirmayi grmekteyiz.

Sekil 28. Perceptron modelinin kullanilmasiyla elde edilen siniflandirma.

Perceptron yapay sinir agi modelinin algoritmasi asagidaki gibidir, (Fausset L., 1994) Adim 0: Tm agirliklara baslangi degeri ata. wi=0 , b=0 grenme katsayisini kk bir degerden baslat. 0< 1 Adim 1: Belli bir iterasyon sayisi kadar 2-6. Adimlar arasini tekrarla Adim 2: Her girdi rnts(s) ve ona karsilik beklenen sonu(t) iin 3-5. Adimlari tekrarla

Adim 3: Girdi degerlerini girdi rntsnden al. xi=s i Adim 4: Perceptrona gelen toplam sinyali hesapla y in=b + xiwi Aktivasyonu hesapla y= f(yin)= 1 (eger yin > ) ya da 0 (eger - yin ) ya da -1 (yin<-) Adim 5: Eger hata varsa bu hatayi gren buna gre agirliklari gncelle; Eger ( y t ) ise wi(yeni)=w i(eski) + * t * xi b(yeni)=b(eski) + * t Eger ( y = t ) ise O zaman hata yoktur. Degisime gerek kalmamistir. Adim 6: Dng sonunu kontrol et. Grldg zere perceptron algoritmasinda katsayisi kullanilmistir. Katsayinin kullanimi iin bu alismanin yapay sinir aglarinda grenme basligina bakiniz. Burada degeri baslangi olarak 0.6 gibi bir deger olabilir. Bu sabir sayi bir ok algoritmanin baslangi iin kullandigi alisilagelmis bir sayidir. Ancak bu kabullenme bir zorunluluk degildir. degeri 0 ile 1 arasi kk herhangi bir deger olabilir.(Fuasset L.,1994) Yine algoritmada ile gsterilen esik degeri zerine yapay sinir aglarinda grenme basligina bakilmasi aiklayici olacaktir. Bu deger problemden probleme farkli alinabilir.

Perceptronun grenme algoritmasi hata zerine dayandirilmis bir grenme metodolojisidir. Eger sistem hata ile karsilasiyorsa grenmektedir. Ne kadar hata yapilirsa o kadar grenme sz konusudur. Baska bir ifadeyle perceptron hatalari grene grene, sis temi en az hataya indirgemeyi hedeflemektedir. Gncel yasamda beynin bir grenme stili olarak bu yaklasimi kullanmaktadir(Lippman R.P.,1987). rnegin bir grenci hep dogru yaparsa bu onda grenmeden ok aliskanlik halini alan bir mekanizmaya dogru gidisi saglarken, beyin bir daha o isle mesgul olmaz ve refleks haline gelen islemi artik omurilik gibi yan sistemler gtrrler. Oysa ki beyin o hatayi dzeltmeye alisacak, ve her hatali durumda hatayi biraz daha azaltmaya alisacaktir. Bu ise beynin hata yapara k grenmesini saglamaktadir.

4.4.3 Khonenin Self Organizing Feature Map (SOM) Modeli

Khonenin sundugu ileribeslemeli olan bu model (Khonen T.,1984) daha nceden sunulmayan ve sunuldugu andan itibaren byk ilgi odagi haline gelen bir mimari olmustur. nk Khonen beynin alisma

stilinin gerekte bir associative memory yani iliskisel bellek karakteristiginde oldugunu vurgulamistir. Khonen bu teorisini iki tipte karsimiza ikan iliskisel bellek tipleriyle pekistirmistir: otomatik iliskili(autoassociative), zit iliskili (heteroassociative). Iliskisel bellek tiplerinde temel yapi, iki nesneyi birbiriyle iliskilendirerek grenmektir.

Khonenin modeline dayanak olan bu iki tip iliskisel bellek modeli, iki nesne arasindaki bagin kuvvetliliginden yararlanmaktadirlar. grenme algoritmalari ise gretmenli grenme (supervised learning) temeline dayanmaktaydi. Bu grenme modeline gncel yasamdan rnek getirmek gerekirse; muz meyvesi ile kokusunun iliskisi, limonla eksimsi tad iliskisi yeterli olacaktir. Iliskisel belleklerin alisma prensipleri olarak, rnekte verilen limon girdi rnts ve ikmasi gereken sonu ise eksilik olacaktir. Ve yapi bu iki ayri nesneyi (meyve - tad) iliskilendirerek grenmis olacaktir.

Khonen modeli iin ikis noktasi olarak bu temeli kullandi. Ancak self yani kendi kendine grenmeyi algoritmasi iin temel olarak benimsedi. Ayrica Khonen kurdugu yapay sinir agi modellerinde ok nemli bir baska kavramdan daha sz etti: komsuluk. SOM yapisinda cluster adi verilen grup merkezleri vardi. Eger poplasyonda iyi temsilciler seilebilirse, o poplasyon seilmis olan temsilcilerle ifade edilebilirdi. Ya da bir baska deyisle m adet elemandan olusan poplasyon (girdi uzayi) n degisik sinifa ayrilabilirdi. n degisik sinif ise grup merkezleri tarafindan temsil edilebilirdi. Sekilsel olarak bunun ifade edilmesi Sekil 29.da yer almaktadir. (Kung. S.Y., 1993)

Sekil 29.: Khonenin SOM modeliyle uzayda birok merkez noktasi mevcuttur.

Khonen gelistirdigi yapay sinir agi modeli iin Sekil 30.daki mimariyi temel aldi:

Sekil 30: Khonenin 2 katmanli (girdi, ikti) SOM ileribeslemeli ag yapisi.

Sekil 31: Khonen ikti katmanindaki merkezleri gncellerken komsuluk derecelerini de hesaba katmistir.

Khonen gelistirdigi mimaride, tamamen kendi kendine grenmeyi hedefledigi iin ele aldigi k adetlik girdi poplasyonunun ilk n adedini n cluster (bek, merkez noktasi) olarak yerlestirir. Ve tm poplasyon elemanlarini bu merkez noktalarina gre grenir. grenmek iin alinan girdi, tm clusterlar ile kiyaslanir ve girdi hangi clustera (gruba) yakin grnyorsa oraya adapte edilir (gncellenir). Ve her nokta yakin buldugu grup merkezini kendine dogru ekerek grup merkezlerinin daha iyi grup temsilcisi olabilmesini saglamaya alisirlar. Eger bu islem 100, 1000, 10000 iterasyon ile tekrarlanirsa, grnen sonu; cluster olarak belirlenen grup merkezlerinin poplasyonu en iyi temsil eden grup merkezleri oldugu grlecektir. Bir baska deyisle, her grup merkezi rnek uzayin ayri ayri siniflarini temsil edecektir. Bu sayede girdi rntleri kendilerini ait olduklari sinifin merkezine yakin bulacaklardir. Elbette ki komsuluk kavrami sayesinde birbirine yakin olan siniflar yine birbirleriyle iliskili hareket edeceklerdir.

Khonenin bu gretisi ve gelistirdigi yapi ok basarili olmustur. Gnmzde birok ayri problemi zmek iin kullanilir hale gelen Khonenin SOM yapisi algoritmasinin kolayligi ilede dikkat ekmektedir. Algoritmada nemli olan girdi rntsnn hangi clustera daha yakin oldugunun tesbiti iin kullanilan matematiksel uzaklik fonksiyonlaridir. Bu uzaklik lm iin HD, ED ya da PGED gibi fonksiyonlardan herhangi biri rahatlikla kullanilabilir. Algoritma bu fonksiyonlari kullanarak hangi grup merkezinin girdiye daha yakin oldugunu buldugu an bulunan cluster winner, kazanan olarak isaretlenir. Ve winner take all, kazanan hepsini alir prensibiyle kazananin agirlik degerleri wi gncellenir. Elbette bu islem yapilirken winner olarak isaretlenen merkezin komsularida daha az bir kuvvetle winner olan merkeze dogru ekilir. Bu da komsularin birbirine yakinliginin devam etmesi iin gereklidir.

SOM yapisinin algoritmasi asagida belirtilmistir;(Khonen T.,1984)

Adim 0: Agirliklara baslangi degerlerinin rastgele kk sayilarla atamasini yap. 0 < wi < 1 grenme katsayisinida ata 0< <1 Adim 1: Yeterli iterasyona ulasilincaya dek 2-8. Adimlar arasini tekrarla Adim 2: Herbir girdi rnts iin 3-5. Adimlar arasini tekrarla Adim 3: Herbir cluster (j) iin uzaklik hesapla uzaklik(j) = (wij - xi)2 (eger ED fonksiyonu ise bu HD,PGED de olabilir) Adim 4: Minimum uzakliga sahip olan j. clusteri bul. index= min{j, uzaklik(j)} Adim 5: indexin gsterdigi clusterin ve komsularinin agirliklarini gncelle. wi,index(yeni)=wi,index(eski) + * (xi,index - wi,index(eski)) Komsulari iin ise r uzaklik katsayisi gzeterek gncelleme yap. Adim 6: grenme katsayisini hassaslastir. = * 0.6 (0.6 rastgele bir sayidir)

Adim 7: Komsuluk derecesini azalt Adim 8: Durusu kontrol et.

4.4.4 Backpropagation Net

Backpropagation net modeli(Lipmann R.P., 1987), yapay sinir aglari ierisinde hemen hemen her probleme rahatlikla uyarlanabilir bir yapiyi olusturmaktadir. Backpropagation geribeslemeli bir grenme mekanizmasi kullanir. Burada yapay sinir aginin yapisi ileribeslemeli olmasina karsin, hatanin geriye dogru ket vurmasindan kaynaklanan bir grenme oldugu iin geribesleme sz konusu edilmektedir. Ve bu yapay sinir agi modeli gretmenli grenme stratejisini (supervised learning) kullanmaktadir(Lipmann R.P., 1987).

Backpropagation grenmede srekli (continuous) girdi tipini kullanir. Aktivasyon iin ise trevi alinabilecek bir fonksiyonu isleme sokmaktadir. Genellikle sigmoid fonksiyonunu kullanan backpropagation (Sekil 23.c) grenme fonksiyonu olarakta Delta kuralini kullanir.(6)(Fausett L., 1984)

wi , j (new ) = wi , j ( old ) + ( * t f ( yin ) * f ( yin ))

(6)

(6)ya gre trevi alinabilinen bir fonksiyon kullanilmasi backpropagation tipi bir yapay sinir agi modeli iin nem tasimaktadir. nk trev bir egri zerinde degisim olarak tarif edilmektedir. Bir baska deyisle; hatanin minimize edilmesi demek, hatanin trevinin 0 olmasi anlamina gelmektedir. Bu yzden baclpropagation hatanin trevini wij agirliklari zerinde grenmekte bu sayede hatalar her bir iterasyon (dng) sonunda 0a dogru yaklasmaktadir. Backpropagation bu sebepten dolayi basarili kullanim sahasina sahip olup mimarisi Sekil 32.deki gibidir. (Lipmann R.P.,1987)

Sekil 32.: Standart 3 katmanli (x girdi, z sakli, y ikti) Backpropagation agi yapisi.

Backpropagation mimarisi iin kullanilan algoritma, ilk adimda yler zerinde olusan hatayi sakli ve ikti katmani arasinda yer alan wp,m ler zerine yansitirlar. Ancak gncelleme hemen gereklestirilmez. wp,m lerin gncelleme yapilmamis olan hallerinde olusan hatalar ise girdi ve sakli katman arasinda yer alan vp,nler zerine yansitilir. wp,m ve v p,nler ayni anda gncellenerek backpropagation algoritmasinin paralel

bir yapi arz ederek grenmesi saglanmaktadir. Bu paralel yapi saysinde backpropagation mimarisinin performansi diger yapilara oranla daha yksek olacaktir. Backpropagation algoritmasinda kullanilan sigmoid fonksiyonu ve bu fonksiyonun trevi (7) ve (8)nolu formllerde verilmistir. (Fausett L., 1984)

f sigmoid ( x) = (2 / (1 + exp( x))) 1


f sigmoid ( x) = 1 / 2 * 1 + f sigmoid ( x) * 1 f sigmoid ( x )
Backpropagation algoritmasi asagidaki gibidir; (Lipmann R.P.,1987) Adim 0: Agirliklara baslangi degeri ata. 0 < wj k <1 , 0 < v ij <1 Adim 1: Enerji stabilize olan dek 2-9.Adimlar arasini tekrarla Adim 2: Herbir girdi rnts (s) ve ona ait olan ikti degeri (t) iin 3-8. arasini tekrarla. Ileribeslemeli Kisim: Adim 3: Girdi sinyalini al ve st katmana ilet. xi = s i Adim 4: Herbir gizli katman iin toplam sinyalleri hesapla. zin_j = xi * v ij Herbir gizli katman iin ikis degeri hesapla. zj = f sigmoid(zin_j ) Adim 5: Herbir ikti katmani iin toplam sinyalleri hesapla. y in_k = zj * wj k Herbir ikti hcresinin ikis degerini hesapla. y k= f sigmoid(yin_k)

(7)

(8)

Hatanin Geribeslenmesi Kismi: Adim 6: ikti katmaninda olusan hatayi hesapla k = (tk-y k) * f sigmoid (y in_k) ikti-sakli katmanlari arasi yapilacak agirlik degisimini bul. wj k = * k * z j Adim 7: Herbir sakli katman zerindeki hatayi hesapla in_j = k* w j k Girdi katmanina yansitilacak hatayi hesapla j = in_j * fsigmoid(zin_j) Girdi-sakli katmanlari arasi yapilacak agirlik degisimini bul

vij = * j * xi Adim 8: Simdi tm agirliklari ayni anda gncelle. wjk(yeni) = wj k(eski) + wj k v ij (yeni) = vij (eski) + v ij Adim 9: iterasyonu kontrol et. Bitir.

4.4.5 Hopfield Yapay Sinir Agi Modeli

Yapay sinir aglarinin en karma modelini teskil eden Hopfield yapay sinir agi recurrent ya da recursive yani tekrar beslemeli bir yapiya sahiptir. Bu zelligi ile Hopfield modeli diger yapay sinir agi modellerinden ayrilmaktadir.(Hopfield J.J, et all, 1985) Tekrar besleme kabiliyeti sayesinde girdi rnts Hopfield mimarisine verildiginde, mimari isleme bir baslangi enerjisi ile baslar. Bu baslangi konumundan itibaren yapi, girdi rntsn bir baska girdi rntsne(daha nce grendigi) dogru ynlendirmeye baslar. Bu ynlendirme srecinde girdi rntsnde yapilan her ufak degisimin ardindan enerji tekrar tekrar hesaplanarak girdi rntsnn morfolojik dnsmnn kontrol saglanir. Girdi rntsnn bir baska grenilmis olan girdi rntsne benzetilme islemi (morfolojisi), enerji stabilize olana dek srer. Enerji s tabilizasyonu ise enerjinin minimuma ulastigi ve degismedigi yerdir.

Girdi rntsnn tekrar besleme yardimiyla enerjisini dsre dsre yerel minimuma ulasmasi (enerjinin artik dstg ve degismedi sre) olayina convergence denir. Convergence pozisyonunda olan girdi rntsnn morfolojik haline ise converged vector adi verilir. Yani elde edilen cevap vektrdr. Bu aidan matematiksel olarak interpolasyon islemine benzeyen bir operasyon olan bu grenme sreci sayesinde Hopfield sinir agi modeli optimizasyon problemlerinin kainilmaz referans modeli olmustur.(Cavalieri S., et all, 1994).

Bu tez alismasina referans model teskil eden MAREN (ztrk Y., 1995) yapay sinir agi modeli de referans olarak Hopfield yapay sinir agini ve onun enerji fonksiyonunu almistir.

Mimari olarak Hopfield tek katmanli bir yapiya sahiptir. Bu tek katman hem girdi hem de ikti katmani olarak grev yapar. Simetrik olarak tm sinir hcreleri birbirine baglanmistir. Sadece hcrelerin kendi zerlerine baglantilari mevcut degildir. Sekil 33.te Hopfield modelinin mimarisi aik biimde grlmektedir.

Sekil 33: Hopfield Net Modeli

Hopfield modelinin grenme srecinde kullandigi kural -en basit kural olarak bilinen- Hebb kuralidir. (5)nolu formlde yer aldigi gibi agirliklarin grenilmesi iki sinir hcresi arasinda ki degerin ayni olup olmadigina baglidir. Girdi rntlerinde binary(ikili) degerlerden ziyade bipolar(iki kutuplu) degerlerin kullanilmasi daha dogru olan yaklasimdir. Buna gre her girilen rnt iin grenme syle ifade edilir;

W = {wij } ve wij = si ( p) * s j ( p)
p

, ij

(10)

(10) nolu formlde(Fausett L., 1984) Hopfield modelinin grenme forml yer almaktadir. grenme Hopfieldda ok basit olan Hebb kurali ile saglanmaktadir. Yapilan m tane (p=m) girdi iin(herbir girdi n hcreden olusmaktadir. i=j=1,2,....n.) agirlik matrisini olusturmaktadir.W. rnegin y 1 hcresi -1, y3 hcresi -1 iken, w13 = w13+ (-1)*(-1) = w13 +1. Tm girdi rntleri kullanilarak olusturuldugunda wij zerinde grenmenin tamamlanmis oldugu belirtilir.

Hopfield modelinin grenim sreci tamamlandiktan sonra asil nemli olan, girdi rntsnn sisteme beslendiginde istenen sonuca ulasip ulasilamayacaginin (convergence) kontroln yapacak enerji fonksiyonunun kurulmasidir. Hopfield; Lyapunov fonksiyonu ile sistemin enerjisinin hedefe ulasabilecegi (convergence) ve o hedefte stabilize halinde kalabileceginin kontroln yine bu fonksiyon yardimiyla saglayabilecegini ispat etmistir. Hopfield modelinin en nemli parasi olan enerji fonksiyonu (11) nolu formlde belirtilmistir. (Fausett L., 1984)

E = (1 / 2) * yi * y j * wij xi * yi + i * yi
i j j i j

(11)

Enerji formlne dikkat edilecek olunursa, burada her bir hcrenin aktifliginin kontrolnn yapildigi ve aktif olanlarin agirlik degerlerinin enerjiye katildigi grlecektir. Bu noktada nemli olan girdi rntsnn

yi kadar bir degisiklige ugratildiginda (ynlendirildiginde) enerji degisiminin ne olacaginin hesaplanmasidir. Enerjide olusan bu degisim asagidaki forml ile belirtilmistir:

E = ( y j * wij ) + xi i * y j j

(12)

Eger E (enerjideki degisim miltari) bir nceki enerjiyi daha da dsrecek ynde ilerliyorsa, bu girdi rntsnn yerel (local) minumuma dogru haraket ettigini gsterir. Bu ilerleyis Sekil 34.te enerji grafigi ile gsterilmistir.

Sekil 34: Hopfield modelinde enerji degisim grafigi.

Sistem yerel minimumu yakaladigi an stabilize (uzun mddet degisim geirmeden) kalabiliyorsa sistem o girdi iin cevaba ulasmis demektir. Hopfield modelinin bu baglamda algoritmasi ise asagida sunulmaktadir;(Hopfield J.J. et all, 1985)

Adim 0: Agirliklarin degerlerini gren. (Hebb kurali kullanarak) wij=p s i(p) * s j (p) , ij iken

Enerji lokal minimumu yakalayana kadar 1-7.Adimlar arasini tekrarla Adim 1: Herbir girdi vektr iin 2-6.Adimlar arasini tekrarla. Adim 2: Disaridan gelen girdi vektrn sisteme besle y i = xi Adim 3: Herbir sinir hcresi iin 4-6. Adimlar arasini tekrarla Adim 4: Her hcrenin girdi toplam sinyalini bul y in_i = x i + j (y j * wij )

Adim 5: Aktivasyonu hesapla y i= 1 (eger yin_i >i ), y i (eger yin_i = i ), 0 (eger yin_i < i ) Adim 6: iktilari diger hcreler dagit. Adim 7: Enerji fonksiyonu hesapla, converge noktasindaysa dur, degilse rastgele bir y i degerini yi kadar degistir.

4.4.6 Maren
Maren yapay sinir agi tipi ikis olarak Hopfield modeline tamamen benzemektedir. Ancak marenin grenme ve enerji fonksiyonu Hopfielda ait olan fonksiyondan biraz farklidir. Maren mimarisi Hopfield mimarisinin aynisi olup tm hcreler birbirine bagli (fully connected) ve hcrelerin kendilerine baglantilari mevcut degildir. Marenin agirliklari notasyon olarak T ij ile gsterilir. grenme sreci ise asagida ki forml ile anilir,(ztrk Y.,1995)

Tij =

sign (v
s =1 i =1 j =1

s i

vs j ), ve ,T ji = Tij

(13)

(13)te kullanilan signum fonksiyonu(sign) syle tanimlanmistir, sign(x)=1 (eger x>0), -1 (eger x<0), 0 (eger x=0). Bu aiklamayla maren, Hopfield modelinden ayrilmistir. nk Hopfield Hebb kuralini kullanirken, maren byklk kklk iliskisini grenmektedir. Bu sayede maren yardimiyla hcreler arasi iliski rahatlikla tutulmaktadir. Eger vi > v j (i.hcre, j.hcreden byk degere sahipse) ise aradaki bagi kuvvetlendir, eger vi < v j (i.hcre, j.hcreden kk degere sahipse) ise aradaki agirligi zayiflat.

Bununla beraber marenin enerji fonksiyonu asagidaki iki fonksiyonun biriyle temsil edilmektedir. (14) ve (15) birbirinin aynisi olup girdi rntlerinin ayri ayri gsterimini tasimasi aisindan 2 ari forml gibi belirtilmistir: (ztrk Y.,1995)

E= E=

T
i =1 j =1 p n

ij

* sign ( vi v j )
s i

(14)

sign (v
s =1 i =1 j =1

vs j ) * sign ( vi v j )

(15)

Yukaridaki enerji fonksiyonu (15) alabilecigi en yksek deger (maksimum) asagidaki formlle belirtilmistir. (ztrk Y.,1995)

E max = N 2 N , E min = 0

(16)

Enerji fonksiyonu marenin yapisinda maksimuma dogru gtrlmek istenmektedir. Bu Hopfield modelinde minimuma dogru gidis seklinde olmaktadir. Eger enerji degisimi artis gsteriyorsa girdi rnts o yne dogru ynlendirilir. Eger enerjide dss izleniyorsa o zaman girdi rntsnde o yne dogru bir ynlendirme yapilmaz. Ynelndirme islemi iin gibi bir aralik belirlenir. Ve sayisi rastgele seilen hcrelerden birinin degerine eklenerek eklenmis halin enerjisi hesaplanir. Yine ayni hcrenin eski degeri kadar azlatilarak, azaltilmis halin enerjisi hesaplanir. Her iki durumun enerjisi kiyaslanir. Eger kadarlik degisim yapilmadan nceki enerjiden daha byk bir enerji elde edilmisse hangi enerji byk ise girdi rnts o enerji dogrultusunda kadar degistirilmis ya da diger ifadeyle ynlendirilmis olunur.

Bu algoritma enerjinin maksimumda stabilize olusuna kadar devam ettirilir. Eger sistem belli bir maksimum enerji degeri yakalamissa cevap bulunmus demektir. Bu noktada vi ile gsterilen girdi rnts ve enerji arasindaki iliski asagidaki tablo ile ifade edilir(izelge 1.) ve bir sonraki adim bu tabloya gre tesbit edilir.

izelge 1 .: Marende degisimiyle vi ve enerjiler arasindaki iliski

E+ <0 >0 <0 >0 >0 >0

E<0 <0 >0 >0 >0 >0

sign(E+ - E- ) nemsiz nemsiz nemsiz +1 -1 0

Vi ve E0 (sakli enerji) degisim yok. E0=E0 Vi=(Vi+ ), E0=E+ Vi=(Vi - ), E0=EVi=(Vi+ ), E0=E+ Vi=(Vi - ), E0=EVi=(Vi+ ), E0=E+ Vi=(Vi - ), E0=Eya da

izelge 1. baz alinarak marenin algoritmasi asagida sunulmustur; (ztrk Y.,1995) Adim 0: Agirliklari (13) kullanarak gren. T ij =s i j sign(Vsi - Vsj ) Adim 1: Baslangi enerjisini hesapla E0= i j Tij * sign(Vi - Vj) Adim 2: Enerji stabilize olana kadar (maksimumda kalana dek) 3-8.Adimlari tekrarla Adim 3: Belli bir iterasyon sayisi kadar 4-7.Adimlari tekrarla

Negatif Vi = Pozitif Vi = Vi Adim 4: Rastgele seilmis t. Hcrenin degerini kadar degistir. Negatif Vt = Negatif Vt - Pozitif Vt = Pozitif Vt - Adim 5: Enerji degisimlerini hesapla. E+= i j Tij * sign(Pozitif Vi - Pozitif Vj ) E- = ij Tij * sign(Negatif Vi - Negatif Vj )

Adim 6: Enerji farklarini hesapla. E+ = E+ - E0 E- = E- - E0 Adim 7: E 0 ve Vi yi izelge 1.e gre degistir. Adim 8: Enerji fonksiyonunu kontrol et.

4.5 Yapay Sinir Aglarinin Kullanim Sahalari

Gerek yasamda yapay sinir aglarinin kullanimi gn getike karsimiza daha sik ikmaya baslamistir. Gnmz problemleri olduka karisik ve siradan algoritmalarla zmlenemeyecek derecede zeki algoritmalara ihtiya duyar hale gelmistir. Problemi olusturan sebeplerin dinamik olarak degisimi klasik algoritmalarin zme baslamadan tikanmasina yol amistir.

Bir baska boyutla bakilacak olunursa gnmz problemleri hataya toleransli yaklasimda bulunabilecek algoritmalara gereksinim duymaktadir. rnegin bilgisayar agi zerinde ki trafigin yogunlugu artinca paketler iin bir limit konacaktir. Bu limiti algilayan algoritmalar, kesin olarak paket gderimini durduracak yahut kesin bir zaman dilimi uygulamasina giderek paketleri o zaman dilimlerinde gndererek trafigin yogunlugunu kontrol altina almaya alisacaktir. Oysa ki yapay sinir aglari yardimiyla agin trafik yogunlugu srekli dinlenmekte, trafigin dinamik degerine bakilarak paket gnderimi zerine karar verilebilmektedir. Bylece dinamik ve hatalara aik durumlara toleransli yaklasabilen yapay sinir aglari bu zelligi yznden kullanim alani olarak yayginlasmaya baslamistir.

Degisen durumlardan kaynaklanan dinamik degerlerin akisinin kontrol np complete olarak nitelendirilen karmasik ortamlari dogurmaktadir. rnegin ynlendirme(routing) yapan klasik bir algoritma, trafigin yogunlasmasi ya da iletisim hatti zerindeki dgmlerden birinin devre disi kalmasi gibi sebeplerden dolayi agin yapisinda meydana gelen dinamik degisimi algilamakta glk ekecek, algiladigi zaman ise

ynlendirme tablolarini gncelleyemeyecektir. Oysa bu tezin alisma konusu olarak iletilecegi zere ynlendirme(routing) her dinamik degisimde bile rahatlikla ynlendirme tablolarini gncelleyebilecektir.

Karar verme mekanizmasi olarak kullanilan yapay sinir aglari bu zellikleri yznden de tercih edilmektedir. Iyi bir siniflandirma karakteristigine sahip olan yapay sinir agi modelleri, sorgulanan bilginin hangi sinifa ait oldugunun cevabini vereceginden o girdi zerinde karar vermis olacaktir. rnegin A hastaliginin olup olmadigina dair egitilen bir yapay sinir agi modeli, bir hastanin sikayetleri girildiginde doktorun grevini stlenebilecek ve kisiye A sinifi hastaligi oldugunu ve buna gre tedavi olmasi iin gerekenleri karar verebilecektir. Bu tip kullanim sahasina lkemizde ki akademik alisma yapan tip fakltelerinde artik rastlanabilinmektedir. (Grnt Anlama ve Analizi sempozyumu, 1996).

Yukaridaki zellikleriyle yapay sinir aglari gnmzde; sinyal isleme, kontrol mekanizmalari, grnt isleme, rnt tanima, tip, ses algilama gibi bir ok sahada kendini kanitlamistir. Herbirine kk birer rnek vermek gerekecek olursa; sinyal islemede, sinyallerin gnderildigi frekans araliklarinda olusan grltlerin esiklenmesinde ve temizlenmesinde yapay sinir aglari kullanilmaktadir. Kontrol mekanizmalari sahasinda stepper motorlarin kumanda edilisi, haraketlerinin kontrol yine yapay sinir aglari modelleriyle saglanmaktadir. Yine kontrol mekanizmalarina rnek olarak tezin kapsaminda olan, bilgisayar aglarinda baglanti kurulmasi iin servis kalitesi parametrelerinin kontrolnn saglanmasi yine yapay sinir aglari ile temin edilmektedir. Grnt isleme alanindan bir rnek ise, fotografin renklerinin grsel kalitesinde kayip olmadan sahip oldugu 16 milyon rengin 256 renge dsrlmesinde yine yapay sinir aginin basarili kullanimi grlmektedir(Cinsdikici M.,vd., 1997,TAINN97). rnt tanima sahasinda, karakter tanima, yz tanima, parmak izi tanima problemlerinin zmleri yine yapay sinir aglariyla saglanmaktadir. Tip alaninda, hastalik teshisi ve her hastanin zelliklerine gre tedavi seimi uygulamalarinda yine yapay sinir aglari karsimiza ikmaktadir. Ses algilama konusunda, zellikle gvenlik sistemleri ve ses kontroll cihazlar ya da yazilim gelistirilmesinde yine kullanimina rastladigimiz modellerdir.

Bu baglamda yapay sinir aglari yarinin cybrg leri iin temel zmler sunmaktadir. Ileride ses taniyan, grnt algilayan, kendi kendine karar verebilen cybrgler yapay sinir aglari olma dan kullanilmadan hayata geirilemeyecektir.

5. ATM PROBLEMLERI ZMLERI

Bu blmde daha nce anlatilan ATM aglarinda karsilasilan problemler ve onlarin klasik zmlerine deginilecek, ardindan yapay sinir aglariyla zmleri verilecektir.

5.1 ATM Problemleri Klasik zmleri


.Baglanti Kurumu Kontrol (Call Admission Control): ATM aglarinda kullanici bir baglanti kurma isteminde bulundugu zaman, ag zerinde yeni bir baglantinin saglanip saglanmayacaginin belirlenmesi gerekmektedir. Belirleme islemi ag zerindeki kaynaklarin kullanimlariyla dogrudan iliskilidir. Klasik yaklasimlar ile zm tm agin istatistiksel yorumunun elde edilmesi ve servisin kalitesinin analizinin yapilmasiyla gereklestirilmektedir. Tm bu analizi yapmak neredeyse imkansizdir. nk bu analiz ATM aginda dinamik olarak degisen ve ok genis bir yalpazeye yayilmis birden fazla servisin incelenmesi anlamina gelmektedir. QOS parametrelerinin ve trafik yogunlugunun degerleri gznne alinarak, aga yeni bir baglanti kurulma kararinin henz kullanici arabiriminde iken (UNI tarafi)- karar verilebilmesi iin daha etkin, sonuca daha abuk ulasacak karar verme mekanizmasina sahip bir zm sunulmalidir.

Baglanti saglanmasi kontrol; kullanici tarafindan belirlenecek baglanti servis kalitesi degerlerinin ATM agi zerindeki mevcut degerlerle kiyaslanip, baglanti kurulup kurulmamasi zerine karar verilmesinden olusmaktadir. ATM aglari iin belirlenen servislerin mevcut bit hizi (ABR, available bit rate) tipi hizmet alan baglantilarda kullanilabilen bu mekanizma yardimiyla baglanti onayinin alinmasi bastan saglanacaktir. (Neves J.,et all, 1995) yleyse ATM zerinde baglanti kontrol iin dinamik yk dengesine gre karar vermeye alisan ve her degisimi aninda degerlendirme altina alan zm sunulmalidir. Baglanti kurumu iin gncel yasamda kullanilan klasik yntemler bulundugu dgmn(anahtar) komsulari iin aldigi trafik yogunluk degerine bakar. Hat belli bir yogunlugu gemis ise kullaniciya paket gnderimi yaptirilmaz. Bunun sresi ise belli bir zamanla kisitlanmistir. Bu tip yntemler aloha, slotted aloha veya pure aloha metodunun trevleridir. Hatti dinleyerek paketlerin belli bir zaman dilimi tutulup o zaman diliminin ardindan birakilmalarina izin verilir. Broadcast yapilar zerinde uygulanan bu tip algoritmalarin benzerleri pp (point to point) tipli yapilarda da mevcttur. ATM aglari iin kullanici-ag (UNI, User to Network Interface) tarafinda bunu yapmak iin klasik metodlara basvurmak paket gderiminin statik bir yapi ile zmlenmesi anlamina gelmektedir. Bu statiklik degisen durum kosullarinda yetersiz kalacaktir.

You might also like