You are on page 1of 13

Yapay Sinir Ağları

“Bugün Yapay Zekanın kötü bir süper zeka olmasından endişelenmek, Mars’taki aşırı nüfus
artışından endişelenmek gibidir. Biz henüz bu gezegene iniş yapmadık!” Andrew Ng, Prof.

Yapay Sinir Ağı Nedir?


Canlıların davranışlarını inceleyip, matematiksel olarak modelleyip, benzer yapay modellerin
üretilmesine sibernetik denir. Eğitilebilir, adaptif ve kendi kendine organize olup öğrenebilen ve
değerlendirme yapabilen yapay sinir ağları ile insan beyninin öğrenme yapısı modellenmeye
çalışılmaktadır. Aynı insanda olduğu gibi yapay sinir ağları vasıtasıyla makinelerin eğitilmesi,
öğrenmesi ve karar vermesi amaçlanmaktadır.

İnsandaki bir sinir hücresi ( nöron ) şu şekildedir

 Akson (Axon): Çıkış darbelerinin üretildiği elektriksel aktif gövdedir ve gövde üzerinde
iletim tek yönlüdür. Sistem çıkışıdır.

 Dentritler (Dendrites): Diğer hücrelerden gelen işaretleri toplayan elektriksel anlamda


pasif kollardır. Sistem girişidir.

 Sinaps (Synapse): Hücrelerin aksonlarının diğer dentritlerle olan bağlantısını sağlar.

 Miyelin Tabaka (Myelin Sheath): Yayılma hızına etki eden yalıtım malzemesidir.

 Çekirdek (Nucleus): Akson boyunca işaretlerin periyodik olarak yeniden üretilmesini


sağlar.

Aksonda taşınan işaret sinapslara kimyasal taşıyıcılar yardımıyla iletilmektedir. Stoplazma -


85mV ile polarizedir. -40mV (Na+ içeri): uyarma (+) akıma yol açar. -90mV (K+ dışarı):
bastırma (-) akıma yol açar. Yani belirli bir eşik gerilim değerinin üstünde iken hücre uyarılırken,
diğer durumlarda hücre bastırılır. Σ Bu duruma göre çıkış işareti üretilmesine sinirsel hesaplama
denir.

1
İnsandaki bir sinir hücresinin matematiksel modeli ise şu şekilde gösterilebilir:

Bir Sinir Hücresinin Matematiksel Modeli Şekil 1.2


Perseptron (Perceptron): Yapay sinir ağının en küçük parçası olarak bilinen perceptron,
aşağıdaki gibi lineer bir fonksiyonla ifade edilmektedir ve ilk defa 1957 yılında Frank Rosenblatt
tarafından tanımlanmıştır.

y: x’in değerine bağlı olduğundan bağımlı değişkendir. Girdiye ait skoru verir.

x: bağımsız değişken, girdi.

W: ağırlık parametresi

b: bias değeri

YSA ya da Derin Öğrenme modelinde yapılan temel işlem; modelin en iyi skoru vereceği W
ve b parametrelerinin hesabını yapmaktır.

2
 Sol taraftaki tek katmanlı YSA modelinde 4+2=6 nöron bulunmaktadır (giriş katmanları
hariç), [3x4]+[4x2]=20 ağırlık ve 4+2=6 bias değeri olmak üzere toplamda 26 adet
öğrenilmesi gereken parametre vardır.

 Sağ taraftaki iki gizli katmanlı YSA ise modelinde 4+4+1=9 nöron,
[3x4]+[4x4]+[4x1]=12+16+4=32 ağırlık ve 4+4+1=p bias değeri olmak üzere toplamda
41 adet öğrenilmesi gereken parametre vardır.

Tek katmanlı ve çok katmanlı YSA modelleri incelendiğinde önemli bir konunun ayrımına
varmak gerekiyor. 1960 yılında Widrow ve Hoff çok katmanlı yapıya geçen ilk çalışmayı
yapmışlardır.

Her Katmanın ve Her Katmandaki Nöronların Modele Etkisi/Katkısı Nedir?


Bir katman içindeki nöronların birbirleriyle ilişkileri yoktur ve sistemde akılda kalan bilgiyi
sonraki katmana ya da çıkışa aktarma işini gerçekleştirirler (her bir nöronun vazifesidir). Arka
arkaya iki katmandaki nöronlar birbirlerini çeşitli aktivasyon değerleriyle etkilemekte ve
modelin öğrenme seviyesini belirleyen bir aktarım gerçekleştirmektedir. Bu aktivasyon
fonksiyonun nasıl seçilebileceği ve tam olarak çalışma mantığını anlamaya çalışalım

Aktivasyon Fonksiyonuna Neden İhtiyaç Duyarız?

Yapay sinir ağlarına doğrusal olmayan gerçek dünya özelliklerini tanıtmak için aktivasyon
fonksiyonuna ihtiyaç duyarız. Temel olarak basit bir yapay sinir ağında x girdiler, w ağırlıklar
olarak tanımlanır ve ağın çıkışına aktarılan değere f(x) yani aktivasyon işlemi uygularız. Daha
sonra bu, nihai çıkış ya da bir başka katmanın girişi olacaktır. ( Şekil 1.2 de görsel olarak
şekillendirilmiştir.)

Çıkışa Aktarılacak Bu Sinyali Neden Aktive Etmeden Yapamıyoruz?

Eğer aktivasyon fonksiyonu uygulanmazsa çıkış sinyali basit bir doğrusal fonksiyon olur.
Doğrusal fonksiyonlar yalnızca tek dereceli polinomlardır. Aktivasyon fonksiyonu
kullanılmayan bir sinir ağı sınırlı öğrenme gücüne sahip bir doğrusal bağlanım (linear
regression) gibi davranacaktır. Ama biz sinir ağımızın doğrusal olmayan durumları da

3
öğrenmesini istiyoruz. Çünkü sinir ağımıza öğrenmesi için görüntü, video, yazı ve ses gibi
karmaşık gerçek dünya bilgileri vereceğiz. Çok katmanlı derin sinir ağları bu sayede
verilerden anlamlı özellikleri öğrenebilir.

Öyleyse Neden Doğrusal Olmayan Fonksiyonlara İhtiyaç Var?

Birden fazla dereceye sahip olan fonksiyonlara doğrusal olmayan fonksiyonlar deriz. Yapay
sinir ağları, evrensel fonksiyon yakınsayıcıları olarak tasarlanmış ve bu hedefte çalışması
istenmektedir. Bu herhangi bir fonksiyonu hesaplayabilip öğrenme yetisine sahip olmaları
gerektiği anlamına gelmektedir. Doğrusal olmayan aktivasyon fonksiyonları sayesinde ağların
daha güçlü öğrenmesi sağlanabilir.
Aktivasyon Fonksiyonları
 Basamak ( step ) fonksiyonu
 Doğrusal ( lineer) fonksiyon
 Sigmoid fonksiyonu
 Hiperbolik Tanjant fonksiyonu
 ReLU (Rectified Linear Unit ) fonksiyonu
 Sızıntı ( Leaky ) ReLU fonksiyonu
 Softmax fonksiyonu
 Swish fonksiyonu
Şeklinde sıralanmaktadır .

Her katmanın ve her katmandaki nöronların etkilerinden devam edecek olursak, O halde
modelin bir katmanındaki nöron sayısı sistemin performansını dolaylı olarak etkilemektedir.
‘Katman sayısı arttıkça öğrenme performansı artar’, denebilir gibi görünse de bu doğru
değildir. Çünkü model performansı, sadece girdiler ve katman sayısıyla ilgisi vardır ama
bununla belirlenmez. Bir çok farklı hiperparametrenin etkisi çıkış performansını
etkilemektedir. Model Girişin (x) ‘0’ olduğu durumlarda W.x=0 ve +b değeri skor
fonksiyonunun çıktısını öteler. Böylece modelin bir sonraki iterasyonda öğrenme işlemine
devam etmesini sağlar. Öğrenme işlemine yalnızca bu adımın etkisi yoktur. İleri ve geriye
yayılım konularına da göz atınız. W ağırlık vektörü düğüm/nöron sayısı (hücre), bias (b)
değerleri de gelecek katmandaki düğüm sayısı kadar olmalıdır.

Bir ağ modeli tasarlarken W ağırlık vektörünün değerini nasıl oluşturmalıyız ?

Başlangıçta rastgele atanabileceği gibi geçmişte eğitilmiş bir modelin ağırlıkları giriş başlangıç
ağırlıkları olarak tanımlanabilir. Ancak bu değerler atanırken (+) ya da (-) değerlerden rastgele
dağılımlı olarak belirlenmelidir. Çünkü ‘0’ değeri verildiği durumlarda hesap katmanlarda
sürekli aynı çıkacağından öğrenme gerçekleşmemiş olacaktır.

4
Bu istenmeyen bir durumdur. XOR problemi gibi tek katmanlı modelle çözülemeyen
problemlerde bazı optimizasyon fonksiyonları tasarlanarak çözümü kolaylaştırmak
mümkündür.

Başarılı şekilde tasarlanmış bir ağ modelinin başarımını belirleyen Kayıp/Yitim fonksiyonu


(Loss function) değeri çeşitli optimizasyon teknikleriyle ‘0’a yaklaşması istenen bir
fonksiyondur. Burada eğitim ve test gruplarının karşılaştırılmasıyla hesaplanan bir değerden söz
ediyoruz. Ancak bu iki farklı kısıtla karşılaşmamıza sebep olmaktadır:

 Modeldeki tüm bilgileri kullandığımızda elimizde büyük boyutlu bir parametre bilgisi olur.

 Test işlemini yaparken eğitim setindeki tüm verilerle karşılaştırılma yapıldığında bu işlem
yükünü artırır ve tespit süresini uzatır.

Bu iki durumun verimli bir ağ modelinde olmaması gerekir. Basit bir çözümle üstesinden
gelinebilir. Test verileri eğitim verilerinden oluşan bir temsil grubuyla karşılaştırılır. Böylece
işlem yükünün azalması sistemin hız bakımından performans kazanmasını sağlamaktadır.
Burada önemli olan temsil verisinin nasıl seçildiğidir.

Eğitim verisinin içeriğindeki tüm bilgileri temsil eden bir veri elde etmek gerekmektedir.
Bunun için öğrenme işleminden sonra ilgili verinin ağırlık matrisi (ortalaması) temsil verisi
olarak alınmaktadır.

Loss değerine eklenen Regularizasyon (R) değerinden dolayı Loss hiçbir zaman sıfır
olmayacaktır. W ağırlık vektörünün sıfır olduğu durumlar haricinde geçerlidir.

5
Regularizasyon sayısı kullanılması zorunlu omayan bir hiperparametredir. Kullanılması tavsiye
edilir çünkü derin öğrenme başarımına pozitif yönde katkı sağlamaktadır. Loss hesabı yapılırken
çeşitli optimizasyon teknikleri kullanılabilir. İki sınıflı basit bir problem için ‘Sigmoid’, daha
kompleks sınıflandırma problemlerinde SVM’de s(f(W,x)) skor fonksiyonu ve model tarafından
üretilen skor değerlini baz alarak olasılıksal olarak yitim hesabı yapar. Loglike değerini
maksimize ve negatif olabilirlik değerini minimize etmek esastır. Bu işlemleri yaparken olasılık
değerlerini en büyük olabilirlik yöntemiyle (maximum likelihood method) dönüştürme işlemi
yapmaktadır. Yitim fonksiyonunun parçalı-doğrusal bir matematiksel yapıda olduğu
anlaşılmaktadır.

6
Yapay Sinir Ağlarının Hidroloji ile bağlantısı

Farklı yapay sinir ağı metodları ile yağış-akış ilişkisinin modellenmesi


Gelecekteki belli bir tarihte görülecek akımın (debi, seviye, akış hacmi) tahmini, taşkın
uyarılarının yapılması, taşkın kontrolu maksatlı haznelerin işletilmesi, akarsuyun su
potansiyelinin belirlenmesi, kurak dönemlerde hidroelektrik üretiminin, şehir suyu ve sulama
suyunun dağıtımı ve akarsularda ulaşımın planlanması açısından önem taşımaktadır. Bir
akarsudaki akım havzaya düşen yağışa bağlı olmakla birlikte yağış olayının görülmesi ile
akımın oluşması arasında belli bir gecikme vardır. Akım tahminlerini yaparken bu gecikmeden
yararlanılır. Ancak tahmin edilmek istenen akım tahminin yapıldığı andan sonra meydana
gelecek meteorolojik olaylara da bağlı ise bu olayların da tahmin edilmesi gerekir.

Havzanın yağışı akışa dönüştürmesi sürecinin fiziksel yönleriyle daha iyi bir şekilde
benzeştirilebilmesi için parametrik (çok bileşenli, kavramsal) modeller geliştirilmiş ve
bilgisayar programları hazırlanmıştır. Bu modellerde akarsu havzası, biriktirme sistemleri ve
bunların arasındaki ilişkilerle temsil edilir. Biriktirme sistemlerine süreklilik denkleminin
uygulanması ile model çalıştırılır. Havzaya düşen yağış, kayıplar çıkarıldıktan sonra, yüzeysel
biriktirme sistemine girer. Bu sistem, yağışı akarsu ağına ulaştıran havzadaki su yollarından ve
akarsu ağından oluşur. Yüzeyaltındaki gecikmesiz biriktirme sistemi de bunlara katılır. Bazı
modellerde havzadaki kar örtüsünün erimesiyle oluşan akış da gözönüne alınır. Parametrik
modeller özellikle kapalı kutu modellerinin kullanılamadığı, havzanın özelliklerinin
değiştirilmesinin etkilerini incelemek istenen durumlarda yararlı olur. Ancak bunun için de
modelin parametrelerinin havza üzerinde değişimini hesaba katmak gerekebilir (yayılı model).
Modelde havza sistemi ne kadar çok sayıda elemana ayrılırsa o ölçüde ayrıntılı bir model
geliştirilmiş olur. Ancak böyle bir modelde kalibrasyon için gerekli veri miktarı artacaktır.
Kullanılacak modelin ölçeği eldeki verilere bağlı olarak seçilmelidir.

Bir yapay zeka metodu olan yapay sinir ağları (YSA) da son yıllarda sıkça kullanılan bir kara
kutu modelidir. YSA’nın su kaynaklarında sıkça karşılaşılan değişik problemlere uygulanması

7
ile ilgili çok sayıda çalışma bulunmaktadır. Lineer olmayan YSA yaklaşımının yağış-akış
ilişkisini iyi temsil ettiği gösterilmiştir.
YSA teknolojisini günlük akımların; günlük yağış, sıcaklık, ve kar erimesi verilerinin
fonksiyonu olarak kestiriminde kullanmışlardır . YSA’nı yoğun yağış ve düşük akım
süreçlerinde nehir akım kestiriminde kullanmışlardır. YSA aynı zamanda değişik yeraltı suyu
problemlerinde kullanılmıştır
YSA ile ilgili uygulamalar incelendiğinde, modellemelerde genellikle ileri beslemeli geriye
yayılımlı yapay sinir ağı algoritmalarının kullanıldığı görülmektedir. Aynı zamanda bu
algoritmalara alternatif olarak geliştirilmiş olan genelleştirilmiş regresyon yapay sinir ağı ve
radyal tabanlı yapay sinir ağı gibi algoritmaların kullanımına da rastlanmaktadır. Bu çalışmada,
Orta Fırat Havzasında bulunan 2157 numaralı akım gözlem istasyonuna ait aylık ortalama akım
verileri ile 17204 numaralı yağış gözlem istasyonuna ait aylık toplam yağış verileri arasındaki
ilişki yapay sinir ağları metotlarından Đleri Beslemeli Geri Yayınım Sinir Ağı (ĐBGYSA),
Genelleştirilmiş Regresyon Yapay Sinir Ağı (GRYSA) ve Radyal Tabanlı Yapay Sinir Ağı
(RTYSA) ile belirlenmeye çalışılmış ve bu sonuçlar daha klasik bir yöntem olan Çoklu
Doğrusal Regresyon (ÇDR) yöntemi ile karşılaştırılmıştır.
Veri analizi Çalışmada değişik iklim bölgeleri üzerinde yer alan ve DMİ Genel Müdürlüğü
tarafından işletilen 3 istasyona ait günlük meteorolojik veriler kullanılmıştır. Mevcut veriler
seçilirken, kullanılan kara-kutu
modellerinin istediği, meteorolojik
sistemin davranışını en iyi
yansıtabilecek veriler olmasına özen
gösterilmiştir. Seçilen veriler ortalama
sıcaklık (Sort), maksimum sıcaklık
(Smak), minimum sıcaklık (Smin),
ortalama nem (N), toplam buharlaşma
(B) ve toplam yağıştır (Y). Bu veriler 15
yıl uzunluktadır (01.01.1987- 31.12.2001). İstasyonlar ile ilgili konum bilgileri Tablo 1’de
verildiği gibidir.
Kullanılan veriler hakkında ön bilgi elde etmek amacıyla , yağış verilerine ait ortalama ,
maksimum , standart sapma , çarpıklık katsayısı ile lag 1 , 2 , 3 aralıklı oto korelasyon katsayıları
hesaplanarak Tablo 2 ‘de verilmiştir . Ayrıca korelasyon sonuçları YSA yönteminin girdilerini
seçilmesinde kullanılmıştır. Tablo incelendiğinde yağış için en yüksek maksimum değerin
İzmir yağış istasyonunda olduğu görülmektedir.Ayrıca yağış verilerinin çarpıklık katsayılarının
yüksek olduğunu görülmektedir.Verilere ait otokorelasyon katsayılarının genelde çok yüksek
olmadığı görülmektedir.Tabloya bakarsak ,
en yüksek oto korelasyon katsayısı Muş
istasyonunda ( değeri 0.302) görülmektedir.
En düşük ise Edirne istasyonuna ait yağış
verilerinde ( değeri 0.198) görülmektedir.
Ancak lag1’den sonraki otokorelasyonların
gittikçe azaldığı ve sıfıra çok yakın olduğu
görülmektedir. Otokorelasyon katsayıları
YSA ile yağış tahmininde modelin
girdilerinin seçilmesinde önemli ipuçları
vermektedir. Bu yüzden çok önemlidir. Bu

8
sonuçlara göre 1 gün önceki yağışların YSA metotlarının girdisi olarak kullanılabileceği sonucu
çıkmaktadır. Girdi olarak kullanılması düşünülen verilerin yağış ile olan korelasyon katsayıları
da belirlenerek Tablo 3’te gösterilmiştir. Tabloda görüldüğü gibi genel olarak tüm verilerin
yağış ile olan korelasyonları istenilen düzeyde değildir. Yağışın en iyi korelasyon gösterdiği
verinin nem olduğu görülmektedir. Daha sonra, buharlaşma verileri gelmektedir. En yüksek
korelasyon katsayısının Muş istasyonunda bir gün önceki nem ile yağış verileri arasında (değeri
0.37) olduğu görülmektedir.
Sıcaklık verilerine bakıldığında da genel olarak maksimum sıcaklık verilerinin korelasyon
katsayılarının daha iyi olduğu görülmektedir. Minimum sıcaklık verileri ise yağış ile daha
düşük korelasyonlar göstermiştir.

Yöntem İleri Beslemeli Geriye Yayılmalı Yapay Sinir Ağları

Yapay sinir ağları girdilere karşılık çıktılar üreten bir kara kutu olarak ele alınabilir. Beynin zor
işlemleri yapabilme ve kompleks örnekleri kavrayabilme yeteneği ve özellikle ilgili fiziksel
ilişkileri bilmeden yalnızca denemeyle bazı şeyleri öğrenebilmesi bilim adamlarına yapay sinir
ağları metodunun geliştirilmesi için ilham vermiştir (Cığızoğlu, 2004b). Yapay sinir ağları
kendisine verilen örnekler üzerinde kendini eğiterek bir çözüm sistemi geliştirmektedir.

İleriye beslemeli geriye yayılmalı yapay sinir ağları (İBGYSA) yöntemi en çok kullanılan YSA
yöntemidir. Bu yöntemde girdi, gizli ve çıktı birimleri olmak üzere üç farklı birim
bulunmaktadır. Her birim birçok nörondan oluşmakta olup birimler aralarında bağlantı
kuvvetleri ile bağlanmaktadırlar. İBGYSA iki etaptan oluşmaktadır. Birincisi, çıktı birimindeki
çıktı bilgi sinyalini hesaplamak için girdi hücrelerindeki dış girdi bilgisini ileriye doğru ileten
bir ileriye doğru besleme etabıdır. İkincisi ise, çıktı biriminde hesaplanan ve gözlenen bilgi
sinyalleri arasındaki farklara dayanarak bağlantı kuvvetleri üzerinde değişikliklerin yapıldığı
bir geriye doğru ilerleme etabıdır (Cığızoğlu, 2004b). Bir eğitim sürecinin başında, bağlantı
kuvvetleri rasgele değerler olarak atanmaktadırlar. Öğrenme
algoritması her iterasyonda eğitim başarı ile tamamlanana kadar kuvveti değiştirmektedir. Girdi
biriminde çok sayıda nöron çıktı biriminde tek nöron bulunmaktadır. Girdi nöronlarında xi,
i=1,….,k girdi değerleridir. Girdi değerleri gizli nöronlardaki ilk ara bağlantı ağırlıkları,
wij,j=1,…,h, ile çarpılmakta, sonuçlar indeksi boyunca toplanmakta ve gizli birimlerin girdileri
olmaktadırlar.
burada Hj j gizli nodunun girdisi, wij ise i nöronundan
j nöronuna doğru olan bağlantı ağırlığıdır.
Her gizli nöron bir sigmoid fonksiyonu yardımı ile bir gizli nöron çıktısı, HOj, oluşturmaktadır.
HOj aşağıdaki şekilde tanımlanmaktadır:

9
HOj çıktısı bir sonraki
birimin girdisi
olmaktadır.
Çıktı nöronlarına ulaşan
girdi aşağıdaki

Şekilde bulunmaktadır :
Bu girdi değerleri daha önce tanımlanan
sigmoid fonksiyonu
tarafından işlenerek sinir
ağı çıktı değerleri elde
edilmektedir. Daha
sonraki ağırlık
düzenlemesi ya da
öğrenme süreci geriye
doğru ilerleme algoritması ile sağlanmaktadır. Çıktı değerleri ile hedef değerleri aynı
olmayacaktır. Çıktı
değerler ile hedef
değerler arasında
ortalama karesel hata
hesaplanır. Geriye
doğru ilerleme
algoritmasının amacı
ortalama kare hatasının iterasyonla en aza indirilmesidir. Bu amaçla ortalama karesel hata
yardımıyla hesaplanan hata gradyanları, girdi ağırlıklarına eşit şekilde dağıtılarak girdi
ağırlıkları güncellenir ve süreç tekrar başlatılır. Ortalama kare hatasının en aza indirilmesine
kadar ya da belirli bir iterasyon sayısında bu işlemler tekrarlanır.

Radyal Tabanlı Yapay Sinir Ağları ( RTYSA)

Radyal Tabanlı Fonksiyonlar kavramı yapay sinir ağları literatürüne Broomhead ve Lowe
tarafından 1988 yılında sokuldu. Radyal Tabanlı Fonksiyonlara dayalı yapay sinir ağları modeli
insan sinir sistemindeki nöronlarda (sinir hücreleri)görülen yerel etki-tepki davranışlarından
esinlenilerek oluşturulmuştur. (Poggio veGirosi, 1990). Radyal Tabanlı Fonksiyonların teorisi
çok değişkenli fonksiyonların enterpolasyonuna dayanmaktadır. Burada amaç
(𝑥 5 , 𝑦 5 )𝑁 s=1 enterpolasyonunu yapmaktır. Bu durumda 𝑋 𝑠 ∈ 𝑅 𝑑 olmalıdır. Bu denklemde
F lineer uzayda bir fonksiyon olduğundan yani doğrusal bir fonksiyon olduğundan Radyal
Tabanlı Fonksiyonlar yaklaşımında F enterpolasyon fonksiyonu temel bazı fonksiyonların
lineer birkombinasyonudur.

Bu denklemde ∣∣.∣∣ öklid normu, w1, ..., wN reel sayılar, φ gerçek


değişkenli bir fonksiyon,

∈Πd n p ise en fazla n. derecede olabilen d sayıda değişkeni olan bir polinomdur. Bu
enterpolasyon
probleminde amaç w1,...,
wN değişkenlerini
bulmak ve Σ = = D l j p a
p 1 1 polinom terimini
elde etmektir. Bu

10
polinomda Πd n a standart temel ve a1,..., aD sayıları da reel katsayılardır. Enterpolasyon
şartları şunlardır :
Eğer veri noktalarından herhangi birisi için
enterpolasyon problemi tek çözümlü ise φ fonksiyonu
Radyal Tabanlı Fonksiyon
olarak tanımlanır.
Bu durumlarda denklem
(4)’deki polinomun terimleri
ihmal edilebilir ve denklem
(5) deki terimler ile
toplandığında aşağıdaki
denklem (7) meydana gelir.
Bu denklemde w = (w1, …,
wN), y = (y1,., yN),
ve φ de NxN bir matristir. Bu matris şöyle tanımlanabilir:
En popüler ve en çok
kullanılan Radyal Tabanlı
Fonksiyonlar Gauss tabanlı
fonksiyonlardır.

Bunlar şöyle ifade edilir ;

bu fonksiyon c ∈ 𝑅 𝑑 merkezinde en
yüksek değeri
alır ve merkezden uzaklaştıkça değeri küçülür.
Radyal Tabanlı Fonksiyonların enterpolasyonunda kesin çözüm her (xs,ys) veri noktası için
vardır. Radyal Tabanlı
Fonksiyonlar yöntemi üç
tabakadan oluşan bir yapay
sinir ağları metodudur. Girdi
tabakası şebekeye giren
verilerin yer aldığı tabakadır. Gizli hücre tabakasında ise nöronlar yer alır. Burada temel
fonksiyonların çıktıları hesaplanır. Çıktı tabakasında ise temel fonksiyonlar arasında lineer bir
bağıntı veya kombinasyon bulunmaya çalışılır.

11
Hidrolojik Yöntem

Perseptron Modeli

1950lerin sonlarına doğru Minsky ve Papert tarafından tanıtılmıştır.


Perceptron, doğrusal olarak ayrılabilir herhangi bir girdi grubunu sınıflandırmada kullanılır.

Bir Perseptron Modeli ile ne yapılabilir ?

12
XOR Problemi ve Persptron Ağı

Diğerlerinin aksine XOR kapısı Perceptron ağı yardımıyla çözülememiştir. Bu durum YSA
çalışmalarını da bir dönem gecikmeye uğratmıştır. XOR kapısının Perceptron ile çözülememesi
nedeniyle Çok Katmanlı Perceptron ağı geliştirilmiştir.

Perseptron Öğrenmesi

Sınıflandırması yapılacak veri için beklenen çıktı y ve ölçüm yapılan çıktı f(x) olmak üzere hata
aşağıdaki gibi hesap edilir;

E = y - f(x) 

Ağırlık güncelleme (wj değerleri sistemin ağırlıkları ve α öğrenim katsayısı olmak üzere)

wj= wj + α xj E

13

You might also like