You are on page 1of 13

Sayfa 1 | Y a p a y Z e k a 2 D e r s i - O M Ü B Ö T E 2 0 1 0

YAPAY ZEKA 2

VİZE SONRASI

PERCEPTRONLAR

O YAPAY SİNİR AĞLARININ İLK MADDELERİNDENDİR.

O PERCEPTRONLARIN ÖĞRENME ALGORİTMASI DİĞER KARMAŞIK PROBLEM ALGORİTMALASININ


TEMELLERİNİ OLUŞTURMAKTADIR.

O İNSAN SİNİR HÜCRESİNE BENZER BİR YAPIYA SAHİPTİR.

O GİRİŞLER VE ONLARA GELEN AĞIRLIK DEĞERLERİNİN ÇARPIMLARI TOPLAMINDAN OLUŞAN NET AĞIRLIK
DEĞERİ OLUŞUR.

O BU NET DEĞER EŞİK DEĞERİNİ AŞTIĞI ZAMAN ÇIKIŞ DEĞERİ ÜRETİLİR.

Hacer Kubra KOSE (Ders notları paylaştıkça çoğalır! )


Sayfa 2 | Y a p a y Z e k a 2 D e r s i - O M Ü B Ö T E 2 0 1 0

O BU FONKSİYONLARIN 1’Lİ DURUMLARINDA 0 DEĞERLİLERDEN AYRILMASI DOĞRUSAL AYRILABİLİRLİK


OLARAK BİLİNİR.

O FONKSİYONU BÖLGELERİ AYIRAN DOĞRUYU İFADE EDECEKTİR.

O >0 İSE 1 DEĞERLİ DURUMLARDIR.

OR

O
O 1’Lİ DURUMLARI İÇERİNE BÖLGE UYGUN OLARAK -0,5+X 1 +X2 >0 VEYA VEKTÖR BİÇİMİNDE AŞAĞIDAKİ
ŞEKİLDE İFADE EDİLECEKTİR.

XOR

PERCEPTRON ÖĞRENME KURALI


Algoritmada her çıkışta sonucun uzman (öğretmen) tarafından onaylanması istenmektedir. Perceptron
öğrenmesi arzu edilen çıkışlar elde edilene kadar ağırlık değerleri yapılan geri beslemelerle ayarlanarak
gerçekleştirilir.
wBurada eşik olarak sgn() (işaret fonksiyonu) bu fonksiyonun yapısı gereği bir perceptron ya tam öğrenir ya da
öğrenmez.

Hacer Kubra KOSE (Ders notları paylaştıkça çoğalır! )


Sayfa 3 | Y a p a y Z e k a 2 D e r s i - O M Ü B Ö T E 2 0 1 0

O AĞA VERİLEN GİRİŞLERDEN VE RASLANTISAL OLARAK SEÇİLEN AĞIRLIK DEĞERİNDEN, NET DEĞERİ ELDE
EDİLİP SGN() FONKSİYONUNA UYARLANIR.

O İSTENİLEN SONUÇ ELDE EDİLMİŞSE, HATA DEĞERİ «C» ÖĞRENME SABİTİ İLE ÇARPILIP, ÖNCEKİ AĞIRLIK
DEĞERLERİNE EKLENİR VE YENİ AĞIRLIK MATRİSİ ELDE EDİLİR. İŞLEMLER İSTENİLEN SONUÇ ELDE EDİLENE
KADAR DEVAM EDER.

W2=w1+C(di-Oi)X1

1.ADIM

Hacer Kubra KOSE (Ders notları paylaştıkça çoğalır! )


Sayfa 4 | Y a p a y Z e k a 2 D e r s i - O M Ü B Ö T E 2 0 1 0

2.ADIM

3.ADIM

Hacer Kubra KOSE (Ders notları paylaştıkça çoğalır! )


Sayfa 5 | Y a p a y Z e k a 2 D e r s i - O M Ü B Ö T E 2 0 1 0

4. ADIM

Geri Yayılımlı Öğrenme (BACK PROPAGATION)

O (PERCANTİON KAVRAMI İÇİNDE İNCELENİR.)

O GERİ YAYILIMLI ÖĞRENME, PERCEPTRON ÖĞRENME KURALINDAN FARKLI 0 İLE 1 ARASINDA GERÇEK BİR
DEĞER ÜRETEN SİGMOİD FONKSİYONU KULLANIR.

O PERCEPTRONDA OLDUĞU GİBİ GERİ YAYILIM RASGELE AĞIRLIK KÜMESİYLE BAŞLAR. BU AĞIRLIK
GERÇEKTEN ÇOK UZAK OLURSA TÜM İŞLEMLER ÇOK GÜÇLEŞECEKTİR.

O GİRİŞ KATMANINDA UYGULANACAK OLAN VEKTÖRLER KARIŞIK BİR DÜZENDE UYGULANMAKTADIR.

O GİZLİ KATMANDA YAPILAN İŞLEMLERDEN AĞIN KENDİSİ SORUMLUDUR. GİZLİ KATMAN BİR ANLAMDA
AĞIN ZEKA İÇEREN BÖLÜMÜDÜR.

O BU KATMANDA ÇOK FAZLA NÖRON OLMASI AĞI EZBERLETMEYE YÖNELTİR.

O AĞIN ÇOK FAZLA EZBERLEMESİ AĞIN HESAPLAMA YETENEĞİNİ AZALTACAKTIR. HESAPLAMA


YETENEĞİNİN AZALMASI PROBLEMDEKİ KÜÇÜK FARKLARI BİLE ALGILAYAMAMASINA NEDEN OLACAKTIR.

O AĞIN ÇALIŞMASINDA, AĞ İÇERİSİNDE İLERİ-GERİ GEZİNİLEREK OPTİMUM AĞIRLIKLARIN ELDE EDİLMESİ


AMAÇLANIR. ÇIKIŞTAKİ DEĞERLERDEN ELDE EDİLEN HATALAR TEKRAR AĞA UYGULANIR. ( HATALARIN
TESPİTİ İÇİN PERCEPTRON FORMÜLÜNDEN FARKLI BİR FORMÜL UYGULANIR.)

Hacer Kubra KOSE (Ders notları paylaştıkça çoğalır! )


Sayfa 6 | Y a p a y Z e k a 2 D e r s i - O M Ü B Ö T E 2 0 1 0

O TÜM AĞIRLIKLAR GÜNCELLENİR.

GERİ YAYILIM ALGORİT MASININ İŞLEM ADIMLARI

1. GİRİŞLER VE GİZLİ KATMANLAR İÇİN AĞIRLIKLAR RASGELE (0,1 , 0,1) ARASINDA BELİRLENİR. ARALIĞIN
DAR OLMASI, ÖĞRENME AŞAMASINDA KÜÇÜK OLMASIYLA İLGİLİDİR.

2. ÖĞRETİLECEK VEKTÖR(MATRİS) GİRİLİRSE UYGULANIR.

3. DOĞRUSAL OLMAYA SİGMOİD FONKSİYONU KULLANILARAK DEĞERLER GİRİŞ SEVİYEYE VE YİNE


SİGMOİD FONKSİYONUYLA BU DEĞERLER (AKTİVASYON) ÇIKIŞ SEVİYESİNE ALINIR.

4. İSTENİLEN ÇIKIŞLA, GERÇEK ÇIKIŞ KARŞILAŞTIRILIR VE HATA DEĞERİ HESAPLANIR. BU DEĞERLER


ÖNCEDEN BELİRLENMİŞ SINIR DEĞERİ AŞTIĞINDA; ÇIKIŞ TABAKASINDAN GİZLİ TABAKAYA VE GİZLİ
TABAKADAN GİRİŞ TABAKASINA DOĞRU YAYILIR.
5. AĞIRLIKLAR HATA DEĞERİNE GÖRE YENİDEN DÜZENLENİR VE İKİNCİ ADIMA GEÇİLİR.

GENETİK ALGORİTMALAR

O EN İYİNİN KONUMU VE DOĞAL SEÇİLİM İLKESİNİN BENZETİM YOLUYLA BİLGİSAYARLARA UYGULANMA


İLE ELDE EDİLEN BİR ARAMA YÖNTEMİDİR.

O STANDART BİR G.A. DA SONUÇLAR EŞİT BOYUTLU VEKTÖRLER (MATRİSLER) OLARAK İFADE EDİLİR.
(RASLANTISAL GRUP OLUŞTURUR (POPÜLASYON))

O HER YENİ NESİLDE KROMOZOMLARIN (VEKTÖRLERİN) İYİLİĞİ ÖLÇÜLÜR. AMAÇ (UYGUNLUK)


FONKSİYONUNA YERLEŞTİRİLEREK VERMİŞ OLDUĞU SONUÇ HESAPLANIR. BİR SONRAKİ NESİL
OLUŞTURULURKEN, BAZI KROMOZOMLAR YENİDEN ÜRETİLİR, ÇAPRAZNIR, MUTASYONA UĞRATILIR.

O TEKRARLAMA, ÇAPRAZLAMA VE MUTASYON GİBİ OPERATÖRLERDEN GEÇECEK OLAN KROMOZOMLAR


AMAÇ (UYGUNLUK) FONKSİYON DEĞERİNE GÖRE RASLANTISAL SEÇİLİR.

O AMAÇ FONKSİYON DEĞERİ OLANI RASLANTISAL SEÇİMİ DAHA YÜKSEK OLACAKTIR.

ALGORİTMA ADIMLARI

1. OLASI ÇÖZÜMLERİN KODLANDIĞI BİR ÇÖZÜM GRUBU OLUŞTURUR.

GRUP -> POPÜLASYON

OLASI ÇÖZÜM -> KROMOZOM

2. TOPLAMDAKİ HER KROMOZOMUN NE KADAR İYİ OLDUĞU BULUNUR. BU AMAÇLA UYGUNLUK


FONKSİYONU KULLANILIR. ALGORİTMANIN İŞLEYİŞİNİ BU FONKSİYON OLUŞTURUR. PROBLEME GÖRE
ÖZEL OLARAK ÇALIŞAN BU NOKTADIR. PROBLEMİN BAŞARISI UYGUNLUK FONKSİYONUNUN VERİMLİ
VE HASSAS OLMASINA BAĞLIDIR. UYGUNLUK FONKSİYONU KROMOZOMLARI PROBLEMİN
PARAMETRELERİ HALİNE GETİREREK ONLARIN BİR BAKIMA ŞİFRESİNİ ÇÖZER.

3. SEÇİLEN KROMOZOMLARI EŞLEYEREK YENİDEN KOPYALAMA VE DEĞİŞTİRME OPERATÖRLERİ


UYGULANIR. SONUÇTA YENİ BİR TOPLUM OLUŞTURULUR. BU EŞLEME UYGUNLUK DEĞERLERİNE
GÖRE YAPILIR. BU SEÇİM (RULET TEKERLEĞİ, TURNUVA SEÇİMİ) YENİDEN KOPYALAMA BİYOLOJİDEKİ
ÇAPRAZLAMAYA BENZER VE ÇEŞİTLİLİĞİ SAĞLAR.

Hacer Kubra KOSE (Ders notları paylaştıkça çoğalır! )


Sayfa 7 | Y a p a y Z e k a 2 D e r s i - O M Ü B Ö T E 2 0 1 0

4. YENİ KROMOZOMLARA YER AÇMAK İÇİN ESKİ KROMOZOMLAR ÇIKARTILARAK SABİT BÜYÜKLÜKTE BİR
TOPLUM ELDE EDİLİR.

5. TÜM KROMOZOMLARIN UYGUNLUKLARI TEKRAR HESAPLANIR VE TOPLUMUN BAŞARISI BULUNUR.

6. İŞLEMLER TEKRARLANARAK VERİLMİŞ ZAMAN İÇERİSİNDE DAHA İYİ OLAN NESİLLERİN


OLUŞTURULMASI GERÇEKLEŞTİRİLİR.

7. SONUÇTA TOPLAMLARIN HESAPLANMASI SIRASINDA EN İYİ BİREYLER BULUNDUĞUNDA ÇÖZÜM ELDE


EDİLMİŞ OLUR.

SEÇKİNLİK

O SON POPÜLASYONDAKİ EN İYİ KROMOZOMUN KAYBOLMASI İÇİN SEÇKİNLİK(ELİTİSM) KULLANILIR. BU


DURUMDA EN AZINDAN İYİ BİR SONUÇ, HİÇ BİR DEĞİŞİKLİK OLMADAN YENİ POPÜLASYONA
KOPYALANIR.

KROMOZOMUN ŞİFRELENMESİ (ENCODİM)

İKİLİ KODLAMA

PERMÜTASYON KODLAMA

Bir kromozom 24 genden oluşmaktadır.

Hacer Kubra KOSE (Ders notları paylaştıkça çoğalır! )


Sayfa 8 | Y a p a y Z e k a 2 D e r s i - O M Ü B Ö T E 2 0 1 0

DEĞER KODLAMA

Reel sayılar, karmaşık sayılar gibi kodlama işlemleri yapılır.

AĞAÇ KODLAMA

1 kelime, 1 işlemdeki 1 rakamı 1 kez kullanarak yaklaşık değer bulma işlemleri

GEN TAKASI VE MUTASYON

İki ayrı kromozomdan yeni bir kromozom elde etmek gen takasıdır.

İKİLİ KODLANMIŞ

TEK NOKTALI GEN TAKASI

Belirli bir noktaya kadar bir kromozomdan geri kalan kısmında ikinci kromozomdan oluşması

ÇİFT NOKTALI GEN TAKASI

UNİFORM GEN TAKASI

ARİTMETİK GEN TAKASI

PERMÜTASYON KODLANMIŞ GEN TAKASI

DEĞER KODLANMIŞ GEN TAKASI

AĞAÇ KODLAMA

1. Çaprazlama olasılığı
2. Mutasyon olasılığı (mutasyon oluşturma sıklığı)

Hacer Kubra KOSE (Ders notları paylaştıkça çoğalır! )


Sayfa 9 | Y a p a y Z e k a 2 D e r s i - O M Ü B Ö T E 2 0 1 0

EBEVEYN SEÇİMİ

RULET YÖNTEMİ

Seçilme işlemi bireylerin uygunluk değerlerine göre yapılmaktadır. Uygunluk değeri en büyük olanların seçimi
garanti edilemez, yanlız seçilme şansı daha fazla olacaktır.

- Tüm bireylerin uygunluk değeri bulunarak toplanır ve tabloya yazılır. Sonra uygunluk değerleri toplama
bölünerek bireylerin *0,1+ aralığında seçilme olasılıkları belirlenir. Sayıların hepsi bir tabloda tutulur.
Olasılıkların tutulduğu tablodaki sayılar birbirine eklenerek rastgele bir sayıya kadar gelinir. Burada dairesel
dilimlemeye rulet tekerleğine benzer şekilde olasılıklar yerleştirilir.
- Bu daire üzerinden rasgele seçim yapılarak çaprazlamaya girecek ebeveynler belirlenir.

SIRALAMA SEÇİMİ

Sıralama yöntemiyle seçim yapılır. Rulet yönteminde uygunluklar çok farklıysa problem olabilir. Bunun için bu
yöntem önerilir.

SABİT DURUM SEÇİMİ

Bu yöntemle ebeveynlerin seçimi için kromozomların büyük parçaları bir sonraki jenerasyona aktarılmalıdr.

Ör:// Goldberg Problemi

KARINCA KOLONİSİ

Doğadaki bazı sistemler sınırlı yetenekli basit bireylerden oluşur. Fakat beraber kolektif zeka davranışı sergiler.

Tek bir karıncanın, yapılacak iş hakkında hiç bir bilgisi yoktur. Karıncanın hareketi, yerel kararlarla alınır. Önceden
tahmin edilemez. Eki davranışları dolaylı iletişimleri sonucunda ortaya çıkar

Gezgin satıcı problemi bu yöntemle çözülür.

KARINCA KOLONİSİ ALGORİTMASI İLE ÖRNEK ÇÖZÜM

2
60 1 90
100

YUVA
0
ENGEL 5

55 3 4 85
50
- Feromen koku eşik değeri = 25
- Toplam karınca sayısı = 10

Hacer Kubra KOSE (Ders notları paylaştıkça çoğalır! )


Sayfa 10 | Y a p a y Z e k a 2 D e r s i - O M Ü B Ö T E 2 0 1 0

BULANIK MANTIK

Niteliği tam olarakanlaşılamayan, iyi seçilmeyen açık seçik görünmeyen, net olmayan şeklinde tanımlanan
Bulanıklık, dereceli üyelik kavramıyla teknik dünyaya taşınmıştır.

Bulanık kümelere dayalı olan bulanık mantık, genelde, insan düşüncesine özdeş işlemlerin gerçekleşmesini
sağlamakta, sık sık meydana gelen belirsiz ve kesin olmayan verileri modellemede yardımcı olmaktadır.

Bulanık kümelerin kesin geçişleri elimine ederek, belirsizlik kavramının tanımı yeniden veri ve evrendeki bütün
bireylere üyelik derecesi değerini atayarak matematiksel olarak tanımlanır.

Üyelik dereceleri *0,1+ arasında tanımlanır. Üyelik fonksiyon problemde elemanlara üyelik derecelerini atar.

Hacer Kubra KOSE (Ders notları paylaştıkça çoğalır! )


Sayfa 11 | Y a p a y Z e k a 2 D e r s i - O M Ü B Ö T E 2 0 1 0

Hacer Kubra KOSE (Ders notları paylaştıkça çoğalır! )


Sayfa 12 | Y a p a y Z e k a 2 D e r s i - O M Ü B Ö T E 2 0 1 0

KÜME İŞLEMLERİ

1) BULANIK KÜMELERİN BİRLEŞİMİ

µ A U B (x) = µ A (x) U µ B (x) = max (µA(x), µB(x))

2 grubun tablo üzerindeki kesişmelerinden en yüksek olan değer alınır.

2)KESİŞİM

Orta noktalar minimum

BULANIK İLİŞKİLER

Güvenlik katsayısı yapısına benzer yaklaşımla bulanık çıkarımlar yapılır.

Hacer Kubra KOSE (Ders notları paylaştıkça çoğalır! )


Sayfa 13 | Y a p a y Z e k a 2 D e r s i - O M Ü B Ö T E 2 0 1 0

Hacer Kubra KOSE (Ders notları paylaştıkça çoğalır! )

You might also like