You are on page 1of 104

T.C.

UFUK ÜNİVERSİTESİ
SOSYAL BİLİMLER ENSTİTÜSÜ
YÖNETİM BİLİŞİM SİSTEMLERİ ANABİLİM DALI
YÖNETİM BİLİŞİM SİSTEMLERİ PROGRAMI

TÜRKİYE’DEKİ SON 100 YILDAKİ DEPREMLERİN MAKİNE


ÖĞRENMESİYLE ANALİZİ

YÜKSEK LİSANS TEZİ

HASAN DİKENGÜL

TEZ DANIŞMANI
PROF. DR. ALAATTİN PARLAKKILIÇ

ANKARA
2023
T.C.
UFUK ÜNİVERSİTESİ
SOSYAL BİLİMLER ENSTİTÜSÜ
YÖNETİM BİLİŞİM SİSTEMLERİ ANABİLİM DALI
YÖNETİM BİLİŞİM SİSTEMLERİ PROGRAMI

TÜRKİYE’DEKİ SON 100 YILDAKİ DEPREMLERİN MAKİNE


ÖĞRENMESİYLE ANALİZİ

YÜKSEK LİSANS TEZİ

HASAN DİKENGÜL

TEZ DANIŞMANI
PROF. DR. ALAATTİN PARLAKKILIÇ

ANKARA
2023
BİLDİRİM

Hazırladığım tezin/raporun tamamen kendi çalışmam olduğunu ve her alıntıya


kaynak gösterdiğimi taahhüt eder, tezimin/raporumun kağıt ve elektronik kopyalarının
Ufuk Üniversitesi Sosyal Bilimler Enstitüsü arşivlerinde aşağıda belirttiğim koşullarda
saklanmasına izin verdiğimi onaylarım:

† Tezimin tamamı her yerden erişime açılabilir.

13/07/2023

Hasan DİKENGÜL

i
TEŞEKKÜR

“Türkiye’deki Son 100 Yıldaki Depremlerin Makine Öğrenmesiyle Analizi”


konulu tez çalışması Ufuk Üniversitesi Sosyal Bilimler Enstitüsü tez yazım kurallarına
göre hazırlanmıştır.

Bu tez çalışmasının hazırlanmasında yardım ve desteğini esirgemeyen değerli


hocam, Sn. Tez Danışmanım Prof. Dr. Alaattin PARLAKKILIÇ’a sonsuz saygı ve
teşekkürlerimi arz ederim.

Eğitim aşamasında, Değerli Ufuk Üniversitesi Yönetim Bilişim Sistemleri


Programı Yüksek Lisans hocalarıma teşekkür ederim.

Eğitim ve çalışma sürecinde desteğini ve sabrını hiçbir zaman esirgemeyen


ailem, arkadaşlarım ve kız arkadaşım Buket İrem ÖNDER’e, sonsuz teşekkürlerimi bir
borç bilirim ve saygılarımı sunarım.

ii
ÖZET

Hasan DİKENGÜL, Türkiye’deki son 100 yılda gerçekleşen 4.5 üstü depremlerin makine
öğrenmesiyle analizi, Yüksek Lisans Tezi, Ankara, 2023.

Türkiye, fay hattı coğrafi konumu nedeniyle çok büyük yıkıma ve can kaybına neden olan
yıkıcı depremler yaşamaktadır. Bu araştırmada depremlerin şiddeti ve derinliğinin, ölüm
ve hasar kaybına olan etkilerini detaylı olarak makine öğrenimi yöntemleri ile analizi
yapılmıştır. Analizlerde, deprem derinliği ve şiddetinin, özellikle de daha şiddetli
depremlerin, bir deprem sırasında ölüm sayısı ve hasar gören bina sayısı üzerinde belirgin
etkiler yarattığını göstermiştir. Depremin şiddetini lineer değil logaritmik olarak arttığı
bilgisi ile tahmin sonuçlarımızın daha az hatalı sonuçlar verdiğini görülmüştür. Deprem
büyüklüğü değişkenlerin logaritmik dönüşümü Log_Hasarli_Bina = log(1 +
Hasarli_Bina), özellikle büyük ölçekteki değişkenlikleri azaltarak, makine öğrenme
modellerinin performansını arttırdığı görüldü. Grafiklerle derinliğin ve büyüklüğün hasar
ve ölüm sayıları üzerinde belirgin bir etkisi olduğunu gözlemledik. Ayrıca, depremlerin
meydana geldiği bölgelerin, hasar ve ölüm sayılarına olan etkisinin önemini belirlemek
için bölgesel gruplama yapıldı. Bu, yerleşim yerlerinin ve depremlerin yoğun yaşandığı
bölgelerin sismik aktivite ile ne kadar uyumlu olduğu görüldü. Sınıflandırma ve
gruplandırma ise, belirli özelliklere sahip depremleri ayırt etmeyi sağladı. Böylece belirli
bir deprem tipinin, hasar ve ölüm oranlarını nasıl etkilediğini daha net bir şekilde
gözlemlenebildi. Sonuç olarak, grafik analizlerinin ve sınıflandırmanın kullanımı,
depremlerin özelliklerini ve etkilerini ortaya koydu. Bu çalışmada 14 adet sıfılandırma ve
grafik algoritması kullanıldı. Türkiye’de en çok deprem faaliyetlerinin Akdeniz
bölgesinde oluştuğu, kara sınırları içerisinde ise Ege bölgesi ve yine Akdeniz bölgesine
yakın yerlerde meydana geldiği görülmüştür. Ayrıca en çok ölüme sebep olan
depremlerin gece yarısı 12-4 arasında meydana geldiği bulunmuştur. Ayrıca en çok ölüme
sebep olan depremlerin gece yarısı 12-4 arasında meydana geldiği bulunmuştur. Yıkımla
ölüm arasında da doğrusal olarak bir ilişki olduğu gözlemlendi. En çok deprem
aktiviteleri genellikle 0-25 km derinliğinde gerçekleşmektedir. Çalışmada 12 tane makine
öğrenme algoritması kullanıldı ve en tutarlı sonuçları Gradyan ve Rastgele Orman
Regresyonları kullanılan veri setinde en az hata alan algoritmalar olarak görülmüştür.

Anahtar Sözcükler: Makine öğrenmesi, yapay zeka, deprem, derinlik, şiddet, ilişki,
büyüklük, ölüm, hasar, bina, yıkım

iii
ABSTRACT

Hasan DİKENGÜL, Analysis of Earthquakes Above 4.5 Magnitude in the Last 100 Years
in Turkey Using Machine Learning, Master's Thesis, Ankara, 2023.

Turkey experiences destructive earthquakes causing massive destruction and loss of life
due to its geographic location on fault lines. In this study, the effects of the intensity and
depth of earthquakes on death and damage loss were analyzed in detail using machine
learning methods. The analyses showed that earthquake depth and intensity, especially
more intense earthquakes, created significant effects on the number of deaths and
damaged buildings during an earthquake. By incorporating the knowledge that the
intensity of an earthquake increases not linearly, but logarithmically, it was seen that our
prediction results produced less erroneous results. The logarithmic transformation of
earthquake magnitude variables, Log_Damaged_Building = log(1 + Damaged_Building),
reduced large-scale variabilities, and thus, increased the performance of machine learning
models. We observed a significant effect of depth and magnitude on damage and death
tolls through graphs. Additionally, regional grouping was done to determine the impact
of the regions where earthquakes occur on the number of damages and deaths. This
revealed how compatible the settlements and areas with intense earthquake activities were
with seismic activity. The classification and clustering, in turn, allowed distinguishing
earthquakes with certain features. Thus, it could be more clearly observed how a certain
type of earthquake affected the rates of damage and death. In conclusion, the use of
graphic analyses and classification revealed the characteristics and impacts of
earthquakes. Fourteen classification and graphical algorithms were used in this study. It
was observed that the most earthquake activities in Turkey occurred in the Mediterranean
region, and within land borders, in the Aegean region and places close to the
Mediterranean region. It was also found that the earthquakes causing the most deaths
occurred between midnight and 4 am. A linear relationship was observed between
destruction and death. Most earthquake activities usually occur at depths of 0-25 km.
Twelve machine learning algorithms were used in the study, and the Gradient and
Random Forest Regressions were seen as the algorithms with the least errors in the used
dataset.

Keywords: Machine Learning,Artificial Intelligence, Earthquake, Depth, Intensity,


Relationship, Magnitude, Death, Damaged, Building, Destruction

iv
İÇİNDEKİLER

Sayfa No:

BİLDİRİM ....................................................................................................................... i

TEŞEKKÜR ...................................................................................................................ii

ÖZET ..............................................................................................................................iii

ABSTRACT ................................................................................................................... iv

İÇİNDEKİLER .............................................................................................................. v

KISALTMALAR DİZİNİ ........................................................................................... vii

ŞEKİLLER DİZİNİ .................................................................................................... viii

GİRİŞ .............................................................................................................................. 1

1. BÖLÜM..................................................................................................................... 14

KAVRAMSAL ÇERÇEVE ......................................................................................... 14

1.1. Makine Öğrenmesi ve Deprem ........................................................................... 14

1.1.1. Python ..................................................................................................... 15

1.1.2. Makine Öğrenmesi ................................................................................. 16

1.1.3. Lineer Regresyon ................................................................................... 17

1.1.4. Rastgele Orman Regresyonu .................................................................. 18

1.1.5. Gradıent Boosting Regressor ................................................................. 19

1.1.6. Destek Vektör Regresyonu (SVR) ......................................................... 20

1.1.7. Rıdge Regresyonu .................................................................................. 21

1.1.8. Lasso Regresyonu .................................................................................. 21

1.1.9. Elastıcnet Regresyonu ............................................................................ 22

1.1.10. XGBoost, Lıghtgbm, Catboost ............................................................. 22

1.1.11. Google Colaboratory ............................................................................ 23

1.2. Deprem ve Türkiye ............................................................................................. 25

v
2. BÖLÜM ..................................................................................................................... 31

METOT ......................................................................................................................... 31

2.1 Veri Seti ............................................................................................................... 31

2.2. Hedef Kitle .......................................................................................................... 32

3. BÖLÜM ..................................................................................................................... 34

BULGULAR ................................................................................................................. 34

3.2. Analiz .................................................................................................................. 35

3.1.1. Elde Edilen Bulgular .............................................................................. 38

3.1.2. Makine Öğrenmesi Analiz ..................................................................... 57

3.1.2.1. Derinlik ve Şiddetin Hasarlı Bina Üzerine Etkilerinin


İncelenmesi ................................................................................... 58

3.1.2.2. Derinlik ve Şiddetin Ölüm Üzerine Etkilerinin İncelenmesi ....... 68

3.1.2.3. Derinlik ve Şiddetin Logaritmik Olarak Hasarlı Bina ve Ölüm


Üzerine Etkilerinin İncelenmesi ................................................... 77

SONUÇ .......................................................................................................................... 82

KAYNAKÇA ................................................................................................................ 90

vi
KISALTMALAR DİZİNİ

GBR : Gradyan Artırma Regresyonu


API : Uygulama Programlama Arayüzleri
ML : Makine Öğrenmesi
SVR : Destek Vektör Regresyonu
LR : Lasso Regresyonu
GBM : Gradyan Artırma Makinesi
XGB : Aşırı Gradyan Artırma
MSE : Ortalama Kare Hatası
RMSE : Ortalama Karekök Hatası
MAE : Ortalama Mutlak Hata
MW : Moment Büyüklüğü

vii
ŞEKİLLER DİZİNİ

Sayfa No:

Şekil 1. Aylara Göre Deprem Yoğunluğu ...................................................................... 39

Şekil 2. Enlem Boylama Göre Deprem Yoğunluğu........................................................ 40

Şekil 3. Coğrafi Bölgelere Göre Deprem Yoğunluğu ..................................................... 41

Şekil 4. 5 ve Üzeri Büyüklükteki Depremlerin Zaman Dilimlerine Göre Dağılımı ....... 43

Şekil 5. Yıkım ve Ölüme Sebep Olan Depremlerin Dağılımları .................................... 44

Şekil 6. Mevsimlere Göre Deprem Dağılımı .................................................................. 46

Şekil 7. Mevsimlere Göre Kayıp veya Hasarlı Bina Sayısı ............................................ 47

Şekil 8. Top 10 En sık Deprem Olan Lokasyonlar ......................................................... 48

Şekil 9. Depremlerin Yıllara Göre Dağılımı ................................................................... 49

Şekil 10. En Fazla Yıkım Olan 10 Deprem .................................................................... 50

Şekil 11. Depremlerin Derinlik ve Büyüklük Dağılımı .................................................. 51

Şekil 12. Yıkım ve Ölüm Olan Depremlerin Derinlik ve Büyüklük Dağılımı ............... 52

Şekil 13. Korelasyon Matrisi .......................................................................................... 53

Şekil 14. Yıllara Göre Ortalama Deprem Büyüklüğü ve Derinliği ................................ 55

viii
GİRİŞ

Deprem, dünya üzerindeki en tahripkar doğal afetlerden biridir ve Türkiye, özellikle


kendi bünyesinde birçok fay hattını barındırması nedeniyle, yüksek deprem riskine sahip
bir ülkedir. Bu, depremlerin Türkiye için büyük bir toplumsal ve ekonomik mesele
olduğunu göstermektedir. Geçmişte yaşanan büyük ölçekli depremler, bu doğal afetin
yıkıcı etkilerini açıkça ortaya koymuştur. Ancak, bir depremin tam olarak nerede, ne
zaman ve hangi büyüklükte olacağını önceden tahmin etmek, hala bilim dünyası için bir
meydan okumadır (Ambraseys & Finkel, 1995).

Bilgisayar bilimleri ve veri analizi tekniklerinin gelişmesi ile birlikte, büyük ölçekli
depremleri daha iyi anlamak ve öngörmek için bu tekniklerin uygulanabilirliği üzerine
araştırmalar artmıştır. Bu tez çalışması, makine öğrenmesi ve istatistiksel analiz
tekniklerini kullanarak Türkiye'deki son 100 yılda gerçekleşen 4.5 MW ve üzeri
depremleri incelemeyi amaçlamaktadır.

Bu tez, depremlerin zaman ve yer bağımlılığının yanı sıra, büyüklük ve derinliğin


depremlerden kaynaklanan kayıp ve hasar üzerindeki etkisini araştırmayı hedefler.
Özellikle, bu çalışma, depremlerin yıl, mevsim ve bölgeye göre dağılımını analiz edecek,
deprem büyüklüğü ve derinliği ile yapısal hasar ve kayıp arasındaki ilişkiyi incelerken
korelasyon matrisleri kullanacaktır. Bu analizler, Türkiye'deki deprem aktivitesinin genel
resmini çizecektir.

Bu çalışmanın önemi, Türkiye'deki deprem riskinin daha iyi anlaşılmasına katkıda


bulunabilecek olmasıdır. Ancak, sadece daha iyi bir anlayışla kalmayıp, elde edilecek
bulguların daha etkin risk yönetimi ve önlem stratejileri geliştirmede kullanılmasının
yolunu açabileceği umulmaktadır. Ayrıca, bu çalışma, gelecekteki araştırmalar için de
temel oluşturabilir. Bu çerçevede, çalışmanın sonuçları, deprem tahminleme
modellemesine yeni bir bakış açısı sağlayabilecek ve deprem bilimine genel olarak
katkıda bulunabilecektir.

Bu çalışma kapsamında, bazı varsayımlar yapılacaktır. Bu varsayımlardan bazıları,


verinin doğru ve tam olduğu, depremlerin büyüklüğü ve derinliğinin, yapısal hasarı ve
kayıpları etkilediği ve ayrıca depremlerin mevsimsel ve bölgesel dağılımında belirgin

1
eğilimler olduğudur. Ancak, bu ve diğer tüm varsayımların doğruluğu, veri analizi ve
makine öğrenmesi yöntemlerinin uygulanması ile test edilecektir

Problemler

Depremler, en yıkıcı doğal afetlerden biridir ve çoğu zaman önemli ölçüde can ve mal
kaybına neden olur. Depremleri doğru bir şekilde analiz etmek, etkilerini tahmin etmek
ve azaltmak için çok önemlidir. Ancak, deprem analizini engelleyebilecek potansiyel
problemler vardır:

 Veri Eksikliği ve Kalitesi,

 Farklı Ölçüm Birimleri

 Geçmiş Depremlerin Kaydedilmesi,

 Kompleks Sistemlerin Anlaşılması,

 İstatistiksel Modellerin Sınırlılıkları,

 Deprem Önleme ve Yönetim Stratejileri,

 Zaman ve Kaynaklar,

 Veri Güvenliği ve Gizlilik.

 Tahmin ve Doğruluk

 Jeolojik Analizin Maliyeti

 Jeoloji Bilgisi

Veri Eksikliği ve Kalitesi: Bu tür bir çalışma için geniş çaplı ve kaliteli veri setlerine
ihtiyaç vardır. Her deprem hakkında detaylı bilgiye (derinlik, büyüklük, coğrafi konum,
tarih, saat, bina hasarı, ölüm sayısı, vb.) erişim sağlamak önemlidir. Ancak, bu bilgiler
her zaman tam, güncel veya doğru olmayabilir. Bu, analizlerin kalitesini ve sonuçların
güvenilirliğini etkileyebilir.

Geçmiş Depremlerin Kaydedilmesi: Teknoloji geliştikçe, depremlerin kaydedilme ve


izlenme yöntemleri de gelişmiştir. Ancak, eski depremlerin izlenmesi ve kaydedilmesi
2
genellikle bugünkü standartlara göre eksik veya yanıltıcı olabilir. Bu durum, geçmiş
depremler hakkında kesin bilgi edinmeyi zorlaştırabilir.

Kompleks Sistemlerin Anlaşılması: Yerkürenin iç yapısı ve tektonik plakaların hareketi


son derece karmaşıktır. Bu faktörlerin nasıl bir araya geldiği ve depremleri nasıl
tetiklediği tam olarak anlaşılamamıştır. Dolayısıyla, bu faktörleri dikkate alan doğru ve
etkili bir model oluşturmak büyük bir zorluk olabilir (Aktar & Aydin, 2008).

İstatistiksel Modellerin Sınırlılıkları: Makine öğrenmesi ve istatistiksel analiz,


depremleri tahmin etmede son derece faydalı olabilir. Ancak, bu modeller, gerçekte
karmaşık olan sistemi basitleştirir. Bu da belirsizlikler ve yanılgılar oluşturabilir.

Deprem Önleme ve Yönetim Stratejileri: Elde edilen bilgileri uygulamaya koymak


önemlidir, ancak bu da çeşitli zorluklarla karşı karşıyadır. Deprem dayanıklı yapılar
oluşturmak, tehlikeli bölgelerde yapılaşmayı düzenlemek ve etkili acil durum planları
oluşturmak, özellikle gelişmekte olan ülkelerde önemli zorluklar olabilir.

Zaman ve Kaynaklar: Bu tür bir araştırma, geniş kapsamlı veri analizini ve karmaşık
modellerin geliştirilmesini gerektirir. Bu, önemli miktarda zaman ve kaynak gerektirir.

Farklı Ölçüm Birimleri: Depremlerin büyüklükleri ve şiddetleri için kullanılan bir dizi
farklı ölçüm birimi vardır (örneğin, Richter ölçeği, moment magnitüd ölçeği ve Mercalli
yoğunluk ölçeği). Bu ölçekler farklı özellikleri ölçer ve farklı veri türlerini gerektirir. Bu,
veri analizi ve modelleme aşamalarında karışıklığa neden olabilir (Ertekin, 2014).

Jeoloji Bilgisi: Yer kabuğunun yapısının ve dinamiklerinin tam bir anlayışı hala
gelişmektedir. Özellikle fay hatları, yer kabuğu gerilimi ve yer hareketi hakkındaki
bilgilerimiz sınırlıdır. Depremlerin tam olarak nerede ve ne zaman meydana geleceğini
tahmin etmek için bu bilgilerin daha ayrıntılı olması gerekmektedir (Tekin, 2013).

Derinlemesine Gözlem: Depremler genellikle yer kabuğunun derinliklerinde meydana


gelir ve yüzeydeki gözlemciler için bu derinliklere erişmek genellikle pratik olmayabilir.
Bu, veri toplama ve modelleme sürecini karmaşıklaştırır (Yolsal, 2009).

Jeolojik Analizin Maliyeti: Fay hatları ve yer kabuğu gerilimi hakkındaki bilgiler
genellikle pahalı ve zaman alıcı jeolojik araştırmalarla toplanır. Bu, özellikle kapsamlı ve
detaylı veri gerektiren büyük ölçekli çalışmalar için bir engel oluşturabilir (Özel, 2017).

3
Teknolojik Sınırlamalar: Depremlerin ölçülmesi ve izlenmesi için kullanılan
teknolojiler zamanla gelişmiştir, ancak hala belirli sınırlamalar vardır. Örneğin, deprem
öncesi stresin belirlenmesi hala zor bir problem olup, bu bilgi deprem tahminlerinin
doğruluğunu önemli ölçüde artırabilir (Kaya, 2016).

Veri Güvenliği ve Gizlilik: Deprem verileri genellikle kamu kaynaklarından toplanır ve


genellikle halka açıktır. Ancak, bazı durumlarda, özellikle özel mülkiyet veya hükümet
güvenliği ile ilgili hassas bilgiler içerebilir. Bu, veri toplama ve kullanımını
karmaşıklaştırabilir ve etik ve hukuki sorunlara yol açabilir (Gürbüz, 2018).

Tahmin ve Doğruluk: Makine öğrenmesi modellerinin doğruluğu, kullanılan


algoritmalara, kullanılan özelliklere ve modelin eğitildiği veriye bağlıdır. Ayrıca,
depremler gibi karmaşık doğa olayları için model tahminlerinin doğruluğunu doğrulamak
zordur, çünkü genellikle gerçek deprem olaylarına karşı doğrudan test etme olanağı
yoktur.

Deprem araştırmalarındaki en büyük zorluklardan biri, sınırlı veri erişimi veya eksik veri
kümeleridir. Özellikle uzak yerlerde veya deniz altında meydana gelen depremler, doğru
ve kapsamlı veri toplamayı zorlaştırmaktadır. Ek olarak, tüm ülkelerin sismik aktiviteyi
izlemek için gerekli ekipmana veya kaynaklara sahip olmaması da bir başka zorluktur.
Depremlerin büyüklüğünü ve yerini kesin olarak belirlemek, konum ve derinliklerindeki
sürekli değişim nedeniyle bir başka büyük zorluktur. Bir ana şoktan sonra artçı şokları
veya ikincil depremleri tahmin etmek de karmaşıktır çünkü bu depremler ana şoktan
saatler hatta aylar sonra meydana gelebilir (Dell'Acqua & Gamba, 2012).

Bu zorlukların üstesinden gelmek için bilim adamları ve araştırmacılar veri toplama ve


analiz tekniklerini sürekli olarak geliştiriyorlar. Örneğin, uzaktan algılama teknolojisinin
kullanılması, depreme bağlı hasar ve yer değiştirme hakkında ayrıntılı bilgi sağlayabilir
(Dell'Acqua & Gamba, 2012). Bu arada, GPS teknolojisi depremlerin büyüklüğünü ve
yerini doğru bir şekilde belirlemek için kullanılabilir (Murray vd., 2000). Ayrıca küresel
ölçekte deprem gözlemi ve analizi için uluslararası işbirlikleri büyük önem taşımaktadır.
United States Geological Survey (USGS) ve International Sismic Center (ISC) gibi
kuruluşlar, değerli veri ve kaynakları paylaşmak için birlikte çalışır (Main, 1996).

Son yıllarda birçok başarılı deprem analizi yapılmıştır. Japonya'daki 2011 Tohoku
depremi buna bir örnektir. Depremin neden olduğu yer değiştirmeyi doğru bir şekilde

4
ölçmek için GPS verileri kullanıldı ve gelecekteki deprem modellemesi için değerli
bilgiler sağladı (Simson vd., 2011). Öte yandan 2010 Haiti depremi, sınırlı veri ve
kaynaklar nedeniyle zorluklar ortaya çıkardı. Ancak araştırmacılar, çöken binaların
sayısını tahmin etmek için uydu görüntülerini kullanabildiler ve bu da acil durum
müdahale çabaları için önemli bilgiler sağladı (Hough & Bilham, 2011). Son olarak,
Kaliforniya'daki 2019 Ridgecrest depremi, hızlı müdahale ve analiz için ileri teknolojinin
kullanıldığını gösterdi. Hasarı araştırmak için insansız hava araçları, yer hareketini
ölçmek için sismometreler kullanıldı (Donnellan vd., 2020).

Sonuç olarak, doğru deprem analizi, depremlerin etkisini azaltmak için çok önemlidir.
Deprem analizini engelleyebilecek potansiyel sorunlar olsa da, araştırmacılar ve bilim
adamları yeni teknolojilerin geliştirilmesi ve uluslararası işbirliği yoluyla bu zorlukların
üstesinden gelmek için çalışıyorlar. Bu yazıda sunulan vaka çalışmaları, doğru deprem
analizinin önemini ve deprem izleme ve analizine yatırım yapmanın potansiyel
faydalarını göstermektedir.

Amaç

Deprem, yer kabuğundaki gerilimlerin birikmesi sonucu meydana gelen ani enerji
salınımının oluşturduğu sismik olaydır. Türkiye, coğrafi konumu itibariyle deprem
aktivitesi yüksek olan bir ülke olup, geçmiş yüz yıllık dönemde pek çok büyük ölçekli
deprem yaşamıştır. Bu çalışmanın temel amacı, Türkiye'de son 100 yılda meydana gelen
4.5 MW ve üzeri büyüklükteki depremlerin analiz edilmesi ve belirli istatistiklere göre
grafiklendirilmesidir.

Tezin ilk iki bölümünde, depremlerin derinliği ve büyüklüğünün, özellikle can ve mal
kaybı ile hasarlı bina sayısı üzerindeki etkileri detaylı olarak incelenecektir. Depremin
büyüklüğü, hissedilir şiddeti ve yarattığı hasarı belirlerken, depremin odak derinliği ise
depremin yüzeye ne kadar yakın olduğunu ve dolayısıyla yüzeyde ne kadar şiddetli
hissedileceğini belirler.

Daha sonra, deprem yoğunluğunun aylık ve mevsimsel dağılımı üzerinde durulacaktır.


Bu analiz, depremlerin meydana gelme sıklığı ve dağılımı hakkında daha fazla bilgi sağlar
ve deprem aktivitesinin yılın belirli zamanlarında artıp artmadığına dair anlayış geliştirir.
Benzer şekilde, depremlerin enlem ve boylam ile bölgelere göre yoğunluğu da
incelenecektir. Bu analiz, Türkiye'deki en aktif deprem bölgelerini belirler ve böylece

5
deprem riskinin daha yüksek olduğu bölgelerde alınacak önlemleri planlamaya yardımcı
olur.

Depremlerin zaman içindeki dağılımı, en çok deprem olan 10 bölge ve en çok yıkıma yol
açan 10 deprem, tezin bir diğer önemli bölümünü oluşturur. Bu, hangi yılların ve
bölgelerin en fazla deprem aktivitesine maruz kaldığını ve en çok hasara neden olan
depremlerin hangileri olduğunu belirler.

Son olarak, depremlerin derinlik ve büyüklük dağılımları, depremlerin büyüklük ve


derinliklerinin zamanla nasıl değiştiğini gösterir. Ayrıca, derinlik, şiddet, yıkım ve bina
hasarı üzerine bir korelasyon matrisi oluşturulacak. Bu matris, bu değişkenler arasındaki
ilişkileri belirler ve hangi faktörlerin deprem hasarı üzerinde en önemli etkiye sahip
olduğunu belirlemeye yardımcı olur.

Bu analizler, depremlerin neden olduğu hasarı anlamak ve hasarı en aza indirecek


stratejiler geliştirmek için hayati öneme sahiptir. Bu bilgi, özellikle deprem riski yüksek
bölgelerde, deprem hasarının en aza indirilmesine yardımcı olacak politika ve
uygulamaların geliştirilmesine yardımcı olabilir. Yukarıdaki bahsedilen amaçlara göre
elde edilecek olan alt amaçlar aşağıda listelenmiştir.

1. Derinlik ve Büyüklüğün Kayıp Üzerine Etkisinin Analizi.

2. Derinlik ve Büyüklüğün Hasarlı Bina Üzerine Etkisinin Analizi.

3. Aylara göre deprem yoğunluğu.

4. Enlem boylama göre deprem yoğunluğu.

5. Bölgelere göre deprem yoğunluğu.

6. 5 ve üzeri depremlerin zaman dilimlerine göre dağılımı.

7. Mevsimlere göre deprem dağılımları.

8. Yıkım olan depremlerin mevsimlere göre dağılımları.

9. En çok deprem olan 10 bölge.

10. Depremlerin yıllara göre dağılımı hangi yıllarda depremler daha çok.

6
11. Depremlerin bölgelere göre dağılımı 7 Bölge.

12. Top 10 en çok yıkım olan depremler.

13. Depremlerin derinlik ve büyüklük dağılımları.

14. Korelasyon Matrisi (Derinlik Şiddet Yıkım ve Bina Hasarı üzerine).

15. Deprem Büyüklüğü ve Derinliği zamanla değişim.

Önem

Depremler, insanlık tarihinin en büyük doğal felaketlerinden biri olarak kabul edilir ve
bu felaketlerin yarattığı yıkımı anlamak ve en aza indirmek, modern toplumlar için bir
öncelik haline gelmiştir. Tarihsel ve bilimsel kayıtlar, depremlerin büyüklüğü, derinliği
ve yerel jeolojik koşullar gibi çeşitli faktörlere bağlı olarak, can kaybı, mülk hasarı ve
ekonomik kayıplara yol açabileceğini göstermektedir.

Bu tezin temel amacı, Türkiye'de son 100 yılda meydana gelen 4.5 MW ve üzeri
depremlerin incelenmesi ve analiz edilmesidir. Bu analizler, hem tarihsel deprem
aktivitesinin daha iyi anlaşılmasına yardımcı olacak, hem de mevcut ve gelecekteki
deprem riski ve hasar tahminleri için değerli bilgiler sağlayacaktır.

Depremlerin analiz edilmesinin önemi, birçok boyutta ele alınabilir:

1. Bilimsel Kavrayış: Depremlerin oluşum süreçlerini ve sonuçlarını daha derinlemesine


anlamak, sismoloji çalışmalarının önemli bir parçasını oluşturur. Deprem derinliği,
büyüklüğü, yerel zemin koşulları, coğrafi konum ve zamanlama gibi parametrelerin
depremin etkileri üzerindeki rolünü kavramak, depremlerin neden ve nasıl oluştuğuna
dair daha geniş bir anlayışı beraberinde getirir (Stein & Wysession, 2003).

2. Risk Değerlendirme ve Yönetimi: Tarihsel deprem verilerinin analiz edilmesi, belirli


bir bölgedeki deprem riskinin belirlenmesinde büyük rol oynar. Bu tür bilgiler,
depreme dayanıklı yapıların inşa edilmesi, zemin koşullarının iyileştirilmesi ve
deprem sonrası müdahale stratejileri oluşturulmasında kullanılır (Kramer, 1996).

3. Deprem Önleme ve Hazırlık: Depremlerin önceden tahmin edilmesi mümkün olmasa


da, geçmiş deprem aktivitelerinin analiz edilmesi, bir depremin ne zaman ve nerede

7
gerçekleşebileceği konusunda bilgi sağlar. Bu bilgi, halkı eğitmek, acil durum planları
oluşturmak ve altyapıyı depreme dayanıklı hale getirmek için kullanılabilir (Tierney,
Lindell & Perry, 2001).

Bu çalışma, tüm bu faktörleri dikkate alarak, Türkiye'nin deprem riskini daha iyi anlamak
ve yönetmek için bir temel oluşturmayı amaçlamaktadır. Deprem hasarının en aza
indirilmesi ve depreme dayanıklı bir toplum oluşturulması, bu tezin ana hedeflerinden
biridir. Bu hedefe ulaşmak için, deprem bilimindeki en son bilgi ve teknolojilerin
kullanılması ve bunların deprem riski ve hasar değerlendirmesinde nasıl
kullanılabileceğine dair bir anlayış oluşturulması gerekmektedir.

Sonuç olarak, bu tez, depremlerin karmaşık doğasını ve etkilerini anlamak, deprem riskini
değerlendirmek ve yönetmek, ve depreme dayanıklı bir toplum oluşturmak için önemli
bir katkı sağlayacaktır. Bu çalışmanın, Türkiye'nin deprem riskini azaltmaya ve bu
felaketlerin yarattığı hasarı en aza indirmeye yardımcı olacak politika ve uygulamaların
geliştirilmesine yardımcı olacağına inanıyoruz.

Tanımlar

Deprem: Yer kabuğunun ani sarsılması veya sallanması sonucu oluşan bir doğa olayıdır.
Bu sarsıntılar, yerin kabuğunu oluşturan plakaların birbirlerine çarpması, birbirlerinden
ayrılması veya birbirlerinin altına geçmesi sonucu oluşur.

Rasathane: Bilimsel gözlemlerin yapıldığı bir araştırma merkezidir. Astronomi,


meteoroloji ve jeofizik (depremlerin incelendiği yerler dahil) gibi birçok farklı bilim
dalında rasathaneler kullanılır.

Jeoloji: Yeryüzünün katı malzemesi ve sıvıları, onların yapıları, süreçleri ve tarihini


inceleyen bilim dalıdır. Jeoloji, depremlerin anlaşılmasında ve jeolojik yapının deprem
etkileri üzerindeki rolünün anlaşılmasında önemli bir rol oynar.

Yer Kabuğu: Yeryüzünün en dış katmanıdır ve çoğunlukla granit ve bazalt gibi


kayaçlardan oluşur. Kabuk, bir dizi tektonik plakaya bölünmüştür ve bu plakaların
hareketi depremlere neden olur.

Makine Öğrenmesi: Bilgisayarların, önceden programlama talimatları olmaksızın


deneyim ve örneklerden öğrenmesine olanak sağlayan bir yapay zeka (AI) türüdür.

8
Deprem tahmininde, makine öğrenmesi modelleri, depremlerin meydana gelmesi için
gerekli olan çeşitli faktörleri analiz ederek, gelecekteki deprem aktivitelerinin tahmininde
kullanılabilir.

Sismoloji: Depremleri ve yerin içindeki sismik dalgaları inceleyen bir jeofizik dalıdır.

Tektonik Plakalar: Yeryüzünün dış kabuğunun kırılgan parçalarıdır ve dünyanın


yüzeyinde büyük alanları kapsarlar. Bu plakaların hareketi depremlere, volkanik
aktiviteye ve diğer jeolojik olaylara neden olur.

Zemin Şartları: Bir deprem sırasında yer hareketlerini etkileyen yer yüzeyinin
özellikleridir. Sismik dalgaların hızı, zeminin sertliği ve elastikiyeti, yeraltı suyu
seviyeleri ve diğer faktörler bu koşulları oluşturur.

Şiddet: Bir depremin neden olduğu hasarın ölçüsüdür. Depremin büyüklüğü, derinliği,
zemin koşulları ve nüfus yoğunluğu gibi faktörler, depremin şiddetini belirler.

Varsayımlar

Bu makaleyi hazırlarken, depremleri daha iyi anlamak için bazı temel varsayımlara
ihtiyacımız var. Bu varsayımlar, depremlerin nedenini, büyüklüğünü, sıklığını ve etkisini
anlamamıza yardımcı olacak ve bu olayları tahmin etmek için kullandığımız modellere
ve analitik yöntemlere rehberlik edecektir. Bu hipotezler daha geniş bir bilimsel anlayışa
dayanmaktadır, ancak deprem bilimi hala gelişmekte olan bir alan olduğundan, her
hipotezin kendi sınırlamaları ve belirsizlikleri vardır. Şimdi bu varsayımları ayrıntılı
olarak inceleyelim.

Fay Hareketliliği: Bilindiği gibi, yer kabuğu, birbiriyle sürekli hareket halinde olan bir
dizi plaka tarafından oluşturulur. Bu plakaların birleşme noktaları boyunca oluşan
çatlaklara "fay" adı verilir. Bazı faylar oldukça aktifken, diğerleri daha az aktif olabilir.
Bir fayın hareketliliği genellikle geçmişteki deprem aktivitesi, GPS ölçümleri ve jeolojik
verilere dayanarak belirlenir.

Bu tezde, bir fayın hareketliliğinin veya aktivitesinin, o fayda meydana gelen depremlerin
büyüklüğü ve sıklığı üzerinde büyük bir etkisi olduğunu varsayıyoruz. Yani, daha aktif
fayların, daha büyük ve daha sık depremlere neden olabileceğini düşünüyoruz. Bu
varsayım, belirli bir bölgedeki deprem riskini tahmin etmek için önemlidir. Örneğin, aktif

9
bir fay boyunca yerleşim bölgeleri, daha büyük ve daha sık depremler nedeniyle daha
yüksek bir risk altında olabilir.

Bu varsayım aynı zamanda deprem öncesi uyarı sistemlerinin geliştirilmesi için de


önemlidir. Eğer bir fayın hareketliliği biliniyorsa, bu bilgi, bir deprem olasılığını tahmin
etmek ve belirli bir bölgedeki insanları uyarmak için kullanılabilir. Bu şekilde, önleyici
tedbirler alınabilir ve depremlerin neden olduğu hasar ve kayıplar en aza indirgenebilir.

Bununla birlikte, bu varsayım, fayların hareketliliğinin tam olarak bilinmediği veya


belirsiz olduğu durumlarda, örneğin bilim insanlarının henüz tam olarak anlamadığı
"sessiz depremler" gibi durumlarda geçerliliğini kaybedebilir. Bu nedenle, her zaman
bilimsel araştırma ve gözlemler ışığında yeniden değerlendirilmesi gerekir.

Yerleşim Bölgelerindeki Yapılar: Depremler genellikle yerkabuğunun içinde meydana


gelir, ancak en büyük etkileri yüzeyde, özellikle yerleşim yerlerinde meydana gelir. Bu
varsayım, depremlerin neden olduğu hasarın büyük ölçüde binaların ve diğer yapıların
depreme dayanıklılığına bağlı olduğunu ileri sürmektedir.

Binaların ve diğer yapıların depreme dayanıklılığı, kullanılan malzemeler, inşaat


yöntemleri, yapı standartları ve düzenlemeler gibi bir dizi faktöre bağlıdır. Betonarme
yapılar genellikle çelik yapılarla karşılaştırıldığında daha az depreme dayanıklıdır.
Ayrıca, eski binalar genellikle daha yeni olanlardan daha az depreme dayanıklıdır çünkü
modern inşaat yöntemleri ve standartları genellikle daha iyi deprem direnci sağlar.

Bu varsayım, aynı büyüklükteki bir depremin, depreme daha az dayanıklı binaların


bulunduğu bir bölgede daha fazla hasara yol açacağını öne sürer. Bu, binaların ve diğer
yapıların deprem hasarını azaltmak için nasıl tasarlanıp inşa edileceği hakkında önemli
bilgiler sağlar.

Ancak, bu varsayımın kendi sınırlılıkları vardır. Depremlerin neden olduğu hasar yalnızca
yapıların dayanıklılığına değil, aynı zamanda depremin büyüklüğüne, derinliğine ve
yerleşim yerlerine olan uzaklığına da bağlıdır. Ayrıca, yerel zemin koşulları ve yapıların
yanı sıra altyapı ve hizmetlerin (örneğin su ve elektrik) nasıl etkilendiği de önemli rol
oynar. Bu nedenle, bu varsayım genellikle daha geniş bir deprem riski değerlendirmesinin
bir parçası olarak kullanılır.

10
Zemin Koşulları: Bu varsayım, depremlerin yerel zemin koşullarından önemli ölçüde
etkilendiğini öne sürer. Zemin tipleri ve karakteristikleri, deprem dalgalarının hızını,
yönünü ve büyüklüğünü etkiler. Örneğin, yumuşak ve gevşek zeminler genellikle deprem
dalgalarını amplifiye eder ve daha büyük yüzey hareketlerine neden olur. Bu, binalar ve
diğer yapılar üzerinde daha fazla stres oluşturarak daha fazla hasara yol açabilir.

Ayrıca, bazı zemin tipleri (örneğin, sıvılaşmaya eğilimli zeminler) deprem sırasında
stabilitesini kaybedebilir. Bu, zeminin taşıma kapasitesini azaltır ve yapıların çökmesine
neden olabilir. Bu varsayım, deprem hasarını ve riskini tahmin etmek ve azaltmak için
zemin koşullarının dikkate alınması gerektiğini belirtir.

İklim Değişikliği: Bu varsayım, iklim değişikliğinin depremler üzerinde dolaylı bir etkisi
olabileceğini ileri sürer. İklim değişikliği, deniz seviyelerinin yükselmesi, buzulların
erimesi ve yağış rejimlerindeki değişiklikler gibi faktörlerle yer kabuğunun üzerindeki
yükü değiştirir. Bu değişiklikler, yer kabuğunun içindeki gerilimleri değiştirebilir ve bu
da fay hatlarının hareketini tetikleyebilir.

Bununla birlikte, bu varsayımın doğruluğunu belirlemek oldukça zordur çünkü iklim


değişikliği ve depremler arasındaki bağlantı hala aktif bir araştırma konusudur. Ayrıca,
depremler, iklim değişikliğinden çok yer kabuğunun içindeki doğal süreçler tarafından
tetiklendiği için, iklim değişikliğinin depremler üzerindeki etkisi genellikle diğer
faktörlerden daha az önemlidir. Ancak, iklim değişikliğinin potansiyel etkilerini anlamak
ve bu etkileri deprem riski değerlendirmelerine dahil etmek önemlidir.

Veri Doğruluğu: Veri doğruluğu varsayımı, analizlerimizin sonuçlarının, temel alınan


veri setinin kalitesine ve doğruluğuna bağlı olduğunu belirtir. Eğer veri setinde
eksiklikler, hatalar veya yanıltıcı bilgiler varsa, analiz sonuçları da bu hataları
yansıtacaktır. Bu yüzden doğru ve kapsamlı bir analiz yapabilmek için, veri setinin doğru
ve tam olması gerekmektedir.

Deprem analizi için toplanan verilerin çeşitli kaynaklardan geldiği ve deprem büyüklüğü,
derinliği, enlem ve boylamı gibi birçok parametre içerdiği düşünüldüğünde, veri toplama
ve işleme sürecinde hataların oluşması kaçınılmazdır. Ayrıca, deprem büyüklüğünün
ölçümünde kullanılan çeşitli ölçekler ve yöntemler, büyüklük değerlerinde farklılıklara
yol açabilir. Tüm bu nedenlerle, veri doğruluğu varsayımı, tezin amacına ulaşılabilmesi
için önemlidir.

11
Bu varsayım, verilerin doğru bir şekilde toplanmasını, işlenmesini ve analiz edilmesini
gerektirir. Bu, veri hatalarının, yanıltıcı bilgilerin ve eksik verilerin tespit edilmesini ve
düzeltilmesini, veri toplama ve işleme süreçlerinin standartlaştırılmasını ve verilerin
düzgün bir şekilde analiz edilmesini içerir. Ayrıca, bu varsayım, analiz sonuçlarının
doğruluğunu ve güvenilirliğini sağlamak için veri kalitesi kontrol mekanizmalarının
kullanılmasını gerektirir.

Kısıtlar

Bu tezin yürütülmesi sırasında, bilimsel araştırmaların doğası gereği karşılaşılması


muhtemel bazı kısıtlılıklar bulunmaktadır. Bu kısıtlılıkların tam olarak bilinmesi ve
anlaşılması, analizlerimizin ve sonuçlarımızın doğru bir şekilde çerçevelenmesine
yardımcı olacaktır. Potansiyel kısıtlılıklarını aşağıda açıklanmıştır:

Veri Erişilebilirliği: Toplanan verilerin büyüklüğü, derinliği, zamanı, yerleşim yeri ve


diğer parametreler de dahil olmak üzere yeterli ayrıntıyı içermemesi, analizlerin ve
sonuçların doğruluğunu etkileyebilir. Ayrıca, tüm verilerin erişilebilir olmayabileceği de
unutulmamalıdır.

Veri Doğruluğu: Yukarıda belirtildiği gibi, verinin doğruluğu ve kalitesi her zaman bir
kısıtlama olabilir. Deprem verileri farklı ölçüm teknikleri ve cihazları kullanılarak
toplandığından, bazı veriler yanıltıcı veya eksik olabilir.

Coğrafi Kısıtlamalar: Analizin coğrafi kapsamı da bir kısıtlılık olabilir. Bu çalışma,


Türkiye'deki depremlere odaklanmaktadır ve bu nedenle sonuçlar, Türkiye'nin jeolojik ve
coğrafi özelliklerine özgü olacaktır. Bu sonuçlar, diğer ülkelerdeki depremleri analiz
ederken tamamen geçerli olmayabilir.

Teknolojik Kısıtlamalar: Makine öğrenmesi tekniklerinin kullanılmasına rağmen, bu


teknoloji hala gelişmektedir ve tüm potansiyel sorunları çözemez. Ayrıca, mevcut
teknoloji ve bilgisayar kapasitesi, özellikle büyük veri setleriyle çalışırken, analizlerin
kapsamını ve hızını sınırlayabilir.

Zaman Kısıtlamaları: Tez sürecinde, belirli bir zaman dilimi içinde tamamlanması
gereken çok sayıda görev olduğu için zaman, bir başka önemli kısıtlama olabilir. Veri
toplama, işleme ve analiz aşamaları çok zaman alabilir ve bu süre, sonuçların derinliğini
ve kapsamını sınırlayabilir.
12
Bilgi ve Uzmanlık Kısıtlamaları: Deprem bilimi ve makine öğrenmesi, özel bilgi ve
beceri setleri gerektiren karmaşık alanlardır. Araştırmacının bu alanlardaki bilgisi ve
deneyimi, analizlerin kalitesini ve sonuçların doğruluğunu etkileyebilir.

13
1. BÖLÜM

KAVRAMSAL ÇERÇEVE

1.1. Makine Öğrenmesi ve Deprem

Bu tezde, deprem bilgilerinin detaylı analizi ve yorumlaması için gelişmiş


istatistiksel teknikler ve makine öğrenmesi algoritmaları kullanılmıştır. İlk olarak, verileri
düzenlemek, işlemek ve analiz etmek için Python programlama dili kullanılmıştır.
Python, veri bilimi ve makine öğrenmesi uygulamaları için popüler bir dil olup, kullanıcı
dostu, esnek ve geniş bir yelpazede kütüphanelere sahip olmasıyla bilinir (Raschka, 2015)

Veri görselleştirme için, Python'un kapsamlı grafik kütüphaneleri kullanılmıştır.


Bu, analiz sonuçlarının daha iyi anlaşılmasını ve yorumlanmasını sağlar. Veri
görselleştirme, analizin ayrılmaz bir parçasıdır çünkü karmaşık veri setlerinin görsel bir
temsili, genellikle sonuçları anlamayı ve açıklamayı kolaylaştırır.

Bu çalışmada, verinin analiz edilmesi ve modelin eğitilmesi için çeşitli makine


öğrenmesi algoritmaları kullanılmıştır. Bunlar arasında Lineer Regresyon, Rastgele
Orman Regresyonu, Gradient Boosting Regressor, Support Vector Regression, Ridge
Regression, Lasso Regression, ElasticNet Regression, XGBoost, LightGBM ve CatBoost
yer almaktadır. Bu algoritmaların her biri, veri seti ile belirli bir ilişki modeli oluşturur ve
gelecek veriler üzerinde tahminler yapmak için kullanılır.

Makine öğrenmesi modellerinin eğitilmesi ve test edilmesi, Google'ın Colab


Research aracı kullanılarak bulut ortamında gerçekleştirilmiştir. Google Colab, GPU
veya TPU gibi yüksek performanslı işlem kaynaklarına erişim sağlar ve büyük veri
setlerinin hızlı bir şekilde işlenmesine ve modellerin hızlı bir şekilde eğitilmesine olanak
tanır. Bu sayede, analiz ve modelleme süreçleri daha hızlı ve etkin bir şekilde
gerçekleştirilebilir (Carneiro, 2020).

Bu, genel bir bakış açısıdır ve kullanılan her teknik hakkında daha fazla ayrıntıya
ihtiyaç duyulduğunda, bu ayrıntılar eklenip genişletilebilir. Tezin amacına ve hedeflerine
göre, belirli tekniklerin neden seçildiği ve nasıl kullanıldığı hakkında daha fazla bilgi
eklenmesi de mümkün olabilir.

14
1.1.1. Python

Python, veri analizi ve görselleştirmesi için en çok kullanılan dillerden biridir ve


çeşitli avantajlar sunar (Millman & Aivazis, 2011). Bu dilin okunabilirliği, esnekliği ve
kullanıcı dostu yapısı, veri görselleştirmenin kolay ve erişilebilir olmasını sağlar
(Mckinney, 2012). Yalnızca birkaç kod satırıyla etkileyici görselleştirmeler
oluşturulabilir ve bu, kullanıcılara veri görselleştirmede eşsiz bir esneklik ve yaratıcılık
potansiyeli sunar (Hunter, 2007).

Python, geniş bir kütüphane ekosistemine sahiptir ve bu, veri analizi ve


görselleştirme için büyük bir avantajdır (Mckinney, 2012). Python'un çok çekirdekli
işlem yetenekleri, büyük veri setlerinin analizini hızlandırabilir ve karmaşık veri
yapılarına kolay erişim sağlar (Millman & Aivazis, 2011). Python ayrıca büyük veri
setlerini işlemek ve milyarlarca veri noktasını birkaç kod satırıyla görselleştirebilir, bu da
özellikle büyük veri setleri ile çalışırken kritik öneme sahiptir (Millman & Aivazis, 2011).

Veri görselleştirmesi için Python'da kullanılabilen çok sayıda kütüphane vardır.


Örneğin, Pandas, Seaborn, Matplotlib, Bokeh ve Plotly bu kütüphanelerden bazılarıdır
(Mckinney, 2012). Her biri, belirli türdeki görselleştirmeler için farklı avantajlar sunar ve
toplamda Python'un veri görselleştirmedeki çok yönlülüğüne katkıda bulunur (Hunter,
2007).

Tabii ki, aşağıdaki gibi bir metin yazabilirim ve ardından kaynaklarını


belirtebilirim: "Python, veri analizi ve görselleştirmesi için en çok kullanılan dillerden
biridir ve çeşitli avantajlar sunar (Millman & Aivazis, 2011). Bu dilin okunabilirliği,
esnekliği ve kullanıcı dostu yapısı, veri görselleştirmenin kolay ve erişilebilir olmasını
sağlar (Mckinney, 2012). Yalnızca birkaç kod satırıyla etkileyici görselleştirmeler
oluşturulabilir ve bu, kullanıcılara veri görselleştirmede eşsiz bir esneklik ve yaratıcılık
potansiyeli sunar (Hunter, 2007). Python, geniş bir kütüphane ekosistemine sahiptir ve
bu, veri analizi ve görselleştirme için büyük bir avantajdır (Mckinney, 2012). Python'un
çok çekirdekli işlem yetenekleri, büyük veri setlerinin analizini hızlandırabilir ve
karmaşık veri yapılarına kolay erişim sağlar (Millman & Aivazis, 2011). Python ayrıca
büyük veri setlerini işlemek ve milyarlarca veri noktasını birkaç kod satırıyla
görselleştirebilir, bu da özellikle büyük veri setleri ile çalışırken kritik öneme sahiptir
(Millman & Aivazis, 2011). Veri görselleştirmesi için Python'da kullanılabilen çok sayıda

15
kütüphane vardır. Örneğin, Pandas, Seaborn, Matplotlib, Bokeh ve Plotly bu
kütüphanelerden bazılarıdır (Mckinney, 2012). Her biri, belirli türdeki görselleştirmeler
için farklı avantajlar sunar ve toplamda Python'un veri görselleştirmedeki çok
yönlülüğüne katkıda bulunur (Hunter, 2007). Python, kullanıcıların analiz iş akışlarına
kolayca entegre olabilen ve otomatik olarak profesyonel kalitede grafikler üretebilen
araçlara sahip olmasını sağlar (Millman & Aivazis, 2011). Bu, örneğin Snakemake gibi
popüler biyoinformatik iş akışı yöneticileri ile veri görselleştirmeyi hızlı ve kolay bir
şekilde birleştirebilme yeteneği sayesinde mümkün olmaktadır (Köster & Rahmann,
2012). Bu nedenlerle, Python veri görselleştirmesi için hızla en çok tercih edilen dil haline
gelmiştir (Mckinney, 2012).

1.1.2. Makine Öğrenmesi

Makine Öğrenimi (ML), bilgisayarların çevreden öğrenme ve yeni verilere


adaptasyon yeteneğini artıran bir Yapay Zeka dalıdır (Russell & Norvig, 2016). ML,
farklı disiplinlerdeki çeşitli uygulamalarıyla tanınır; örüntü tanıma, bilgisayar görüşü,
uzay mühendisliği, finans ve biyomedikal uygulamalar (Hastie, Tibshirani, & Friedman,
2009). ML algoritmaları, mevcut durumdan öğrenebilir ve öğrenilen bilgiyi yeni ve daha
önce karşılaşılmayan görevlere uygular (LeCun, Bengio, & Hinton, 2015). Büyük veri
setlerini işlemek için ML tekniklerinin son derece faydalı olduğu gösterilmiştir (Provost
& Fawcett, 2013).

Makine öğrenimi, kredi kartı dolandırıcılığını tespit etmek, otonom navigasyon


gerçekleştirmek ve kişiselleştirilmiş haber özetleri oluşturmak gibi uygulamalarıyla geniş
bir alana sahiptir (Russell & Norvig, 2016). Alanın devam eden araştırmaları, birikimli
uzun vadeli öğrenme, Bayesci çıkarım ve yaşam boyu öğrenme gibi konularla ilgilidir
(Bishop, 2006). Makine öğrenimi, laboratuvar deney alanından önemli ticari değeri olan
bir alana dönüşmüştür (Jordan & Mitchell, 2015).

Makine öğrenimi, denetimli öğrenme, denetimsiz öğrenme ve takviyeli öğrenme


olmak üzere üç ana türdür (Goodfellow, Bengio, & Courville, 2016). Denetimli öğrenme,
etiketli verileri gerektirir ve çeşitli uygulamaları vardır. Denetimsiz öğrenme,
etiketlenmemiş verilerle çalışır. Takviyeli öğrenme, ödül ve ceza mekanizmaları
kullanarak karar verme sürecini modelleme üzerine odaklanmış bir alanıdır (Sutton &
Barto, 2018).

16
Derin öğrenme, makine öğrenimi modellerinin bir türüdür ve yüksek seviye
performansı ile bilinir. Bu, özellikle sığ makine öğrenme modellerine ve geleneksel veri
analizi yaklaşımlarına göre belirgindir (LeCun, Bengio, & Hinton, 2015). Destek Vektör
Makineleri (SVM'ler), farklı sınıfların veri noktaları arasında ayrım yapmayı hedefleyen,
iyi bilinen bir denetimli öğrenme yöntemi türüdür (Cortes & Vapnik, 1995). SVM'ler, en
geniş boşluğu bulmak için hiper düzlem seçerek, bir sınıfı diğerinden ayırır. SVM'ler,
birçok farklı probleme genelleyebilen güçlü ve esnek bir modeldir.

Denetimsiz öğrenme tekniklerinin arasında, veri noktalarını benzerliklerine göre


gruplara ayıran kümeleme ve, verinin çoğunluğunu korumaya çalışırken özellik uzayını
daha yönetilebilir bir boyuta indiren boyut indirgeme yöntemleri bulunmaktadır
(Goodfellow, Bengio, & Courville, 2016).

Takviyeli öğrenme, algoritmanın belirli eylemler için ödül veya ceza almasını
içeren bir ortamla etkileşimini içerir. Bu algoritma, zamanla en yüksek toplam ödülü elde
etmek için nasıl davranacağını öğrenir (Sutton & Barto, 2018). Otonom araçlar ve oyun
oynayan bilgisayarlar gibi uygulamalar, bu tür bir öğrenme yaklaşımından büyük ölçüde
faydalanmaktadır (Mnih vd., 2015).

Bu öğrenme türleri, belirli türdeki görevler ve veri setleri için çeşitli derecelerde
etkin olan bir dizi farklı algoritma ve model türünü doğurmuştur. Makine öğreniminin bu
çeşitliliği, çok sayıda akademik ve endüstriyel uygulamanın bulunmasına yardımcı
olmuştur (Jordan & Mitchell, 2015).

1.1.3. Lineer Regresyon

Lineer regresyon, iki ya da daha fazla değişken arasındaki doğrusal ilişkiyi


incelemek için kullanılan bir istatistiksel modelleme teknolojisi. Bu modelleme
yönteminde, bir bağımlı değişkenin değerini, bir ya da daha fazla bağımsız değişkenin
değerlerine dayanarak tahmin etmeye çalışırız. Yani, bir değişkenin değeri diğer bir veya
birkaç değişkenin değerine göre nasıl değişiyor, bunu inceler (Amazon Web Services,
2023).

Lineer regresyonun temel fikri, veriye en uygun düz çizgiyi (veya hiper düzlemi,
birden fazla bağımsız değişken olduğunda) çizmektir. Bu "en uygun çizgi" genellikle en
küçük kareler yöntemi kullanılarak bulunur - yani, gerçek veri noktaları ve çizginin

17
tahmin ettiği değerler arasındaki toplam kare farkının minimum olduğu çizgi (Amazon
Web Services, 2023).

Lineer regresyon, özellikle değişkenler arasındaki ilişkinin doğrusal olduğunu


varsaydığımız durumlarda çok yararlıdır. Örneğin, bir depremin büyüklüğü ile
oluşabilecek hasar veya kayıp sayısı arasında bir doğrusal ilişki olabileceğini
düşünebiliriz. Bu durumda, bir lineer regresyon modeli, verilmiş bir deprem büyüklüğü
için beklenen hasar veya kayıp sayısını tahmin etmek için kullanılabilir (Amazon Web
Services, 2023).

Ancak, lineer regresyonun bazı sınırlılıkları vardır. Özellikle, ilişkinin doğrusal


olduğu varsayımı her zaman gerçek dünya verilerine uymayabilir. Ayrıca, aykırı
değerlere karşı hassastır ve modelin hata terimleri normal dağılıma sahip olmalı ve
bağımsız olmalıdır. Bu nedenle, lineer regresyonun uygulanabilirliği ve etkinliği,
verilerin belirli özelliklerine ve analiz için belirlenen hedeflere bağlıdır (Amazon Web
Services, 2023).

Bu makalede, depremin parametrelerinden (derinlik, büyüklük) ve sonuçları


(ölüm sayısı, hasarlı bina sayısı) arasındaki ilişkileri belirlemek için lineer regresyon
teknikleri kullanılmıştır.

1.1.4. Rastgele Orman Regresyonu

Rastgele Orman, birden çok karar ağacının bir araya getirildiği ve her ağacın
çıktısının ortalama alınarak sonuç elde edildiği bir modelleme tekniğidir. Rastgele Orman
modeli, verinin farklı alt kümesinden oluşturulmuş çok sayıda karar ağacı içerir, bu da
modelin genelleme yeteneğini artırır ve overfitting'i (aşırı uyum) azaltır ( Breiman, 2001).

Rastgele Orman modeli, her bir özellik üzerinde ayrı ayrı eğitilmiş birçok karar
ağacını birleştirir. Her bir karar ağacı, bağımsız bir şekilde ve genellikle veri kümesinin
rastgele bir alt kümesi üzerinde eğitilir (Breiman, 2001).

Daha sonra, her bir ağacın tahminleri toplanır ve ortalama alınır. Bu, modelin
genelleştirme yeteneğini geliştirir ve aşırı uyumu azaltır. Bu yaklaşım, giriş özelliklerinin
karmaşık etkileşimlerini yakalayabilir, bu da onu deprem hasarı tahmininde özellikle
yararlı kılar (Breiman, 2001).

18
Örneğin, belirli bir büyüklükteki bir depremin neden olduğu hasarı tahmin
etmeye çalışıyorsak, sadece depremin büyüklüğünü değil, aynı zamanda derinliğini,
enlem ve boylam konumunu ve belki de yerel zemin koşullarını dikkate almalıyız.
Rastgele Orman Regresyonu, tüm bu değişkenleri hesaba katar ve her birinin hasar
tahminindeki rolünü belirler.

Son olarak, Rastgele Orman modeli, özellik öneminin hesaplanmasına olanak


sağlar. Bu, hangi özelliklerin hedef değişkeni tahmin etmede en önemli olduğunu
belirlememizi sağlar. Bu bilgi, depremlerin neden olduğu hasarı azaltmaya yönelik
stratejiler geliştirmek için çok önemli olabilir (Breiman, 2001).

1.1.5. Gradıent Boosting Regressor

Gradient Boosting, bir dizi zayıf tahminleyiciyi (genellikle karar ağaçları)


birleştirerek güçlü bir tahminleyici oluşturan bir başka topluluk öğrenme yöntemidir.
Gradient boosting, her bir yeni tahminleyiciyi, önceki tahminleyicinin hatalarını düzeltme
görevine atayarak, bir dizi zayıf tahminleyicinin ardışık olarak eğitilmesi yoluyla çalışır
(Friedman, 2001).

Gradient Boosting, genellikle kuvvetli bir model oluşturabilir ve hem regresyon


hem de sınıflandırma problemlerinde kullanılabilir. Ancak, modelin karmaşıklığı
nedeniyle, aşırı uyum riski daha yüksektir ve uygun parametre ayarlarına ihtiyaç
duyabilir.

Gradient Boosting Regressor (GBR), tezdeki hedeflerin gerçekleştirilmesi için


önemli bir araçtır. Gradient Boosting, hedef değişkeni tahmin etmek için bir dizi karar
ağacını birleştirir. Ancak, Rastgele Orman Regresyonundan farklı olarak, bu ağaçlar
ardışık bir şekilde oluşturulur ve her bir ağaç, önceki ağacın hatalarını düzeltmeye çalışır
(Friedman, 2001).

Diğer yapay zeka modellerindeki gibi amaç bunda da büyüklük ve derinlik


üzerinden hasar ve ölüm tahmini yapmak.

Gradient Boosting Regressor'un gücü, modelin, girdi özellikleri ile hedef


değişken arasındaki karmaşık ilişkileri modelleyebilme yeteneğinden geliyor. Bu özellik,
özellikle deprem büyüklüğü ve derinliği gibi birden çok faktörün etkileşimine bağlı
sonuçları tahmin etmek için kullanışlıdır (Friedman, 2001).
19
Ayrıca, GBR, özelliklerin hedef değişken üzerindeki etkisini nicel olarak tahmin
eder. Bu, hangi özelliklerin hasar veya ölüm sayısını en çok etkilediğini belirlememizi
sağlar. Bu bilgi, risk azaltma stratejileri geliştirmede önemlidir. Örneğin, eğer enlem ve
boylam koordinatları hasarı belirgin şekilde etkiliyorsa, bu bilgi bina kodlarının
revizyonu veya yeni yapıların konumu gibi politika kararlarına rehberlik edebilir
(Friedman, 2001).

1.1.6. Destek Vektör Regresyonu (SVR)

Destek Vektör Regresyonu (Support Vector Regression - SVR), bir çeşit destek
vektör makinesi (SVM) olarak adlandırılan daha büyük bir makine öğrenmesi algoritması
ailesinin parçasıdır. SVM'ler, ilk olarak sınıflandırma problemlerini çözmek için
geliştirilmiş olup, bir hedef değişkenin sürekli değerlerini tahmin etmek için de
uyarlanabilirler. Bu tür SVM'lere Destek Vektör Regresyonu denir (Drucker vd., 1997).

SVR, özellikle yüksek boyutlu veri kümeleriyle çalışırken son derece yararlıdır.
Örneğin, bir deprem veri seti, depremin büyüklüğü, derinliği, yerel jeoloji ve
yerleşimlerin yoğunluğu dahil olmak üzere birçok farklı özellik içerebilir. SVR, bu
özelliklerin her birinin depremin büyüklüğü üzerindeki etkisini öğrenerek, yeni bir
deprem olayının sonuçlarını tahmin etmek için kullanılabilir model oluşturabilir (Drucker
vd., 1997).

SVR'nin bir diğer avantajı, modelin gürültülü veri ile başa çıkabilme yeteneğidir.
Bu, özellikle deprem verileri gibi doğal olayları analiz ederken önemlidir çünkü bu tür
veriler genellikle belirsizlik ve gürültü içerir. SVR, bir hata marjı belirler ve bu marjın
dışında kalan veri noktalarını "yanlış" olarak kabul eder. Bu, modelin genel eğilimleri
öğrenmesine ve bireysel hataların model üzerindeki etkisini azaltmasına yardımcı olur
(Drucker vd., 1997).

Ancak, SVR'nin birçok parametresi vardır ve bu parametrelerin doğru bir şekilde


ayarlanması modelin performansını büyük ölçüde etkileyebilir. Ayrıca, SVR genellikle
daha basit regresyon modellerine göre daha yavaştır ve büyük veri kümeleri ile çalışırken
zaman alabilir (Vapnik, 1998).

Bu yüzden araştırmamda, SVR'nin deprem büyüklüğünü veya hasar seviyesini


tahmin etmek için kullanılması mantıklı geldi. Ancak, hangi modelin en iyi sonuçları

20
vereceği genellikle özgün veri setine, hedef değişkenin özelliklerine ve özel araştırma
hedeflerine bağlıdır (Vapnik, 1998).

1.1.7. Rıdge Regresyonu

Ridge Regresyonu, regresyon modellerinin aşırı uyum problemini çözmek için


kullanılan bir tekniktir. Aşırı uyum, bir modelin eğitim verilerini çok iyi öğrendiği, ancak
yeni verilere genelleme yapmakta başarısız olduğu durumları ifade eder. Ridge
Regresyonu, aşırı uyumu azaltmak için modelin karmaşıklığını düzenleyen bir özellik
taşır (Ertuğrul & Zengin, 2015).

Ridge regresyonu, hedef değişken ile yüksek korelasyonu olan özelliklerin


katsayılarını küçültme eğilimindedir. Bu, bu özelliklerin modeldeki etkisini azaltır ve
böylece modelin daha genel ve sağlam olmasını sağlar. Bu nedenle, Ridge Regresyonu
genellikle birçok özelliği olan ve bu özellikler arasında yüksek korelasyon bulunan veri
kümelerinde kullanılır (Ertuğrul & Zengin, 2015).

Bu yüzden araştırmamda, Ridge Regresyonu, deprem büyüklüğünü veya hasarı


tahmin etmek için kullanılabilir. Ridge Regresyonu, tüm özelliklere eşit ağırlık verme
eğilimindedir, bu da önemsiz özelliklerin model üzerinde gereğinden fazla etkisi
olabileceği anlamına geliyor (Ertuğrul & Zengin, 2015).

1.1.8. Lasso Regresyonu

Lasso Regresyonu (Least Absolute Shrinkage and Selection Operator),


regresyon analizinde kullanılan bir yöntemdir ve aşırı uyum (overfitting) problemini
azaltmak amacıyla kullanılır. Ridge Regresyonu gibi, Lasso da özelliklerin katsayılarını
küçültür ancak bir adım daha ileri giderek, önemsiz özelliklerin katsayılarını sıfıra eşitler.
Bu, bazı özelliklerin modelden tamamen çıkarılması anlamına gelir ve bu nedenle Lasso,
özellik seçimi için de kullanılır (Tibshirani, 1996).

Lasso regresyonu, birçok özelliği olan ve bu özelliklerin bir kısmının önemsiz


olduğu düşünülen veri kümelerinde genellikle kullanılır.

Bu araştırmada deprem büyüklüğü, hasarlı bina sayısı veya ölüm sayısı gibi
hedef değişkenleri tahmin etmek için kullanıldı.

21
1.1.9. Elastıcnet Regresyonu

ElasticNet Regresyonu, Ridge Regresyonu ve Lasso Regresyonu'nun bir


kombinasyonu olarak görülebilir. Bu teknik, hem Lasso'nun L1 düzeltmesini (mutlak
değerlerin toplamı) hem de Ridge'nin L2 düzeltmesini (karelerin toplamı) kullanır.
ElasticNet, bu iki düzeltme türünü bir arada kullanarak, Lasso'nun sıfır olmayan
katsayılar arasında rastgele bir seçim yapmasını ve Ridge'nin hiçbir katsayıyı sıfıra
ayarlamamasını dengeler (Akdeniz & Kızılaslan, 2016).

ElasticNet genellikle, özellikler arasında yüksek korelasyon olduğunda veya


özellik sayısının gözlem sayısından daha fazla olduğu durumlarda kullanılır. Bu
durumlar, modelin performansını olumsuz etkileyebilir ve ElasticNet bu durumları
hafifletebilir (Akdeniz & Kızılaslan, 2016).

Bu araştırmada deprem büyüklüğü, hasarlı bina sayısı veya ölüm sayısı gibi
hedef değişkenleri tahmin etmek için kullanıldı.

1.1.10. XGBoost, Lıghtgbm, Catboost

XGBoost (Extreme Gradient Boosting): Gradient Boosting çerçevesinde


geliştirilmiş, özellikle büyük veri setlerini hızlı ve doğru bir şekilde işleyen bir
algoritmadır. XGBoost'un en belirgin özelliği, tahminler üzerinde düzeltme yaparken
oluşan hataları iteratif bir şekilde azaltma yeteneğidir. Ağaç tabanlı modellerin
birleşimini kullanarak, bir önceki model tarafından öngörülemeyen örnekler üzerinde
daha fazla odaklanma stratejisiyle genel tahmin performansını artırır. LightGBM:
Microsoft tarafından geliştirilen LightGBM, genellikle büyük veri setlerinde hızlı ve
doğru sonuçlar elde etmek için kullanılan bir gradyan boosting çerçevesidir. LightGBM,
XGBoost'a kıyasla daha hızlıdır ve daha az hafıza kullanır. Ayrıca, kategorik özelliklerin
otomatik işlemesini destekler, bu da onu deprem tahminleri için özellikle yararlı hale
getirir (Gökçe, 2020).

XGBoost'un avantajları arasında hız, ölçeklenebilirlik ve taşınabilirlik


bulunmaktadır. Ayrıca, eksik değerleri otomatik olarak işleyebilme, çapraz doğrulama
için yerleşik özellikler sunabilme ve düzenlileştirme parametrelerini ayarlayabilme
yetenekleri, bu algoritmanın geniş bir uygulama alanına sahip olmasını sağlar (Gökçe,
2020).

22
CatBoost: CatBoost, Yandex tarafından geliştirilmiş bir makine öğrenmesi
algoritmasıdır. Adını, "Category" ve "Boosting" kelimelerinin birleşiminden alır. En
belirgin özelliği, kategorik veri türleriyle daha iyi başa çıkabilme yeteneğidir. Bu, birçok
veri bilimci için büyük bir avantajdır çünkü kategorik veriler, birçok veri setinde yaygın
olarak bulunan bir veri türüdür (Şimşek & Doğan, 2020).

CatBoost, diğer Gradient Boosting algoritmaları gibi, modelin performansını


artırmak için ağaç tabanlı modelleri birleştirir. Ancak CatBoost, daha karmaşık ve
genellenebilir modeller oluşturmak için belirli teknikler kullanır. Özellikle, verilerin
doğasına bağlı olarak değişebilecek kategorik özellikler için otomatik ön işleme sağlar
(Şimşek & Doğan, 2020).

Araştırma kapsamında, CatBoost'un kategorik değişkenleri otomatik olarak


işleyebilme yeteneği, özellikle farklı yerleşim bölgelerindeki deprem etkilerini analiz
etmek için çok kullanışlıdır. Bu algoritma, deprem derinliği ve büyüklüğü ile birlikte,
depremin gerçekleştiği bölgenin özelliklerini dikkate alarak, deprem sonrası hasar ve
ölüm sayısını tahmin etme yeteneğine sahip.

LightGBM (Light Gradient Boosting Machine) :Microsoft tarafından


geliştirilen ve ağaç tabanlı bir öğrenme algoritması olan Gradient Boosting'in hafif ve
hızlı bir versiyonudur. LightGBM, daha büyük veri setlerinde yüksek verimlilik ve hız
sağlar. Gradient boosting algoritmalarında sıklıkla kullanılan bir diğer yaklaşım olan
XGBoost'un aksine, LightGBM, veri bölme işlemlerini daha hızlı gerçekleştirmek için
yaprak odaklı bir ağaç büyütme stratejisi kullanır. Yaprak odaklı büyüme stratejisi,
modelin karmaşıklığını artırabilir ve aşırı uyuma neden olabilir, ancak bu risk LightGBM
içindeki düzenlileştirme ve diğer kontrol mekanizmaları ile dengelenir (Ke vd., 2017).

LightGBM, genellikle büyük veri setlerinde ve hızlı iterasyon gerektiren


durumlarda kullanılır. LightGBM'in hızlı ve verimli olması, araştırmada alternatif olarak
kullanılması gereken bir seçenektir (Ke vd., 2017).

1.1.11. Google Colaboratory

Google Colaboratory, genellikle Google Colab olarak bilinir, Google'ın bulut


tabanlı bir bilgisayar platformudur. Colab, kullanıcıların Python programlarını
tarayıcıları üzerinden yazmalarını ve çalıştırmalarını sağlar. Google Colab, özellikle veri

23
analizi, makine öğrenmesi ve yapay zeka (AI) alanlarında geniş ölçekte kullanılmaktadır.
(Carneiro, 2020).

Google Colab'ın sunduğu pek çok avantaj vardır:

1. Ücretsiz erişim: Google Colab, kullanıcılarına belirli bir süre boyunca


ücretsiz GPU erişimi sağlar. Bu, derin öğrenme ve diğer hesaplama yoğun
uygulamalar için son derece yararlıdır.

2. Makine Öğrenmesi ve Veri Bilimi Araçları: Google Colab, Python tabanlı


popüler veri bilimi ve makine öğrenmesi kütüphanelerini (pandas, numpy,
scikit-learn, tensorflow, keras, PyTorch, vb.) içerir.

3. Jupyter Notebook entegrasyonu: Google Colab, Jupyter notebooklarını


doğrudan Google Drive'dan yüklemeyi ve Google Drive'a kaydetmeyi
destekler.

4. Bulut depolama entegrasyonu: Google Drive ve GitHub dahil olmak üzere


birçok bulut depolama hizmeti ile entegrasyondan yararlanabilirsiniz.

5. Çoklu kullanıcı desteği: Bir notebook üzerinde aynı anda birden çok kişi
çalışabilir.

Ancak, Google Colab'ın bazı dezavantajları da vardır:

1. Sınırlı işlem süresi: Google Colab, belirli bir süre sonra kullanılan kaynakları
sıfırlar. Bu, uzun süreli hesaplamaların sıklıkla kesilmesine neden olabilir.

2. Sınırlı bellek: Google Colab, her kullanıcıya sınırlı miktarda bellek sağlar.
Yüksek bellek gerektiren işlemler bu sınırlamayı aşabilir.

3. Güvenlik sorunları: Google Colab notebooklarına erişim izniniz olan


herkes, notebookları çalıştırabilir ve bu nedenle güvenlik endişeleri olabilir.

Araştırmada Google Colab'ı kullanmak, veri analizi ve model eğitimi için gerekli
hesaplama gücünü sağlar. Ayrıca, çeşitli makine öğrenmesi algoritmalarının
uygulamalarını denemek ve tez çalışmanızın sonuçlarını doğrulamak için bir platform
sağlamaktadır (Carneiro, 2020).

24
1.2. Deprem ve Türkiye

Depremler, genellikle beklenmedik bir anda yer kabuğunda enerji birikiminin


serbest kalması sonucunda oluşur. Bu enerji serbest bırakma, yer kabuğu hareketleri
sonucu oluşan ses dalgaları ve titreşimlerle hissedilebilir. Bu durum genellikle iki
tektonik plakanın birbirine sürtünmesi sonucunda meydana gelir. Bu sürtünme, plakaların
hareketini bir süreliğine engeller ve bu süreç boyunca enerji birikir. Enerji, biriken
gerilimin plakaların hareket etmeye başlaması ile serbest bırakılır ve bu enerjinin dalgalar
halinde yayılması depremi oluşur. Bu süreç genellikle yerin derinliklerinde gerçekleşir ve
sonuç olarak yüzeyde bir deprem hissedilir (USGS, 2020).

Türkiye, hem Anadolu hem de Arabistan ve Afrika plakalarının etkisinde olduğu


için, önemli bir deprem bölgesindedir. Tarih boyunca Türkiye, birçok büyük ve yıkıcı
depreme sahne olmuştur. En bilinenleri 1999 Marmara depremi ve 2011 Van depremi
olan bu depremler, büyük can ve mal kaybına yol açmıştır (Koçyiğit, 2005).

Deprem sonucu Türkiye'deki zararlar genellikle altyapının ve binaların


yetersizliğinden kaynaklanır. Depreme dayanıklı olmayan binalar ve altyapı, depremlerin
hasarını artırır. Depremler sırasında meydana gelen çökme ve heyelanlar, yerleşim
bölgelerinde ciddi hasara ve kayıplara yol açabilir (Ergünay, 2011).

Türkiye'nin depreme dayanıklı yapılar ve altyapı geliştirme konusunda daha


fazla çalışma yapması gerektiği genel bir görüştür. Ayrıca, deprem tehlikesine karşı
halkın bilinçlendirilmesi ve deprem anında nasıl hareket edilmesi gerektiği konusunda
eğitim verilmesi önemlidir. Bunlar, depremlerin olumsuz etkilerini azaltmaya yardımcı
olabilir. Deprem, kaçınılmaz bir doğa olayı olabilir, ancak alınacak önlemlerle zararları
en aza indirmek mümkündür (Özel, 2013).

Depremin gerçekleştiği süreç genellikle aşağıdaki adımları içerir:

Gerilme birikimi: Tektonik plakaların hareketi, biriken gerilimin ana


kaynağıdır. Bu plakalar, litosfer olarak bilinen Dünya'nın kabuğunu oluşturur ve
astenosfer olarak bilinen daha yumuşak ve daha sıcak bir tabaka üzerinde yüzerler.
Plakaların hareketi, astenosferin konveksiyon akımlarından kaynaklanır. Bu akımlar,
Dünya'nın çekirdeğinden gelen ısı nedeniyle oluşur (Lutgens, Tarbuck & Tasa, 2017).

25
Plakalar, sürtünme nedeniyle birbirlerine bağlandığında, enerji birikmeye başlar.
Biriken enerji, genellikle bir fay hattı boyunca birikir. Fay hatları, plakaların birleştiği
veya birbirine sürtündüğü yerlerdir. Biriken enerji, zamanla gerilme oluşturur (Lutgens,
Tarbuck & Tasa, 2017).

Biriken bu gerilme, fay hattında bir kırılma meydana gelene kadar artmaya
devam eder. Kırılma, biriken enerjinin aniden serbest kalmasına neden olur. Bu enerji,
sismik dalgalar şeklinde yayılır ve yerin yüzeyine ulaştığında depreme neden olur
(Lutgens, Tarbuck & Tasa, 2017).

Kırılma ve enerji salınımı: Biriken gerilim bir noktada dayanılmaz hale gelir
ve fay hattında bir kırılma meydana gelir. Bu kırılma noktası genellikle depremin odak
noktası (veya hiposentri) olarak adlandırılır ve yerin yüzeyinin altında yer alır. Yüzeyin
hemen üstünde, genellikle en çok hasarın olduğu yer olan depremin epicentri bulunur
(Stein & Wysession, 2003).

Kırılma sırasında biriken enerji aniden serbest kalır. Bu enerji, sismik dalgalar
şeklinde yayılır. Bu dalgalar, yer kabuğunu ve yerin yüzeyini sarsar. Bu, bir depremin
belirgin etkisidir ve genellikle şiddetli sarsıntılarla hissedilir. Depremlerin büyüklüğü ve
etkileri, serbest bırakılan enerjinin miktarına ve fay hattının derinliğine bağlıdır (Stein &
Wysession, 2003).

Depremin büyüklüğü genellikle Richter ölçeği veya moment büyüklük ölçeği ile
ölçülür. Bu ölçekler, bir deprem sırasında serbest bırakılan enerjinin miktarını temsil eder
(Stein & Wysession, 2003).

Sarsıntılar: Bir depremin sarsıntıları, deprem odak noktasında serbest bırakılan


enerjinin sismik dalgalar şeklinde yayılması sonucunda oluşur. Bu dalgalar, Dünya'nın
içinden ve yüzeyi boyunca ilerler ve yer kabuğunu sarsar (Shearer, 2009).

Sismik dalgalar genellikle iki ana türdedir: cisim dalgaları ve yüzey dalgaları.

1. Cisim dalgaları: Bunlar en hızlı seyahat eden dalgalar olup, deprem odak
noktasından her yönde yayılırlar. Cisim dalgaları iki alt tipe ayrılır: P
(birincil) dalgaları ve S (ikincil) dalgaları. P dalgaları, sıkıştırma ve genleşme
hareketleri yaratarak ilerlerler. S dalgaları, yüzey boyunca dik bir şekilde
hareket eder ve daha büyük sarsıntılara neden olur (Shearer, 2009).
26
2. Yüzey dalgaları: Bunlar deprem odak noktasından daha yavaş yayılır ve
genellikle yerin yüzeyine yakın bölgelerde en fazla hasara neden olur. Yüzey
dalgaları, genellikle sismogramlarda daha büyük amplitüde sahip olan ve
genellikle daha büyük sarsıntılara ve hasara neden olan dalgaları temsil eder
(Shearer, 2009).

Deprem sarsıntılarının büyüklüğünü ve yoğunluğunu ölçmek için genellikle


Richter ölçeği ve Mercalli yoğunluk ölçeği kullanılır. Richter ölçeği, sismik dalgaların
genliklerini ölçerken, Mercalli ölçeği, depremin yer yüzeyindeki etkilerini ölçer (Shearer,
2009).

Sonrası: Depremler sırasında ve sonrasında çeşitli olaylar ve felaketler meydana


gelebilir. Bu etkiler, depremin büyüklüğüne, derinliğine, insanların ve yapıların
bulunduğu yerlere olan yakınlığına ve yerel yapı standartlarına bağlıdır.

1. Yapısal Hasar: Depremler sırasında ve sonrasında, binalar ve diğer yapılar


ciddi hasar görebilir. Deprem sarsıntıları, yapıların temellerine ve destek
yapılarına ciddi stres uygular. Bu stres, yapıların çökmesine, aşırı eğilmesine
veya hatta tamamen yıkılmasına neden olabilir. Hasar, depremin büyüklüğü,
merkez üssüne olan uzaklık, zemin koşulları ve yapının tasarım ve inşasına
bağlıdır (Dowrick, 2009).

Yapısal hasarın çeşitli tipleri vardır:

Çökme: Bu, deprem sırasında veya hemen sonra bir binanın tamamen
çökmesidir. Bu, genellikle en ciddi ve ölümcül hasar türüdür.

Yıkılma: Bu, bir yapının bölümlerinin (duvarlar, tavanlar, vb.) çökmesi veya
yıkılmasıdır.

Çatlaklar ve Yarıklar: Deprem sarsıntıları, binanın duvarlarında, tabanında ve


destek yapılarında çatlaklar ve yarıklar oluşturabilir.

Yerinden Oynama: Deprem sırasında yapı, temelinden yerinden oynayabilir.


Bu, özellikle yüzey dalgalarının etkili olduğu durumlarda meydana gelir.

27
Sıvılaşma Nedeniyle Hasar: Sıvılaşma, suyla doyurulmuş ince taneli zeminin
sıvı gibi davranmaya başladığı bir süreçtir. Bu, yapıların temellerinin zayıflamasına ve
çökmesine neden olabilir (Dowrick, 2009).

Yapıları deprem hasarına karşı korumak için, yapıların tasarımı ve inşası


sırasında deprem mühendisliği ilkeleri uygulanmalıdır (Dowrick, 2009).

2. Zemin Sıvılaşması: Zemin sıvılaşması, suyla doyurulmuş ince taneli


zeminlerin sarsıntılar altında sıvı gibi davranmaya başladığı bir olaydır. Bu
genellikle depremler sırasında olur ve en çok kumlu veya siltli zeminlerde
meydana gelir. Bir deprem sırasında, hızlı sarsıntılar zemin tanecikleri
arasındaki su basıncını artırır. Bu artan su basıncı, tanecikler arasındaki
normal stresi azaltır, bu da zeminin mukavemetini ve sertliğini kaybetmesine
neden olur. Sonuç olarak, zemin artık katı bir malzeme gibi davranmayı
bırakır ve daha çok sıvıya benzer bir davranış gösterir. Bu durum, zemin
sıvılaşması olarak adlandırılır. Zemin sıvılaşması, yapıların temellerinin
zayıflamasına ve hatta çökmesine neden olabilir. Ayrıca yer altındaki
boruların yüzeye çıkmasına ve altyapıya zarar vermesine de yol açabilir.
Heyelanları ve zemin deformasyonlarını tetikleyebilir. Bu fenomen, deprem
mühendisliğinde önemli bir husustur ve yapı tasarımında ve inşasında dikkate
alınmalıdır. Geoteknik mühendisler, zemin sıvılaşmasının potansiyel
etkilerini değerlendirmek için genellikle sıvılaşma tehlikesi haritalarını ve
analizlerini kullanır (Ishihara, 1996).

3. Heyelanlar: Heyelanlar, genellikle zemin veya kaya parçalarının yerçekimi


etkisiyle yamaç aşağı hareket ettiği doğal afetlerdir. Depremler, genellikle
sarsıntılar aracılığıyla zeminin stabilitesini bozarak heyelanları tetikler. Bir
deprem sırasında, zemin üzerindeki sarsıntılar yerçekimi stresini artırır ve
toprak ve kaya parçalarının hareket etmesine neden olur. Bu özellikle suyla
doygun zeminlerde ve eğimli arazilerde geçerlidir. Ayrıca, deprem
sıvılaşması, toprağın kayganlaşmasına ve daha da kolay hareket etmesine
yol açabilir. Depremle tetiklenen heyelanlar genellikle çok hızlı olabilir ve
önemli miktarda mal ve can kaybına neden olabilir. Binalar, yollar ve altyapı
tesisleri heyelanlar tarafından tahrip edilebilir veya tamamen yıkılabilir.
Heyelanları önlemek ve risklerini azaltmak için, mühendisler ve jeologlar

28
genellikle heyelan tehlikesi haritalarını ve stabilite analizlerini kullanır.
Ayrıca, yamaçların stabilizasyonu, drenajın iyileştirilmesi ve diğer
mühendislik uygulamaları da kullanılır (Highland & Bobrowsky, 2008).

4. Tsunamiler: Tsunamiler, deniz veya okyanus tabanındaki büyük su


kütlesinin hızla hareket etmesiyle oluşan enerji dalgalarıdır. En sık deniz
tabanındaki depremler sonucunda oluşurlar. Bu tür depremler, deniz
tabanının hızla yükselmesine veya alçalmasına neden olur, bu da su
kütlesinin hareket etmesini ve tsunami dalgalarının oluşmasını tetikler.
Tsunamiler, açık denizde ilerlerken genellikle çok düşük bir yüksekliğe
sahip olabilir ve bu nedenle genellikle fark edilmez. Ancak, kıyıya
yaklaştıkça, dalgaların yüksekliği önemli ölçüde artabilir ve sonuçta kıyı
şeridinde ciddi hasara ve genellikle yüksek can kaybına neden olabilir
(Satake & Atwater, 2007).

5. Yangınlar: Depremler, hasarlı elektrik hatları veya patlayan gaz hatları gibi
sebeplerle yangınlara yol açabilir. Elektrik kıvılcımları veya sızan gaz,
yanıcı malzemelerle temas ettiklerinde yangın çıkabilir. Ayrıca, depremler
aynı zamanda yangın söndürme çabalarını da zorlaştırabilir. Yıkılan yollar
ve köprüler, itfaiye ekiplerinin yangınları söndürme çabalarına engel
olabilir. Aynı şekilde, su hatlarının deprem sonucu zarar görmesi, söndürme
çabalarını da olumsuz etkileyebilir (Scawthorn, Eidinger & Schiff, 2005).

Türkiye, dünyanın en aktif deprem bölgelerinden biridir. Bu aktiflik, Türkiye'nin


jeolojik yapısının bir sonucudur (Koçyiğit, 2018). Anadolu Plakası, sınırlarını oluşturan
iki büyük tektonik plaka, yani Eurasya ve Afrika plakaları arasında sıkışmıştır. Bu
plakaların etkileşimi, Türkiye'nin büyük bir kısmında düzenli olarak depremlerin
meydana gelmesine neden olur (Reilinger vd., 2006).

Türkiye'nin her yerinde çok sayıda fay hattı bulunmaktadır. En önemlileri Kuzey
Anadolu Fay Hattı (KAF), Doğu Anadolu Fay Hattı (DAF) ve Batı Anadolu Fay Hattı
(BAF)'dır (Koçyiğit, 2018). KAF ve DAF, Türkiye'deki en büyük ve en yıkıcı
depremlerden bazılarının kaynağı olmuştur (Ambraseys & Jackson, 2000).

Kuzey Anadolu Fay Hattı (KAF), Türkiye'nin kuzeyini batıdan doğuya doğru
geçer ve 1939 Erzincan depreminden bu yana bir dizi büyük depreme ev sahipliği

29
yapmıştır (Ambraseys & Jackson, 2000). En son 1999 Marmara Depremleri, bu fay hattı
boyunca meydana gelmiştir (Parsons vd., 2000).

Doğu Anadolu Fay Hattı (DAF), Anadolu'nun doğusunda bulunur ve


Türkiye'nin en büyük ikinci fay hattıdır. Fay hattı, Anadolu Plakası'nın batıya doğru
hareketine ve Arabistan Plakası'nın kuzeye doğru itişine yanıt olarak oluşmuştur
(Reilinger vd., 2006).

Batı Anadolu'da ise, genellikle daha küçük ama sık sık depremler görülür. Bu
bölge, çoğunlukla normal faylardan oluşan bir fay sistemine sahiptir ve bu faylar,
Anadolu Plakası'nın batıya doğru hareketi sonucunda oluşmuştur (Koçyiğit, 2018).

Türkiye'deki deprem riskinin yüksek olduğu bölgeler genellikle Marmara


Bölgesi, Doğu Anadolu ve Batı Anadolu'dur. Ancak, ülkenin tüm bölgelerinde deprem
riski bulunmaktadır ve bu nedenle tüm bölgeler depreme karşı hazırlık gerektirir (Erdik,
2019).

30
2. BÖLÜM

METOT

Deprem analiz ve tahmin çalışmalarında kullanılacak olan metodolojinin önemi


büyüktür. Uygulanan teknikler, kullanılan veri setleri ve bunların analizi, elde edilecek
sonuçların güvenilirliğini ve geçerliliğini belirler. Bu bölümde, uygulanan metodoloji ve
veri setinin detaylarına yer verilmiştir.

2.1 Veri Seti

Bu araştırma, Kandilli Rasathanesi tarafından sağlanan veriler üzerine


kurulmuştur. Kandilli Rasathanesi'nin kamuya açık veritabanı, 1903 yılından 2023 yılına
kadar olan döneme ait deprem verilerini içermektedir. Bu web sitesi üzerinden, belirtilen
tarih aralığında meydana gelen depremlerin listesini .txt formatında indirebildik.

Araştırmamızın ana temeli olan 4.5 Mw ve üzerindeki depremler, toplam veri


setinden ayrıştırılarak filtrelenmiştir. İlk aşamada elde edilen bu veri seti, ölüm ve hasarlı
bina sayılarını içermemekteydi. Ancak, Kandilli Rasathanesi'nin başka bir halka açık veri
kaynağı olan ölümlü depremler listesi ile bu eksiklik tamamlanmıştır.

Bu iki veri kaynağından elde edilen bilgiler karşılaştırılarak ve birleştirilerek


genişletilmiş bir veri seti oluşturulmuştur. Son haliyle, veri setimizdeki kolonlar
şunlardır: Deprem Kodu, Oluş Tarihi, Oluş Zamanı, Enlem, Boylam, Derinlik, xM, MD,
ML, Mw, Ms, Mb, Tip, Yer, Kayıp, Hasarlı Bina.

Oluşturulan bu nihai veri seti, diğer araştırmacıların da erişimine açık olması


adına GitHub üzerinde bir public repository'de yayınlanmaktadır.

Bu geniş ve kapsamlı veri seti, deprem analizlerimizin ve tahminlerimizin


sağlam bir temel üzerine inşa edilmesine olanak sağlamaktadır. Ancak, metot ve
tekniklerin uygulanmasından elde edilen sonuçların güvenilirliği ve geçerliliği için veri
setinin titizlikle işlenmesi ve analiz edilmesi gerekmektedir. Bu işlem, araştırmamızın
devam eden bölümlerinde detaylı bir şekilde ele alınacaktır.

31
2.2. Hedef Kitle

Bu tez çalışması, geniş bir hedef kitleye hitap etmektedir. Deprem bilimine ilgi
duyan ve bu alandaki çalışmaları takip eden herkes, sunulan bilgi ve analizlerden
faydalanabilir. Ancak, daha spesifik olarak, aşağıdaki gruplar bu tezin hedef kitlesi olarak
belirlenmiştir:

Araştırmacılar ve Bilim İnsanları: Bu tez, deprem bilimi ve seismoloji


alanında çalışan araştırmacılara, bilim insanlarına ve akademisyenlere hitap eder.
Bilimsel araştırmalar genellikle karmaşık fenomenleri anlamak ve açıklamak için
kapsamlı veri setlerini gerektirir. Bu tezde sunulan analizler ve bulgular, araştırmacıların
deprem etkinliklerini, özellikle büyüklük, derinlik ve hasar oluşumu gibi faktörlerle
ilişkisini daha iyi anlamalarını sağlayabilir.

Bu çalışma, depremlerin etkilerini ve deprem oluşum mekanizmalarını daha iyi


anlamak için geniş çaplı bir veri seti üzerinde uygulanan analitik ve istatistiksel teknikleri
kullanır. Bu, araştırmacılara, depremlerle ilgili kendi çalışmalarında kullanabilecekleri
yeni yöntemler ve yaklaşımlar sunabilir.

Ayrıca, bu çalışma, depremlerin sebep olduğu hasarın daha iyi anlaşılması için
ölçeklendirme ilişkileri ve diğer ilgili fenomenler hakkında da bilgi sağlar. Bu bilgiler,
deprem risk modellemesi ve tahmininde, bir depremin olası etkilerini önceden tahmin
etmek için hayati öneme sahip olabilir.

Bu tezde sunulan bulgular, araştırmacıların mevcut bilgileri doğrulamalarına


veya daha derinlemesine incelemeleri için yeni araştırma soruları oluşturabilmelerine
yardımcı olabilir. Bu da deprem bilimindeki gelişmeleri hızlandırabilir ve bu alanda
gelecek çalışmaların temelini atabilir.

Mühendisler: Tezin bulguları, özellikle sivil ve jeoloji mühendisliği alanında


çalışan profesyoneller için önemli uygulamalar sunmaktadır. Depremler hakkında daha
ayrıntılı bilgi, mühendislerin daha dayanıklı ve güvenli yapılar tasarlamalarına yardımcı
olabilir.

Deprem mühendisliği, doğal afetlerin olumsuz etkilerini en aza indirmek için


yapıları tasarlama ve inşa etme bilim ve uygulamasıdır. Bu tez, depremlerin büyüklüğü,
derinliği ve yerleşim bölgelerindeki yapıların hasar durumları ile ilgili bilgiler sunar. Bu,
32
mühendislerin deprem etkisine dayanıklı bina tasarımlarında kullanabilecekleri hayati
bilgileri içerir.

Ayrıca, depremlerin yerleşim bölgelerindeki yapılar üzerindeki olası etkileri


hakkında daha fazla bilgi, mühendislerin güvenlik standartlarını belirlerken, bina
kodlarını oluştururken veya mevcut yapıları güçlendirirken kullanabileceği önemli bir
kaynaktır. Bu bilgiler, özellikle depreme duyarlı bölgelerde, yaşam kaybını önlemek ve
maddi hasarı en aza indirmek için hayati öneme sahip olabilir.

Fay hatları ve yer kabuğunun hareketi hakkında daha fazla bilgi sağlar. Bu,
jeoteknik mühendislerin zemin koşullarını ve yer altı yapılarını değerlendirirken ve
depreme dayanıklı tasarımlar geliştirirken göz önünde bulundurabileceği kritik bilgileri
içerir. Bu bilgiler, mühendislerin güvenli ve sağlam yapılar inşa etmek için gereken
kapsamlı bilgi tabanını genişletmeye yardımcı olabilir.

Politika Yapıcılar ve Planlamacılar: Hükümet yetkilileri ve yerel yönetimler,


bu tezin sağladığı bilgileri deprem hazırlık planları oluşturmak ve mevcut politikaları
gözden geçirmek için kullanabilir.

Genel Kamu: Genel halk, depremler hakkında daha fazla bilgi edinmek ve olası
bir depreme karşı hazırlıklı olmak için bu tezi kullanabilir.

Eğitim Kurumları: Bu tez, deprem bilimi ve seismoloji konularında eğitim


veren üniversite ve diğer eğitim kurumları için önemli bir kaynak olabilir.

33
3. BÖLÜM

BULGULAR

Bu çalışmada, depremlerin özelliklerinin (büyüklük, derinlik, enlem, boylam


vb.) ve bunların sonuçları (ölüm ve yıkım) üzerindeki etkisinin analizini içeren bir dizi
bulguya ulaşılmıştır. Öncelikle, veri seti üzerinde ayrıntılı bir istatistiksel analiz yapılmış
ve çeşitli görsel sunumlar oluşturulmuştur. Bu analizler ve görsel sunumlar, deprem
etkinliğinin zamansal ve mekansal dağılımını ve deprem özelliklerinin yıkım ve kayıplar
üzerindeki etkisini detaylandırmaktadır.

Derinlik ve büyüklüğün kayıp üzerine etkisinin analizinde, depremlerin derinlik


ve büyüklük özelliklerinin ölüm oranları üzerinde önemli bir etkisi olduğu görülmüştür.
Benzer şekilde, derinlik ve büyüklüğün hasarlı bina sayısı üzerine etkisini
incelediğimizde, deprem derinliği ve büyüklüğünün maddi yıkım üzerinde önemli bir
etkisi olduğu belirlenmiştir.

Zamana bağlı deprem aktivitesinin analizinde, aylara, mevsimlere ve yıllara göre


deprem yoğunluğu incelenmiştir. Ayrıca, enlem ve boylama göre deprem yoğunluğu
analiz edilmiştir. Bölgelere göre deprem yoğunluğu analizi de yürütülmüştür. Bu
analizler, deprem aktivitesinin belirli zaman dilimlerinde, coğrafi bölgelerde ve belirli
enlem ve boylamlarda nasıl değiştiğini göstermektedir.

Bununla birlikte, depremlerin derinlik ve büyüklük dağılımlarının incelenmesi,


depremlerin genellikle belirli bir derinlik ve büyüklük aralığında meydana geldiğini
ortaya koymuştur. Korelasyon matrisi analizi, deprem derinliği, büyüklüğü, yıkım ve bina
hasarı arasındaki istatistiksel ilişkileri göstermektedir.

Makine öğrenme algoritmaları kullanılarak derinlik ve büyüklüğün ölüm üzerine


etkisinin analizi gerçekleştirilmiştir. Farklı makine öğrenme algoritmalarının (Lineer
Regresyon, Rastgele Orman Regresyonu, Gradient Boosting Regressor, Support Vector
Regression, Ridge Regression, Lasso Regression, ElasticNet Regression, XGBoost,
LightGBM ve CatBoost) sonuçları kıyaslanmış ve en iyi sonuçları veren algoritma
belirlenmiştir. Sonuçlara bakıldığında, "Hasarlı Bina" ve "Kayıp" hedef değişkenleri için

34
en düşük MSE değerlerine sahip olan GradientBoostingRegressor modelinin, log
dönüşümü sonrasında en etkili algoritma olduğu görülüyor.

Son olarak, deprem şiddetinin lineer bir şekilde değil, logaritmik olarak arttığı
gözlemlendi. Dolayısıyla, yıkımın ve ölümün etkilerini hesaplarken bu gözlemi dikkate
alındığında ve veri setimiz üzerinde bir log dönüşümü gerçekleştirildi. Bu dönüşüm
sonrası, makine öğrenme algoritmalarının performansı önemli ölçüde iyileşmiştir. Her ne
kadar log dönüşümü sonrası sonuçlarda gözle görülür iyileşme görülse de veri setinin
azlığı tahminlerin tutarlılığını azaltıyor. Her ne kadar hata payı azmış gibi görünse de veri
setimizde ölüm ve yıkım sayılarının az olması imbalanced data olarak adlandırılan
dengesiz veri dağılımına sebep olmuştur. Bu durum, özellikle verilerinizin çoğunluğunu
oluşturan sınıfı (bu durumda hasarlı bina ve ölüm içermeyen veriler) daha iyi tahmin
ederken, azınlıkta olan sınıfı (hasarlı bina ve ölüm içeren veriler) yanlış tahmin etme
eğiliminde olan modellerde sorun yaratır.

3.2. Analiz

Deprem büyüklüğü ve derinliği ile oluşan hasar ve kayıplar arasındaki ilişkiyi


analiz etmeye yönelik bu çalışmada, çeşitli makine öğrenme algoritmalarını ve
istatistiksel analiz tekniklerini kullanarak detaylı ve çok yönlü bir analiz gerçekleştirildi.
Kullanılan veri seti, her biri deprem kodu, oluş tarihi, oluş zamanı, enlem, boylam,
derinlik, deprem büyüklüğü (Mw, Ms, Mb, MD, ML), tip ve olası sonuçları (hasarlı
binalar ve ölüm sayısı) içeren yaklaşık 2000 deprem kaydını kapsamaktadır.

Depremlerin etkilerini ve büyüklüklerini anlamaya yönelik bir dizi grafik analizi


ile başlandı. Bunlar arasında deprem derinliği ve büyüklüğünün kayıp ve hasarlı bina
üzerine etkisinin analizi, depremlerin zaman, mevsim, coğrafi konum ve bölgeye göre
dağılımı, en çok yıkıma yol açan depremler ve en çok deprem olan bölgelerin analizleri
yer aldı.

Sonra bu verileri farklı makine öğrenme modellerine sokarak, deprem derinliği


ve büyüklüğünün ölüm üzerindeki etkisini ölçtük. Bu modeller arasında Lineer
Regresyon, Rastgele Orman Regresyonu, Gradient Boosting Regressor, Support Vector
Regression, Ridge Regression, Lasso Regression, ElasticNet Regression, XGBoost,
LightGBM ve CatBoost bulunmaktadır.

35
Sonuçlar, her bir modelin hatalarının farklı ölçütler (Mean Squared Error, Root
Mean Squared Error ve Mean Absolute Error) kullanılarak hesaplandığı ve modellerin
ölüm sayılarını tahmin etme başarısının belirlendiği bir dizi hata analizi ile
değerlendirildi. Bu analizler, modellerin ölüm sayısını tahmin etme yetenekleri arasında
belirgin farklılıklar olduğunu göstermiştir.

Sonuçların değerlendirilmesi sırasında, deprem şiddetinin artışının lineer bir


doğru ile değil, logaritmik bir eğri ile daha iyi temsil edildiği görüldü. Bu gözlem, deprem
büyüklüğünün logaritmik doğası ile uyumludur - yani, Richter ölçeği logaritmiktir ve
dolayısıyla depremlerin büyüklüğü arasındaki farkları lineer değil, logaritmik bir ölçekte
anlamak daha doğru olacaktır. Bu nedenle, veri setinde bir logaritmik dönüşüm uygulandı
hasarlı bina ve ölüm sayıları buna göre tekrar hesaplandı.

Bu çeşitli analiz ve modelleme tekniklerinin kombine edilmesi, depremlerin


etkilerini daha iyi anlamamıza ve bu etkileri tahmin etme yeteneklerimizi geliştirmeye
olanak sağladı. Ancak, bu çalışma aynı zamanda makine öğrenme modellerinin kendi
sınırlamalarına ve dikkate alınması gereken bazı zorluklara da işaret etmektedir.

Şimdi bu analizlerin ayrıntılarını ve sonuçlarını daha derine ineceğiz. Bu


analizler, depremlerin hasarlı binalar ve ölüm oranları üzerindeki etkisinin daha iyi
anlaşılmasını sağlayacak ve gelecekteki deprem sonuçlarının daha doğru tahmin
edilmesini sağlayacaktır.

Makine öğrenimi modellemesine başlamadan önce mevcut veri setimizde eksik


veri olup olmadığını belirlemeliyiz. Veri setimiz yaklaşık 2000 deprem olayı içermesine
rağmen, bu olayların sadece 150 tanesi hasarlı binalar ve ölümler hakkında bilgi
içermektedir. Bu, makine öğrenimi modellemesinde karşılaştığımız en büyük
zorluklardan biri olan veri kümelerimizde ciddi bir bilgi eksikliği olduğunu gösteriyor.

İlk olarak, eksik verilerin varlığı, modellerimizin genelleme yeteneğini etkiler.


Veri kümesindeki bu kusurlar, modellemeyi etkileyebilecek ve sonuçları saptırabilecek
koşullardır. Modellemeye dayanak olacak yeterli bilgi eksikliği, makine öğrenme
modelinin gerçek dünya verilerine karşı performansını önemli ölçüde etkileyebilir. Eksik
veriler, modelin önyargılı olmasına veya ölçeklenebilir olmamasına yol açabilir ve bu da
modelin genel kullanımını ve uygulanabilirliğini sınırlayabilir.

36
Bu analizler ve modellemeler bize birçok önemli bulgu ve sonuç sağladı, ancak
aynı zamanda gelecekteki çalışmalara ışık tutacak bazı sorular ve zorluklar da ortaya çıktı.
Öncelikle, deprem etkilerini daha doğru bir şekilde tahmin etmek için daha fazla ve daha
tam verilere ihtiyaç duyduğumuz açıktır. Özellikle, daha fazla sayıda deprem olayının
hasarlı bina ve ölüm sayısı bilgilerini içeren daha geniş bir veri seti, makine öğrenme
modellerinin performansını büyük ölçüde artırabilir.

Bunun yanı sıra, deprem büyüklüğü ve derinliğinin yanı sıra, deprem etkilerini
etkileyebilecek başka faktörlerin de olabileceğini göz önünde bulundurmak önemlidir.
Örneğin, nüfus yoğunluğu, yapı kalitesi ve yapı malzemeleri, hükümetin acil durum
tepkisi ve altyapı durumu gibi faktörler de depremlerin sonuçları üzerinde önemli bir
etkiye sahip olabilir. Bu faktörlerin veri setine dahil edilmesi ve analiz edilmesi, daha
doğru ve kapsamlı bir tahmin modeli oluşturulmasına yardımcı olabilir.

Sonuç olarak, depremlerin etkilerini tahmin etmeye yönelik bu çalışma, deprem


verilerini analiz etmek ve modellemek için kullanılan yöntemleri ve teknikleri geniş bir
şekilde göstermektedir. Bu çalışma, hem makine öğrenmesi hem de deprem etkilerini
tahmin etme konusunda önemli adımlar atmıştır. Ancak, bu çalışmanın da gösterdiği gibi,
bu alanda hala daha fazla araştırma ve geliştirmeye ihtiyaç vardır. Bu analiz ve
modelleme tekniklerinin daha da geliştirilmesi ve rafine edilmesi, deprem etkilerini daha
doğru bir şekilde tahmin etme ve daha etkili acil durum müdahaleleri planlama
yeteneğimizi büyük ölçüde artırabilir.

Makine öğrenmesi, veri biliminin bir dalıdır ve büyük oranda veriye dayalıdır.
Eğitim verilerinin kalitesi ve niceliği, modelin performansını belirleyen ana faktörlerden
biridir. Dolayısıyla, doğru ve geniş çapta verilere sahip olmak, makine öğrenmesi
modellerinin daha doğru ve güvenilir tahminler yapabilmesi için son derece önemlidir.

Deprem tahmini, bilim insanları ve mühendisler için sürekli bir zorluk olmuştur.
Depremler, yer kabuğundaki stres birikimlerinin sonucu olarak meydana gelir ve bu stres
birikimlerinin ne zaman ve nerede serbest bırakılacağını tahmin etmek son derece
karmaşıktır. Yer kabuğunun altındaki süreçler çok çeşitli fiziksel ve kimyasal etmenlere
bağlıdır ve bu etmenlerin her biri, bir depremin ne zaman ve nerede meydana geleceğini
belirlemeye yardımcı olabilir (Car, Poli & Lu, 2020).

37
Bununla birlikte, deprem tahmini konusunda makine öğrenmesi ve derin
öğrenme tekniklerinin potansiyeli vardır. Bunlar, genellikle karmaşık ve doğrusal
olmayan ilişkileri modellemekte son derece etkilidirler ve bu, deprem tahmini gibi
karmaşık ve çok boyutlu problemler için idealdir. Ancak, bu tekniklerin deprem
tahmininde etkili bir şekilde kullanılabilmesi için büyük miktarda, kaliteli ve çeşitli
verilere ihtiyaç duyarız. Özellikle, depremlerin meydana geldiği yerler, zamanlar ve
koşullar hakkında daha fazla bilgiye ihtiyacımız vardır (Graves, Mohamed & Hinton,
2013).

Şu anda, mevcut veri setimizdeki bilgi eksikliği, bu tekniklerin etkinliğini


sınırlamaktadır. Veri setindeki eksiklikler, modelin genelleme yeteneğini ve dolayısıyla
tahmin doğruluğunu olumsuz etkileyebilir. Bu, deprem tahmininde derin öğrenme
tekniklerini etkin bir şekilde kullanmanın önündeki en büyük engellerden biridir. Ancak,
gelecekte daha fazla ve daha detaylı deprem verilerinin toplanması ve bu verilerin bu tür
modellemelerde kullanılması, belki de depremleri daha doğru bir şekilde tahmin etme
kabiliyetimizi artırabilir. Bununla birlikte, depremlerin karmaşık ve öngörülemez doğası
nedeniyle, herhangi bir tahmin modeli hala belirli bir belirsizlik seviyesine sahip olacaktır
(Goodfellow, Bengio & Courville, 2016).

Belirtmemiz gereken bir diğer konu da veri setimiz ile elde ettiğimiz grafik
görselleştirmeleri. Deprem analizinde özellikle önemlidir, çünkü depremler genellikle
karmaşık ve çok boyutlu fenomenlerdir ve bu fenomenleri anlamak için genellikle çok
çeşitli verilere ihtiyaç duyarız. Belirli sınıflara ve kategorilere ayırarak elde ettiğimiz
görselleştirmeler, bize geçmiş depremler hakkında farklı bir bakış açısı kazandırıyor.
Geçmiş depremlerin yorumlayarak belirli sonuçları elde edebiliyoruz. Elde ettiğimiz
sonuçlar genellikle depremlerin nasıl meydana geldiği, hangi faktörlerin etkili olduğu ve
depremlerin hangi özelliklere sahip olduğu hakkında önemli bilgiler sağlar.

3.1.1. Elde Edilen Bulgular

Aşağıda veri seti üzerinde yapılan çalışmaların sonuçları çıkan sonuçların ne


anlama geldiği yer almaktadır.

Bu analiz sürecindeki tüm yer alan kodlar buradaki kütüphaneleri ve değişken


değerlerini kullanmaktadırlar.

38
import numpy as np
import matplotlib.pyplot as plt
import seaborn as sns
import pandas as pd
from sklearn.model_selection import train_test_split
from sklearn.linear_model import LinearRegression
from sklearn.metrics import mean_squared_error
from sklearn.ensemble import GradientBoostingRegresso
df =
pd.read_csv('data/main/turkey_earthquake_1915_to_2023_over_4.5mw.cs
v')

Şekil 1. Aylara Göre Deprem Yoğunluğu

Şekil 1’deki değerler, matplotlib kütüphanesi kullanılarak görselleştirilmiştir.

Burada görüldüğü üzere belirli bir ayda deprem faaliyetlerinin çok fazla
olduğunu söylemek çok zor. En çok deprem mayıs ayında gerçekleşmiş onu takip eden
ay ise şubat ayı gelmekte. Sadece bu grafiğe bakarak aralarında bir ilişki kurulması pek
olası değildir. En az deprem faaliyeti gerçekleşen aylar ise ekim ve kasım ayları. Farklı
grafikler ile bu bilgileri birleştirerek yorum yapmak daha doğru olur.

39
Grafiğin python kodu aşağıdaki gibidir;

df =
pd.read_csv('main/turkey_earthquake_1915_to_2023_over_4.5mw.csv')
df['ay'] = df['Olus tarihi'].dt.month
monthly_quakes = df.groupby('ay').size()
monthly_quakes.plot(kind='bar', title='Aylara Göre Deprem Sayısı')

Şekil 2. Enlem Boylama Göre Deprem Yoğunluğu

Şekil 2’deki değerler, seaborn kütüphanesi kullanılarak görselleştirilmiştir.

Burada görüldüğü üzere enlem ve boylam’a göre yoğunluk alındığı zaman kara
sınırında ege bölgesi üzerinde faaliyetlerin daha fazla olduğu görülüyor. Türkiye 3 tarafı
denizlerle çevrili bir yarım ada olması sebebiyle tek fay faaliyetleri karalarda değil.

Denizlerde de benzer faaliyetler gerçekleşmektedir. Bu gerçekleşen faaliyetler


anlamlı sarsıntılar oluşturuyor. Yukarıdaki grafikte akdeniz ve ege denizinde de
yoğunluklu olarak depremlerin gerçekleştiğini gösteriyor. Fakat mw değerlerine
bakılacak olursa deprem sayısı çok fazla olmasına rağmen şiddet olarak çok yüksek
depremler yaratmıyor. Burada şiddet hasar ve ölüm sayısı ile doğru orantılı olduğundan
deprem sayısına oranla yıkım ve hasar oranı biraz düşük gibi duruyor.

40
Grafiğin python kodu aşağıdaki gibidir;

plt.figure(figsize=(10, 6))
sns.scatterplot(x=df['Boylam'], y=df['Enlem'], hue=df['Mw'],
palette='viridis')
plt.show()

Şekil 3. Coğrafi Bölgelere Göre Deprem Yoğunluğu

Şekil 3’deki değerler, seaborn kütüphanesi kullanılarak görselleştirilmiştir.

Burada görüldüğü üzere kırmızı renk ile ifade edilen yer olan Ege Bölgesi
deprem yoğunluğunun fazla olduğu yer olarak görülüyor. Tablo 2’de de ifade ettiğimiz
gibi kara olarak en yoğun deprem faaliyetlerinin görüldüğü yer ege bölgesi. Fakat yeşil
olarak renklendirilen ve 35-36 enlem aralığındaki 27-29 boylam aralığındaki yerde de
yoğun bir faaliyet söz konusu. Burası Türkiye kara sınırları içerisinde değil fakat
Akdeniz’in batısı ve ege denizinin biraz güney tarafında kalan bölge. Deniz içerisinde yer
alan bu bölge deprem yoğunluğu olarak fazlaca görünüyor.

Mavi renkle renklendirilen bölge ise doğu Anadolu bölgesi gözlemlediğimiz


üzere burada da deprem yoğunluğunun azımsanmayacak seviye de olduğu görülüyor. Ege
bölgesi kadar sık deprem faaliyetine maruz kalmasa bile yer yer yüksek şiddetli deprem
görülen bir bölgedir.

41
Sonuç olarak Türkiye ve çevresinde deprem faaliyetlerinin en çok ege bölgesi
ve Akdeniz üzerinde yoğunlaştığı görülüyor. Ayrıca iç Anadolu bölgesi de deprem
faaliyetlerinden en az etkilenen bölgemiz.

Grafiğin python kodu aşağıdaki gibidir;

def assign_region(lat, lon):


if 40.85 <= lat <= 41.44 and 26.22 <= lon <= 29.98:
return 'Marmara'
elif 35.80 <= lat <= 39.91 and 25.00 <= lon <= 29.25:
return 'Ege'
elif 35.80 <= lat <= 37.29 and 29.25 <= lon <= 36.40:
return 'Akdeniz'
elif 38.96 <= lat <= 40.38 and 31.02 <= lon <= 34.50:
return 'İç Anadolu'
elif 40.89 <= lat <= 42.11 and 31.57 <= lon <= 41.55:
return 'Karadeniz'
elif 38.51 <= lat <= 42.11 and 36.87 <= lon <= 44.58:
return 'Doğu Anadolu'
elif 36.95 <= lat <= 38.95 and 37.46 <= lon <= 42.80:
return 'Güneydoğu Anadolu'
else:
return 'Diğer'

df['bölge'] = df.apply(lambda row: assign_region(row['Enlem'],


row['Boylam']), axis=1)

plt.figure(figsize=(10, 6))
sns.scatterplot(x=df['Boylam'], y=df['Enlem'], hue=df['bölge'])
plt.show()

42
Şekil 4. 5 ve Üzeri Büyüklükteki Depremlerin Zaman Dilimlerine Göre Dağılımı

Şekil 4’deki değerler, matplotlib kütüphanesi kullanılarak görselleştirilmiştir.

Burada görüldüğü üzere gün içerisindeki 24 saatlik zamanı 4’er saatlik 6 farklı
zaman dilimi ile ifade ettik. Bu grafikte 4.5mw üzeri depremlerin genelde hangi saat
aralıklarında olduklarını tespit eden bir analiz yaptık. Görüldüğü üzere gece 12-4 arası
deprem faaliyetlerinin en çok olduğu zaman dilimi. En az faaliyet görülen zaman dilimi
ise 20 ile 24 saatleri arasında. Bu grafiği daha anlamlı hale getirmek için bir de yıkım ve
ölüme sebep olan depremleri filtreleyip o depremleri zaman dilimlerine ayırıp aradaki
ilişkiyi yorumlayalım.

Grafiğin python kodu aşağıdaki gibidir;

# Öncelikle 'Olus zamani' sütununu saat ve dakika formatına


dönüştürelim.
df['saat'] = df['Olus zamani'].apply(lambda x: x.hour)

# Saatler için alt/üst limitleri belirleyelim.


bins = [0, 4, 8, 12, 16, 20, 24]

# Bu limitlere karşılık gelecek zaman dilimlerini isimlendirelim.


labels = ['Gece 12-4', 'Sabah 4-8', 'Sabah 8-12', 'Öğle 12-16',
'İkindi 16-20', 'Gece 20-24']

# 'saat' sütunu üzerinde belirlediğimiz dilimlere göre bölme işlemi


yapalım.

43
df['zaman_dilimi'] = pd.cut(df['saat'], bins=bins, labels=labels,
include_lowest=True)

# 5 ve üzeri depremleri filtreleyelim.


df_strong = df[df['Mw'] >= 4.5]

# Zaman dilimlerine göre deprem sayılarını hesaplayalım.


period_counts = df_strong['zaman_dilimi'].value_counts()

# Bu bilgiyi bir bar grafiği ile gösterelim.


period_counts.plot(kind='bar', figsize=(12,6), title='Zaman
Dilimlerine Göre Mw 4.5 ve Üzeri Deprem Sayısı')

Şekil 5. Yıkım ve Ölüme Sebep Olan Depremlerin Dağılımları

Şekil 5’deki değerler, matplotlib kütüphanesi kullanılarak görselleştirilmiştir.

Burada görüldüğü gibi yıkım ve ölüme sebep olan depremler içinde en çok gece
12 ile 4 arası olmuştur diyebiliriz. Gece saatlerinde çok fazla deprem faaliyeti olmasının
nedenini bir şeye bağlamak çok güç. Fakat deprem şiddetine bağlı olarak ölüm sayısının
artmış olması grafikte görüleceği üzere beklenen bir şeydir.

44
Grafiğin python kodu aşağıdaki gibidir;

# Öncelikle 'Olus zamani' sütununu saat ve dakika formatına


dönüştürelim.
df['saat'] = df['Olus zamani'].apply(lambda x: x.hour)

# Saatler için alt/üst limitleri belirleyelim.


bins = [0, 4, 8, 12, 16, 20, 24]

# Bu limitlere karşılık gelecek zaman dilimlerini isimlendirelim.


labels = ['Gece 12-4', 'Sabah 4-8', 'Sabah 8-12', 'Öğle 12-16',
'İkindi 16-20', 'Gece 20-24']

# 'saat' sütunu üzerinde belirlediğimiz dilimlere göre bölme işlemi


yapalım.
df['zaman_dilimi'] = pd.cut(df['saat'], bins=bins, labels=labels,
include_lowest=True)

# Yıkım olan depremler.


df_strong = df[(df['Kayıp'] > 0) | (df['Hasarlı Bina'] > 0)].copy()

# Zaman dilimlerine göre deprem sayılarını hesaplayalım.


period_counts = df_strong['zaman_dilimi'].value_counts()

# Bu bilgiyi bir bar grafiği ile gösterelim.


period_counts.plot(kind='bar', figsize=(12,6), title='Yıkım ve
Ölüme Sebep Olan Depremlerin Dağılımı')

45
Şekil 6. Mevsimlere Göre Deprem Dağılımı

Şekil 6’daki değerler, matplotlib kütüphanesi kullanılarak görselleştirilmiştir.

Burada görüldüğü üzere veri setimizde depremleri oluştuğu tarihe göre hangi
mevsimlerde gerçekleşmiş gruplayarak görselleştirdik. En çok deprem faaliyeti ilkbahar
aylarında gerçekleşmiş. Diğer aylara göre neredeyse %20 lik bir fazla deprem faaliyeti
gerçekleştiği görülüyor. En az deprem faaliyetlerinin gerçekleştiği mevsim ise Sonbahar.
Bunu Grafik 1. De 10. ve 11. Aylarda depremin en az faaliyet gösterdiği aylar olarakta
belirtmiştik. Şuan için bu grafikte tutarlı görünüyor.

Tabiki İlkbahar mevsiminin depremlerin yıkım veya ölüm üzerine bir etkisi var
mı yoksa çok daha küçük büyüklükte depremler mi yoğunlukta bunu analiz edebilmek
için yıkım ve ölüm içeren depremlerin mevsimlere göre dağılımına bakmalıyız.

46
Grafiğin python kodu aşağıdaki gibidir;

# Depremlerin olduğu mevsimi belirleyelim.


df['mevsim'] = df['Olus tarihi'].dt.month%12 // 3 + 1
seasons = {1: 'Kış', 2: 'İlkbahar', 3: 'Yaz', 4: 'Sonbahar'}
df['mevsim'] = df['mevsim'].map(seasons)

# Mevsime göre deprem sayılarını hesaplayalım.


season_counts = df['mevsim'].value_counts()

# Bu bilgiyi bir bar grafiği ile gösterelim.


season_counts.plot(kind='bar', title='4.5 Mw üzeri Depremlerin
Mevsimlere Göre Dağılımı')

Şekil 7. Mevsimlere Göre Kayıp veya Hasarlı Bina Sayısı

Şekil 7’deki değerler, matplotlib kütüphanesi kullanılarak görselleştirilmiştir.

Burada Çizelge 6. ‘dan farklı olarak yıkım ve ölüm içeren depremler


filtrelenmiştir. Ve bu filtrelenen depremlerin mevsimlere göre dağılımları alınmıştır. Bu
grafikte de İlkbahar aylarında en çok yıkım ve ölüm olan depremlerin olduğu görülüyor.

Her ne kadar çok deprem faaliyeti gerçekleşse de olşada depremlerin


büyüklüğününde ve yıkım etkisinin de fazla olduğu gözlemlenmiştir. Sonbahar ayında
çok az deprem faaliyeti gerçekleştiğini Çizelge 6. ‘da gözlemlemiştik. Fakat yıkım ve
ölüme sebep olan depremleri incelediğimizde Sonbahar aylarında bir artış olduğu

47
görülüyor. Bu da demek oluyor ki Sonbahar aylarında deprem faaliyetleri az olmasına
rağmen oluşan depremlerin şiddeti ve yıkıma etkisi fazla.

Grafiğin python kodu aşağıdaki gibidir;

# Kayıp veya Hasarlı Bina değeri 0'dan yüksek olan verileri


filtreleyelim.
df_damage = df[(df['Kayıp'] > 0) | (df['Hasarlı Bina'] > 0)].copy()

# Tarihi mevsimlere dönüştürme


df_damage['mevsim'] = df_damage['Olus tarihi'].dt.month%12 // 3 + 1
seasons = {1: 'Kış', 2: 'İlkbahar', 3: 'Yaz', 4: 'Sonbahar'}
df_damage['mevsim'] = df_damage['mevsim'].map(seasons)

# Mevsimlere göre hasarlı bina ve kayıp sayılarını hesaplayalım.


season_counts = df_damage['mevsim'].value_counts()

# Bu bilgiyi bir bar grafiği ile gösterelim.


season_counts.plot(kind='bar', figsize=(12,6), title='Mevsimlere
Göre Kayıp veya Hasarlı Bina Sayısı')

Şekil 8. Top 10 En sık Deprem Olan Lokasyonlar

Şekil 8’deki değerler, matplotlib kütüphanesi kullanılarak görselleştirilmiştir.

Burada görüldüğü üzere en sık görülen deprem bölgeleri top 10 şeklinde


listelenmiştir. Akdeniz’in en çok deprem gerçekleşen yer olduğu açıkça görülüyor. Daha
önceki Görsellerde de bu Akdeniz tarafında deprem faaliyetlerinin fazla olduğundan
bahsedilmiştir.

48
Grafiğin python kodu aşağıdaki gibidir;

import plotly.express as px

Yer_count =
df.groupby(pd.Grouper(key='Yer')).size().reset_index(name='count')
Yer_count_top = Yer_count.nlargest(10, 'count')[['Yer', 'count']]
fig = px.bar(Yer_count_top, x='Yer', y='count', color='Yer',
text='count')
fig.update_layout(title_text='Top 10 En Sık Deprem Olan
Lokasyonlar',
title_x=0.5, title_font=dict(size=30))
fig.update_traces(texttemplate='%{text:.2s}',
textposition='outside')
fig.show()

Şekil 9. Depremlerin Yıllara Göre Dağılımı

Şekil 9’deki değerler, plotly kütüphanesi kullanılarak görselleştirilmiştir.

Burada görüldüğü üzere depremlerin yıllara göre dağımları gösterilmiştir. En


fazla deprem faaliyeti 136 deprem ile 1970 yılında gerçekleşmiş görülüyor.

Burada 4.5 üzeri depremler olmasına rağmen deprem sayısı oldukça fazla. Mart
ayında Gediz(Kütahya) Merkezli 7.2 büyüklüğünde ki deprem çok fazla artçıya sebep
olmuş görülüyor. Aynı şekilde 2023 yılının şubat ayında gerçekleşen Kahramanmaraş
merkezli deprem sebebiyle 116 deprem ile en çok 4.5mw üzeri deprem faaliyeti olan yıl
2023 olduğu görülüyor.

Yine 1970 yılının artçıları olabilecek olan 1971 yılında olan 115 deprem ise 3.
En fazla deprem faaliyeti gerçekleşen yıl. Büyük fay kırılımlarına sebep olan depremlerin
artçıları 1 sene sonra da devam etmiş gibi görünüyor. Tabi ki bunların sadece büyük

49
depremlerin artçıları olduğunu söylemek için daha fazla araştırma ve veriye ihtiyacımız
var. Şuan için bu yorumu istatiksel verilere dayanarak yapıyoruz.

Grafiğin python kodu aşağıdaki gibidir;

df['Olus tarihi'] = pd.to_datetime(df['Olus tarihi'])


y = df['Olus tarihi'].value_counts()
y = y.resample('Y').sum().to_frame()
fig = px.line(y, x=y.index, y='Olus tarihi', text='Olus tarihi',
labels={
"index": "Yıl",
"Olus tarihi": "Deprem Sayısı"
})
fig.update_traces(marker=dict(line=dict(color='#000000', width=2)))
fig.update_traces(textposition='top center')
fig.update_layout(title_text='Depremlerin Yıllara Göre Dağılımı',
title_x=0.5, title_font=dict(size=30))
fig.show()

Şekil 10. En Fazla Yıkım Olan 10 Deprem

50
Şekil 10’deki değerler, plotly kütüphanesi kullanılarak görselleştirilmiştir.

Yukarıdaki grafikte Türkiye’de gerçekleşmiş en çok yıkıma sebep olan 10


deprem görülüyor. 2023 yılındaki Kahramanmaraş ve Gaziantep merkezli depremler art
arda gerçekleştiği için ayrı ayrı yıkım rakamları belirtilmemiştir.

Daha sonra gelen Erzincan ve Kocaeli depremleri de en çok yıkım yaratan


2. Ve 3. Depremlerdir.

Grafiğin python kodu aşağıdaki gibidir;

# Hasara göre en yüksek 10 depremi seçelim.


top_damage = df.nlargest(10, 'Hasarlı Bina')

# Yıkım miktarını gösteren bir bar plot oluşturalım.


top_damage.plot(x='Yer', y='Hasarlı Bina', kind='bar', title='En
Fazla Yıkım Olan 10 Deprem', figsize=(12,6))
plt.xlabel('Yer')
plt.ylabel('Yıkım Miktarı')
plt.show()

Şekil 11. Depremlerin Derinlik ve Büyüklük Dağılımı

51
Şekil 11’deki değerler, seaborn kütüphanesi kullanılarak görselleştirilmiştir.

Yukarıdaki grafikte Derinlik ve Deprem şiddeti arasında bir karşılaştırma


yapılmıştır. En yoğun deprem aktivitesi 0-25 km arasında olduğu görülüyor.

Şekil 12. Yıkım ve Ölüm Olan Depremlerin Derinlik ve Büyüklük Dağılımı

En çok yıkıma sebep olan depremlerin ise 0-40 km derinlik arasında


gerçekleştiğini görüyoruz. Buradan derinliğin yıkım etkisi üzerinde önemli bir şey olduğu
kanısına varıyoruz.

52
Grafiğin python kodu aşağıdaki gibidir;

filtered_df = df[(df['Hasarlı Bina'] > 0) | (df['Kayıp'] > 0)]


sns.jointplot(x='Derinlik', y='Mw', data=filtered_df,
kind='scatter', joint_kws={'alpha':0.5})
plt.show()

Şekil 13. Korelasyon Matrisi

Şekil 13’deki değerler, seaborn kütüphanesi kullanılarak görselleştirilmiştir.

Yukarıdaki grafikte bir korelasyon matrisi oluşturulmuştur. Korelasyon matrisi,


veri setindeki farklı özellikler arasındaki doğrusal ilişkileri ölçer. Korelasyon katsayısı -
1 ile 1 arasında değişir.

1'e yakın bir korelasyon katsayısı, iki özelliğin birlikte arttığını veya azaldığını
(yani pozitif bir doğrusal ilişki olduğunu) gösterir.

-1'e yakın bir korelasyon katsayısı, bir özelliğin arttığı zaman diğerinin
azaldığını (yani negatif bir doğrusal ilişki olduğunu) gösterir.

53
0'a yakın bir korelasyon katsayısı, iki özelliğin arasında güçlü bir doğrusal
ilişkinin olmadığını gösterir.

Bu korelasyon matrisine göre:

'Mw' (Deprem büyüklüğü) ile 'Hasarlı Bina' ve 'Kayıp' arasında pozitif bir
korelasyon vardır. Bu, deprem büyüklüğünün artmasıyla beraber daha fazla hasarlı bina
ve kayıp sayısının beklenebileceğini gösterir. Ancak korelasyon değerleri tam 1 değil, bu
yüzden diğer faktörlerin de bu sonuçları etkilemiş olabilir.

'Derinlik' ile 'Hasarlı Bina' ve 'Kayıp' arasında neredeyse hiçbir korelasyon


yoktur (korelasyon değerleri 0'a yakın). Bu, depremin derinliğinin hasarlı bina ve kayıp
sayısını doğrudan etkilemediğini gösterir.

Ancak, unutulmamalıdır ki korelasyon nedensellik göstermez. İki değişken


arasında korelasyon olması, birinin diğerini neden olduğunu göstermez. Ayrıca,
korelasyon sadece doğrusal ilişkileri yakalar ve doğrusal olmayan ilişkileri göz ardı eder.
Verilerin karmaşık yapıları ve gizli etkileşimleri bu korelasyon matrisinde göz ardı
edilmiştir. Örneğin, belirli bir derinlik ve büyüklüğe sahip depremlerin belirli bölgelerde
daha fazla hasara neden olabileceği gibi etkileşimler.

Sonuç olarak kayıp ile hasarlı bina arasında ciddi bir ilişki vardır. Aynı
zamanda depremin büyüklüğünün de hasarlı bina ve kayıp arasında kayda değer bir
ilişkisi olduğunu söyleyebiliriz.

54
Grafiğin python kodu aşağıdaki gibidir;

# İlgilendiğimiz sütunları seçelim.


data = df[['Derinlik', 'Mw', 'Kayıp', 'Hasarlı Bina']]

# Korelasyon matrisini hesaplayalım.


corr = data.corr()

# Korelasyon matrisini ısı haritası (heatmap) olarak çizdirelim.


sns.heatmap(corr, annot=True, cmap='coolwarm')
plt.show()

Şekil 14. Yıllara Göre Ortalama Deprem Büyüklüğü ve Derinliği

Şekil 14’deki değerler, matplotlib kütüphanesi kullanılarak görselleştirilmiştir.

Yukarıdaki grafik, yıllara göre ortalama deprem büyüklüğü ve derinliği


trendlerini göstermektedir. Her iki özelliğin de zamanla nasıl değiştiğini görmek için
kullanılabilir. Ancak, çıkarılacak özel sonuçlar, veri setindeki belirli zaman dilimine,
coğrafi bölgeye ve diğer faktörlere bağlıdır.

Örneğin, eğer büyüklük veya derinlikte belirgin bir artış veya azalış trendi
görebilirsek, bu, belirli bir zaman diliminde deprem aktivitesinin yoğunlaştığı veya
azaldığı anlamına gelebilir. Buradaki görselde böyle bir trende rastlamıyoruz.

Öte yandan, önemli bir nokta, bu tür bir analizin rastgele deprem olaylarının
doğasını tam olarak yansıtmayabileceğidir. Depremler rastgele ve öngörülemeyen

55
olaylardır, bu yüzden geçmiş trendlerin gelecekteki deprem aktivitesi hakkında kesin
tahminlerde bulunmamızı sağlamazlar.

Ayrıca, belirli bir derinlik veya büyüklükteki depremlerin sayısının zamanla


nasıl değiştiğini gösteren histogramlar veya diğer görselleştirmeler de yararlı olabilir. Bu,
belirli büyüklükteki veya derinlikteki depremlerin ne kadar yaygın olduğunu daha iyi
anlamamızı sağlar.

Son olarak, bu tür bir analiz genellikle daha karmaşık jeolojik ve sismolojik
çalışmalarla birlikte kullanılır. Bir bölgedeki deprem riskini anlamak için deprem
büyüklüğü ve derinliği dışında da birçok faktör dikkate alınmalıdır.

Grafiğin python kodu aşağıdaki gibidir;

# Yıl bazında gruplama


grouped_df = df.resample('Y', on='Olus tarihi').mean()

# Plot oluşturma
fig, ax1 = plt.subplots(figsize=(10, 6))

# Deprem büyüklüğü için çizgi grafiği


color = 'tab:blue'
ax1.set_xlabel('Yıl')
ax1.set_ylabel('Büyüklük (Mw)', color=color)
ax1.plot(grouped_df.index, grouped_df['Mw'], color=color)
ax1.tick_params(axis='y', labelcolor=color)

# İkinci y ekseni için ayarları oluşturma


ax2 = ax1.twinx()
color = 'tab:red'

# Derinlik için çizgi grafiği


ax2.set_ylabel('Derinlik (km)', color=color)
ax2.plot(grouped_df.index, grouped_df['Derinlik'], color=color)
ax2.tick_params(axis='y', labelcolor=color)

# Daha okunaklı bir x ekseni için formatı ayarlama


fig.autofmt_xdate()

# Grid çizgilerini ekleyelim.


ax1.grid(True)

plt.title('Yıllara Göre Ortalama Deprem Büyüklüğü ve Derinliği')


plt.tight_layout() # Aksi takdirde sağ y etiketinin bir kısmı
görünmeyebilir
plt.show()

56
3.1.2. Makine Öğrenmesi Analiz

Bu bölümde makine öğrenmesi algoritmaları kullanılarak derinlik ve şiddetin


hasarlı bina ve ölüm üzerine etkileri incelenmiştir. Sonuçlar MSE, RMSE ve MAE metrik
şekilde verilmiştir. MSE, RMSE ve MAE, makine öğrenmesi ve istatistiksel modelleme
alanlarında yaygın olarak kullanılan hata metrikleridir. Bu metriklerin her biri, tahmin
edilen değerler ve gerçek değerler arasındaki farkı ölçer (Hyndman & Koehler, 2006).

MSE (Mean Squared Error): Ortalama Kare Hatası olarak da bilinir. MSE,
tahmin edilen değerler ile gerçek değerler arasındaki farkların karelerinin ortalamasıdır.
MSE, hataların karelerini aldığı için büyük hataların etkisini daha çok vurgular.
Matematiksel ifadesi şöyledir: MSE = 1/n * Σ(actual - prediction)^2 (Hyndman &
Koehler, 2006).

RMSE (Root Mean Squared Error): Kök Ortalama Kare Hatası olarak da
bilinir. MSE'nin karekökünü alarak elde edilir. RMSE, hataların ölçeğini, hedef
değişkenin ölçeğiyle aynı birimlere getirir, bu da onu yorumlamayı kolaylaştırır.
Matematiksel ifadesi şöyledir: RMSE = √MSE (Hyndman & Koehler, 2006).

MAE (Mean Absolute Error): Ortalama Mutlak Hata olarak da bilinir. MAE,
tahmin edilen değerler ile gerçek değerler arasındaki mutlak farkların ortalamasıdır.
MAE, hataların büyüklüğünü ağırlıksız ve doğrudan bir şekilde ölçer. MSE ve RMSE'den
farklı olarak, MAE büyük hataların etkisini karelemez. Matematiksel ifadesi şöyledir:
MAE = 1/n * Σ|actual - prediction| (Hyndman & Koehler, 2006).

Bu metriklerin tümü, daha düşük değerlerin daha iyi bir model performansını
gösterdiği sürekli hedef değişkenler için kullanılır.

57
3.1.2.1. Derinlik ve Şiddetin Hasarlı Bina Üzerine Etkilerinin İncelenmesi

Lineer Regression:

from sklearn.metrics import mean_absolute_error


from sklearn.metrics import mean_squared_error
import numpy as np

# Hedef değişken ve özellikler


X = df[['Derinlik', 'Mw']]
y = df['Hasarlı Bina']

# Veriyi eğitim ve test setlerine böl


X_train, X_test, y_train, y_test = train_test_split(X, y,
test_size=0.2, random_state=42)

# Bir regresyon modeli oluştur


reg = LinearRegression()

# Modeli eğit
reg.fit(X_train, y_train)

# Tahminleri elde et
predictions = reg.predict(X_test)

# Modelin performansını değerlendir


mse = mean_squared_error(y_test, predictions)
print("MSE: ", mse)

# RMSE'nin hesaplanması
rmse = np.sqrt(mean_squared_error(y_test, predictions))
print("RMSE: ", rmse)

# MAE'nin hesaplanması
mae = mean_absolute_error(y_test, predictions)
print("MAE: ", mae)

Yukarıda python kodu verilen Lineer Regresyon işleminin çıktısı şu şekildedir;

MSE: 32803067.680171266

RMSE: 5727.39623914491

MAE: 1758.2534384564806

58
Görüldüğü üzere MSE değeri baya yüksek buda demek oluyor ki modelimizin
hata payı biraz yüksek. RMSE değerimiz ise tahminlerimizin 5727 birim şekilde yanılma
payı olduğunu söylüyor buda yüksek bir değer. Depremler deprem zamanı, yer, zemin,
şiddet veya yapı birimlerinin dayanıklılıkları gibi parametrelere de bağımlı oldukları için
lineer regresyon tam olarak kesin tahmin yapmada yeterli olmuyor.

Rastgele Orman Regresyonu:

from sklearn.ensemble import RandomForestRegressor

# Hedef ve özellikleri belirle


X = df[['Derinlik', 'Mw']]
y = df['Hasarlı Bina']

# Veriyi eğitim ve test setlerine ayır


X_train, X_test, y_train, y_test = train_test_split(X, y,
test_size=0.2, random_state=42)

# Modeli oluştur ve eğit


model = RandomForestRegressor(n_estimators=100, random_state=42)
model.fit(X_train, y_train)

# Tahminler yap
predictions = model.predict(X_test)

# Hata metriklerini hesapla


mse = mean_squared_error(y_test, predictions)
rmse = np.sqrt(mse)
mae = mean_absolute_error(y_test, predictions)

print("MSE: ", mse)


print("RMSE: ", rmse)
print("MAE: ", mae)

Yukarıda python kodu verilen Rastgele Orman Regresyon işleminin çıktısı şu


şekildedir;

MSE: 6643892.734698474

RMSE: 2577.574971693059

MAE: 364.953591699939

59
Görüldüğü üzere MSE değeri baya yüksek buda demek oluyor ki modelimizin
hata payı biraz yüksek. RMSE değerimiz ise tahminlerimizin 2577 birim şekilde yanılma
payı olduğunu söylüyor buda yüksek bir değer. MAE değeri lineer regresyona kıyasla
daha az hatalı görünüyor. Modelimiz Rastgele Orman Regresyonuna daha tutarlı
tahminler yapabiliyor.

Gradyan Destekli Regresyon:

X = df[['Derinlik', 'Mw']]
y = df['Hasarlı Bina']

# Veriyi eğitim ve test setlerine ayır


X_train, X_test, y_train, y_test = train_test_split(X, y,
test_size=0.2, random_state=42)

# Modeli oluştur ve eğit


model = GradientBoostingRegressor(n_estimators=100,
random_state=42)
model.fit(X_train, y_train)

# Tahminler yap
predictions = model.predict(X_test)

# Hata metriklerini hesapla


mse = mean_squared_error(y_test, predictions)
rmse = np.sqrt(mse)
mae = mean_absolute_error(y_test, predictions)

print("MSE: ", mse)


print("RMSE: ", rmse)
print("MAE: ", mae)

Yukarıda python kodu verilen Gradyan Destekli Regresyon işleminin çıktısı şu


şekildedir;

MSE: 11889556.485871544

RMSE: 3448.123618125015

MAE: 464.89609974790716

Görüldüğü üzere Rastgele Orman Regresyonuna benzer sonuçlar aldık buda


modelimizin lineer regresyona göre yine daha iyi sonuç verdiğini fakat Rastgele Orman

60
Regresyonuna benzer sonuçlar aldığımızı gösteriyor. Zaten bu iki algoritma birbirlerine
benzer mantıklarla çalışır.

Support Vector Regression:

from sklearn.svm import SVR

X = df[['Derinlik', 'Mw']]
y = df['Hasarlı Bina']

# Veriyi eğitim ve test setlerine ayır


X_train, X_test, y_train, y_test = train_test_split(X, y,
test_size=0.2, random_state=42)

# Modeli oluştur ve eğit


model = SVR(kernel='rbf', C=1.0, epsilon=0.2)
model.fit(X_train, y_train)

# Tahminler yap
predictions = model.predict(X_test)

# Hata metriklerini hesapla


mse = mean_squared_error(y_test, predictions)
rmse = np.sqrt(mse)
mae = mean_absolute_error(y_test, predictions)

print("MSE: ", mse)


print("RMSE: ", rmse)
print("MAE: ", mae)

Yukarıda python kodu verilen Destekli Vektör Regresyon işleminin çıktısı şu


şekildedir;

MSE: 37578761.84573017

RMSE: 6130.151861555321

MAE: 453.3201759200736

61
Ridge Regression:

from sklearn.linear_model import Ridge

X = df[['Derinlik', 'Mw']]
y = df['Hasarlı Bina']

# Veriyi eğitim ve test setlerine ayır


X_train, X_test, y_train, y_test = train_test_split(X, y,
test_size=0.2, random_state=42)

# Modelin eğitilmesi
ridge = Ridge(alpha=1.0)
ridge.fit(X_train, y_train)

# Tahminlerin yapılması
y_pred = ridge.predict(X_test)

# Hata metriklerinin hesaplanması


mse = mean_squared_error(y_test, y_pred)
rmse = mse**0.5
mae = mean_absolute_error(y_test, y_pred)
print("MSE: ", mse)
print("RMSE: ", rmse)
print("MAE: ", mae)

Yukarıda python kodu verilen Ridge Regresyon işleminin çıktısı şu şekildedir;

MSE: 32803467.59033477

RMSE: 5727.43115107766

MAE: 1754.1560719410634

62
Lasso Regression:

from sklearn.linear_model import Lasso

X = df[['Derinlik', 'Mw']]
y = df['Hasarlı Bina']

# Veriyi eğitim ve test setlerine ayır


X_train, X_test, y_train, y_test = train_test_split(X, y,
test_size=0.2, random_state=42)

# Modelin eğitilmesi
lasso = Lasso(alpha=1.0)
lasso.fit(X_train, y_train)

# Tahminlerin yapılması
y_pred = lasso.predict(X_test)

# Hata metriklerinin hesaplanması


mse = mean_squared_error(y_test, y_pred)
rmse = mse**0.5
mae = mean_absolute_error(y_test, y_pred)
print("MSE: ", mse)
print("RMSE: ", rmse)
print("MAE: ", mae)

Yukarıda python kodu verilen Lasso Regresyon işleminin çıktısı şu şekildedir;

MSE: 32803206.785260618

RMSE: 5727.40838296525

MAE: 1756.6911806702753

63
ElasticNet Regression:

from sklearn.linear_model import ElasticNet

X = df[['Derinlik', 'Mw']]
y = df['Hasarlı Bina']

# Veriyi eğitim ve test setlerine ayır


X_train, X_test, y_train, y_test = train_test_split(X, y,
test_size=0.2, random_state=42)

# Modelin eğitilmesi
elasticnet = ElasticNet(alpha=1.0, l1_ratio=0.5)
elasticnet.fit(X_train, y_train)

# Tahminlerin yapılması
y_pred = elasticnet.predict(X_test)

# Hata metriklerinin hesaplanması


mse = mean_squared_error(y_test, y_pred)
rmse = mse**0.5
mae = mean_absolute_error(y_test, y_pred)
print("MSE: ", mse)
print("RMSE: ", rmse)
print("MAE: ", mae)

Yukarıda python kodu verilen ElasticNet Regresyon işleminin çıktısı şu


şekildedir;

MSE: 35030192.38070129

RMSE: 5918.630954933859

MAE: 891.642393232735

Support Vector Regression, Ridge Regression, Lasso Regression ve ElasticNet


Regression bu 4 tane makine öğrenme algoritması bizim veri setimiz için benzer sonuçlar
veriyor ama yine de hata payları çok yüksek. Lineer regresyona göre iyi sonuçlar veriyor
fakat Rastgele Orman Regresyonuna kıyasla tahminler daha hatalı görünüyor.

64
XGBoost Regression:

from xgboost import XGBRegressor

X = df[['Derinlik', 'Mw']]
y = df['Hasarlı Bina']

# Veriyi eğitim ve test setlerine ayır


X_train, X_test, y_train, y_test = train_test_split(X, y,
test_size=0.2, random_state=42)

# Modelin eğitilmesi
xgb = XGBRegressor(objective ='reg:squarederror')
xgb.fit(X_train, y_train)

# Tahminlerin yapılması
y_pred = xgb.predict(X_test)

# Hata metriklerinin hesaplanması


mse = mean_squared_error(y_test, y_pred)
rmse = mse**0.5
mae = mean_absolute_error(y_test, y_pred)
print("MSE: ", mse)
print("RMSE: ", rmse)
print("MAE: ", mae)

Yukarıda python kodu verilen XGBoost Regresyon işleminin çıktısı şu


şekildedir;

MSE: 8748091.484971365

RMSE: 2957.7172760376143

MAE: 406.6081627215368

65
LightGBM Regression:

from lightgbm import LGBMRegressor

X = df[['Derinlik', 'Mw']]
y = df['Hasarlı Bina']

# Veriyi eğitim ve test setlerine ayır


X_train, X_test, y_train, y_test = train_test_split(X, y,
test_size=0.2, random_state=42)

# Modelin eğitilmesi
lgbm = LGBMRegressor()
lgbm.fit(X_train, y_train)

# Tahminlerin yapılması
y_pred = lgbm.predict(X_test)

# Hata metriklerinin hesaplanması


mse = mean_squared_error(y_test, y_pred)
rmse = mse**0.5
mae = mean_absolute_error(y_test, y_pred)
print("MSE: ", mse)
print("RMSE: ", rmse)
print("MAE: ", mae)

Yukarıda python kodu verilen LightGBM Regresyon işleminin çıktısı şu


şekildedir;

MSE: 28852382.166996073

RMSE: 5371.441349116275

MAE: 716.3770797007198

66
CatBoost Regression:

from lightgbm import LGBMRegressor

X = df[['Derinlik', 'Mw']]
y = df['Hasarlı Bina']

# Veriyi eğitim ve test setlerine ayır


X_train, X_test, y_train, y_test = train_test_split(X, y,
test_size=0.2, random_state=42)

# Modelin eğitilmesi
lgbm = LGBMRegressor()
lgbm.fit(X_train, y_train)

# Tahminlerin yapılması
y_pred = lgbm.predict(X_test)

# Hata metriklerinin hesaplanması


mse = mean_squared_error(y_test, y_pred)
rmse = mse**0.5
mae = mean_absolute_error(y_test, y_pred)
print("MSE: ", mse)
print("RMSE: ", rmse)
print("MAE: ", mae)

Yukarıda python kodu verilen CatBoost Regresyon işleminin çıktısı şu


şekildedir;

MSE: 17788155.42077696

RMSE: 4217.60067108978

MAE: 499.54038841905975

GBoost, LightGBM ve CatBoost: Bunlar, gradient boosting algoritmasına


dayanan gelişmiş makine öğrenmesi algoritmalarıdır. Fakat gradient boosting’ten çok ta
farklı sonuçlar çıkmıyor.

67
3.1.2.2. Derinlik ve Şiddetin Ölüm Üzerine Etkilerinin İncelenmesi

Lineer Regression:

from sklearn.metrics import mean_absolute_error


from sklearn.metrics import mean_squared_error
import numpy as np

# Hedef değişken ve özellikler


X = df[['Derinlik', 'Mw']]
y = df['Kayıp']

# Veriyi eğitim ve test setlerine böl


X_train, X_test, y_train, y_test = train_test_split(X, y,
test_size=0.2, random_state=42)

# Bir regresyon modeli oluştur


reg = LinearRegression()

# Modeli eğit
reg.fit(X_train, y_train)

# Tahminleri elde et
predictions = reg.predict(X_test)

# Modelin performansını değerlendir


mse = mean_squared_error(y_test, predictions)
print("MSE: ", mse)

# RMSE'nin hesaplanması
rmse = np.sqrt(mean_squared_error(y_test, predictions))
print("RMSE: ", rmse)

# MAE'nin hesaplanması
mae = mean_absolute_error(y_test, predictions)
print("MAE: ", mae)

Yukarıda python kodu verilen Lineer Regresyon işleminin çıktısı şu şekildedir;

MSE: 2448549.440235167

RMSE: 1564.7841513241265

MAE: 418.71231729173167

68
Görüldüğü üzere burada da MSE değeri baya yüksek fakat ölüm sayıları hasarlı
binalara göre daha stabil bir artış gösterdiği için MSE değer hasarlı bina değişkeni eğitimi
kadar hatalı değil.

Rastgele Orman Regresyonu:

from sklearn.ensemble import RandomForestRegressor

# Hedef ve özellikleri belirle


X = df[['Derinlik', 'Mw']]
y = df['Kayıp']

# Veriyi eğitim ve test setlerine ayır


X_train, X_test, y_train, y_test = train_test_split(X, y,
test_size=0.2, random_state=42)

# Modeli oluştur ve eğit


model = RandomForestRegressor(n_estimators=100, random_state=42)
model.fit(X_train, y_train)

# Tahminler yap
predictions = model.predict(X_test)

# Hata metriklerini hesapla


mse = mean_squared_error(y_test, predictions)
rmse = np.sqrt(mse)
mae = mean_absolute_error(y_test, predictions)

print("MSE: ", mse)


print("RMSE: ", rmse)
print("MAE: ", mae)

Yukarıda python kodu verilen Rastgele Orman Regresyon işleminin çıktısı şu


şekildedir;

MSE: 369072.4145256453

RMSE: 607.5133039906577

MAE: 60.07756268120767

Hasarlı bina için yapılan Rastgele Orman Regresyonundaki gibi Ölüm sayısının
tahmini içinde Rasgele Orman Regresyonu daha verimli çıkıyor.

69
Gradyan Destekli Regresyon:

X = df[['Derinlik', 'Mw']]
y = df['Kayıp']

# Veriyi eğitim ve test setlerine ayır


X_train, X_test, y_train, y_test = train_test_split(X, y,
test_size=0.2, random_state=42)

# Modeli oluştur ve eğit


model = GradientBoostingRegressor(n_estimators=100,
random_state=42)
model.fit(X_train, y_train)

# Tahminler yap
predictions = model.predict(X_test)

# Hata metriklerini hesapla


mse = mean_squared_error(y_test, predictions)
rmse = np.sqrt(mse)
mae = mean_absolute_error(y_test, predictions)

print("MSE: ", mse)


print("RMSE: ", rmse)
print("MAE: ", mae)

Yukarıda python kodu verilen Gradyan Destekli Regresyon işleminin çıktısı şu


şekildedir;

MSE: 837979.5760876004

RMSE: 915.4122437938005

MAE: 75.2931736389155

Burada da Rastgele Orman Regresyonu ile benzer sonuçları görüyoruz.

70
Support Vector Regression:

from sklearn.svm import SVR

X = df[['Derinlik', 'Mw']]
y = df['Kayıp']

# Veriyi eğitim ve test setlerine ayır


X_train, X_test, y_train, y_test = train_test_split(X, y,
test_size=0.2, random_state=42)

# Modeli oluştur ve eğit


model = SVR(kernel='rbf', C=1.0, epsilon=0.2)
model.fit(X_train, y_train)

# Tahminler yap
predictions = model.predict(X_test)

# Hata metriklerini hesapla


mse = mean_squared_error(y_test, predictions)
rmse = np.sqrt(mse)
mae = mean_absolute_error(y_test, predictions)

print("MSE: ", mse)


print("RMSE: ", rmse)
print("MAE: ", mae)

Yukarıda python kodu verilen Destekli Vektör Regresyon işleminin çıktısı şu


şekildedir;

MSE: 2719058.6313192416

RMSE: 1648.9568312479382

MAE: 99.7545562441039

71
Ridge Regression:

from sklearn.linear_model import Ridge

X = df[['Derinlik', 'Mw']]
y = df['Kayıp']

# Veriyi eğitim ve test setlerine ayır


X_train, X_test, y_train, y_test = train_test_split(X, y,
test_size=0.2, random_state=42)

# Modelin eğitilmesi
ridge = Ridge(alpha=1.0)
ridge.fit(X_train, y_train)

# Tahminlerin yapılması
y_pred = ridge.predict(X_test)

# Hata metriklerinin hesaplanması


mse = mean_squared_error(y_test, y_pred)
rmse = mse**0.5
mae = mean_absolute_error(y_test, y_pred)
print("MSE: ", mse)
print("RMSE: ", rmse)
print("MAE: ", mae)

Yukarıda python kodu verilen Ridge Regresyon işleminin çıktısı şu şekildedir;

MSE: 2448626.9528793227

RMSE: 1564.8089189672082

MAE: 417.7835709227948

72
Lasso Regression:

from sklearn.linear_model import Lasso

X = df[['Derinlik', 'Mw']]
y = df['Kayıp']

# Veriyi eğitim ve test setlerine ayır


X_train, X_test, y_train, y_test = train_test_split(X, y,
test_size=0.2, random_state=42)

# Modelin eğitilmesi
lasso = Lasso(alpha=1.0)
lasso.fit(X_train, y_train)

# Tahminlerin yapılması
y_pred = lasso.predict(X_test)

# Hata metriklerinin hesaplanması


mse = mean_squared_error(y_test, y_pred)
rmse = mse**0.5
mae = mean_absolute_error(y_test, y_pred)
print("MSE: ", mse)
print("RMSE: ", rmse)
print("MAE: ", mae)

Yukarıda python kodu verilen Lasso Regresyon işleminin çıktısı şu şekildedir;

MSE: 2448676.486416817

RMSE: 1564.8247462309691

MAE: 417.1779488642151

73
ElasticNet Regression:

from sklearn.linear_model import ElasticNet

X = df[['Derinlik', 'Mw']]
y = df['Kayıp']

# Veriyi eğitim ve test setlerine ayır


X_train, X_test, y_train, y_test = train_test_split(X, y,
test_size=0.2, random_state=42)

# Modelin eğitilmesi
elasticnet = ElasticNet(alpha=1.0, l1_ratio=0.5)
elasticnet.fit(X_train, y_train)

# Tahminlerin yapılması
y_pred = elasticnet.predict(X_test)

# Hata metriklerinin hesaplanması


mse = mean_squared_error(y_test, y_pred)
rmse = mse**0.5
mae = mean_absolute_error(y_test, y_pred)
print("MSE: ", mse)
print("RMSE: ", rmse)
print("MAE: ", mae)

Yukarıda python kodu verilen ElasticNet Regresyon işleminin çıktısı şu


şekildedir;

MSE: 2581314.80062154

RMSE: 1606.647067847055

MAE: 209.17901144670495

Support Vector Regression, Ridge Regression, Lasso Regression ve ElasticNet


Regression bu 4 tane makine öğrenme algoritması da beklenildiği gibi Ölüm sayısını
tahmin etmede daha başarılı sonuçlar vermektedir. Fakat şuan için veri setimize çok
uygun görünmüyor.

74
XGBoost Regression:

from xgboost import XGBRegressor

X = df[['Derinlik', 'Mw']]
y = df['Kayıp']

# Veriyi eğitim ve test setlerine ayır


X_train, X_test, y_train, y_test = train_test_split(X, y,
test_size=0.2, random_state=42)

# Modelin eğitilmesi
xgb = XGBRegressor(objective ='reg:squarederror')
xgb.fit(X_train, y_train)

# Tahminlerin yapılması
y_pred = xgb.predict(X_test)

# Hata metriklerinin hesaplanması


mse = mean_squared_error(y_test, y_pred)
rmse = mse**0.5
mae = mean_absolute_error(y_test, y_pred)
print("MSE: ", mse)
print("RMSE: ", rmse)
print("MAE: ", mae)

Yukarıda python kodu verilen XGBoost Regresyon işleminin çıktısı şu


şekildedir;

MSE: 446155.40861458896

RMSE: 667.9486571695379

MAE: 60.46920845487993

75
LightGBM Regression:

from lightgbm import LGBMRegressor

X = df[['Derinlik', 'Mw']]
y = df['Kayıp']

# Veriyi eğitim ve test setlerine ayır


X_train, X_test, y_train, y_test = train_test_split(X, y,
test_size=0.2, random_state=42)

# Modelin eğitilmesi
lgbm = LGBMRegressor()
lgbm.fit(X_train, y_train)

# Tahminlerin yapılması
y_pred = lgbm.predict(X_test)

# Hata metriklerinin hesaplanması


mse = mean_squared_error(y_test, y_pred)
rmse = mse**0.5
mae = mean_absolute_error(y_test, y_pred)
print("MSE: ", mse)
print("RMSE: ", rmse)
print("MAE: ", mae)

Yukarıda python kodu verilen LightGBM Regresyon işleminin çıktısı şu


şekildedir;

MSE: 2262510.908515663

RMSE: 1504.164521758063

MAE: 159.32111248383197

76
CatBoost Regression:

from catboost import CatBoostRegressor

X = df[['Derinlik', 'Mw']]
y = df['Kayıp']

# Veriyi eğitim ve test setlerine ayır


X_train, X_test, y_train, y_test = train_test_split(X, y,
test_size=0.2, random_state=42)

# Modelin eğitilmesi
catb = CatBoostRegressor(verbose=0)
catb.fit(X_train, y_train)

# Tahminlerin yapılması
y_pred = catb.predict(X_test)

# Hata metriklerinin hesaplanması


mse = mean_squared_error(y_test, y_pred)
rmse = mse**0.5
mae = mean_absolute_error(y_test, y_pred)
print("MSE: ", mse)
print("RMSE: ", rmse)
print("MAE: ", mae)

Yukarıda python kodu verilen CatBoost Regresyon işleminin çıktısı şu


şekildedir;

MSE: 975361.8873336819

RMSE: 987.6041146804127

MAE: 76.65522382865346

GBoost, LightGBM ve CatBoost algoritmaları da Ölüm sayısı olarak daha stabil


sonuçlar verdiği görülmüştür. Fakat yine gradient boosting’ten çok ta farklı sonuçlar
çıkmıyor.

3.1.2.3. Derinlik ve Şiddetin Logaritmik Olarak Hasarlı Bina ve Ölüm


Üzerine Etkilerinin İncelenmesi

Genel olarak kullandığımız algoritmalar bizi çok iyi tahminler vermeye itmiyor.
Burada farklı bir yöntem denemek gerekiyor. Deprem büyüklüğü ve şiddeti lineer olarak
değil logaritmik olarak artıyor. Biz veri setimizde Mw değerimizi sanki lineer artıyormuş
77
gibi almaya çalıştık. Fakat Mw değeri lineer değil logaritmik olarak artar. Bu bilgileri göz
önünde bulundurarak şiddet değerimizi makine öğrenmesi algoritmalarına logaritmik
değer gözeterek tekrardan eğittiğimiz zaman sonuçlar çok daha stabil çıkmaktadır.

Lineer Regresyon:

# Log dönüşümü
df['Log_Hasarli_Bina'] = np.log1p(df['Hasarlı Bina'])
df['Log_Kayip'] = np.log1p(df['Kayıp'])

# Özellikler ve hedef değişkenleri belirle


X = df[['Mw', 'Derinlik']]
y_hasar = df['Log_Hasarli_Bina']
y_kayip = df['Log_Kayip']

# Eğitim ve test setlerine ayır


X_train, X_test, y_train_hasar, y_test_hasar = train_test_split(X,
y_hasar, test_size=0.2, random_state=42)
_, _, y_train_kayip, y_test_kayip = train_test_split(X, y_kayip,
test_size=0.2, random_state=42)

# Lineer Regresyon modeli oluştur ve eğit


lr_hasar = LinearRegression()
lr_hasar.fit(X_train, y_train_hasar)

lr_kayip = LinearRegression()
lr_kayip.fit(X_train, y_train_kayip)

# Tahminler yap ve hata hesapla


y_pred_hasar = lr_hasar.predict(X_test)
y_pred_kayip = lr_kayip.predict(X_test)

mse_hasar = mean_squared_error(y_test_hasar, y_pred_hasar)


mse_kayip = mean_squared_error(y_test_kayip, y_pred_kayip)

print(f"Hasarli Bina için Mean Squared Error: {mse_hasar}")


print(f"Kayip için Mean Squared Error: {mse_kayip}")

Hasarli Bina için Mean Squared Error: 1.6544081760225187

Kayip için Mean Squared Error: 0.7210487232106126

Sonuçlar diğer regresyon modeline göre çok ciddi şekilde iyi çıkmaktadır.
Bunun en temel sebebi şiddetin logaritmik olarak ele alınması. Öncelikle, hedef
değişkenlerin dağılımlarını normalleştirmek için logaritmik bir dönüşüm uyguluyoruz.

78
Bu, modelin iyileştirdi, çünkü birçok makine öğrenmesi algoritması normal dağılımlı
veriyle daha iyi çalışır.

Hasarlı Bina' ve 'Kayıp' hedef değişkenlerini ayrı ayrı tahmin etmek için iki ayrı
model oluşturuluyor. Her model, 'Mw' (Deprem Büyüklüğü) ve 'Derinlik' özellikleri
üzerinde eğitiliyor.

Böylelikle standart hesaplamalara göre daha tutarlı çıkıyor. Logaritmik dönüşüm


uygulamadan önceki modellerde Random Forest ve Gradient Boosting Regresyon
modelleri lineer modele göre çok daha iyi sonuçlar vermişti. Aşağıda onlarıda
dönüşümleri uygulanmış hali yer almaktadır.

79
Random Forest ve Gradient Boosting Regressor:

# Özellikler ve hedefler
features = ['Derinlik', 'Mw']
targets = ['Hasarlı Bina', 'Kayıp']

# Verileri özellikler ve hedefler olarak ayırın


X = df[features]
y = df[targets].apply(np.log1p) # Hedef değişkenlerin
logaritmasını al

# Veriyi eğitim ve test setlerine ayırın


X_train, X_test, y_train, y_test = train_test_split(X, y,
test_size=0.2, random_state=42)

# Modeller
models = [RandomForestRegressor(random_state=42),
GradientBoostingRegressor(random_state=42)]

for model in models:


# Modeli bir MultiOutputRegressor ile sarmalayın
multioutput_model = MultiOutputRegressor(model)

# Modeli eğit
multioutput_model.fit(X_train, y_train)

# Tahminler
y_pred = multioutput_model.predict(X_test)

# Hataları hesapla
mse_hasarli_bina = mean_squared_error(y_test['Hasarlı Bina'],
y_pred[:, 0])
mse_kayip = mean_squared_error(y_test['Kayıp'], y_pred[:, 1])

# Sonuçları yazdır
print(f"{model.__class__.__name__} için:")
print(f"Hasarli Bina için Mean Squared Error:
{mse_hasarli_bina}")
print(f"Kayip için Mean Squared Error: {mse_kayip}\n")

RandomForestRegressor için:

Hasarli Bina için Mean Squared Error: 1.3612341221588815

Kayip için Mean Squared Error: 0.4289687422924886

GradientBoostingRegressor için:

80
Hasarli Bina için Mean Squared Error: 1.0577339799853007

Kayip için Mean Squared Error: 0.3897050932123309

Sonuçlar beklenildiği gibi logaritmik dönüşüm uygulanan haliyle birlikte lineer


modele göre çok daha tutarlı çıkıyor. Hazırladığımız veri setine en uygun olan makine
öğrenme algoritması görüldüğü üzere Random Forest ve Gradient Boosting’tir.

81
SONUÇ

Bu tez çalışması, doğal afetlerin en yıkıcı olanlarından biri olan depremlerin


etkilerini ve hasarlarını incelemektedir. Depremler, yer kabuğunun derinliklerinde
meydana gelen ani enerji salınımı sonucu oluşur ve yüzeyde büyük bir yıkıma yol
açabilir. Bu yıkım, binaların hasar görmesine, insanların yaralanmasına ve hatta ölmesine
neden olabilir. Bu nedenle, deprem etkilerini daha iyi anlamak ve ölçmek, hem yerel hem
de global topluluklar için son derece önemlidir.

Deprem etkilerini ölçmek için çeşitli faktörler dikkate alınır. Bu faktörler


arasında depremin büyüklüğü (şiddet), odak derinliği, yerleşim yerlerine olan uzaklığı ve
yerleşim yerlerinin yapı kalitesi bulunur. Her ne kadar depremler tamamen öngörülemez
olsa da, bu faktörlerin depremin etkileri üzerindeki rolünü anlamak, risk değerlendirme
stratejilerini geliştirme ve zararları en aza indirme çabalarına yardımcı olabilir.

Bu çalışmada, deprem etkilerini ölçmek için gelişmiş analitik ve makine


öğrenmesi teknikleri kullanıldı. Ayrıca, bu teknikler, depremlerin etkileri üzerinde
derinlik ve büyüklük gibi belirli deprem parametrelerinin rolünü daha iyi anlamak için
kullanıldı. Ancak, bu analizlerin doğruluğu ve güvenilirliği, kullanılan veri setinin
kalitesine ve tamamlılığına bağlıdır. Bu çalışmada, sadece 150 depremin hasar ve ölüm
sayılarını içeren bir veri seti kullanıldı. Bu, analizlerin kapsamlılığını ve güvenilirliğini
sınırlayan bir faktördür.

Bu araştırmanın çıkarımlarını birkaç başlıkla toplayıp özetleyecek olursak şu


şekilde özetleyebiliriz.

Veri Setinin Doğruluğu: Her tür analiz için oldukça önemlidir ve bu tez
çalışması için de durum aynıdır. Veri setimizde, bir depremin çeşitli özelliklerini (deprem
kodu, oluş tarihi, oluş zamanı, enlem, boylam, derinlik ve büyüklük vb.) içeren 2000'e
yakın deprem kaydı bulunmaktadır. Ancak, bu kayıtların sadece 150'si hasarlı bina ve
ölüm sayısı bilgisi içerir. Bu durum, analiz yaparken ciddi bir kısıtlama oluşturmuştur.

Her ne kadar büyük bir veri seti olsa da, bu veri seti hasar ve ölüm bilgisi
açısından eksik olduğu için, analizlerimizde bu tür olayların gerçek etkilerini tam olarak
yansıtmayabilir. Bu nedenle, veri setinin doğruluğu ve tamamlığı konusundaki kaygılar,
tezimizin sonuçlarını etkileyebilir.

82
Ayrıca, veri setindeki eksiklikler makine öğrenmesi algoritmalarının
performansını da etkiler. Algoritmalar, eğitim setindeki bilgileri kullanarak öğrenir ve
tahminler yapar. Eğer eğitim verileri yetersiz veya eksik ise, algoritma da aynı şekilde
yanıltıcı tahminler yapabilir. Bu da ölüm ve bina hasarı tahminlerimizin doğruluğunu
olumsuz etkileyebilir.

Mevcut veri seti, özellikle daha önceki deprem olaylarına dayalı olarak
gelecekteki depremlerin etkilerini tahmin etmek için kullanıldığında, geçmiş depremlerin
etkileri üzerinde önemli bir rol oynayan çeşitli faktörlerin göz ardı edilmiş olabileceği
gerçeğine dayanır. Bunlar arasında yerleşim yerlerinin yapısı, binaların yapı kalitesi ve
depreme dayanıklılığı, bölgenin demografik özellikleri ve hatta bölgedeki sosyo-
ekonomik koşullar gibi faktörler bulunabilir.

Sonuç olarak, veri setinin doğruluğu ve eksiklikleri, analiz ve tahminlerimizin


güvenilirliği ve doğruluğu üzerinde önemli bir etkiye sahiptir.

Kullanılan Yapay Zeka Teknikleri: Bu araştırmada, deprem verilerini analiz


etmek ve hasarlı bina ve ölüm sayıları üzerindeki etkilerini tahmin etmek için çeşitli
yapay zeka ve makine öğrenmesi teknikleri kullanıldı.

Bu tekniklerin arasında Lineer Regresyon, Rastgele Orman Regresyonu,


Gradient Boosting Regressor, Support Vector Regression, Ridge Regression, Lasso
Regression, ElasticNet Regression, XGBoost, LightGBM ve CatBoost gibi popüler
regresyon modelleri bulunmaktadır.

Her biri farklı prensiplere dayanan bu algoritmalar, verilerimizi modellemek ve


tahminler yapmak için kullanıldı. Bunların bazıları basit lineer ilişkileri, bazıları ise daha
karmaşık ve doğrusal olmayan ilişkileri modellemek için tasarlanmıştır.

Her algoritma, verilerimizi kendi özgün yollarıyla analiz etmiş ve çıktıları MSE
(Mean Squared Error), RMSE (Root Mean Squared Error) ve MAE (Mean Absolute
Error) gibi metrikler kullanarak değerlendirildi. Bu metrikler, modelin gerçek değerlerle
ne kadar iyi uyuştuğunu ve tahmin hatalarının büyüklüğünü ölçmede yardımcı oldu.

Ancak, önemli olan nokta, makine öğrenmesi algoritmalarının veriler üzerinde


ne kadar iyi çalıştığı değil, bunların sonuçlarının ne kadar anlamlı ve yorumlanabilir
olduğudur. Yani, hangi algoritmanın en iyi performansı gösterdiğinden çok, hangi
83
algoritmanın en anlamlı sonuçları sunduğu önemlidir. Bu açıdan,bu araştırmada en uygun
sonuçları Gradient Boosting ve Random Forest algoritmaları sundu. Çünkü bu
algoritmalar, özellikle veri setimizdeki non-lineer ilişkileri modellemek konusunda daha
etkilidir ve bu yüzden depremlerin etkilerini tahmin etmek için daha uygun olduklarını
göstermiştir.

Ayrıca, veri setimizdeki eksiklikler ve sınırlamalar göz önüne alındığında, bu


algoritmaların sonuçlarını da dikkatli bir şekilde değerlendirmemiz ve yorumlamamız
gerekmektedir. Yani, makine öğrenmesi tekniklerinin etkinliği ve doğruluğu,
kullandığımız veri setinin kalitesine ve tamamlığına büyük ölçüde bağlıdır. Bu nedenle,
daha güvenilir ve doğru tahminler yapmak için daha tam ve kapsamlı bir veri setine
ihtiyaç vardır.

Deprem Tahmini: Deprem tahmini, bilim adamları ve araştırmacılar için büyük


zorluk olmaya devam ediyor. Depremler, dünyada meydana gelen en karmaşık ve tahmin
edilmesi zor doğa olaylarından biridir. Bunun nedeni, yer kabuğunun altında meydana
gelen süreçlerin karmaşıklığı ve bu süreçlerin verilerinin doğru bir şekilde toplamanın ve
analiz edilmesinin zorluğudur. Bu, depremleri doğru bir şekilde tahmin etmeyi zorlaştırır.

Bu araştırmada, depremlerin etkisini tahmin etmek için çeşitli makine öğrenimi


algoritmaları kullanıldı. Bu algoritmalar, veri setimizdeki deprem şiddeti, derinlik, hasarlı
binalar ve ölü sayıları gibi özellikleri kullanarak eğitildi ve tahminler yapmak için
kullanıldı. Ancak, bu algoritmaların tahminleri, mevcut verilerin kalitesine ve
eksiksizliğine bağlıdır. Bunula birlikte, eksik veya hatalı veriler, tahminlerin doğruluğunu
ve güvenilirliğini etkiler.

Ek olarak, bu algoritmalar genellikle geçmiş verilere dayalı tahminler yapar.


Yani, gelecekteki depremleri tahmin etmek için geçmiş depremlerden elde edilen verileri
kullanır. Ancak, depremler doğası gereği rastgeledir ve tahmin edilmesi zordur. Bu
nedenle, tarihsel verilerin gelecekteki depremleri doğru bir şekilde tahmin etmek için her
zaman yeterli olmayabileceğini not etmek önemlidir.

Bu nedenle, deprem tahmininde kullanılan makine öğrenimi tekniklerinin


sınırlamalarını ve zorluklarını anlamak önemlidir. Bu teknikler, depremlerin etkilerini
daha iyi anlamamıza ve tahmin etmemize yardımcı olabilir, ancak tahminlerin doğruluğu,
veri setlerinin kalitesine ve eksiksizliğine ve depremin karmaşıklığına bağlıdır.

84
Makine öğrenimi ve yapay zeka teknikleri deprem tahmininde umut verici
araçlar olabilir, ancak kullanımlarının sınırlamalarını ve zorluklarını anlamak ve bu
teknikleri etkili bir şekilde kullanmak için daha fazla araştırma ve geliştirmeye ihtiyaç
vardır.

Deprem Analizi için Grafik Kullanımı: Grafikler, karmaşık veri kümelerini


analiz etmek ve anlamak için son derece değerli araçlardır. Özellikle deprem analizinde,
hasarın yoğunluğu, deprem şiddeti, deprem derinliği gibi çeşitli değişkenler arasındaki
ilişkiyi ortaya koyabilmektedirler. Bu ilişkiler, depremlerden kaynaklanan hasar ve ölü
sayısı gibi sonuçları tahmin etmek için önemlidir.

Bu araştırmada, veri setindeki değişkenler arasındaki ilişkileri görselleştirmek


ve analiz etmek için çeşitli grafikler kullanıldı. Bunlar, çizgi grafikleri, dağılım grafikleri,
kutu grafikleri ve ısı haritaları gibi farklı grafik türlerini içeriyor. Her biri, değişkenler
arasındaki farklı türdeki ilişkileri görselleştirmek için kullanıldı.

Örneğin, ısı haritaları, değişkenler arasındaki korelasyonları göstermek için


kullanıldı. Bu, hangi değişkenlerin hasarlı bina sayısı ve ölü sayısı ile ilişkili olduğunu
belirlememize yardımcı oldu. Dağılım grafikleri, belirli değişkenlerin değerlerinin nasıl
dağıldığını göstermek için kullanıldı, bu da veri setindeki anomalileri veya örüntüleri
belirlemeye yardımcı oldu.

Grafiklerin kullanılmasının bir diğer önemli yararı da, veri setindeki potansiyel
sorunları veya eksiklikleri belirlemeye yardımcı olmasıdır. Örneğin, bir grafik, veri
setindeki eksik değerler veya aykırı değerler gibi potansiyel sorunları görselleştirebilir.
Bu, veri setinin kalitesini ve tahminlerin doğruluğunu etkileyebilecek potansiyel sorunları
belirlemede önemli rol oynadı.

Grafikler, deprem analizinde ve makine öğrenmesi modellerinin


oluşturulmasında ve değerlendirilmesinde önemli bir araçtır. Bunlar, veri setindeki
örüntüleri ve ilişkileri görselleştirmeye, potansiyel sorunları belirlemeye ve sonuçları
daha iyi anlamaya yardımcı olur. Bu nedenle, grafiklerin kullanılması, deprem analizi ve
tahmininde oldukça önemlidir.

Gruplaştırma ve Sınıflandırmanın Faydaları: Verilerin gruplandırılması ve


sınıflandırılması, geniş veri setlerinin daha iyi anlaşılmasını ve analiz edilmesini sağlar.

85
Bu, belirli örüntülerin ve ilişkilerin belirlenmesine yardımcı olabilir, bu da daha güçlü ve
daha doğru tahminler yapmamıza yardımcı olur. Bu araştırmada, verilerin
gruplandırılması ve sınıflandırılması, deprem hasarı ve ölüm sayısı üzerindeki çeşitli
faktörlerin etkisini anlamada kritik bir rol oynadı.

Gruplandırma, benzer özelliklere sahip veri öğelerinin bir araya getirilmesini


sağlar. Bu, hem verinin daha kolay anlaşılmasını sağlar, hem de analiz sırasında yüksek
boyutluluğun getirdiği zorlukları azaltabilir. Örneğin, belirli bir derinlik aralığındaki
depremleri gruplandırarak, bu depremlerin genel olarak daha fazla hasara mı yoksa daha
az hasara mı neden olduğunu daha kolay bir şekilde belirleyebiliriz. Aynı şekilde, belirli
bir şiddet aralığındaki depremleri gruplandırarak, bu depremlerin genel olarak daha fazla
ölüme mi yoksa daha az ölüme mi neden olduğunu anlamamızı sağlar.

Sınıflandırma, belirli bir hedef değişkeni tahmin etmek için veri öğelerini farklı
kategorilere ayırır. Bu, makine öğrenmesi modelleri tarafından tahmin edilecek hedef
değişkenin daha doğru bir şekilde tahmin edilmesine yardımcı olabilir. Örneğin, hasarlı
bina sayısını ve ölüm sayısını tahmin etmek için depremleri belirli sınıflara ayırabiliriz.
Bu sınıflar, depremin derinliği, şiddeti veya başka bir faktör gibi değişkenlere dayanabilir.

Bu süreçler, veri setindeki karmaşıklığı azaltır ve daha basit, anlaşılır yapılar


oluşturur. Bu, analiz sürecini sadeleştirir ve daha doğru sonuçlar elde etmemizi sağlar.
Ayrıca, veri setinin dikkatlice incelenmesi ve anlaşılması sürecine katkıda bulunur,
böylece daha güçlü ve daha sağlam sonuçlara ulaşmamızı sağlar. Bu nedenle,
gruplandırma ve sınıflandırma, deprem analizi ve tahmininde son derece önemlidir.

Derinlik ve Şiddetin Hasarlı Bina ve Ölüm Sayısı Üzerine Etkileri:


Depremlerin derinliği ve şiddeti, meydana gelen hasarın ve sonuçta ortaya çıkan ölüm
sayısının belirleyici faktörleridir. Bu çalışmada, veri seti üzerinde yapılan analizler ve
oluşturulan makine öğrenmesi modelleri, bu iki faktörün depremlerden kaynaklanan
ölümler ve hasarlı binalar üzerinde belirgin bir etkisi olduğunu doğrulamıştır.

Deprem Derinliği: Depremlerin odak derinlikleri, yüzey yakınındaki yapıların


ve insan yaşamının üzerindeki etkilerini büyük ölçüde belirler. Daha yüzeye yakın odak
derinliğine sahip depremler, genellikle daha yüksek hasar ve ölüm sayılarına yol açar
çünkü sarsıntılar daha direkt ve daha güçlüdür. Bununla birlikte, çok derin depremler de
geniş bir alana yayılan sarsıntılar nedeniyle hasara neden olabilir. Bu araştırmada,

86
derinliğin hasar ve ölüm sayıları üzerindeki etkisini daha da anlamak için makine
öğrenmesi modelleri kullanıldı.

Deprem Şiddeti: Depremin şiddeti genellikle Richter ölçeği veya daha yeni
Moment Büyüklük (Mw) ölçeği ile ölçülür. Büyüklük arttıkça, depremin enerjisi
logaritmik olarak artar ve bu da daha fazla hasara ve potansiyel olarak daha yüksek ölüm
sayılarına neden olabilir. Makine öğrenmesi modellemesi, büyüklüğün hasar ve ölüm
sayıları üzerinde belirleyici bir faktör olduğunu göstermiştir.

Her ne kadar bu iki faktör önemli olsa da, diğer faktörlerin - örneğin yerleşim
bölgelerinin yapısal dayanıklılığı, halkın depreme hazırlık durumları ve deprem anındaki
nüfus yoğunluğu gibi - depremden kaynaklanan ölümler ve hasar üzerinde büyük etkisi
olabilir. Bu faktörlerin hepsi bir araya geldiğinde, depremlerin neden olduğu hasar ve
ölüm sayıları üzerinde karmaşık ve çok boyutlu bir etkiye sahip olabilirler.

Logaritmik Dönüşümün Data Eğitirken Sağladığı Yararlar: Verilerin


logaritmik dönüşümü, makine öğrenmesi ve veri analitiği uygulamalarında sıklıkla
karşılaşılan bir tekniktir. Bu dönüşüm, özellikle verinin dağılımının aşırı derecede eğik
olduğu veya çok büyük ölçekte değişkenlik gösterdiği durumlardaki bazı zorlukları
hafifletir. Logaritmik dönüşümün faydaları şunları içerir:

 Daha Dengelemiş Dağılım: Logaritmik dönüşüm, verinin dağılımını


düzleştirir ve daha normal veya en azından daha simetrik bir dağılım haline
getirir. Bu, çoğu makine öğrenmesi algoritmasının, verinin normal dağılıma
yakın olduğu durumlarda daha iyi performans gösterme eğiliminde olduğu
için önemlidir.

 Aşırı Değerlerin Etkisinin Azaltılması: Logaritmik dönüşüm, veri setindeki


aşırı değerlerin etkisini azaltır. Bu, modelin bu aşırı değerlere aşırı duyarlı
olmasını önler ve daha genel geçerli tahminler yapmasına yardımcı olur.

 Büyük Ölçekteki Değişkenliğin Azaltılması: Logaritmik dönüşüm, verinin


çok büyük ölçekteki değişkenliğini düşürür. Bu, özellikle verinin farklı
büyüklükteki ölçekler arasında değiştiği durumlarda yararlıdır.

87
Bu araştırmada, özellikle hasarlı bina sayısı ve ölüm sayısı verileri üzerinde
logaritmik dönüşüm kullanılmıştır. Bu, özellikle bu verilerin büyük ölçekte değişkenlik
gösterdiği ve aşırı değerler içerdiği göz önüne alındığında, modelin performansını
artırmak ve daha güvenilir tahminler yapmak için önemli bir adımdır.

Bu araştırma, depremlerin etkilerini daha iyi anlamak ve modellemek amacıyla


makine öğrenmesi tekniklerinin kullanılmasının potansiyelini ortaya koymaktadır. Yapay
zeka teknolojisi, geçmiş depremlerin hasar ve ölüm oranlarına yönelik karmaşık verileri
anlamamızı ve analiz etmemizi sağlamaktadır. Bu çerçevede, deprem şiddeti ve derinliği
gibi faktörlerin, özellikle hasarlı bina sayısı ve ölüm sayısı üzerindeki etkisi incelenmiştir.

Veri setinin sınırlılıkları bulunsa da, araştırmada uygulanan çeşitli makine


öğrenmesi, bu tür bir analizin faydalarını ve gelecekteki potansiyelini vurgulamaktadır.
Verinin toplanması, temizlenmesi ve düzenlenmesi gibi aşamaların yanı sıra, veri setinin
gruplandırılması, sınıflandırılması ve doğru modelin seçilmesi gibi tekniklerin
uygulanması, elde edilen sonuçların daha anlamlı ve yorumlanabilir hale gelmesine
yardımcı olmuştur.

Depremlerin tahmin edilmesi hâlâ son derece zor ve karmaşık bir görev olmakla
birlikte, bu araştırma, makine öğrenmesinin deprem etkilerini modelleme ve anlama
kapasitesini göstermiştir. Gelecekte, daha geniş ve daha tam veri setlerinin elde
edilmesiyle, bu tekniklerin deprem etkilerini daha kesin bir şekilde tahmin etmek ve belki
de depremlerin zamanını, yerini ve büyüklüğünü tahmin etmek için kullanılması mümkün
olabilir. Bu nedenle, bu çalışma, deprem etkilerinin daha iyi anlaşılması ve yönetilmesi
için yapay zeka ve makine öğrenmesi tekniklerinin değerli bir araç olabileceğini
göstermektedir.

Aşağıda literatürde bulunan benzer çalışmaların benzer ve farklı sonuçları


verilmişir.

Deprem tahmini ve hasar analizi, makine öğrenimi tekniklerinin yaygın olarak


kullanıldığı alanlar haline geldi. Örneğin Ceryan (2020) tarafından Düzce ilinde yapılan
bir çalışmada bina hasar tahmini için makine öğrenme teknikleri kullanılmıştır. Bu
çalışma, benzer amaçla yaptığımız bir çalışma ile paralellik göstermektedir. Ancak
Ceryan'ın çalışması, araştırmamızda karşılaştığımız bir zorluk olan veri kümesi
kusurlarının algoritma performansı üzerindeki etkisine odaklanıyor.

88
İlgili başka bir çalışma, Nishar ve diğerleri tarafından 2019 yılında yapılan bir
çalışmadır. Bu çalışmada, deprem büyüklük tahmini için rastgele ormanlar ve gradyan
artırma gibi makine öğrenmesi modelleri kullanılmıştır. Çalışma aynı şekilde
kullandığımız veri setlerinin kalitesinin ve eksiksizliğinin model performansı üzerinde
önemli bir etkiye sahip olduğunu vurgulamaktadır. Kendi analizimiz de bu bulgunun
altını çiziyor.

Nath ve diğerleri tarafından 2018 yılında deprem tahmininde makine


öğreniminin genel kullanımını değerlendiren bir literatür taraması yapılmıştır. Bu makale,
deprem tahmininde çeşitli sınıflandırma, regresyon ve kümeleme tekniklerinin nasıl
kullanılabileceğini ayrıntılı olarak incelemektedir. Çalışmamızda, sınıflandırma
tekniklerinin sismik analiz üzerindeki etkisi incelenmiş, bu nedenle Nath ve diğerlerinin
çalışmasında benzer bir yaklaşım benimsenmiştir.

Deprem büyüklüğü ile ilgili olarak, Hanks ve Kanamori (1979) tarafından


önerilen moment büyüklüğü (Mw), sismik enerjiyi ifade etmek ve büyüklüğü belirlemek
için önemli bir araçtır. Bu ölçeğin de kullanıldığı kendi araştırmamız, büyüklüklerin
logaritmik olarak ifade edilmesinin depremlerin etkilerinin daha doğru anlaşılmasında
önemli bir rol oynadığını göstermiştir.

89
KAYNAKÇA

Ambraseys, N., & Jackson, J. (2000). Seismicity of the Sea of Marmara (Turkey) since
1500. Geophysical Journal International, 141(3), F1-F6.

Aktar, T., & Aydin, A. (2008). Türkiye'deki tektonik yapı ve depremler. Jeoloji
Mühendisleri Odası Yayınları, 101-123.

Akdeniz, F., & Kızılaslan, N. (2016). Lasso, Ridge ve Elastik Net Regresyon
Yöntemlerinin Tahmin Performanslarının İncelenmesi: BIST İmalat Endeksi
Üzerine Bir Uygulama. Business and Economics Research Journal, 7(4), 143-
159.

Breiman, L. (2001). Random forests. Machine Learning, 45(1), 5-32.


https://doi.org/10.1023/A:1010933404324

Car, G., Poli, P., & Lu, P. (2020). Deep Learning for Earthquake Detection and Location.
Scientific Reports, 10(1). https://doi.org/10.1038/s41598-020-57768-9

Carneiro, T. (2020). Hands-On Machine Learning on Google Cloud Platform:


Implementing smart and efficient analytics using Cloud ML Engine. Packt
Publishing.

Dell'Acqua, F., & Gamba, P. (2012). Remote sensing and earthquake damage assessment:
Experiences, limits, and perspectives. Pure and Applied Geophysics, 169(1-2),
1-15.

Dowrick, D.J. (2009). Earthquake Resistant Design and Risk Reduction, 2nd Edition.
Wiley.

Drucker, H., Burges, C. J. C., Kaufman, L., Smola, A. J., & Vapnik, V. (1997). Support
vector regression machines. In M. C. Mozer, M. I. Jordan, & T. Petsche (Eds.),
Advances in neural information processing systems 9 (pp. 155–161). MIT Press.

Donnellan, A., Parker, J. W., Hensley, S., Pierce, M., Wang, J., & Rundle, J. (2020).
Geodetic imaging: 2019 Ridgecrest, California earthquakes. Earth and Space
Science, 7(4), e2019EA000960.

Erdik, M. (2019). Earthquake risk assessment for Istanbul metropolitan area. Earthquake
and Structures, 2(2), 239-256.

Ertuğrul, A. ve Zengin, S., (2015). Ridge Regresyon Modeli İle İlgili Bir Uygulama.
Karadeniz Sosyal Bilimler Dergisi, 1(2), 1-11.

Ertekin, S. (2014). Deprem Büyüklüklerinin Sınıflandırılması ve Türkiye Deprem


Bölgeleri. Jeoloji Mühendisleri Odası Dergisi, 27-36.

Friedman, J. H. (2001). Greedy function approximation: A gradient boosting machine.


Annals of Statistics, 1189-1232. https://doi.org/10.1214/aos/1013203451

90
Gökçe, A. (2020). XGBoost Algoritması ile Sınıflandırma Problemlerinin Çözümü: Bir
Uygulama. Mehmet Akif Ersoy Üniversitesi Sosyal Bilimler Enstitüsü Dergisi,
12(33), 114-125.

Goodfellow, I., Bengio, Y., & Courville, A. (2016). Deep Learning. The MIT Press.

Graves, A., Mohamed, A. R., & Hinton, G. (2013). Speech recognition with deep
recurrent neural networks. 2013 IEEE International Conference on Acoustics,
Speech and Signal Processing. https://doi.org/10.1109/icassp.2013.6638947

Google Colaboratory. (2023). Google Colab. Retrieved June 20, 2023, from
https://colab.research.google.com/notebooks/intro.ipynb

Gürbüz, Z. (2018). Kamu Kaynaklı Deprem Verilerinin Güvenliği ve Gizlilik İlkeleri.


Hukuk ve Bilim Dergisi, 58-64.

Hanks, T. C., & Kanamori, H. (1979). "Moment magnitude scale." Journal of


Geophysical Research: Solid Earth, 84(B5), 2348-2350.

Highland, L.M., & Bobrowsky, P. (2008). The landslide handbook—A guide to


understanding landslides. Reston, Virginia: U.S. Geological Survey Circular
1325.

Hough, S. E., & Bilham, R. (2011). Site response of the Gorkha earthquake sequence:
implications for hazard and disaster planning in and around Kathmandu, Nepal.
Seismological Research Letters, 86(6), 1533-1538.

Hyndman, R. J., & Koehler, A. B. (2006). Another look at measures of forecast accuracy.
International journal of forecasting, 22(4), 679-688.

Hunter, J. D. (2007). Matplotlib: A 2D graphics environment. Computing In Science &


Engineering, 9(3), 90-95.

Jordan, M. I., & Mitchell, T. M. (2015). Machine learning: Trends, perspectives, and
prospects. Science, 349(6245), 255-260.

Ke, G., Meng, Q., Finley, T., Wang, T., Chen, W., Ma, W., ... & Liu, T. Y. (2017).
LightGBM: A highly efficient gradient boosting decision tree. In Advances in
Neural Information Processing Systems (Vol. 30, pp. 3146-3154).

Kaya, M. (2016). Deprem İzleme Teknolojileri ve Sınırlamaları. Türkiye Sismoloji


Derneği Dergisi, 45-54.

Kramer, S.L. (1996). Geotechnical Earthquake Engineering. Prentice Hall.

Koçyiğit, A. (2018). Tectonics of the West Anatolian Shear Zone. In Tectonic Evolution,
Collision, and Seismicity of Southwest Asia (pp. 297-330). Geological Society
of America.

Köster, J., & Rahmann, S. (2012). Snakemake—a scalable bioinformatics workflow


engine. Bioinformatics, 28(19), 2520-2522.

91
Main, I. (1996). Statistical physics, seismogenesis, and seismic hazard. Reviews of
Geophysics, 34(4), 433-462.

McKinney, W. (2012). Python for data analysis: Data wrangling with Pandas, NumPy,
and IPython. O'Reilly Media, Inc.

Millman, K. J., & Aivazis, M. (2011). Python for scientists and engineers. Computing in
Science & Engineering, 13(2), 9-12.

Mnih, V., Kavukcuoglu, K., Silver, D., Graves, A., Antonoglou, I., Wierstra, D., &
Riedmiller, M. (2015). Human-level control through deep reinforcement
learning. Nature, 518(7540), 529-533.

Murray, J. R., Segall, P., Foxall, W., & Bachmann, C. E. (2000). Seismic and geodetic
evidence for coseismic slip on the Hayward fault from the 1984 Morgan Hill,
California, earthquake. Bulletin of the Seismological Society of America, 90(2),
295-314.

Nishar, A., Bal, A., Singhal, R., & Singh, A. K. (2019). Prediction of earthquake
magnitude using Machine Learning Methods. Procedia Computer Science, 152,
396-405.

Özel, O. (2017). Jeolojik Araştırmaların Maliyet Etkinliği ve Deprem Analizleri. Doğal


Afetler ve Çevre Dergisi, 33-40.

Parsons, T., Toda, S., Stein, R. S., Barka, A., & Dieterich, J. H. (2000). Heightened odds
of large earthquakes near Istanbul: An interaction-based probability calculation.
Science, 288(5466), 661-665.

Raschka, S. (2015). Python Machine Learning. Packt Publishing Ltd.

Reilinger, R., McClusky, S., Vernant, P., Lawrence, S., Ergintav, S., Cakmak, R., ... &
Lenk, O. (2006). GPS constraints on continental deformation in the Africa-
Arabia-Eurasia continental collision zone and implications for the dynamics of
plate interactions. Journal of Geophysical Research: Solid Earth, 111(B5).

Satake, K., & Atwater, B.F. (2007). Long-term perspectives on giant earthquakes and
tsunamis at subduction zones. Annual Review of Earth and Planetary Sciences,
35, 349-374.

Scawthorn, C., Eidinger, J., & Schiff, A. (2005). Fire following earthquake. Reston, VA:
American Society of Civil Engineers.

Shearer, P. (2009). Introduction to Seismology. Cambridge University Press.

Şimşek, A., & Doğan, N. (2020). Kategorik ve Sürekli Veriler İçin Yeni Bir Gradyan
Artırma Algoritması: CatBoost. Öneri Dergisi, 15(59), 71-78.

Simons, M., Minson, S. E., Sladen, A., Ortega, F., Jiang, J., Owen, S. E., ... & Moore, A.
W. (2011). The 2011 magnitude 9.0 Tohoku-Oki earthquake: Mosaicking the
megathrust from seconds to centuries. Science, 332(6036), 1421-1425.

92
Stein, S., & Wysession, M. (2003). An Introduction to Seismology, Earthquakes, and
Earth Structure. Wiley-Blackwell.

Sutton, R. S., & Barto, A. G. (2018). Reinforcement learning: An introduction. MIT press.

Tekin, E. (2013). Türkiye'nin Deprem Gerçeği ve Yer Kabuğu Hareketleri. Jeoloji


Mühendisleri Odası Dergisi, 58-67.

Tierney, K., Lindell, M. K., & Perry, R. W. (2001). Facing the Unexpected: Disaster
Preparedness and Response in the United States. Joseph Henry Press.

Tibshirani, R. (1996). Regression shrinkage and selection via the lasso. Journal of the
Royal Statistical Society: Series B (Methodological), 58(1), 267-288.

United States Geological Survey (USGS). (2022). Earthquake Hazards Program: How
Earthquakes Happen. Retrieved June 15, 2023, from
https://www.usgs.gov/natural-hazards/earthquake-hazards/science/how-
earthquakes-happen?qt-science_center_objects=0#qt-science_center_objects

Vapnik, V. (1998). Statistical Learning Theory. Wiley.

Willmott, C.J., & Matsuura, K. (2005). Advantages of the mean absolute error (MAE)
over the root mean square error (RMSE) in assessing average model
performance. Climate research, 30(1), 79-82.

Yamanaka, Y., & Kikuchi, M. (2004). Asperity map along the subduction zone in
northeastern Japan inferred from regional seismic data. Journal of Geophysical
Research: Solid Earth, 109(B7).

Zhang, T. (2004). Solving large scale linear prediction problems using stochastic gradient
descent algorithms. In Proceedings of the twenty-first international conference
on Machine learning (p. 116).

Zor, E. (2012). Marmara Denizi'nin Tektonik Aktivitesi. TÜBİTAK Dergisi, 9-14.

93

You might also like