You are on page 1of 300

1

OPTIMIZASYON TEORISI
VE UYGULAMALARI
Yrd. Do. Dr. Hasan KURTARAN
hasan@gyte.edu.tr
Gebze Yksek Teknoloji Enstits
Tasarim ve Imalat Mhendisligi Blm
2005
2
Iindekiler
Slayt No
1. Blm: OPTIMIZASYONA GIRIS 3
2. Blm: TEK DEGISKENLI OPTIMIZASYON 21
3. Blm: KISITSIZ OPTIMIZASYON METOTLARI 40
4. Blm: LINEER OPTIMIZASYON METOTLARI 56
5. Blm: NONLINEER OPTIMIZASYON 72
6. Blm: GLOBAL OPTIMIZASYON 99
7. Blm: YAKLASIK METOTLARLA OPTIMIZASYON 118
8. Blm:YAPISAL OPTIMIZASYON 152
9. Blm:YAZILIMLARLA OPTIMIZASYON 252
10. Blm: OPTIMIZASYON UYGULAMALARI 265
11. Blm:OPTIMIZASYON ILE ILGILI KAYNAKLAR 299
3
1. Blm
OPTIMIZASYONA GIRIS
n OPTIMIZASYON TARIHESI
n OPTIMIZASYONUN EKONOMIK KATKISINA RNEKLER
n OPTIMIZASYON PROBLEMI TANIMI
n OPTIMIZASYON PROBLEMI TANIMI (Terimler)
n OPTIMIZASYON PROBLEMLERININ SINIFLANDIRILMASI
n OPTIMIZASYON METOTLARININ SINIFLANDIRILMASI
n TEK DEGISKENLI OPTIMIZASYON METOTLARI
n KISITSIZ OPTIMIZASYON METOTLARI
n KISITLI OPTIMIZASYON METOTLARI
n OPTIMIZASYON METOTLARININ DEGERLENDIRILMESI
n OPTIMALLIK SARTLARI (Kisitsiz ve Tek Degiskenli Problemler)
n OPTIMALLIK SARTLARI (Kisitsiz ve ok Degiskenli Problemler)
n KISITSIZ PROBLEMLER VE KONVEKSLIK DURUMU
n OPTIMALLIK SARTLARI (Kisitli Problemler)
n KISITLI PROBLEMLER VE KONVEKSLIK DURUMU
4
OPTIMIZASYON TARIHESI
II. Dnya Savasi : Ingiliz askeri yetkilileri bilim adamlari ve mhendislerden
bir ok problemi analiz etmelerini istediler:
Radar ailimlari
Konvoy, bombalama, mayin, denizalti savunmalarinin idaresi.
Bu alismalar Military Operations Research, daha sonralarda Operations
Research adiyla anildi
MIT OR dogdugu yerlerden biri oldu
Profesr Morse MIT (ABDde) de bu isin ncs oldu ve MIT OR
merkezi kurdu
Optimizasyon metotlari ilk olarak Endstri mhendisligi alani olan Operation
Research alaninda ortaya ikmis ve daha sonra diger alanlara (sosyal,
ekonomi ve mhendislik alanlarina) dogru yayginlasmistir.
5
OPTIMIZASYON TARIHESI
1947
Lineer optimizasyon metotlari: Simplex metodu (George Dantzig ve
digerleri)
1950
Non lineer programlama metotlari
1960
Optimizasyonun mhendislikteki kullanimi basladi
1980
PClerin yayginlasmasi. Optimizasyon metotlari yayginlasmaya
basladi.
1990
Analiz programlari disaridan ilavelerle optimizasyon yetenegi ile
desteklenmeye basladi.
2000
Mhendislikte byk lekli optimizasyon uygulamalari.
6
OPTIMIZASYONUN EKONOMIK KATKISINA
RNEKLER
n Optimal mrettebat schedule ile American Airlines $20 milyon
n Optimal tasima gzergahi ile Yellow Freight $17.3 milyon
n Gelistirilmis ara gzergahi ile Reynolds Metals $7 milyon
n Destek/dagitim zincirinin optimizasyonu ile Digital Equipment $300 milyon.
n Trafik kontrol optimizasyonu ile Hanshin otoyolu (Japonya) 17 milyon
src saati tasarruf
n Iyilestirilmis retim planlamasi ile Sadia (Brezilya) yilad $50 milyon
tasarruf
n Elektrik kesintisine karsi tedbirin optimizasyonu ile Tata Steel (Hindistan)
$73 milyon tasarruf.
n Polis devriye gzergahi planlamasinin optimizasyonu ile ABD $11 milyon
tasarruf.
n Petrol sirketi Texaco $30 milyon/yil.
7
OPTIMIZASYON PROBLEMI TANIMI
Optimizasyon: Karar verme problemlerini hizli ve etkin bir sekilde nmerik
metotlar (mathematical programming methods) kullanarak zme isidir.
Optimizasyon metotlari: Optimizasyon iin kullanilan nmerik metotlar
(programlar)
Optimizasyon problemi tanimi:
NOT: Optimizasyon problemlerinin optimizasyon metotlari tarafindan efektif bir
sekilde zlebilmeleri iin mutlaka yukaridaki sekilde tanimlanmalari gerekir.
8
OPTIMIZASYON PROBLEMI TANIMI
(Terimler)
Optimizasyon degiskenleri:
Istenen amaci gereklestirmek iin karar verme srecinde degerleri
degistirilen parametreler.
rnek: x and y.
Kisitlar:
Karar srecinde dikkate alinmasi gereken sinirlamalar.
rnek: 5x + 8y<= 24 , x >= 0 , y >= 0
Ama fonksiyonu:
Amacimizin sayisal verilerle karsiligini ifade eder
Minimize veya maksimize edilir (rnek: maliyetin minimizasyonu )
rnek: 3x + 4y
Fasible (geerli) zm: rnek: x = 1 , y= 1, 5x + 8y<= 24
Tm kisitlamalari saglayan optimum zm
Aktif kisit: rnek: x = 1 , y= 1, 5x + 8y<= 13
Tm kisitlamalari sinirda saglayan optimum zm
9
OPTIMIZASYON PROBLEMLERININ
SINIFLANDIRILMASI
n Degisken sayisina gre
Tek degiskenli
ok degiskenli
n Kisitlara gre
Kisitsiz
Kisitli
n Ama fonksiyonuna gre
Tek amali
ok amali
n Fonksiyonlarin derecesine gre
Lineer
Non lineer
10
OPTIMIZASYON METOTLARININ SINIFLANDIRILMASI
zmde kullandiklari bilgiye gre:
n 0 order: fonksiyon degeri
Golden section, bisection, polynomial, simplex, random metot,
genetik algoritma
n 1st order: fonksiyon 1. trevi (gradyenti)
Steepest descent, conjugate gradient, gradient projection, feasible
directions
n 2 nd order: fonksiyon 2. trevi
Newton metotlari
11
OPTIMIZASYON METOTLARININ SINIFLANDIRILMASI
zm mantigina gre:
n Direk
Steepest descent, conjugate gradient, gradient projection, feasible
directions, Newton, penalty, simplex
n Heuristik (sezgisel)
Random metot, Simulated Annealing, Genetik algoritma
n Yaklasik metotlar
Sequential linear programming, Sequential quadratic programming,
response surace metot
12
TEK DEGISKENLI OPTIMIZASYON METOTLARI
Tek degiskenli
optimizasyon
metotlari
Fibonacci
Polynomial Newton
Raphson
Golden
Section
Bisection
13
KISITSIZ OPTIMIZASYON METOTLARI
Kisitsi z optimizasyon
metotlari
Steepest
Descent
Quasi-Newton Conjugate
Gradient
Newton
14
KISITLI OPTIMIZASYON METOTLARI
Kisitli optimizasyon
metotlari
Penalty
metotlari
Direct search
metotlari
Subproblem
metotlari
Exterior
penalty
Interior
penalty
Augmented
Lagrangian
SLP Convex
Programming
SQP
Feasible
directions
15
OPTIMIZASYON METOTLARININ DEGERLENDIRILMESI
Penalty metotlari:
Basit metot, fakat sonu ok garanti degil.
Feasible directions:
Biraz karisik metot, fakat sonu garanti.
Degiskenlerin farkli boyutta (lekte) oldugu problemlerde zorlanir.
Trev (gradyenti) sadece yn seiminde kullanir.
Subproblem methods:
Degisken sayisinin ok oldugu ve degiskenlerin farkli boyutta (lekte)
oldugu problemler iin iyidir.
Trev (gradyenti) her zaman kullanabilir.
16
OPTIMALLIK SARTLARI
(Kisitsiz ve Tek Degiskenli Problemler)
Bir noktanin lokal optimum olma
sartlari:
Gerek sart: f(x) = 0
Yeter sart: f(x) > 0
Global optimum iin matematiksel bir
kriter yoktur
Eger fonksiyon konveks ise, lokal
optimum ayni zamanda global
optimumdur.
17
OPTIMALLIK SARTLARI
(Kisitsiz ve ok Degiskenli Problemler)
Gerek sart:
Yeter sart: The Hessian matris pozitif tanimli olmali (H>0 olmali)
18
KISITSIZ PROBLEMLER VE KONVEKSLIK DURUMU
Bir konveks fonksiyonun sadece tek bir minimumu vardir, o da global
minimumdur.
1D problemlerde, konveks fonksiyonun her yerde 2. trevi pozitiftir.
1D problemlerde, konveks fonksiyon yukari dogru bir egri olusturur.
2D problemlerde, konveks fonksiyonun Hessian matrisi pozitif tanimlidir
2D problemlerde, konveks fonksiyon agzi yukari ukur bir kap seklindedir.
19
OPTIMALLIK SARTLARI
(Kisitli Problemler)
Kisitli problemlerde bir noktanin optimum olmasi iin, Lagrangian
fonksiyonun Kuhn-Tucker sartlarini saglamasi gerekir:
20
KISITLI PROBLEMLER VE KONVEKSLIK DURUMU
n Ama fonksiyonu konveks ve feasible domain konveks bir set ise
optimizasyon problemi konvekstir.
n Tm kisit fonksiyonlari konveks ise, feasible domain de konvekstir.
n Non-konveks problemler iin gelistirilmis iyi bir optimizasyon metodu yoktur.
Bir ok metot problemi konveks kabul eder !
n Genellikle bir fonksiyonun konveksligini test etmek zordur, fonksiyon
implisit ise imkansizdir. Problemin fizigi bu konuda bize yardim edebilir.
n Lineer problemler her zaman konvekstir.
21
2. Blm
TEK DEGISKENLI OPTIMIZASYON
n TEK DEGISKENLI OPTIMIZASYON METOTLARI
n GOLDEN SECTION METODU
n BISECTION METODU
n POLINOM METODU
n NEWTON-RAPHSON METODU
n SECANT METODU
n METOTLAR HAKKINDA GENEL DEGERLENDIRME
22
TEK DEGISKENLI OPTIMIZASYON METOTLARI
n Optimum zmn kararlilik analizlerinde (Sensitivity) kullanilir.
n Non lineer optimizasyon problemlerinin zmnde kullanilir
(line search).
23
TEK DEGISKENLI OPTIMIZASYON METOTLARI
Tek degiskenli optimizasyonda kullanilan metotlar:
Golden section
Bisection
Polinom
Newton Raphson
Secant
24
TEK DEGISKENLI OPTIMIZASYON METOTLARI
Tek degiskenli optimizasyon ifadesi:
Minimize: f(x)
x: optimizasyon degiskeni
x
f(x)
minimum f(x)
f (x) = 0 , f (x) > 0
Maximumf(x)
f (x) = 0 , f (x) < 0
a b
25
TEK DEGISKENLI OPTIMIZASYON METOTLARI
Optimizasyon probleminin zm:
Verilen f (x) fonksiyonunun
[A,B] araliginda minimumunu
bulmak istiyoruz.
Minimumu en az hesapla (f(x)
degeri kullanarak) bulmak
istiyoruz.
f(x) fonksiyonunun aik halinin
(analitik ifadesi) bilinip
bilinmedigi durumlarda
minimum nasil bulunur?
26
GOLDEN SECTION METODU
Golden section (Altin Blme)
metodun temeli Italyan matematiki
Fibonacchi tarafindan atilmistir
(1202).
Metot, optimumun arastirilacagi
alani srekli daraltmaya dayanir.
Optimizasyon sonunda ok klen
alanin optimum zm barindirdigi
dsnlr.
27
GOLDEN SECTION METODU
Golden Section metodu zm algoritmasi:
Her iterasyonda, bir nceki alaninin bir kismi atilarak alan daraltilir.
f(x)in trevi (gradyenti) kullanilmadigindan, alanin hangi blgesinin
atilacagina f(x) fonksiyonunun 2 noktadaki degeri kullanilarak karar verilir.
f(a) < f() ise, [, B] araligi atilir ve bir sonraki iterasyonda B= olur
f(a) > f() ise, [A, a] araligi atilir ve bir sonraki iterasyonda A= a olur
Noktalarin (a, ) yerlerinin seiminde altin blme (Golden Section) kurali
uygulanir. Bu islem yenilenmis [A, B] araligi ile zm yakinsayana kadar
tekrar edilir.
28
a
a
b
b
a - b
b/(a-b) = a/b >> b*b = a*a ab
zm:
a = (b b* sqrt(5)) / 2 >> a/b = -0.618 or 1.618 (Golden Section orani)
Not: 1/1.618 = 0.618
Atilacak
Altin Blme (Golden Section) kurali:
Hesap maliyetini azaltmak iin Golden Section metodunda aralik srekli
belirli oranda (% 38 oraninda) daraltilir.
GOLDEN SECTION METODU
29
GOLDEN SECTION METODU
Genel Degerlendirme:
Her iterasyon iin zm araliginin (1 - 0.618) = 38% i elimine edilir.
n iterasyon sonunda zm araligi 0.618^n kat klms olacaktir.
n = 10 oldugu dsnlrse bulunan zm araligi orjinalinin % 1 inden
kk olacaktir.
Verilen zm araligi, iinde tek bir minimum noktasi ieren fonksiyonlarda
kullanilabilir.
30
BISECTION METODU
Aralik daraltma metotlarinda,
elde trev bilgisi olursa zm
hizlandirilabilir.
Bu gibi durumda araliklari ikiye
blerek (bisection) (daha hizli)
daraltmak mmkn olur.
31
BISECTION METODU
Avantaj:
Daha hizli yakinsama. rnegin, 10
iterasyondan sonra alan %99 oraninda
daraltilmis olur.
Dezavantaj:
Trev bilgisi gerekli. Trev hesabi
genellikle biraz fazla hesap gerektirir.
Trev bilgisi kullanildigi zaman
fonkiyonun srekli (tretilir) oldugu kabul
edilmis olur. Golden section metodunda bu
sinirlama yoktur.
Bisection metodu, golden section
metodundan daha az garantilidir.
32
POLINOM METODU
Araligin u ve orta noktalarinda
fonksiyon degerleri hesaplanir.
Hesaplanan 3 degerden bir parabol
geirilir.
Paraboln minimum noktasi (yeni nokta)
ve karsi gelen fonksiyon degeri analitik
olarak hesaplanir.
Yeni nokta, eski noktalardan en kt
olanin yerini alarak iterasyon yakinsayana
kadar devam edilir.
33
POLINOM METODU
Avantaj:
Fonksiyon dzgnse yakinsama ok
hizlidir.
Trev bilgisi gerekmez. Her iterasyonda
fazladan bir nokta iin fonksiyon degeri
hesaplanir.
Dezavantaj:
Algoritma non-konveks fonksiyonlara
karsi ok hassastir.
Optimizasyon iin fonksiyonun 2.
mertebeden tretilir olmasi lazimdir.
Not: Genel uygulamalar iin tavsiye edilmemesine ragmen, zel uygulamalarda
faydali olabilir.
34
Optimizasyonla kk bulma birbirine benzer. Her ikisi de bir fonksiyonun veya
trevinin sifir oldugu yeri bulmaya alisir.
Kk bulma: f(x)=0,
Optimizasyon: f (x) = 0
x
f(x)
minimum f(x)
f (x) = 0 , f (x) > 0
Maximumf(x)
f (x) = 0 , f (x) < 0
a
b
NEWTON-RAPHSON METODU
O halde optimum zm, f (x) = 0 probleminin kk bulma yntemleri ile
zmnden elde edilebilir (eger fonksiyon tretilebilir ise).
35
Soru: Kuadratik bir problemi zmek iin ka iterasyon gerekir?
Taylor seri ailimi:
... ) )( (
2
1
) )( ( ) ( ) (
2 ' ' '
+ + +
k k k k k
x x x f x x x f x f x f
f(x)in xe gre trevi alinirsa:
f (x)=0 noktasi, Newton-Raphson metodunda optimum noktayi verir:
) )( ( ) ( 0 ) (
' ' ' '
k k k
x x x f x f x f + +
) (
) (
' '
'
1
k
k
k k
x f
x f
x x
+
NEWTON-RAPHSON METODU
36
NEWTON-RAPHSON METODU
) ( ' '
) ( '
...
) ( ' '
) ( '
) ( ' '
) ( '
1
1
1
1
1
1 2
0
0
0 1


k
k
k k
x f
x f
x x
x f
x f
x x
x f
x f
x x
Optimizasyon problemi iteratif olarak zer.
zm iin f (x)=0 olmamali.
37
SECANT METODU
Newton metodunda:
n 2. trev bilgisinin elde edilmesi ok hesap gerektirebilir. (zellikle ok
degiskenli problemlerde).
n 2. trevin yaklasikliginin kullanilmasi hesaplari ok kolaylastirir.
2. trevin, 1. trev bilgisi kullanarak sonlu farklarla yaklasikligi:
1
1
' '
' '
) ( ) (
) (

k k
k k
x x
x f x f
x f
2. trev ifadesi Newton-Rapson formlnde yerine konursa Secant metodu elde edilir:
) (
) ( ) (
'
1
' '
1
1 k
k k
k k
k k
x f
x f x f
x x
x x


Not: Secant metodu, yksek dereceli problemleri Newton-Raphson metodu gibi
iteratif zer.
38
METOTLAR HAKKINDA GENEL DEGERLENDIRME
Golden Section, Bisection ve Polinom metotlari zm blgesini srekli belirli
oranda daraltarak optimumu arastirirlar.
Golden Section:
n Fonksiyon degerlerini kullanir.
n yakinsama hizlari zlen problemin tipinden bagimsizdir.
n zm garantidir (fonksiyon srekli olsun veya olmasin).
Bisection
n Trev bilgisini kullanir (fonksiyon 1. dereceden srekli olmak zorunda).
n yakinsama hizi zlen problemin tipine baglidir.
Polinom metodu
n Fonksiyon degerlerini kullanir.
n yakinsama hizi zlen problemin tipine baglidir.
n Keskin dnsl problemlerde zorlanirlar (fonksiyon 1. ve 2. dereceden srekli
olmak zorunda).
39
METOTLAR HAKKINDA GENEL DEGERLENDIRME
Newton Raphson ve Secant metotlari bir noktadan baslayarak adim adim
(iteratif olarak) optimumu arastirirlar.
Newton Raphson:
n Fonksiyonun 1. ve 2. trevlerini kullanir.
n yakinsama hizi zlen problemin tipine baglidir.
n Keskin dnsl problemlerde zorlanirlar (fonksiyon 1. ve 2. dereceden srekli
olmak zorunda).
n zm garanti degildir
Secant metodu:
n Fonksiyonun 1. trevini kullanir.
n yakinsama hizi zlen problemin tipine baglidir.
n Keskin dnsl problemlerde zorlanirlar (fonksiyon 1. dereceden srekli
olmak zorunda).
n zm garanti degildir.
Not: Optimizasyon problemlerinin zmnde genellikle Polinom veya Golden
Section kullanilir.
40
3. Blm
KISITSIZ OPTIMIZASYON METOTLARI
n KISITSIZ OPTIMIZASYON PROBLEMI
n ARASTIRMA YN (SEARCH DIRECTION)
KONSEPTI
n KISITSIZ OPTIMIZASYON METOTLARI
n STEEPEST DESCENT METODU
n ESLENIK GRADYENT METODU
n NEWTON METODU
n QUASI-NEWTON METODU
41
Kisitsiz optimizasyon problemi tanimi:
Minimize
Lineer problemlerden farkl i olarak, nonlineer problemler iin global optimumu
bulan matematiksel bir yntem yoktur (konveks problemler hari).
Kisitsiz optimizasyon problemlerinin ogunda sezgisel (heuristic) metotlar
kullanilir.
Kisitsiz optimizasyon yntemlerinde ogunlukla search direction (arastirma
yn) metotlari kullanilir.
KISITSIZ OPTIMIZASYON PROBLEMI
42
ARASTIRMA YN (SEACH DIRECTION) KONSEPTI
Not: Metotlar birbirinden d(k) nin
hesaplanmasinda ayrilirlar
Optimizasyon problemi zmnde ogunlukla search direction (arastirma
yn) yntemi kullanilir.
Search direction optimizasyon yntemlerinde yeni nokta eski noktanin biraz
modifikasyonu (dzeltilmesiyle) elde edilir.
Modifikasyon miktari = alfa(k)*d(k)
Mdifikasyon miktari kolaylik iin iki paraya ayrilmistir: alfa(k), d(k)
d(k) : bulundugumuz noktadan bizi daha iyi bir noktaya gtrecek yn (search
direction).
alfa: adim uzunlugu (d(k) yn zerinde fonksiyonun degerini dsren adim
uzunlugu.
43
Search direction metodunu direk veya dolayli olarak kullanan kisitsiz
optimizasyon metotlari:
Steepest descent (en dik inis) metodu
Eslenik gradyent (Conjugate gradient) metodu
Fletcher Reeves Metodu
Polak - Robiee Metodu
Newton metodu
Quasi-Newton metotlari
DFP metodu
BFGS Metodu
KISITSIZ OPTIMIZASYON METOTLARI
44
STEEPEST DESCENT METODU
Steepest descent metodu ok
degiskenli problemler iin, trev
(gradyent) esasli optimizasyon
metotlarinin en basitidir.
Search direction (arastirma yn) iin
fonksiyonun gradyent ynnn tersi
kullanilir:
. Bu yn kisa vadede fonksiyonun
degerini en hizli dsren yndr.
45
STEEPEST DESCENT METODU
Performans degerlendirmesi:
Steepest descent metodunda her yn bir
nceki yne diktir.
Bu nedenle optimum, bir ok arastirma yn
kullanildiktan sonra (zikzakli bir yoldan sonra)
bulunur.
Ynlerdeki adim uzunluklari, optimizasyon
iterasyonlari ilerledike klr.
Adim uzunluklari o kadar klebilirki,
algoritma yakinsadigini sanabilir.
Genelde algoritmanin yakinsam hizi
dsktr.
46
STEEPEST DESCENT METODU
Performans degerlendirmesi (devam):
Degiskenlerin ayni mertebede oldugu problemlerde Steepest descent metodu
hizli yakinsar.
rnegin ama fonksiyonu konturu dairesel ise, Steepest descent metodu
optimumu sadece bir arastirma yn ile (bir iterasyonda) bulur.
Fakat, ama fonksiyonu konturu arpik ise, metodun yakinsamasi bir ok
iterasyon gerektirebilir, hatta yakinsama olmayabilir.
47
ESLENIK GRADYENT METODU
Eslenik gradyent (conjugate gradient) metotlarini gelistirmedeki iki temel
sebep:
1- Steepest descent metodundan daha hizli yakinsayan bir metot gelistirmek.
2- Daha hizli yakinsayan Newton metotlari kadar fazla hesap ve hafiza
kullanmayan bir metot gelistirmek.
Bu nedenle Eslenik gradyent metotlari, Steepest descent ve Newton
metotlarinin her ikisinin pozitif zelliklerini birlestiren metotlar olarak
degerlendirilir.
Eslenik gradyent metotlarinin hizli yakinsamasinin sebebi gemisteki bilgileri
kullanmasidir.
Eslenik gradyent metotlari gemis arastirma ynlerini yeni arastirma yn
hesabinda kullanirlar.
48
ESLENIK GRADYENT METODU
Arastirma yn seimi:
Eslenik gradyent metodu, Steepest descent metodundaki zikzakli yakinsama
sorununu arastirma ynlerini farkli sekilde hesaplayarak (eski arastirma
ynlerini dikkate alarak) ortadan kaldirir.
Eslenik gradyent metodu ile arastirma yn (search direction) hesabi:
49
ESLENIK GRADYENT METODU
Arastirma yn seimi (devam):
Eslenik gradyent metodunda arastirma yn, Steepst descent ynnn biraz
modifiye edilmesiyle elde edilir.
Modifiye miktari gradyent degerlerindeki degisimle dogru orantilidir.
Optimuma dogru yaklastika gradyent degerleri sifira yaklasir ve modifiye
miktari azalir. Yani optimuma dogru yaklastika, arastirma ynleri Steepest
descent ynlerine benzemeye baslar.
50
ESLENIK GRADYENT METODU
Diger eslenik gradyent metotlar:
Bu metotlar, sadece katsayisinin hesaplanmasi konusunda farkl ilik
gsteririler.
) ( ) (
) ( ) (
1 1
k
T
k
k
T
k
k
f f
f f

+ +

) ( ) (
) ( ) (
1 1
k
T
k
k k
T
k
k
f f
f f f

+ +

Fletcher Reeves Metodu


Polak - Robiee Metodu
51
Degerlendirme:
Arastirma yn hesabi basittir, sadece ok basit olan Steepest
descent ynnden biraz karisiktir.
Arastirma ynleri eslenik gradyenttir. Bu da yakinsamayi
hizlandiran bir zelliktir.
Arastirma yn hesabinda trev bilgileri (gradyent degerleri)
kullanildigindan hizli yakinsar.
Hesaplamalarda az hafiza kullanir.
ESLENIK GRADYENT METODU
52
NEWTON METODU

'

n
x
x
x
X
.
.
.
2
1
[ ]
T
n
x x x X ,..., ,
2 1

... ) )( ( ) (
2
1
) ( ) ( ) ( ) (
0 0 0 0 0 0
+ + + X X X H X X X f X X X f X f
T
) ( ) (
1
1 k k k k
X f X H X X

+
veya olmak zere ;
H: Hessian Matrisi
Taylor Serisi ailimi:
Optimum:
Newton Metodu zelligi:
zme yakin noktadan baslanirsa hizli yakinsar.
Uzak noktalardan baslanirsa yakinsamasi iin modifiye edilmesi lazim.
Hessian matrisin tersini hesaplamak maliyetli bir istir.
53
n Hessian matrisin tersinin hesabi ya pratik degildir veya ok maliyetlidir.
n Quasi-Newton metotlari optimum nokta hesabinda Hessian tersi yerine,
bunun yaklasikligini kullanirlar.
n Quasi-Newton metotlari birbirinden yaklasikliklarin farkli olmasi ile
ayrilirlar.
n Quasi-Newton metotlari non lineer kisitsiz problemlerin zmnde en
etkili metotlar olarak kabul edilirler.
QUASI-NEWTON METODU
) ( ) (
1
1 k k k k
X f X H X X

+
Newton metodu ile optimum nokta:
Quasi-Newton metodu ile optimum nokta:
) (
1 k k k k
X f B X X
+
) (
1
k k
X H B

54
QUASI-NEWTON METODU
1
H B
1

k k k
x x p
k k
f q
Quasi-Newton metodun varyasyonlari baslica iki tanedir :
Davidon Fletcher Powel (DFP)
Broyden Fletcher Goldfarb Shanno Forml (BFGS)
k
T
k
T
k k k k
T
k k
k
T
k
T
k k
k
T
k
k k
T
k
k k
p q
p q B B q p
q p
p p
p q
q B q
B B
+

+
+
+
)
1
(
1
BFGS ile Hessian tersi yaklasimi:
DFP ile Hessian tersi yaklasimi:
55
Degerlendirme:
n BFGS forml DFP den biraz daha karmasiktir.
n DFP forml BFGS nin zel halidir, BFGSden tretilebilir.
n Bir ok optimizasyon probleminin zm, BFGS performansinin DFPden
daha iyi oldugunu gstermistir. BFGS bu yzden daha ok tercih edilir.
n Her iki metotta, hem kisitsiz problemlerin zmnde hem de kisitli
problemlerin (kisitli problemleri esdeger kisitsiz problemlere
dnstrerek) zmnde yaygin olarak kullanilmaktadir.
QUASI-NEWTON METODU
56
4. Blm
LINEER OPTIMIZASYON METOTLARI
n LINEER OPTIMIZASYON PROBLEMI
n SIMPLEX METODU
57
LINEER OPTIMIZASYON PROBLEMI
Lineer optimizasyon problemleri, daha efektif bir zm iin non lineer
problemlerden farkl i olarak asagidaki sekilde ifade edilir:
58
LINEER OPTIMIZASYON PROBLEMI
Esitsizlik seklindeki kisitlar gevsek/yapay degiskenler (Slack variables) yardimiyla
esitlik seklindeki kisitlara dnstrlr:
Slack variables yaklasimi, optimizasyon probleminde degisken sayisinin
artmasina neden olur. Bu da hesap maliyetinin artmasina neden olabilir.
Lineer optimizasyon problemlerini zmek iin degisken sayisi esitlik seklindeki
kisit sayisindan fazla olmalidir, aksi takdirde zm olmaz.
59
LINEER OPTIMIZASYON PROBLEMI
Lineer optimizasyon problemleri matris formunda:
Yukaridaki formlasyon Simplex metot iin standarttir.
60
SIMPLEX METODU
U nokta (veya Simplex) teoremi:
Konveks bir blgede lineer optimizasyon problemlerinin zm,
konveks blgenin kselerinden (simplex lerden ) birisidir.
Konveks blge:
Bir blge iinde seilen iki nokta arasinda (rnegin, x1 ve x2) bir dogru
izildiginde, bu dogru blgenin disina ikmiyorsa blge konvekstir.
61
U nokta (Simplex) teoreminin sonulari:
n Sonlu sayida u noktanin olmasi, zm iin sonlu sayida deneme
demektir.
n Sonlu sayida u nokta bazi problemler iin hala byk sayi olabilir.
n Simplex metodu, en uygun u noktanin bulunmasinda etkili ve
yakinsamayi garanti eden (bir zm varsa) bir yntem sunar.
SIMPLEX METODU
62
Simplex metodunda zm adimlari:
1. zme uygun bir u noktadan (a basic feasible solution) baslanir.
2. Bu u noktaya bitisik, baska bir u nokta bulunur. Yeni u noktada
ama fonksiyonu degeri daha iyi ise bir sonraki adima geilir, degilse
bir nceki u nokta optimum zmdr.
3. Bitisik u noktalar arasindan, ama fonksiyonu degerini en fazla
iyilestiren u nokta seilir.
4. 2 ve 3. adimlara optimum zm bulunana kadar (veya problemde
feasible bir zmn olmadigi veya zmn sonsuz bir deger oldugu
gsterilene kadar) devam edilir.
SIMPLEX METODU
63
Bitisik u nokta arastirmasi:
n U nokta arastirmasinda degiskenler temel (basic) ve diger
degiskenler (non-basic) olmak zere iki kisma ayrilir.
n zm adimlarinda basic ve non-basic degiskenler yer
degistirilerek, bitisik u noktalardan hangisinin ama fonksiyonunu
daha ok iyilestirdigi arastirilir.
Basic ve non-basic degiskenler seiminde nemli sorular:
1) Hangi non-basic degisken basic yapilmali ki yeni bitisik u nokta
zm daha da iyilestirsin?
2) Hangi basic degisken non-basic yapilsin ki yeni bitisik u nokta
hala feasible olmaya devam etsin?
SIMPLEX METODU
64
Basic Non-basic degisken degisimleri:
Genel kural:
Ama fonksiyonu degerini en ok iyilestirecek non-basic
degisken basic yapilir.
n Infeasibiliteye ilk sebep olacak basic degisken non-basic
yapilir.
NOT: Bunlar sezgisel (heuristic) kurallardir !!
Bu kurallarin biraz daha farkl i versiyonlari da vardir
SIMPLEX METODU
65
SIMPLEX METODU
rnek:
Maximize Z = 5x
1
+ 2x
2
+ x
3
x1 + 3x2 - x3 = 6
x2 + x3 = 4
3x1 + x2 = 7
x1, x2, x3 = 0
66
SIMPLEX METODU
a
11
x
1
+ a
12
x
2
+ + a
1n
x
n
= b
1
,
a
21
x
1
+ a
22
x
2
+ + a
2n
x
n
= b
2
,
a
m1
x
1
+ a
m2
x
2
+ + a
mn
x
n
= b
m
,
a
11
x
1
+ a
12
x
2
+ + a
1n
x
n
+ x x
n+1 n+1
= b
1
,
a
21
x
1
+ a
22
x
2
+ + a
2n
x
n
- x x
n+2 n+2
= b
2
,
a
m1
x
1
+ a
m2
x
2
+ + a
mn
x
n
+ x x
n+k n+k
= b
m
1. Adim : Problemi standart formata getirelim ;
Bizim problemimiz iin :
x
1
+ 3x
2
- x
3
= 6,
x
2
+ x
3
= 4,
3x
1
+ x
2
= 7,
x
1
, x
2
, x
3
= 0.
x
1
+ 3x
2
- x
3
+ x
4
= 6,
x
2
+ x
3
+ x
5
= 4,
3x
1
+ x
2
+ x
6
= 7,
x
1
, x
2
, x
3
, x
4
, x
5
, x
6
= 0.
67
SIMPLEX METODU
Maksimize Z = 5x
1
+ 2x
2
+ x
3
x
1
+ 3x
2
- x
3
+ x
4
= 6,
x
2
+ x
3
+ x
5
= 4,
3x
1
+ x
2
+ x
6
= 7,
x
1
, x
2
, x
3
, x
4
, x
5
, x
6
= 0
2. Adim : Eldeki veriler isiginda ilk tablomuzu olusturalim :
68
s is i
x a b
j B j j
P c c c
c
1
= 5 - 0(1) - 0(0) - 0(3) = 5 en byk pozitif
c
2
= .
c
3
= .
1
]
1

>
is
i
a
a
b
is
0
s
min x max
3. Adim : Tablodaki pivot degerimizi buluyoruz.
x
i
= ,
SIMPLEX METODU
7/3 x
6
3
- x
5
2
6 x
4
1
69
SIMPLEX METODU
j B j j
P c c c
c
B
= (0 0 5)
c
2
= 2 - (0) 8/3 - (0) 1 - (5) 1/3 = 1/3
c
3
= 1 - (0) (-1) - (0) 1 - (5) 0 = 1
c
6
= 0 - (0) 0 - (0) 0 - (5) 1/3 = -5/3
4. Adim : Yeni tablomuzu olusturmak iin pivot islemini uygulariz :
70
SIMPLEX METODU
5. Adim : Benzer sekilde yeni pivot degerimizi seeriz.
71
SIMPLEX METODU
6. Adim : Final tablomuzu olusturalim.
Ama fonksiyonu maksimize edilmeye alisildigindan ve katsayilarinin hi biri artik
pozitif olmadigi iin zm durdurulur. Bulunan zm optimumdur.
x
1
= 7 / 3 , x
2
= 0 , x
3
= 4 , x
4
=23/3 , x
5
= 0 , x
6
= 0
72
5. Blm
NONLINEER OPTIMIZASYON
n KISITLI OPTIMIZASYON PROBLEMI
n DNSTRME METOTLARI
n PENALTY METOTLARI
n EXTERIOR PENALTY METODU
n INTERIOR PENALTY METODU
n EXTENDED-INTERIOR PENALTY METODU
n AUGMENTED LAGRANGIAN METODU
n PENALTY VE AUGMENTED LAGRANGIAN METOTLARI
n DIREK METOTLAR (SEARCH METHODS)
n METHOD OF FEASIBLE DIRECTIONS
n GRADIENT PROJECTION METODU
n GRADIENT PROJECTION METODU (Iz Dsm Matrisi Hesabi)
73
Genel bir kisitli optimizasyon problem ifadesi:
Minimize
kisit
Non lineer problemlerin zm iin iki tip yntem vardir:
1- Dnstrme metotlari (transformation methods): Kisitli problemleri kisitsiz
problemlere dnstrerek zerler.
2- Direk metotlar (direct methods) : Kisitli problemi oldugu gibi kabul ederek
search direction konsepti ile zerler.
KISITLI OPTIMIZASYON PROBLEMI
74
Dnstrme metotlari (transformation methods) kisitli problemleri ardisik
kisitsiz problemlere dnstrerek zerler:
Penalty metotlari
Exterior penalty metodu
Interior penalty metodu (Barrier metodu)
Extended-interior penalty metodu
Augmented Lagrangian metodu
DNSTRME METOTLARI
75
Kisitli optimizasyon problemi
Minimize
Kisit
Esdeger kisitsiz optimizasyon problemi
Minimize
rp penalty katsayisi
P(x) penalty fonksiyonu: kisit ihlalinde devreye giren, kullanilan kisit
trne ve zm metoduna gre degisik tipte olan bir fonksiyon).
PENALTY METOTLARI
76
EXTERIOR PENALTY METODU
Penalty Fonksiyonu
Btn kisitlar saglanirsa, P(x) = 0.
Esdeger optimizasyon probleminin feasible bir noktadan baslayan zm
hemen bir infeasible noktaya yakinsar (gerek kisitlar direk kullanilmadigi iin).
Penalty katsayisi artirilirsa, infeasible bir noktadan baslayan esdeger problemin
zm gittike gerek zme yaklasir.
Penalty katsayisi ok artirilirsa, esdeger problemin zm ill-conditioning
durumlarinin olusmasi nedeniyle zorlasir.
77
EXTERIOR PENALTY METODU
rnek 1: f(x)= 0.5x
g(x)=x-2<=0
optimizasyon probleminin exterior penalty metodu ile zm:
( ) [ ]
2
2 , 0 max 5 . 0 ) , ( + x r x r x
p p
78
EXTERIOR PENALTY METODU
rnek 2: f(x)= (1/20)*(x+2)^2
g1(x)=(1-x)/2<=0
g2(x)=(x-2)/2<=0
optimizasyon probleminin exterior penalty metodu ile zm:

'

1
]
1

,
_


+
1
]
1

,
_


+
+

2 2
2
2
2
, 0 max
2
1
, 0 max
20
) 2 (
) , (
x x
r
x
r x
p p
79
EXTERIOR PENALTY METODU
Degerlendirme:
Penalty uygulanmasi, kisit ihlalinden sonra baslar.
Feasible blge iindeki ama fonksiyonu bundan etkilenmez.
Penalty fonksiyonu ama fonksiyonun tanimli oldugu her yerde tanimlidir.
Optimumu bulmak iin, feasible bir zmden baslama sarti yoktur.
Penalty fonksiyonun zm her zaman biraz feasible blge disina dser.
Ama fonksiyonu, feasible domain disinda tanimli olmayabilir.
Penalty katsayisini artirmak, zm gerek problemin zmne
yaklasatirirken nmerik zm de zorlastirir.
Penalty metodu ile, esitlik veya esitsizlik seklindeki problemler zlebilir.
80
INTERIOR PENALTY METODU
Penalty Fonksiyonu:
Farkli trleri vardir fakat, penalty
fonksiyonu yaygin kullanilir.
Esdeger ama fonksiyonu sadece feasible blge iinde tanimlidir. Interior
penalty metodu ile zm iin, zmn feasible bir noktadan baslatilmasi
gerekir.
Penalty katsayisinin gittike klen degerlerinin kullanilmasiyla gerek
zme yaklasilir.
Esdeger ama fonksiyonu kisit sinirlarinda tanimsizdir. Feasible bir zm
elde etmek iin 1-D arastirmalarinda (1-D search) dikkatli olmalidir.
Esitlik seklindeki kisitlar, Exterior penalty metodu ile benzer sekilde dikkate
alinir.
81
INTERIOR PENALTY METODU
rnek 1: f(x)= 0.5x
g(x)=x-2<=0
optimizasyon probleminin interior penalty metodu ile zm:
)
2
1
( 5 . 0 ) , (
' '

+
x
r x r x
p p
82
INTERIOR PENALTY METODU
rnek 2: f(x)= (1/20)*(x+2)^2
g1(x)=(1-x)/2<=0
g2(x)=(x-2)/2<=0
optimizasyon probleminin interior penalty metodu ile zm:
)
2
2
1
2
(
20
) 2 (
) , (
'
2
'

+
+

x x
r
x
r x
p p
83
INTERIOR PENALTY METODU
(Degerlendirme)
Avantaj:
Her iterasyondaki zm feasible blge iindedir. Her hangi bir nedenle
zm iterasyonlari durdurulursa, eldeki zm geerli (feasible) bir
zmdr.
Dezavantaj:
zme feasible bir noktadan baslanmak zorundadir.
Penalty fonksiyonu kisit sinirinda sonsuzdur kisit disinda ise tanimsizdir.
Herhangi bir nedenle zm feasible blge disina tasarsa, geri feasible
blgeye dnemez.
Penalty etkisinii artirmak zm gerege yaklastirir, fakat ayni zamanda
zorlastirir.
Sadece esitsizlik tipindeki problemler zlebilir.
84
EXTENDED-INTERIOR PENALTY METODU
Penalty fonksiyonu kisit ihlalinin mertebesine gre degisiklik gsterir (g0 esik
deger olarak kullanilir). Kuadratik penalty fonksiyonu.
Kisit sinirlarinda tanimsizlik durumu yoktur.
Feasible veya infeasible baslangi noktasi ile zme baslanabilir.
Metod srekli feasible blgede alisir. O yzden elde edilen sonular hep
feasible olur.
85
EXTENDED-INTERIOR PENALTY METODU
Interior metottan Exterior metoda geis go degeri ile kontrol edilir.
Diger Extended-Interior Penalty Fonksiyonlari
Lineer Extended Penalty Fonksiyonu
Degisken penalty fonksiyonu
86
EXTENDED-INTERIOR PENALTY METODU
rnek: f(x)= 0.5x
g(x)=x-2<=0
optimizasyon probleminin extended-interior metodu ile zm zm:
87
AUGMENTED LAGRANGIAN METODU
Lagrangian Metodu (Sadece esitlik trndeki kisitlarla minimizasyon)
Minimize
kisit
Kuhn-Tucker Gerek Sartlari
Dnm noktasi
kisit
88
AUGMENTED LAGRANGIAN METODU
Augmented Lagrangian (Esitlik trndeki kisitlar durumu)
Optimal Lamda_k degeri bilinmez.
Eger Lamda_k =0 ise metod Exterior Penalty metoduna dnsr.
Eger optimal Lamda_k degeri bilinirse, herhangi bir penalty katsayisi degeri
kullanarak yapilan optimizasyon hemen gerek sonucu verir.
Optimal Lamda_k degeri (tahmini bir baslangi degeri kullanarak) iteratif
olarak hesaplanir.
89
AUGMENTED LAGRANGIAN METODU
Augmented Lagrangian (Esitsizlik trndeki kisitlar durumu)
Fakat bu formlasyonda ng adet (sk) ilave degisken kullanilir.
Lagrange arpanlari iteratif olarak asagidaki gibi hesaplanir:
90
PENALTY VE AUGMENTED LAGRANGIAN METOTLARI
Genel degerlendirme:
n Penalty metotlarin uygulanmasi basittir.
n Penalty katsayilarinin seimi iin genel bir kriter olmadigindan uygun
degeri belirlemek zordur (deneme yanilma ile). Her problem iin seim
ayridir.
n Augmented Lagrangian metod, penalty metotlarin gelistirilmis halidir.
Matematiksel olarak biraz daha karmasiktir, fakat interior ve exterior
penalty metotlarin olumsuzluklarinin bir ogunu ortadan kaldirir.
n Augmented Lagrangian metod, optimizasyon probleminin zmn
penalty katsayisinin (dogru degerinin) seimine daha az bagimli hale
getirir.
91
Problemi dnstrmeden oldugu gibi (direk) zmeye alisirlar. zm metodu
olarak kisitsiz optimizasyon problemlerinde anlatilan arastirma yn konseptini
(search directions) kullanirlar.
Arastirma yn hesaplarinda:
hem ama fonksiyonunu iyilestirecek,
hem de kisitlari ihlal etmeyecek arastirma ynleri kullanilir.
Kisitli problemlerin zmnde yaygin kullanilan direk metotlar:
Method of feasible directions
Gradient projection method
DIREK METOTLAR (SEARCH METHODS)
92
METHOD OF FEASIBLE DIRECTIONS
Kisitli problemlerin zmnde arastirma yn konseptini kullanan bir metottur.
Minimize
kisit
Metot optimum iin uygun bir yn seimine ve bu yn zerinde ilerleyerek (1-D
search) optimumu bulma fikrine dayanir:
93
METHOD OF FEASIBLE DIRECTIONS
Arastirma yn hesabi:
Arastirma yn hem ama fonksiyonunu iyilestirecek, hem de bu yn zerinde
belli bir miktar gidildiginde kisitlari ihlal etmeyecek sekilde seilir.
Ama fonksiyonunu iyilestiren yn kullanilabilir bir yndr (usable
direction):
Belli bir miktar gidildiginde aktif kisitlari ihlal etmeyen yn ise geerli bir
yndr (feasible direction):
Her iki istegi saglayan yn ise hem faydali hem geerli (usable-feasible
direction) bir yndr, kisacasi optimum bir yndr.
94
METHOD OF FEASIBLE DIRECTIONS
Arastirma yn hesabi (devam):
Konveks problemlerde, kisit ihlalini nlemek iin aktif kisit sinirlarindan bir itme
faktr kullanilarak uzak durulur (push-off factor)
Pratikte, ama fonksiyonunda iyilestirme daha ok olacaksa byk push-off
faktrleri kullanilabilir. ( nin kk degerleri iin)
beta gibi yeni bir degisken tanimlanirsa, beta nin maksimizasyonu ile
nin minimizasyonu empoze edilmis olur.
95
METHOD OF FEASIBLE DIRECTIONS
Maximize
kisit
Arastirma yn hesabi (devam):
96
Degerlendirme:
zm iteratiftir (adim adimdir).
Sonu garantilidir (completely robust). zm feasible bir noktadan baslarsa,
feasible blgenin disina asla ikmaz.
Her yeni zm hem feasibledir, hem de bir ncekinden daha iyidir.
Arastirma yn seiminde trev (gradyent) bilgisi gerekir. Fakat 1-D line
search (belirlenen arastirma yn zerinde minimumun bulunmasi) iin istenen
metot kullananilabilir (Golden Section, Polynomial vs.).
Hatali yn seimi yakinsamayi yavaslatir, fakat tamamen durdurmaz.
Metodun programlanmasi biraz karisiktir. Arastirma yn baska bir
optimizasyon probleminin zmnden elde edilir. Bu da ikinci bir optimizasyon
metodu (rnegin Simplex metodu) kullanmayi gerektirir.
METHOD OF FEASIBLE DIRECTIONS
97
n Gradient projection methodu, kisitsiz problemler iin gelistirilen Steepest
descent metodundan ilham almistir.
n Arastirma yn, ama fonksiyonun negatif gradyenti ni aktif kisitlar
dzlemine iz dsrerek (projection) elde edilir.
n Iz dsm matrisi (projection matrix, P) ile feasible yn vektrnn hesabi
biraz zahmetlidir (hesap maliyeti fazladir).
GRADIENT PROJECTION METODU
98
- Gradient metodu ile lineer kisitli problemlerin zmnde ok fazla problem
yasanmaz.
- Ancak nonlineer kisitli problemlerin zm, kisit sinirlarinin egri bir yzey
olusturmasindan dolayi zordur. Egri yzeyler gradient projection ile bulunan
ynde gidilince zmn hemen infeasible olmasina yol aar. Bu sorunu
zmek iin iz dsm matrisi nonlineer kisitlarda farkli hesaplanir.
Gradient projection metodu ile arastirma yn (Sk) hesabi: Sk=-Pk*gk
Pk iz dsm matrisidir ve lineer ve nonlineer kisitlar iin farkl i hesaplanir.
Lineer kisit durumunda iz dsm matrisi (projection matrix) hesabi:
Nonlineer kisit durumunda iz dsm matrisi (projection matrix) hesabi:
GRADIENT PROJECTION METODU
(Iz Dsm Matrisi Hesabi)
99
6. Blm
GLOBAL OPTIMIZASYON
n GLOBAL OPTIMUM
n GLOBAL OPTIMIZASYON METOTLARI
n MONTE CARLO METODU
n SIMULATED ANNEALING METODU
n METROPOLIS ZM ALGORITMASI
n GENETIK ALGORITMA
n GENETIK ALGORITMA (rnek Problem)
100
GLOBAL OPTIMUM
n Global optimum: zm blgesi iindeki en ukur yeri temsil eder.
101
GLOBAL OPTIMIZASYON METOTLARI
Global optimizasyon metotlari saglam matematik temelden ziyade,
sezgisel (heuristic) temele dayanirlar:
n Monte Carlo Metotlari
n Simulated Annealing
n Genetic Algoritma
102
n Monte Carlo metodu degisken blgesinde rastgele noktalar retir ve
bu noktalarin en iyisini optimum nokta olarak seer.
n Istatistiksel kavramlar kullanilarak zmn bulunmasi hizlandirilabilir.
n Global optimum iin gittike nemi daha da artan metotlar:
simulated annealing
genetic algorithm
MONTE CARLO METODU
103
n Metot thermo-dynamics veya Metalurji alanindaki kavramlardan ilham
almistir: erimis malzemelerin yavasa sogutuldugunda katilastiktan sonra
daha kararli, daha saglam olacagi tezine dayalidir.
n Bir si vi (rnegim erimis demir) yavasa sogutulursa ve donma noktasin
yakin yeterli zaman taninirsa, en dsk enerjiye sahip mkemmel bir
kristal tesekkl edecektir.
n Katilasma iin yeterli zaman taninmazsa malzemede olusacak kristaller
kusurlu olacaktir ve daha yksek bir enerji dzeyine sahip olacaktir.
n Simulated Annealing metodu bu kavramlari optimizasyon problemin
zmnde kullanir.
n Simulated Annealing metodunda soguma sirasindaki sicaklik
degiskenlere, enerji degeri ama fonksiyonuna karsi gelecek sekilde
dnsmler yapilir.
SIMULATED ANNEALING METODU
104
Her iterasyonda bir atom rastgele bir miktar hareket ettirilir.
Yeni durumdaki enerji ile eski durumla aradaki enerji farki hesaplanir
Boltzman olasilik degeri hesaplanir: P = e^(-delta E/(kT))
k = Boltzmann sabiti,
T = sicaklik
deltaE = atomlarin yeni ve eski seviyeleri arasindaki enerji farki
Eger deltaE 0, yeni atom pozisyonlari kabul edilir then the new location is
accepted.
Yoksa, [0,1] arasinda rastgele bir sayi retilir:
Yeni sayiya karsi gelen olasilik degeri hesaplanan P den bykse, yksek
enerji seviyeli durum (yeni seviye eskisinden daha iyi zm verebilir
umuduyla) kabul edilir.
Yoksa, eski seviye muhafaza edilir ve algoritma yeni bir pozisyon hesaplar.
METROPOLIS ZM ALGORITMASI
105
n John Holland tarafindan gelistirilmistir.
Genetik algoritmalarin (GA) zellikleri:
n Genetik algoritma (GA) Darwinin dogal seleksiyon teorisini, mhendislik
problemlerin zmne uyarlarlar.
n GAlar sadece fonksiyon degerlerini kullanirlar, trev bilgisi kullanmazlar.
n GAlar degiskenlerin kendisi yerine, ikili sistemdeki kodlarini kullanirlar.
n GAlar yeni zmlerin retilmesinde, deterministik kurallar yerine olasilik
kurallarini (probabilistic rules) kullanilir.
GENETIK ALGORITMA
106
GENETIK ALGORITMA
GAlarin alisma yntemi:
Lokal optimizasyon metotlarinda bir noktadan baska bir nokta (muhtemel
optimum) elde edilir.
GA ise bir nokta populasyonundan (nokta grubundan) yeni ve daha iyi bir nokta
populasyonu (nokta grubu) elde edilir.
Optimizasyon sonunda elde tek bir zm degil de, bir zm grubu vardir.
107
GENETIK ALGORITMA
GA ile zm asamalari:
n Rastgele blge iinde belli sayida nokta seilir (populasyon). Noktalar
kodlama ile elde edilir.
n Seilen populasyondan birka iyi nokta seilir digerleri atilir.
n Iyi noktalardan populasyon sayisini tamamlayacak kadar yeni noktalar retilir.
Nokta retiminde olasilik kurallari kullanilir (probabilistic rules).
n Populasyondaki noktalar kendi aralarinda aprazlamaya tabi tutulur.
n aprazlanmis populasyon daha sonra mutasyona tabi tutulur. Mutasyon
sonunda populasyon iindeki noktalar baslangitaki noktalara gre daha iyi
duruma gelmis olurlar.
Yukaridaki adimlar, populasyon iindeki noktalardaki iyilesmeler durana kadar
devam eder.
108
GENETIK ALGORITMA
GAda degiskenlerin kodlanmasi:
Tam (integer) degerli degiskenlerin ikilik sistemde kodlanmasi
x1 = 13.0 kodlarla [0 1 1 0 1] (0<=x1<=31)
Gerek (real) degerli degiskenlerin ikilik sistemde kodlanmasi
Degisken iin string uzunlugu m (Xl<=x<=Xu), xinc artimi ile
Degiskenin gerek degeri
109
GENETIK ALGORITMA
Seim islemi:
Sans emberi olusturulur. Sans emberi, seilen noktalarin (design) ama
fonksiyon degeriyle (fitness values) orantili olarak blnr.
[0,1] arasinda rastgele bir sayi (r) retilir ve asagidaki sart saglaniyorsa i-nci
design seilir.
110
GENETIK ALGORITMA
aprazlama (Crossover): Kodlarla temsil edilen zm populasyonunda,
seilen iki ebeveyne ait kodlarda (kromozomlarda) karsilikli yer degistirme
yapilarak yeni zmler elde edilr.
Mutasyon (Mutation): aprazlama sonunda olusan populasyon kodlarinda
eskiye benzeme ihtimalini ortadan kaldirmak iin ok az degisiklik yapilir.
Kodlardaki bazi 0 lar 1 , bazi 1 ler de 0 yapilir.


Child : [0 1 0 0 1 1] Child : [0 1 0 1 1 1]

Not: aprazlama ve mutasyon belli olasiliklarda (probablity) yapilir.
111
GENETIK ALGORITMA
GA zm prosedr:
112
Avantaj:
n Konsept basit oldugu iin programlanmasi kolaydir.
n Real veya integer optimizasyon problemleri etkin bir sekilde
zlebilir.
n Herkesin kullanabilecegi genel (internet ortaminda) veya ticari kodlar
mevcuttur.
Dezavantaj:
n zm etkileyen parametrelerin seimi zordur (rnegin: mutation
rate), problemden probleme farklilik gsterirler.
n Bir problemin zm iin ama fonksiyonu ok sayida hesaplamak
gerekebilir (1000-100000 gibi). Bu da CAE programlari ile byk
modellerin optimizasyonunu imkansiz hale getirebilir.
n Kisitsiz optimizasyon problemini zerler. Ancak, penalty fonksiyon
yaklasimi ile kisitli problemler de zlebilir.
GENETIK ALGORITMA
(Degerlendirme)
113
GENETIK ALGORITMA
(rnek Problem)
Minimize:
z=[1+(x+y+1)2. ( 19-14x+3x2-14xy+6xy+3y2)].[30+(2x
-3y)2.(18-32x+12x2+48y-36xy+27y2)]
Sinirlamalar :
2 = x = -2; 2 = y = -2
Ama fonksiyonunun
boyutlu grafigi
114
GENETIK ALGORITMA
(rnek Problem)
ncelikle degiskenleri sinir degerlerine bagli olarak ikili ( binary ) sistemde
ifade edilir.
rnek 16 bit kullanilirsa : x = -2 + x . 4 / ( 216 1 )
y = -2 + y . 4 / ( 216 1 )
Burada x ve y ; degiskenlerin onluk ( decimal ) sistemdeki degerlerini
gstermektedir.
Bu durumda artik bir kromozomun uzunlugu su sekildedir :
16 bit ( x iin ) + 16 bit ( y iin ) = 32 bit
rnegin ; 1110011011001100 0110101110000010
x = 1110011011001100 x = 59076
x = -2 + 59076 . 4 / ( 216 1 ) x = 1,606
y = 0110101110000010 y = 2752
y = -2 + 27522 . 4 / ( 216 1 ) y = -0,320
115
GENETIK ALGORITMA
(rnek Problem)
Ilk poplasyonumuzu (aday zmler) olusturulur. Bunun iin
poplasyonumuzda ka birey ( kromozom ) olacagina karar vermeliyiz. Biz bu
sayiyi 20 kabul edelim. Rasgele olusturulan ilk poplasyonumuz :
116
GENETIK ALGORITMA
(rnek Problem)
Genetik algoritma zm diger zmlerle karsilastirmali olarak asagidaki
tabloda gsterilmistir:
117
GENETIK ALGORITMA
(rnek Problem)
118
7. Blm
YAKLASIK METOTLARLA OPTIMIZASYON
n YAKLASIK METOTLAR
n YAKLASIK OPTIMIZASYON METOTLARI
n ARDISIK PROGRAMLAMA
n ARDISIK LINEER PROGRAMLAMA
n KONVEKS PROGRAMLAMA
n ARDISIK KUADRATIK PROGRAMLAMA
n QUASI-NEWTON METOTLARI
n RESPONSE SURFACE METODU
n YAPAY SINIR AGLARI
119
YAKLASIK METOTLAR
Yaklasik metotlar zellikle asagidaki tabiattaki problemlerin etkin zmnde
faydalidir:
n Gradyent bilgisinin olmadigi veya gvenilir olmadigi problemlerde,
n Grltl (non-smooth) problemlerin optimizasyonunda.
Tanimi ve amaci:
Yaklasik metotlar, optimizasyonda ama ve kisit fonksiyonlarinin daha basit
yaklasikligini elde etmede kullanilan yntemlerdir.
Yaklasik metotlarin kullaniminin temel amaci, optimizasyon sresini
kisaltmaktir.
120
YAKLASIK OPTIMIZASYON METOTLARI
n Ardisik Lineer Programlama (SLP)
n Konveks Programlama
n Ardisik Kuadratik Programlama (SQP)
n Response Surface Metodu
n Yapay Sinir Aglari
121
ARDISIK PROGRAMLAMA
Ardisik programlama (Sequential programming), zm sirasinda ama ve
kisit fonksiyonlarinin ardisik yaklasimlarini kullanma fikrine dayanir.
Olusturulacak yaklasik fonksiyonlar analitik fonksiyonlar olduklarindan,
zmleri klasik optimizasyon metotlarindan biri ile kolayca yapilabilir.
Yaklasik fonksiyonlarla ifade edilen optimizasyon problemine yaklasik
optimizasyon problemi (sub problem) denir.
Yaklasik problemin zm, optimumu yaklasik olarak verir. Optimumu
dogru sekilde edebilmek iin, yaklasik metotlar ardisik olarak uygulanmalidir.
122
ARDISIK LINEER PROGRAMLAMA
Ama ve kisit fonksiyonlarinin lineer yaklasimlarini ardisik sekilde
kullanarak problem zmeye ardisik lineer programlama (sequential linear
programming,SLP) denir.
Lineer yaklasimlar herhangi bir x(k) noktasi civarinda Taylor seri ailimlari
ile olusturulabilir.
Ardisik lineer programlama problemleri Simplex metodu ile zlebilir.
fikrine dayanir.
123
ARDISIK LINEER PROGRAMLAMA
Gerek problem konveks ise
lineerlestirilmis fonksiyonlarin
optimumu gerek zmn
disindadir.
Lineerlestirilmis fonksiyonlarla
problemin zmnde, zm
blgesinin srekli sinirlanmasi
lazimdir.
Aksi takdirde problem sinirsiz olur
ve zm salinimli (oscillating) olur.
124
ARDISIK LINEER PROGRAMLAMA
(Move Limits)
Yaklasik fonksiyonlarin dogrulugu,
yaklasimin yapildigi x(k) noktasi
civarindaki kk bir blge iin
geerlidir. Bu blgeye gven blgesi
(trust region) denir.
Yaklasik fonksiyonlarin zmn,
gven blgesi iin sinirlamak dogru
olur.
Gven blgesi olusturmak iin
degiskenler zerine kk alt ve st
sinirlar konur. Bu sinirlar move limits
olarak adlandirilir.
125
ARDISIK LINEER PROGRAMLAMA
(Move Limits)
Move limit sinirlari, zmm gidisati ile daralip genisleyebilmelidir (adaptive
olmalidir). Yakinsama hizli ilerliyorsa genislemeli veya sabit kalmali, yavas
ilerliyorsa daralmalidir.
Degiskenler optimuma bir taraftan yaklasirken asagidaki sarti saglarlar :
Yukaridaki sart saglaniyorsa, xj degiskeni zerindeki sinirlar genisletilmelidir.
126
ARDISIK LINEER PROGRAMLAMA
(Degerlendirme)
Avantaj:
Ama ve kisit fonksiyonlarin lineer yaklasimi, Taylor serisi ile kolayca
olusturulur.
SLP yaklasimi ile ok degiskenli ve kisitli problemler kolayca zlebilir.
Problem zmnde gvenilir olan Simplex algoritmasinin kullanilmasi
mmkndr.
Dezavataj:
Yakinsama garanti edilemez. Fakat yakinsama performansi degiskenler zerine
sinirlar (move limits) uygulayarak artirilabilir.
Move limits sinirlari yakinsamayi saglamak iin adaptive olmalidir.
Non lineer problemlerin zm, ok sayida iterasyon gerektirebilir.
127
KONVEKS PROGRAMLAMA
SLP gibi metotlar basitlikleri nedeniyle caziptir. Fakat ham halleriyle zm
garantilemezler. Iyi bir move limit kriterleri ile desteklenmeleri gerekir. Aksi
takdirde zmde srekli salinimlar grlr ve yakinsama olmaz.
Simdi soru, SLP gibi basit fakat zm byk lde garantileyen bir metot
var midir?
Bu sorular konveks programlama (convex programming) metoduna yol
amistir.
128
KONVEKS PROGRAMLAMA
(Konzervatif Yaklasimlar)
Feasible blgeyi oldugundan daha dar
kabul eden yaklasik fonksiyonlar
(conservative approximations) problem
zmne konzervatif bir yaklasim
sunarlar.
Konzervatif yaklasimlar optimum
zme feasible noktalardan geerek
varmayi saglarlar.
Bu aidan bakildiginda SLP
yaklasimlari konzervatif yaklasimlar
degillerdir.
129
KONVEKS PROGRAMLAMA
(CONLIN Algoritmasi)
Konveks programlama metotlarindan ilki, Claude Fleury tarafindan
gelistirilen CONLIN dir.
Degisken dnsm esasina dayalidir.
Bu metotta SLP yaklasiminda degiskenlerden bazilari, direk yerine ters
olarak kullanilirlar (reciprocal variables).
burada
Yukaridaki denklem asagidaki gibi de yazilabilir:
Yaklasik modelde ise 1. toplam ifadesi, degilse 2. toplam ifadesi
kullanilir.
130
KONVEKS PROGRAMLAMA
(CONLIN Algoritmasi)
CONLIN yaklasiminda trevin pozitif veya negatif olmasina gre, 1. veya
2. toplamin kullanilmasi modeli olduka konzervatif hale sokacaktir.
CONLIN yaklasimi ile ifade edilen problemin byk kismi, analitik olarak
(Dual Technique metodu ile) zlebilir. Bu tarz zm, problemin degisken
sayisini dsrerek zm hizlandiracaktir.
Konveks programlama, ok degiskenli integer problemlerin zmnde de
kullanilabilir.
131
KONVEKS PROGRAMLAMA
(Method of Moving Asymptotes, MMA)
Diger bir konveks programlama metodu da hareketli asimtotlar metodudur
(method of moving asymptotes, MMA).
Krister Svanberg tarafindan nerilmistir.
MMA nin matematik ifadesi biraz daha farkli ve karmasiktir.
Asimtotlar sayesinde yaklasimin konzervatifligi srekli korunur.
MMA daki asimtotlar, SLP daki move limit sinirlari vazifesi grrler.
MMA CONLINden daha poplerdir ve bir ok problem iin kullanilmaktadir.
132
KONVEKS PROGRAMLAMA
(Degerlendirme)
Avantaj:
Konveks programlamada kullanilan yaklasik fonksiyonlar, genellikle
CONLIN, MMA fonksiyonlari gibi basit lineer fonksiyonlardir.
Konveks programlama, SLPden daha konzervatif yaklasimlar kullanir.
Konveks problemlerin zm kismen analitiktir ve bu yzden de hizlidir.
zme feasible noktalar ile varilir (Yani optimumu buluncaya kadar elde
hep feasible zm vardir).
Dezavantaj:
Konveks metotlar ok degiskenli durumlarda ok etkilidirler fakat ok kisitli
durumda zaafiyet gsterirler.
133
ARDISIK KUADRATIK PROGRAMLAMA
Ardisik kuadratik programlama (Sequential Quadratic Programming, SQP)nin
altindaki temel fikir; daha iyi (daha dogru) yaklasik fonksiyonlarin problem
zmn (yakinsamayi) hizlandiracagidir.
Bu amala SQP metodunda, ama fonksiyonlarin kudratik yaklasikligi
olusturulur ve kullanilir.
H Hessian matris (2. trev matrisi):
134
ARDISIK KUADRATIK PROGRAMLAMA
Avantaj:
Kuadratik yaklasim bazi gzel zellikler sunar:
Yaklasik fonksiyonlar anak gibi ukur blge olustururlar. Bylece degisken
blgesi otomatikmen sinirlanmis olur.
Bu yzden SQPde SLP gibi move limit sinirlara gerek yoktur.
SQP problemlerinde optimallik sarti kuadratik optimizasyon probleminin
lineer probleme dnsmesine yol aar. Olusan lineer problem de Simplex
metodu ile zlebilir.
135
ARDISIK KUADRATIK PROGRAMLAMA
Dezavantaj:
SQP, Hessian matrisi Hnin hesaplanmasini gerektirir. Bu da zm sresini
uzatan bir unsurdur.
2. mertebe yaklasimlar, lineer yaklasim fonksiyonlarina gre problemin
przllgne/sreksizliligine daha hassastir.
QP direk zm ogunlukla hessian matrisin tersini gerektirir. Bu da
zellikle degisken sayisi ok ise, problemin zmnn ok uzamasina yol
aar.
Quasi-Newton Metotlari sinifindaki metotlar, yukaridaki sorunlarin bir
ogunu ortadan kaldirirlar.
136
QUASI-NEWTON METOTLARI
Sanki Newton (Quasi-Newton) metotlari ile zmde:
Lineer yaklasik fonksiyonlar ve H=I Hessian matrisi ile zme baslanir.
Her iterasyonda ama ve kisit fonksiyonlarin gradyentleri hesaplanir ve
hafizada tutulur.
Bir ok noktadaki gradyent degerleri kullanilarak Hessian matrisin yaklasigi
hesaplanir.
Her iterasyonda yaklasimin kalitesi artirilir.
Gradyent ve Hessian matris yaklasimlari kullanilarak kuadratik yaklasik
fonksiyonlari olusturulur.
Gradyentler kullanilarak olusturulan
kuadratik fonksiyon
137
QUASI-NEWTON METOTLARI
Bazi metotlar direk olarak Hessian matrisin tersine yaklasimda bulunurlar.
Bu tr yaklasimlar, Hessian matrisin tersini hesaplamamiza gerek birakmazlar.
Bu tr yaklasimlar, kuadratik yaklasimin gerek problemi yeterli dogrulukta
temsil edecegi durumlarda ise yararlar.
Eger optimizasyon yeterince hizli yakinsamiyorsa (rnegin 10 iterasyonda),
gerek problem muhtemelen kuadratik degildir. Bu durumda Hessian matrisi
birim matrise esit (H=I) alarak optimizasyona devam etmek daha uygundur.
Bazi fonksiyonlar kuadratik fonksiyonlarla
yeterli dogrulukta yaklasilamazlar.
138
RESPONSE SURFACE METODU
Ama ve kisit fonksiyonlarinin polinom tipinde yaklasigini (response
surface model) olusturmada kullanilir:
a0, ai, aij, aijk,.: Model sabitleri (en kk kareler yntemi ile bulunur)
Model olusturmada zel deney tasarimlari kullanilir.
139
RESPONSE SURFACE METODU
Yaklasik model:
Deneyler:
En kk kareler yntemi:
140
RESPONSE SURFACE METODU
Deney Tasarimi:
Model olusturmada kullanilacak en uygun noktalari (parametre
degerlerini) seer
Yaygin kullanilan deney tasarim trleri:
Factorial designs
Random designs
Latin Hypercube designs
141
RESPONSE SURFACE METODU
Factorial designs:
Noktalar degisken sinirlari iinde dzenli bir sekilde ag gibi dizilidirler
Nokta sayisi factorial design tarafindan empoze edilir.
Deney tasarimi ortogonaldir.
142
RESPONSE SURFACE METODU
Central composite design:
Nokta sayisi central kompozit design tarafindan empoze edilir
Box-Behnken design:
Nokta sayisi Box-Behnken design tarafindan empoze edilir
143
RESPONSE SURFACE METODU
Randomdesigns:
Noktalar degisken sinirlari iinde rastgele dagilmistir (uniformlugu
saglayacak sekilde)
Nokta sayisini kullanici empoze eder
Deney tasarimi orthogonal degildir
144
RESPONSE SURFACE METODU
Latin hypercube design:
Degisken blgesi her bir degisken boyunca nokta sayisi kadar araliklara
blnr.
Rastgele olarak blge iinde istenen sayida nokta retilir.
Rastgele seilen noktalarin karelere uniform dagilmasi saglanir.
145
RESPONSE SURFACE METODU
n: parametre (degisken) sayisi
Deney tasarim metodu nasil seilmelidir?
146
RESPONSE SURFACE METODU
(Degerlendirme)
Response surface metotlarin kullanimindaki en byk sorun, degisken sayisi
artinca modeli kurmak iin gerekli deney sayisinin ok hizli artmasidir (curse of
dimensionality).
Response surface modeli olusturmak iin gerekli deney sayisi:
1 degisken iin: en az 3 deney
2 degisken iin: en az 6 deney
3 degisken iin: en az 10 deney
10 degisken iin: en az 66 deney
n degisken iin: en az (n+1)(n+2)/2 deney
Bu nedenle response surface modellerin kullanilmasi, az sayidaki (10
civarinda)degiskenler iin uygun gzkmektedir.
Ancak son yillarda gelisen bilgisayar donamim teknolojisi (super computer ve
parallel computing technology) response surface model kullanimindaki bu
zorluklari gittike ortadan kaldirmaktadir.
147
YAPAY SINIR AGLARI
n Insan beynindeki sinirlerin isleyis seklini simle eden metotlardir.
n Nonlineer modeller retirler.
n Iyi egitilirlerse iyi tahmin yetenekleri vardir
148
YAPAY SINIR AGLARI
Nodlar (neuronlar) birbiriyle baglanarak ag (network) olusturulur.
Bir Yapay Sinir Agi (Artificial
Neural Network, ANN) su
kisimlardan olusur:
Girdi tabakasi (input layer)
Gizli tabaka (hidden layer)
ikti tabakasi (output
layer)
149
YAPAY SINIR AGLARI
(Egitilmesi)
Girdi ve ikti bilgileri kullanilarak agirlik katsayilarinin hesaplanmasi
islemine yapay sinir aglarinin egitilmesi denir.
Agirlik katsayilarilarinin bulunmasi islemi kisitsiz bir optimizasyon problemidir
Deney tasarim yntemi olarak random veya latin hypercube tavsiye edilir
f(x): aktivasyon veya transfer fonksiyonu olarak adlandirilir
f(x) iin ogunlukla asagidaki trde sigmoid fonksiyonlar kullanilir
Agirlik katsayilari:
Girdi ve ikti arasindaki iliskiyi veren ANN fonksiyonu:
150
YAPAY SINIR AGLARI
(Degerlendirme)
Avantaj:
n ANN grenme ve iyi sonu ikarma (tahmin) yetenegi vardir
n Modelin tahmin yetenegi neuron ve/veya katman sayisi artirilarak
kolayca gelistirilebilir
n ANN modelin basit standart bir yapisi vardir
n Modeli olusturma maliyeti RS de oldugu gibi degisken sayisi ile non
lineer olarak artmaz.
151
YAPAY SINIR AGLARI
(Degerlendirme)
Dezavantaj:
n Hangi ANN yapisinin iyi bir yaklasik model olusturacagini kestirmek
zordur (deneme yanilmaya aiktir).
n ANN yapisi her problem iin farklidir.
n ANN egitme sreci RS model olusturmaya gre ok zaman alabilir
(optimizasyon problemi zmnden dolayi).
n Olusturulan yaklasik modelin matematiksel formunu grmek mmkn
olmaz.
152
8. Blm
YAPISAL OPTIMIZASYON
n MHENDISLIK PROBLEMLERI VE OPTIMIZASYON
n TASARIM OPTIMIZASYONU
n PARAMETRIK MODEL OLUSTURULMASI
n TASARIM BLGESININ ARASTIRILMASI
n TASARIM OPTIMIZASYON METOTLARI
n YAKLASIK METOT
n TREV METODU
n PENALTY FUNCTIONS
ROBUST TASARIM (TAGUCHI METODU)
TOPOLOJI OPTIMIZASYONU
OPTIMIZASYONDA NEMLI HUSUSLAR
PROBABILISTIK DIZAYN
KARAKTERIZASYON PROBLEMLERI
153
MHENDISLIK PROBLEMLERI VE OPTIMIZASYON
Optimizasyon problemlerinde oldugu gibi, Mhendislik problemlerinin de
zm karar vermeyi (tasarim parametrelerinin belirlenmesi) ierir.
Problem zm birbiriyle elisen esitli ama ve kisitlamalari
dengeleyecek (uzlastiracak) parametrelerinin belirlenmesini gerektirir,
Parametre sayisi 2 den fazla ise en uygun degerleri beyin gc ile deneme
yanilma ile bulmak hem ok zorlasir hem de ok uzun zaman alir.
rnek: Bisiklet tasarimi
Istenen zellikler:
Stiffness
Lightness
Low cost
Durability
zelliklerin birinde iyilesme digerinde ktlesmeye neden olabilir. Iyi bir tasarimda
bu elisen zelliklerin dengelenmesi lazimdir. Deneme yanilma ile bu sre hem
zor hem de uzun olur. Optimizasyonla bu sre ok daha kolay olur.
154
rnek: Kafes yapi parametrelerinin belirlenmesi
Kafes yapida 11 eleman var. Her bir eleman iin 5 farkli profilden birinin
seilecegini dsnelim.
Seim isi deneme yanilma ile yapilacak olursa 5^11= 49 milyon ihtimalin
denenmesi ve en iyi kombinasyonu veren profillerin seilmesi gerekir. Halbuki
optimizasyon metotlari ile bu is sadece birka saniyede zlr.
MHENDISLIK PROBLEMLERI VE OPTIMIZASYON
155
rnek: Trbin tasarimi
Trbin seklinin tasarimi, uygulanan yke,
sicaklik dagilimina ve malzeme
zelliklerine baglidir. Zihinle arada bir iliski
retmek ve en uygun sekli bulmak zordur.
Bu durumda optimizasyon tek aredir (tek
alternatif tasarim yntemidir).
MHENDISLIK PROBLEMLERI VE OPTIMIZASYON
156
MHENDISLIK PROBLEMLERI VE OPTIMIZASYON
n Yaygin tasarim yntemi deneme yanilma yntemidir.
n Deneme yanilma ile az degiskenli ve basit tasarim problemleri zlebilir.
n ok degiskenli ve karmasik tasarim problemlerinin zm ya ok zordur
(yahut imkansizdir) veya ok zaman alir.Tasarim sreci pratik olmaktan
ikar.
n ok disiplini tasarim problemlerini tek kisinin yapmasi ise imkansizdir.
n Optimizasyon metotlari en uygun alternatif tasarim yntemini saglar:
Karmasik tasarimlar kolayca yapilir
Tasarimlar hizli yapilir
Deneme yanilmaya gre ok daha etkin tasarimlar bulunur.
n Tasarim srecini otomotize etmeye yardimci olur.
Optimizasyon metotlarinin mhendislik tasarimlarinda kullanilmasi son
yillarda yayginlasmistir (Otomotiv, Makine, Uak, Gemi, Insaat, Biomekanik
mh.).
nceden sadece analiz yetenegi olan mhendislik yazilimlari optimizasyon
metotlariyla desteklenmeye baslanmistir (ANSYS, I-DEAS, HyperOPT, LS-
OPT vs.).
157
TASARIM OPTIMIZASYONU
Tasarim optimizasyonu (Design optimization):
n Optimum designi elde etme islemine denir.
Optimum design:
a) Gerilme, frekans, sicaklik gibi istenen veya empoze edilen btn
sartlari, sinirlamalari, kisitlamalari saglar.
b) Agirlik, maliyet veya baska istenen kriteri en aza (minimuma) indirir.
rnek: Egilme yklemesine maruz bir kiris iin optimum design I kesitli bir
kiristir.
158
TASARIM OPTIMIZASYONU
(Terminoloji)
Bir tasarim optimizasyonu problemi kisimdan olusur:
1. Minimize veya maksimize edilecek kriter. Bu ama fonksiyonudur
(objective function).
rnekler:
Toplam agirlik veya hacim (genellikle minimize edilir)
isi transfer hizi (genellikle maksimize edilir)
2. Amaci gereklestirmek iin oynanacak parametreler (Design
characteristics). Bunlar tasarim degiskenleridir (design variables=DV).
rnekler:
kalinlik
ykseklik
Yuvarlatma yariapi
akma gerilmesi degeri
delik sayisi
159
TASARIM OPTIMIZASYONU
(Terminoloji)
3. Tasarimin saglamasi gereken sartlar. Bunlar tasarim kisitlardir
(constraint=state variables= SV).
rnekler:
Maksimum gerilme zerine sinirlar
Maksimum kme/egilme degeri zerine sinirlar
En dsk dogal frekans degeri zerine sinirlar
Maksimum sicaklik zerine sinirlar
Maksimum sicaklik gradyenti zerine sinirlar
160
TASARIM OPTIMIZASYONU
(Terminoloji)
n Tasarim degiskenleri:
A1, A2, A3kafes yapidaki
kesit alanlari.
H1, H2kafes yapidaki
ortadaki kirislerin yksekligi.
n Tasarim kisitlari:
SMAX 10,000 psitm
elemanlardaki maksimum
gerilme.
DMAX 1.0 inbaglanti
noktalarindaki maximum
kme.
n Ama fonksiyonu: V, toplam
hacim, minimize edilecek.
rnek problem zerinde terminolojinin aiklanmasi:
Problem: Ykleme altindaki bir kafes yapinin agirligi en az (minimum), ve
zerindeki maksimum gerilmenin 10,000 psi yi, maksimum kmenin de 1
in i gemeyecek sekilde optimum tasarimi. Optimum tasarimi basarmak
iin kesit alanlari ve kafes yapinin ortasindaki kiris ykseklikleri
degistirilecektir.
H1
H2
A1
A2
A3
H1
161
TASARIM OPTIMIZASYONU
(Terminoloji)
n Feasible design (kabul edilebilir tasarim): btn tasarim sartlarini/kisitlarini
saglayan tasarim. Tasarim parametreleri belirtilen sinirlar iindedir.
n Infeasible design (kabul edilemez tasarim): tasarim sartlarindan/kisitlarindan
en az birini ihlal eden tasarim.
nceki problemde, rnegin eger
kafes yapida da kme 1 in
den fazla olursa, tasarim
infeasible tasarimdir.
Optimizasyon programlari
(ANSYS gibi) infeasible
tasarimdan feasible tasarimlar
retebilir.
SV
DV
SV
max
SV
min
DV
min
DV
max
feasible
infeasible
162
TASARIM OPTIMIZASYONU
(Terminoloji)
n En iyi tasarim (best design): ama fonksiyonun en dsk degere sahip
oldugu ve btn sartlarin/kisitlamalarin mmkn oldugu kadar saglandigi
tasarim
Eger feasible tasarim elde edilememisse o zaman en iyi tasarim
kisitlamlari olabildigi kadar saglayan tasarimdir (ama fonksiyonun en
dsk degerde oldugu tasarim degil)
n Tasarim blgesi (design domain or design space): tasarim parametrelerinin
tanimladigi blge. Bu blge ayni zamanda feasible tasarimlarin oldugu
blgedir.
163
TASARIM OPTIMIZASYONU
(Terminoloji)
Tolerans:
n Bilgisayar hesaplamalarinda yuvarlatmalar ve kesme hatalari nedeniyle,
istenen zmleri tam olarak elde etmek zordur.
n Bu hatalar nedeniyle istenen zme yeterli miktarda yaklasinca, zm
elde edilmis sayilir.
n Bu yeterli miktara tolerans denir (TOLER).
n zmde kullanilan tolerans degerleri ama fonksiyonu, kisitlar ve
degiskenler iin farkl idir. Toleranslar genellikle % cinsinden bazen de
mutlak deger cinsinden empoze edilir.
rnek: ANSYS te kisitlar (State Variables, SV) iin tolerans hesaplamasi:
Tek tarafli kisit iin : 0.01*MAX or 0.01*MIN,
ift tarafli kisit iin : 0.01*(MAX-MIN).
Feasible Region
ift tarafli kisit durumunda tolerans
TOLER
MAX MIN
TOLER Infeasible Infeasible
164
TASARIM OPTIMIZASYONU
(Terminoloji)
Yakinsama:
n zm sirasinda elde edilen tasarim feasible ve asagidaki 4 sarttan biri
saglaniyorsa, optimum tasarim elde edilmis sayilir ve zm durdurulur:
1. Ama fonksiyonun, son iterasyon ve en iyi feasible durumdaki deger
arasindaki fark torens kadar veya daha az ise:
|OBJ
current
- OBJ
best
| < TOLER
obj
2. Ama fonksiyonun, son iki iterasyon degerleri arasindaki fark torens
kadar veya daha az ise:
|OBJ
current
- OBJ
current-1
| < TOLER
obj
3. Her bir parameter iin (DV), son iterasyon ve en iyi feasible durumdaki
deger arasindaki fark torens kadar veya daha az ise:
|DV
current
- DV
best
| < TOLER
dv
for all DVs
4. Her bir parameter iin (DV), son iki iterasyon degerleri arasindaki fark
torens kadar veya daha az ise:
|DV
current
- DV
current-1
| < TOLER
dv
for all DVs
165
TASARIM OPTIMIZASYONU
(Terminoloji)
Yakinsama:
Yakinsam sartlarinin saglanmasi, gerekte tam bir optimum
tasarimin elde edildigini gsterir mi ?
n Tam olarak degil. Sadece elde edilen tasarimin kisitlari ve 4
yakinsama sartindan birini sagladigini gsterir.
n Elde edilen tasarimin optimum olup olmadigina, mhendisin kendisi
karar verir. Daha iyi tasarimlar asagidaki yntemlerle arastirilabilir:
optimizasyon prosesini farkli bir tasarimdan baslatarak,
kisit sinirlarinda degisiklikler yaparak
veya tolerans degerlerini degistirerek.
166
TASARIM OPTIMIZASYONU
(Terminoloji)
Parametrik model:
n Optimizasyon tmyle parametrelere dayanir
Degiskenler (DV), kisitlar (SV) ve ama fonksiyonu hep
parametreler cinsinden ifade edilmelidir.
n Parametreler sayesinde farkli kriterler bir araya getirilerek yeni
kriterler olusturulabilir.
rnek: Hem maksimum gerilme (gerilme analizi ile), hem dogal
frekans (modal analiz ile) kisitlar olarak tek bir problemde
kullanilabilir.
167
TASARIM OPTIMIZASYONU
(Optimizasyon Trleri)
Design optimizasyon yazilimlari ile (ANSYS gibi) asagidaki arastirmalari
yapmak mmkndr:
n Parametrik optimizasyon
Boyut optimizasyonu (Size optimization)
Sekil optimizasyonu (Shape optimization)
Karakterizasyon (Identification)
n Tasarim blgesinin arastirilmasi (Exploring the design domain)
Syle olsaydi ne olurdu? sorusuna kisa yoldan cevaplar:
rastgele arastirma (random design),
sprme (sweep),
deney tasarim yntemleri (design of experiment)
ve gradyent (sensitivity analysis) hesaplamalari ile aranabilir.
168
TASARIM OPTIMIZASYONU
(Optimizasyon Trleri)
n Konsept tasarim retilmesi (Creating a conceptual design)
Topoloji optimizasyonu (topological optimization) olarak da bilinir.
Mevcut tasarimin uygun blgelerinden malzeme ikartilarak agirlik
azaltilir.
Sekil optimizasyonu ile agirlik azaltilmasi ayni anda basarilir.
Parametrik optimizasyonla elde edilemeyecek ilgin sekiller elde
edilebilir.
169
TASARIM OPTIMIZASYONU
(Yazilimlarla Uygulanisi)
n ANSYS gibi yazilimlarda design optimizasyon uygulama sekli.
Design
Optimizasyon
programi
Explore the
Design Domain
Optimize the
Design
Parametrik
Model
Parametric:
-Geometry
-Loading
Solution
Parametric
Results
170
PARAMETRIK MODEL
OLUSTURULMASI
171
PARAMETRIK MODEL
n Her optimizasyon (topoloji optimizasyonu hari) parametrik model ile baslar.
n Degiskenler (DV), kisitlar (SV) ve ama fonksiyonu hep parametreler cinsinden
ifade edilmelidir.
rnegin:
Eger hacim (ama fonksiyonu) minimize edilecekse, o zaman tm hacim
parametrik olarak ifade edilmelidir.
Eger H1 yksekligi degisken olarak belirtilmisse, geometrik model H1
cinsinden olusturulmal idir.
Eger gerilme kisit olara belirtilmisse, gerilme parametrik olarak ifade
edilmelidir.
n Model hazirlanmasindan, analiz ve sonularin islenmesine kadar tm sre
parametrik model iinde olmalidir. Yazilimlarda (ANSYS gibi) parametrik
model ogunlukla bir dosya formundadir.
n Tasarim srecini otomotize etmek iin, parametrik model optimizasyonun
olmaza olmaz sartidir.
172
PARAMETRIK MODEL
Parametrik modelde:
n Tasarim geometrisi parametreler cinsinden olusturulur.
n Bylece, parametre degerlerinde yapilacak bir degisiklikle kolayca yeni bir
geometri elde edilmis olur. Bu yeni geometri daha sonra analiz edilerek
sonularina bakilabilir ve yorum yapilabilir.
H1
H2
A1
A2
A3
H1
173
PARAMETRIK MODEL
(rnek)
174
PARAMETRIK MODEL
(rnek)
175
TASARIM BLGESININ
ARASTIRILMASI
(DESIGN EXPLORING)
176
TASARIM BLGESININ ARASTIRILMASI
n Tasarim blgesinin arastirilmasi (Exploring the design domain) ile
blge iinde birka farkli tasarim retilir ve sonularina bakilir.
Kullanilan metotlar:
n Random
n Sweep
n Factorial
n Gradient
n Yukaridaki metotlar, diger optimizasyon metotlari (subproblem) iin
iyi bir baslangi tasarimi elde etmede de kullanilabilirler.
177
TASARIM BLGESININ ARASTIRILMASI
(RandomTool)
n Metot blge iinde rasgele istenen sayida tasarim retir.
n Diger optimizasyon metotlari (subproblem) iin birka iyi baslangi
tasarimi elde etmede de kullanilabilir.
178
TASARIM BLGESININ ARASTIRILMASI
(Sweep Tool)
n Referans dizayn iin tasarim blgesinde sirasiyla her bir parametre degerini
degistirerek (diger parametreleri sabit tutarak) o parametrenin sonulari
nasil degistirdigine bakilir.
n Global hassasiyet (global sensitivity studies) analizleri iin faydali bir
yntemdir. Parametre degisimleri ile tasarim performansinin nasil degistigi
incelenir.
n Sweep metodu iin bir referans tasarim ve bu tasarima karsi gelen
parametre degerleri belirtilmelidir.
DV1
DV2
Reference Design
179
TASARIM BLGESININ ARASTIRILMASI
(Gradient Tool)
n Referans dizayn parametre degerlerinde kk degisiklikler yapilarak,
tasarim performansinin nasil degistigi incelenir.
n Lokal hassasiyet (local sensitivity studies) analizleri iin faydal i bir
yntemdir.
n Bu yntem, optimizasyon sonucu (Subproblem optimization) bulunan her
optimum dizayna uygulanir. Bylece optimum dizaynin parametre
degerlerindeki ufak degisikliklere karsi kararli olup olmadigi anlasilir.
Obj
DV
180
TASARIM BLGESININ ARASTIRILMASI
(Factorial Tool)
n Istatistik metotlari ile btn parametre degerlerinin alt ve st degerleri
kullanilarak esitli tasarimlar retilir ve performanslari incelenir.
n Her bir parametrenin ve parametre etkilesimlerinin (2-parameter
etkilesimleri, 3-parametre etkilesimleri) tasarim performansina nasil
yansidigi incelenir.
n Faktryel metot deney tasarimlarinda yaygin kullanildigi iin, deney
tasarim metodu (design of experiment) olarak da bilinir.
Design Space
181
TASARIM OPTIMIZASYON
METOTLARI
(DESIGN OPTIMIZATION
METHODS)
182
TASARIM OPTIMIZASYON METOTLARI
Sonlu Elemanlar Analizi (FEA) ile optimizasyonda kullanilan metotlari:
n Yaklasik metot (Subproblem approximation method)
n 1.Trev/Gradyent metodu (First order method)
183
YAKLASIK METOT
Yaklasik metot:
n Ama ve kisit fonksiyonlarin, sadece degerleri kullanilir.
n Bu degerlerden ama ve kisit fonksiyonlari iin yaklasik fonksiyonlar
olusturur.
n Yaklasik fonksiyonlar kullanilarak, yaklasik optimizasyon problemi ifade edilir
ve zlr.
Yaklasik optimizasyon probleminin zm, optimum iin yaklasik bir
deger verir.
Bulunan optimum tasarim iin tekrar analiz yapilmali, gerek ama ve
kisit fonksiyonlari ile yaklasik ama ve kisit fonksiyonlari
karsilastirilmalidir.
Gerek ve yaklasik fonksiyon degerleri arasindaki fark az ise optimum
tasarim kabul edilir. Aksi takdirde yaklasimlar iyilestirilmelidir.
184
YAKLASIK METOT
Yaygin kullanilan yaklasik fonksiyon modeli, lineer veya kudaratik
polinom modelidir:
H~ = modelin yaklasik oldugunu gstermektedir
X
n
= Degisken/parametre
a, b, c = katsayilar/sabitler
N = Toplam degisken/parametre sayisi
n m
N
m
N
m n
mn
N
n
n n
N
n
n n
X X c X b X a a H


+
+ + +
1
1 1 1
2
1
0
~
Linear
Quadratic
Quadratic + cross terms
185
YAKLASIK METOT
ANSYS gibi yazilimlar yaklasik polinom model olusturmada hiyerarsik bir
yol izlerler.
n Ilk iterasyonda lineer model olustururlar.
Bunun iin nce N+2 tane nokta (tasarim) seilir (retilir)
Random metot gibi metotlar kullanilabilir veya elde yeterli nokta varsa
onlar kullanilabilir.
Iyi noktalar kullanilirsa yaklasimlarin kalitesi artar.
neri: Random metot gibi metotlarla ok sayida nokta retilip bunlarin
en iyilerinin (feasibel designs) kullanilmasi, yaklasimlarin iyi olmasi iin
bir yntem olarak nerilebilir.
n Sonraki iterasyonlarda lineer modellerden kuadratik modellere dogru geilir.
186
YAKLASIK METOT
n Yaklasik metot bir ok uygulamalar iin tavsiye edilir.
nk:
Genel bir yntem izler.
Optimuma abuk yakinsar.
187
YAKLASIK METOT, ANSYS
N+2 Design
Sets?
Generate a
random DV set
Run the
analysis file
Form new objective function
and SV approximations
Apply penalty functions to
enforce DV and SV limits
Locate the minimum of the
penalized objective function
Compute a new set of DVs
Run the analysis file
No Yes
Converged?
Or terminate?
Stop
Yes
No
Run...
188
TREV METODU
Trev metodu:
n Optimumu bulmada arastirma yn konseptini ve dolayisiyla ama
ve kisit fonksiyonlarinin 1. trevini kullanir.
n Yaklasik fonksiyon kullanmadigindan sonu daha dogrudur.
n Trev hesabi iin sonlu farklar metodu kullanildigindan, trev
hesabinda ok sayida FEA analiz gerekir.
n Optimuma yavas yakinsar.
189
TREV METODU
n Trev metodu ne zaman kullanilmali?
Sonucun (optimumun) dogrulugu nemliyse.
Yaklasik metot yeterli dogrulukta sonu retemiyorsa.
n Yakinsamanin hizli olmasi isteniyorsa, trev metodu pek nerilmez.
190
TREV METODU, ANSYS
At least one
design set?
Apply penalty functions to
enforce DV and SV limits
Find the minimum of the
penalized objective function
using the gradient of the
Compute a new set of DVs
Run the analysis file
No Yes
Stop
Yes
No
Run...
Stop
Converged?
Or terminate?
191
PENALTY FUNCTIONS
n Yaklasik metot ve trev metodunun her ikisi de kisitli problemlerin
zmnde penalty function yaklasimini kullanir.
n Penalty function, kisitsiz optimizasyon metodu Polak-Robiere ile zlr
(ANSYS).
Min Max
DV constraint
Objective Function
Penalized Objective
Function (unconstrained)
Obj
DV
192
ROBUST TASARIM
(TAGUCHI METODU)
193
TAGUCHI METODU
n 2. Dnya Savasindan sonra Japon mhendis Dr. Genichi Taguchi tarafindan
robust design (kontrol edilemeyen parametrelere en az hassas dizayn) iin
gelistirilmistir.
n Taguchi metodu belli sayida deney yaparak ve deney sonularini isleyerek
optimum parametre degerlerini bulur
n Metodun bel kemigini ortogonal deney tasarimlari olusturmaktadir.
n Ortogonal deney tasarimlari faktoriyel deney tasarimlarina dayanir.
Avantaj:
n Deney sartlarini ok iyi organize etmek ve az sayida deneyle optimum
tasarimi bulmak.
n Metot, CAEde analiz srelerinin ok uzun srdg problemler iin zellikle
uygundur. Optimum tasarim hakkinda sinirli sayida analizle fikir sahibi
olunabilir.
Dezavantaj:
n Tek ama fonksiyonlu ve kisitsiz optimizasyon problemlerini zer.
194
TAGUCHI METODU
(Factorial Design)
1-degisken (A):
Iki seviye: A1 A2 (2 deney)
seviye: A1 A2 A3 (3 deney)
2-degisken (A, B):
A ve B, iki seviye durumunda 4 farkl i kombinezon yaparlar.
195
TAGUCHI METODU
(Factorial Design)
3-degisken ( A, B, C):
A1, A2
B1, B2
C1, C2
8 deney:
A1B1C1 A1B1C2 A1B2C1 A1B2C2
A2B1C1 A2B1C2 A2B2C1 A2B2C2
GENEL FORMUL: (SEVIYE) ^(DEGISKEN)
3 DEGISKEN AT 2 SEVIYE 23 = 8
4 DEGISKEN AT 2 SEVIYE 24 = 16
7 DEGISKEN AT 2 SEVIYE 27 = 128
15 DEGISKEN AT 2 SEVIYE 215 = 32,768
Soru:
1- Degisken sayisi ile birlikte deney sayisi hizla artmaktadir.
Deney sayisini azaltmak mmkn mdr? en az deney sayisi ile
en ok bilgiyi elde etmek iin ne yapmalidir ?
196
TAGUCHI METODU
(Orthogonal Arrays)
Taguchi deney sayisini azaltmak iin orthogonal array yntemini kullanir.
Orthogonal array ile faktriyel dizayn iinden alt bir grup seilir.
2-Seviye iin ortogonal deney tasarimlari:
L4
Deney tasarimi
197
TAGUCHI METODU
(Orthogonal Arrays)
L8
Deney tasarimi
L12
Deney tasarimi
198
TAGUCHI METODU
(Orthogonal Arrays)
3-Seviye iin ortogonal deney tasarimlari:
L16
Deney tasarimi
L9
Deney tasarimi
199
TAGUCHI METODU
(Orthogonal Arrays)
200
TAGUCHI METODU
(Orthogonal Arrays)
Asagidaki durumlar iin L8:
4 degisken ( 2-seviye)
VEYA 5 degisken ( 2-seviye)
VEYA 6 degisken ( 2-seviye)
VEYA 7 degisken ( 2-seviye)
Degisken sayisi artinca hangi tasarimlari kullanmali?
201
TAGUCHI OPTIMIZASYON PROSESI
n Performans kriteri (ama fonksiyon) se
n Parametreleri (optimizasyon degiskenlerini) se
n Seilen parametrelerin alt ve st sinir degerlerini belirt
n Orthogonal array konsepti ile deney (analiz) sartlarini belirle
n Analizleri yap ve sonu tablosunu hazirla
n Optimum degerleri bul
rnek : 7 parametre iin Taguchi deney tablosu
(P: parametre, T1: alt sinir, T2: st sinir, S: Analiz sonulari)
202
TAGUCHI OPTIMIZASYON PROSESI
n Her bir parametrenin alt sinir mi yoksa st sinir mi (hangi optimum
sinir deger) verir?
n Asagidaki yntemle sirasiyla btn parametreler iin en uygun
seviyeyi (optimumu veren seviyeyi) belirle
rnek : P1 parametresi iin optimum sinir degerinin hesaplanmasi:
203
TAGUCHI METODUN SINIRLARI
n Sadece tek bir kriteri iyilestirmekte etkilidir
n Diger ama ve kisitlari gz nne alamaz
n Linear bir ama fonksiyonu ngrdgnden degisken sinirlari genis
tutulmamalidir.
n Degisken sinirinin genis oldugu problemlerde, Taguchi metodu kk
blgeler seklinde ardisik (arka arkaya) olarak uygulanmalidir.
204
TAGUCHI TEORISININ DAYANAGI
n Temel kabul, ama fonksiyonu lineerdir. 7 parametre iin matematiksel
ifade:
n 8 bilinmeyen katsayiyi (AI gradyentleri) belirlemek iin 8 analiz sonucu
gereklidir
205
TAGUCHI TEORISININ DAYANAGI
(devam)
n Genelde n parametre iin n+1 deney gerekir.
n Taguchi metodu ortogonal deney tasarimi kullanir:
n Her bir parametrenin maximum (st sinir) ve minimum (alt sinir) degeri gz
nnde bulundurulur.
n Genelde n+1 deney sayisi 2 nin kuvvetleri seklinde olmalidir.
n Bylelikle n=1, 3, 7, 15, parametre sayilari iin optimum bulunabilir.
206
TAGUCHI TEORISININ DAYANAGI
(devam)
n Taguchi deney matrisi ortogonaldir. Parametrelerin alt siniri -1, st siniri 1
ile temsil edilirse bu kolayl ikla grlr:
n Yukaridaki matrisin tersi alinarak gradient degerleri kolayl ikla hesaplanir,
rnegin:
n Bylece ama fonksiyonu iin lineer model yaklasimi, Taguchi
optimizasyon metodu ile ayni sonucu verdigi grlmektedir.
207
TAGUCHI RNEK PROBLEM
rnek: Y = 3 * A - 10 * B + 5 * C fonksiyonunun
asagida verilen parametre araliklarinda
10 <=A <=20
0.5 >=B >=0.2
1 <=C <=4
maksimum degerini bulunuz?
208
TAGUCHI RNEK PROBLEM
Taguchi Experiment:
Alt ve st seviyelerde hesaplanan ortalama degerler:
A1avg = (Y1+Y2)/2 = 39, A2avg = (Y3+Y4)/2 = 69
B1avg = (Y1+Y3)/2 = 52.5, B2avg = (Y2+Y4)/2 = 55.5
C1avg = (Y1+Y4)/2 = 46.5, C2avg = (Y2+Y3)/2 = 61.5
Genel ortalama:
Tavg = (30 + 48 + 75 + 63)/4 = 54
Optimum seviyeleri seme (maksimum Y degerini veren seviyeleri seme):
A parametresi: A2avg>= A1avg oldugu iin A2 seviyesi seilir
B parametresi: B2avg>= B1avg oldugu iin B2 seviyesi seilir
C parametresi: C2avg>= C1avg oldugu iin C2 seviyesi seilir
Optimum Combination => A2 B2 C2
Yopt= Tavg + (A2 avg- Tavg) + (B2avg - Tavg) + (C2avg - Tavg) = 78
209
TAGUCHI RNEK PROBLEM
(Full Factorial)
Ayni sorunun Full faktoriyel deney tasarimi ile zm
Full Factorial Experiment:
Y1 = 3*A1 - 10*B1 + 5*C1 = 30, Y2 = 3*A1 - 10*B1 + 5*C2 = 45
Y3 = 3*A1 - 10*B2 + 5*C1 = 33, Y4 = 3*A1 - 10*B2 + 5*C2 = 48
Y5 = 3*A2 - 10*B1 + 5*C1 = 60, Y6 = 3*A2 - 10*B1 + 5*C2 = 75
Y7 = 3*A2 - 10*B2 + 5*C1 = 63, Y8 = 3*A2 - 10*B2 + 5*C2 = 78
The highest value is the eighth combination, Y8. (The highest value is not
always going to be the last possible combination.)
Dikkat: Taguchi metot bu kadar deney yapmadigi halde ayni sonucu buldu !!!
210
TOPOLOJI
OPTIMIZASYONU
211
TOPOLOJI OPTIMIZASYONU
n Topoloji optimizasyonu nedir?
Bir sekil optimizasyonu trdr
Temel ama tasarimdaki agirligi azaltmaktir.
Topoloji optimizasyonu, tasarim zerindeki hangi blgelerden
malzeme eksiltilebilecegini syler.
n Topoloji optimizasyonu nasil faydali olur?
Konsept dizayn retmede. Dikdrtgen bir blokla baslayan
topoloji optimizasyonu sonucu ok ilgin sekiller elde edilebilir.
Eldeki tasarimin daha da hafifletilmesinde. Eldeki tasarimin
neresinden malzeme eksiltilebilir, bu arastirilabilir.
212
TOPOLOJI OPTIMIZASYONU
Topoloji optimizasyonu ile, parametrik optimizasyonla elde edilen
sekillerden daha iyi sekiller elde edilebilir (daha iyi sekil optimizasyonu).
213
TOPOLOJI OPTIMIZASYONU
(Formle edilmesi)
n Ama ykleme altindaki bir yapidan, malzeme eksiltilebilecek yerleri tespit
etmek. Yani yapi zerindeki maksimum katilik (maximum stiffness ) veya
minimum esneklik (minimum compliance) ile sonulanacak malzeme
dagilimini bulmak.
n Bunun iin ANSYS gibi yazilimlar FEA modelindeki her bir elemana hayali
bir yogunluk atarlar. Hayali yogunlugun degerini 0-1 arasinda degistirerek
malzeme ikartilabilecek yerleri tespit ederler. Hayali yogunlugun 0
olmasi o elemanin ikartilabilecegini 1 olmasi ise o elemanin kalmasi
gerektigi anlamindadir.
n Btn elemanlar iin =1 olmasi (btn modelin korundugu durum) tabi ki
en kati bir dizayn olacaktir, ama bu istenen durum degildir. O yzden
topoloji optimizasyonda agirlik zerine sinir/kisit konur.
1 0

i
i i
V v
Compliance Min

214
Topoloji optimizasyonunda:
n Ama fonksiyonu: Maximize structural stiffness (veya minimize structural
compliance)
n Kisit: yapinin agirligi<= yapinin istenen agirligi
n Degiskenler: elemanlarin hayali yogunluklari
i
(0<
i
<1).
Not: Yapi zerinde her hangi bir blgeden eleman ikarilmasi istenmiyorsa, o
blgedeki elemanlar iin
i
=1 alinmasi yeterlidir.
TOPOLOJI OPTIMIZASYONU
(Formle edilmesi)
215
ANSYS de topoloji optimizasyonu istenen ve istenmeyen blgeler eleman
tipleri ile ayirt edilir.
Sadece element type 1 (ET,1,) topoloji optimizasyonuna ugrar.
Type numarasi 2 veya daha byk elemanlar topoloji
optimizasyonundan muaf tutulur.
ANSYS le topolji optimizasyonu yapiliyor ve bir blge muaf tutulmak
isteniyorsa FE modeli olustururken orayi 2 veya daha byk numarali
eleman type lari ile meshlenmelidir.
Not optimized
Optimized
TYPE 2
elements
TYPE 1
elements
TOPOLOJI OPTIMIZASYONU
(ANSYS)
216
TOPOLOJI OPTIMIZASYONU
(rnek problem)
n Blogun st yzeyinde ykleme
var.
n Bu ykleme sonunda en uygun
ve en hafif yapinin arc seklinde
oldugu grlmektedir.
217
TOPOLOJI OPTIMIZASYONU
(rnek problem)
n Dnen bir tekerde optimum seklin ii bos bir
sekil oldugu grlmektedir.
218
OPTIMIZASYONDA
NEMLI HUSUSLAR
219
OPTIMIZASYONDA NEMLI HUSUSLAR
n Genel hususlar
n Degiskenler ile ilgili hususlar
n Kisitlar ile ilgili hususlar
n Ama fonksiyonu ile ilgili hususlar
220
OPTIMIZASYONDA NEMLI HUSUSLAR
(Genel hususlar)
n Parametre sayisinin fazla olmasi optimizasyon sresini uzatmaktadir. Eger
yapida simetri varsa, simetrinin avantaji kullanilarak parametre sayisi
azaltilmalidir.
n Gerekmiyorsa yogunluk belirtmeyiniz. Bylece gereksiz ktle matrisi
hesabindan kainilmis olur.
221
OPTIMIZASYONDA NEMLI HUSUSLAR
(Genel hususlar)
n Optimizasyon basindan sonuna kadar parametrik modelin
dogrulugundan emin olunmalidir. Parametrik modeli, parametrelerin
u degerlerinde test ederek bu yapilabilir.
n Optimizasyon sonularinin saklanmasi ilerisi iin faydali olabilir.
222
OPTIMIZASYONDA NEMLI HUSUSLAR
(Genel hususlar)
n Optimizasyon programi durdugunda lokal veya global optimumdan
hangisine yakinsandigi pek bilinmez.
n Optimizasyonu farkli noktalardan baslatilarak bu emin olunabilir. Farkli
noktalardan baslandigi halde hep ayni optimuma yakinsaniyorsa elde
edilen optimum global optimumdur.
OBJ
DV
Local minimum Global minimum
223
OPTIMIZASYONDA NEMLI HUSUSLAR
(Degiskenler ile ilgili hususlar)
n Degisken (parametre) sayisi mmkn oldugu kadar az olmal idir. 20 den
fazla pek tavsiye edilmez.
n Degiskenleri azaltmanin bir yolu parametreleri mmknse birbiriyle
iliskilendirmektir.
rnek: R3 parametresi R1 ve T1 cinsinden, R4 parametresi de R2 ve T2
cinsinden ifade edilerek 6 degisken 4e indirilebilir.
R1
R2
R4
R3
T1
T2
224
OPTIMIZASYONDA NEMLI HUSUSLAR
(Degiskenler ile ilgili hususlar)
n Yapida konfigrasyon degisikligine en fazla izin verecek parametreler
degisken olarak seilmelidir.
rnek: Ankastre bir kirisin agirlik optimizasyonunu sz konusu olsun.
Tek degisken x
1
agirligi
azaltir ama, daha hafif
olabilecek bir trapez sekil
(tapered) ortaya ikarmaz.
x
1
225
OPTIMIZASYONDA NEMLI HUSUSLAR
(Degiskenler ile ilgili hususlar)
x
1
-x
4
gibi 4 degisken semek
bize daha ok esneklik verir.
Bu durumda da, problem yeterli
kisitla desteklenmezse lokal
optimum zmler elde edilir.
x
1
x
2
x
3
x
4
x
1
x
2
x
3
x
4
226
OPTIMIZASYONDA NEMLI HUSUSLAR
(Degiskenler ile ilgili hususlar)
Kiris iin daha iyi bir zm, ykseklikleri degisken olarak seerek elde
edilebilir.
x
1
dx
2
dx
3
dx
4
227
OPTIMIZASYONDA NEMLI HUSUSLAR
(Degiskenler ile ilgili hususlar)
Degiskenlerin integer olma durumu asagidaki sekilde kontrol edilebilir:
n Integer degiskenler, reel degiskenleri yuvarlatilarak elde edilebilir.
Yuvarlatma fonksiyonlari bu is iin kullanilabilir.
n Veya programlama dillerindeki if-then-else yapisi kullanilabilir.
- rnegin, bir shell eleman iin sadece 3 farkli kalinlik degeri mmknse, bu
asagidaki gibi saglanabilir.
et,1,63 ! Shell element type
*if,thk,lt,2.5/16,then
thk=1/8 ! Use 1/8 if thk < 2.5/16
*elseif,thk,gt,3.5/16,then
thk=1/4 ! Use 1/4 if thk > 3.5/16
*else
thk=3/16 ! Otherwise use 3/16
*endif
r,1,thk ! Define shell thickness
228
OPTIMIZASYONDA NEMLI HUSUSLAR
(Kisitlar ile ilgili hususlar)
Dogru data kisit olarak kullanilmalidir. rnegin:
Ilk dogal frekans kisit olarak kullanilacaksa, analiz programindan ilk
sifirdan farkli frekans diye istenmelidir. nk ilk dogal frekans
normalde rigid body moda karsilik gelen degerdir ve bu da degersizdir.
Kordinat seimine dikkat edilmelidir. Eger maksimum kme kisit olarak
kullaniliyorsa ve yapi -Y ynnde kyorsa, o zaman kmenin mutlak
degeri kisit olarak kullanilmalidir.
229
OPTIMIZASYONDA NEMLI HUSUSLAR
(Kisitlar ile ilgili hususlar)
Maksimum degerlerin kisit olarak kullanildigi durumlarda:
n Optimizasyon sirasinda yapi degistike maksimum degerler farkl i
noktalarda olur (max kme gibi).
n O yzden bu tr degerler kisit olarak kullanilacaksa, herhangi bir
noktadaki/noddaki deger degil de btn yapi zerindeki maksimum deger
kullanilmalidir.
n Benzer sonu, birden ok kritik grlen noktadaki degerleri kullanarak da
elde edilebilir. Bu yaklasim kisit sayisini artirir.
rnegin, Asagidaki problemde her bir elemandaki maksim gerilmeyi
kullanmak tm model zerindeki maksimum degeri kullanmadan daha iyi
sonu verecektir.
H2
H1
A1
A2
A3
SMX1 SMX2 SMX3 SMX4
230
OPTIMIZASYONDA NEMLI HUSUSLAR
(Kisitlar ile ilgili hususlar)
n Yapi zerinde tekillikler varsa (noktasal yk veya keskin
kseler), o zaman maksimum gerilmeler hep bu noktalarda
olacaktir.
n Bu durumda maksimum gerilme kisit olarak kullanirken, bu
blgelerdeki degerler hari tutulmal idir.
231
OPTIMIZASYONDA NEMLI HUSUSLAR
(Kisitlar ile ilgili hususlar)
n Iki ynl kisitlarda kisitlarin alt ve st sinir degerleri birbirine yakin
olmamalidir (zellikle yaklasik metotlarla optimizasyon yapiliyorsa). Bu
yaklasim zm blgesini daraltir. rnegin, 500<=kisit<=1000 ifadesi
990<=kisit<=1000 ifadesinden daha kolay zm retecektir.
n Esitlik seklindeki kisitlar, iki ynl kisitlarla ifade edilebilir.
rnegin, frekans=256 Hz kisiti yaklasik olarak 255 Hz<=frekans<=257 Hz
iki ynl kisit ile empoze edilebilir.
n Esitlik seklinde kisitlar kullaniliyor ve bu kisitlarin alt ve st sinirlari birbirine
ok yakinsa, optimizasyonun basarili olmasi iin ardisik infeasible design
sayisi (number of successive infeasible designs) artirilmalidir.
232
OPTIMIZASYONDA NEMLI HUSUSLAR
(Kisitlar ile ilgili hususlar)
n Optimizasyon baslangicinda srekli infeasible design lar elde ediliyorsa,
muhtemelen kisitlar iin kullanilan yaklasik fonksiyon yeterli dogrulukta
degildir.
n Bu durumda kisitlar iin kullanilan modellerin terim sayisi veya mertebesi
artirilmalidir
n Optimizasyon baslangicinda infeasible design lar hala nlenemiyorsa,
yaklasik metot yerine trev metodu kullanilabilir.
233
OPTIMIZASYONDA NEMLI HUSUSLAR
(Ama fonksiyonu ile ilgili hususlar)
Optimizasyon programlari genellikle ama fonksiyonunu hep minimize ederler.
Eger bizim problemde ama fonksiyonu maksimize edilecekse:
n Maximize f yerine Minimize 1/f kullanilabilir.
n Maximize f yerine Minimize C-f (C byk pozitif bir sayi seilir)
kullanilabilir.
n Maximize f yerine Minimize -f kullanilabilir.
234
PROBABILISTIK
DIZAYN
235
GELENEKSEL DIZAYN YNTEMI
Optimizasyonda kullanildigi gibi parametrelerin gerekte tek bir degeri
(deterministik degeri) yoktur. Degerler gerek hayatta istatistiksel zellik
gstermektedir (belli bir aralikta degismektedir).
Istatistiksel zellik gsteren durumlar:
Malzeme zellikleri: Elastisite Modl, Akma Gerilmesi
rnek: elik iin malzeme zelligi
Elastisite Modl (E)= 207 GPa genellikle kullanilir (ortalama deger)
Oysa gerekte E=190-215 GPa arasinda degisir.
Boyutlar :Ayni sekilde retilen yapilarin da bazi geometrik zellikleri, boyutlari
istatistiksel dagilim gsterir. rnek: kal inlik 0.9-1.1 mm.
Ykler:
Yapiya uygulanan ykler bazi durumlarda degisik olmasina ragmen hesap
kolayligi iin tek bir deger kabul edilir. rnek: rzgar, deprem ykleri.
236
GELENEKSEL DIZAYN YNTEMI
(Deterministik Dizayn Yntemi)
Deterministik dizayn konsepti degerlerdeki degisme durumunu iki
yaklasimdan biri ile dikkate alir:
1- En kt senaryo yaklasimi:
Parametrelerin en kritik (en alt veya en st) degerleri kullanilarak tasarim
gereklestirilir.
En kt senaryo yaklasimi genellikle ok konzervatif tasarimlara yol aar.
2- Emniyet faktr:
Parametrelerin muhtemel (ortalama) degerleri ile birlikte emniyet faktr
(emniyet katsayisi) kullanilarak tasarim gereklestirilir.
Emniyet faktr yaklasimi ok az veya ok fazla konzervatif tasarimlara
neden olur. Bu yntem tasarimin riski konusunda bir sey sylemez.
Her iki yaklasimda, yapilarin gereginden fazla mukavemetli tasarimina ve
daha maliyetli olmasina yol aar.
237
PROBABILISTIK DIZAYN
n Probabilistik design metotlari risk analizini, tasarim prosesinin iine tasirlar.
n Bu metotlarda, parametrelerdeki degisimler istatistiksel dagilimlar yardimi
ile (dogru bir sekilde) dikkate alinir ve analiz sonulari bu degisimleri
yansitacak sekilde olasiliklar cinsinden verilir.
n Olasilik grafigine bakilarak herhangi bir sonu iin risk yorumu yapilir.
Avantajlar:
n Probabilistik dizayn konsepti ile bir dizayni gereginden fazla veya az
mukavim yapma durumundan kurtulunur.
n Asiri dizayn nedeniyle maliyetli tasarimlardan kainmis olunur.
238
PROBABILISTIK DIZAYN ASAMALARI
1- Parametrelerin nasil degistigi istatistiksel dagilim fonksiyonu ile belirtilir
n Yaygin kullanilan dagilim fonksiyonlari: Gauss, Lognormal, Triangular,
Uniform, Exponential, Beta, Gamma, Weibull
Gauss Lognormal Uniform Triangular
Exponential Beta Gamma Weibull
239
PROBABILISTIK DIZAYN ASAMALARI
2- Belirtilen dagilim fonksiyonu bilgisayar ortaminda retilir. Bu amala dagilim
fonksiyonunu yeterli yaklasiklikta retecek sekilde, 50-100 veya daha
fazla nokta (parameter degeri) seilir.
n Nokta seiminde yaygin kullanilan yntem Monte Carlo simlasyonlaridir:
[0,1] arasinda rastgele bir
sayi retilir. Bu sayi degerine
karsilik gelen cumulative
fonksiyon degeri hesaplanir
Cumulative fonksiyon
degerine karsilik gelen karsi
cumulative fonksiyon degeri
bulunur.
Ters dnsmle olasilik
degeri bulunur. Bu islem
istenen nokta sayisi kadar
(dagilim fonksiyonu retilene
kadar) devam eder.
240
PROBABILISTIK DIZAYN ASAMALARI
3- Nokta sayisi kadar FEA analiz yapilir
4- Analiz sonularindan merak edilen performans degerleri iin istatistiksel
dagilim fonksiyonu, histogram retilir.
5- Dagilim fonksiyonuna bakilarak, tasarimin istenen kriterleri yerine getirip
getirmeme durumu olasilik cinsinden belirtilir.
241
RNEK PROBLEM
(Tekil ykleme altindaki levha)
n Levhanin boyu, kal inligi, malzeme zellikleri ve kuvvet degerleri istatistiksel
bir dagilim gstermektedir.
242
RNEK PROBLEM
(Tekil ykleme altindaki levha)
Merak edilen sorular:
n Kullanilan analiz sayilari istatistiksel dagilimlari temsil etmede yeterli mi?
n Maksimum kmenin/egilmenin belirtilen degerden az olma olasiligi nedir?
n Belirtilen olasilik degeri iin maksimum kmenin/egilmenin st sinir degeri
nedir?
243
RNEK PROBLEM
(Tekil ykleme altindaki levha)
Uniform
Standard deviation % 5
8.0e-6 kg/mm
3
Density
Gaussian
Standard deviation % 3-5
210.0 N/mm
2
Youngs Modulus
Uniform
Alt sinir=1-0.1
st sinir=1+0.1
1 mm Thickness
Uniform
Alt sinir=100-0.1
st sinir=100+0.1
100 mm Length
Lognormal
Standard deviation % 10
100 N Force
Istatistiksel
Dagilim Fonksiyonu
Nominal Deger Parametre
244
RNEK PROBLEM
(Tekil ykleme altindaki levha)
n 40 Monte Carlo simlasyonu (Latin Hypercube rnekleme metodu
kullanilarak)
n rnekleme sonunda Young modl iin olasilik yogunlugu fonksiyonu
(probability density function):
Kirmizi grafik: gerek olasilik yogunluk fonksiyonu gstermektedir
Mavi histogram ubuklari: yaklasik olasilik yogunluk fonksiyonu
gstermektedir.
Iki grafik birbirine yeterince benzediginden, 40 rnekleme istatistiksel
dagilimlari yeterince temsil ediyor denebilir.
245
RNEK PROBLEM
(Tekil ykleme altindaki levha)
n Maksimum kme iin olasilik sonu grafigi:
Grafik %93 ihtimalle kmenin 0.525 mm nin altinda olacagini belirtmektedir.
Maksimum kmenin 0.5209 mm nin altinda olmasi ihtimali ise %90 dir.
246
KARAKTERIZASYON
PROBLEMLERI
247
KARAKTERIZASYON PROBLEMLERI
Optimizasyon metotlari, bazi bilinmeyen parametrelerin bulunmasinda
da (karakterizasyonunda da) etkin bir sekilde kullanilabilir:
n Malzeme zelliklerinin karakterizasyonunda
n Bir sistem zerine etkiyen yklerin bulunmasinda
248
KARAKTERIZASYON PROBLEMLERI
(Malzeme parametrelerinin bulunmasi)
Malzeme parametrelerinin bulunmasi:
n Elimizde FE modelin oldugunu ve malzeme parametrelerini bilmedigimizi
farz edelim. Gerek yapi zerindeki bazi sonular bize sylenirse, bu
sonulari kullanarak malzeme parametrelerini optimizasyon yntemi ile
bulabiliriz.
249
KARAKTERIZASYON PROBLEMLERI
(Malzeme parametrelerinin bulunmasi)
Bunun iin malzeme modeli parametreleri iin baslangi degerleri alinarak
FEA analiz yapilir.
FEA sonulari ile gerek (deneysel) sonular karsilastirilir.
Aradaki fark optimizasyon probleminin ama fonksiyonu olusturur.
Optimizasyonda yakinsama oluncaya kadar malzeme degerleri degistirilerek
bu islem devam ettirilir.
Ama fonksiyonunu sifir veya sifira ok yakin yapan malzeme degerleri
malzemenin gerek zellikleri olarak kabul edilir.
250
KARAKTERIZASYON PROBLEMLERI
(Yk degerlerinin bulunmasi)
Yk degerlerinin bulunmasi:
Rzgar ykleri veya bir bisikletteki pedal ykleri gibi ykleri lmek ya ok
zordur veya ok maliyetlidir. rnegin elde strain gauge lmleri varsa, yk-
deformasyon-strain bagintilarini kullanarak optimizasyonla uygulanan ykleri
bulmak mmkndr.
rnegin, bir bisiklet zerindeki strainler, FE
analizle dogru bir sekilde hesaplanir.
FE model zerindeki ykn yol atigi strain ile
gerek strain lmleri karsilastirilarak, aradaki
fark sifir oluncaya kadar yk degeri modifiye
edilebilir.
251
KARAKTERIZASYON PROBLEMLERI
(Yk degerlerinin bulunmasi)
Bu durumda ama fonksiyonu, hesaplanan ve llen strain degerleri
arasindaki fark olur:
Yukaridaki fonksiyonu minimize etmek iin trevler hesaplanmalidir:
Lineer elastisitede strain ve ykler dogru orantilidir. Bu tr problemlerde,
strainlerin yklere gre trevleri kolayca hesaplanir.
252
9. Blm
YAZILIMLARLA OPTIMIZASYON
n YAZILIMLARIN SINIFLANDIRILMASI
n YAZILIMLARIN KULLANILMASI
n OPTIMIZASYON PROBLEMINI TANIMLAMADA
NEMLI NOKTALAR
n FEA ILE OPTIMIZASYONDA NEMLI NOKTALAR
253
YAZILIMLARIN SINIFLANDIRILMASI
n Alt kategori optimizasyon yazilimlari:
Bagimsiz optimizasyon yazilimlaridir
Sadece verilen optimizasyon problemlerini zerler
Diger yazilimlara entegre degildirler, kendi baslarina kullanilirlar
Ya ama ve kisitlama fonksiyonlari aik sekilde belirtilmelidir
Veya ama ve kisit fonksiyonlarinin hesabi bu yazilim dilinde ifade
edilmesi gerekir
Optimizasyon ok kisa srer
rnek yazilimlar: MATLAB, CONMIN
Ama fonksiyonu
Kisit fonksiyonu
Optimum
Alt kategori optimizasyon programi
254
YAZILIMLARIN SINIFLANDIRILMASI
n Orta kategori optimizasyon yazilimlari:
Bagimsiz optimizasyon yazilimlari olarak kullanilabilir (ama ve
kisitlama fonksiyonlari aik sekilde belirtilirse)
Diger yazilimlara (FEA software) entegre edilerek dolayli olarak da
kullanilabilirler
FEA analiz yazilimlari ile optimizasyonda en ok kullanilan yntemdir.
Ama ve kisit fonksiyonlari program tarafindan retilir
Optimizasyon uzun srer
rnek yazilimlar: LS-OPT, HyperOPT, DOC, DOT, TOSCA
Ama fonksiyonu
Kisit fonksiyonu
Optimum
Analiz
(FEA)
Orta kategori optimizasyon programi
255
YAZILIMLARIN SINIFLANDIRILMASI
n st kategori optimizasyon yazilimlari:
zel amali optimizasyon yazilimlardir
CAD ve/veya Analiz (FEA) firmalari tarafindan gelistirilirler
Modelin olusturulmasindan, analiz ve optimizasyon asamasina kadar
tm proses bir yazilimda birlestirilir.
Ama ve kisit fonksiyonlari program tarafindan retilir
Optimizasyon uzun srer
rnek yazilimlar: ANSYS, I-DEAS, Pro/MECHANICA, Pro/ENGINEER,
GENESIS
Ama fonksiyonu
Kisit fonksiyonu
Optimum
CAD
FEA
st kategori optimizasyon programi
256
YAZILIMLARIN KULLANILMASI
Alt kategori optimizasyon yazilimlari:
n Ama ve kisit fonksiyonlarinin programa analitik (aik) olarak verilmesi
gerekir
n Sadece basit mhendislik problemlerinde bu mmkndr
n Bu nedenle basit mhendislik problemlerinin optimizasyonunda kullanilir
rnek: kiris optimizasyonu
Gerilme, moment ve kesit geometrisi cinsinden matematiksel bir denklemle
ifade edilebilir
y
I
M
zz
z
x

257
YAZILIMLARIN KULLANILMASI
Orta ve st kategori optimizasyon yazilimlari:
n Karmasik mhendislik problemlerin zmnde kullanilirlar
n Karmasik problemlerde nmerik analiz yazilimlari kullanilir (FEA, Sonlu
Farklar)
n Nmerik yazilimlar sadece sayisal deger retirler, fonksiyon retmezler
(imlicit model)
n Orta ve st kategori yazilimlari, ama ve kisit fonksiyonlari iin yaklasik
modeller reterek optimizasyon problemlerini zerler
rnek: Bir braketin FEA analizi
Gerilme analizi sonunda sadece sayisal degerler elde edilir
258
OPTIMIZASYON PROBLEMINI TANIMLAMADA
NEMLI NOKTALAR
n Optimizasyon probleminin dogru tanimlanmasi ok nemlidir ve ok kritiktir
n Problemin dogru tanimlanmasi zmn yarisidir (Arora)
n Degiskenler:
Degisken sayisi mmkn oldugu kadar az olmal idir (optimizasyon sresini
azaltmak iin)
Sadece performansa etki eden parametreler gz nnde bulundurmalidir
Bazi parametreler birbiriyle iliskilendirilerek degisken sayisi azaltilabilir
Degiskenlerin alt ve st sinirlari iin gereki degerler kullanilmalidir
rnek: kalinlik iin t=0 alt degeri anlamsizdir.
Kullanilan degiskenler mertebe (byklk) olarak birbirinden ok fark
ediyorsa, degisken dnsmyle (variable scaling) ayni mertebeye
getirilmelidir. Bu dnsm optimizasyon programlarinin zme daha hizli
ve daha dogru bir sekilde varmasini saglayacaktir
rnek x1=10, x2=100000 durumunda
x1=10 ve y tanimlanmasi (y=x2/10000) daha iyi olacaktir.
zmden sonra, ters dnsmle y den tekrar x2 ye geilmelidir.
259
OPTIMIZASYON PROBLEMINI TANIMLAMADA
NEMLI NOKTALAR
Ama fonksiyonu:
n Optimizasyon algoritmalari tek ama fonksiyonu (single-objective) zerine
kuruludur.
n En uygun kriter ama fonksiyonu olarak seilmelidir.
oklu ama fonksiyonu:
n Birden ok kriter (multi-objective) nemliyse bu kriterler birlestirilerek tek bir
kriter (ama fonksiyonu) tretilmelidir
n w agirlik katsayilari kullanmak, ok amali fonksiyonlari tek amali fonksiyona
dnstrme yntemlerinden biridir.
Min f = (w
1
f
1
+ w
2
f
2
+ .)
n Agirlik katsayilarinin fazla oldugu kriterler ama fonksiyonu olarak
optimizasyonda digerlerine gre daha baskin olacaktir.
n Elde edilecek optimum zmler baskin olan ama fonksiyonlarina gre
degisiklik gsterecektir.
260
OPTIMIZASYON PROBLEMINI TANIMLAMADA
NEMLI NOKTALAR
Kisit fonksiyonlari:
n Kisit fonksiyonu dogru seilmelidir.
rnek: Hacim<= -100 cm^3 kisit ifadesi (negatif hacim) anlaml i degildir
n ok sayida kisit kullanilmasi optimumun bulunacagi blgeyi daraltarak
optimum zmn bulunmasini zorlastirabilir
n Kisitlar birbiriyle elismemelidir
rnek: x>3y ve x<y kisitlari elismektedir
n oklu ama durumunda bazi ama fonksiyonlari kisit seklinde tanimlanarak
dikkate alinabilir
rnek: Min {f1(x), f1(x)} ift ama fonksiyonu asagidaki sekilde ifade
edilebilir:
Min f1(x),
f2(x)<=10
261
FEA ILE OPTIMIZASYONDA NEMLI NOKTALAR
n Hangi tr optimizasyon yapilacak olursa olsun, optimizasyonda kullanilacak
sonlu elemanlar modeli dogru olmalidir ve bu dogruluk optimizasyonun
baslangicindan sonuna kadar korunmalidir.
Parametrik optimizasyon:
n Hazirlanan model optimizasyondan nce parametrelerin u degerlerinde
denenmeli ve sonularinin dogrulugu teyit edilmelidir
n Iyi bir parametric mesh generator bu isi kolaylastiracaktir (ANSYS APDL gibi).
n FEA modeli parametrelerin degismesine gre, optimizasyon sresince
bzlr (daralir) veya genisler.
n Boyutlar genisledigi zaman yeni meshteki elemanlar kabalasir, analizdeki
dogruluk azalir.
n Boyutlar kldg zaman, yeni mesh baslangitaki meshe gre yogunlasir.
Bu durumda dogrulukta bir azalma olmaz ama analiz sresi uzar.
n Ince yapilar optimize ediliyorsa (kalinlik optimizasyonu durumu), modelin
kalinlasip incelmesine gre (dogrulugu korumak iin), eleman tiplerinin
optimizasyon sresince degistirilmesi gerekebilir. Byle bir degisim adaptif
(otomotik) olmali. Parametrik programin iine yazilacak if-then-else bu
durumu zebilir.
262
FEA ILE OPTIMIZASYONDA NEMLI NOKTALAR
rnek: Silindirik bir tpn optimizasyonu (optimizasyon sirasindaki mesh durumu):
Optimizasyon
baslangicindaki model
kalinlik= 3 mm
yariap=75 mm
kalinlik= 3 mm
yariap=75 mm
Optimizasyon
sonundaki model
263
FEA ILE OPTIMIZASYONDA NEMLI NOKTALAR
n Orta ve st kategori optimizasyon programlari yaklasik optimizasyon
yntemlerini kullanirlar
n Yaklasik optimizasyon metotlarindan en ok kullanilani Response Surface
modelleridir. Diger modeller (rnegin Yapay Sinir Aglari) daha yeni yeni FEA
ile optimizasyonda kullanilmaya baslanmistir (LS-OPT).
n Ama/kisit fonksiyonlarinin parametrelerle nasil degistigi tahmin edilebiliyorsa
(sezilebiliyorsa), yaklasik model seiminde bu bilgi/tahmin mutlaka gz
nnde bulundurulmal idir. Bu bilgi optimumun daha dogru ve daha kisa
srede bulunmasina yardimci olacaktir
n Degisken sayisi 10nun altindaysa (elde paralel computing imkani yoksa),
yaklasik yntem olarak quadratic (parabolik) response surface modeli
kullanilabilir (rnek ANSYSde sadece response surface modelleri
seilebiliyor)
n Degisken sayisi 10nun zerinde ise linear response surface modeli (ardisik
olarak) veya yapay sinir aglari kullanilabilir.
264
FEA ILE OPTIMIZASYONDA NEMLI NOKTALAR
Topoloji optimizasyonu:
n Topoloji optimizasyonu sadece st kategori optimizasyon yazilimlari ile
mmkndr
n Topoloji optimizasyonu boyunca mesh sabittir (model bzlp genislemez)
n Topoloji optimizasyonundaki degisken sayisi meshdeki eleman sayisina
esittir.
n Topoloji optimizasyonunun dogrulugu (hassasiyeti) mesh yogunluguna
baglidir.
n Mesh yogunlugu arttika hesap maliyeti de artar
Bilgisayar donanimi ve optimizasyon:
n Metotlarin kullanimi bilgisayar donanimlarindaki gelisme ile paralellik
gstermektedir.
n Gittike yayginlasan ve gelisme gsteren Parallel Computing Facility diger
yntemlerin de kullanimini (rnegin Genetic Algoritma) saglayacaktir.
265
10. Blm
OPTIMIZASYON UYGULAMALARI
n TWO-BAR TRUSS OPTIMIZATION
n LINEAR IMPACT ABSORBER
n NONLINEAR IMPACT ABSORBER
n LUMPED-MASS SYSTEM IN FRONTAL IMPACT WITH BARRIER
n TWO LUMPED-MASS SYSTEMS IN FRONTAL IMPACT
n CYLINDER OPTIMIZATION
n VEHICLE OPTIMIZATION
n NEW JERSEY CONCRETE BARRIER (CB) SHAPE OPTIMIZATION
n OTOBS TAVAN LAMBASI IIN PROSES SARTLARININ OPTIMIZASYONU
n CNC TEZGAHINDA INCONEL 718 MALZEMESININ ISLEME SARTLARININ
OPTIMIZASYONU
n KATMANLI KOMPOZIT ZIRH OPTIMIZASYONU
n OTOMOTIV SASI (S-RAIL) OPTIMIZASYONU
n OTOMOTIV PANELDE GERI YAYLANMANIN (SPRINGBACK) AZALTILMASI
n KALA PROTEZ OPTIMIZASYONU
n BLACK-JIB KAMERA GVDESININ TOPOLOJI OPTIMIZASYONU
266
TWO-BAR TRUSS OPTIMIZATION
Definition of the optimization problem:
Find b
1
and b
2
to
Minimize:
Weight =
Subject to constraint:
Stress =
Within the design range:
0.2 cm
2
<= b
1
<=4 cm
2
0.1 m <= b
2
<=1.6 m
where C
1
=1.0 and C
2
=0.124.
2
b
1
b
2
b
F
Figure 8: Two-bar truss.
2
2 1 1
1 b b C +
1 )
1 8
( 1
2 1 1
2
2 2 1
+ +
b b b
b C
Two-bar truss optimization problem is used mainly for benchmarking purpose since analytical
solution is available.
Analytical solution for this problem is given as:
b
1
= 1.41 cm
2
, b
2
= 0.38 m, Weight =1.51 and Stress=1.0 .
267
Optimization History
1.2
1.8
2.4
3
3.6
0 1 2 3 4 5 6 7 8 9
Iteration Number
W
e
i
g
h
t
Numerical Analysis
Response surface approx.
Optimization History
0.6
0.7
0.8
0.9
1
1.1
0 1 2 3 4 5 6 7 8 9
Iteration Number
S
t
r
e
s
s

Numerical Analysis
Response surface approx.
Optimization History
0
0.5
1
1.5
2
2.5
0 1 2 3 4 5 6 7 8 9
Iteration Number
b
1

[
c
m
^
2
]
,

b
2

[
m
]
b1
b2
Figure 9: Convergence history of objective, constraint and design variables in two-bar truss optimization
with successive linear approximations (Convergence achieved with 46 analyses).
TWO-BAR TRUSS OPTIMIZATION
Optimum results with successive elliptic approximations were achieved in 5 iterations (41 analyses)
Optimum results with successive quadratic approximations were achieved in 5 iterations (51
analyses)
After optimization: Weight of the two-bar truss was reduced significantly (41 %) compared to the
baseline design.
268
LINEAR IMPACT ABSORBER
z
M
K
C
Figure 10: Linear impact-absorber
Definition of the optimization problem:
Find stiffness (K) and damping (C) parameters to
Minimize:
max |Acceleration of mass M | (i.e. )
Subject to constraint:
max |Displacement of mass M | (i.e. max |z|<=1 m)
Within the design range:
0 N/m<= K<= 1 N/m
0 Ns/m<= C<= 1 Ns/m
| | max
..
z
The max || quantities above are determined from the numerical solution to the equation
of motion for the linear spring-damper:
0
. ..
+ + Kz z C z M
269
Optimization History
0.5
0.6
0.7
0.8
0.9
0 1 2 3 4 5 6
Iteration Number
m
a
x

|
A
c
c
|

[
m
/
s
^
2
]
Numerical Analysis
Response Surface Approx.
Optimization History
0.7
0.8
0.9
1
1.1
0 1 2 3 4 5 6
Iteration Number
m
a
x

|
D
i
s
p
|

[
m
]
Numerical Analysis
Response Surface Approx.
Optimization History
0.2
0.4
0.6
0.8
1
0 1 2 3 4 5 6
Iteration Number
K

[
N
/
m
]
,

C

[
N
s
/
m
]K
C
-0.9
-0.6
-0.3
0
0.3
0.6
0 2 4 6 8 10 12
Time [s]
A
c
c
e
l
e
r
a
t
i
o
n

[
m
/
s
^
2
]
Initial Design
Optimum Design
-0.6
-0.2
0.2
0.6
1.0
0 2 4 6 8 10 12
Time [s]
D
i
s
p
l
a
c
e
m
e
n
t

[
m
]
Initial Design
Optimum Design
LINEAR IMPACT ABSORBER
Figure 11: Convergence history of objective, constraint and design variables in linear impact-absorber
optimization with successive linear approximations (Convergence achieved with 31 analyses).
Figure 12: Acceleration and displacement of the mass with time for the baseline and optimum absorbers.
After optimization: Performance of the linear impact-absorber was improved significantly (38 %)
compared to the baseline design.
Optimum results with successive elliptic approximations were achieved in 4 iterations (33 analyses)
Optimum results with successive quadratic approximations were achieved in 5 iterations (51
analyses)
270
NONLINEAR IMPACT ABSORBER
Figure 13: Nonlinear impact-
absorber
Definition of the optimization problem:
Find the stiffness (K and q) and damping (C and p)
parameters to
Minimize:
max |Acceleration of mass M | (i.e. )
Subject to constraint:
max |Displacement of mass M | (i.e. max |z|<=1 m)
Within the design range:
0 N/m<= K<= 1 N/m
0 Ns/m<= C<= 1 Ns/m
0 <= p <= 2
0 <= q <= 2
| | max
..
z
z
M
q
z K z K | | ) (
p
z C z C | | ) (
. .

The max || quantities above are determined from the numerical solution to the equation
of motion for the nonlinear spring-damper:
0 | | | |
. . ..
+ + z z K z z C z M
q p
271
NONLINEAR IMPACT ABSORBER
Figure 14: Convergence history of objective, constraint and design variables in nonlinear impact-absorber
optimization with successive linear approximations (Convergence achieved with 57 analyses).
Figure 15: Acceleration and displacement of the mass with time for the baseline and optimum absorbers.
After optimization: Performance of the nonlinear impact-absorber was improved significantly (47
%) compared to the baseline design.
Optimization History
0.4
0.5
0.6
0.7
0.8
0.9
1
0 1 2 3 4 5 6 7
Iteration Number
m
a
x

|
A
c
c
|

[
m
/
s
^
2
]
Numerical Analysis
Response Surface Approx.
Optimization History
0.8
0.9
1
1.1
0 1 2 3 4 5 6 7
Iteration Number
m
a
x

|
D
i
s
p
|

[
m
]
Numerical Analysis
Response Surface Approx.
Optimization History
0
0.2
0.4
0.6
0.8
1
0 1 2 3 4 5 6 7
Iteration Number
K

[
N
/
m
]
,

C

[
N
s
/
m
]
,

p
,

q
K C
q p
-1.1
-0.8
-0.5
-0.2
0.1
0.4
0.7
0 2 4 6 8 10 12
Time [s]
A
c
c
e
l
e
r
a
t
i
o
n

[
m
/
s
^
2
]
Initial Design
Optimum Design
-0.9
-0.5
-0.1
0.3
0.7
1.1
0 2 4 6 8 10 12
Time [s]
D
i
s
p
l
a
c
e
m
e
n
t

[
m
]
Initial Design
Optimum Design
Optimum results with successive elliptic approximations were achieved in 5 iterations (71 analyses)
Optimum results with successive quadratic approximations were achieved in 5 iterations (116
analyses)
272
LUMPED-MASS SYSTEM IN FRONTAL IMPACT WITH BARRIER
Occupant Compartment
M =1200 kg
0
.
U
=57 km/h
Barrier
s
F
U
Definition of the optimization problem:
Find force values F
2
, F
3
, F
4
andF
5
in F
S
curve to
Minimize:
max |Acceleration of mass M| (i.e. )
Subject to constraint:
max |Displacement| (i.e. max |U|)<=700 mm)
Within the design range:
30 kN <= F
2
<= 50 kN
80 kN <= F
3
<= 120 kN
130 kN <= F
4
<= 170 kN
180 kN <= F
5
<= 220 kN
In the Force-deflection curve, U
1
=0 mm, U
2
=30
mm, U
3
=50 mm, U
4
=100 mm, U
5
=400, mm, S
U
=5 kN/mm, F
1
=0 kN.
The max || quantities above are determined from the numerical solution to the equation of motion
for the lumped-mass system:
where , (MF
slp
= 0.015 hr/km, MF
Max
=1.5)
0 *
..
+
S
F MF U M
( )
( )
S
F U Sign
Max
Slp
Max
U
MF
MF
Arc MF MF
*
1 2
tan 1
2
1
1
1
]
1

,
_

,
_

Figure 17: Force-deflection curve for F


s
.
Figure 16: Lumped-mass system.
| | max
..
U
F
S
U
3
F
2
F
5
F
4
F
1
U
2
U
3
U
4
U
5
U
S
1
F
273
LUMPED-MASS SYSTEM IN FRONTAL IMPACT WITH BARRIER
Figure 18: Convergence history of objective, constraint and design variables in the lumped-mass system
optimization with successive linear approximations (Convergence achieved with 33 analyses).
Figure 19: Acceleration and displacement of the mass with time for the baseline and optimum designs.
After optimization: Performance of the lumped-mass system was improved about 10 % compared to
the baseline design.
Optimum results with successive elliptic approximations were achieved in 3 iterations (43 analyses)
Optimum results with successive quadratic approximations were achieved in 3 iterations (70
analyses)
Optimization History
20
21
22
23
0 1 2 3 4
Iteration Number
m
a
x
|
A
c
c
|

[
g
]
Numerical Analysis
Response Surface Approx.
Optimization History
600
620
640
660
680
700
0 1 2 3 4
Iteration Number
m
a
x

|
D
i
s
p
l
|

[
m
m
]
Numerical Analysis
Response Surface Approx.
Optimization History
20
70
120
170
220
0 1 2 3 4
Iteration Number
F
2
,

F
3
,

F
4
,

F
5

[
k
N
]
F2 F3 F4 F5
-24
-18
-12
-6
0
0.00 0.03 0.05 0.08 0.10 0.13
Time [s]
A
c
c
e
l
e
r
a
t
i
o
n

[
g
]
Initial Design
Optimum Design
0
200
400
600
0.00 0.03 0.05 0.08 0.10 0.13
Time [s]
D
i
s
p
l
a
c
e
m
e
n
t

[
m
m
]
Initial Design
Optimum Design
274
TWO LUMPED-MASS SYSTEMS IN FRONTAL IMPACT
Definition of the optimization problem:
Find force values F
2
, F
3
, F
4
andF
5
(in F
SA
curve) to
Minimize:
max |Acc|+max|Force| (i.e. + )
Subject to constraint:
max |Intrusion| (i.e. max |U
A
-U
Abumper
|)<=350 mm)
Within the design range:
15 kN <= F
2
<= 30 kN
60 kN <= F
3
<= 120 kN
150 kN <= F
4
<= 230 kN
250 kN <= F
5
<= 300 kN
In the Force-deflection curves, U
1
=0 mm, U
2
=50.8 mm,
U
3
=127 mm, U
4
=228.6 mm, U
5
=381 mm (U
i
are
relative deflections), S
U
=5.2 kN/mm, S
0
=3.5
kN/mm, C=8.7 kN/mm. F
1
=0 kN, F
2
=22.2 kN,
F
3
=88.9 kN, F
4
=222.4 kN, F
5
=266.8 kN for F
SB
.
The max || quantities above are determined from the numerical solution to the equation of motion for
the lumped-mass system:
,
,
where MF
A
, MF
B
and MF
Bumper
are calculated using , , , and the relationship
MF=[1+MF
Slp
|Velocity|]
Sign(Velocity*Force)
(MF
slp
= 0.031 hr/km, MF
Max
=1.5). M
ABumper
=M
BBumper
=90.7kg
Figure 21: Force-deflection curves for
spring forces F
SA
, F
SB
and F
Sbumper.
Figure 20: Two lumped-mass systems in
frontal impact.
| | max
..
A U
| | max
A
S
F
0 *
..
+
A
S A
A
A
F MF U M 0 * *
..
+
A bumper
S A S bumper
Abumper
Abumper
F MF F MF U M
0 *
..
+
B
S B
B
B
F MF U M 0 * *
..
+
B bumper
S B S bumper
Bbumper
Bbumper
F MF F MF U M
A U
.
B U
.
Abumper U
.
Bbumper U
.
Occupant
Compartment
(Vehicle A)
A
M
= 907 kg
0
.
A U
= 48 km/h
Occupant
Compartment
(Vehicle B)
B
M
= 907 kg
0
.
B U
= 48 km/h
B
u
m
p
e
r
-
A
B
u
m
p
e
r
-
B
A
s
F
B
s
F
bumper
s
F
A
U
B
bumper
S
F
U
2
0
* * U C U S F +
0
U
F
A
S
F ,
B
S
F
U
3
F
2
F
5
F
4
F
1
U
5
F
2
U
5
U
U
S
3
U
4
U
1
F
2
F
3
F
4
F
275
TWO LUMPED-MASS SYSTEMS IN FRONTAL IMPACT
Figure 22: Convergence history of objective, constraint and design variables in two lumped-mass systems
in frontal impact optimization using successive linear approximations (Convergence achieved with 25
analyses).
Figure 23: Acceleration, transmitted force and intrusion of the mass A (i.e. M
A
) with respect to time for
the baseline and optimum designs of the lumped-mass system A (i.e Vehicle A) .
After optimization: Performance of the lumped-mass system A was improved about 12 % compared to
the baseline design.
Optimization History
390
400
410
420
430
440
450
0 1 2 3
Iteration Number
m
a
x
|
A
c
c
|
+
m
a
x
|
F
o
r
c
e
|
|
[
g
]
+

[
k
N
]
Numerical Analysis
Response Surface Approx.
Optimization History
300
320
340
360
0 1 2 3
Iteration Number
m
a
x

|
I
n
t
r
u
s
i
o
n
|

[
m
m
]
]

Numerical Analysis
Response Surface Approx.
Optimization History
0
90
180
270
0 1 2 3
Iteration Number
F
2
,

F
3
,

F
4
,

F
5

[
k
N
]
F2 F3 F4 F5
-47
-38
-29
-20
-11
-2
0.00 0.03 0.05 0.08 0.10 0.13
Time [s]
A
c
c
e
l
e
r
a
t
i
o
n

[
g
]
Initial Design
Optimum Design -20
60
140
220
300
380
0.00 0.03 0.05 0.08 0.10 0.13
Time [s]
F
o
r
c
e

[
k
N
]
Initial Design
Optimum Design
0
90
180
270
360
0.00 0.03 0.05 0.08 0.10 0.13
Time [s]
I
n
t
r
u
s
i
o
n

[
m
m
]
Initial Design
Optimum Design
Optimum results with successive elliptic approximations were achieved in 4 iterations (57 analyses)
Optimum results with successive quadratic approximations were achieved in 3 iterations (70
analyses)
276
CYLINDER OPTIMIZATION
Definition of the optimization problem:
Find the radius and thickness to
Maximize:
Energy absorption
Subject to:
Rigid wall force <= 70 kN
Within the design range:
2 mm<=thickness<=6 mm
20 mm<=radius<=100 mm
10 m/s
Figure 24: Cylinder, with 265 kg attached
mass at one end, impacting a rigid wall.
277
CYLINDER OPTIMIZATION
Baseline cylinder:
Optimum cylinder :
(t=0 ms) (t=0 ms)
(t=20 ms) (t=20 ms)
thickness= 3 mm
radius=75 mm
thickness= 3.268 mm
radius=52.116 mm
Figure 25: Deformation of baseline and optimum cylinders.
Before optimization: Baseline cylinder was severely violating the rigid wall force constraint.
After optimization: Violation of the rigid wall force constraint was removed.
278
CYLINDER OPTIMIZATION
Figure 26: Convergence history of the objective function, constraint and design variables in the cylinder optimization
using successive linear approximations (Convergence achieved with 41 FE analyses).
Figure 27: The change in the absorbed energy and the rigid wall force with respect to time for the baseline and
optimum cylinders.
0
3
6
9
12
0.000 0.004 0.008 0.012 0.016 0.020
Time [s]
E
n
e
r
g
y

a
b
s
o
r
b
e
d

[
k
J
]
Initial design
Optimum design
0
300
600
900
1200
1500
0.000 0.004 0.008 0.012 0.016 0.020
Time [s]
R
i
g
i
d
-
w
a
l
l

F
o
r
c
e

[
k
N
]Initial design
Optimum design
Optimization History
7
8
9
10
11
12
13
0 1 2 3 4 5 6 7 8
Iteration Number
E
n
e
g
y

a
b
s
o
r
b
e
d

[
k
J
]
FEM Analysis
Response Surface Approx.
Optimization History
40
60
80
100
120
140
160
180
0 1 2 3 4 5 6 7 8
Iteration Number
R
i
g
i
d
-
w
a
l
l

F
o
r
c
e

[
k
N
]
]
FEM Analysis
Response Surface Approx.
Optimization History
0
15
30
45
60
75
0 1 2 3 4 5 6 7 8
Iteration Number
b
1
,

b
2

[
m
m
]
b1
b2
Optimum results with successive elliptic approximations were achieved in 5 iterations (41 analyses)
Optimum results with successive quadratic approximations were achieved in 4 iterations (41
analyses)
279
VEHICLE OPTIMIZATION
Definition of the optimization problem:
Find the bumper and hood thickness to
Minimize:
max |Acceleration of c.g.| (for any 15 ms)
Subject to:
max |Intrusion| <= 550 mm
Within the design range:
2 mm<=t_bumper<=6 mm
2 mm<=t_hood<=6 mm
Figure 28: Vehicle impacting a rigid pole.
280
VEHICLE OPTIMIZATION
Optimum design vehicle deformation (t=50 ms)
(t_hood=1.491 mm, t_bumper=5.67 mm)
Baseline design vehicle deformation (t=50 ms)
(t_hood=1 mm, t_bumper=3 mm)
Figure 29: Deformation of baseline and optimum vehicle.
Before optimization: Baseline vehicle was violating the intrusion constraint.
After optimization: Violation of the intrusion constraint was removed.
281
VEHICLE OPTIMIZATION
Figure 30: Convergence history of the objective function, constraint and design variables in the vehicle optimization with
successive linear approximations (Convergence achieved with 61 FE analyses).
Figure 31: The change in the acceleration and intrusion with respect to time for the initial and optimum designs of
the vehicle.
Optimization History
60
100
140
180
0 1 2 3 4 5 6 7 8 9 10 11 12
Iteration Number
A
c
c
e
l
e
r
a
t
i
o
n

[
g
]
FEM analysis
Response surface approx.
Optimization History
540
547
554
561
568
575
0 1 2 3 4 5 6 7 8 9 10 11 12
Iteration Number
I
n
t
r
u
s
i
o
n

[
m
m
]
FEM analysis
Response surface approx.
Optimization History
0
1
2
3
4
5
6
0 1 2 3 4 5 6 7 8 9 10 11 12
Iteration Number
t
_
h
o
o
d
,

t
_
b
u
m
p
e
r

[
m
m
]
t_hood
t_bumper
0
100
200
300
400
500
600
0.00 0.01 0.02 0.03 0.04 0.05
Time [s]
I
n
t
r
u
s
i
o
n

[
m
m
]
Initial Design
Optimum Design
0
20
40
60
80
100
0.00 0.01 0.01 0.02 0.02 0.03 0.03 0.04 0.04 0.05 0.05
Time [s]
A
c
c
e
l
e
r
a
t
i
o
n

[
g
]
Initial Design
Optimum Design
Optimum results with successive elliptic approximations were achieved in 9 iterations (73 analyses)
Optimum results with successive quadratic approximations were achieved in 6 iterations (61
analyses)
282
NEW JERSEY CONCRETE BARRIER (CB) SHAPE OPTIMIZATION
Definition of the optimization problem:
Find the shape variables b1, b2, b3 and b4 (i.e.
coordinates of Nodes 1 and 2) to
Minimize:
max |Rotational displacement of the vehicle|(for 300
ms)
Subject to constraints:
max |delta V of the vehicle|<=12 m/s (for 300
ms)
max |Acceleration of the vehicle|<=20 g (for 300
ms)
Within the design space:
3 3
1
1 1
1
1
w
b b
w
b
O O
+
3 2
2
2 2
1
2
h
b b
h
b
O O
+
2 3 3
1
3
3
w b b
w
b
O O
+
3 3
3
4 4
2
4
h
b b
h
b
O O
+
2
b
4
b
(
O
b
1
;
O
b
2
)
(
O
b
3
;
O
b
4
)
Node 1: original
coordinate values
Node 2: original
coordinate values
Figure 32: Vehicle (Chevrolet C2500 pick
up truck) and New Jersey CB utilized in
the shape optimization.
Figure 34: Shape design variables of
New Jersey CB (b1, b2, b3 and b4 ).
3 w 2 w 1 w
3 h
2 h
1 h
1
w
= 179 mm
2
w
= 52 mm
3
w
= 150 mm
1
h
= 76 mm
2
h
= 256 mm
3
h
= 481 mm
Figure 33: Dimensions of the New Jersey
concrete barrier.
283
NEW JERSEY CONCRETE BARRIER (CB) SHAPE OPTIMIZATION
Figure 35: Cross-sections of the baseline and optimum barriers.
Figure 36: Post impact trajectory of the vehicle at 300 millisecond with initial (a) and optimum (b)
shape of the New Jersey concrete barrier.
a)
b)
After optimization: A better shape of the New Jersey concrete barrier that improves the objective function
(max |Rotational displacement of the vehicle|) by 25% was obtained.
284
NEW JERSEY CONCRETE BARRIER (CB) SHAPE OPTIMIZATION
a) b)
Figure 37: Convergence history of the objective function (a), constraints (b, c) and design variables (d) in New Jersey CB
optimization with successive linear approximations (Convergence achieved with 61 FE analyses).
a) b) c)
Figure 38: The change in the rotational displacement (a), delta V (b) and the acceleration (c) of the vehicle with
respect to time for the initial and optimum designs of the barrier.
d)
-4
-3
-2
-1
0
1
2
3
0.00 0.05 0.10 0.15 0.20 0.25 0.30
Time [s]
R
o
t

D
i
s
p

[
d
e
g
r
e
e
]
Initial Design
Optimum Design
c)
- 2
- 1
1
2
3
0.00 0.10 0.20 0.30
Time [s]
D
e
l
t
a

V

[
m
/
s
]
Initial Design
Optimum Design
-18
-14
-10
-6
-2
2
6
10
0.00 0.10 0.20 0.30
Time [s]
A
c
c

[
g
]
Initial Design
Optimum Design
Optimization History
1
1.5
2
2.5
3
3.5
4
4.5
5
0 1 2 3 4 5 6
Iteration Number
m
a
x

|
R
o
t

D
i
s
p
|

[
d
e
g
r
e
e
]
FEM Analysis
Response Surface
Approx.
Optimization History
2.0
2.1
2.2
2.3
2.4
2.5
0 1 2 3 4 5 6
Iteration Number
m
a
x

|
d
e
l
t
a

V
|

[
m
/
s
]
FEM Analysis
Response Surface
Approx.
Optimization History
15.0
16.0
17.0
18.0
19.0
20.0
21.0
0 1 2 3 4 5 6
Iteration Number
m
a
x

|
A
c
c
|

[
g
]
FEM Analysis
Response Surface Approx.
Optimization History
-90
-70
-50
-30
-10
10
30
50
70
0 1 2 3 4 5 6
Iteration Number
b
1
-
b
1
O
,

b
2
-
b
2
O

[
m
m
]
,
b
3
-
b
3
O
,

b
4
-
b
4
O

[
m
m
]
b1-b1O
b2-b2O
b3-b3O
b4-b4O
285
OTOBS TAVAN LAMBASI IIN PROSES
SARTLARININ OPTIMIZASYONU
Problem: arpilmayi en aza indirecek optimum mold temperature (MoT),
melt temperature (MeT), packing pressure (PP) degerlerinin bulunmasi:
286
OTOBS TAVAN LAMBASI IIN PROSES
SARTLARININ OPTIMIZASYONU
Yntem: Optimizasyon iin Response Surface yaklasik metodu ve Genetik
algoritma kullanildi (MATLAB programlari yazildi).
Sonu: arpilma 2.47 mm den 1.32 mm ye dsrld (% 46 iyilesme).
287
CNC TEZGAHINDA INCONEL 718 MALZEMESININ
ISLEME SARTLARININ OPTIMIZASYONU
Problem: Inconel 718 malzemesi iin yzey przllgn en aza indirecek
optimum kesme hizi (Vc), dis (fz), eksenel kesme derinligi (ap), radyal
kesme derinligi ae) isleme parametrelerinin bulunmasi:
288
CNC TEZGAHINDA INCONEL 718 MALZEMESININ
ISLEME SARTLARININ OPTIMIZASYONU
Yntem: Optimizasyon iin Yapay
Sinir Aglari ve Genetik algoritma
kullanildi (MATLAB programlari
yazildi).
Sonu: Yzey przllg 0.48
mikrometre den 0.32 mikro-m ye
dsrld.
289
KATMANLI KOMPOZIT ZIRH OPTIMIZASYONU
Problem: 1000m7s hizla bir merminin arptigi 3-katmanli zirhi n delinmesini nleyecek
optimum katman kali nli klari (T1, T2, T3) ve durma aisinin (alfa) hesaplanmasi.
X = {T1,T2,T3,} Design Variables :
(U2-U1) Maximize :
U1 = U2
0.5 mm = T1 = 5 mm
0.5 mm = T2 = 5 mm
0.5 mm = T3 = 5 mm
0.0
0
= = 20
0
Constraints :
290
Initial Armor Design:
(T1=2 mm, T2=4 mm, T3=1 mm, =5
0
)
Optimum Armor Design:
(T1=5 mm, T2=5 mm, T3=5 mm, =20
0
)
KATMANLI KOMPOZIT ZIRH OPTIMIZASYONU
Yntem: ANSYS Design Optimization Module ile Response Surface yaklasik
metodu (Sub-problem method).
Sonu: Zirhta delinme nlendi.
291
OTOMOTIV SASI (S-RAIL) OPTIMIZASYONU
Problem: S-railin arpma aninda yuttugu enerjiyi artiracak optimum kesit
geometrisi (W, H) ve egim aisi (alfa)nin bulunmasi .
292
OTOMOTIV SASI (S-RAIL) OPTIMIZASYONU
Yntem: Response Surface yaklasik metodu ile optimizasyon (Fortran
programlari yazildi).
Sonu: Baslangita empoze edilen 300 mm deformasyonu asan dizayn
(infeasible dizayn )uygun sinira ekildi (feasible hale getirildi).
293
OTOMOTIV PANELDE GERI YAYLANMANIN
(SPRINGBACK) AZALTILMASI
Problem: Otomotiv panelde geri yaylanma, kirisiklik ve kalinlik incelmesini
optimize edecek binder kuvvet degerlerinin (F1, F2, F3), uygulama yerlerinin
(X1, X2) ve draw-bead yariapinin bulunmasi.
F(1)
X(1)
X(2)
F(2)
Upper die
Lower binder
Draw bead
Upper binder I
R
(
2
)
Sheet
Upper binder II
F(3)
294
OTOMOTIV PANELDE GERI YAYLANMANIN
(SPRINGBACK) AZALTILMASI
Yntem: Response Surface yaklasik metodu ve Genetic Algoritma ile
optimizasyon (MATLAB programlari yazildi).
Sonu: Optimizasyon sonunda geri yaylanma, kirisiklik ve incelme
durumlarinda nemli iyilestirmeler basarildi.
295
KALA PROTEZ OPTIMIZASYONU
Problem: Kala protezinde gerilme degerini dsrecek ve yorulma
mrn artiracak geometrik parametrelerin (D(1), D(2), D(3), D(4),
D(5), D(6), D(7), D(8), D(9) ve D(10)) bulunmasi.
296
KALA PROTEZ OPTIMIZASYONU
Yntem: ANSYS Design Optimization Module ile Response Surface yaklasik
metodu (Sub-problem method).
Sonu: Protez zerindeki gerilme degerleri %20-30 oraninda azaltildi.
297
BLACK-JIB KAMERA GVDESININ
TOPOLOJI OPTIMIZASYONU
Problem: gen profilli Black-jib kamera gvdesinde, topoloji
optimizasyonu ile agirliginin azaltilmasi.
298
BLACK-JIB KAMERA GVDESININ
TOPOLOJI OPTIMIZASYONU
Mavi renk:
Agirligin
azaltilabilecegi yerler.
Kirmizi renk:
Malzemenin kalmasi
gereken yerler.
Yntem: ANSYS ile Topoloji optimizasyonu.
Sonu: Agirlikta %20-50 oraninda azalma saglandi.
299
11. Blm
OPTIMIZASYON ILE ILGILI KAYNAKLAR
n KAYNAKLAR
300
KAYNAKLAR
n Jasbir S. Arora: Introduction to Optimum Design
Optimizasyonun mhendislik uygulamalari iin pratik bir rehber.
Optimizasyon teorisi iin yeterli bilgi veriyor.
n Garret N. Vanderplaats: Numerical Optimization Techniques for
Engineering Design.
Kendi optimizasyon yazilimlarini gelistirecekler iin iyi bir kaynak. Kitap
tmyle optimizasyon algoritmalarina odakli.
n Haftka, Grdal & Kamat: Elements of Structural Optimization
Kitapta hem teori hem de uygulamalar var. ogunlukla yapisal
optimizasyona odakli.
n Tukelsky: Numerical Recipies
Numerik analiz ve optimizasyon metotlarini kapsayan bilgisayar
programlari var.

You might also like