Professional Documents
Culture Documents
OPTIMIZACIONE METODE U
KONSTRUKCIJAMA
__j
1. PARAMETARSKAIDENTIFIKACIJA SISTEMA
----< F Jz ki s.istern
Kriterijurn
parametara
3
u opstem slucaj u gresku mozemo definisati analiticki kao J = J ( e).
Kr i terijum odstupanja razmatracemo sa vise gledista uslovljenih nacinom na
koji je ona definisana:
Ako razmatramo slucaj na slici 1.1 tada govorimo o izlaznoj gresci:
e y-yM =y-M(u), gdje
= je M(u) izlazni signal modela
pobudenog ulaznim signalom u.
Ako je e=u-uM = u-M-1(y), onda je to greska ulaza. M" 1 (y) je inverzni model tj.
model koji za dati izlazni signal moze reprodukovati jedinstveni '(jedan i samo
jedan) ulazni signal.
Gresku je moguce definisati 1 na sljedeci nacin:
--- Objelm
Model�
mode,
� e[ €
lii,nna g,e;k., f J t.J!atna 9reSkc
y
Objekzt
Uopsteni mode!
" 1
"'
2
eg f Uopf.tena gresk;,
L 4
L
L
T
J:J(y,yr,,r) : J(e) : J
eq1t, B;dt, q: 1,2,3...
0
VJ(p,T)B=Fo=0 (r.2)
i to su problemi koji su predmet istrazivanja u jednodimenzionalnoj optimizacljr.
L-
L-
Ukoliko je funkcija kriterijuma odstupanja, odnosno funkcija gre5ke,
funkcija viSe promjenijivih tada se, za definisanje minimuma vi5edimenzione
povr5ine koriste metode bezuslovne optimizacije bez tzractnavanja derivacija funkcije
i gradijentne metode.
2. OPTIMIZACIJA
Ml*irrlu1"!i
I
/'(;r) = 0
-f'(xi < o
.f'[r) = o
Minimum f'("*) >o
Optimum je tadka gdje je kriva ravna i u matematidkom smislu f'(r):0. Drugi izvod
funkcije odreduje maksimum sa /"(x)<0 i minimum /"(x)>0. Sada je razumljivo za5to se
za odredivanje optimuma razvila posebna strate-eija i to difrenciranje funkcije i nalaZenje
nula nove funkcije. iinjenica je da neke optimizacione metode nalaze rje5enje putem
jednadine -f'(r):0. Medutim trebare6i da je ovakvo rie5avanje komplikovano kada se /'(;r)
ne moze naci analitidki, kao kod funkcija koje su predstavljene tackastim vrijednostima. Tada
se koriste konacne razllke umjesto izvoda funkcije. Posmatranje optimizacije kao rjesavanje
korijena odgovarajuce jednacine pogodno je u jednostavnijim slucajevima kod
jednodimenzionih problema gdje je razumijevanje problema potpuno.
Postavka problema
je l=,.Ji
t
!_
I
c:kr A
gdje je:
M,
Takode, teLina svakog tereta je pojedinadno : m= , gdjeje M - ukupni teret
n
ispu5ten padobranom (kg) i n - broj paketa.
Konadno, cijena svakog padobrana moLe se predstar,'iti sljedeiim izrazom
gdje su co, ct, c2 - koeficijenti cijene. Konstanta co je osnovna cijena padobrana. Nelinearan
(lan crA2, koji se odnosi na povr5inu, dat je zbog toga Sto je skuplje konstruisati veliki nego
mali padobran. Cilj je odredivanje poluprednika padobrana (r) i broja padobrana (n) uz
minimalnu cijenu ko5tanja jednog padobrana pri cemu treba da je zadovoljen i kriterijum
kriticne brzine udara o zemlju v..
Rje5enje :
t_
I
L
. V(Vc,
. n>l(brojposiljki morabiti >l).
Ovim definis aL zadatak optimizacije i mora se zakljuditi da je to nelinearni
je
ograniden problem. Iako je ovaj problem Siroko formulisan, on se moZe postaviti i na sljede6i
nadin :
,=9-!!lt-,
' :,,), ,,,,
(2.1)
c( )
t - vrijeme (s)
Mada izraz (l) daje veza izmedu brzine v i vremena /, neophodno je znati vrijeme
padanja tijela. Zbog toga nam je potrebnayeza izmedu distance (z), udaljenosti tijela koje se
spusta padobranom od zemlje, i vremena padanja r. F unkcija z: f(t) je data na S1. 2.4.
0
051015
t {s)
L- 9
t
C: n(co*cr* cz A.2) sa prvim ogranidenjem v ( v" i drugim ogranidenjem n > 1, gdje je :
A=2tw2
c:
- k"A
'-c'^
t,r
lvl
tn =-----:-'
'n
lzpoznate relacije:
o.w zl . \
6o.vm- [lr -2--.,
"'
.
Z=Zo-:;.t+
5 n
I
-, I
'vL\. c,
-\/ lt-e I
L
I
( c\
I
cl
I
L ^tt
\./ I
I
I
I
L
10
I
I
L
Ovaj problem 6emo optirnizacionim metodama rje5iti kasnije.
- funkcija cilja tj. funkcija dija se ekstremna vrijednost traZi (maksimum i minimum) i
onaie obidno na5 cilj
- promjenljive koje figuri5u u funkciji cilja i odreduju njenu sloZenost. Mogu biti realne
i cjelobrojne i u naSem sludaju kod razmatranog primjera su r , t i n.
- ogranidenja koja se javljaju za odredene promjenljive i odreduju oblast u kojima su
rjeSenja vaZeca.
Mada funkcija cilja i ogranidenja mogu biti predstavljeni preko prostih jednad.ina one
mogu biti osnova za kompleksne zavisnosti i modele Sto je prikazano u navedenom primjeru.
Tako su odredivanje vremena padanja tereta i brzina udara zahtijevali komplikovana
radunanja, dok primjena optimizacionih metoda je mnogo efikasnija i korisnija.
d,(x)< a, i =1.......nt
(2,2)
e,(x)= b, i =1......P
gdje je r n-dimenzioni vektor, f(.) - funkcija cilja, d{r) - ogranidenja u vidu nejednadina
i ei(x) - ogranidenja oblika jednadina, ai i bi su konstante.
- ako je "f(x) nije linearno ili kvadratno i (ili) ogranidenja su nelinearna imamo nelinearno
programiranje.
11
Dalje, ako su ukljudena ogranidenj a (2.2) onda je optimizacija sa ogranidenjem, a ako
ogranicenja nijesu ukljucena onda je optimizacijabez ogranidenja. Za ogranidene probleme
broj stepeni slobode dat je sa n-p. Generalno, za dobtjanje rje5enja mora biti p < n . Za p >
n problem je preograniden.
.ilr..r) i
l,linim u lr .i
(-r)
irr) ti'I
- metod zlatnogpresjeka
- Njutnova metoda
- metod kvadratne interpolacije
t2
t_
I
I
..
f"t r'\
fil*b*l L*cai
msxrrnum rnftxl lT) u {}
Glsbal
rnrntmum Lsc*l
iYllnrmum
t3
t,
ll'll=1/I'i
Ovo je Euklidova norma (duZina) vektora r. Ako postoji broj p i neko u I 0 tako da je
llilxr+t * llil
-x ll=a
limll
k+x ll t
ll' -'ll*llP
tada 6emo p zvati stepenom konvergencije niza **, dok.lellrt -r.ll greska k-te aproksimacije.
Ako je p :1 tada je stepen konvergencije linearan, a ako je p > 1 stepen konvergenctje je
superlinearan. Specij alno za p : 2 stepen konvergencije je kvadratni. Za neke metode i klase
funkcija stepen konvergencije bi6e uvijek linearan, za druge superlinearan.
L4
funkcije .f. Za bilo koju unimodalnu funkciju /, poslije n uporedivanja vrijednosti funkcije,
dobijamo istu ocjenu za duZinu intervala koji sadrZi optimalnu tadku (roo,). Dobijanje tadke
x,r,. metodom zlatnog presjeka u biti je slidno sa metodama odredivanja nule funkciie f(x)
koje se baziralu na polovljenju intervala u kome se nalazi r.ieSenje jednadine .
Naime, nade se donja (x) i gornja k") tadka nekog intervala promjenljive ir u
kome se nalazi rjesenje xp i nade polovljenjem intervala srednja tadka
*"
.r-
"2- "
Tada se izraduna vrijednost funkcije u tim tadkama nade promj ena znaka funkcije. Na
osnovu toga se zakljuduje u kojem se intervalu od dva nova (x7, x,) ili (x", xg) nalazi traZeno
rjesenje. Zatim se odbaci jedna od tadaka (x7 ili x, ) i traZerye nastavlja u jednom od ovih
intervala ponavljaju6i postupak polovljenja intervala i uporedivanja vrijednosti funkcije sve
dok se ne dobije zadovoljavajuie rjeienje.
.fi .I! f
First J
iteiation
{ t-++ l'a+
Second ! r r
iteration -
=r:l---
Posebno vaLno je izabrati srednju ta6ku. Ona treba da zadovolji dva uslova :
l5
lr:lr+1,
l, :1,
lo ll
Iz ovih jednadina dobija se
It t2
tllrll t t2 tl
-=-
I
Ako uvedemo oznaku R =z kao odnos ovih duZina dobiiemo :
ll
1+R=1
R
t lt
R2 +R-1:0
Rjesenje ovejednacine
,r:
R: -r+Jr-+(-r)
2
--l+v5
2
-0.6r803...
Ova vrijednost je bila poznata prije antidke grdke i naziva se zlatni presjek ili zlatni
rez. Ovo je kljudni element kod metode zlatnog presjeka na kome se metod konceptualno
zasniva i omoguiava da se optimalna vrijednost nalazi efikasno. Kao sto jeprrkazano na Sl
3.3, u metodi se starluje sa dvije podetne vrijednosti x,1 | xr koje okruZuju lokalnu ekstemnu
vrij ednost funkcrje f(x) .
r6
.!r x) -tl lu I -::
il
Oid rr Old,rj
(I)
d:R(xs-.ra,)
-r, : 'trid
--
,\. ---
-1" -l Ll
PoSto se nadu vrijednosti funkcije u ovim tadkama mogu nastupiti sljede6i sludajevi :
- ako je "f(r) > "f(x) , tada intervai lijevo od x2 n4e biran jer ne sadrZi maksimum
funkcije i treba ga eliminisati
- ako jef(*) > f(x) , tada desno od tadke.;r7 ne6e biti maksimum funkcije i taj interval
treba eliminisati.
Na ovaj nadin se veoma efikasno dolazido rje5enja i interval koji sadrZi maksimum se
rapidno smanjuje. Metoda zlatnog presjeka je pouzdana. Njen nedostatak je Sto je prilidno
spora i njen stepen konvergencije je u najboljem sludaju linearan.
n: 6-l:0.6r803...
2
Ovaj broj je bio kori5den za nntoSa svrhe ukljuduju6i i projektovanje gradevina, kao sto je
prikazano na Sl 3.4.
17
Sl 3.4. - Partenon u Atini projektovan u skiadu sa,,zlatnim" pravougaonikom
Ovaj broj je val.an i kod mza tzv. "Fibonacijevi brojevi". Kod ovog niza je svaki
clan zbir prethodna dva, a kolidnik susjednih brojeva teLi zlatnom odnosu 0,618. Clanovi
ntzaredlaju se na sljedeci nacin:
18
Primjer 3.1:
f(x)=2sinx--
10
ReBenje:
17
-r
d=n"(4-O):2.472
2\/
xr:0*2.472:2.472
X2: 4 - 2.472:1.528
d
.=-;.(2.472_
..6 -t,^ .-^ ^\
0)= 1.529
xz: 4 - t.SZg:0.944
t9
I f(xr) X2 f(xr) X1 f(xr) f(x")
20
q' (r) = J' (*) * .f " (4o\*,- ro ) : 0
f'(ro\
.["Go)
,(*,,)
r/'-r =
'--?Gi .f (*)
zaradunanje stacionarne tadke funkcije f koja se zove " Njutnova metoda ". Njutnova
metoda je, za dovoljno " glatke " funkcije, veoma efikasna i stepen konvergencije je
kvadratni za dobro pogodene podetne aproksimacije :16 .-_f-- - J
Primjer 3.2:
'f"(x): -2sin'-;
moZe biti zamijenjen u Eq i daje:
I = xiI -':q?.
xi*r
-./,2
-2sinx,-ll5
Zamjena podetnih vrijednosti priraStaja je:
2cos2.5-2.515 ^- ^
xr = 0.995 -2coso'995
-0'995 I 5
=1.46901
2sin0.995-ll5
a vrijednost funkcije
t- u-' njoj
-J-JJ-
je 1.77385
2t
ix f(*) f'(x) f"(x)
0 2.s 0.57194 -2.t0229 -t.39694
1 0.99508 1.s7859 0.88985 -r.877 61
2 1.46901 t -11385 -0.090s8 -2.1896s
3 1.42764 t.77s73 -0.00020 -2.11954
4 1.427 55 l.7l573 0.00000 -2.17952
3. 4. Metoda sjedice
Kao Sto se vidi u relaciji (*) Njutnova metoda se zasniva na nalai,eryu prvog i
drugog izvoda u svakoj aproksimaciji xp . Ukoliko se drugi izvod funkcije f zamijeni sa
konadnim razllkama
f'(rrYt*r-ro ,)
rr_r - ^o -
f (r)_ f,(n )
i radunanje stacionarne tadke funkcije/ na ovaj nadin naziva se metoda sjedice. Tacke x6 i x1
su proizvoljne. Prednost metode sjedice u odnosu na Njutnovu metodo je u tome Sto se ne
izra(unava drugi izvod funkcije. Medutim, metoda sjedice je sporija od Njutnove metode, a
brLa od metode uporedivanja vrijednosti funkcija. Koeficijent konvergencije metode sjedice
je superlinearat.
Ideja ove metode bazirase na dinjenici da se funkcija f , cijase optimalna tadka x* traLi,
dobro aproksimira polinomom na intervalu koji sadrZi tadku ,*. Kao Sto se kroz dvije tadke
moZe provu6i samo jedna prav1 tako se ikroz tri tadke moZe provudi samo jedna parabola.
Zaneke uodene tri tadke X6, X1, X2 kao na S1.3.6., u intervalu koji sadrZi minimum funkcije
treba na6i vrijednosti funkcija unjimaf(xil, "f(r,) i"f(r)
22
ln tacka nalazi iz
b · a se vrijednost
( *)
Ako se aproksimacija vrsi sa polinomom treceg reda tada imamo Kubnu metodu. U metodi
parabole, za razliku od Njutnove metode ne koristimo izvode funkcije f, pa se ona moze
koristiti za iznalazenje optimalnih tacaka nederivabilnih funkcija. Stepen konvergencije obje
metode (Metode parabole i Kubne metode)je superlinearan.
23
Primjer 3.3:
Xo = 0 f(xo) = 0
X1 = 1 f(x 1) = 1.5829
X2 = 4 f(x2) = -3.1136
Strategija metode je slicna metodi zlatnog reza u dijelu da treba naci novu tacku u
procesu priblizavanja optimalnoj vrijednosti, a odbaciti jednu od nacrtanih tacaka u svakoj
iteraciji.
Xo = 1 f(x0) = 1.5829
X1 = 1.5055 f(x 1) = 1.7691
X2 = 4 f(x2) = -3.1136
24
Xn Xi
f(xn) f(xr) x2 f(xz) X3 f(x:)
1 0.0000 0.0000 1.0000 t.s829 4.000 ,.rrru 1.sOss r.769t
Tako poslije pet iteracrja rezultati konvergiraju vrijednosti funkcij e 1.7757 u tadki
x: 1.4276.
Liies of co,lstani,/
25
Ogranicicemo razmatranje na slucajeve sa dvije promjenljive zato sto se cesto
pokazuje da se ovo razmatranje najbolje prati vizuelno.
Prvu klasu cine negradijentne ili direktne metode kod kojih ne treba fraziti parcijalne
izvode funkcije cilja po parametrima i gradijentne metode za ciju promjenu je potrebno da je
funkcija derivabilna. Strategija trazenja mirtimuma treba da je takva da se sa sto manjim
brojem izracunavanja ciljne funkcije odredi polozaj tacke u n-dimenzionalnom prostoru za
koji ciljna funkcija poprima najmanju vrijednost.
k = 0,1,2,...
26
4.1. MetodatraL.enja po koordinatnim osama
Jedna iteracija u dijagramu toka kod ove metode sastoji se od traLenja po svim
koordinatnim smjerovima. Postupak se zaustavlja ako je zadovoljen kriterijum kojim se
zahttjeva da apsolutna vrijednost promjene parametara u dvije uzastopne iteracije bude manja
od unaprijed zadatog malog broja e, tako da bude:
Ovaj postupak je veoma jednostavan ali neefikasan jer ne uzima u obzir nikakvo
saznanje, o funkciji ciljaiz prethodne iteracije. Osnovni nedostatak metode je da je kretanje
prema minimumu vrlo sporo, tj. u malim koracima, ako postoji "uska dolina" u smjeru koji se
ne poklapa sa jednim od koordinatnih smjerova Sto se moZe vidjeti i na slici 4.3.
27
, ..
prethodnoj bazicnoj tacki. Kada se dobije nova bazicna tacka x 1 , tada se kroz te dvije bazicne
tacke dobija pravac po kojem treba ici za duzinu koja je jednaka udaljenosti tih dviju tacaka,
kao na slici 4.4.
Tako dolazimo do nove bazicne tacke x2. Znaci, radi se o iterativnom postupku u
kome niz bazicnih tacaka x0, x 1, x2 . . . tezi prema nekom lokalnom minimutnu x* funkcije f.
U svakoj bazicnoj tacki pretrazuju se koordinatne ose poslije cega nalazimo novu bazicnu
tacku xk+l· Tada se pravi skok u pravcu odredenom posljednjim dvijema bazicnim tackama i
dobija se nova bazicna tacka iz koje se vrsi ispitivanje.
t .,
x,
28
Na slici Sl 4.5. je data ilustracija Hook-Jeeres-ove metode primijenjena na funkciju
dvije promjenjive. Punom linijom je prikazan uspjesan korak, a isprekidanom neuspje5an
korak. Tadkastom linijom predstavljeni su uspje5ni skokovi u pravcu odredenom bazidnim
tadkama.
Grafidki prikazza funkciju dvije promjenjive dat je na Sl 4.6. Kao Sto se sa slike vidi
polazi se od tadke l,traLi minimum u pravcu promjenjive x, dok je ordinatay konstantna i
tako se dolazi do tadke 2. Zatim se uzima x konstantno, a nekom od jednodimenzionalnih
metoda nalazi se minimum u pravcu y i dobija se tadka 3. Postupak se nastavlja i redaju se
tadke 4, 5, 6 i td cime se tako se ide ka optimalnom rje5enju.
Medutim, mnogo je efikasnije uoditi pravce odredene tadkama l-3 i 2'4. U njihovom
presjeku se nalazi ta(ka minimuma veoma efikasno. Najbolji algoritam sa ovakvom
osnovnom idejom nalaLenjaminimuma dao je Powell.
Buduci da je f(x1 +d1°) = 0,1 4 +0,1 3 0,1 =-0,0989-< f(x1) = 0 , prvi korak je uspjesan i
-
stavljamo
Sada iz tacke t; pretrazujemo drugu koordinatnu osu: Korak duz pozitivnog dijela
druge koordinatne ose vodi do
u;
Buduci da je f +di) =-0,0089 >- f(t;)=-0,0989 , ovaj korak vodi na brdo i zato je
neuspjesan. Za korak duz negativnog dijela druge koordinatne ose:
I 0,1 I I o I I o, 1 I
t 1
d2 = I O I I O 1 II I O 1 I
o
1 - I 1-1 ' = I - ' I
L JLOJ L OJ
O
nalazimo da je f(t;-di)= �0,2088-< f(t;), ovaj korak vodi u dolinu i zato je uspjesan;
stavljamo
o
t2 = tI -d2
1 1
i iz ove tacke pretrazujemo trecu koordinatnu osu. Korak u pozitivnom smjeru te ose daje
tacku
30
| 0 I I 0 I I 0,1
/,*ai=l -o,r l*l o l=l -o,r
Rezultati ovih proraduna dati su u tabeli.
Tabela
DuZina
Komponente bazidne tadke x!
koraka
0 0 0 0 0,1
1 0,1 -0,1 0,1 0,1
2 0,3 -0,2 0,2 0,1
J 0,4 -0,3 o1
vrr 0,1
4 0,5 -0,5 0,4 0,1
5 0,5 -0,6 o5
v)J 0,1
6 05
" )" -0,8 0,6 0,1
- 0,5 -0,9 0,J 0,1
8 0,6 -0,9 0,8 0,1
9 055 -0,95 0,75 0,05
10 0,515 -0,950 0,775 0,025
11 0,5750 -0,937 6 0,1150 0,0125
t2 0,56875 -0,93760 0,76875 0,00625
13 0,51l8l5 -0,940625 0,768750 0,003 125
l4 0,570312 -0,939062 0,167181 0,001 5 625
15 0,510703 -0,939062 0,161r81 0,00039063
16 0,510703 -0,939257 0,767187 0,00019531
t7 -0.9392s7 0.767181
32
S1.4.7. Konjugovani pravci
Taj pravac se naziva konjugovani pravac. Ovu metodu je najbolje objasniti preko
kvadratne funkcije f(x,y). Svako sljede6e traZenje minimuma na pravcu se dobrja u
konadnom broju koraka bez obzira na stafinu tadku. Primjena upro56ene verzije Powell-ove
metode za nalai.enje minimuma funkcije:
prlkazanaje na S14.8.
sl 4.10. Primjer odredjivanja minimuma funkcije f (x,, xr) = (x, - 4)' + (*, - 2)'
34
Uzmimo dvije tadke kao startne xf i xi i to na paralelnim pravcima v, koji zaklapaju
ugao 450 sa x-osom. TraZenjem minimuma na paralelnim pravcima dobijaju se tadke x] i xj.
Njihovim spajanjem dobrja se po Powell-u konjugovani pravac v, koji prolazi kroz tadku
minimuma (4,2).
ir.l
Neka je tacka ,'=l-,1 pocetna aproksimacija. Ako se zapolazne smjerove koriste
L'l
35
Irl l-ol Iol
jedinicni vektori u' =lol )e 2
:l,l )e" =lol, tada
1
se posiije trece iteracije dobijaju
Lol L,l L,l
sljedeci rezultati:
I o.szq I
,,=l-o.rrrl.
Iozor.]
Problem koji moZe da se javi kod Powell-ove metode, gledano disto sa numeridkog
stanovi5ta, sastoji se u tome da skup vektora postaje linearno zavisan. Tada se ovim
postupkom ne dobijaju optimalna rjesenja. Ovaj nedostatak je uodio i sam Powell i sugerisao
da se posle doredenog broja iteracija nastavi sa koordinatnim osama kao pravcima
konvergencije. Medutim, korekcijom ovog nedostatka gubi se svojstvo kvadratnog
zavr5avanjapa metoda gubi na efikasnosti. Ovim problemom bavio se i Zangwill i dosao do
metode koja je superornija od Powell-ove. Medjutim, Powell-ova metoda je i dalje davala
bolje rezultate od Zangwrll-ove metode. Ono cime se najbolje moglo doskociti pojavi
linearno zavisnih smjerova jeste ponovno uvodjenje koordinatnih smjerova umjesto
izracunatih konjugovanih pravaca.
I pored svojih nedostataka Powell-ova metoda uz inteligentno koriscenje ostaje kao
najbolja u grupi metoda bez rzracunavanja derivacija. No, uprkos svojim nedostacima, nema
dvrste evidencije da postoji metoda bez izradunavanja derivacija, koja je bolja od
konj ugovane Poweli-ove metode.
IstraZivanja sa Hook-Jeeves-ovom i Powell-ovom metodom pokazala su da ove
metode treba koristiti uglavnom, u sludaju nederivabilnih funkcija ili kada se derivacija ne
moLe lako izradunati. U sludaju derivabilnih funkcija postoje efikasnije i brLe metode, koje
ce biti obradjene u daljem drjelu teksta .
36
5. VISEDIMEI{ZIONALNA NEOGRANICENA OPTIMIZACIJA
ZA DERIVABILNE FUNKCIJE
I f'(r)
l,
f'Gl
J tx) =
i
t^-..1
t/
'(xt_1
I Af161
^
dJ
-l
'lx)
.
af'@)
la
l, af, (r) ^-),
a\
aJ'\x)
,
0*,
af'@)
vf(x)=i u. a\ A*,
I
0f'(x)
I
L 0x, o*, -]
5t
Ovako dobijena matrica naziva se Jakobijeva matrica. Ona predstavlja prvu derivaciju
funkcije.
(x)
'r\"''-t I )f(x) af (")
-' a.f I
Neka je data funkcija dvrje promjenljive f(*,y) i tacka A(a,b) na njoj 51 5.1. Ako
zelimo da znamo nagib povrsi u toj tacki definisemo prayac h koji sa x-osom gradi ugao 0.
Vrijednosti duz nove ose h formiraju novu funkciju g(h). Ako poziciju tacke A uzmemo za h
: 0, tada se nagib u toj tacki dobija kao prui izvod funkcije g u toj tacki:g (0). Ovaj nagib,
koji se naziva pravac rzvoda, moze se izracunati preko parcijalnih izvoda duz x i y ose kao
s'(0) :{ +4 sin 0
"o'0
38
I
vJ =
af= af -
a*'* ur'
On predstavlja pravac izvoda funkcije f(",y) u tacki (a,b). Funkcija najbrze raste
pravcu gradijenta r najbrze opada u pravcu antigradijenta.
,l
4
0
01234r
l a') f
r-------------
6) a'f 6) a'f G)
i ar,' 0xr0x, 0x,,0xn
-
I a'f(x) a'f(r)
^, -_ -
d-.1lx)
,
-:--^
t
I Ax,Ax,
^- Ax,Ox2
lll
oxl
I n_J
39
Druga derivacija skalarne funkcije f u tacki x je simetridna matrica n-tog reda poznata
kao Hesse-ova matrica.
Za funkclju jedne promjenljive prvi izvod je nagib tangente u nekoj tadki i ukoliko je
jednak nuli dobijamo stacionarnu tadku Sl 5.3.
***s
o)
Da li je ta tadka max ili min funkcije zavisi od znaka drugog izvoda funkcije u toj
tadki. Zay"(x)>0 imamo minimum izay"(x)<0 imamo maksimum funkcije.
40
r,,r a'f a'f
lHl:--r-r
( a' f \'
I..l ) 1 I ^ ^
dx'
^ Oy' \oxoy )
^ I
F:Pi-r+a di-r
41
pri demu je d1-1 pravac vektora, a cr skalarna velidina. Kako gradijentne metode
baziraju na razvoju Taylorovog reda i ukljudivanju razliditog broja njegovih
dlanova to je jasno da osnovna razhka ovih metoda leLi u postupku za definisanje
vektora di 1 koji se moZe napisati kao
di-r :KVJ(B,T)
Metod K
Najstrmijeg spusta K kl
Newton-Raphson
Newton
Gauss-Newton
U prvu klasu spadaju metode koje koriste samo prvu derivaciju funkcije
f i zovu se Metode prvog reda.
5.1.1.1 Cauchy-eva metoda najstrmijeg opadanja
42
Najstarija Metoda prvog reda je Cauchyeva metoda 'najstrmijeg spusta koja
potide joS od 1847. godine. Ideja metode prikazana je na s1.5.6. Kao sve numericke
metode nelinearne optimizacije i Cauchy-eva metoda je iterativna.
ry
Min f(Bs-o I vrlBo; l
gdje se potro5i dosta vremena za odredivanje duZine koraka. Sada je f(Fo-cr lVflBol lr;
funkcija samo jedne promjenljive a koju mozemo napisati kao
43
Sl. 5.7 Konvergencija Cauchy-e
Iteraciju iemo zapodeti iz ishodiSta i sa raiunom iemo prestati kad bude ispunjeno pravilo
zaustavljanja sa K : 0,1, tj.
oo < 0.1'oo.
44
I
I -1
Llo =
t YfI.xo l ]' =l r
vf (x )j1
0
L-U
ilr
| 0,71308
.r, = Jro -oouo : -0,71308
|
L 0,71308 _]
tabela
x! x! f(*o)
1 0,713 08 -0,71308 0,71308 -7,62213
2 0,52536 -0,90297 0,72361 -1,90097
J 0,56270 -0,93966 0,12774 -1,91020
4 0,56916 -0,93058 0,1499 -1,91122
iebiSevl jeva duZina gradijenta u tadki x13 manja je od 0.001. Ovo zna(i da je x13 blizu
stacionarne tadke (u kojoj gradijent mora biti jednak nula-vektoru i zato je njegova duLina
jednaka nuli). Budu6i da je funkcija strogo konveksna u okolini tadke xr3 zakljudujemo da x13
aproksimira (izolovani) lokalni minimum.
Gradijent funkcrje F je
Prva iteracija:
t-- rl
8o =-VF(rrr=L;]
46
vo :.90=L
| -z) xo+'sYo=L,
[- z'l
o -], l
Treba naci minimum funkcije jedne promjenljive
.f'(r)=80s-4:0, s:0.05
xr
lol l-21 I--o.rl
:ro*.svo=Lrl.oorl
LJ
,-]=L o l
Druga iteracija:
g, =-vtr(x,) :I[-zor-0.1)+loro)-21 [ oI
:L_,
rot_o.rl_oiol ol -]
oo ln
7_pl6r :^."=0.25
' oo 4
60s0
I o
-] l-- z-l [- o.sl
rt=8t*TVo=L_,
ol+ozsf o -]=[_,.0_]
,f(s)=F(x,+sv,)=10(-0.1-0.5s)2+3(-s)'z-10(-0.1-0.5s)(s)+2(-0.1-0.5s)=0.5s2-s-0.1
-f'(s):s-l=0 S: l'0
47
5.1.2.Gradijentne metode drugog reda
U ovu klasu spadaju metode koje koriste pored prve i drugu derivaciju ili
neku njenu aproksimaciju i zoytt se Metode drugog reda. Jedna od tih metoda je i
Newton-ova metoda.
48
Sl .5.8. Strogo konveksna funkcija
49
Za dvaput neprekidno derivabilnu funkciju f kaZemo da je konveksna ako je Hesseova
matrica V'f(B) pozitivno definitna za svako B.
i Hesseova matrica:
12fi +6x, x3 xz
| *, xl ',1
50
Budu6i da je Hesseova matrica singularna u ishodiStu, ne moZemo uzeti ishodi5te za
podetnu aproksimaciju! (Zbog uporedivanja, primijetimo da Cauchy-eva metoda ne koristi
drugu derivaciju i zato smo je mogli zapodeti iz ishodi5ta u priqjeru 4.2). Sada 6emo iteraciju
podeti npr.Iz tadke *o : (1, -1, D' i frekinuti je kada bude najveda komponenta gradijenta
,T
Lv/(r-)l' po apsolutnoj vrijednosti manja od r: 10{. U sljedecoj tabeli izlozena jevrlobrza
konvergencija. Rezultati su zaokruLeni na pet decimalnih rnjesta.
tabela
k
x2 x! f(*o)
0 -1 -1
I 4,71037 -0,95427 0,83232 -1,83669
2 0,59255 -0,94165 0,77825 '-1,91014
J 0,57150 -0,93962 0,76847 -1,9rr77
4 0,57086 -0,93956 0,;/6818 -1,97177
5 0.57086 '3956 0.76818 -1.9tt77
0,57086
l( :x': -0,93956
L 0,76818 _]
Ovaj rezultat podudara se sa rezultatom, koji smo dobili pomodu Cauchy-eve metode,
na tri decimalna mjesta.
Minf(*u-og(xk)).
51
5.1,.2.z.Gauss-Nj utnova meto da
'i*J-* :. ;;:-i
"i = :r.
": ." T j. i,r l:,r-,-,;
il.-r*.1 j
(4.2)
2
TJ(i :-t -,T). l'.t -1't5 l-l .,Tl ''J{i,l*l .,T}
? -1'(i,-.,,TJ.lJ(s.-,,Tlll
ll TJ{ 5.)-, .,T)ii.ll ':'J l-l l*t
It
a!
fttr*'1.-fl
v 1^,: i '
r;J i * *t tal Tl
1r
.l 1, . 1-- 1
\ -' li'; 1.
"/
52
Koju metodu cemo primij erriti za odredjivanje duzine koraka ct zavisi od
konkretnog slucaja. Postoje metode uporedivanja vrijednosti funkcije za koje je
karakteristidno to da su tipicno jednodimenzionalne metode Sto zna(i da se ne
mogu lako uprostiti na probleme sa n promjenljivlh. Za dovoljno "g1atke"
funkcije primjenjuje se Njutnova metoda. Ova metoda itna brzu
konvergenciju (kad konvergira!) . Pojednostavljena Njutnova metoda daje Metodu
sj edice.
53
Na istom pravcu d odredi se jos jedna tacka biranjem skalara a i nade
gradijent u njoj. Tada se pomnoze vektor gradijenta u novoj tacki sa
pravcem d. Ukoliko je taj proizvod u . pocetnoj tacki istrazivanja bio
negativan a u drugoj pozitivan tada sigurno postoji tacka izmedu te dvije u
kojoj je navedeni skalarni proizvod jednak nuli i ona predstavlja minimum. U
suprotnom, ukoliko je proizvod gradijenta u pocetnoj tacki ispitivanja i
odabranog pravca negativan, a u drugoj pozitivan radi se o maksimumu.
Program je koncipiran tako da se druga tacka na pravcu d maze birati dok se
ne dobije prava vrijednost pogodna za dalja istrazi vanja, a zatim vrsi trazenje
tacke minimuma uporedivanjem vrijednosti proizvoda vektora gradijenta i
pravca d, tako sto se proces ponavlja sve dotle dok se ne dobije vrijednost
nagiba u novoJ tacki , manja od unaprijed izabrane tolerancije zaustavljanja
racunskog programa.
54
Poslije uporedivanja sa rezultatima iz primjera 5.3, zakljucujemo da su za gomJu
funkciju Njutnova i DFP metoda podjednako efikasne.
55
6. LITERATURA
1.AVRIEL, M.
[1996] Nonlinear Programming:Analysis and Methods,Prentice-Hall, Inc., Englewood Cliffs,
N. J.
2.JENSEN, P.A. I BARD, J.F
[2003] Operations Research, Models and Methods, John Wiley&Sons, Inc.
3.JANG, J.S., SUN, C.T.
[ 1997] Neuro-Fuzzy and Soft Computing, Prentice Hall
4. BEER, F., JOHNSTON, R.
[1998] Vector mechanics for Engineers, McGraw-Hill
5. FOGEL, D., ROBINSON, C.,
[2003] Computational Intelligence, John Wiley&Sons
6.MERIAM, J.L., KRAIGE, L.G.
[2003] Dynamics, John Wiley&Sons
7.MERIAM, J.L., KRAIGE, L.G.
[2003] Statics, John Wiley&Sons
8.MEDSKER,L., LIEBOWITZ, J.
[1994] Design and Development of Expert Systems and Neural Networks, Macmilan College
9.FOWLER, B.,
[1996] Dynamics, Addison-Wesley
10. KARTALOPOULOS, S.V.
[1996] Understanding Neural Networks and Fuzzy Logic, IEEE Press
56