You are on page 1of 15

Mirko Vujoevi

1. UVOD U OPTIMIZACIJU
1.1. Formulacija zadatka

1.2. Klasifikacije problema

1.3. Potrebni i dovoljni uslovi za optimalnost

1.4. Uslovna optimizacija i Lagranovi mnoitelji

1.5. Problem optimalnog upravljanja

13

Literatura

15

Uvod u optimizaciju

Problemi nalaenja optimalnog reenja, zadaci optimizacije, sreu


se i reavaju u svakodnevnom ivotu. Na njih se nailazi skoro svuda, u
tehnikim i ekonomskim sistemima, u porodici, preduzeu, sportskom klubu
itd. Po prirodi su veoma raznovrsni. Problem moe biti: plan proizvodnje,
raspored porodinog budeta na dobra i usluge potrebne porodici, plan
odravanja termoagregata nacionalnog elektroenergetskog sistema, izbor
raunarske konfiguracije za firmu, planiranje transporta, nalaenje puteva u
telekomunikacionoj mrei i mnogo toga drugog. Zajedno u svim tim
zadacima je ovekovo implicitno nastojanje da pronae reenje koje u
najveoj moguoj meri zadovoljava njegove elje, odnosno reenje koje mu
stvara najveu korisnost.
Predmet ovih razmatranja su prevashodno oni problemi za koje
postoje manje ili vie dobro razraeni matematiki modeli ili za koje se takvi
modeli mogu napraviti. Konkretnije, predmet su modeli i metode
optimizacije za izabrane klase problema koji se esto sreu u praksi a
matematiki su relativno dobro obraeni. Pri tome treba uzeti u obzir da se
u teoriji optimizacije prevashodno trai reenje postavljenog optimizacionog
zadatka i ne razmatra pitanje koliko postojei matematiki model odgovara
realnom zadatku. Sa aspekta praktinog primenjivanja rezultata upravo
provera da li je matematiki model dobra aproksimacija realnog problema
moe da bude od krucijalnog znaaja.
U ovom delu teksta daje se postavka zadatka optimizacije, izlau
neke od moguih klasifikacija zadataka i iznose osnovni klasini pristupi
optimizaciji u nelinearnom programiranju.

Mirko Vujoevi

1. UVOD U OPTIMIZACIJU

1.1. Formulacija zadatka


Teorija optimizacije se bavi razvojem modela i metoda kojima se
nalaze optimalna reenja matematiki formulisanih problema. Bilo koje
reenje problema obeleavamo sa x. Po pravilu, x predstavlja n-torku
x = (x1, ..., xn). Komponente reenja xj, j = 1 ...,n, nazivamo upravljake
promenljive ili promenljive odluke. Ustaljeno je da se optimalno reenje
obeleava sa x* = (x1*,..., xn*).
Optimalno znai najbolje. Da bi se za neko reenje reklo da je
najbolje, treba imati meru kojom se odreuje njegov kvalitet i koja
omoguava njegovo poreenje sa drugim moguim reenjima. U
matematikom modelu radi toga mora da postoji funkcija kojom se svakom
reenju pridruuje odgovarajua vrednost koja predstavlja njegovu meru
kvaliteta. Ta funkcija pokazuje efikasnost izvrenja zadatka radi postizanja
cilja i naziva se kriterijum, kriterijumska funkcija, funkcija cilja ili indeks ili
mera performanse. Uobiajeno se oznaava sa f(x). Zadatak optimizacije je
nalaenje reenja koje daje ekstremnu vrednost kriterijuma, najveu zadatak maksimizacije, ili najmanju - zadatak minimizacije, kao i
odreivanje odgovarajue vrednosti kriterijuma.
Promenljive koje treba odrediti obino su uslovljene meusobnim
relacijama i ogranienjima. Matematiki izrazi kojima se predstavljaju ova
ogranienja nazivaju se zajednikim imenom skup ogranienja. Svako
reenje koje zadovoljava postojea ogranienja naziva se dopustivim.
Dopustiva reenja formiraju skup dopustivih reenja ili dopustvi skup D.
Dopustivi skup D je odreen sistemom ogranienja koje su obino tipa
nejednaina
D = { x Rn | gi(x) 0, i = 1,...,m }
(1.1)
gde je i - indeks ogranienja, m - ukupan broj ogranienja, i gi(x) - funkcije
ogranienja.
Opti zadatak optimizacije moe se postaviti na sledei nain. Dat
je skup moguih upravljakih promenljivih D Rn i kriterijumska funkcija
f(x). Treba nai x D za koje funkcija f(x) dostie optimalnu (maksimalnu
ili minimalnu, odnosno ekstremnu) vrednost, tj. treba reiti sledei zadatak
(1.2)
opt f ( x ) .
xD

U daljem tekstu mi emo se implicitno baviti problemima


maksimizacije, odnosno zadacima nalaenja maksimuma funkcije f(x), to ne
umanjuje optost razmatranja jer se problemi minimizacije f(x) mogu
reavati kao zadaci maksimizacije funkcije - f(x).
Postoje i drugi naini pisanja zadatka optimizacije, kao na primer
max { f(x) | x D }.
Kao ilustraciju, navodimo sledeu uobiajenu postavku zadatka
linearnog programiranja (LP):
Nai x koje maksimizira linearnu formu
z = cx
(1.3)
pri ogranienjima (p.o.)

Uvod u optimizaciju

4
Ax b

(1.4)

x0
gde su koeficijenti u matematikom modelu dati matricama:
c = || cj ||1n , A = || aij ||mn , b = || bi ||m 1 .
Koeficijenti u matematikom modelu nazivaju se i parametrima
modela ili parametrima sistema a u optem sluaju mogu da se oznae kao
jedinstveni skup parametara A.
Optimalno reenje x* optimizacionog zadatka je ono za koje vai
f(x*) f(x), x D.
(1.5)
Vrednost kriterijuma f* = f(x*) koja odgovara optimalnom reenju
naziva se optimalna vrednost ili optimum.
Ima autora koji pod optimalnim reenjem ili optimumom
podrazumevaju par (x*,f*), to se moe smatrati pitanjem konvencije.
Data definicija optimuma naziva se i globalnim optimumom, a
postavljeni zadatak zadatkom globalne optimizacije. Osnovni zadatak u
teoriji optimizacije jeste razvoj metoda za reavanje zadataka globalne
optimizacije. Koliko se uspeno moe odgovoriti postavljenom zadatku
zavisi od osobina kriterijumske funkcije, tipa ogranienja i primenjene
metode. Pritom postoji rizik da se primenom nekih metoda optimizacije na
odreene zadatke kao reenje dobije takozvani lokalni optimum. Ovo emo
ilustrovati sledeim primerom.

Primer 1.1: Pretpostavimo da treba nai ono x za koje funkcija


prikazana na slici 1.1. postie maksimum.
y
y3+
y1+
y2+

x1+

x1

x2+

x2

x3+

Slika 1.1. Lokalni i globalni optimum


Na intervalu 0 x x1 maksimum se postie u taki x1+ i iznosi
y1 = f(x1+). Kada se posmatra samo interval x1 x x2 , optimalna
vrednost y2+ = f(x2+) se postie u x2+, dok je za interval 0 x x2
maksimalna vrednost funkcije u taki x1+. Meutim, kada se posmatra ceo
prikazani interval [0, x3+], maksimalna vrednost funkcije je u taki x3+
koja je granica intervala. Kaemo da u takama x1+ i x2+ funkcija ima
lokalne maksimume, dok se globalni maksimum postie u taki x* = x3+.

Prethodni primer ukazuje na potrebu za definicijom lokalnog


optimuma, odnosno optimuma koji vai samo na odreenom ogranienom
intervalu posmatranja.

Mirko Vujoevi

Neka je f : Rn R , x D Rn. Funkcija f(x) ima lokalni


maksimum u taki x+ ako za sve take definisane okoline |x - x+| < vai
f(x+) f(x).
Ovom definicijom zavravamo osnovnu formulaciju opteg
zadatka optimizacije. Govorei iskljuivo sa matematikog aspekta teorije
optimizacije, posmatrani zadatak je apstrakcija i nije bitno da li je izmiljen
ili predstavlja dobar model nekog realnog problema.
1.2. Klasifikacije problema
Za potrebe klasifikacije problema mogu se koristiti razliiti
kriterijumi. Ovde emo navesti samo nekoliko osnovnih klasifikacija.
Zavisno od toga da li postoje ogranienja na promenljive, razlikuju
se problemi:
uslovne optimizacije, odnosno optimizacije u prisustvu
ogranienja,
bezuslovne optimizacije kada promenljive xj nisu meusobno
uslovljene jednainama i/ili nejednainama.
U zavisnosti od toga da li su parametri u optimizacionom problemu
poznati, sluajnog karaktera ili neodreeni, razlikuju se
deterministiki zadaci
zadaci stohastike optimizacije
zadaci optimizacije u uslovima neodreenosti.
Ovde emo se baviti preteno deterministikim zadacima koji
odgovaraju sistemima i problemima u kojima su parametri i procesi
deterministike prirode. Samo u najkraim crtama opisujemo neke od
osobina problema stohastike optimizacije.
U stohastikim sistemima parametri sistema ili posmatrani proces
imaju sluajan karakter opisan metodama iz teorije verovatnoe i statistike.
Postoje dve velike grupe metoda stohastike optimizacije:
implicitne i eksplicitne metode.
Implicitne metode se mogu primenjivati samo za diskretne
stohastike probleme u kojima je broj moguih reenja relativno mali, tj.
takav da se svako reenje moe analizirati. U primeni ovih metoda razlikuju
se sledea tri osnovna koraka:
1. Odrede se sve mogue realizacije sluajnih veliina;
2. Urade se deterministike optimizacije za svaku realizaciju;
3. Analiziraju se rezultati i izabere reenje.
Tipina primena ovih metoda je na probleme odluivanja u uslovima
neizvesnosti i rizika koji su modelirani stablom odluivanja.
Eksplicitne metode stohastikog programiranja se primenjuju za
diskretne i kontinualne stohastike probleme. Pritom se moe desiti da
stohastiku prirodu ima kriterijumska funkcija i/ili funkcije ogranienja.
Optimizacioni zadatak se moe postaviti na razliite naine.
Kada su parametri u kriterijumskoj funkciji stohastike prirode,
uobiajena su sledea dva pristupa.
a) Treba odrediti x tako da se dobije maksimum matematikog
oekivanja kriterijumske funkcije
(1.6)
max E [ f(x)] .
xD

b) Treba odrediti x tako da se dobije maksimum verovatnoe da je


kriterijumska funkcija vea od neke zadate vrednosti

Uvod u optimizaciju

max Pr [ f(x) f0 ]

(1.7)

xD

U sluaju da parametri u funkcijama ogranienja imaju sluajan


karakter nije izvesno da se izborom upravljakih promenljivih moe
obezbediti da ona uvek budu zadovoljena. Zato se formulie novi zadatak
optimizacije u kome se trai da je verovatnoa da e ogranienje biti
zadovoljeno vea od neke zadate vrednosti.

Primer 1.2. Posmatrajmo zadatak linearnog programiranja u kome su


parametri u sistemu ogranienja stohastike prirode. Treba odrediti
x = (x1,,xn) tako da se maksimizira funkcija
z=

cjx j
j =1

p.o.
n

a ij x j
j =1

bi , i = 1,..,m

xj 0 ,
j = 1,..,n.
U ovom sluaju se originalni zadatak transformie u novi
zadatak pri emu se nova ogranienja formuliu na osnovu zahteva da
originalna ogranienja budu zadovoljena sa odreenim zadatim
verovatnoama i, i = 1,,m. To znai da treba odrediti x = (x1,,xn)
tako da se maksimizira funkcija
n

z = cjx j
j =1

p.o.
n

Pr [ a ij x j bi ] i , i = 1,...,m
j =1

gde su i (0,1) zadate vrednosti.


Kada su sluajne veliine samo desne strane nejednaina u sistemu
ogranienja, tj. kada su sluajne prirode samo parametri bi, i = 1,...,m, i to
tako da su opisani normalnim raspodelama sa parametrima i = E [bi] i
i2 = Var [bi], tada se postavljeni zadatak LP zamenjuje sledeim
deterministikim zadatkom. Treba odrediti x = (x1,,xn) tako da se
maksimizira funkcija
z=

cjx j
j =1

p.o.
n

a ij x j i + Kaii

, i = 1,...,m

j =1

xj 0, j = 1,,n,
gde se faktor poverenja Kai odreuje iz uslova
Pr {Kai

bi i
} = i.
i

Kada su aij sluajne veliine, deterministiki ekvivalent ima sloenu


nelinearnu matematiku formu.

Mirko Vujoevi

Neizvesnost u razmatranim problemima moe biti tretirana i


drugim metodama a ne samo onim koji poivaju na teoriji verovatnoe.
Krajem osamdestih i poetkom devedesetih godina XX veka posebno se
izuavaju metode tretiranja neizvesnosti pomou teorije rasplinutih (fazi)
skupova [5].
Sledea podela problema optimizacije je na
kontinualne i
diskretne.
U kontinualnim problemima upravljake promenljive uzimaju
vrednosti iz skupa realnih problema. U diskretnim problemima postoji
dodatno ogranienje da upravljake promenljive mogu da uzmu samo
odreene diskretne vrednosti iz skupa realnih brojeva. Obino se radi o
skupu celih brojeva, o skupu prirodnih brojeva i nule, ili o binarnom skupu
{0,1}.
Znaajnu klasu zadataka optimizacije predstavljaju problemi
optimalnog upravljanja sistemima. To su zadaci odreivanja upravljanja kao
funkcije vremena. Upravljanjem treba posmatrani sistem, uz potovanje
odreenih uslova i ogranienja, u nekom vremenskom intervalu prevesti iz
poetnog u eljeno stanje a da pri tome izabrani kriterijum, tzv. indeks
performanse, dobije ekstremnu vrednost. Reenje zadatka optimalnog
upravljanja nisu brojevi ve funkcije. To je bitna razlika u odnosu na do sada
razmatrane zadatke optimizacije. Nekom upravljanju, tj. nekoj odreenoj
vremenskoj funkciji, pridruuje se broj koji oznaava kvalitet upravljanja.
Drugim reima, indeks performanse je preslikavanje skupa funkcija na skup
taaka. Zadatak optimalnog upravljanja bie ukratko opisan kasnije u
odeljku 1.5.
1.3. Potrebni i dovoljni uslovi za optimalnost
Od svih moguih reenja koja zadovoljavaju ogranienja
razmatranog problema, optimalno reenje je ono koje daje ekstremnu
(maksimalnu, minimalnu) vrednost kriterijumske funkcije. Samo u
najtrivijalnijim problemima je mogue ispitati sva dopustiva reenja i
njihovim prostim poreenjem utvrditi ono koje daje optimalnu vrednost.
Zbog toga je vano razviti postupke kojima se mogu najpre generisati
kandidati za optimalno reenje a onda i proveriti da li je neko od njih
optimalno. Ovi postupci se u klasinoj optimizaciji zasnivaju na utvrivanju
i korienju uslova koje treba da zadovolji i osobina koje poseduje
optimalno reenje.
Optimalno reenje ne mora da bude jedinstveno: vie reenja mogu
da kao rezultat daju optimalnu (maksimalnu, minimalnu) vrednost
kriterijuma. U optem sluaju korisno bi bilo pronai uslove koje neko
reenje mora da zadovolji da bi bilo optimalno dok druga dopustiva reenja
mogu ali ne moraju da zadovolje. Takvi uslovi se nazivaju potrebni uslovi za
optimalnost, odnosno potrebni uslovi optimalnosti.
Potrebni uslovi za optimalnost reenja kada je kriterijumska
funkcija diferencijabilna razmatrani su jo u elementarnoj matematici. Neka
je f(x) neprekidna funkcija iji je i prvi izvod takoe neprekidna funkcija.
(Za takve funkcije se kae da pripadaju klasi C1. Uopte, za neprekidne
funkcije iji je n-ti izvod takoe neprekidna funkcija kae se da pripadaju
klasi Cn.) Ako se pretpostavi da se maksimum (minimum) funkcije f(x) ne
postie za x = , onda se maksimum (minimum) moe pojaviti samo u

Uvod u optimizaciju

df ( x )
jednak nuli, slika 1.2. Prema tome,
dx
df ( x )
= 0 za optimalnu vrednost x.
potreban uslov za optimum je
dx

takama u kojima je nagib

f(x)

prevojna
taka

lokalni
maksimum df
=0
dx

df
= tg
dx

lokalni
minimum

Slika 1.2. Geometrijsko tumaenje uslova za optimalnost


Dovoljan uslov za optimalnost je onaj ije zadovoljenje garantuje
da je posmatrano reenje optimalno; meutim, ako posmatrano reenje ne
zadovoljava dovoljan uslov za optimalnost, to ne znai da ono mora da bude
neoptimalno. Samo ako reenje zadovoljava uslov optimalnosti koji je
istovremeno i potreban i dovoljan moe se tvrditi da je optimalno, i obrnuto,
samo optimalna reenja zadovoljavaju potrebne i dovoljne uslove za
optimalnost.
Kada je u taki x+ zadovoljen potrebni uslov, tj. prvi izvod u toj
taki jednak je nuli, dovoljan uslov se dobija na osnovu injenice da drugi
izvod odreuje znak promene u okolini te take. To znai da je dovoljan
uslov za maksimum da je drugi izvod negativan, tj, promena x+ imala bi za
posledicu smanjenje funkcije; obrnuto, dovoljan uslov za minimum je da je
drugi izvod pozitivan.
Analogna razmatranja vae kada se reava zadatak bezuslovne
optimizacije funkcije f(x) = f(x1, ... , xn) koja je dvostruko diferencijabilna na
skupu D Rn. Tejlorov razvoj funkcije f(x) u taki x = x+ + h, gde je
x+ = (x1+ ... , xn+), i h = (h1, ... , hn) je
f(x++h) = f(x+) +

h j x
j =1

+ h j hk
j =1 k =1

2 f
+ ...
x j x k

(1.8)

odnosno

f(x++h) - f(x+) = hT f(x+) +

1 T +
h G(x )h + o3(h)
2

gde je

f(x) - gradijent funkcije f(x), vektor dimenzije 1n


G(x) - Heseova matrica ili Hesijan, simetrina matrica dimenzije
nn sa elementima

Mirko Vujoevi

Gjk =

2 f
x j x k

Iz definicije sledi da funkcija u ekstremnoj taki ne treba da raste


niti opada. Da bi x+ bilo ekstremna taka, razlika f(x+ + h) - f(x+) treba da je
za malo h priblino jednaka nuli. To znai treba da je
f(x+) = 0
(1.9)
tj.
f
=0 ,
xj

j = 1,...,n.

Prema tome, potreban uslov da je x+ ekstremna taka je f(x+) = 0.


Dovoljan uslov se dobija iz zahteva da u svakom smeru oko x+
funkcija opada ako se trai maksimum, odnosno raste ako se trai minimum.
Poto je f(x+) = 0, znak promene je odreen vrednou

1 T +
h G(x )h, pa je
2

dovoljan uslov za maksimum da je ova vrednost negativna

1 T +
h G(x )h < 0 ,
2

(1.10)

odnosno, da je G(x+) negativno definitna forma. Kada se trai minimum


funkcije, matrica G(x+) treba da je pozitivno definitna.
Oba navedena uslova se odnose na lokalne optimume. Da bi oni
vaili i za globalne optimume, potrebno je da kriterijumska funkcija bude
konkavna (kada se trai maksimum) ili konveksna (za zadatak minimizacije)
jer tada na posmatranom skupu postoji samo jedna ekstremna taka koja
zadovoljava date uslove. Podsetimo da je funkcija f(x) konveksna na
posmatranom intervalu [x1,x2] ako vai
f(x) af(x1) + (1-a) f(x2)
za svako a[0,1] i svako x[x1,x2] .
Navedena razmatranja ine osnovu klasinog pristupa reavanju
optimizacionih problema koji obuhvata sledee osnovne korake:
(1) nai potrebne uslove koje mora da zadovolji optimalno
reenje koristei diferencijalne osobine funkcije u optimalnom
reenju;
(2) reiti jednaine koje ine potreban uslov da bi se dobili
kandidati za optimalno reenje;
(3) testirati proveriti kandidate za optimalno reenje korienjem
testova za potrebne i dovoljne uslove.
Procedure koje se razvijaju na osnovu ovog pristupa nazivaju se
indirektne metode jer se njima optimalno reenje pronalazi indirektno na
osnovu diferencijalnih osobina funkcije cilja ili funkcionala, a ne direktno na
osnovu vrednosti funkcije. U direktnim metodama se neposredno koriste
vrednosti kriterijuma i ogranienja datog problema da bi se sistematskim
rekurzivnim postupcima dolo do optimalnog reenja. Nije uvek mogue niti
je neophodno da se napravi jasna razlika izmeu ovih metoda; u mnogim
optimizacionim procedurama kombinuju se oba pristupa.
1.4. Uslovna optimizacija i Lagranovi mnoitelji
Osnovne ideje za klasian pristup reavanju problema uslovne
optimizacije pokazaemo na sledeem relativno jednostavnom problemu
optimizacije funkcije dve promenljive u prisustvu jednog ogranienja. Ovaj

Uvod u optimizaciju

10

pristup poznat je pod nazivom metoda Lagranovih mnoitelja.


Posmatraemo sledei zadatak:
Nai x = (x1,x2) tako da se postigne optimalna vrednost
kriterijumske funkcije
f(x1,x2)
(1.11)
p.o.
g(x1,x2) = b1
(1.12)
gde je b1 konstanta a funkcije f i g su funkcije klase C2 po x1 i x2 .
Pretpostavlja se da dopustivi skup nije prazan, tj. da postoje reenja koja
zadovoljavaju postavljeno ogranienje. Ogranienja tipa (1.12) ukazuju na
injenicu da su promenljive x1 i x2 meusobno zavisne to je uobiajeni
sluaj u veini realnih problema.
Pre nego to se da postupak Lagranovih mnoitelja za odreivanje
potrebnih uslova za optimalno reenje razmotrimo jednostavan pristup koji
se nekada koristi ako je mogue eksplicitno reiti x1 u zavisnosti od x2 , npr.
x1= (x2). U tom sluaju (x2) zamenjuje x1 u (1.11) tako da se dobije
f((x2),x2) i zadatak svodi na bezuslovnu optimizaciju po x2. Ovaj pristup
ima veoma ogranienu praktinu primenu zbog sledeih nedostataka. Prvo,
nije uvek mogue analitiki odrediti x1 = (x2), i drugo, njegova primena
moe biti znatno tea od primene Lagranovih mnoitelja.
Odredimo najpre prve izvode kriterijumske funkcije i funkcije
ogranienja po promenljivoj x1
df
f
f dx 2
=
+
(1.13)
dx1 x1 x 2 dx1
dg db1
g g dx 2
=
=0=
+
(1.14)
dx1 dx1
x1 x 2 dx1

Da bi funkcija f imala lokalni optimum u datoj taki,

df
mora da
dx1

bude jednako nuli u toj taki


f dx 2
f
+
=0
(1.15)
x1 x 2 dx1
Umesto ovog uslova korisniji bi bio potrebni uslov koji ne zavisi od dx2/dx1 .

Takva jednaina se lako dobija eliminacijom

dx 2
iz gornje tri jednaine.
dx1

Pretpostavljajui da parcijalni izvodi nisu jednaki nuli, dobija se


g
f
x
dx 2
x
= 1 = 1
(1.16)
f
g
dx1
x 2
x 2
Dakle, jednaine (1.12) i (1.16) su dovoljne da bi se odredile nepoznate x1 i
x2 koje odreuju stacionarnu taku. Shodno tome, ovde bi analiza mogla da
se zavri ali je injenica da su rezultati dati u nepreglednom obliku i nisu
pogodni za uoptavanje.
eljena modifikacija se dobija preureenjem (1.16) uvoenjem
nove promenljive na sledei nain

Mirko Vujoevi

f
x
= 1 =
g
x1

11

f
x2
g
x2

(1.17)

tako da se sada dobijaju dve jednaine

f
g
+
=0
x1
x1
f
g
+
=0
x2
x 2

(1.18)

Promenljiva naziva se Lagranov mnoitelj.


Na osnovu izvedene analize, radi uoptavanja i pojednostavljenog
pisanja uvodi se proirena kriterijumska funkcija koja se zove Lagranova
funkcija ili Lagranijan kao funkcija originalnih promenljivih i mnoitelja
L(x1,x2;) = f(x1,x2) + (g(x1,x2) b1) .
(1.19)
Potrebni uslovi za optimalno reenje Lagranove funkcije istovetni su sa
potrebnim uslovima za optimalno reenje originalnog zadataka (1.11)
(1.12), tj.

L f
g
=
+
=0
x1 x1
x1
L
f
g
=
+
=0
x2 x2
x2
L
= g ( x1 , x2 ) b1 = 0

(1.20)
(1.21)
(1.22)

Na ovaj nain je dobijen sistem od tri jednaine sa tri nepoznate


koji nekada moe biti reen i tako se dobijaju vrednosti za x1, x2 i koje
odgovaraju stacionarnoj taki Lagranove funkcije.
U mnogim praktinim problemima postoji realno tumaenje
Lagranovog mnoitelja. Posmatrajmo sluaj kada se trai maksimum
funkcije f(x1,x2) koja predstavlja "dobit" u zavisnosti od "aktivnosti" x1 i x2 a
funkcija g(x1,x2) oznaava pridruene "trokove". Tada Lagranova funkcija
L(x1,x2;) = f(x1,x2) + g(x1,x2), pri emu koeficijent trokova ima
negativnu vrednost, moe da se smatra kao penalizovana "dobit", tj.
penalizovana mera performanse. Za neku konkretnu vrednost keoficijenta
maksimum L[(x1*(), x2*( )] Lagranove funkcije L(x1, x2, ) dobija se
reavanjem jednaina (1.20) i (1.21). Vrednosti x1*() i x2*() za x1 i x2 daju
vrednost originalne kriterijumske funkcije f[(x1*(), x2*( )] i vrednost
funkcije "trokova" g[(x1*(), x2*( )].
Sada bi trebalo odrediti test kojim bi se utvrdila priroda stacionarne
take koja se dobija primenom izloene analize. Taj test se razvija na
analogan nain kao za bezuslovnu optimizaciju ali je znatno sloeniji i tei
za uoptavanje i zbog toga prevazilazi namere ovog rukopisa.
Uoptenje metode Lagranovih mnoitelja na sluaj kada
kriterijumska funkcija ima vie od dve promenljive i kada postoji vie
ogranienja tipa jednako, radi se na sledei nain. Neka je zadatak nai
x = (x1,,xn) tako da se maksimizira kriterijumska funkcija f(x)
f(x)
p.o.
gi(x) = bi , i = 1,, m.

Uvod u optimizaciju

12

pri emu su f(x) i gi(x) , i=1, . . . ,m date funkcije n promenljivih (skalarne


funkcije vektorskog argumenta) za koje se pretpostavlja da su
diferencijabilne.
Najpre se formira Lagranova funkcija
m

L(x, ) = f(x) i (gi(x) bi)

(1.23)

i =1

gde je = (1,, m) vektor Lagranovih mnoitelja i i = 1,, m. Potrebni


uslovi za optimalno reenje Lagranove funkcije su
m
g
L
f
=
i i = 0,
x j x j i =1 x j

j = 1,..., n

L
= g i ( x ) bi = 0, i = 1,..., m
i

(1.24)
(1.25)

Navedene relacije koje treba da ispuni reenje da bi bilo optimalno


nazivaju se Karu-Kun-Takerovi (Karush, Kuhn, Tacker) uslovi.
Sledee uoptenje metode Lagranovih mnoitelja odnosi se na
sluaj kada postoje ogranienja tipa nejednakosti.
Posmatrajmo zadatak uslovne optimizacije u kome treba nai
x = (x1,, xn) tako da se maksimizira kriterijumska funkcija f(x)
f(x)
p.o.
gi(x) bi 0 , i = 1,,m
x 0.
pri emu su f(x) i gi(x), i = 1,,m date funkcije n promenljivih (skalarne
funkcije vektorskog argumenta) za koje se pretpostavlja da su
diferencijabilne.
I u ovom sluaju se na poetku formira Lagranova funkcija

L(x, ) = f(x)

i =1

(gi(x) bi)

gde je = (1, . . . ,m) vektor Lagranovih mnoitelja i, i = 1,,m.


Reenje x* =(x*1, ... ,x*n) moe biti optimalno reenje problema
nelinearnog programiranja samo ako postoji m brojeva 1,, m, takvih da
su zadovljeni sledei uslovi
m
g
f

i i 0

x j i =1 x j

na x = x * za j = 1,..., n
m

g i
* f

2. x j
i
= 0
x j i

x
=
1
j

1.

3. gi(x*) 0, i = 1,...,m
4. i gi(x*) = 0,
i = 1,...,m
5. xj* 0 ,
j = 1,...,n
6. i 0 ,
i = 1,...,m.
Ovo su Karu-Kun-Takerovi (Karush, Kuhn, Tacker) uslovi za
optimalnost reenja zadatka nelinearnog programiranja. Uslovi 3,4, i 5
obezbeuju dopustivost reenja. Ostali uslovi eliminiu vei broj dopustivih
reenja da budu kandidati za optimalno reenje. Kao to je ve reeno,
zadovoljenje Karu-Kun-Takerovih uslova ne garantuje da je reenje
optimalno. Ako su gi(x) konveksne funkcije i f(x) konkavna funkcija, onda
su navedeni KKT uslovi i dovoljni.

Mirko Vujoevi

13

1.5. Problem optimalnog upravljanja

Problem optimalnog upravljanja je odreivanje funkcije


upravljanja kojom se posmatrani sistem prevodi iz poetnog u eljeno stanje
na nain koji se smatra najboljim u odnosu na izabrani kriterijum.
Oznaimo poetni trenutak t0, poetno stanje sistema vektorom
s0 = s(t0) i eljeno stanje vektorom s1 = s(t1). Upravljanje koje treba odrediti
je vektor u = u(t). Neka je dinamika sistema opisana sistemom jednaina
s' = (s,u,A)
(1.26)
gde A oznaava skup parametara sistema.
Upravljanju u(t) koje sistem prevodi iz stanja s0 u stanje s1
pridruuje se vrednost J(s,u) koja zavisi od krajnjeg stanja i putanje po kojoj
je sistem prelazio iz jednog u drugo stanje
t

J(s(t),u(t)) = J1(s1, t1, A) + t 1 (s(t), u(t); A) dt


0

(1.27)

Funkcija J(s,u) naziva se funkcional, a u teoriji upravljanja mera ili indeks


performanse.
Ogranienja na upravljanje i stanje sistema, u optem sluaju mogu
biti

L1(s1, t1, A) +

t1

t0 L

(s(t), u(t); A) dt 0

(1.28)

i/ili

L2(s(t),u(t); A) 0
(1.29)
gde su L1, L2 i L skalarne ili vektorske funkcije.
Zadatak optimalnog upravljanja je odreivanje u(t) koje daje
maksimalnu vrednost funkcionala J(s,u) pri datim ogranienjima. Uoimo da
se funkcionalom, koji je analogan kriterijumskoj funkciji u statikim
zadacima optimizacije, upravljanje u(t), koje je funkcija, preslikava u jednu
taku u kriterijumskom prostoru.
U nekim zadacima se trai istovremeno odreivanje upravljanja
u(t) i parametara sistema A. Ne samo u tim sluajevima, nego uopte,
matematiki modeli realnih dinamikih sistema upravljanja su retko takvi da
se ovako postavljeni zadatak moe reiti analitiki. Zato se preduzimaju
razliite aproksimacije od kojih je najee zamenjivanje kontinualnih
modela diskretnom formom i njegovo reavanje numerikim metodama.
Poto se u ovoj knjizi razmatraju skoro iskljuivo statiki problemi,
samo radi ilustracije ovde se navodi postavka klasinog "problema
brahistohrone". Radi se o problemu krive najkraeg vremena ili krive
najbreg spusta koji je formulisao Johan Bernuli 1696. g. i za koji se vezuje
raanje teorije optimalnog upravljanja [4].

Primer 1.3. Pretpostavimo da materijalna taka mase m pone u


trenutku t = 0 da se kree iz take A(0,0) ka taki B(a,b) pod uticajem
Zemljine tee i bez trenja, slika 1.3. Pitanje je kojoj putanji odgovara
minimalno vreme kretanja materijalne take.

Uvod u optimizaciju

14

a
x

vx
vy

v
B

y
Slika 1.3. Problem brahistohrone
Iz zakona o odranju energije imamo da je posle vremena t u taki
(x,y) promena kinetike jednaka promeni potencijalne energije

1
mv2 = mgy.
2
Dalje

v2 = vx2 + vy2

vx =

dx
dy
, vy =
.
dt
dt

Iz druge jednaine se dobija

dy 2 dx 2
v 2 = 1 +
dx dt
i kada se zameni u prvu dobija se
1

1 1 + y 2 2
dt =

dx
2g y
Integraljenjem se dobija vreme kretanja
1

a
1 + y 2 2
1
T=
dx

2g 0 y

uz uslove y(0) = 0 i y(a) = b. Zadatak je nai y = y(x) za koje je T


minimalno.
Od kontinualnih dinamikih zadataka optimizacije posebno su
izuavani zadaci tipa:
Odrediti funkciju y = y(x) tako da funkcional

J(y) = a f ( x, y , y ' )dx


b

(1.30)

ima ekstremnu vrednost pri emu treba da su ispunjeni uslovi:


y(a) = ya, y(b) = yb, y C2, gde su ya i yb date vrednosti, a C2 oznaava
klasu funkcija sa neprekidnim drugim izvodima. Potreban uslov za

Mirko Vujoevi

15

ekstremum ovog funkcionala je da y(x) zadovoljava Ojlerovu


jednainu
d f f
=0 .

dx y y

(1.31)

Iz ove jednaine se dobija da je za problem brahistohrone reenje


cikloida, kriva koju opisuje taka na krugu koji se kotrlja po ravnoj podlozi
[1].

Literatura
[1] Dajovi, S., Kovaevi-Vuji, V., Matematika II, Kultura, Beograd,
1989.
[2] Opricovi S. Optimizacija sistema, Graevinska knjiga - Nauka,
Beograd, 1992.
[3] Pierre, D. A., Optimization theory with applications, John Wiley&Sons,
New York, 1969.
[4] Sussmann, H. J., Willems J. C., 300 Years of Optimal Control: From
the brachystochrone to the Maximum Principle, IEEE Trans. on
Control Systems, June 1997, pp. 32-44.
[5] Vujoevi, M., Operaciona istraivanja Izabrana poglavlja, Fakultet
organizacionih nauka, Beograd, 1999.
[6] Zlobec S, Petri J., Nelinearno programiranje, Nauna knjiga, Beograd,
1989.

You might also like