You are on page 1of 32

1

Kapittel 1

Demand Management

2
1.1 Oversikt: Demand Management

Demand management - eller på norsk, ”styring av etterspørsel”, handler om å ha kontroll på salg
og etterspørsel.

Hva er forskjellen mellom salg og etterspørsel? Bruk 1 minutt på å tenke igjennom forskjellen før
du går videre.

• Salg er de faktiske ordrene vi har hatt

• Etterspørsel er de ordrene vi tror vi kommer til å ha

Verdensbildet: ( globalt )

Demand Management modulen ser sett på som en strategisk modul, siden den gir vesentlig input
til strategiske moduler som Aggregert Produksjonsplanlegging, Masterproduksjonsplanlegging, og
også Ressursplanlegging(selv om den sammenhengen ikke er vist i figuren under).

Figur 1.1: Demand Management gir input til strategiske planleggingsmoduler og er således en
styringsmodul.

3
Verdensbildet: ( lokalt )

Hvis vi zoomer litt inn på verdensbildet, ser vi at Demand Management også kommuniserer med
to nye moduler, ”Distribution Requirements Planning” (DRP) og ”Kundeordresystemet. Disse to
modulene kommuniserer med eksterne aktører.

Figur 1.2: Demand Management kommuniserer også med moduler som berører eksterne aktører.

Distribution Requirements Planning: ( DRP )

Distribution Requirements Planning (DRP) er modulen som håndterer hvor ferdigvarene distri-
bueres til, dvs til hvilke varehus og distribusjonssentre (dockingsentre) ferdigvarene sendes til.
Modulen inkluderer også selve transporten av varene, dvs hvilke transportmiddel som benyttes og
når lagrene etterfylles.

DRP-modulen er sett på som et av nøkkelpunktene for integrering av verdikjeder, hvor selve
navnet ” Supply Chain Management” kommer ifra. Dette er spesielt tilfelle når både mengde og
timing for etterfyllingene er styrt av oss (leverandøren) og ikke kundene. En slik ordning kalles
”leverandørstyrte lager” (vendor-managed inventories).

Et typisk eksempel på en bransje med stor integrering av verdikjeden er Hustadmarmor AS, som
leverer ”Slurry” til store tanklagre i Nord-Europa. Disse tanklagrene er eid av Omya og ikke Hu-
stadmarmor. Distribusjonen videre fra disse tanklagrene er dermed ikke Hustadmarmors ansvar.
Siden Hustadmarmor AS er en bedrift som tilhører Omya-konsernet, så har de sett muligheten
for leverandørstyrt lager. N leser hustadmarmor direkte av tanknivåene hver dag, og bestemmer
selv når og hvor mye de skal etterfylle lagrene. Den store gevinsten ligger i at denne kunnskapen
drastisk reduserer usikkerheten i etterspørselen sett ifra Hustadmarmors synsvinkel.

4
Kundeordresystem: ( CRM )

Styring av etterspørsel innebærer også direkte kontakt med kundene. I kundeordresystemet mot-
tas kundeordrer og i CRM-systemet (Customer Relation Mangagement) opprettes et forhold til
kunden, hvor all kommunikasjon med kunden loggføres og analyseres.

5
1.2 Demand Management - hovedaktiviteter

Demand Management gjør en av de viktigste jobbene i det totale MPS-systemet. Den håndterer
prognostisering av fremtidig etterspørsel og oppdatering av innkommende ordrer, og er således
den drivende faktoren i hele MPS-systemet.

Jo større feil man gjør i etterspørselsprognosene, desto større konsekvenser får dette på laverer
nivå i produksjonen. Denne effekten kalles gjerne ”Bullwhipeffekten” - oksepiskeeffekten. Når man
svinger pisken, smeller det skikkelig i enden, det samme kan man tenke seg i prognostisering - en
liten sving på etterspørselen smeller skikkelig i enden av produksjonen. Årsaken kommer av at når
informasjonen strømmer bakover i systemet, forringes informasjonen og usikkerheten øker. Man
kan sammenlikne situasjonen med sladder - jo flere ledd som får høre sladderet, desto mer tullete
blir sladderet.

Hovedaktiviteter: ( generelle)

Generelle aktiviteter under Demand Management er:

• innhente markedsinformasjon

– prognoser
– relevant kundeinformasjon
– informasjon om kampanjer eller prisendringer
– markedsunderskelser
– etc

• legge inn nye ordrer

• konfigurere produkter

• legge til spesielle kundespesifikasjoner

• kommunisere med kunder

Hovedaktiviteter: ( kunderordrepunkt )

Vi husker fra kapittel (REF), at implementasjonen av et MPS-system er svært avhengig av kunde-


ordrepunktet (REF) (MTS, MTO, ATO/ETO). Med andre ord, hvilke aktiviteter som gjøres under
Demand Management er avhengig av kunderordrepunktet til bedriften.

6
Make-To-Stock:

I en Make-To-Stock situasjon, oppfylles kundeordrene kun fra lager. Kundeordrepunktet er dermed


ferdigvarelageret.

• Utarbeide prognoser av ferdigvarer, både aggregert og enkeltvis

• Utarbeide planer for lagerniv og estimere sikkerhetslager

• Styre kundeservice nivå

Assmeble-To-Order:

I en Assemble-To-Stock situasjon, oppfylles kundeordrene ved monteringen av et sett med stan-


dardkomponenter spesifisert av kunden. Kunderordrepunktet er dermed komponentlagrene.

• Utarbeide prognoser for standardkomponenter - både aggregert og enkeltvis.

• Bestemme leveringsdato, siden det kreves en sluttmontering før produktet kan leveres

• Kontrollere at leveringsdato oppfylles, og kommunisere til kunden ved eventuelle endringer

Make-To-Order/Engineer-To-Order:

I en Make-To-Order situasjon, oppfylles kundeordrene ved at ingeniører utarbeider en BOM-


struktur etter kundens ønske. Kunden har et sett med råvarer tilgjenglig, som benyttes til å
spesifisere det ønskede produktet.

• Utarbeide prognoser for ordrer - utarbeide produkt spesifikasjoner som sendes til ingeniørene.

• Bestemme leveringsdato og oppdatere status for levering

• Bestemme og jusetere behovet for ingeniørkapasitet etter kundens behov

• Bestemme bruk av leverandører og råmateriale (ETO)

7
1.3 Prognostisering

Definisjon: ( Prognostisering )

Prognostisering er en teknikk for å utnytte tilgjengelig informasjon til å forutsi hva som vil skje i
fremtiden.

Hvorfor trenger vi prognoser?:

Hvis vi har en Make-To-Stock/Assembly-To-Order situasjon, er det vesentlig å ikke sitte med


hverken for mye eller for lite lager. For mye lager gir høye lagerkostnader i tillegg til mulighet
for ukurans (holdbarhetsdato). For lite lager, gir tapt salg eller misfornøyde kunder (siden de må
vente på noe de hadde forventet å fått umiddelbart). Jo bedre prognosene er, desto ner treffsikkert
blir lagernivået.

Hvis vi derimot er i en Make-To-Order/Engineer-To-Order situasjon, opererer man ikke med


ferdiglager. Men i en slik situasjon, er ledetiden en svært viktig faktor. Jo dårligere forberedt
man er, desto lengre blir ledetiden (unødvendig ekstra ledetid). Ved å prognostisere innkommende
ordrer bedre, kan vi forberede oss bedre, både på strategisk og taktisk nivå og dermed senke
ledetiden.

Klassifisering: ( Prognostisering )

Vi skiller gjerne mellom to måter å prognostisere på :

• Kvalitative metoder

• Kvantitative metoder

Kvalitative metoder:

Kvalitative metoder benyttes ofte når det ikke foreligger tilgjengelige data eller dersom prognose-
horisonten er lang i forhold til eksisterende data. I tillegg kan det være spesielle situasjoner som
simpelthen ikke har forekommet i det historiske datasettet.

Eksempel på kvalitative prognosemetoder:

• Markedsundersøkelser

8
• Ekspertpanel

• Delphi metoden - en gruppe eksperter skal gi deres estimat uten påvirkning av de andre i
gruppen

• Klassifisert gjetning

Kvantitative metoder:

Kvantitative metoder benyttes når det foreligger historiske data som kan benyttes for å estimere
fremtidig utvikling.

Vi deler de kvantitative metodene i to grupper:

• Kausale

• Tidsserier

Kausale metoder:

Ved Kausale metoder prøver vi å finne såkalte forklaringsvariabler, som gir en forklaring på hvorfor
størrelsen vi ønsker å prognostisere oppfører seg som den gjør.

Det klassiske eksempelet er sammenhengen mellom pris etterspørsel - hvis prisen øker, så synker
etterspørselen og vice versa. Vi sier da at prisen er en forklaringsvariabel for etterspørselen.

Vi kan ha flere forklaringsvariabler for gitt størrelse. Ta for eksempel etterspørselen i eksempelet
over. I tillegg til prisen, kan vi ta med konkurrentenes pris. Hvis deres priser øker i forhold til vår,
kan vi forvente en økning i etterspørsel, og vice versa.

Metoder:

• Regresjon - et sett med forklaringsvariabler med en hypotese hvordan disse forklaringsvariab-


lene henger sammen. Lineær regresjon er det klassiske eksempelet, hvor vi antar at størrelsen
er gitt som en lineær funksjon av et sett med forklaringsavariabler (dvs en rett linje).

• Distribution-fitting - vi forsøker å bestemme den statistiske fordelingen som datasettet følger


etter. Eksempel på en slik fordeling er Normalfordeling eller Poissonfordeling.

Lineær regresjon er svært aktuelt ved prognostisering, men gås ikke gjennom i dette faget, siden
det dekkes i faget MAT110 Statistikk 1.

9
Tidsserier:

I en tidsserie antar vi at eneste forklaringsvariabel er, ja, tiden. Tidsserier benytter historiske data,
for å prognostisere fremtidig utvikling.

Målsetting:

Vi antar vi har et sett med historiske observasjoner X1 , X2 , . . . , XT , hvor T er antall observasjoner.


Anta videre vi ønsker å finne prognoser for de s neste periodene, dvs vi ønsker å finne:

X̂T +s , 1 ≤ s ≤ S

Metoder:

• Random Walk

• Gjennomsnitt

• Glidende gjennomsnitt

• Vektet glidende gjennomsnitt (ikke gjennomgått i forelesningene)

• Eksponensiell Glatting EG(θ)

• Holt-Winter med Trend: HW T (θ, β)

• Holt-Winter med Sesong: HW S(θ, β)

Dette er bare noen av de enkleste metodene som benyttes. Men ofte er enkelheten en god strategi.
Et viktig prinsipp i prognostisering er å prognostisere akkurat det man har behov for og ikke mer.

Men før vi ser nærmere på disse metodene, må vi alltid først se på de historiske dataene og se om
vi gjennkjenner spesielle mønstre. Forskjellig mønster tilsier ofte forskjellig metodikk.

Mønster:

Vi skiller gjerne mellom følgende mønstre:

• Trend - tidsserien er enten jevnt oppadstigende eller jevnt nedadstigende

• Sesong - tidsserien har gjentakende mønster for gitte tidspunkter i horisonten, for eksempel
iskremsalg gjennom årstidene.

• Syklisk - tidsserien har et gjentakende oppadstigende og nedadstigende mønster, men med


en varierende frekvens (avstand mellom syklusene) i motsetning til sesongmønster.

10
• Irregulært - tidsserien har et tilfeldig mønster, og representerer gjerne mønsteret vi får etter
at vi har fjernet eventuelle trender, sesongavhengigheter og sykluser.

Figur 1.3 illustrerer de 4 typiske mønstrene isolert sett, mens figur 1.4 viser at vi kan også ha
kombinasjoner av de 4 forskjellige typene. Fremgansgmten er da fjerne hver enkelt mønster fra
datasettet, slik at vi sitter igjen med det irregulære mønsteret.

11
Figur 1.3: De fire typiske mønstrene isolert sett.

Figur 1.4: Et mønster som består både av trend og sesong. Legg merke til hvordan vi dekomponerer
det observerte mønsteret i en trend del, en sesong del og en irregulær del (random).

12
Eksempel: ( Oskar Sylte )

Oskar Sylte AS er en produsent av mineralvann, kjent for Ananas og Pære brusen sin. Men Oskar
Sylte selger dog mest av Pepsi Max, som de også produserer.

Vi skal til slutt lage en prognose for Pepsi Max 0.5l, for de neste 4 ukene, dvs uke 6, 7, 8 og 9.

Men først skal vi bestemme hvilket mønster dataene følger:

Vi har følgende historiske data:

UKE 1 2 3 4 5
SALG 20 24 22 30 22

Tegn opp grafen:

Det første vi gjør når vi skal lage en prognose er å tegne opp grafen, hvor tidsperiodene går langs
den horisontale aksen og salget langs den vertikale aksen, som vist i figur 1.5.

30
salg Xt

25

20

1 2 3 4 5
uke t

Figur 1.5: Historisk utvikling av salg av Pepsi Max 0.5l ved

Grafen viser ingen spesiell trend eller sesong, så vi klassifiserer mønsteret som irregulært, som
betyr at observasjonene flukturer rundt et tenkt nivå˙

Det neste vi skal gjøre er å benytte noen enkle prognosemetoder for å bestemme prognosen. Vi
starter med den enkleste som er Random Walk

13
Random Walk: ( Prognosemetode )

Anta vi har et sett med tidsobservasjoner X1 , X2 , . . . , XT . Random Walk lar siste observasjon
være prognosene X̂ for de påfølgende periodene, dvs:

X̂T +s = XT , 1 ≤ s ≤ S (1.1)

hvor S er lengden på horisonten vi prognostiserer over.




Kommentarer:

• Metoden kalles ”Random Walk”, eller ”tilfeldig gang”, fordi den ”går i fotsporene” etter
observasjonene, som er tilfeldige.

• Metoden benytter ingen historiske data, og er derfor ikke i stand til å feilkorrigere seg selv

• vi trenger ikke spare på historiske data etterhvert som vi oppdaterer prognosen

Eksempel: ( Oskar Sylte )

I eksemplet har vi at:

• Antall observasjoner er 5, så vi har altså at T = 5.

• Vi skal bestemme prognose over et kvartal, så S = 4.

• Siden siste observasjon er X5 = 22, så får vi at:

X̂6 = X5 = 22
X̂7 = X5 = 22
X̂8 = X5 = 22
X̂9 = X5 = 22

Figur 1.11 illustrerer at nivået settes lik siste observasjon.

14
30

salg Xt
25

20

0 2 4 6 8 10
uke t

Figur 1.6: Random Walk går i fortsporene til observasjonene.

Glidenende gjennomsnitt: ( Prognosemetode )

Anta vi har et sett med tidsobservasjoner X1 , X2 , . . . , XT . Glidenende gjennomsnitt er en familie


av prognosemetoder som regner ut gjennomsnittet for et gitt tidsintervall, på si n perioder. For
hver gang vi tar med en ny observasjon, fjerner vi den eldste observajonen. Vi kaller gjerne n,
vinduet for metoden.

n
1X
X̂n = Xj (1.2)
n j=1

Xt − Xt−n
X̂t = X̂t−1 + , hvor n + 1 ≤ t ≤ N (1.3)
n

hvor S er lengden på horisonten vi prognostiserer over.




Kommentarer:

• Metoden kalles ”Glidende gjennomsnitt”, fordi det ser ut som gjennomsnittet ”glir” gjennom
observasjonene.

• Metoden representerer en familie av prognoser, siden man kan selv velge størrelsen på vinduet
n.

• Metoden bruker n observasjoner i det initielle steget.

• Metoden brukes ofte som initielt steg i mer kompliserte metoder, spesielt i situasjoner med
sesongvariasjoner.

15
Eksempel: ( Oskar Sylte )

Vi skal regne ut en prognose i eksempelet basert på glidende gjennomsnitt med et vindu på 3
perioder. Metoden betegnes gjerne ved M A(3) - Moving Average med vindu 3.

4
1X 1
X̂3 = Xj = (20 + 24 + 22) = 22
3 j=1 3

4
2X 1
X̂4 = Xj = (24 + 22 + 30) = 25.33
4 j=1 3

4
3X 1
X̂5 = Xj = (22 + 30 + 22) = 24.67
5 j=1 3

• Legg merke til at siden vi bruker tre observasjoner i det initielle steget, får vi bare prognoser
for de tre siste observasjonene.

• Siden siste prognose er X̂5 = 24.67, så får vi at:

X̂6 = X̂5 = 24.67


X̂7 = X̂5 = 24.67
X̂8 = X̂5 = 24.67
X̂9 = X̂5 = 24.67

Figur 1.11 illustrerer at nivået settes lik siste observasjon.

16
30

salg Xt
25

20

0 2 4 6 8 10
uke t

Figur 1.7: Glidende gjennomsnitt ”glir” gjennom observasjonene med vindu 3 i dette tilfellet.

Eksponensiell Glatting: ( Prognosemetode )

Vi så i forrige avsnitt at glidende gjennomsnitt oppdaterer seg etterhvert som vi får flere og flere
observasjoner. Det er to ulemper med denne metoden:

• Metoden ”glemmer” historiske data, siden den kun bruker n observasjoner for å beregne
neste prognose.
• Metoden ”glatter” ut alle variasjonene i observasjonene.

Eksponensiell glatting er en familie av prognosemetoder, som forbedrer glidende gjennomsnitt på


disse to punktene.

Anta vi har et sett med tidsobservasjoner X1 , X2 , . . . , XN . Glidenende gjennomsnitt er en familie


av prognosemetoder som regner ut neste prognose som et vektet gjennomsnitt mellom forrige
prognose og ny observasjon. For det vektede gjennomsnittet, brukes metodeparameteren θ, hvor
0 ≤ θ ≤ 1, som kalles ”glattingsparameteren”.

X̂1 = X1

X̂t = θX̂t−1 + (1 − θ)Xt , hvor 2 ≤ t ≤ N

Kommentarer:

• Metoden kalles ”Eksponensiell”, fordi den vektlegger nye observasjoner eksponensielt mer
en gamle metoder.

17
• Metoden kalles ”Glatting”, fordi den glatter ut variasjonen mellom forrige prognose og neste
observasjon med en faktor θ. derfor kalles denne parameteren ”glattingsparameteren.

• Lav θ, dvs verdi mellom 0 og 0.4, gir lav glatting, dvs metoden hopper etter siste observasjon
fremfor å følge historiske prognoser. Den vektlegger med andre ord siste observasjoner mest.

• Høy θ, dvs verdi mellom 1 og 0.6, gir høy glatting, dvs metoden glatter uta variasjonen
mellom siste observasjon og historisk prognose. Den vektlegger med andre ord historikken
mest.

• En stor fordel med metoden, er at man ikke trenger å lagre historiske data. Metoden samler
all historikk i forrige prognose, som er det vi trenger for å beregne neste prognose.

• Fastsettelsen av glattingsparameteren θ er et valg som vi tar. Hvilken verdi vi velger bør re-
flektere den reelle situasjonen, dvs hvorvidt vi ønsker at prognosen skal jevne ut variasjonene
eller ikke.

Eksempel: ( Oskar Sylte )

Vi skal regne ut en prognose i eksempelet basert på eksponensiell glatting med glattingsparameter
θ = 0.2. Metoden betegnes gjerne ved EG(0.2) - Eksponensiell Glatting med glattingsparameter
0.2.

X̂1 = X1 = 20

X̂2 = θX̂1 + (1 − θ)X2 = 0.2 · 20 + 0.8 · 24 = 23.2

X̂3 = θX̂2 + (1 − θ)X3 = 0.2 · 23.2 + 0.8 · 22 = 22.24

X̂4 = θX̂3 + (1 − θ)X4 = 0.2 · 22.24.6 + 0.8 · 30 = 28.45

X̂5 = θX̂4 + (1 − θ)X5 = 0.2 · 28.45 + 0.8 · 22 = 23.29

• Legg merke til hvordan prognosen ”hopper” i uke 4, fra 22.24 til 28.45. Dette kommer nettopp
av at glattingsparameteren er lav, dvs 0.2.

• Siden siste prognose er X̂5 = 23.29, så får vi at:

18
X̂6 = X̂5 = 23.29
X̂7 = X̂5 = 23.29
X̂8 = X̂5 = 23.29
X̂9 = X̂5 = 23.29

Figur 1.11 illustrerer at nivået settes lik siste observasjon.

30
salg Xt

25

20

0 2 4 6 8 10
uke t

Figur 1.8: Eksponensiell glatting med glattingsparameter 0.2, følger etter variasjonene i større
grad enn f.eks. glidende gjennomsnitt

19
Måltall ( Hvor god er en prognose? )

Vi har nå sett på tre forskjellige metoder for å prognostisere et sett med observasjoner

Vi tvinges raskt frem til noen spørsmål som må besvares:

• Hvilken metode skal vi bruke?

• Hvor ”god” er metoden?

For å kunne svare på disse spørsmålene må vi lage et måltall for metodene som vi kan benytte. Vi
skal se på tre tradisjonelle måltall:

1. MFE - Mean Forecasting Error

2. MAD - Mean Absolute Deviation

3. MSE - Mean Squared Error

Felles for alle de tre metodene er at de baserer seg på feilen vi gjør i en periode. Feilen er med
andre ord differansen mellom observasjonen og prongosen vi har for en gitt periode.

Når vi beregner måltall, er det også nødvendig å ha et større datasett med tilhørende prognoser
som beregningsgrunnlag. Hvis ikke, kan enkeltobservasjoner få for mye å si, og måltallene lyver.

Prognosefeil:

Anta vi har et sett med observasjoner X1 , X2 , . . . , XT og et sett med prognoser X̂s , Xˆs+1 , . . . , XˆN ,
hvor vi har fjernet de initielle periodene 1, 2, . . . , s. prognosefeilen vi gjør i en periode t, t =
s, s + 1, . . . , N , er da definert som:

Et = Xt − X̂t−1 (1.4)

Legg merke til at prognosen for periode t er gitt ved prognosen vi beregnet fra observasjonen i
forrige periode t − 1. Det er derfor vi må bruke X̂t−1 .

Med denne definisjonen på plass, kan vi definere måltallene vi har nevnt over.

20
MFE ( Mean Forecasting Error )

MFE, eller Mean Forecasting Error, summerer ganske enkelt opp alle prognosefeilene vi har og
deler på antall pognoser vi har:

N
1 X
MF E = Et (1.5)
N − s + 1 t=s

hvor s første periode vi har prognose for.

Legg merke til følgende:

• Feilen Et kan både være negativ (overestimering) eller positiv (underestimering). Så når vi
summerer feilene som i MFE, vil feilene oppheve hverandre. Det betyr at hvis vi har like mye
overestimering som underestimerin så blir MFE null.

• MFE måler med andre ikke hvor stor feil vi gjør når vi bruker en metode. Den måler i
prinsippet hvor jevnt feilen varierer rundt middelverdien.

• Overestimering: M F E < 0, dvs vi lager en prognose som stadig overestimerer observasjone-


ne. I en slik situasjon, kan vi si at vi har en oppadstigende trend.

• Underestimering: M F E > 0, dvs vi lager en prognose som stadig underestimerer observa-


sjonene. I en slik situasjon, kan vi si at vi har en nedadstigende trend.

• Hvis M F E = 0, så viser observasjonene hverken oppadstigende eller nedadstigende trend.


Dette svarer ofte til den tilfeldige situasjonen som vi allerede har funnet tre metoder for å
prognostisere: Random Walk, Glidende Gjennomsnitt og Eksponensiell Glatting. Legg merke
til at datasettet kan ha sesongvariasjoner med M F E = 0, så vi kan ikke automatisk benytte
disse metodene.

• Konklusjonen er at MFE måler hvorvidt datasettet viser oppadstigende eller nedadstigende


trend, og er således viktig i beslutningsfasen for hvilken metode vi skal bruke.

Eksempel: (Oskar Sylte)

Vi regner ut MFE for eksemeplet med Oskar Sylte for metoden med eksponensiell glatting med
glattingsparameter 0.2, siden vi der har flest prognosetall. Første prognose har vi for periode 2,
så s = 2, og vi har totalt 4 prognoser tilgjengelig:

21
5
1X
MFEEG(0.2) = Et
4 t=2

1
= (E2 + E3 + E4 + E5 )
4

1
= ((24 − 20) + (22 − 23.2) + (30 − 22.24) + (22 − 28.45)
4

= 0.5275

Siden M F E = 1.028, så viser datasettet en oppadstigende trend. Dette kommer av at vi har den
litt høye observasjonen i uke 4 på 30, som hever MFE noe. Datasettet er dog for lite til at vi kan
trekke noen konklusjon angående trend, det er vanlig at vi bruker metoden over lengre tid, slik at
vi har et stort antall prognoser man kan benyttes for å beregne MFE. Da blir måletallet mye bedre.

MAD ( Mean Absolute Deviation )

MAD, eller Mean Absolute Deviation, på norsk, ”Gjennomsnittlig Absolutt Avvik”, måler faktisk
hvor stor feilen er, og brukes som grunnlag for valg av prognoser dersom størrelsen på feilen er
vesentlig:

N
1 X
M AD = |Et | (1.6)
N − s + 1 t=s

hvor s første periode vi har prognose for.

Legg merke til følgende:

• Eneste forskjellen fra MFE, er at vi nå tar absoluttverdien av feilene før vi summerer dem.
Så det er uvesentlig om feilen er forsårsaket av overestimeringe eller underestimering.

• MAD benyttes ofte til estimering av sikkerhetslager basert på prognoser.

• MAD sier hvor mye vi bommer i gjennomsnitt

Eksempel: (Oskar Sylte)

22
Vi regner ut MAD for eksemeplet med Oskar Sylte for metoden med eksponensiell glatting med
glattingsparameter 0.2, siden vi der har flest prognosetall. Første prognose har vi for periode 2,
så s = 2, og vi har totalt 4 prognoser tilgjengelig:

5
1X
MADEG(0.2) = |Et |
4 t=2

1
= (|E2 | + |E3 | + |E4 | + |E5 |)
4

1
= (|24 − 20| + |22 − 23.2| + |30 − 22.24| + |22 − 28.45|)
4

= 4.352

Siden M AD = 4.852, så viser metoden her et avvik på 4.852 enheter per uke. Oskar Sylte kan
dermed benytte dette tallet til å fastsette enten sikkerhetslager eller hvor mye de evenutelt må
øke produksjonskapasiteten med.

MSE ( Mean Squared Error )

MSE, eller Mean Squared Error, eller på norsk, ”Gjennomsnittlig kvadratisk feil”, måler også
hvor stor feilen er, som ved MAD. Denne gangen opphøyer vi feilen i andre, istedet for å ta
absoluttverdien:

N
1 X
M SE = Et2 (1.7)
N − s + 1 t=s

hvor s første periode vi har prognose for.

Legg merke til følgende:

• MSE brukes ofte til å bestemme optimale parametre, for en gitt prognosefamilie, f.eks.
glattingsparameteren ved eksponensiell glatting.

• Forskjellen mellom MSE og MAD, er at MSE gir et avstandsbegrep, dvs hva er avstanden
mellom datasettet og prognosene. MAD er ikke et avstandsbegrep. MSE blir dermed riktig
mål å bruke, dersom vi ønsker å sammenlikne forskjellige metoder. Den medminst MSE, er
den beste.

23
p
• Analogi: avstanden mellom to punkter (x1 , y1 ) og (x2 , y2 ) i planet, er gitt ved (x2 − x1 )2 + (y2 − y1 )2 .
Legg merke til at koordinatene er opphøyd i andre. Tanken er akkurat lik for definisjonen
av MSE.

Eksempel: (Oskar Sylte)

Vi regner ut MSE for eksemeplet med Oskar Sylte for metoden med eksponensiell glatting med
glattingsparameter 0.2, siden vi der har flest prognosetall. Første prognose har vi for periode 2,
så s = 2, og vi har totalt 4 prognoser tilgjengelig:

5
1X 2
MSEEG(0.2) = E
4 t=2 t

1
= (E22 + E32 + E42 + E52 )
4

1
= ((24 − 20)2 + (22 − 23.2)2 + (30 − 22.24)2 + (22 − 28.45)2 )
4

= 4.88

Siden
√ M SE = 4.88, så viser metoden her en avstand mellom datasettet og prognosene på
4.88 = 2.21 enheter per uke. Dette tallet kan nå benyttes for å sammenlikne denne meto-
den med eventuelle andre metoder vi ønsker å vurdere, f.eks. eksponensiell glatting med en annen
verdi enn 0.2 på glattingsparemeteren.

24
Trend ( Holz-Winthers metode med trend )

Vi har hittil antatt i eksemplene at datasettet har vært irregulært, dvs uten verken trend, sesong-
savhengighet eller syklisk avhengighet. Da antok vi at virkeligheten har en konstant utvikling,
men med tilfeldig variasjon. I dette avsnittet ser vi på hvordan vi likevel kan bruke fordelene ved
eksponensiell glatting i tilfeller hvor vi enten har oppadstigende eller nedadstigende trend. Meto-
den kalles Holz-Winthers metode med trend.

Konseptuell ide:

For å kunne utnytte fordelene ved eksponensiell glatting, må vi først fjerne trenddelen. Hvis vi
fjerner trenddelen, står vi igjen med et irregulært datasett, som vi nettopp kan benytte eksponen-
siell glatting på .

Spørsmålet er da, hvordan fjerner vi trenddelen?

Vi ser at for hver periode, øker det konstante nivået X med en trendfaktor T, så sammenhengen
er dermed gitt ved:

X − T · t = konstant nivå

hvor X er selve trendlinja, T er er trendfaktoren (stigningstallet) og t er tida. Figur ?? viser denne


sammenhengen.

Figur 1.9: Sammenhengen mellom irregulært nivå og trendfaktor.

Målet er dermed å lage prognoser for X og T for hver periode, slik at vi dermed også kan beregne

25
Y ved hjelp av sammenhengen over.

Nå kommer den vesentlige ideen:

Hvis vi tenker at vi står ved tiden t og skal prognostisere hvilken verdi vi får ved neste observasjon
t + 1, tar vi den forrige prognosen X̂t−1 + T̂t−1 og vekter mot den nye observasjonen Xt . Legg
merke til at vi legger til trendfaktoren i prognosen, slik at nivået blir riktig.

Vi bruker eksponensiell glatting for å estimere både nivået X og trendleddet T , så vi må med
andre ord velge to glattingsparametre henholdsvis. Anta θ er glattingsparameteren for nivået,
mens β er glattingsparameteren for trendfaktoren. Begge er en verdi mellom 0 og 1, som vi selv
har fastlagt.

X̂2 = X2
T̂2 = X2 − X1

X̂t = θ(X̂t−1 + Tt−1 ) + (1 − θ)Xt


T̂t = β T̂t + (1 − β)(X̂t − X̂t )

Legg merke til:

• Det initielle trendnivået er lik differansen (stigningstallet) mellom X2 og X1 . vi trenger altså


to observasjoner for å komme i gang med denne metoden.

• Den nye observasjonen for stigningstallet T er gitt ved differansen mellom de forrige pro-
gnosene.

Eksempel: ( Oskar Sylte )

Anta Oskar Sylte skal lage en prognose for det nye produktet, Jolly Cola, som ble lansert i fjor.
De har følgende kvartalsvise observasjoner:

KVARTAL 1 2 3 4
SALG 5 12 15 22

Grafen viser en klart stigende trend, så vi har bestemt oss for å bruke Holz-Winthers metode med
glattingsparametre θ = 0.2 og β = 0.2:
Vi benytter formelen for å beregne prognosene:

26
25

20

jolly cola Xt
15

10

1 2 3 4
kvartal t

Figur 1.10: Datasettet viser en klar oppadstigende trend

X̂2 = X2 = 12
T̂2 = X2 − X1 = 12 − 5 = 7

X̂3 = θ(X̂t−1 + Tt−1 ) + (1 − θ)X3 = 0.2 · (12 + 7) + 0.8 · 15 = 15.8


T̂3 = β T̂2 + (1 − β)(X̂3 − X̂2 ) = 0.2 · 7 + 0.8 · (8 − 7) = 4.44

X̂4 = θ(X̂3 + T3 ) + (1 − θ)X4 = 0.2 · (15.8 + 4.44) + 0.8 · 22 = 21.65


T̂4 = β T̂3 + (1 − β)(X̂4 − X̂3 ) = 0.2 · 4.44 + 0.8 · (21.65 − 15.8) = 5.56

Siden vi ikke har flere observasjoner, må vi nå prognostisere de neste verdiene. Vi bruker da som
alltid siste estimat som grunnlag for prognosene (X̂5 og T̂5 )

27
X̂5 = X̂4 + T̂4 = 21.2 + 5.56 = 27.21

X̂6 = X̂5 + T̂5 = 27.21 + 5.56 = 32.78

X̂7 = X̂6 + T̂6 = 32.78 + 5.56 = 38.35

X̂8 = X̂7 + T̂7 = 38.35 + 5.56 = 43.91

50

40
antall jolly cola Xt

30

20

10

0
0 2 4 6 8
kvartal t

Figur 1.11: Eksponensiell glatting med trend

Som vi ser følger metoden ganske tett opp mot observasjonene.

28
Sesongavhengighet: ( Holz-Winthers metode med sesongavhengighet )

I dette avsnittet ser vi på hvordan vi kan bruke fordelene ved eksponensiell glatting i tilfeller hvor
vi har sesongavhengighet i datasettet. Metoden kalles Holz-Winthers metode med sesong, og følger
de samme prinsippene som for Holz-Winthers metode med trend:

Konseptuell ide:

• Vi ”fjerner” sesongavhengigheten, slik at vi sitter igjen med et irregulært mønster som vi


kan benytte eksponensiell glatting på .

• For trend var trendfaktoren et additivt ledd, dvs vi adderte leddet til prognosen. I tilfellet med
sesongavhengighet, er det hensiktmessig å benytte multiplikative sesongfaktorere for hver
sesong. Det betyr at, for hver sesong, multipliserer vi observasjonen med en sesongfaktor,
som fjerner sesongdelen fra observasjonen.

• Til det initielle steget trenger vi dermed like mange observasjoner som vi har sesonger. Så
hvis vi for eksempel har en tradisjonell vår, sommer, høst og vinter sesongavhengighet, så
har vi fire sesonger, og trenger dermed fire observasjoner for det initielle steget.

Vi har dermed den konseptuelle sammenhengen:

Xs = Ys · F s

hvor Xs representerer en observasjon isesong s med sesongavhengighet, Y en observasjon i sesong


s uten sesongavhengighet og F representerer sesongfaktoren for sesong s.

Vi kan bruke denne sammenhengen for å sette opp Holz-Winthers metode med sesongavhengighet.
Vi skal med andre prognosere størrelsene:

Xs
Ys = observasjon i sesong s uten sesongavhengighet
Fs

Xs
Fs = multiplikativ sesongfaktor for sesong s
Ys
Ideen er å prognostisere verdiene for Ys ved hjelp av eksponensiell glatting med glattingsparame-
ter θ, siden denne størrelsen er antatt irregulær, og prognostiere sesongfaktorene Fs ved hjelp av
eksponensiell glatting med glattingsparameter β, siden disse også er antatt irregulære.

Eksempel: ( Oskar Sylte )

29
KVARTAL 2013-1 2013-2 2013-3 2013-4 2014-1 2014-2 2014-3 2014-4
SALG 60 120 180 150 50 130 200 140

Vi skal lage en salgsprognose for Pepsi Max. Prognosen skal omfatte de 4 kvartalene i 2015. Vi
har følgende historiske data (i antall 10000):
Grafen viser sesongavhengighet, så vi har bestemt oss for å bruke Holz-Winthers metode med
glattingsparametre θ = 0.2 og β = 0.2:
Initielt steg:

Det initielle steget er mer krevende siden vi trenger en prognose for sesongfaktorene for hver
sesong. vi trenger dermed også prognoser for alle de initielle verdiene for det irregulære nivået:

1 1
Ŷ4 = (X1 + X2 + X3 + X4 ) = (60 + 120 + 180 + 150) = 127.5
4 4

X1 60
F̂1 = = = 0.471
Ŷ4 127.5
X2 120
F̂2 = = = 0.941
Ŷ4 127.5
X3 180
F̂3 = = = 1.412
Ŷ4 127.5
X4 150
F̂4 = = = 1.176
Ŷ4 127.5

Legg merke til at:

• Vi bruker ganske enkelt gjennomsnittet for de fire første kvartalene som prognose for initielt
nivå Y i kvartal 5

• sesongfaktorene fås ved å bruke sammenhengen mellom observerte verdier med og uten
sesongavhengighet

Skrittvis oppdatering:

30
X5 50
Ŷ5 = θŶ4 + (1 − θ) = 0.2 · 127.5 + 0.8 · = 110.5
F̂1 0.471
X5 50
F̂5 = β F̂1 + (1 − β) = 0.2 · 0.471 + 0.8 · = 0.456
X̂5 110.5

X6 130
Ŷ6 = θŶ5 + (1 − θ) = 0.2 · 110.5 + 0.8 · = 132.6
F̂2 0.941
X6 130
F̂6 = β F̂2 + (1 − β) = 0.2 · 0.941 + 0.8 · = 0.973
X̂6 132.6

X7 200
Ŷ7 = θŶ6 + (1 − θ) = 0.2 · 132.6 + 0.8 · = 139.85
F̂3 1.411
X7 200
F̂7 = β F̂3 + (1 − β) = 0.2 · 1.411 + 0.8 · = 1.426
X̂7 139.85

X8 140
Ŷ8 = θŶ7 + (1 − θ) = 0.2 · 139.85 + 0.8 · = 123.17
F̂4 1.176
X8 140
F̂8 = β F̂4 + (1 − β) = 0.2 · 1.176 + 0.8 · = 1.145
X̂8 123.17
Siden vi ikke har flere observasjoner, må vi nå prognostisere de neste verdiene. Vi bruker da som
alltid siste estimater som grunnlag for prognosene (X̂8 og F̂5 , F̂6 , F̂7 og F̂8 ). Igjen må bruke sam-
menhengen mellom X og Y

X̂9 = Ŷ8 · F̂5 = 123.17 · 0.456 = 56.2

X̂10 = Ŷ8 · F̂6 = 123.17 · 0.973 = 119.8

X̂11 = Ŷ8 · F̂7 = 123.17 · 1.426 = 175.7

X̂12 = Ŷ8 · F̂8 = 123.17 · 1.145 = 141.0

31
200

150
Salg Xt

100

50

0 2 4 6 8 10 12 14
kvartal t

Figur 1.12: Salgsprognose for Pepsi Max 2015

32

You might also like