Professional Documents
Culture Documents
Kapittel 1
Demand Management
2
1.1 Oversikt: Demand Management
Demand management - eller på norsk, ”styring av etterspørsel”, handler om å ha kontroll på salg
og etterspørsel.
Hva er forskjellen mellom salg og etterspørsel? Bruk 1 minutt på å tenke igjennom forskjellen før
du går videre.
Verdensbildet: ( globalt )
Demand Management modulen ser sett på som en strategisk modul, siden den gir vesentlig input
til strategiske moduler som Aggregert Produksjonsplanlegging, Masterproduksjonsplanlegging, og
også Ressursplanlegging(selv om den sammenhengen ikke er vist i figuren under).
Figur 1.1: Demand Management gir input til strategiske planleggingsmoduler og er således en
styringsmodul.
3
Verdensbildet: ( lokalt )
Hvis vi zoomer litt inn på verdensbildet, ser vi at Demand Management også kommuniserer med
to nye moduler, ”Distribution Requirements Planning” (DRP) og ”Kundeordresystemet. Disse to
modulene kommuniserer med eksterne aktører.
Figur 1.2: Demand Management kommuniserer også med moduler som berører eksterne aktører.
Distribution Requirements Planning (DRP) er modulen som håndterer hvor ferdigvarene distri-
bueres til, dvs til hvilke varehus og distribusjonssentre (dockingsentre) ferdigvarene sendes til.
Modulen inkluderer også selve transporten av varene, dvs hvilke transportmiddel som benyttes og
når lagrene etterfylles.
DRP-modulen er sett på som et av nøkkelpunktene for integrering av verdikjeder, hvor selve
navnet ” Supply Chain Management” kommer ifra. Dette er spesielt tilfelle når både mengde og
timing for etterfyllingene er styrt av oss (leverandøren) og ikke kundene. En slik ordning kalles
”leverandørstyrte lager” (vendor-managed inventories).
Et typisk eksempel på en bransje med stor integrering av verdikjeden er Hustadmarmor AS, som
leverer ”Slurry” til store tanklagre i Nord-Europa. Disse tanklagrene er eid av Omya og ikke Hu-
stadmarmor. Distribusjonen videre fra disse tanklagrene er dermed ikke Hustadmarmors ansvar.
Siden Hustadmarmor AS er en bedrift som tilhører Omya-konsernet, så har de sett muligheten
for leverandørstyrt lager. N leser hustadmarmor direkte av tanknivåene hver dag, og bestemmer
selv når og hvor mye de skal etterfylle lagrene. Den store gevinsten ligger i at denne kunnskapen
drastisk reduserer usikkerheten i etterspørselen sett ifra Hustadmarmors synsvinkel.
4
Kundeordresystem: ( CRM )
Styring av etterspørsel innebærer også direkte kontakt med kundene. I kundeordresystemet mot-
tas kundeordrer og i CRM-systemet (Customer Relation Mangagement) opprettes et forhold til
kunden, hvor all kommunikasjon med kunden loggføres og analyseres.
5
1.2 Demand Management - hovedaktiviteter
Demand Management gjør en av de viktigste jobbene i det totale MPS-systemet. Den håndterer
prognostisering av fremtidig etterspørsel og oppdatering av innkommende ordrer, og er således
den drivende faktoren i hele MPS-systemet.
Jo større feil man gjør i etterspørselsprognosene, desto større konsekvenser får dette på laverer
nivå i produksjonen. Denne effekten kalles gjerne ”Bullwhipeffekten” - oksepiskeeffekten. Når man
svinger pisken, smeller det skikkelig i enden, det samme kan man tenke seg i prognostisering - en
liten sving på etterspørselen smeller skikkelig i enden av produksjonen. Årsaken kommer av at når
informasjonen strømmer bakover i systemet, forringes informasjonen og usikkerheten øker. Man
kan sammenlikne situasjonen med sladder - jo flere ledd som får høre sladderet, desto mer tullete
blir sladderet.
Hovedaktiviteter: ( generelle)
• innhente markedsinformasjon
– prognoser
– relevant kundeinformasjon
– informasjon om kampanjer eller prisendringer
– markedsunderskelser
– etc
• konfigurere produkter
Hovedaktiviteter: ( kunderordrepunkt )
6
Make-To-Stock:
Assmeble-To-Order:
• Bestemme leveringsdato, siden det kreves en sluttmontering før produktet kan leveres
Make-To-Order/Engineer-To-Order:
• Utarbeide prognoser for ordrer - utarbeide produkt spesifikasjoner som sendes til ingeniørene.
7
1.3 Prognostisering
Definisjon: ( Prognostisering )
Prognostisering er en teknikk for å utnytte tilgjengelig informasjon til å forutsi hva som vil skje i
fremtiden.
Klassifisering: ( Prognostisering )
• Kvalitative metoder
• Kvantitative metoder
Kvalitative metoder:
Kvalitative metoder benyttes ofte når det ikke foreligger tilgjengelige data eller dersom prognose-
horisonten er lang i forhold til eksisterende data. I tillegg kan det være spesielle situasjoner som
simpelthen ikke har forekommet i det historiske datasettet.
• Markedsundersøkelser
8
• Ekspertpanel
• Delphi metoden - en gruppe eksperter skal gi deres estimat uten påvirkning av de andre i
gruppen
• Klassifisert gjetning
Kvantitative metoder:
Kvantitative metoder benyttes når det foreligger historiske data som kan benyttes for å estimere
fremtidig utvikling.
• Kausale
• Tidsserier
Kausale metoder:
Ved Kausale metoder prøver vi å finne såkalte forklaringsvariabler, som gir en forklaring på hvorfor
størrelsen vi ønsker å prognostisere oppfører seg som den gjør.
Det klassiske eksempelet er sammenhengen mellom pris etterspørsel - hvis prisen øker, så synker
etterspørselen og vice versa. Vi sier da at prisen er en forklaringsvariabel for etterspørselen.
Vi kan ha flere forklaringsvariabler for gitt størrelse. Ta for eksempel etterspørselen i eksempelet
over. I tillegg til prisen, kan vi ta med konkurrentenes pris. Hvis deres priser øker i forhold til vår,
kan vi forvente en økning i etterspørsel, og vice versa.
Metoder:
Lineær regresjon er svært aktuelt ved prognostisering, men gås ikke gjennom i dette faget, siden
det dekkes i faget MAT110 Statistikk 1.
9
Tidsserier:
I en tidsserie antar vi at eneste forklaringsvariabel er, ja, tiden. Tidsserier benytter historiske data,
for å prognostisere fremtidig utvikling.
Målsetting:
X̂T +s , 1 ≤ s ≤ S
Metoder:
• Random Walk
• Gjennomsnitt
• Glidende gjennomsnitt
Dette er bare noen av de enkleste metodene som benyttes. Men ofte er enkelheten en god strategi.
Et viktig prinsipp i prognostisering er å prognostisere akkurat det man har behov for og ikke mer.
Men før vi ser nærmere på disse metodene, må vi alltid først se på de historiske dataene og se om
vi gjennkjenner spesielle mønstre. Forskjellig mønster tilsier ofte forskjellig metodikk.
Mønster:
• Sesong - tidsserien har gjentakende mønster for gitte tidspunkter i horisonten, for eksempel
iskremsalg gjennom årstidene.
10
• Irregulært - tidsserien har et tilfeldig mønster, og representerer gjerne mønsteret vi får etter
at vi har fjernet eventuelle trender, sesongavhengigheter og sykluser.
Figur 1.3 illustrerer de 4 typiske mønstrene isolert sett, mens figur 1.4 viser at vi kan også ha
kombinasjoner av de 4 forskjellige typene. Fremgansgmten er da fjerne hver enkelt mønster fra
datasettet, slik at vi sitter igjen med det irregulære mønsteret.
11
Figur 1.3: De fire typiske mønstrene isolert sett.
Figur 1.4: Et mønster som består både av trend og sesong. Legg merke til hvordan vi dekomponerer
det observerte mønsteret i en trend del, en sesong del og en irregulær del (random).
12
Eksempel: ( Oskar Sylte )
Oskar Sylte AS er en produsent av mineralvann, kjent for Ananas og Pære brusen sin. Men Oskar
Sylte selger dog mest av Pepsi Max, som de også produserer.
Vi skal til slutt lage en prognose for Pepsi Max 0.5l, for de neste 4 ukene, dvs uke 6, 7, 8 og 9.
UKE 1 2 3 4 5
SALG 20 24 22 30 22
Det første vi gjør når vi skal lage en prognose er å tegne opp grafen, hvor tidsperiodene går langs
den horisontale aksen og salget langs den vertikale aksen, som vist i figur 1.5.
30
salg Xt
25
20
1 2 3 4 5
uke t
Grafen viser ingen spesiell trend eller sesong, så vi klassifiserer mønsteret som irregulært, som
betyr at observasjonene flukturer rundt et tenkt nivå˙
Det neste vi skal gjøre er å benytte noen enkle prognosemetoder for å bestemme prognosen. Vi
starter med den enkleste som er Random Walk
13
Random Walk: ( Prognosemetode )
Anta vi har et sett med tidsobservasjoner X1 , X2 , . . . , XT . Random Walk lar siste observasjon
være prognosene X̂ for de påfølgende periodene, dvs:
X̂T +s = XT , 1 ≤ s ≤ S (1.1)
Kommentarer:
• Metoden kalles ”Random Walk”, eller ”tilfeldig gang”, fordi den ”går i fotsporene” etter
observasjonene, som er tilfeldige.
• Metoden benytter ingen historiske data, og er derfor ikke i stand til å feilkorrigere seg selv
• vi trenger ikke spare på historiske data etterhvert som vi oppdaterer prognosen
X̂6 = X5 = 22
X̂7 = X5 = 22
X̂8 = X5 = 22
X̂9 = X5 = 22
14
30
salg Xt
25
20
0 2 4 6 8 10
uke t
n
1X
X̂n = Xj (1.2)
n j=1
Xt − Xt−n
X̂t = X̂t−1 + , hvor n + 1 ≤ t ≤ N (1.3)
n
Kommentarer:
• Metoden kalles ”Glidende gjennomsnitt”, fordi det ser ut som gjennomsnittet ”glir” gjennom
observasjonene.
• Metoden representerer en familie av prognoser, siden man kan selv velge størrelsen på vinduet
n.
• Metoden brukes ofte som initielt steg i mer kompliserte metoder, spesielt i situasjoner med
sesongvariasjoner.
15
Eksempel: ( Oskar Sylte )
Vi skal regne ut en prognose i eksempelet basert på glidende gjennomsnitt med et vindu på 3
perioder. Metoden betegnes gjerne ved M A(3) - Moving Average med vindu 3.
4
1X 1
X̂3 = Xj = (20 + 24 + 22) = 22
3 j=1 3
4
2X 1
X̂4 = Xj = (24 + 22 + 30) = 25.33
4 j=1 3
4
3X 1
X̂5 = Xj = (22 + 30 + 22) = 24.67
5 j=1 3
• Legg merke til at siden vi bruker tre observasjoner i det initielle steget, får vi bare prognoser
for de tre siste observasjonene.
16
30
salg Xt
25
20
0 2 4 6 8 10
uke t
Figur 1.7: Glidende gjennomsnitt ”glir” gjennom observasjonene med vindu 3 i dette tilfellet.
Vi så i forrige avsnitt at glidende gjennomsnitt oppdaterer seg etterhvert som vi får flere og flere
observasjoner. Det er to ulemper med denne metoden:
• Metoden ”glemmer” historiske data, siden den kun bruker n observasjoner for å beregne
neste prognose.
• Metoden ”glatter” ut alle variasjonene i observasjonene.
X̂1 = X1
Kommentarer:
• Metoden kalles ”Eksponensiell”, fordi den vektlegger nye observasjoner eksponensielt mer
en gamle metoder.
17
• Metoden kalles ”Glatting”, fordi den glatter ut variasjonen mellom forrige prognose og neste
observasjon med en faktor θ. derfor kalles denne parameteren ”glattingsparameteren.
• Lav θ, dvs verdi mellom 0 og 0.4, gir lav glatting, dvs metoden hopper etter siste observasjon
fremfor å følge historiske prognoser. Den vektlegger med andre ord siste observasjoner mest.
• Høy θ, dvs verdi mellom 1 og 0.6, gir høy glatting, dvs metoden glatter uta variasjonen
mellom siste observasjon og historisk prognose. Den vektlegger med andre ord historikken
mest.
• En stor fordel med metoden, er at man ikke trenger å lagre historiske data. Metoden samler
all historikk i forrige prognose, som er det vi trenger for å beregne neste prognose.
• Fastsettelsen av glattingsparameteren θ er et valg som vi tar. Hvilken verdi vi velger bør re-
flektere den reelle situasjonen, dvs hvorvidt vi ønsker at prognosen skal jevne ut variasjonene
eller ikke.
Vi skal regne ut en prognose i eksempelet basert på eksponensiell glatting med glattingsparameter
θ = 0.2. Metoden betegnes gjerne ved EG(0.2) - Eksponensiell Glatting med glattingsparameter
0.2.
X̂1 = X1 = 20
• Legg merke til hvordan prognosen ”hopper” i uke 4, fra 22.24 til 28.45. Dette kommer nettopp
av at glattingsparameteren er lav, dvs 0.2.
18
X̂6 = X̂5 = 23.29
X̂7 = X̂5 = 23.29
X̂8 = X̂5 = 23.29
X̂9 = X̂5 = 23.29
30
salg Xt
25
20
0 2 4 6 8 10
uke t
Figur 1.8: Eksponensiell glatting med glattingsparameter 0.2, følger etter variasjonene i større
grad enn f.eks. glidende gjennomsnitt
19
Måltall ( Hvor god er en prognose? )
Vi har nå sett på tre forskjellige metoder for å prognostisere et sett med observasjoner
For å kunne svare på disse spørsmålene må vi lage et måltall for metodene som vi kan benytte. Vi
skal se på tre tradisjonelle måltall:
Felles for alle de tre metodene er at de baserer seg på feilen vi gjør i en periode. Feilen er med
andre ord differansen mellom observasjonen og prongosen vi har for en gitt periode.
Når vi beregner måltall, er det også nødvendig å ha et større datasett med tilhørende prognoser
som beregningsgrunnlag. Hvis ikke, kan enkeltobservasjoner få for mye å si, og måltallene lyver.
Prognosefeil:
Anta vi har et sett med observasjoner X1 , X2 , . . . , XT og et sett med prognoser X̂s , Xˆs+1 , . . . , XˆN ,
hvor vi har fjernet de initielle periodene 1, 2, . . . , s. prognosefeilen vi gjør i en periode t, t =
s, s + 1, . . . , N , er da definert som:
Et = Xt − X̂t−1 (1.4)
Legg merke til at prognosen for periode t er gitt ved prognosen vi beregnet fra observasjonen i
forrige periode t − 1. Det er derfor vi må bruke X̂t−1 .
Med denne definisjonen på plass, kan vi definere måltallene vi har nevnt over.
20
MFE ( Mean Forecasting Error )
MFE, eller Mean Forecasting Error, summerer ganske enkelt opp alle prognosefeilene vi har og
deler på antall pognoser vi har:
N
1 X
MF E = Et (1.5)
N − s + 1 t=s
• Feilen Et kan både være negativ (overestimering) eller positiv (underestimering). Så når vi
summerer feilene som i MFE, vil feilene oppheve hverandre. Det betyr at hvis vi har like mye
overestimering som underestimerin så blir MFE null.
• MFE måler med andre ikke hvor stor feil vi gjør når vi bruker en metode. Den måler i
prinsippet hvor jevnt feilen varierer rundt middelverdien.
Vi regner ut MFE for eksemeplet med Oskar Sylte for metoden med eksponensiell glatting med
glattingsparameter 0.2, siden vi der har flest prognosetall. Første prognose har vi for periode 2,
så s = 2, og vi har totalt 4 prognoser tilgjengelig:
21
5
1X
MFEEG(0.2) = Et
4 t=2
1
= (E2 + E3 + E4 + E5 )
4
1
= ((24 − 20) + (22 − 23.2) + (30 − 22.24) + (22 − 28.45)
4
= 0.5275
Siden M F E = 1.028, så viser datasettet en oppadstigende trend. Dette kommer av at vi har den
litt høye observasjonen i uke 4 på 30, som hever MFE noe. Datasettet er dog for lite til at vi kan
trekke noen konklusjon angående trend, det er vanlig at vi bruker metoden over lengre tid, slik at
vi har et stort antall prognoser man kan benyttes for å beregne MFE. Da blir måletallet mye bedre.
MAD, eller Mean Absolute Deviation, på norsk, ”Gjennomsnittlig Absolutt Avvik”, måler faktisk
hvor stor feilen er, og brukes som grunnlag for valg av prognoser dersom størrelsen på feilen er
vesentlig:
N
1 X
M AD = |Et | (1.6)
N − s + 1 t=s
• Eneste forskjellen fra MFE, er at vi nå tar absoluttverdien av feilene før vi summerer dem.
Så det er uvesentlig om feilen er forsårsaket av overestimeringe eller underestimering.
22
Vi regner ut MAD for eksemeplet med Oskar Sylte for metoden med eksponensiell glatting med
glattingsparameter 0.2, siden vi der har flest prognosetall. Første prognose har vi for periode 2,
så s = 2, og vi har totalt 4 prognoser tilgjengelig:
5
1X
MADEG(0.2) = |Et |
4 t=2
1
= (|E2 | + |E3 | + |E4 | + |E5 |)
4
1
= (|24 − 20| + |22 − 23.2| + |30 − 22.24| + |22 − 28.45|)
4
= 4.352
Siden M AD = 4.852, så viser metoden her et avvik på 4.852 enheter per uke. Oskar Sylte kan
dermed benytte dette tallet til å fastsette enten sikkerhetslager eller hvor mye de evenutelt må
øke produksjonskapasiteten med.
MSE, eller Mean Squared Error, eller på norsk, ”Gjennomsnittlig kvadratisk feil”, måler også
hvor stor feilen er, som ved MAD. Denne gangen opphøyer vi feilen i andre, istedet for å ta
absoluttverdien:
N
1 X
M SE = Et2 (1.7)
N − s + 1 t=s
• MSE brukes ofte til å bestemme optimale parametre, for en gitt prognosefamilie, f.eks.
glattingsparameteren ved eksponensiell glatting.
• Forskjellen mellom MSE og MAD, er at MSE gir et avstandsbegrep, dvs hva er avstanden
mellom datasettet og prognosene. MAD er ikke et avstandsbegrep. MSE blir dermed riktig
mål å bruke, dersom vi ønsker å sammenlikne forskjellige metoder. Den medminst MSE, er
den beste.
23
p
• Analogi: avstanden mellom to punkter (x1 , y1 ) og (x2 , y2 ) i planet, er gitt ved (x2 − x1 )2 + (y2 − y1 )2 .
Legg merke til at koordinatene er opphøyd i andre. Tanken er akkurat lik for definisjonen
av MSE.
Vi regner ut MSE for eksemeplet med Oskar Sylte for metoden med eksponensiell glatting med
glattingsparameter 0.2, siden vi der har flest prognosetall. Første prognose har vi for periode 2,
så s = 2, og vi har totalt 4 prognoser tilgjengelig:
5
1X 2
MSEEG(0.2) = E
4 t=2 t
1
= (E22 + E32 + E42 + E52 )
4
1
= ((24 − 20)2 + (22 − 23.2)2 + (30 − 22.24)2 + (22 − 28.45)2 )
4
= 4.88
Siden
√ M SE = 4.88, så viser metoden her en avstand mellom datasettet og prognosene på
4.88 = 2.21 enheter per uke. Dette tallet kan nå benyttes for å sammenlikne denne meto-
den med eventuelle andre metoder vi ønsker å vurdere, f.eks. eksponensiell glatting med en annen
verdi enn 0.2 på glattingsparemeteren.
24
Trend ( Holz-Winthers metode med trend )
Vi har hittil antatt i eksemplene at datasettet har vært irregulært, dvs uten verken trend, sesong-
savhengighet eller syklisk avhengighet. Da antok vi at virkeligheten har en konstant utvikling,
men med tilfeldig variasjon. I dette avsnittet ser vi på hvordan vi likevel kan bruke fordelene ved
eksponensiell glatting i tilfeller hvor vi enten har oppadstigende eller nedadstigende trend. Meto-
den kalles Holz-Winthers metode med trend.
Konseptuell ide:
For å kunne utnytte fordelene ved eksponensiell glatting, må vi først fjerne trenddelen. Hvis vi
fjerner trenddelen, står vi igjen med et irregulært datasett, som vi nettopp kan benytte eksponen-
siell glatting på .
Vi ser at for hver periode, øker det konstante nivået X med en trendfaktor T, så sammenhengen
er dermed gitt ved:
X − T · t = konstant nivå
Målet er dermed å lage prognoser for X og T for hver periode, slik at vi dermed også kan beregne
25
Y ved hjelp av sammenhengen over.
Hvis vi tenker at vi står ved tiden t og skal prognostisere hvilken verdi vi får ved neste observasjon
t + 1, tar vi den forrige prognosen X̂t−1 + T̂t−1 og vekter mot den nye observasjonen Xt . Legg
merke til at vi legger til trendfaktoren i prognosen, slik at nivået blir riktig.
Vi bruker eksponensiell glatting for å estimere både nivået X og trendleddet T , så vi må med
andre ord velge to glattingsparametre henholdsvis. Anta θ er glattingsparameteren for nivået,
mens β er glattingsparameteren for trendfaktoren. Begge er en verdi mellom 0 og 1, som vi selv
har fastlagt.
X̂2 = X2
T̂2 = X2 − X1
• Den nye observasjonen for stigningstallet T er gitt ved differansen mellom de forrige pro-
gnosene.
Anta Oskar Sylte skal lage en prognose for det nye produktet, Jolly Cola, som ble lansert i fjor.
De har følgende kvartalsvise observasjoner:
KVARTAL 1 2 3 4
SALG 5 12 15 22
Grafen viser en klart stigende trend, så vi har bestemt oss for å bruke Holz-Winthers metode med
glattingsparametre θ = 0.2 og β = 0.2:
Vi benytter formelen for å beregne prognosene:
26
25
20
jolly cola Xt
15
10
1 2 3 4
kvartal t
X̂2 = X2 = 12
T̂2 = X2 − X1 = 12 − 5 = 7
Siden vi ikke har flere observasjoner, må vi nå prognostisere de neste verdiene. Vi bruker da som
alltid siste estimat som grunnlag for prognosene (X̂5 og T̂5 )
27
X̂5 = X̂4 + T̂4 = 21.2 + 5.56 = 27.21
50
40
antall jolly cola Xt
30
20
10
0
0 2 4 6 8
kvartal t
28
Sesongavhengighet: ( Holz-Winthers metode med sesongavhengighet )
I dette avsnittet ser vi på hvordan vi kan bruke fordelene ved eksponensiell glatting i tilfeller hvor
vi har sesongavhengighet i datasettet. Metoden kalles Holz-Winthers metode med sesong, og følger
de samme prinsippene som for Holz-Winthers metode med trend:
Konseptuell ide:
• For trend var trendfaktoren et additivt ledd, dvs vi adderte leddet til prognosen. I tilfellet med
sesongavhengighet, er det hensiktmessig å benytte multiplikative sesongfaktorere for hver
sesong. Det betyr at, for hver sesong, multipliserer vi observasjonen med en sesongfaktor,
som fjerner sesongdelen fra observasjonen.
• Til det initielle steget trenger vi dermed like mange observasjoner som vi har sesonger. Så
hvis vi for eksempel har en tradisjonell vår, sommer, høst og vinter sesongavhengighet, så
har vi fire sesonger, og trenger dermed fire observasjoner for det initielle steget.
Xs = Ys · F s
Vi kan bruke denne sammenhengen for å sette opp Holz-Winthers metode med sesongavhengighet.
Vi skal med andre prognosere størrelsene:
Xs
Ys = observasjon i sesong s uten sesongavhengighet
Fs
Xs
Fs = multiplikativ sesongfaktor for sesong s
Ys
Ideen er å prognostisere verdiene for Ys ved hjelp av eksponensiell glatting med glattingsparame-
ter θ, siden denne størrelsen er antatt irregulær, og prognostiere sesongfaktorene Fs ved hjelp av
eksponensiell glatting med glattingsparameter β, siden disse også er antatt irregulære.
29
KVARTAL 2013-1 2013-2 2013-3 2013-4 2014-1 2014-2 2014-3 2014-4
SALG 60 120 180 150 50 130 200 140
Vi skal lage en salgsprognose for Pepsi Max. Prognosen skal omfatte de 4 kvartalene i 2015. Vi
har følgende historiske data (i antall 10000):
Grafen viser sesongavhengighet, så vi har bestemt oss for å bruke Holz-Winthers metode med
glattingsparametre θ = 0.2 og β = 0.2:
Initielt steg:
Det initielle steget er mer krevende siden vi trenger en prognose for sesongfaktorene for hver
sesong. vi trenger dermed også prognoser for alle de initielle verdiene for det irregulære nivået:
1 1
Ŷ4 = (X1 + X2 + X3 + X4 ) = (60 + 120 + 180 + 150) = 127.5
4 4
X1 60
F̂1 = = = 0.471
Ŷ4 127.5
X2 120
F̂2 = = = 0.941
Ŷ4 127.5
X3 180
F̂3 = = = 1.412
Ŷ4 127.5
X4 150
F̂4 = = = 1.176
Ŷ4 127.5
• Vi bruker ganske enkelt gjennomsnittet for de fire første kvartalene som prognose for initielt
nivå Y i kvartal 5
• sesongfaktorene fås ved å bruke sammenhengen mellom observerte verdier med og uten
sesongavhengighet
Skrittvis oppdatering:
30
X5 50
Ŷ5 = θŶ4 + (1 − θ) = 0.2 · 127.5 + 0.8 · = 110.5
F̂1 0.471
X5 50
F̂5 = β F̂1 + (1 − β) = 0.2 · 0.471 + 0.8 · = 0.456
X̂5 110.5
X6 130
Ŷ6 = θŶ5 + (1 − θ) = 0.2 · 110.5 + 0.8 · = 132.6
F̂2 0.941
X6 130
F̂6 = β F̂2 + (1 − β) = 0.2 · 0.941 + 0.8 · = 0.973
X̂6 132.6
X7 200
Ŷ7 = θŶ6 + (1 − θ) = 0.2 · 132.6 + 0.8 · = 139.85
F̂3 1.411
X7 200
F̂7 = β F̂3 + (1 − β) = 0.2 · 1.411 + 0.8 · = 1.426
X̂7 139.85
X8 140
Ŷ8 = θŶ7 + (1 − θ) = 0.2 · 139.85 + 0.8 · = 123.17
F̂4 1.176
X8 140
F̂8 = β F̂4 + (1 − β) = 0.2 · 1.176 + 0.8 · = 1.145
X̂8 123.17
Siden vi ikke har flere observasjoner, må vi nå prognostisere de neste verdiene. Vi bruker da som
alltid siste estimater som grunnlag for prognosene (X̂8 og F̂5 , F̂6 , F̂7 og F̂8 ). Igjen må bruke sam-
menhengen mellom X og Y
31
200
150
Salg Xt
100
50
0 2 4 6 8 10 12 14
kvartal t
32