Professional Documents
Culture Documents
„Ci, co wiedzą nie prognozują, ci, co prognozują, nie wiedzą” Lao Tzu
Prognozowanie ma długą historię. Ludzie od zawsze patrzyli w gwiazdy, próbując odczytać przyszłość,
wierzyli we wróżby i horoskopy. Jednym słowem chcieli wiedzieć, jak będzie kształtowała się ich
przyszłość. Samo pojęcie prognoza pochodzi od greckich słów pro – oznaczające „przed” oraz gnosis
– oznaczające „wiedzę”. Prognoza oznacza zatem przewidywaną wiedzę o jakimś zdarzeniu w
przyszłości. O ile przewidywanie to opierało się na odczytywaniu znaków (z ruchu gwiazd i komet, z
układu rozrzuconych kamieni, itp.), o tyle bardziej naukowo zaczęto podchodzić do zagadnienia
dopiero w 1943 roku, kiedy to powstał termin futurologia określający naukę zajmującą się
przewidywaniem i prognozowaniem przyszłości. Autorem tego pojęcia i pierwszych badań w zakresie
futurologii był Ossip Kurt Flechtheim. Dziś futurologia ma zarówno zwolenników, fascynujących się
technologią i próbujących przewidzieć jej rozwój, jak i przeciwników wskazujących na liczne błędy w
wykonanych przez futurologów prognozach. O błędach prognoz oraz o prawdopodobnym rozwoju
technologii czytelnik będzie mógł przeczytać w późniejszych rozdziałach. W tym miejscu należy
doprecyzować odpowiednie definicje.
W literaturze przedmiotu można spotkać wiele definicji odnoszących się do prognoz i prognozowania
(Cieślak, 2022). Zazwyczaj prognozę określa się jako sąd odnoszący się do przyszłości, sformułowany z
wykorzystaniem dorobku nauki, weryfikowalny, niepewny ale akceptowalny. Dość ciekawą definicję
zaproponowali Tetlock i Gardner (2015). Uznali oni, że prognozowanie to oczekiwania odnośnie
przyszłości. Jednak samo pojęcie oczekiwania wskazuje bardziej na to, co chcemy aby było a nie na
to, co ma szanse się wydarzyć. Myślenie w kategorii życzeń przydaje się bardziej w ustalaniu celów
niż w prognozowaniu. Z kolei Morlidge i Player (2013) stwierdzili, że prognozowanie koncentruje się
na procesie systematycznego i racjonalnego złożenia zebranych informacji w celu zapewnienia
menedżerom widoczności przyszłych, prawdopodobnych wyników oraz potencjalnego ryzyka i szans.
Prognozowanie jest zatem racjonalnym procesem wnioskowania w przyszłość, w którym
wykorzystuje się metody naukowe. Ten proces wnioskowania inaczej nazywany jest predykcją.
Wynikiem predykcji jest prognoza, która wyznaczana jest dla określonego okresu w przyszłości. Taką
definicję prognozowania i prognozy znaleźć można u Pawłowskiego (za Zeliaś, Pawełek, Wanat 2003)
i taką też definicję przyjmuje autorka.
Prognozowanie dotyczy przyszłości (zazwyczaj, bo zdarza się, że potrzebne są prognozy wstecz), więc
należy się zastanowić, co o niej wiemy na pewno. Na pewno wiemy, że przyszłość jest nieznana ale w
takim, czy innym kształcie nadejdzie. Skoro nadejdzie, to po co chcemy znać ją wcześniej? Możemy
oczywiście poczekać aż nadejdzie i wtedy będziemy traktowali przyszłość jak przeznaczenie. A co w
sytuacji, gdybyśmy mieli na nią wpływ? Czy byłoby nas stać na to, żeby się do niej nie przygotować?
Wyobraźmy sobie przez chwilę, że możemy podejrzeć przyszłość. Przyszłość, którą oglądamy rysuje
się optymistycznie. Rozwój technologii umożliwia pogodzenie naszej cywilizacji z przyrodą. Gdybyśmy
widzieli taki obraz przyszłości, prawdopodobnie chcielibyśmy dążyć do tej wizji podejmując różne
decyzje po drodze, które przybliżałyby nas do celu. Wyobraźmy sobie teraz inną wizję przyszłości.
Rozwój technologii i cywilizacji zagraża naszej planecie i jest niewiele miejsc, które nadają się do
życia. Co wtedy możemy zrobić? Jeśli nie traktujemy przyszłości jako przeznaczenia, z pewnością
zrobimy wszystko aby nie dopuścić do tej wizji, albo przynajmniej przygotujemy się do niej w
najlepszy możliwy sposób. Niestety przyszłości nie da się podejrzeć (przy obecnym stanie wiedzy i
technologii) ale obserwując przeszłość, możemy próbować zrozumieć dlaczego pewne rzeczy są, jakie
są i na tej podstawie możemy próbować poznać przyszłość.
Jak widać z tabeli 1.1. potrzeby w zakresie prognozowania są duże pomimo tego, że prognozy nie
zawsze się sprawdzają. A właściwie dlaczego się nie sprawdzają? I czy w związku z tym w ogóle opłaca
się prognozować?
Zastanówmy się przez chwilę nad przedmiotem prognoz, których przykłady podane są w tabeli 1.1.
Inflacja, bezrobocie, czy inne zmienne społeczno-gospodarcze (również meteorologiczne) są
niezwykle złożone. Oznacza to, że istnieje wiele czynników, które na nie wpływają i nie sposób
znaleźć je wszystkie. Dodatkowo czynniki te będą podlegały zmianom, które niekoniecznie będą
przebiegały w tym samym czasie i kierunku. Należy zauważyć również, że na czynniki te wpływa cała
masa innych determinant, które ogólnie określamy jako otoczenie. W otoczeniu działają wszystkie
podmioty gospodarcze: gospodarstwa domowe, przedsiębiorstwa oraz rząd. Jak można sobie
wyobrazić otoczenie to podlega ciągłym zmianom, których też nie sposób przewidzieć dokładnie. Za
małą, niekiedy, dokładność prognoz odpowiada również to, że w ekonomii nie można przeprowadzać
eksperymentów (przynajmniej na taką skalę jak w naukach przyrodniczych). W związku z tym modele
wykorzystywane do prognozowania charakteryzują się dużym stopniem uproszczenia. Powszechnie
wykorzystywaną zasadą przy konstrukcji tego typu modeli jest zasada ceteris paribus. Dość poważną
cechą ograniczającą dokładność prognoz ekonomiczno-społecznych jest również fakt, że działania
człowieka są nieprzewidywalne. Oznacza to różnorodność zachowań różnych ludzi w obliczu tych
samych czynników działających w ich otoczeniu. Jeśli dodamy do tego wcale nie rzadki problem z
dostępnością danych, na podstawie których możemy wyznaczyć prognozę, problem stabilności
modelu czy też fakt, że dobry model przeszłości nie gwarantuje dobrej prognozy w przyszłości, to
zbiór przyczyn powodujących niską dokładność prognoz robi się spory. Jak w takim razie traktować
prognozowanie i prognozy? Czy tak, jak wizje futurologów, które mogą ale nie muszą się spełnić, czy
jak punkt wyjścia do podejmowania decyzji? Według prof. Kleiberga (2012), pracownika Zakładu
Informatyki i Nauk Obliczeniowych IPPT PAN, przyszłości w pełni nie da się przewidzieć, ale nie
oznacza to, że musimy błądzić. Oznacza to, że celem prognozy nie jest wytypowanie dokładnej
wartości danej zmiennej ekonomicznej ale określenie kierunku jej rozwoju.
Co do prognozowania ma Edyp?
Przyjrzyjmy się teraz, publikowanym w różnych mediach, prognozom gospodarczym i wpływie tych
publikacji na kształtowanie się danej zmiennej. Pod koniec lutego 2022 byliśmy świadkami różnych
wypowiedzi na temat wzrostu cen paliw oraz ich ograniczonej dostępności związanej z wojną na
Ukrainie. Wypowiedzi te spowodowały wzrost popytu na paliwa, co przy niezmienionej ich podaży
przełożyło się oczywiście na podwyżki cen oraz spowodowało ograniczenia w sprzedaży. W lipcu 2022
mieliśmy taką samą sytuację dotyczącą cukru. Wypowiedzi w mediach na temat podwyżek cen cukru
spowodowały, że konsumenci zaczęli masowo wykupywać cukier, co spowodowało chwilowe braki,
oraz wzrost cen (dla przypomnienia jesteśmy jednym z kilku największych producentów cukru w
Europie). Takie zjawisko określa się mianem samosprawdzających się przepowiedni (albo po prostu
prognoz samosprawdzających się).
Zjawisko, kiedy prognoza oddziałuje na badaną zmienną określa się efektem EDYPA. Powyższe
przykłady prognoz samosprawdzających się lub samoobalających się, pokazują właśnie działanie tego
efektu. Ogłoszenie prognozy powoduje określone działania na rynku. Niestety nie jest tak, że w
przypadku prognoz zapowiadających zdarzenia korzystne, samo ogłoszenie takiej prognozy przyczyni
się do jej spełnienia. Tak samo w przypadku prognoz zapowiadających zdarzenia niekorzystne, samo
ogłoszenie prognozy nie wystarczy aby doprowadzić do jej obalenia. Zazwyczaj jest odwrotnie ale
wszystko zależy od stopnia zaufania rynku do ogłaszającego prognozę. W literaturze dotyczącej
prognozowania można odnaleźć jeszcze jedno ciekawe zjawisko związane ze sposobem reakcji na
prognozy. Chodzi o tzw. paradoks CASSANDRY, który oznacza ignorowanie lub lekceważenie
negatywnych prognoz gospodarczych, mimo że istnieją uzasadnione dowody na potencjalne ryzyko
lub zagrożenia (Morlidge i Player, 2010). Na przykład, może to obejmować ignorowanie ostrzeżeń o
nadchodzącym spowolnieniu gospodarczym lub kryzysie finansowym ale także o zmianach klimatu.
Mimo wielu naukowych dowodów na zmiany klimatyczne i ich potencjalnie katastrofalne skutki,
działania mające na celu ograniczenie emisji gazów cieplarnianych mogą być minimalizowane lub
opóźniane, co z kolei przyczynia się do pogłębienia problemu.
Problemy do dyskusji.
Wyobraź sobie, że jesteś analitykiem lub analityczką w dużej firmie i właśnie dowiedziałeś/aś
się, że sprzedaż firmy w następnym roku wzrośnie kilkukrotnie. Jednocześnie trzeba
podejmować bieżące decyzje operacyjne w firmie dotyczące działań marketingowych,
produkcyjnych i finansowych. Co doradzisz kierownictwu? Jak postąpisz w przypadku, gdy
wizja przyszłości następnego roku pokaże drastyczny spadek sprzedaży i potężne straty
finansowe?
Przypomnij sobie historię Edypa i spróbuj wyjaśnić dlaczego oddziaływanie prognozy na
badaną zmienną nazwano efektem Edypa.
Najprostszą metodą do wyznaczenia prognozy jest metoda błądzenia przypadkowego (ang. random
walk), którą określa się również mianem metody naiwnej a prognozę otrzymaną na jej podstawie
prognozą naiwną. Za tym określeniem kryje się założenie, że w przyszłości prognozowane zjawisko się
nie zmieni. Metoda ta ma kilka odmian, które możemy zastosować w zależności od przebiegu danego
zjawiska w przeszłości. Jeśli poziom danej zmiennej w okresie analizy (czyli w okresie, z którego
pochodzą dane do prognozy) jest względnie stały to można zastosować metodę naiwną bez
modyfikacji. Jeśli zmienna w okresie analizy charakteryzuje się trendem lub wahaniami sezonowymi
to metoda daje się w prosty sposób zmodyfikować tak, aby uwzględniała te elementy. Wyjaśnijmy to
na przykładzie.
350,000.00
300,000.00
250,000.00
200,000.00
150,000.00
100,000.00
50,000.00
0.00
00 001 002 003 004 005 006 007 008 009 010 011 012 013 014 015 016 017 018 019 020
20 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2
Rys.1.2 Podaż pieniądza gotówkowego w obiegu (poza kasami banków) w Polsce w latach 2000-2020 w mln zł.
Źródło: opracowanie własne na podstawie danych GUS
Naszym zadaniem jest wyznaczenie prognozy podaży pieniądza gotówkowego poza kasami banków w
Polsce w roku 2021. Dysponujemy danymi z lat 2000-2020 (tabela 1.2). W celu wyznaczenia prognozy
należy w pierwszej kolejności wykonać wykres prognozowanej zmiennej i ustalić jaki ma przebieg w
okresie analizy. To pomoże nam ustalić jaką metodę prognozowania możemy zastosować. Wykres
podaży pieniądza gotówkowego pokazano na rys.1.2. Widać na nim, że zmienna charakteryzuje się
trendem rosnącym, który do roku 2013 miał dość umiarkowane tempo (zmiany z roku na rok
wynosiły przeciętnie 9,7%), natomiast po roku 2013 przyrost zmiennej był znacznie szybszy (średnio
roczne zmiany wynosiły niemal 15%). Dla danych rocznych nie można zaobserwować wahań
sezonowych, więc najprostszą metodą prognozowania, jaką można tu zastosować jest metoda
naiwna z trendem. W tabeli 1.2 pokazano obliczenia do tej właśnie metody na tle metody naiwnej
bez uwzględnienia trendu. W metodzie naiwnej bez modyfikacji wartością prognozy (y T) na okres
T=n+1 jest wartość ostatniej znanej realizacji (yn) wg wzoru (1.1):
yT = yn (1.1)
W metodzie naiwnej z uwzględnieniem trendu, wartością prognozy (y T) jest wartość ostatniej znanej
realizacji powiększona o ostatni zaobserwowany przyrost tej zmiennej, zgodnie ze wzorem (1.2):
Prognozy wygasłe 2
Podaż pieniądza gotówkowego w Prognozy wygasłe 1
Zmienna/ -metoda naiwna z Błędy prognoz Błędy prognoz
obiegu (poza kasami banków) w -metoda naiwna wg
Okres trendem wg 1 [4]=[1]-[2] 2 [5]=[1]-[3]
mln zł [1] formuły (1.1) [2]
formuły (1.2) [3]
2000 34 112,70 x x x x
389549,20 = 306809,40+(306809,40-224069,60)
W tabeli 1.2 pokazano również obliczenia dla prognoz wygasłych, czyli takich, dla których znamy
rzeczywiste wartości prognozowanej zmiennej. Inaczej mówiąc jest to ten przypadek, kiedy
prognozujemy wstecz. Prognozy wygasłe są bardzo ważnym rodzajem prognoz, gdyż na ich podstawie
możemy wnioskować o przydatności danej metody prognozowania. Zazwyczaj bowiem, jeśli za
pomocą danej metody wyznaczamy prognozy, które odbiegają od rzeczywistości, trudno się
spodziewać aby w przyszłości, metody takie generowały dokładne prognozy.
350,000.00
Podaż pieniądza gotówkowego w obiegu (poza kasami banków) w
300,000.00 mln zł
Prognozy 1 (bez trendu)
250,000.00
Prognozy 2 (z trendem)
200,000.00
150,000.00
100,000.00
50,000.00
0.00
00 001 002 003 004 005 006 007 008 009 010 011 012 013 014 015 016 017 018 019 020
20 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2
Rys.1.3 Podaż pieniądza gotówkowego w obiegu (poza kasami banków) w Polsce w latach 2000-2020 w mln zł
oraz prognozy wygasłe. Źródło: opracowanie własne na podstawie danych GUS
Na rys. 1.3. widać, że prognozy wygasłe wykonane metodą naiwną bez uwzględnienia trendu, są w
większości przypadków niedoszacowane (leżą pod wykresem zmiennej), za wyjątkiem roku 2009,
kiedy prognoza wyznaczyła wielkość podaży na poziomie z roku 2008, podczas gdy w rzeczywistości
odnotowano mniejszą podaż. Tam prognoza będzie przeszacowana. Systematyczne
niedoszacowywanie (zaniżanie) lub przeszacowywanie (zawyżanie) oznacza, że mamy do czynienia z
sytuacją, kiedy prognoza jest obciążona. Jest to zjawisko niepożądane, gdyż pokazuje, że nie
uwzględniliśmy takich cech szeregu czasowego zmiennej prognozowanej jak na przykład trend.
Metoda naiwna z uwzględnieniem trendu natomiast brała pod uwagę ostatnie zaobserwowane
wartości zmiennej oraz ich ostatni przyrost, dlatego też nie ma okresów, w których prognozy są
wyraźnie przeszacowane lub niedoszacowane. Jest to sytuacja, do której będziemy dążyli. Czyli
będziemy zainteresowani takimi metodami prognozowania, które pozwolą na wyznaczenie prognoz
nieobciążonych.
100,000.00
80,000.00
60,000.00
40,000.00
20,000.00
0.00
2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 2010 2011 2012 2013 2014 2015 2016 2017 2018 2019 2020
-20,000.00
Sztuka przewidywania tego, co będzie i wyjaśniania dlaczego tak się nie stało.
Tak duży błąd spowodowany jest tym, że w roku 2020 ludzie utrzymywali wyższy niż zazwyczaj
poziom gotówki ze względu na niepewność spowodowaną pandemią wirusa SARS-CoV-2 i
ograniczenie działalności wszystkich działów gospodarki. Ten wzrost podaży pieniądza gotówkowego
z roku 2020 (różnica między podażą w roku 2020 i 2019) został dodany do wartości podaży z roku
2020 i uwzględniony w ten sposób w prognozie na rok 2021. Należy pamiętać, że w metodzie
błądzenia przypadkowego z trendem (naiwnej) zakłada się, że w okresie prognozy przyrost wartości
zmiennej pozostanie stały. Gdyby zastosować metodę bez uwzględniania trendu, w tym przypadku
uzyskalibyśmy dokładniejszą prognozę, ale taka wiedza w momencie wyznaczania prognozy jest
niedostępna. Należało by się raczej zastanowić, czy założenie o utrzymaniu ostatniego trendu
wzrostowego w okresie prognozowanym jest na tyle realistyczne, żeby można było wykorzystać je do
prognozowania. W tym miejscu podręcznika skupimy się jednak na poznaniu metod prognozowania i
sposobie wyboru najlepszych z nich.
Skąd zatem wiadomo, która prognoza jest dobrej jakości? Odpowiedź na to pytanie nie jest tak
prosta, jakby się mogło wydawać. Wyobraźmy sobie następującą sytuację. Główny Inspektor
Sanitarny w Polsce otrzymał właśnie informację, że liczba chorych na COVID19 w Polsce wyniesie w
przyszłym miesiącu 39 tys. osób. W jaki sposób można ocenić jakość tej prognozy? Nie znamy ani
założeń, na podstawie których została wyznaczona ani prawdopodobnego jej błędu. Jeśli ocenimy, że
39 tys. osób to dużo, prawdopodobnie zostaną wprowadzone ograniczenia w przemieszczaniu osób i
organizowaniu imprez masowych, co ostatecznie doprowadzi do tego, że liczba chorych będzie
mniejsza. Czy to oznacza, że prognoza była złej jakości – bo okazała się niedokładna, nie sprawdziła
się, itp.? Niekoniecznie. Jeśli została wyznaczona prawidłowo, czyli na podstawie realistycznych
założeń i jeśli ostatecznie doprowadziła do podjęcia działań ograniczających niepożądane zjawisko, to
jest niewątpliwie dobra. Spełniła swoją funkcję. Jeśli natomiast ocenimy, że 39 tys. osób to mało,
prawdopodobnie nie zostaną wprowadzone żadne środki zaradcze mające na celu rozprzestrzenieni
się wirusa a sama prognoza zostanie zignorowana. Może się też okazać, że w okresie
prognozowanym liczba chorych będzie taka jaką wskazywała prognoza lub nawet większa. I mamy tu
następny przykład działania paradoksu Cassandry. Czy to oznacza, że prognoza była dobra, bo
wskazała faktyczny kierunek zmiany liczby chorych? Niekoniecznie. Chociaż w sensie dokładności i
kierunku niewątpliwie jest dobra, ale czy taki był jej cel?
Wyobraźmy sobie inną prognozę. Przy założeniu realizacji bieżącej strategii marketingowej, w
przyszłym kwartale nasza firma osiągnie 2,5% wzrost sprzedaży, który przy założeniu utrzymania
kosztów na obecnym poziomie, przełoży się osiągnięcie zysku w wysokości 50tys. zł. W jaki sposób
można ocenić jakość tej prognozy? Mamy podane założenia, na podstawie których została wykonana,
więc ostrożnie można ocenić, że jest dość realistyczna. Wprawdzie zapowiada zdarzenia korzystne ale
nie wiadomo, czy w założeniach firmy nie było większego przyrostu sprzedaży. Jeśli tak, jej celem
będzie zaktywizowanie działań marketingowych. To, czy prognoza jest dokładna, czy nie, będzie
można ocenić dopiero po fakcie, czyli pod koniec przyszłego kwartału.
Z powyższych rozważań wynika, że dobrej jakości prognoza to taka, która spełnia jedno lub kilka z
poniższych wymagań:
Należy pamiętać, że błędy prognoz możliwe są do oszacowania zarówno przed okresem, na który
została wyznaczona prognoza (błędy ex-ante) oraz po upływie okresu, na który została wyznaczona
(ex-post). Możliwość oszacowania błędów ex-ante zależy jednak od zastosowanej metody
prognostycznej. Omawiane w tej części podręcznika metody nie umożliwiają wyznaczania błędów ex-
ante, z tego względu, uwaga będzie skupiona na błędach ex-post.
Średnia
2001-2020 117 420,65 103 785,81 x 13 634,84 x 13 738,31 x 10,3% x
Średnia
2002-2020 121 589,44 x 117 450,55 x 4 138,89 x 9 087,33 x 6,9%
s
2001-2020 68 820,07 55 712,65 x
s
2002-2020 68 102,12 x 60 287,36
r x 0,983 0,979
s – odchylenie standardowe w okresie empirycznej weryfikacji prognoz, r – współczynnik korelacji liniowej
między wartościami rzeczywistymi i prognozowanymi w okresie empirycznej weryfikacji prognoz.
Wyboru metody prognozowania dokonuje się w oparciu o analizę ex-post w okresie analizy (okresie
wybranym do testowania przydatności danej metody prognozowania). Analiza ta dotyczy miar
dokładności prognoz, czyli błędów ex-post. Prześledźmy zatem średnie błędy prognoz wygasłych dla
obu szeregów prognoz wygasłych z tabeli 1.2. W tym celu należy wykonać obliczenia błędów
absolutnych (wartości bezwzględnych) oraz błędów względnych, tj. absolutnych liczonych w stosunku
do wartości rzeczywistych (patrz tabela 1.3).
Na podstawie oceny wzrokowej błędów prognoz wygasłych obliczonych dla każdego roku, trudno
określić przydatność danej metody do prognozowania. Należy zatem obliczyć błędy średnie.
Najczęściej wykorzystywane, średnie mierniki oceny dokładności prognoz to:
ME = (1/n)*∑et 1.3
ME określa o ile prognozy są przeciętnie niedoszacowane (kiedy ME>0) lub przeszacowane (ME<0).
ME przyjmuje wartość 0 dla przypadku predykcji nieobciążonej. Dla porównań obciążenia między
różnymi metodami prognozowania, wykorzystuje się względne obciążenie predykcji (czyli ME w
odniesieniu do średniej z prognoz) obliczane z następującej formuły (Zeliaś, Pawełek, Wanat 2003):
Należy zauważyć, że w pakietach komputerowych (np. w programie Gretl) ten miernik jest obliczany
inaczej, bo ze wzoru 1.5:
Określa się go jako średni błąd procentowy i oznacza przeciętny udział bezwzględnego błędu
prognozy w wartości rzeczywistej.
Średni absolutny błąd prognozy - MAE jest średnią arytmetyczną z absolutnych różnic między
wartościami rzeczywistymi i prognozowanymi i obliczany jest zgodnie z formułą 1.6:
Miernik ten określa o ile przeciętnie wartości prognoz odchylały się od wartości rzeczywistych w
okresie empirycznej weryfikacji prognozy (okresie analizy). W analizie ex-post przydatna jest również
znajomość średniego udziału błędu absolutnego w wartości rzeczywistej czyli średni absolutny błąd
procentowy MAPE:
W celu określenia rzędu wielkości tego błędu liczy się jego udział w średniej wartości rzeczywistej
zmiennej, którą prognozujemy:
I2 = ∑(et)2/∑(yt)2 1.10
Pierwiastek błędu 1.10 określa całkowity błąd względny w okresie empirycznej weryfikacji prognozy,
bez względu na jego przyczynę. Stosując odpowiedni rozkład licznika formuły 1.10 można jednak
otrzymać sumę miar informujących o źródle powstawania błędów prognoz:
Część obliczeń miar średnich takich jak ME, MAE i MAPE pokazano już w tabeli 1.3 jako średnie
arytmetyczne z błędów prognoz, z błędów absolutnych i względnych. Należy zauważyć, że w
podanym przykładzie występują dwa okresy empirycznej weryfikacji prognoz. Dla metody pierwszej
jest to okres 2001-2020, bo wtedy można zweryfikować prognozy, a dla metody drugiej jest to okres
2002-2020. Stąd też średnie wartości rzeczywiste, odchylenia standardowe i współczynniki korelacji
obliczone zostały z uwzględnieniem tych okresów.
Analizując miary w tabeli 1.4 można zauważyć, że wszystkie są mniejsze w przypadku prognoz
otrzymanych metodą drugą (z uwzględnieniem trendu). Oznacza to, że w okresie empirycznej
weryfikacji, ta metoda pozwalała na otrzymanie dokładniejszych i mniej obciążonych prognoz.
Analizując dokładniej miary weryfikacji można zauważyć, że otrzymane tą metodą prognozy wygasłe
były przeciętnie niedoszacowywane (świadczą o tym dodatnie wartości ME i MPE), względne
obciążenie predykcji wyniosło 3,5%. Przeciętnie wartości prognoz odchylały się od wartości
rzeczywistych o ok. 9 mld zł wg MAE i ponad 15 mld zł wg RMSE. Przeciętny udział błędów w
wartościach rzeczywistych wyniósł niecałe 7% (wg MAPE), natomiast udział średniego kwadratowego
błędu w średniej wartości rzeczywistej wyniósł 13% (RMSPE). Porównując obie metody, w okresie
testowym (empirycznej weryfikacji prognoz) lepsze wyniki daje metoda druga, uwzględniająca trend.
Jednak średni błąd na poziomie 13% średniej wartości rzeczywistej (RMSPE) nie powinien być
zadawalający. W tym przypadku, przyczyną tego błędu były wydarzenia związane z ograniczeniem
działalności gospodarczej w 2020 roku, których nie bierze się pod uwagę w metodach naiwnych.
Zadanie
Tabela 1.5 zawiera dane dotyczące PKB brutto na jednego mieszkańca w Polsce w zł.
a. Zacznij od wykresu PKB ( w latach 2000-2019) i zastanów się jaki charakter ma jej
przebieg w analizowanym okresie. Czy widać jakieś gwałtowne zmiany, czy może
zjawisko kształtuje się bez wyraźnego trendu? A może widać też trend i jeszcze jakieś
wahania? Jaki mogą mieć charakter – przypadkowy czy sezonowy?
b. Wyznacz prognozę PKB na jednego mieszkańca na rok 2020 za pomocą
odpowiedniej metody naiwnej (błądzenie przypadkowe). Uwaga, w tabeli znajdują
się informacje dla okresu prognozowanego (2020), przyjmij do analiz, że są nieznane.
c. Wykonaj analizę ex-post prognoz wygasłych i oceń przydatność wybranej metody do
prognozowania.
d. Określ dokładność wykonanej na rok 2020 prognozy PKB na jednego mieszkańca.
Literatura
[2] Chilewicz P., Futurologia. Jeszcze nauka czy już wróżbiarstwo? Prof. Kleiber, szef PAN: „Przyszłości
w pełni nie da się przewidzieć” (https://natemat.pl/30651,futurologia-jeszcze-nauka-czy-juz-
wrozbiarstwo-prof-kleiber-szef-pan-przyszlosci-w-pelni-nie-da-sie-przewidziec) [dostęp: lipiec 2022]
[3] Cieślak M. (red.), Prognozowanie gospodarcze. Metody i zastosowania, PWN, Warszawa 2022
[4] Morlidge S., Player S., Future ready. How to master business forecasting, John Willey & Sons Ltd,
Chichester, UK, 2013
[5] Zeliaś A., Pawełek B., Wanat S., Prognozowanie ekonomiczne. Teoria, przykłady, zadania, PWN
Warszawa 2003