You are on page 1of 20

INTERNACIONALNI UNIVERIZITET TRAVNIK

FAKULTET POLITEHNIČKIH NAUKA

STABLA ODLUČIVANJA

SEMINARSKI RAD

Predmet: Vještačka inteligencija

Mentor: Student:
Doc.dr. Muhamed Ćosić Imran Lokmić Broj indeksa: PT-09/18
Travnik, novembar 2021.
SADRŽAJ
1. UVOD..........................................................................................................................................1
2. STABLA ODLUČIVANJA.........................................................................................................2
2.1. Vrste stabla i tehnike kreiranja stabla...................................................................................3
2.1.1 Usporedba metoda..........................................................................................................6
2.2. Algoritmi...............................................................................................................................7
2.2.1. ID3 i C4.5 algoritam......................................................................................................8
2.2.2. CART algoritam............................................................................................................8
3. PREDNOSTI I MANE................................................................................................................9
4. VARIJACIJE STABLA ODLUČIVANJA...............................................................................11
4.1. Zaboravna stabla.................................................................................................................11
4.2. Fuzzy stabla odlučivanja (FDT).........................................................................................11
5. ZAKLJUČAK............................................................................................................................13
6. POPISI.......................................................................................................................................14
7. REFERENCE............................................................................................................................15
1. UVOD

Stabla odlučivanja se smatraju jednim od najpopularnijih pristupa za predstavljanje


klasifikatora. Istraživači iz različitih disciplina kao što su statistika, mašinsko učenje,
prepoznavanje obrazaca i Data Mining bavili su se pitanjem rasta stabla odlučivanja iz dostupnih
podataka.[1] Analiza stabla odlučivanja je opći alat za prediktivno modeliranje koji ima
aplikacije koje se protežu na više različitih područja. Općenito, stabla odlučivanja se konstruiraju
putem algoritamskog pristupa koji identificira načine za podjelu skupa podataka na osnovu
različitih uslova. To je jedna od najčešće korištenih i praktičnih metoda za učenje pod nadzorom.
Stabla odlučivanja su neparametarska metoda učenja pod nadzorom koja se koristi i za zadatke
klasifikacije i za regresijske zadatke. Cilj je stvoriti model koji predviđa vrijednost ciljne
varijable učenjem jednostavnih pravila odlučivanja koja su zaključena iz karakteristika podataka.
Stablo odlučivanja je graf nalik stablu sa čvorovima koji predstavljaju mjesto gdje biramo atribut
i postavljamo pitanje; ivice predstavljaju odgovore na pitanje, a listovi predstavljaju stvarni izlaz
ili oznaku klase. Koriste se u nelinearnom donošenju odluka s jednostavnim linearnim
površinama odlučivanja. Stabla odlučivanja klasifikuju primjere sortirajući ih po stablu od
korijena do nekog lisnog čvora, pri čemu lisni čvor daje klasifikaciju primjeru. Svaki čvor u
stablu djeluje kao test slučaj za neki atribut, a svaka ivica koja se spušta iz tog čvora odgovara
jednom od mogućih odgovora na testni slučaj. Ovaj proces je rekurzivne prirode i ponavlja se za
svako podstablo ukorijenjeno u novim čvorovima. [2]
2. STABLA ODLUČIVANJA

Stablo odlučivanja je struktura koja uključuje korijenski čvor, grane i čvorove lista. Svaki
unutrašnji čvor označava test na atributu, svaka grana označava ishod testa, a svaki listni čvor
sadrži oznaku klase. Najviši čvor u stablu je korijenski čvor. [3]

Godine >= 55?

Poznati
medicinski
Visok problemi
rizik

Visok Nizak
rizik rizik

Dijagram 1: Stablo odlučivanja

Stablo odlučivanja je klasifikator izražen kao rekurzivna particija prostora instance.


Stablo odlučivanja se sastoji od čvorova koji formiraju ukorijenjeno stablo, što znači da je
usmjereno stablo sa čvorom koji se zove “korijen” koji nema dolazne ivice. Svi ostali čvorovi
imaju tačno jednu dolaznu ivicu. Čvor sa izlaznim ivicama naziva se interni ili testni čvor. Svi
ostali čvorovi se nazivaju listovi (također poznati kao terminalni ili čvorovi odluke). U stablu
odlučivanja, svaki unutrašnji čvor dijeli prostor instance na dva ili više podprostora prema
određenoj diskretnoj funkciji vrijednosti ulaznih atributa. U najjednostavnijem i najčešćem
slučaju, svaki test razmatra jedan atribut, tako da je prostor instance podijeljen prema vrijednosti
atributa. U slučaju numeričkih atributa, uvjet se odnosi na raspon. [1]
Dijagram 1. pokazuje običan primjer stabla odlučivanja za procjenu vrijednosti zdravstvenog
osiguranja kod budućeg korisnika. Svaki čvor ima atribut koji testira a svaka grana ima
odgovarajuću vrijednost. U analizi odlučivanja, stablo odlučivanja i blisko povezani dijagram
uticaja se koriste kao vizuelni i analitički alat za podršku odlučivanju, gdje se izračunavaju
očekivane vrijednosti (ili očekivana korisnost) konkurentskih alternativa. Stablo odlučivanja
sastoji se od tri tipa čvorova:

1. Čvorovi odluke – obično predstavljeni kvadratima


2. Čvorovi šansi – obično predstavljeni krugovima
3. Krajnji čvorovi – obično predstavljeni trouglovima

Stabla odlučivanja se obično koriste u operacionim istraživanjima. Ako se u praksi odluke


moraju donositi online bez opoziva pod nepotpunim znanjem, stablo odlučivanja bi trebalo biti
uporedo korišteno sa modelom vjerovatnoće kao modelom najboljeg izbora ili algoritmom
modela online odabira. Druga upotreba stabala odlučivanja je kao deskriptivno sredstvo za
izračunavanje uslovnih vjerovatnoća. Stablo se gradi cijepanjem izvornog skupa, koji čini
korijenski čvor stabla, na podskupove—koji čine potomke nasljednika. Podjela se zasniva na
skupu pravila cijepanja na osnovu karakteristika klasifikacije. Ovaj proces se ponavlja na
svakom izvedenom podskupu na rekurzivni način koji se naziva rekurzivno particioniranje.
Rekurzija je završena kada podskup u čvoru ima sve iste vrijednosti ciljne varijable, ili kada
cijepanje više ne dodaje vrijednost predviđanjima. Ovaj proces indukcije stabala odlučivanja
odozgo prema dolje (top-down) je primjer pohlepnog algoritma i daleko je najčešća strategija za
učenje stabala odlučivanja iz podataka. [4]

2.1. Vrste stabla i tehnike kreiranja stabla

Postoje dvije vrste stabla odlučivanja: stablo klasifikacije i stablo regresije. Analiza
stabla klasifikacije je kada predviđeni rezultat je u klasi kojoj podaci pripadaju. Analiza
regresivnog stabla je kada predviđeni rezultat se može smatrati realnim brojem. Prije svega,
postoje dvije fundamentalne razlike između stabala klasifikacije i regresije. Klasifikaciono stablo
dijeli varijablu odgovora na uglavnom dvije klase, Da ili Ne, također se može numerički
kategorizirati kao 1 ili 0. Stabla regresije se koriste u slučajevima kada je varijabla odgovora ili
kontinuirana ili numerička, ali nije kategorička. Stabla regresije mogu se primijeniti u slučaju
cijena, količina ili podataka koji uključuju količine itd. Stabla regresije i klasifikacije su metode
mašinskog učenja za izgradnju modela predviđanja iz specifičnih skupova podataka. Podaci se
dijele na više blokova rekurzivno i model predviđanja odgovara svakoj od takvih particija
modela predviđanja. Svaka particija predstavlja podatke kao grafičko stablo odlučivanja.
Primarna razlika između klasifikacionih i regresijskih stabala odluka je u tome što su stabla
odluka o klasifikaciji izgrađena sa neuređenim vrijednostima sa zavisnim varijablama. Stabla
odlučivanja o regresiji uzimaju uređene vrijednosti s kontinuiranim vrijednostima. [5]

Postoji više tehnika za sastavljanje i kreiranje stabla. Neke od tehnika su:

 „Boosted“ stabla odlučivanja


 „Boosted aggregated“ (ili „bagged“) stabla odlučivanja
o Slučajna šuma
 Rotirajuća šuma

Metode sastavljanja su metode koje kombinuju nekoliko stabala odluka da bi se proizvele bolje
prediktivne performanse od korištenja jednog stabla odlučivanja. Glavni princip koji stoji iza
modela sastavljanja je da se grupa slabih učenika udruži kako bi formirala jakog učenika.

„Boosted“ tehnika je tehnika mašinskog učenja koja se, između ostalog, koristi u
zadacima regresije i klasifikacije. Ona daje model predviđanja u obliku ansambla slabih modela
predviđanja, koji su tipično stabla odlučivanja. Kada je stablo odlučivanja slabo, rezultujući
algoritam se zove stablo sa gradijentom. Stablo sa gradijentom obično nadmašuje slučajnu šumu.
Model stabla s pojačanim gradijentom je izgrađen na način po fazama kao i u drugim metodama
povećanja, ali generalizira druge metode omogućavajući optimizaciju proizvoljne diferencijalne
funkcije gubitka. U ovoj tehnici, učenici se uče uzastopno s ranim učenicima koji prilagođavaju
jednostavne modele podacima, a zatim analiziraju podatke za greške. Drugim riječima, uklapamo
uzastopna stabla (slučajni uzorak) i na svakom koraku cilj je riješiti neto grešku iz prethodnog
stabla. [6]
„Boosted aggregation“ koja se naziva i bagging, je meta-algoritam ansambla mašinskog
učenja dizajniran da poboljša stabilnost i tačnost algoritama mašinskog učenja koji se koriste u
statističkoj klasifikaciji i regresiji. Također smanjuje varijansu i pomaže u izbjegavanju
prekomjernog uklapanja. Iako se obično primjenjuje na metode stabla odlučivanja, može se
koristiti sa bilo kojom vrstom metoda. Bagging je poseban slučaj pristupa usrednjavanju modela.
Bagging se koristi kada je naš cilj smanjiti varijansu stabla odlučivanja. Ovdje je ideja da se
kreira nekoliko podskupova podataka iz uzoraka za obuku odabranih nasumično sa zamjenom.
Sada se svaka zbirka podataka podskupa koristi za obuku njihovih stabala odlučivanja. Kao
rezultat, dobijamo komplet različitih modela. Koristi se prosjek svih predviđanja iz različitih
stabala koji je robusniji od jednog stabla odluka. Random Forest je proširenje bagging-a.
Potreban je jedan dodatni korak gdje pored uzimanja nasumičnih podskupa podataka, on također
uzima slučajni odabir karakteristika umjesto da koristi sve karakteristike za ansambl stabla. [6]

Rotation Forest je metoda za generiranje ansamble klasifikatora na osnovu ekstrakcije


karakteristika. Da bi se kreirali podaci obuke za osnovni klasifikator, skup karakteristika se
nasumično dijeli na K podskupova (K je parametar algoritma) i na svaki podskup se primjenjuje
analiza glavnih komponenti (PCA). Sve glavne komponente se zadržavaju kako bi se sačuvale
informacije o varijabilnosti u podacima. Stoga se rotacije po K osi odvijaju kako bi se formirale
nove karakteristike za osnovni klasifikator. Ideja rotacionog pristupa je da se istovremeno
podstiče individualna tačnost i raznolikost unutar ansambla. Raznolikost se promoviše kroz
izdvajanje karakteristika za svaki osnovni klasifikator. Ovdje su odabrana stabla odlučivanja jer
su osjetljiva na rotaciju osi karakteristika, pa otuda i naziv "šuma". Preciznost se traži
zadržavanjem svih glavnih komponenti i korištenjem cijelog skupa podataka za obuku svakog
osnovnog klasifikatora.[7]
2.1.1 Usporedba metoda

Slika 1. Usporedba boosted i bagging metode [8]


Kao što vidimo na slici 1. i bagging i boosted metode koriste n-količinu učenika za
treniranje algoritma. Unutar početne faze generiranja podataka, počinje nasumično zamjenjivanje
uzoraka, ali kod boosted metode generisani podaci se uzimaju u obzir. U Boosting algoritmima
svaki klasifikator se obučava na podacima, uzimajući u obzir uspjeh prethodnih klasifikatora.
Nakon svakog koraka treninga, težine se redistribuiraju. Pogrešno klasifikovani podaci
povećavaju svoju težinu kako bi naglasili najteže slučajeve. Na ovaj način će se budući učenici
fokusirati na njih tokom obuke. Da bismo predvidjeli klasu novih podataka, potrebno je samo
primijeniti N učenika na nova zapažanja. U Baggingu rezultat se dobija usrednjavanjem
odgovora N učenika (ili većinskog glasa). Međutim, Boosting uzima u obzir odvagani prosjek,
ovog puta za N klasifikatore, kako bi uzeo odvagani prosjek njihovih procjena. Bagging i
Boosting smanjuju varijansu vaše pojedinačne procjene jer kombinuju nekoliko procjena iz
različitih modela. Dakle, rezultat može biti model sa većom stabilnošću. Ako je problem u tome
što pojedinačni model ima vrlo niske performanse, Bagging će rijetko dobiti bolju predrasudu.
Međutim, Boosting bi mogao generirati kombinirani model s manjim greškama jer optimizira
prednosti i smanjuje zamke pojedinačnog modela. Nasuprot tome, ako je težina pojedinačnog
modela prevelika, onda je bagging najbolja opcija. Boosting sa svoje strane ne pomaže da se
izbjegne pretjerano uklapanje; u stvari, ova tehnika se suočava sa ovim problemom. Iz tog
razloga, Bagging je efikasniji češće od Boostinga. Sve u svemu, oba algoritma imaju skup
učenika iz kojih nasumično uzimaju uzorke, ali boosting dodatno odmjerava podatke kod
generisanih podataka od uzoraka. Oba algoritma uzmaju prosjek učenika, mada boosting uzima
ponderisan prosjek, ali oba algoritma povećavaju stabilnost i smanjuju varijacije. [8]

2.2. Algoritmi

Od poznatijih algoritama imamo:

 ID3 i C4.5
 CART
 CHAID
 MARS
2.2.1. ID3 i C4.5 algoritam

ID3 algoritam počinje s originalnim skupom S kao korijenskim čvorom. Na svakoj


iteraciji algoritma iterira kroz svaki neiskorišteni atribut skupa S i izračunava entropiju H(S) ili
informacijski dobitak IG(S) tog atributa. Zatim bira atribut koji ima najmanju vrijednost
entropije (ili najvećeg dobitka informacija). Skup S se zatim dijeli ili particionira odabranim
atributom kako bi se proizveli podskupovi podataka. (Na primjer, čvor se može podijeliti na
čvorove podređene na osnovu podskupova populacije čija je starost manja od 50, između 50 i
100 i veća od 100.) Algoritam nastavlja da se ponavlja na svakom podskupu, uzimajući u obzir
samo atribute koje nisu ranije odabrani. ID3 je preteča C4.5 algoritma i obično se koristi u
domenima mašinskog učenja i obrade prirodnog jezika.[9] C4.5 gradi stabla odlučivanja iz skupa
podataka za obuku na isti način kao ID3, koristeći koncept entropije informacija. Podaci o obuci
su skup S = s1,s2,... već klasificiranih uzoraka. Svaki uzorak si sastoji se od p-dimenzionalnog
vektora (x1,i,x2,i,...,xp,i), gdje xj predstavlja vrijednosti atributa ili karakteristike uzorka, kao i
klasu u koju spada si. U svakom čvoru stabla, C4.5 bira atribut podataka koji najefikasnije dijeli
njegov skup uzoraka u podskupove obogaćene jednom ili drugom klasom. Kriterijum cijepanja
je normalizirani dobitak informacija (razlika u entropiji). Za donošenje odluke bira se atribut s
najvećim normaliziranim dobitkom informacija. C4.5 algoritam se zatim ponavlja na
particioniranim podlistama.[10]

2.2.2. CART algoritam

Algoritam stabala klasifikacije i regresije (CART) je klasifikacioni algoritam za izgradnju


stabla odlučivanja zasnovanog na Ginijevom indeksu nečistoće kao kriterijumu dijeljenja. CART
je binarno stablo izgrađeno uzastopnim dijeljenjem čvorova na dva podređena čvora. Počinje sa
skupom za obuku kao korijenski čvor, nakon uspješnog dijeljenja korijenskog čvora na dva, on
dijeli podskupove koristeći istu logiku i ponovo dijeli podskupove, rekurzivno dok ne utvrdi da
daljnje cijepanje neće dati nikakve čiste pod-čvorove ili maksimalan broj listova u rastućem
drvetu.[11] Važna karakteristika CART-a je njegova sposobnost da generiše regresijska stabla.
Regresijska stabla su stabla gdje njihovo lišće predviđa pravi broj, a ne klasu. U slučaju regresije,
CART traži podjele koje minimiziraju grešku predviđanja na kvadrat (najmanje kvadratno
odstupanje). Predviđanje u svakom listu je zasnovano na ponderisanoj srednjoj vrednosti za čvor.
[1]
3. PREDNOSTI I MANE

Nekoliko prednosti stabla odlučivanja kao alata za klasifikaciju:

1. Stabla odlučivanja su sama po sebi razumljiva i kada su zbijena lako ih je pratiti. Drugim
riječima, ako drvo odlučivanja ima razuman broj listova, neprofesionalni korisnici ga
mogu shvatiti. Nadalje, stabla odlučivanja mogu se pretvoriti u skup pravila. Stoga se
ovaj prikaz smatra razumljivim.

2. Stabla odlučivanja mogu rukovati i nominalnim i numeričkim ulaznim atributima.

3. Reprezentacija stabla odluka je dovoljno bogata da predstavlja bilo koji klasifikator


diskretnih vrijednosti.

4. Stabla odlučivanja su sposobna za rukovanje skupovima podataka koji mogu imati


greške.

5. Stabla odlučivanja su sposobna za rukovanje skupovima podataka koji mogu imati


vrijednosti koje nedostaju.

6. Stabla odlučivanja smatraju se neparametarskom metodom. To znači da stabla


odlučivanja nemaju pretpostavke o prostornoj distribuciji i strukturi klasifikatora.[1]

S druge strane, stabla odlučivanja imaju nedostatke kao što su:

1. Većina algoritama (poput ID3 i C4.5) zahtijevaju da ciljni atribut ima samo diskretne
vrijednosti.
2. Kako stabla odlučivanja koriste metodu „zavadi pa vladaj“, ona imaju tendenciju da rade
dobro ako postoji nekoliko veoma relevantnih atributa, ali manje ako je prisutno mnogo
složenih interakcija. Jedan od razloga za to je taj što drugi klasifikatori mogu kompaktno
opisati klasifikator koji bi bilo vrlo teško predstaviti korištenjem stabla odlučivanja.
Budući da većina stabala odlučivanja dijeli prostor instance na međusobno isključive
regije kako bi predstavljala koncept, u nekim slučajevima stablo bi trebalo sadržavati
nekoliko duplikata istog podstabla kako bi predstavljalo klasifikator.

3. Pohlepna karakteristika stabala odlučivanja dovodi do još jednog nedostatka koji treba
istaći. To je njegova preosjetljivost na set za obuku, na nebitne atribute i na buku.[1]
4. VARIJACIJE STABLA ODLUČIVANJA

4.1. Zaboravna stabla

Stablo zaborava je stablo odluka koje se uzgaja simetrično. Ovo su stabla za koje su iste
karakteristike odgovorne za podjelu instanci učenja na lijevu i desnu particiju za svaki nivo
stabla. Zaboravna stabla su posebno zanimljiva jer se mogu svesti na tabelu odlučivanja sa 2 d
ćelija, gdje je d dubina stabla. Ovo prilično uredno pojednostavljuje stvari. Svako zaboravno
stablo odluka (ODT) daje jedan od 2d odgovora, gdje je d dubina stabla. Ovo se radi upotrebom d
kombinacija obilježja-prag, koje su parametri ODT-a.[12]

Slika 2. Primjer ODT-a[12]

4.2. Fuzzy stabla odlučivanja (FDT)

Razvijen je metod indukcije fazi stabla odlučivanja, koji se zasniva na smanjenju


dvosmislenosti klasifikacije nejasnim dokazima. Nejasna stabla odluka predstavljaju
klasifikaciono znanje prirodnije za način ljudskog razmišljanja i robusnije su u tolerisanju
nepreciznih, konfliktnih i informacija koje nedostaju. Stabla nejasnih odluka (FDT) imaju koristi
od pristupa induktivnog učenja koji podupire njihovu konstrukciju, kako bi pomogla u
klasifikaciji objekata na osnovu njihovih vrijednosti u odnosu na različite atribute. Njihova
konstrukcija u nejasnom okruženju omogućava ublažavanje potencijalnih kritičnih efekata
nepreciznosti, kao i donosi koristan nivo interpretabilnosti pronađenih rezultata, kroz definisana
pravila odlučivanja.[13]

Slika 3. Primjer FDT-a[13]


5. ZAKLJUČAK

Stabla odlučivanja su česta i jednostavna metoda za prediktivno modeliranje podataka u


raznim poljima nauke. Koriste stabla kao prediktivan model koji uz pomoć diskretnog seta
vrijednosti donosi odluke i klasificira podatke na različite grane. Kao model odluke dosta je
lagan za koristiti i intrepretirati. Dosta je skalabilan model i ne zahtijeva dosta podatkovne
normalizacije. Problem kod stabla za odlučivanje dolazi kada imamo složene interakcije između
atributa i njihovih vrijednosti, gdje bi trebalo biti više preklapajućih grana da bi se model tačno
opisao. Još jedan problem se pronalazi kada se koriste popularni ID3 i C4.5 algoritmi, naime
algoritmi dozvoljavaju samo diskretne vrijednosti. U poređenju sa regresivnom logistikom,
algoritmi stabla odlučivanja su ostali kratki u preciznosti klasifikacije podataka. U radu (Li, S.,
Zeng, S., & Wu, J. 2021.) regresivna logistika je imala značajnu prednost u odnostu na CART
algoritam i slučajnu šumu. Razlika između stabla odlučivanja i logističke regresije je u tome što
stabla odlučivanja dijele prostor na sve manje i manje regije, dok logistička regresija uklapa
jednu liniju kako bi prostor podijelio tačno na dva. Prednost stabla odlučivanja nad logističkom
regresijom je u jednostavnosti i preglednosti podataka. Ove dvije metode prediktivnog
modeliranja pokazuju koliko je bitno iskoristiti pravi alat za odgovarajuću situaciju.
6. POPISI

Dijagram 1: Stablo odlučivanja......................................................................................................2


Y
Slika 1. Usporedba boosted i bagging metode [8]..........................................................................6
Slika 2. Primjer ODT-a[12]..........................................................................................................11
Slika 3. Primjer FDT-a[13]...........................................................................................................12
7. REFERENCE

[1] Rokach, L., & Maimon, O. (2013). Data mining with decision trees. Series in Machine
Perception and Artificial Intelligence, 165–192. https://doi.org/10.1142/9097

[2] Shubham. (2019, July 9). Decision tree tutorials & notes: Machine learning. HackerEarth.
Pristupljeno: 11 Novembra,, 2021,
https://www.hackerearth.com/practice/machine-learning/machine-learning-algorithms/ml-
decision-tree/tutorial/.

[3] Tutorialspoint. (2021). Data Mining - Decision Tree Induction. Pristupljeno: 22 Novembra,
2021, https://www.tutorialspoint.com/data_mining/dm_dti.htm.

[4] Shalev-Shwartz, S., &; Ben-David, S. (2019). Understanding machine learning: From theory
to algorithms. Cambridge University Press.

[5] Pulipaka, D. G. P. (2016, June 6). An essential guide to classification and regression trees in
R language. Medium. Pristupljeno 25 Novembra,, 2021, https://medium.com/@gp_pulipaka/an-
essential-guide-to-classification-and-regression-trees-in-r-language-4ced657d176b.

[6] Nagpal, A. (2017, October 18). Decision tree ensembles- bagging and boosting. Medium.
Pristupljeno 25 Novembra,, 2021, https://towardsdatascience.com/decision-tree-ensembles-
bagging-and-boosting-266a8ba60fd9.

[7] Chakraborty, S. (2018, March 9). Random to "rotation forest": A new classifier ensemble
method. LinkedIn. Pristupljeno 25 Novembra, 2021, https://www.linkedin.com/pulse/random-
rotation-forest-new-classifier-ensemble-method-chakraborty.

[8] What is the difference between bagging and boosting? Quantdare. Quantdare. (2020,
November 3). Pristupljeno 25 Novembra, 2021, https://quantdare.com/what-is-the-difference-
between-bagging-and-boosting/.
[9] Xiaohu, W., Lele, W., & Nianfeng, L. (2012). An application of decision tree based on
ID3. Physics Procedia, 25, 1017–1021. https://doi.org/10.1016/j.phpro.2012.03.193

[10] Wang, X., Zhou, C., & Xu, X. (2019). Application of C4.5 decision tree for scholarship
evaluations. Procedia Computer Science, 151, 179–184.
https://doi.org/10.1016/j.procs.2019.04.027

[11] Deepankar. (2021, April 22). Decision trees with CART algorithm. Medium. Pristupljeno 29
Novembra, 2021,
https://medium.com/geekculture/decision-trees-with-cart-algorithm-7e179acee8ff.

[12] Joseph, M. (2021, February 25). Neural oblivious decision ensembles(node) – a state-of-the-
art deep learning algorithm for Tabular Data. Deep & Shallow. Pristupljeno 29 Novembra,
2021,
https://deep-and-shallow.com/2021/02/25/neural-oblivious-decision-ensemblesnode-a-state-of-
the-art-deep-learning-algorithm-for-tabular-data/

[13] Fuzzy decision trees (artificial intelligence). whatwhenhow RSS. (2013, June 15).
Pristupljeno 29 Novembar, 2021,
http://what-when-how.com/artificial-intelligence/fuzzy-decision-trees-artificial-intelligence/.

[14] Li, S., Zeng, S., & Wu, J. (2021). A Comparison Analysis on Decision Tree Algorithms.
Boston University.

You might also like