You are on page 1of 13

1.

Metodat klasike ndahen në dy klasa:


a) Algoritme që vlerësojnë vetëm zgjidhje të plota (Kërkimi i plotë)
b) Algoritme që konsistojnë në vlerësimin e pjesshëm të zgjidhjeve ose
zgjidhjeve të përafërta

2. Kërkimi i plotë (exhaustive)


a) Kontrollon çdo zgjidhje në hapësirën e kërkimit derisa të gjendet zgjidhja më e mirë globale
b) Mund të përdoret vetëm për raste të vogla të problemeve
c) Algoritmet e enumerative (exhaustive) janë të thjeshta
d) Hapësira e kërkimit mund të reduktohet duke u kthyer prapa në kërkim. Disa metoda optimizimi,
p.sh., branch and bound dhe A * janë të bazuara në kërkim të plotë (exhaustive)
3. Si mund t’i gjenerojmë sekuencat për çdo zgjidhje të mundshme për problemin exhaustive te
kerkimi plote?
a) Rendi në të cilin është gjeneruar zgjidhja është e parëndësishme
b) Varet nga reprezentimi i përzgjedhur

4. Strategjitë e painformuara të kërkimit


a) Breadth first search
b) Depth first search
c) Depth limited search
d) Iterative deepening search

5. Breadth First Search


Eshte nje algoritem per kerkimin e nje structure te te dhenave per nje nyje qe ploteson nje veqori te
caktuar, fillon ne rrenjen e pemes dhe eksploron te gjitha nyjet thelle perpara se te kaloj ne nyjet tjera.
Nyja më e cekët e pazgjeruar zgjerohet së pari
Performanca e breadth first search:
a) Komplete nëse b është e fundme
b) Optimal nëse kosto e secilit hap është 1
c) Koha: 1 + b + b2 + … + bd = (bd+1-1)/(b-1) = O(bd )
d) Hapësira: O(bd )
6. Performanca e depth first search:
a) Komplete nëse kërkimi në pemë është i fundëm
b) Jo-Optimal
c) Koha: 1 + b + b2 + … + bm = O(bm)
d) Hapësira: O(bm)

7. Depth - limited search


Eshte nje algoritem i ri i kerkimit per kerkim te painformuar, problem i kesaj ndodh qe shfaqet ne algoritmin e kerkimit fillimisht dhe mund mund te
rregullohet duke vendosur nje kufi ne thellesine e domenit te kerkimit.
a) Depth first search me kufirin e thellësisë L, Nyjet në thellësinë L nuk zgjerohen
b) Eliminon problemin me infinit path
c) Si të zgjidhet L?
d) Dështimet e mundshme: Nuk ka zgjidhje, Ndërprerje - nuk ka zgjidhje brenda limitit të thellësisë L

8. Iterative deepening depth first search


Kerkimi i thelluar i perseritur ne fillim eshte nje metode e kerkimit te hapesires/grafikut se gjendjes ne te cilen nje version I kufizuar ne thellesi te pare
ekzekutohet ne menyre te perseritur derisa te gjendet qellimi.
a) Përsërit depth-limited search për L=1, 2, 3, …
Vetitë e iterative deepening depth first search:
a) Komplet
b) Optimal nëse kosto e secilit hap është 1
c) Koha: O(bd): (d+1)(1) + db + (d-1)b2 + … + (1) b d
d) Hapësira: O(bd)
9. Strategjitë e informuara (Informed) të kërkimit
a) Best-first search
b) A* search
c) Heuristics

10. Best-first search


Nje teknike qe vendos se cila nyje do te vizitohet me pas duke kontrolluar se cila nyje eshte me premtuese dhe me e
pas e kontrollon ate per kete perdor nje funksion vleresues per ta vendosur kalimin tutje.
Idea: përdorimi i një funksioni të vlerësimit (evaluation function) për çdo nyje. Vlerësimi i dëshirueshmërisë
• Zgjerimi i nyjes (ende të pazgjeruar) më të dëshirueshme
• Raste të veçanta: Greedy Search, A* search

11. Vetitë e greedy search


a) Komplet – jo, mund të ngecë në loop, e.g., Iasi - Neamt - Iasi - Neamt. Mund të jetë komplet në hapësirë kërkimi të fundme,
nëse evitohen gjendjet e vizituara
b) Koha - O(b m), por me një heuristic të mire mund të arrihen përmirësime dramatike
c) Hapësira - O(b m), i mban të gjitha nyjet në memorie
d) Optimal - jo
12. A* search
a) Idea: evitoni nyjet që tashmë janë të shtrenjta (kosto të lartë)
b) Funksioni i vlerësimit (evaluation function) – f(n) = g(n) + h(n)
• g(n) – kosto nga fillimi deri tek nyja n
• h(n) – kosto e vlerësuar nga n deri në destinacion
• f(n) – kosto e vlerësuar totale e path-it nëpër n deri në destinacion
c) A* search përdorë heuristic të pranueshme
d) Teoremë: A* search është optimal

Vetite A* :
a) Komplet – po, vetëm nëse mund të ketë pambarim shumë nyje me f ≤ f(G)
b) Koha – eksponenciale në [gabimi relative në h x gjatësia e zgjidhjes]
c) Hapësira - i mban të gjitha nyjet në memorie
d) Optimal – po, nuk mund ta zgjerojë f i+1 pa e zgjeruar f i A* i zgjeron të gjitha nyjet me f(n) < C*
e) A* i zgjeron disa nyje me f(n) = C*
f) A* nuk e zgjeron asnjë nyje me f(n) > C*
13. CSP:
Eshte procesi i gjetjes se nje zgjidhje permes nje grupi kufizimesh qe imponojne kushte
qe variablat duhet te plotesojne.
• Gjendja përcaktohet nga variablat Xi me vlera nga domeni Di
• Qëllimi final (goal test) është një grup kufizimesh (constraints) që specifikojnë kombinimet e lejueshme
të vlerave të variablave
• Lejon algoritme të dobishme me qëllim të përgjithshëm më të dobishme sesa algoritmet e kërkimit
standard
• Veti e veçantë e CSP-ve: janë komutative

14. Llojet e CSP-ve?


Teknikat me te perdorura jane: backtracking, constraint propagation, local search.

15. Shumëllojshmëritë e constraints-ave


• Unare – constraints-a që implikojnë një variabël, p.sh. SA ≠ green
• Binare – constraints-a që implikojnë një çift variablash, p.sh. SA ≠ WA
• Constraints-a të rendit të lartë që implikojnë tre e më shumë variabla, p.sh. SA ≠ NT ≠ WA
16. Pse është SAT problemi me rëndësi?
• Rëndësia teorike:
-Problemi i parë NP-complete (Cook, 1971)
• Shumë aplikime praktike: Model Checking, Automatic Test Pattern Generation, Planning in AI , Software
Verification.

17. Intelengjenca Artificiale


Merret me inteligjencën e makinave
- sistem që percepton mjedisin e tij dhe ndërmerr veprimetë cilat maksimizojnë shanset e tij për sukses– shkenca
dhe inxhinieria e prodhimit të makinave inteligjente

•Zonat/problemet e AI:
-Deduksioni, arsyetimi, zgjidhja e problemit
–Përfaqësimi i njohurive (arsyetimi)
– Planifikimi ,
– Machine learning
– Përpunimi i gjuhës
18.Regresioni përpiqet të parashikojë një të vazhdueshmee ndryshueshme
– P.sh. temperatura, në varësi të reshjeve,era, lageshtia...
– p.sh. me regresion linear– të mbuluara në leksionet e statistikave
• Ne konsiderojmë vetëm variabla kategorikë
– Prodhimi kategorik -> klasifikimi

19.kNN-fqinji më i afërt
-Algoritëm i thjeshtë, por i njohur
-Klasifikimi i inputeve bazuar në k trajnimin më të afërt, shembull:
– k për t'u zgjedhur, ndikim i lartë

20. Decision Trees:


Ekzaminon të dhënat në secilën nyje
– Nëse jo të gjithë nga e njëjta klasë
• Ndani në dy nënhapësira
• Llogaritni ndarjen më të mirë bazuar në një masë
• Derisa të gjitha nyjet të jenë të pastra

• Masat për të llogaritur ndarjen më të mire në Decision Trees:


- Error rate
- Information gain
- Gini Index
21. Error rate
– Thjesht numëroni numrin e klasifikimit gabime gjatë kryerjes së një ndarjeje
– Sa më i ulët të jetë gabimi, aq më mir

22. Information Gain


- Eshtë sasia me të cilën mundet Entropia origjinale të reduktohet duke u ndarë në nënbashkësi
- maksimumi aq i madh sa Entropia e origjinalit vendosur
- të paktën zero (nëse Entropia nuk zvogëlohet)

23. Gini Index


Perdoret per te treguar pabarazine e nje kombi psh. Sa me e madhe te jete vlera e indeksit aq me e larte do te ishte
pabarazia
• Nëse dataset-i D përmban rekorde të n klasave, nëse dataset-i D është i ndarë në dy subset-e D1 dhe D2 me
madhësi N1 dhe N2 , atëherë gini index i ndarjes definohet si: gini_ndarjes(D) = (N1 /N) gini(D1 ) + (N2 /N) gini(D2 )
Atributi me gini_ndarjes(D) minimal është i përzgjedhuri i radhës si nyje në pemën e vendimeve
24. Metodat mësimit të makinës
• Eager Learning -> Trajnojnë një model paraprakisht për të përgjithësuar të dhënat e trajnimit dhe për ta përdorur atë për parashikimet e ardhshme

• Instance-based Learning (“Lazy” learning)


• Learning = nuk bën fare trajnim kur ipen të dhënat e trajnimit

• Classification= aplikohet direkt kur ipet rekordi i ri, në bazë të konceptit të fqinjësisë më të afërt

25. Algoritmi KNN


• Eshtë një nga algoritmat më të thjeshtë të klasifikimit
• Nuk bën ndonjë supozim paraprak mbi shpërndarjen e të dhënave
• Algoritmi i KNN bazohet në ngjashmërinë e tipareve të rekordeve
• Se sa shumë tiparet e rekordit të ri i ngjajnë grupit tonë të trajnimit përcakton se si klasifikojmë një pikë të dhënë të dhënë

Vetitë:
• Të gjitha instancat korrespondojnë me një hapësirë Euklidiane ndimensionale
• Klasifikimi nuk realizohet derisa të jetë në dispozicion rekordi i ri
• Klasifikimi realizohet duke e indetifikuar “ngjajshmërinë” e rekordit të ri me “fqinjët” (instancat) më të afërt
• Mund të parashikojë vlera kategorike apo numerike (regression)

26.Lazy learning algoritmi


- nuk ka fazë të direkte të trajnimit
- Mungesa e gjeneralizimit do të thotë që KNN mban të gjitha të dhënat e trajnimit
27. Cross validation
Eshtë një teknikë për vlerësimin e një modeli të mësimit të makinës dhe testimin e performancës së tij, përdoret zakonisht në
detyrat e aplikuara të ML. Ndihmon për të krahasuar dhe zgjedhur një model të përshtatshëm për problemin specifik të
modelimit parashikues. Eshtë e lehtë për t'u kuptuar, e lehtë për t'u zbatuar dhe ka tendencë të ketë një paragjykim më të ulët
se metodat e tjera të përdorura për të numëruar rezultatet e efikasitetit të modelit. E gjithë kjo e bën Cross validation një mjet
të fuqishëm për zgjedhjen e modelit më të mirë për detyrën specifike.

28. Unsupervised Learning “mësim i pavëzhguar” ose “mësimi pa mësues”


zakonisht asociohet me idenë e përdorimit të një grumbulli observimesh X1,…,Xn, e marrë si mostër nga shpërndarja p(X) për të
përshkruar vetitë e p(X)
• Në praktikë, ky term i referohet në mënyrë universale:
- Association Rule Discovery: një teknikë për data mining e cila gjenë grumbuj të atributeve (apo thënë më mirë vlera të
atributeve) të cilat zakonisht paraqiten së bashku në observime
- Clustering: procedurave të cilat i identifikojnë “grupet” tek të dhënat
Algoritmet: Apriori (itemsets), FP-Growth (frequent-pattern trees) bejnë pjese.

29. Algoritmi Apriori


Një qasje inovative për gjetjen e asociacioneve në sasi të mëdha të të dhënave
Me ndihmën e këtij algoritmi gjenerohen sete të artikujve (itemsets) që paraqiten më së shpeshti së bashku. Këto sete janë të
gjeneruara duke u bazuar në pragun më të ulët të mbështetjes (minimum support)
• Apriori punon në bazë të principit si: Nëse një itemset është frequent (që paraqitet shpesh), atëherë të gjitha nënsetet e atij
itemseti duhet të jenë frequent. Rrjedhimisht edhe e kundërta, nese një itemset nuk është frequent atëherë edhe supersetet e
tij nuk do të jenë frequent.
30. Constraints
Pothuajse të gjitha problemet praktike paraqesin dy lloje kufizimesh:
• Kufizime të vështira (Hard constraints) - Eshte nje kufizim qe duhet te plotesohet nga qdo zgjidhje e mundshme per modelin.
• Kufizime të buta (Soft constraints)  Per te specifikuar vlerat e paracaktuara dhe per variabla te rastit.
Shembull: Orari i klasave në një kolegj, në një semester
Na jepet:
-Lista e kurseve që ofrohen
-Lista e nxënësve të caktuar për secilën klasë
-Profesorët e caktuar për çdo klasë
-Lista e klasave në dispozicion dhe informacioni për madhësinë e tyre

Hard constraints per kete shembull janë:


• Çdo klasë duhet të caktohet në një klase të disponueshme që ka vende të mjaftueshme dhe lehtësira të nevojshme
• Studentët të cilët janë të regjistruar në më shumë se një klasë nuk mund t’i mbajnë orët e tyre në të njëjtën kohë, në të njëjtën ditë
• Profesorët nuk mund të caktohen për të mësuar lëndë që mbahen në të njëjëtën kohë

Kufizimet e buta (soft constraints):


• Kurse që mbahen dy herë në javë duhet të caktohen në mënyrë të përshtatshme, për të hënën dhe të mërkurën ose të martën dhe enjteve
• Kurset që mbahen tri herë në javë duhet të jenë të preferuara të caktohen të hënën, të mërkurën dhe të premten
• Koha e kursit duhet të caktohet në mënyrë që nxënësit të mos bëjnë provime përfundimtare të shumëfishta pa asnjë pushim në mes
• Nëse më shumë se një dhomë i plotëson kërkesat për një kurs dhe është në dispozicion në kohën e caktuar, kursi duhet të caktohet në dhomë
me kapacitetin që është më të afërt me madhësinë e klasës
32.Algoritmi OneR
Eshte nje algoritem i thjeshte, por i sakte, klasifikimi qe gjeneron nje rregull per cdo
parashikues ne te dhena me pas zgjedh rregullin me gabimin me te vogel ne total si
“nje rregull” (One rule).

33. Decision Tree - Regression


Ndërton modele regresioni ose klasifikimi në formën e një strukture peme
Decision Tree – zbërthen nje dataset në subset-e më të vogla dhe më të vogla, ndërsa në të
njëjtën kohë një decision tree shoqëruese zhvillohet në mënyrë graduale
• Rezultati përfundimtar është një pemë me nyjet e vendimit dhe nyjet e gjetheve
• Nyja më e lartë e vendimit në një pemë korrespondon me parashikuesin më të mirë të quajtur
nyja rrënjë

34. Naïve Bayes


Quhet nje algoritem klasifikues probabilist, i cili bazohet ne modelet e probabilitetit qe perfshijne
supozime te forta dhe shpeshhere keto nuk kane ndikim ne realitet prandaj konsiderohet si naivë

You might also like