You are on page 1of 10

Final Assessment (2019-2020) Cover sheet

First Trial (Round)

College Name:College of Course /Module Title:


Engineering / Science Ar ficial intelligence

Department name: Computer Delivery mode: Annual ☐ Semester ☐ Bologna ☐


Science

Student full name: Project tle (Depth First Search,Best-First Search,Self


Aland Hadi Organizing Map):

Year: 1☐ 2☐ 3☐ 4 ☐ 5☐

Student gmail: Lecturer Name: Mr.mohamed Blalkit


aland.10451377@gmail.com

I declare that the work contained Lecturer (marker) comment :


in this submission is my own work,
and has not been taken from the
work of others.

Project
Mark /Result:

Student signature:

Lecturer’s Signature:
Date:

Date : 18/6/2020

Head of Department name and signature :

Exam Board signature / stamp :


(Depth First Search,Best First Search,Self Organizing 
Map)

By:Aland Hadi
To:Mr.mohamed Blalkit

1. Introduction..........................3 4
2. Photos and examples......................5 6 7
3. Applications....................8 9
4. Advantages ..................9
5. Disadvantage.................9 10
1. Introduction 

Depth First Search:

Depth-first search (DFS) is an algorithm for traversing or searching tree or 
graph data structures. The algorithm starts at the root node (selecting some 
arbitrary node as the root node in the case of a graph) and explores as far as 
possible along each branch before backtracking.

● DFS may not end in unlimited search space.
● M DFS may not find the shortest path to the goal.
● DFS needs space (memory).

Best-First Search:

Best-first search is a search algorithm which explores a graph by expanding the 
most promising node chosen according to a specified rule.
Judea Pearl described best-first search as estimating the promise of node n by a 
heuristic evaluation function f(n) which, in general, may depend on the 
description of n, the description of the goal, the information gathered by the 
search up to that point, and most important, on any extra knowledge about the 
problem domain.
Greedy BFS:
Using a greedy algorithm, expand the first successor of the parent. After a 
successor is generated:

1.If the successor's heuristic is better than its parent, the successor is set at the 
front of the queue (with the parent reinserted directly behind it), and the loop 
restarts.

2.Else, the successor is inserted into the queue (in a location determined by its 
heuristic value). The procedure will evaluate the remaining successors (if any) 
of the parent.

Self organizing map:

A self-organizing map (SOM) or self-organizing feature map (SOFM) is a type 
of artificial neural network (ANN) that is trained using unsupervised learning to 
produce a low-dimensional (typically two-dimensional), discretized 
representation of the input space of the training samples, called a map, and is 
therefore a method to do dimensionality reduction. Self-organizing maps differ 
from other artificial neural networks as they apply competitive learning as 
opposed to error-correction learning (such as backpropagation with gradient 
descent), and in the sense that they use a neighborhood function to preserve the 
topological properties of the input space.
2. Photos and examples
Depth First Search:

In depth-first search, once we start down a path, we don’t stop until we get to 
the end. In other words, we traverse through one branch of a tree until we get to 
a leaf, and then we work our way back to the trunk of the tree.

Best-First Search:
We start from source "S" and search for goal "I" using given costs and Best 
First search. pq initially contains S We remove s from and process unvisited 
neighbors of S to pq. pq now contains {A, C, B} (C is put before B because C 
has lesser cost) We remove A from pq and process unvisited neighbors of A to 
pq. pq now contains {C, B, E, D} We remove C from pq and process unvisited 
neighbors of C to pq. pq now contains {B, H, E, D} We remove B from pq and 
process unvisited neighbors of B to pq. pq now contains {H, E, D, F, G} We 
remove H from pq.  Since our goal "I" is a neighbor of H, we return.

Self organizing map:
Self organizing map (SOM) of Fisher's Iris Flower Data Set with U-Matrix. Top 
left: a color image formed by the first three dimensions of the four-dimensional 
SOM weight vectors. Top Right: a pseudo-color image of the magnitude of the 
SOM weight vectors. Bottom Left: a U-Matrix (Euclidean distance between 
weight vectors of neighboring cells) of the SOM. Bottom Right: An overlay of 
data points (red: I. setosa, green: I. versicolor and blue: I. virginica) on the 
U-Matrix based on the minimum Euclidean distance between data vectors and 
SOM weight vectors.
3. Applications
Depth First Search:
1) For a weighted graph, DFS traversal of the graph produces the minimum 
spanning tree and all pair shortest path tree.
2) Detecting cycle in a graph,A graph has cycle if and only if we see a back 
edge during DFS. So we can run DFS for the graph and check for back edges
3) Path Finding,We can specialize the DFS algorithm to find a path between 
two given vertices u and z.
4) Topological Sorting,Topological Sorting is mainly used for scheduling jobs 
from the given dependencies among jobs.
5) Solving puzzles with only one solution, such as mazes.

Best-First Search:
Best-first search and its more advanced variants have been used in such 
applications as games and web crawlers. In a web crawler, each web page is 
treated as a node, and all the hyperlinks on the page are treated as unvisited 
successor nodes. A crawler that uses best-first search generally uses an 
evaluation function that assigns priority to links based on how closely the 
contents of their parent page resemble the search query (Menczer, Pant, Ruiz, 
and Srinivasan, 2001). In games, best-first search may be used as a path-finding 
algorithm for game characters. For example, it could be used by an enemy agent 
to find the location of the player in the game world. Some games divide up the 
terrain into “tiles” which can either be blocked or unblocked. In such cases, the 
search algorithm treats each tile as a node, with the neighbouring unblocked 
tiles being successor nodes, and the goal node being the destination tile 
(Koenig, 2004).

Self organizing map:
1) Project prioritization and selection.
2) Seismic facies analysis for oil and gas exploration.
3) Failure mode and effects analysis.
4) Creation of artwork.

4. Advantages 
Depth First Search:
DFS consumes very less memory space. It will reach at the goal node in a less 
time period than BFS if it traverses in a right path. It may find a solution 
without examining much of search because we may get the desired solution in 
the very first go.

Best-First Search:
1) Best first search can switch between BFS and DFS by gaining the advantages 
of both the algorithms.
2) This algorithm is more efficient than BFS and DFS algorithms.

Self organizing map:
The main advantage of using a SOM is that the data is easily interpretted and 
understood. The reduction of dimensionality and grid clustering makes it easy 
to observe similarities in the data.

5. Disadvantages
Depth First Search:
1)The disadvantage of Depth-First Search is that there is a possibility that it 
may go down the left-most path forever.
2) Depth-First Search is not guaranteed to find the solution.
3) And there is no guarantee to find a minimal solution, if more than one 
solution exists.

Best-First Search:
1)It can behave as an unguided depth-first search in the worst case scenario.
2)It can get stuck in a loop as DFS.
3)This algorithm is not optimal.

Self organizing map:
1) Once the learning process is over, if the input distribution moves, the map 
will start misclassifying new input data as a result of its static nature.
2) Because the original neuronal weights are initialized randomly two 
independent experimenters can produce completely different maps.
3) The SOM will not necessarily produce a grouping of results in quite the way 
that the user expects. Sometimes two obviously similar groups will be on 
opposite sides of the map.
4) If the input distribution has hotspots, i.e. is not flat, the SOM algorithm does 
not work well. What it will tend to do, instead of creating one large group of 
many data items, is to create several smaller groups ignoring the high 
correlations between them.
5) The number of neurons in the map is fixed and is decided in advance. So, if 
too few neurons are chosen, the grid points will be very widely spaced over the 
input data set resulting in a poor model of the distribution.

You might also like