Professional Documents
Culture Documents
Pattern Recognition
a1 b1
a b
x 2 reduce dimensionality y 2 K N
... ...
aN bk
Dimensionality Reduction
Dua pendekatan klasik untuk menghitung
transformasi linier yang optimal :
Principal Components Analysis (PCA): mencari
proyeksi yang menyediakan informasi sebanyak
mungkin dalam data dengan pendekatan least-
squares.
Linear Discriminant Analysis (LDA): mencari proyeksi
terbaik yang dapat memisahkan data dengan
pendekatan least-squares.
Tujuan PCA : mengurangi dimensi data dengan
mempertahankan sebanyak mungkin informasi
dari dataset yang asli.
Dimensionality Reduction
Pendekatan vektor dengan menemukan basis
ke dalam ruang dimensi yang lebih rendah
Representasi ruang Dimensi-Lebih Tinggi :
a1
x a1v1 a2v2 ... aN vN a
x 2
...
v1 , v2 , ..., vN merupakan basis dari ruang dimensi N
aN
Representasi ruang Dimensi-Lebih Rendah :
x b1u1 b2u2 ... bK uK b1
b
u1 , u2 , ..., uK y 2
merupakan basis dari ruang dimensi K ...
bk
Feature Selection Using PCA
Pengurangan dimensi berdampak pada
hilangnya informasi
PCA mempertahankan sebanyak mungkin
informasi, dengan cara meminimalkan error :
xx
Bagaimana caranya menentukan sub-ruang
dimensi yang lebih rendah yang terbaik ?
x1 x2 ... xM x i
x i 1
M M
Langkah 2: Menghitung Zero Mean
i xi x
Feature Selection Using PCA
Langkah 3: Membangun matriks Covarians
dengan mengkalikan matriks Zero Mean dengan
transposenya
Populasi
1 M T
C i i
N i 1
Sampel
1 M T
C
N 1 i 1
i i
Feature Selection Using PCA
Langkah 4 : Menghitung eigenvalue dari C
CU U det( I C ) 0
I CU I U 1 0 .... 0 c1,1 c1,2 .... c1,n
0 c c 2,n
0
CU I U
....
2
....
....
....
2,1
.... ....
c 2,2
....
....
....
....
( I C ) U 0 0 0 .... N c m,1 c m,2 ....
c m,n
Hasil : 1 , 2 , 3 , ..., N
Feature Selection Using PCA
Langkah 5 : Menghitung eigenvektor
Dari eigenvalue yang dihitung pada langkah 4,
disubstitusikan ke rumus :
( I C ) U 0
Hasil : u1 , u2 , u3 , ..., uN
Feature Selection Using PCA
Langkah 6 : Mengurangi dimensi sebesar K
dimensi
Pilihlah fitur sebanyak K berdasarkan nilai eigenvalue
terbesar
K
x x b u
i 1
i i where K N
i 1
i
N
Threshold (e.g., 0.9 or 0.95)
i 1
i
1
e i
2 i K 1
PCA : Menghitung Eigen Value
Misal diketahui dataset :
No Fitur 1 Fitur 2 Kelas P11 P12
1 P11 P12 Mobil
D=
P P
2 P21 P22 Rumah
21 22
Mean global
x1
P11 P21
Banyak _ Data
x2
P12 P22
Zero Mean Banyak _ Data
x1 x 2 P11 x1 P12 x 2 4 2
D , misal
x1 x 2 P21 x1 P22 x 2 1 5
Kovarian T
1 4 2 4 2 1 17 13 17 13
C
N 1 1 5 1 5 2 1 13 29 13 29
PCA : Menghitung Eigen Value
Eigen Value :
detI C 0 1, 2
b b 2 4ac
2a
1 0 17 13
det * 0 (46) 46 2 4 *1* 324
0 1
13 29 1, 2
2 *1
17 13 46 2116 1296
det 0 1, 2
13 29 2
17 ( 29) 13 * 13 0 1, 2
46 820
17 ( 29) 169 0 2
46 28.63564
29 17( 29) 169 0 1 8.68218
2
2 29 17 493 169 0 2
46 28.63564
37.31782
2 46 324 0 2
8.68218 0
Matrik EigenValue
0 37.31782
PCA : Menghitung Eigen Vector
Eigen Vector :
8.68218
Matrik EigenValue
0 (c11 )u1 c12u2 0
37.31782
0 c21u1 (c22 )u2 0
CU U
17 13
c11 c12 u1 u1 Matrik kovarian : C
c 13 29
21 c22 u2 u2 Vektor eigen didapatkan dengan
1 0 c11 c12 u1 1 0 u1 persamaan :
0 1 c
21 c22 u2 0 1 u2 (17 )u1 13u2 0
c11 c12 u1 1 0 u1 13u1 (29 )u2 0
c u
21 22 2
c u 0 1 2 Untuk 1 = 8.68218 maka :
0.5389
U
0.8423
PCA : Transformasi x
Transformasi data fitur x x :
x x kU k
Tentukan nilai K dengan 90%
informasi data yang kita gunakan
Dari nilai K yang ditentukan akan
diperoleh fitur yang dijadikan sebagai
proses pengenalan pola
Selesai