Professional Documents
Culture Documents
Bài 6 (tiếp):
CÔNG NGHỆ
TRÍ TUỆ NHÂN TẠO - HỌC MÁY
HỌC MÁY (Machine learning)
1. Học máy …?
2
HỌC MÁY (Machine learning)
Học máy
Học máy hay còn được biết đến với cái tên Machine Learning là
một nhánh nhỏ của ngành trí tuệ nhân tạo (AI) và khoa học máy
tính. Nó tập trung vào việc xử lý data và thuật toán để bắt chước
cách mà con người học. Từ đó cải thiện độ chính xác của các dự
đoán mà nó đưa ra.
3
HỌC MÁY (Machine learning)
4
HỌC MÁY (Machine learning)
5
HỌC MÁY (Machine learning)
6
HỌC MÁY (Machine learning)
8
HỌC MÁY (Machine learning)
9
HỌC MÁY (Machine learning)
11
HỌC MÁY (Machine learning)
13
HỌC MÁY (Machine learning)
Which
cat.?
14
HỌC MÁY (Machine learning)
15
HỌC MÁY (Machine learning)
16
HỌC MÁY (Machine learning)
Huấn luyện
Tập dữ liệu
hệ thống
(Dataset)
Tập tối ưu
(Validation set)
Tối ưu hóa
các tham số
của hệ thống
17
HỌC MÁY (Machine learning)
18
HỌC MÁY (Machine learning)
◼ Xác định hàm mục tiêu (giả thiết, khái niệm) cần học
• F: X → {0,1}
• F: X → {Một tập các nhãn lớp}
• F: X → R+ (miền các giá tri số thực dương)
19
• …
HỌC MÁY (Machine learning)
◼ Lựa chọn cách biểu diễn cho hàm mục tiêu cần học
• Hàm đa thức (a polynomial function)
• Một tập các luật (a set of rules)
• Một cây quyết định (a decision tree)
• Một mạng nơ-ron nhân tạo (an artificial neural network)
• …
◼ Lựa chọn một giải thuật học máy có thể học (xấp xỉ)
được hàm mục tiêu
• Phương pháp học hồi quy (Regression-based)
• Phương pháp học quy nạp luật (Rule induction)
• Phương pháp học cây quyết định (ID3 hoặc C4.5)
• Phương pháp học lan truyền ngược (Back-propagation)
• … 20
HỌC MÁY (Machine learning)
• Với những điều kiện nào, một giải thuật học máy đã chọn
sẽ hội tụ (tiệm cận) hàm mục tiêu cần học?
• Đối với một lĩnh vực bài toán cụ thể và đối với một cách
biểu diễn các ví dụ (đối tượng) cụ thể, giải thuật học máy
nào thực hiện tốt nhất?
21
HỌC MÁY (Machine learning)
• Kích thước của tập học (tập huấn luyện) ảnh hưởng thế
nào đối với độ chính xác của hàm mục tiêu học được?
22
HỌC MÁY (Machine learning)
• Các chiến lược lựa chọn này làm thay đổi mức độ phức
tạp của bài toán học máy như thế nào?
• Các tri thức cụ thể của bài toán (ngoài các ví dụ học) có
thể đóng góp thế nào đối với quá trình học?
23
HỌC MÁY (Machine learning)
Các vấn đề trong Học máy (4)
◼ Khả năng/giới hạn học (Learning capability)
• Hàm mục tiêu nào mà hệ thống cần học?
Biểu diễn hàm mục tiêu: Khả năng biểu diễn (vd: hàm tuyến
tính / hàm phi tuyến) vs. Độ phưc tạp của giải thuật và quá
trình học
• Các giới hạn (trên lý thuyết) đối với khả năng học của các giải thuật
học máy?
• Khả năng khái quát hóa (generalize) của hệ thống từ các ví dụ học?
Để tránh vấn đề “over-fitting” (đạt độ chính xác cao trên
tập học, nhưng đạt độ chính xác thấp trên tập thử
nghiệm)
• Khả năng hệ thống tự động thay đổi (thích nghi) biểu diễn (cấu trúc)
bên trong của nó?
Để cải thiện khả năng (của hệ thống đối với việc) biểu diễn
và học hàm mục tiêu
24
HỌC MÁY (Machine learning)
Vấn đề over-fitting (1)
◼ Một hàm mục tiêu (một giả thiết) học được h sẽ được gọi
là quá khớp/quá phù hợp (over-fit) với một tập học nếu
tồn tại một hàm mục tiêu khác h’ sao cho:
• h’ kém phù hợp hơn (đạt độ chính xác kém hơn) h đối
với tập học, nhưng
• h’ đạt độ chính xác cao hơn h đối với toàn bộ tập dữ
liệu (bao gồm cả những ví dụ được sử dụng sau quá
trình huấn luyện)
◼ Giả thiết h quá khớp (quá phù hợp) tập học D_train
nếu tồn tại một giả thiết khác h’:
• ErrD_train(h) < ErrD_train(h’), và
• ErrD(h) > ErrD(h’)
26
HỌC MÁY (Machine learning)
27
HỌC MÁY (Machine learning)
Vấn đề over-fitting – Ví dụ
Tiếp tục quá trình học cây quyết định sẽ làm giảm độ chính xác đối
với tập thử nghiệm mặc dù tăng độ chính xác đối với tập học
[Mitchell, 1997]
28
HỌC MÁY (Machine learning)
Học bằng cách xây dựng cây quyết định
Quan sát một ví dụ
cụ thể, nhiệm vụ
của chúng ta trong
ví dụ này là xây
dựng các quy luật
để có thể kết luận
một người như thế
nào khi đi tắm biển
thì bị cháy nắng.
29
HỌC MÁY (Machine learning)
30
HỌC MÁY (Machine learning)
Học bằng cách xây dựng cây quyết định
Ý tưởng đầu tiên của phương pháp này là tìm cách phân
hoạch tập P ban đầu thành các tập Pi sao cho tất cả các
phần tử trong các tập Pi đều có chung thuộc tính mục tiêu.
Sau khi đã phân hoạch xong tập P thành tập các phân
hoạch Pi được đặc trưng bởi thuộc tính đích ri (ri ∈R), bước
tiếp theo là ứng với mỗi phân hoạch Pi ta xây dựng luật Li :
GTi -> ri trong đó các GTi là mệnh đề được hình thành bằng
cách kết hợp các thuộc tính dẫn xuất.
31
HỌC MÁY (Machine learning)
Học bằng cách xây dựng cây quyết định
1. Phương pháp Đâm chồi
Bây giờ bạn hãy quan sát thuộc tính đầu tiên – màu tóc.
Nếu dựa theo màu tóc để phân chia ta sẽ có được 3 phân
hoạch khác nhau ứng với mỗi giá trị của thuộc tính màu
tóc. Cụ thể là :
32
HỌC MÁY (Machine learning)
Học bằng cách xây dựng cây quyết định
1. Phương pháp Đâm chồi
Pđỏ
Pvàng
Pnâu
33
HỌC MÁY (Machine learning)
Học bằng cách xây dựng cây quyết định
1. Phương pháp Đâm chồi
Quan sát hình trên ta thấy rằng phân hoạch Pnâu và Pđỏ
thỏa mãn được điều kiện "có chung thuộc tính mục tiêu"
(Pnâu chứa toàn người không cháy nắng, Pđỏ chứa toàn
người cháy nắng).
Còn lại tập Pvàng là còn lẫn lộn người cháy năng và
không cháy nắng.
Ta sẽ tiếp tục phân hoạch tập này thành các tập con. Bây
giờ ta hãy quan sát thuộc tính chiều cao. Thuộc tính này
giúp phân hoạch tập Pvàng thành 3 tập con :
PVàng, Thấp = {Annie, Kartie},
PVàng, T.Bình= {Sarah}
và PVàng,Cao= { Dana }
34
HỌC MÁY (Machine learning)
Học bằng các xây dựng cây quyết định
1. Phương pháp Đâm chồi
Nếu nối tiếp vào cây ở hình trước ta sẽ có hình ảnh cây
phân hoạch như sau :
35
HỌC MÁY (Machine learning)
Học bằng các xây dựng cây quyết định
1. Phương pháp Đâm chồi
• Quá trình này cứ thế tiếp tục cho đến khi tất cả các nút
lá của cây không còn lẫn lộn giữa cháy nắng và không
cháy nắng nữa.
• Chúng ta cũng thấy rằng, qua mỗi bước phân hoạch cây
phân hoạch ngày càng "phình" ra. Chính vì vậy mà quá
trình này được gọi là quá trình "đâm chồi".
• Cây mà chúng ta đang xây dựng được gọi là cây định
danh.
36
HỌC MÁY (Machine learning)
Học bằng cách xây dựng cây quyết định
2. Phương án chọn thuộc tính phân hoạch
Vấn đề mà chúng ta gặp phải cũng tương tự như bài toán
tìm kiếm : "Đứng trước một ngã rẽ, ta cần phải đi vào
hướng nào?".
2.1. Quinlan
Quinlan quyết định thuộc tính phân hoạch bằng cách xây
dựng các vector đặc trưng cho mỗi giá trị của từng thuộc
tính dẫn xuất và thuộc tính mục tiêu. Cách tính cụ thể như
sau :
37
HỌC MÁY (Machine learning)
Học bằng các xây dựng cây quyết định
2.1. Quinlan
38
HỌC MÁY (Machine learning)
Học bằng cách xây dựng cây quyết định
2.1. Quinlan
39
HỌC MÁY (Machine learning)
Học bằng cách xây dựng cây quyết định
2.1. Quinlan (ví dụ)
40
HỌC MÁY (Machine learning)
Học bằng cách xây dựng cây quyết định
2.1. Quinlan
Trở lại ví dụ của chúng ta, ở trạng thái ban đầu (chưa phân hoạch)
chúng ta sẽ tính vector đặc trưng cho từng thuộc tính dẫn xuất để
tìm ra thuộc tính dùng để phân hoạch.
Đầu tiên là thuộc tính màu tóc. Thuộc tính màu tóc có 3 giá trị khác
nhau (vàng, đỏ, nâu) nên sẽ có 3 vector đặc trưng tương ứng là :
VTóc (vàng) = ( T(vàng, cháy nắng), T(vàng, không cháy
nắng) )
Số người tóc vàng là : 4
Số người tóc vàng và cháy nắng là : 2
Số người tóc vàng và không cháy nắng là : 2
Do đó :
41
HỌC MÁY (Machine learning)
Học bằng cách xây dựng cây quyết định
2.1. Quinlan
Tương tự
VTóc(nâu) = (0/3, 3/3) = (0,1) (vector đơn vị)
Số người tóc nâu là : 3
Số người tóc nâu và cháy nắng là : 0
Số người tóc nâu và không cháy nắng là : 3
VTóc(đỏ) = (1/1, 0/1) = (1,0) (vector đơn vị)
Tổng số vector đơn vị của thuộc tính tóc là 2
42
HỌC MÁY (Machine learning)
Học bằng cách xây dựng cây quyết định
2.1. Quinlan
Các thuộc tính khác được tính tương tự, kết quả như sau :
VC.Cao(Cao) = (0/2,2/2) = (0,1)
VC.Cao(T.B) = (2/3,1/3)
VC.Cao(Thấp) = (1/3,2/3)
43
HỌC MÁY (Machine learning)
Học bằng cáchxây dựng cây quyết định
2.1. Quinlan
Như vậy thuộc tính màu tóc có số vector
đơn vị nhiều nhất nên sẽ được chọn để
phân hoạch.
Sau khi phân hoạch theo màu tóc xong, chỉ
có phân hoạch theo tóc vàng (Pvàng) là
còn chứa những người cháy nắng và không
cháy nắng nên ta sẽ tiếp tục phân hoạch
tập này.
Ta sẽ thực hiện thao tác tính vector đặc
trưng tương tự đối với các thuộc tính còn
lại (chiều cao, cân nặng, dùng kem).
Trong phân hoạch Pvàng, tập dữ liệu của
chúng ta còn lại như bảng bên
44
HỌC MÁY (Machine learning)
Học bằng cách xây dựng cây quyết định
2.1. Quinlan
VC.Cao(Cao) = (0/1,1/1) = (0,1)
VC.Cao(T.B) = (1/1,0/1) = (1,0)
VC.Cao(Thấp) = (1/2,1/2)
45
HỌC MÁY (Machine learning)
Học bằng cách xây dựng cây quyết định
2.1. Quinlan
• 2 thuộc tính dùmg kem và
chiều cao đều có 2 vector
đơn vị.
• Tuy nhiên, số phân hoạch
của thuộc tính dùng kem là
ít hơn nên ta chọn phân
hoạch theo thuộc tính
dùng kem.
• Cây định danh cuối cùng
của chúng ta sẽ như sau :
46
HỌC MÁY (Machine learning)
Học bằng cách xây dựng cây quyết định
2.2 Độ đo hỗn loạn
Thay vì phải xây dựng các vector đặc trưng như phương
pháp của Quinlan, ứng với mỗi thuộc tính dẫn xuất ta chỉ
cần tính ra độ đo hỗn loạn và lựa chọn thuộc tính nào có
độ đo hỗn loại là thấp nhất. Công thức tính như sau :
Trong đó :
bt là tổng số phần tử có trong phân
hoạch
bj là tổng số phần tử có thuộc tính
dẫn xuất A có giá trị j.
bri : tổng số phần tử có thuộc tính
dẫn xuất A có giá trị j và thuộc tính
mục tiêu có giá trị i.
47
HỌC MÁY (Machine learning)
Học bằng cách xây dựng cây quyết định
3. Phát sinh tập luật
Nguyên tắc phát sinh tập luật từ cây định danh khá đơn giản.
Ứng với mỗi nút lá, ta chỉ việc đi từ đỉnh cho đến nút lá đó và
phát sinh ra luật tương ứng.
Cụ thể là từ cây định danh kết quả ở cuối phần.
Ta có các luật sau (xét các nút lá từ trái sang phải)
(Màu tóc vàng) và (có dùng kem) -> không cháy nắng
(Màu tóc vàng) và (không dùng kem) -> cháy nắng
(Màu tóc nâu) -> không cháy nắng
(Màu tóc đỏ) -> cháy nắng
Chúng ta hãy thực hiện bước cuối cùng là tối ưu tập luật.
48
HỌC MÁY (Machine learning)
Học bằng cách xây dựng cây quyết định
Ví dụ:
Cho CSDL sau
49
HỌC MÁY (Machine learning)
Học bằng cách xây dựng cây quyết định
Ví dụ:
50
HỌC MÁY (Machine learning)
Phân lớp Naïve Bayes
51
HỌC MÁY (Machine learning)
Định lý Naïve Bayes
P(D | h).P(h)
P(h | D) =
P(D)
• P(h): Xác suất trước (prior probability) rằng giả thiết (phân
lớp) h là đúng
• P(D): Xác suất trước rằng tập dữ liệu D được quan sát (thu
được)
• P(D|h): Xác suất của việc quan sát được (thu được) tập dữ
liệu D, với điều kiện giả thiết h là đúng
• P(h|D): Xác suất của giả thiết h là đúng, với điều kiện tập
dữ liệu D được quan sát
52
HỌC MÁY (Machine learning)
Định lý Naïve Bayes
VD 1: Xét tập dữ liệu sau đây:
Day Outlook Temperature Humidity Wind Play Tennis
D1 Sunny Hot High Weak No
D2 Sunny Hot High Strong No
D3 Overcast Hot High Weak Yes
D4 Rain Mild High Weak Yes
D5 Rain Cool Normal Weak Yes
D6 Rain Cool Normal Strong No
D7 Overcast Cool Normal Strong Yes
D8 Sunny Mild High Weak No
D9 Sunny Cool Normal Weak Yes
D10 Rain Mild Normal Weak Yes
D11 Sunny Mild Normal Strong Yes
D12 Overcast Mild High Strong Yes
22
HỌC MÁY (Machine learning)
Định lý Naïve Bayes
VD
◼ Tập ví dụ D. Tập các ngày mà thuộc tính Outlook có giá trị Sunny và
thuộc tính Wind có giá trị Strong
◼ Giả thiết (phân lớp) h. Anh ta chơi tennis
◼ Xác suất trước P(h). Xác suất anh ta chơi tennis (không phụ thuộc
vào các thuộc tính Outlook và Wind)
◼ Xác suất trước P(D). Xác suất của một ngày mà thuộc tính Outlook
có giá trị Sunny và thuộc tính Wind có giá trị Strong
◼ P(D|h). Xác suất của một ngày mà thuộc tính Outlook có giá trị
Sunny và Wind có giá trị Strong, với điều kiện (nếu biết rằng) anh ta
chơi tennis
◼ P(h|D). Xác suất anh ta chơi tennis, với điều kiện (nếu biết rằng)
thuộc tính Outlook có giá trị Sunny và Wind có giá trị Strong
→ Phương pháp phân lớp Naïve Bayes dựa trên xác suất có điều
kiện (posterior probability) này! 54
HỌC MÁY (Machine learning)
Cực đại hóa xác suất có điều kiện
◼ Với một tập các giả thiết (các phân lớp) có thể H, hệ thống học
sẽ tìm giả thiết có thể xảy ra nhất (the most probable
hypothesis) h(H) đối với các dữ liệu quan sát được D
◼ Giả thiết h này được gọi là giả thiết cực đại hóa xác suất có
điều kiện (maximum a posteriori – MAP)
hMAP = arg max P(h | D)
hH
55
HỌC MÁY (Machine learning)
MAP – Ví dụ
◼ Tập H bao gồm 2 giả thiết (có thể)
• h1: Anh ta chơi tennis
• h2: Anh ta không chơi tennis
◼ Tính giá trị của 2 xác xuất có điều kiện: P(h1|D), P(h2|D)
◼ Giả thiết có thể nhất hMAP=h1 nếu P(h1|D) ≥ P(h2|D); ngược
lại thì hMAP=h2
◼ Bởi vì P(D)=P(D,h1)+P(D,h2) là như nhau đối với cả 2 giả
thiết h1 và h2, nên có thể bỏ qua đại lượng P(D)
◼ Vì vậy, cần tính 2 biểu thức: P(D|h1).P(h1) và
P(D|h2).P(h2), và đưa ra quyết định tương ứng
• Nếu P(D|h1).P(h1) ≥ P(D|h2).P(h2), thì kết luận là anh ta chơi tennis
• Ngược lại, thì kết luận là anh ta không chơi tennis
56
HỌC MÁY (Machine learning)
57
HỌC MÁY (Machine learning)
MLE – Ví dụ
◼ Tập H bao gồm 2 giả thiết có thể
• h1: Anh ta chơi tennis
• h2: Anh ta không chơi tennis
D: Tập dữ liệu (các ngày) mà trong đó thuộc tính Outlook có giá trị Sunny
và thuộc tính Wind có giá trị Strong
◼ Tính 2 giá trị khả năng xảy ra (likelihood values) của dữ liệu D
đối với 2 giả thiết: P(D|h1) và P(D|h2)
• P(Outlook=Sunny, Wind=Strong|h1)= 1/8
• P(Outlook=Sunny, Wind=Strong|h2)= 1/4
◼ Giả thiết MLE hMLE=h1 nếu P(D|h1) ≥ P(D|h2); và ngược
lại thì hMLE=h2
→ Bởi vì P(Outlook=Sunny, Wind=Strong|h1) <
P(Outlook=Sunny, Wind=Strong|h2), hệ thống kết luận rằng:
Anh ta sẽ không chơi tennis!
58
HỌC MÁY (Machine learning)
◼ Mục tiêu: Xác định phân lớp có thể (phù hợp) nhất đối với z
cMAP = arg max P(ci | z)
ci C
59
HỌC MÁY (Machine learning)
◼ Phân loại Naïve Bayes tìm phân lớp có thể nhất đối với z
n
c NB = arg max P(ci ). P(z j | ci )
ci C j =1
60
HỌC MÁY (Machine learning)
◼ Giai đoạn phân lớp (classification phase), đối với một ví dụ mới
• Đối với mỗi phân lớp ciC, tính giá trị của biểu thức:
n
61
HỌC MÁY (Machine learning)
◼ Tính giá trị xác suất trước cho mỗi phân lớp
• P(c1) = 9/14
• P(c2) = 5/14
◼ Tính giá trị xác suất của mỗi giá trị thuộc tính đối với mỗi phân lớp
• P(Age=Young|c1) = 2/9; P(Age=Young|c2) = 3/5
• P(Income=Medium|c1) = 4/9; P(Income=Medium|c2) = 2/5
• P(Student=Yes|c1) = 6/9; P(Student=Yes|c2) = 1/5
• P(Credit_Rating=Fair|c1) = 6/9; P(Credit_Rating=Fair|c2) = 2/5
63
HỌC MÁY (Machine learning)
◼ Xác định phân lớp có thể nhất (the most probable class)
• Đối với phân lớp c1
P(c1).P(z|c1) = (9/14).(0.044) = 0.028
65
HỌC MÁY (Machine learning)
◼ Giải pháp: Sử dụng hàm lôgarit cho các giá trị xác suất
66
HỌC MÁY (Machine learning)
67
HỌC MÁY (Machine learning)
68
HỌC MÁY (Machine learning)
◼ Ý tưởng của phương pháp học dựa trên láng giềng gần nhất
• Với một tập các ví dụ học
─ (Đơn giản là) lưu lại các ví dụ học
─ Không cần xây dựng một mô hình (mô tả) rõ ràng và tổng quát
của hàm mục tiêu cần học
• Đối với một ví dụ cần phân loại/dự đoán
─ Kiểm tra (xét) quan hệ giữa ví dụ đó với các ví dụ học để gán
giá trị của hàm mục tiêu (một nhãn lớp, hoặc một giá trị thực)
69
HỌC MÁY (Machine learning)
70
HỌC MÁY (Machine learning)
71
HỌC MÁY (Machine learning)
72
HỌC MÁY (Machine learning)
73
HỌC MÁY (Machine learning)
◼ Thường xét k (>1) các ví dụ học gần nhất với ví dụ cần phân
lớp, và gán ví dụ đó vào lớp chiếm số đông trong số k ví dụ
học gần nhất này
◼ k thường được chọn là một số lẻ, để tránh cân bằng về tỷ lệ
phân lớp (ties in classification)
• Ví dụ: k= 3, 5, 7,…
74
HỌC MÁY (Machine learning)
i=1
1/ p
n
d (x, z) = xi − zi
p
• Hàm Minkowski (p-norm):
i=1
p
1/ p
n
• Hàm Chebyshev: d (x, z) = lim xi − zi
p →
i=1
= max xi − zi
i
76
HỌC MÁY (Machine learning)
n
◼ Hàm tính độ tương tự x.z x z i i
i=1 i=1
của các từ khóa
77
HỌC MÁY (Machine learning)
i=1
◼ Giả sử mỗi ví dụ được biểu diễn bởi 3 thuộc tính: Age, Income (cho
mỗi tháng), và Height (đo theo mét)
• x = (Age=20, Income=12000, Height=1.68)
• z = (Age=40, Income=1300, Height=1.75)
◼ Khoảng cách giữa x và z
• d(x,z) = [(20-40)2 + (12000-1300)2 + (1.68-1.75)2]1/2
• Giá trị khoảng cách này bị quyết định chủ yếu bởi giá trị khoảng cách (sự
khác biệt) giữa 2 ví dụ đối với thuộc tính Income
→ Vì: Thuộc tính Income có miền giá trị rất lớn so với các thuộc tính khác
◼ Cần phải chuẩn hóa miền giá trị (đưa về cùng một khoảng giá trị)
• Khoảng giá trị [0,1] thường được sử dụng
• Đối với mỗi thuộc tính i: xi = xi/giá_trị_cực_đại_đối_với_thuộc_tính_i
78
HỌC MÁY (Machine learning)
i=1
• Tất cả các thuộc tính có cùng (như nhau) ảnh hưởng đối với giá trị
khoảng cách
◼ Các thuộc tính khác nhau có thể (nên) có mức độ ảnh hưởng khác
nhau đối với giá trị khoảng cách
◼ Cần phải tích hợp (đưa vào) các giá trị trọng số của các thuộc tính
trong hàm tính khoảng cách n
◼ Làm sao để xác định các giá trị trọng số của các thuộc tính?
• Dựa trên các tri thức cụ thể của bài toán (vd: được chỉ định bởi các
chuyên gia trong lĩnh vực của bài toán đang xét)
• Bằng một quá trình tối ưu hóa các giá trị trọng số (vd: sử dụng một tập
học để học một bộ các giá trị trọng số tối ưu)
79
HỌC MÁY (Machine learning)
80
HỌC MÁY (Machine learning)
◼ Đối với bài toán phân lớp: c(z) = arg max v( x, z).Identical (c j , c( x))
c j C xNB ( z )
1,if (a = b)
Identical(a, b) =
0,if (a b)
v(x, z)
xNB ( z )
◼ Lựa chọn một hàm xác định trọng số theo khoảng cách:
d ( x, z )2
1 1 −
v(x, z) = v(x, z) = v(x, z) = e 2
+ d (x, z) +[d (x, z)]2
81
HỌC MÁY (Machine learning)