Professional Documents
Culture Documents
Chapter 3
Chapter 3
• Điện tử: Sự bố trí chíp IC, điều khiển quá trình, phân tích lỗi
chíp, thị lực máy, tổng hợp tiếng nói, mô hình hóa phi tuyến.
• Rô bốt: Điều khiển quỹ đạo, xe nâng hàng, các bộ điều khiển
tay máy,, các hệ thống thị giác, xe tự hành
• Ô tô: Các hệ thống dẫn hướng tự động, điều khiển bơm nhiên
liệu, các hệ thống chống bó phanh, các cảm biến dò sự phát
khí ảo.
• Sản xuất: Điều khiển quá trình sản xuất, phân tích và thiết kế
sản phẩm, chuẩn đoán máy và quá trình, nhận dạng hạt thời
gian thực, các hệ thống kiểm tra chất lượng, thử bia, phân tích
chất lượng hàn, dự đoán chất lượng giấy, phân tích chất lượng
chíp máy tính, phân tích các hoạt động nghiền, phân tích thiết
kế sản phẩm hóa học, phân tích bảo dưỡng máy, đấu thầu dự
án, quản lý và kế hoạch hóa, mô hình động của các quá trình
hóa học.
• Vũ trụ, ngân hàng, quốc phòng, giải trí, tài chính, bảo hiểm, y
tế, dầu khí, an ninh, giao thông và truyền thông.
• Một phần của bộ não được hình thành khi sinh ra.
• Những phần khác sẽ phát triển thông qua học, do có những
liên kết mới được hình thành và các liên cũ mất đi.
• Cấu trúc mạng nơ-ron tiếp tục thay đổi theo thời gian trong
đời. Những thay đổi sau nay có xu hướng chủ yếu làm mạnh
hoặc yếu đi các khớp thần kinh.
• Có 2 sự giống nhau giữa mạng nơ-ron sinh học và mạng nơ-
ron nhân tạo:
✓ Các khối tạo ra mạng nơ-ron là những thiết bị tính toán đơn
giản.
✓ Các liên kết giữa các nơ-ron tạo ra chức năng của mạng.
• Luật học: Là một thủ tục dùng để thay đổi các trọng số và bias
nhằm mục đích huấn luyện mạng để thực hiện một số nhiệm
vụ.
• Có 3 loại luật học:
Học có giám sát
Học không có giám sát
Học gia cố
• Học có giám sát:
Mẫu huấn luyện 𝑝1 ; 𝑡1 , 𝑝2 ; 𝑡2 , … , 𝑝𝑄 ; 𝑡𝑄
Luật học sẽ điều chỉnh các trọng số và bias sao cho đầu ra
của mạng nơ-ron bám lấy đầu ra mẫu.
• Mạng perceptron
• Ứng dụng: Có thể giải quyết các bài toán phân loại với đường
biên tuyến tính.
• Mạng nhớ:
Ứng dụng để phân loại mẫu (chữ viết, ảnh)
Dùng luật học Hebbian
• Mạng ADALINE :
Bộ lọc thích nghi.
Dùng luật học Widrow – Hoff
−𝑛 2
• Mạng RBF (Radial Basis Function): 𝑎 = 𝑒
Ứng dụng xấp xỉ hàm, phân loại mẫu
Dùng phương pháp bình phương nhỏ nhất
• 3.2.1 Ví dụ
• 3.2.2 Luật học perceptron
• 3.2.3 Thuật toán lan truyền ngược
1 −1 0
• 𝒑1 = , 𝑡1 = 1 𝒑2 = , 𝑡2 = 0 ቄ𝒑3 = , 𝑡3 =
2 2 −1
Đầu
0ቅ vào Nơ-ron không có bias
𝑝2 𝑾 = 1 −0,8
𝑝1
𝑎 = ℎ𝑎𝑟𝑑𝑙𝑖𝑚 𝑛
𝑝1 0, 𝑛ế𝑢 𝑛 < 0
𝒑 = 𝑝 ,𝑾 = 𝑤1,1 𝑤1,2 =ቊ
2 1, 𝑛ế𝑢 0 ≤ 𝑛
Dr. Nam H. Nguyen 𝑛 = 𝑾𝒑 27
3.2.1 Ví dụ
• 𝑒 =𝑡−𝑎
• t: đầu ra mẫu tương ứng với đầu vào mẫu
• a: đầu ra của nơ-ron ứng với đầu vào mẫu
• Nếu e = 1, thì 𝒘𝒎ớ𝒊 = 𝒘𝒄ũ + 𝒑𝑻
• Nếu e = −1, thì 𝒘𝒎ớ𝒊 = 𝒘𝒄ũ − 𝒑𝑻
• Nếu e = 0, thì 𝒘𝒎ớ𝒊 = 𝒘𝒄ũ
• 𝒘𝒎ớ𝒊 = 𝒘𝒄ũ + 𝑒𝒑𝑻
• 𝑏𝒎ớ𝒊 = 𝑏𝒄ũ + 𝑒
𝑖 𝒘𝒎ớ𝒊 = 𝑖𝒘𝒄ũ + 𝑒𝑖 𝒑
𝑖 𝑏𝒎ớ𝒊 = 𝑖 𝑏𝒄ũ + 𝑒𝑖
• Mạng có 𝑀 lớp:
• 𝒂𝑚+1 = 𝒇𝑚+1 (𝑾𝑚+1 𝒂𝑚 + 𝒃𝑚+1 ), 𝑚 = 0, 1, … , 𝑀 − 1
• 𝒂0 = 𝒑 – đầu vào của mạng
• 𝒂 = 𝒂𝑀 - đầu ra của mạng
• Tập mẫu đầu vào: 𝑃 = 𝒑(ℎ)
• Tập mẫu đầu ra: T = 𝒕(ℎ)
• ℎ = 1: 𝑄
• 𝐽 = 𝒆𝑇 ℎ . 𝒆 ℎ = [𝒕 ℎ − 𝒂 ℎ ]𝑇 [𝒕 ℎ − 𝒂 ℎ ] → 𝒎𝒊𝒏
𝜕𝐽
• 𝑤 𝑚 𝑖,𝑗 𝑘 + 1 = 𝑤 𝑚 𝑖,𝑗 𝑘 − 𝛼
𝜕𝑤 𝑚
𝑖,𝑗
𝑚 𝑚 𝜕𝐽
• 𝑏 𝑖
𝑘+1 =𝑏 𝑖
𝑘 −𝛼 𝑚
𝜕𝑏
𝑖
• 𝑘 = 0, 1, 2, …;
• 𝑚 = 1: 𝑀;
• 𝑖 = 1: 𝑆 𝑚 ; 𝑗 = 1: 𝑆 𝑚−1 ; 𝑆 0 = 𝑅
• 𝛼 : tốc độ học
𝑑𝑎 𝑑𝑓 𝑛 𝑑𝑛
• = ∗
𝑑𝑤 𝑑𝑛 𝑑𝑤
𝜕𝐽 𝜕𝐽 𝜕𝑛𝑚
• = ∗ 𝑖
𝜕𝑤 𝑚 𝜕𝑛𝑚 𝜕𝑤 𝑚
𝑖,𝑗 𝑖 𝑖,𝑗
𝑚 𝑆 𝑚−1 𝑚
• 𝑛 𝑖
= σ𝑗=1 𝑤 𝑖,𝑗 𝑎𝑚−1𝑗 + 𝑏 𝑚 𝑖
𝜕𝑛𝑚
• 𝑖
= 𝑎𝑚−1𝑗
𝜕𝑤 𝑚
𝑖,𝑗
𝜕𝐽 𝜕𝐽 𝜕𝑛𝑚
• = ∗ 𝑖
𝜕𝑏𝑚 𝜕𝑛𝑚 𝜕𝑏𝑚
𝑖 𝑖 𝑖
𝜕𝑛𝑚
• 𝑚
𝑖
=1
𝜕𝑏
𝑖
Dr. Nam H. Nguyen 39
3.2.3.4 Độ nhạy
𝜕𝐽
• = 𝑠𝑚 𝑖
𝜕𝑏𝑚
𝑖
• Dạng ma trận:
• 𝑾𝑚 𝑘 + 1 = 𝑾𝑚 𝑘 − 𝛼𝒔𝑚 (𝒂𝑚−1 )𝑇
• 𝒃𝑚 𝑘 + 1 = 𝒃𝑚 𝑘 − 𝛼𝒔𝑚
𝜕𝐽
𝜕𝑛𝑚
1
𝜕𝐽
𝜕𝐽
• 𝒔𝑚 = = 𝜕𝑛𝑚
𝜕𝒏𝑚 2
:
𝜕𝐽
𝜕𝑛𝑚 𝑚
𝑆
𝜕𝑛𝑖 𝑚+1
• 𝑚 =
𝜕𝑛𝑗
𝑚 𝑚+1 𝑎 𝑚 +𝑏 𝑚+1 )
𝜕(σ𝑆
𝑣=1 𝑤𝑖,𝑣 𝑣 𝑖
𝜕𝑛𝑗 𝑚
𝜕𝑎 𝑚
𝑚+1 𝑗
• =𝑤𝑖,𝑗
𝜕𝑛𝑗 𝑚
• =𝑤𝑖,𝑗 𝑚+1 𝑓ሶ 𝑚 (𝑛𝑗 𝑚 )
• 𝑚 = 𝑀 − 1: 1
nnd11bc
Dr. Nam H. Nguyen 45
Ví dụ
vidu_train.m/nnd11bc
(𝑛)
• 𝑥 = 𝑓 𝒙𝑝 + 𝑔 𝒙𝑝 𝑢 (1)
𝑝
𝑇
𝑥ሶ
(𝑛−1)
• 𝒙𝑝 = 𝑥𝑝 𝑝 …. 𝑥
𝑝
(𝑛)
• 𝑥 = −𝒌𝑇 𝒙𝑚 + 𝑟
𝑚
1
• 𝑢 = −𝑁𝑓 − 𝒌𝑇 𝒙𝑝 + 𝑟
𝑁𝑔
(𝑛) 𝑔 𝒙𝑝
• 𝑥 = 𝑓 𝒙𝑝 + −𝑁𝑓 − 𝒌𝑇 𝒙𝑝 + 𝑟
𝑝 𝑁𝑔
• 𝒆 = 𝒙𝑝 − 𝒙𝑚
(𝑛) 𝑛
• 𝑒=𝑥 −𝑥 = −𝒌𝑇 𝒆 + 𝑓 − 𝑁𝑓 + 𝑔 − 𝑁𝑔 𝑢
𝑝 𝑚
Dr. Nam H. Nguyen 59
Tuyến tính hóa phản hồi thích nghi nơ-ron
• 𝐹 (𝒙) → 𝑚𝑖𝑛
• 𝒙 = 𝑣𝑒𝑐[𝑤 𝑚 𝑖,𝑗 𝑘 𝑏 𝑚 𝑖 𝑘 ];
• 𝑖 = 1: 𝑆 𝑚 ; 𝑗 = 1: 𝑆 𝑚−1 ; 𝑚 = 1: 𝑀.
• Chọn giá trị ban đầu 𝒙0 (ngẫu nhiên và nhỏ).
• Cập nhật giá trị mới theo công thức
• 𝒙𝑘+1 = 𝒙𝑘 + 𝛼𝑘 𝒑𝑘
• 𝒑𝑘 là hướng tìm
• 𝛼𝑘 là tốc độ học
• 𝒙𝑘+1 = 𝒙𝑘 + 𝛼𝑘 𝒑𝑘
• Sau mỗi vòng lặp, ta muốn
• 𝐹 𝒙𝑘+1 < 𝐹(𝒙𝑘 ) (1)
• Khai triển chuỗi Taylor bậc nhất xung quanh điểm 𝒙𝑘 , ta có:
• 𝐹 𝒙𝑘+1 ≈ 𝐹 𝒙𝑘 + 𝒈𝑇 𝑘 ∆𝒙𝑘
• ∆𝒙𝑘 = 𝒙𝑘+1 − 𝒙𝑘
• 𝒈𝑘 = 𝛻𝐹(𝒙)
ฬ𝒙=𝒙
𝒌
Véc tơ gradient:
Tốc độ học:
nnd9sdq
• 𝒈𝒌 + 𝑨𝑘 ∆𝒙𝑘 = 𝟎
• ∆𝒙𝑘 = −𝑨𝑘 −1 𝒈𝒌
• 𝒙𝑘+1 = 𝒙𝑘 − 𝑨𝑘 −1 𝒈𝒌 (***)
• Ví dụ: 𝐹 𝒙 = 𝑥1 2 + 25𝑥2 2
0,5
• 𝒙0 =
0,5
Dr. Nam H. Nguyen 68
3.3.1.3 Phương pháp Newton
Véc tơ gradient
Ma trận Hessian
• Nnd9nm
• 𝐹 𝒙 = σ𝑁 2 𝑇
𝑖=1 𝑣𝑖 (𝒙) = 𝒗 𝒙 . 𝒗(𝒙)
𝜕𝐹 𝒙 𝜕𝑣𝑖 (𝒙)
• = 2 σ𝑁
𝑖=1 𝑣𝑖 (𝒙)
𝜕𝑥𝑗 𝜕𝑥𝑗
• Gradient:
• 𝛻𝐹 𝒙 = 2𝑱𝑇 𝒙 . 𝒗(𝒙)
• J - Ma trận Jacobian:
𝜕𝐹 𝒙 𝜕𝑣𝑖 (𝒙)
• = 2 σ𝑁
𝑖=1 𝑣𝑖 (𝒙)
𝜕𝑥𝑗 𝜕𝑥𝑗
Phần tử thứ 𝑘, 𝑗:
Dạng ma trận:
(𝑛)
• 𝑥 = 𝑓 𝒙𝑝 + 𝑔 𝒙𝑝 𝑢 (1)
𝑝
𝑇
𝑥ሶ
(𝑛−1)
• 𝒙𝑝 = 𝑥𝑝 𝑝 …. 𝑥
𝑝
(𝑛)
• 𝑥 = −𝒌𝑇 𝒙𝑚 + 𝑟
𝑚
1
• 𝑢 = −𝑁𝑓 − 𝒌𝑇 𝒙𝑝 + 𝑟
𝑁𝑔
(𝑛) 𝑔 𝒙𝑝
• 𝑥 = 𝑓 𝒙𝑝 + −𝑁𝑓 − 𝒌𝑇 𝒙𝑝 + 𝑟
𝑝 𝑁𝑔
• 𝒆 = 𝒙𝑝 − 𝒙𝑚
(𝑛) 𝑛
• 𝑒=𝑥 −𝑥 = −𝒌𝑇 𝒆 + 𝑓 − 𝑁𝑓 + 𝑔 − 𝑁𝑔 𝑢
𝑝 𝑚
Dr. Nam H. Nguyen 75
Tuyến tính hóa phản hồi thích nghi nơ-ron
• network(numInputs,numLayers,biasConnect,inputConnect,lay
erConnect,outputConnect)
• numInputs - số đầu vào R.
• numLayers - số lớp M.
• biasConnect - M𝑥1 véc tơ nhị phân.
• inputConnect - 𝑀𝑥𝑅 ma trận nhị phân.
• layerConnect - 𝑀𝑥𝑀 ma trận nhị phân.
• outputConnect - 1𝑥𝑀 véc tơ nhị phân.
• Tạo một mạng có 2 lớp, 1 đầu vào. Trong đó lớp 1 có bias, lớp
2 không có bias và đầu ra của mạng là đầu ra của lớp 2.
• numInputs = 1;
• numLayers = 2;
• biasConnect = [1;0];
• inputConnect = [1;0];
• layerConnect = [0 0;1 0];
• outputConnect = [0 1];
• net =
network(numInputs,numLayers,biasConnect,inputConnect,lay
erConnect,outputConnect)
• Khởi tạo các giá trị ban đầu cho các tham số của mạng:
• net.iw{1,1}=[-0.27;-0.41];
• net.b{1}=[-0.48;-0.13];
• net.lw{2,1}=[0.09 -0.17];
• net.b{2}=0.48;
• Xem cấu trúc của mạng nơ-ron: view(net)
• Tính đầu ra của mạng:
• p = -2:0.2:2;
• y = net(p);
1
1
1
Dr. Nam H. Nguyen 86
Huấn luyện mạng động (hồi qui)
• Huấn luyện mạng hở: Cắt đường phản hồi từ đầu ra của
mạng, coi tín hiệu phản hồi từ đầu ra của mạng như đầu vào
mới của mạng.
• Huấn luyện mạng kín:
Sau khi huấn luyện mạng hở, đường phản hồi được đóng
lại, các trọng số và bias của mạng hở được dùng như các tham
số ban đầu của mạng kín.
Chia tập mẫu gồm Q mẫu thành các tập mẫu có độ dài là C.
𝐶 > 𝑑 (𝑑 𝑙à 𝑠ố 𝑡𝑟ễ 𝑙ớ𝑛 𝑛ℎấ𝑡 𝑐ủ𝑎 𝑚ạ𝑛𝑔).
Huấn luyện mạng kín với các tập mẫu có độ dài là 𝐶 = 𝑑 +
1.
Nếu thành công, thì tăng C cho tới khi 𝐶 = 𝑄.
𝒕(𝑘) 𝒆(𝑘)
𝒑(𝑘)
Đối tượng
𝒚(𝑘)
Mạng nơ-ron
𝑾, 𝒃
𝑄
1
𝐽 = [𝒕 𝑘 − 𝒚 𝑘 ]𝑇 [𝒕 𝑘 − 𝒚 𝑘 ] → 𝑚𝑖𝑛
𝑄
𝑘
Dr. Nam H. Nguyen 88
Điều khiển thích nghi theo mô hình mẫu
𝑡(𝑘) 𝑒(𝑘)
𝑝(𝑘)
Cánh tay máy
𝑦(𝑘)
Mạng nơ-ron
𝑾, 𝒃
𝑄
1
𝐽 = (𝑡 𝑘 − 𝑦(𝑘))2 → 𝑚𝑖𝑛
𝑄
𝑘
Dr. Nam H. Nguyen 91
Nhận dạng cánh tay máy