You are on page 1of 257

Nguyễn Duy Minh (chủ biên)

Nguyễn Thị Thu Hiền


Phạm Thị Hồng Anh
Nguyễn Thành Trung

GIÁO TRÌNH

HỆ THỐNG ĐIỀU KHIỂN THÔNG MINH

Thái Nguyên, 2016


MỞ ĐẦU

Trong thực tế cuộc sống, các bài toán liên quan đến hoạt động nhận thức,
trí tuệ của con người đều hàm chứa những đại lượng, thông tin mà bản chất là
không chính xác, không chắc chắn, không đầy đủ. Ví dụ: sẽ chẳng bao giờ có
các thông tin, dữ liệu cũng như các mô hình toán đầy đủ và chính xác cho các
bài toán dự báo thời tiết. Nhìn chung con người luôn ở trong bối cảnh là không
có thông tin đầy đủ và chính xác cho các hoạt động ra quyết định của bản thân
mình. Trong lĩnh vực khoa học kĩ thuật cũng vậy, các hệ thống phức tạp trên
thực tế thường không thể mô tả đầy đủ và chính xác bởi các phương trình toán
học truyền thống. Kết quả là những cách tiếp cận kinh điển dựa trên kỹ thuật
phân tích và các phương trình toán học nhanh chóng tỏ ra không còn phù hợp.
Vì thế, để tiếp cận khả năng tư duy của bộ não, người ta sử dụng khả năng suy
diễn của hệ mờ (Fuzzy System) dựa trên các luật mờ. Để tiếp cận khả năng học
người ta đưa ra mô hình mạng nơron (Neural Network) gồm các nơron liên kết
với nhau thành mạng phỏng theo cấu trúc mạng thần kinh con người. Ngoài ra,
để tiếp cận hai khả năng học và tư duy của bộ não con người, người ta nghiên
cứu khả năng tích hợp của mạng nơron và hệ mờ.

Nội dung cuốn sách “Lý thuyết tập mờ và mạng nơron ứng dụng trong
điều khiển” cung cấp các kiến thức cơ bản nhất về hệ mờ, mạng nơron và tích
hợp hai thành phần này. Đây là tài liệu giảng dạy cho sinh viên ngành Kỹ thuật
điều khiển và Tự động hóa. Ngoài mục đích phục vụ cho chương trình đào tạo
đại học ngành Kỹ thuật điều khiển và Tự động hóa, cuốn sách có thể làm tài
liệu tham khảo cho sinh viên thuộc lĩnh vực Điện – Điện tử, Tự động hóa.

Cuốn sách gồm các nội dung chính sau:

1
- Nội dung lý thuyết mờ và bộ điều khiển mờ: trình bày về lý thuyết tập
mờ, bộ điều khiển mờ và các phương pháp mô phỏng hệ mờ trong kỹ thuật
điều khiển.

- Nội dung mạng nơron: trình bày các khái niệm cơ bản về mạng nơron
và cấu trúc, luật học, các ứng dụng cơ bản của một số mạng nơron thường
dùng trong điều khiển.

- Nội dung tích hợp hai hệ mờ và mạng nơron: trình bày các mô hình kết
hợp hệ mờ và mô hình mạng nơ ron và ứng dụng trong điều khiển.

Trong quá trình tìm hiểu nghiên cứu các nội dung này, nhóm tác giả biên
soạn gặp không ít khó khăn, nhưng đã nhận được sự giúp đỡ tận tình của các
tập thể và các cá nhân. Nhóm tác giả xin chân thành cảm ơn bạn bè đồng
nghiệp cùng các tổ chức đã tạo điều kiện giúp đỡ chúng tôi trong suốt quá
trình nghiên cứu để hoàn thành cuốn sách.

Xin chân thành cảm ơn!

Nhóm tác giả

2
MỤC LỤC

MỞ ĐẦU ............................................................................................................. 0
MỤC LỤC ........................................................................................................... 3
LÝ THUYẾT TẬP MỜ....................................................................................... 6
1.1. Các khái niệm cơ bản ............................................................................... 6
1.1.1 Tập hợp kinh điển .............................................................................. 7
1.1.2. Khái niệm về tập mờ ....................................................................... 10
1.2. Các phép toán trên tập mờ ......................................................................... 17
1.2.1. Phép hợp hai tập mờ ....................................................................... 17
1.2.2. Phép giao hai tập mờ....................................................................... 19
1.2.3. Phép bù của một tập mờ .................................................................. 21
1.4. Luật hợp thành mờ ................................................................................. 23
1.4.1. Mệnh đề hợp thành ......................................................................... 23
1.4.2. Qui tắc hợp thành ............................................................................ 24
1.4.3. Luật hợp thành ................................................................................ 26
1.5. Giải mờ ................................................................................................... 44
1.5.1 Phương pháp cực đại........................................................................ 45
1.5.2. Phương pháp điểm trọng tâm.......................................................... 48
2 ......................................................................................................................... 58
HỆ ĐIỀU KHIỂN MỜ ...................................................................................... 58
2.1 Khái niệm ................................................................................................ 58
2.1.1 Mô hình mờ ..................................................................................... 58
2.1.2 Phương pháp lập luận mờ ................................................................ 61
2.1.3 Phương pháp lập luận mờ trong điều khiển mờ .............................. 64
2.2 Bộ điều khiển mờ .................................................................................... 69
2.2.1 Nguyên lý điều khiển mờ ................................................................. 69
2.2.2 Nguyên tắc thiết kế bộ điều khiển mờ ............................................. 71
2.3 Bộ điều khiển mờ tĩnh............................................................................. 83
2.3.1 Khái niệm ......................................................................................... 83
2.3.2 Thuật toán tổng hợp bộ điều khiển mờ tĩnh .................................... 84
2.4 Bộ điều khiển mờ động ........................................................................... 85
2.5 Thiết kế bộ điều khiển mờ trên Matlab .................................................. 89
3 ......................................................................................................................... 97
MẠNG NƠRON NHÂN TẠO.......................................................................... 97
3.1. Khái niệm mạng nơron nhân tạo............................................................ 97
3.1.1. Đặt vấn đề ....................................................................................... 97
3.1.2. Nguyên nhân thúc đẩy nghiên cứu mạng nơron ............................. 99
3.1.3 Mô hình nơron sinh học ................................................................ 100
3.1.4. Mô hình nơron nhân tạo................................................................ 102
3.2 Mạng nơron truyền thẳng sử dụng luật học có giám sát ...................... 118

3
3.2.1. Mô hình nơron nhân tạo M-P ....................................................... 118
3.2.2. Các mạng truyền thẳng 1 lớp ........................................................ 121
3.2.3. Mạng truyền thẳng nhiều lớp ........................................................ 134
3.2.4 Mạng RBF (Radiel Basis Funtion) ............................................... 152
3.3 Mạng nơron hồi qui một lớp ................................................................. 157
3.3.1. Mạng Hopfield rời rạc .................................................................. 158
3.3.2. Mạng Hopfield liên tục ................................................................. 162
3.3.3 Tối ưu hoá sử dụng mạng nơron Hopfield .................................... 165
3.4 Mạng nơron sử dụng luật học không giám sát ..................................... 166
3.4.1 Các luật học không giám sát .......................................................... 167
3.4.2 Mạng nơron sử dụng luật học không giám sát - Hamming ........... 173
3.5 Mạng nơron hồi qui .............................................................................. 179
3.5.1 Mạng lan truyền ngược hồi qui...................................................... 179
3.6 Mô hình mạng nơron trong Matlab ...................................................... 184
3.6.1 Mô hình nơron và mạng nơron truyền thẳng ................................. 185
3.6.2 Simulink neural toolbox của Matlab ............................................. 187
CÂU HỎI VÀ BÀI TẬP ................................................................................. 191
4 ....................................................................................................................... 193
HỆ THỐNG TÍCH HỢP MẠNG NƠRON VÀ HỆ MỜ ................................ 193
4.1 Các bộ điều khiển mờ nơron ................................................................. 193
4.1.1 Loại 1 (MISO) ................................................................................ 193
4.1.2 Loại 2 ............................................................................................. 194
4.1.3 Loại 3 ............................................................................................. 195
4.2 Bộ điều khiển mờ nơron học thông số.................................................. 196
4.2.1 Bộ điều khiển mờ nơron với các luật mờ duy nhất ....................... 197
4.2.2 Mạng thích nghi mờ nơron - ANFIS ............................................. 202
4.2.3 Mạng nơron Elman mờ .................................................................. 207
4.3 Bộ nhớ liên kết mờ ................................................................................ 212
4.4 ANFIS trong Matlab ............................................................................ 216
4.4.1. Mô hình học và suy diễn mờ thông qua ANFIS ........................... 217
4.4.2 ANFIS trong Fuzzy Toolbox của Matlab ...................................... 219
5 ....................................................................................................................... 225
ỨNG DỤNG HỆ MỜ, NƠRON TRONG ĐIỀU KHIỂN .............................. 225
5.1 Ứng dụng hệ mờ trong điều khiển ........................................................ 225
5.1.1 Thiết kế bộ điều khiển PID mờ ...................................................... 225
5.1.2. Hệ mờ lai ....................................................................................... 230
5.1.3 Ứng dụng điều khiển mờ trong điều khiển thiết kế hệ thống ....... 233
5.2 Ứng dụng mạng nơron trong nhận dạng và điều khiển ........................ 237
5.3.1 Ứng dụng mạng nơron trong nhận dạng....................................... 239
5.5.2 Ứng dụng mạng nơron trong điều khiển ....................................... 243
5.3 Một số ứng dụng trong nhận dạng và điều khiển ............................. 250
5.3.1 Ứng dụng 1 .................................................................................... 250
4
5.3.2 Ứng dụng 2 .................................................................................... 251
5.3.3 Ứng dụng 3 .................................................................................... 253
TÀI LIỆU THAM KHẢO ............................................................................... 255

5
1

LÝ THUYẾT TẬP MỜ

1.1. Các khái niệm cơ bản

Từ những năm đầu của thập kỷ 90 đến nay, hệ điều khiển mờ và mạng
nơron (Fuzzy system and neural network) được các nhà khoa học, các kỹ sư và
sinh viên trong mọi lĩnh vực khoa học kỹ thuật đặc biệt quan tâm nghiên cứu
và ứng dụng vào sản suất. Tập mờ và logic mờ (Fuzzy set and Fuzzy logic)
dựa trên các suy luận của con người về các thông tin “không chính xác” hoặc
“không đầy đủ” về hệ thống để hiểu biết và điều khiển hệ thống một cách
chính xác. Điều khiển mờ chính là bắt chước cách xử lý thông tin và điều
khiển của con người đối với các đối tượng, do vậy điều khiển mờ có thể giải
quyết các vấn đề điều khiển phức tạp mà trước đây chưa giải quyết được.

Lịch sử của điều khiển mờ bắt đầu từ năm 1965, khi giáo sư Lofti
A.Zadeh ở trường Đại học California – Mỹ đưa ra khái niệm về lý thuyết tập
mờ (Fuzzy set theory), từ đó trở đi các nghiên cứu lý thuyết và ứng dụng tập
mờ phát triển một cách mạnh mẽ, với một số thời điểm đáng chú ý:

- Năm 1972, các giáo sư Terano và Asai đã thiết lập ra cơ sở nghiên cứu
hệ thống điều khiển mờ ở Nhật.

- Năm 1974, Mandani đã nghiên cứu điều khiển mờ cho lò hơi.

- Năm 1980, hãng Smidth Co. đã bắt đầu nghiên cứu điều khiển mờ cho
lò xi măng.

- Năm 1983, hãng Fuji Electric đã nghiên cứu ứng dụng điều khiển mờ
cho nhà máy xử lý nước.

- Năm 1984, Hiệp hội hệ thống mờ quốc tế (IFSA) được thành lập.

6
- Năm 1989, phòng thí nghiệm quốc tế nghiên cứu ứng dụng kỹ thuật mờ
đàu tiên được thành lập.

Đến nay đã có rất nhiều tài liệu nghiên cứu lý thuyết và các kết quả ứng
dụng logic mờ trong điều khiển hệ thống, tuy vậy phương pháp luận và tính
nhất loạt cho ứng dụng thực tế của logic mờ vẫn còn đang thu hút nhiều nhà
khoa học nghiên cứu và phá Logic rõ (logic thông thường) đã quen thuộc hàng
ngày với khái niệm rất rõ ràng và từ đó cho ta kết luận dứt khoát.

L.A. Zadeh là người sáng lập ra lý thuyết tập mờ với hàng loạt bài báo
mở đường cho sự phát triển và ứng dụng của lý thuyết này, khởi đầu là bài báo
“Fuzzy Sets” trên Tạp chí Information and Control, 8, 1965. Ý tưởng nổi bật
của khái niệm tập mờ của Zadeh là từ những khái niệm trừu tượng về ngữ
nghĩa của thông tin mờ, không chắc chắn như trẻ, nhanh, cao, thấp, xinh đẹp
…, ông đã tìm ra cách biểu diễn nó bằng một khái niệm toán học, được gọi là
tập mờ, như là một sự khái quát trực tiếp của khái niệm tập hợp kinh điển.

1.1.1 Tập hợp kinh điển

1. Khái niệm về tập hợp

Tập hợp có thể coi là sự xếp đặt chung lại các vật, các đối tượng có cùng
chung một tính chất. Các vật, các đối tượng đó được gọi là phần tử của tập
hợp.

Ví dụ 1.1: Một lớp trong đó có các thành viên của lớp, một tổng công ty trong
có các công ty thành viên….

Cho một tập hợp A. Một phần tử x thuộc A được ký hiệu bằng x  A ,
ngược lại ký hiệu x  A để chỉ x không thuộc A. Một tập hợp không có phần
tử nào được gọi là tập rỗng, tập rỗng ký hiệu .

7
Có nhiều cách để ký hiệu một tập hợp như: liệt kê các phần tử của tập
hợp, biểu diễn thông qua tính chất tổng quát của các phần tử.

Cho hai tập hợp A và B, nếu mọi phần tử của A cũng là phần tử của B
thì A được gọi là tập con của B và ký hiệu bằng A  B . Nếu trong B còn có ít
nhất một phần tử không thuộc A thì A được gọi là tập con thực của B và ký
hiệu bằng A  B . Hai tập hợp A và B cùng đồng thời thoả mãn A  B và
B  A thì nói là chúng bằng nhau và ký hiệu bằng A  B . Với hai tập bằng
nhau thì mọi phần tử của tập này cũng là phần tử của tập kia và ngược lại.

2. Các phép tính của tập hợp

+ Hiệu của hai tập hợp A, B được ký hiệu bằng A\B, là một tập hợp, gồm
các phần tử của A không thuộc B (Hình 1.1a).

+ Giao của hai tập hợp A, B được ký hiệu AB, là một tập hợp, gồm các
phần tử vừa thuộc A vừa thuộc B (Hình 1.1b).

+ Hợp của hai tập hợp A, B được ký hiệu bằng AB, là một tập hợp, gồm
tất cả các phần tử của A và của B (Hình 1.1c).

+ Bù của một tập hợp A, được ký hiệu bằng AC, là một tập hợp gồm các
phần tử không thuộc A.

+ Tích của hai tập hợp A, B ký hiệu là AB, là một tập hợp mà mỗi phần
tử của nó là một cặp (x,y) trong đó x  A và y  B . Hai tập hợp A, B được gọi

là thừa số của phép nhân. Trong trường hợp A = B thì tích AB thường được
viết thành A2.

A
A\B AB A
B
a) b) c) B
B
Hình 1.1. Các phép tính trên tập hợp

8
Tích hai tập hợp sẽ là tập rỗng nếu như một trong hai tập thừa số là tập
rỗng. Ngược lại nếu tích là tập rỗng thì ít nhất phải có một tập thừa số là tập
rỗng. Phép nhận tập hợp không có tính giao hoán.

3. Hàm liên thuộc (phụ thuộc)

Hàm liên thuộc của tập hợp A thể hiện mức độ phụ thuộc của các giá trị
trong tập hợp đó. Nếu x  A thì có độ phụ thuộc là 1, còn x  A thì có độ
phụ thuộc 0. Hàm liên thuộc của tập hợp A ký hiệu là  A ( x )

1 khi x  A
A (x)  
0 khi x  A

A(x)

x
0

Hình 1.2. Hàm liên thuộc của tập hợp

Hàm liên thuộc của tập hợp như Hình 1.2

Các phép toán hiệu, giao, hợp, bù, nhân các tập hợp thể hiện qua hàm
liên thuộc như sau:

 A \ B ( x )   A ( x )   A ( x ) B ( x )

 A  B ( x )   A ( x ) B ( x )  min A ( x ),  B ( x )

 A  B ( x )   A ( x )   B ( x )   A ( x ) B ( x )  max A ( x ),  B ( x )

A C (x)  1   A (x)

 A B ( x, y)   A ( x ) B ( y)

9
1.1.2. Khái niệm về tập mờ

Sự khác nhau giữa tập mờ và tập hợp kinh điển thông qua khái niệm
hàm liên thuộc. Hàm liên thuộc A của tập hợp kinh điển chỉ có hai giá trị
chính xác là 0 và 1 như Hình 1.2, do vậy nếu ta đã biết tập hợp A thì cũng xác
định được hàm liên thuộc A(x) của nó và ngược lại, nếu đã biết hàm liên
thuộc A(x) thì cũng suy ra được tập hợp A.

Trong logic mờ, vấn đề này lại khác, hàm liên thuộc của tập mờ không
chỉ nhận 2 giá trị là 0 và 1 mà là toàn bộ các giá trị từ 0 đến 1 tức là
0   B ( x )  1 . Hình 1.3 là hai hàm liên thuộc của hai tập mờ. Hàm liên thuộc
của tập mờ B có dạng Hình 1.3a.

Như vậy, ở logic mờ không có sự suy luận thuận ngược như với tập hợp
kinh điển. Vì vậy trong định nghĩa tập mờ phải nêu thêm về hàm liên thuộc
này do vai trò của nó là làm rõ ra chính tập mờ đó.

B(x) C(x)

1
1

x
x 0
0
m1 m2 m3 m4

a) b)

Hình 1.3. Hàm liên thuộc của tập mờ


1. Định nghĩa tập mờ

Tập mờ F xác định trên tập kinh điển M là một tập mà mỗi phần tử của
nó là một cặp các giá trị (x, f(x)), trong đó x  M và f là ánh xạ
 f : M  [0, 1] , ánh xạ f được gọi là hàm liên thuộc (phụ thuộc) của tập mờ
F. Tập kinh điển M được gọi là cơ sở của tập mờ F.

10
Ví dụ 1.2: một tập mờ gồm các số tự nhiên nhỏ hơn 6 nhiều với hàm liên thuộc
như Hình 1.4 có các phần tử sau:

F  (1; 1), (2; 1), (3; 0,8), (4; 0,08)

B(x)

0,8

0,08 x
0 1 2 3 5
4

Hình 1.4. Hàm liên thuộc tập mờ số tự nhiên nhỏ hơn 6

các số tự nhiên 1 và 2 có độ phụ thuộc  F (1)  1 ,  F (2)  1 . Các số tự nhiên 3


và 4 có độ phụ thuộc nhỏ hơn 1 là  F (3)  0,8 ,  F (4)  0,08 . Các số khác đều
có độ phụ thuộc bằng 0.

Có nhiều dạng hàm liên thuộc, Bảng 1.1 chỉ ra một số hàm liên thuộc.

Bảng 1.1: Các dạng hàm liên thuộc

TT Đồ thị Hàm liên thuộc

1
1
2

x
( x )  e  kx , k0
0

11

 1, 0  x  a1
1  a  x
2 ( x )   2 , a1  x  a 2
 a 2  a1
x  0, a2  x
0 a1 a2


 k 1
1 K>1 1  ax , 0  x 
 k
a
3 K=1
( x )  
K<1 1
 0, x
x  k
a
0 k
1/ a


 0, 0  x  a1
4 1  x  a
( x )   1
, a1  x  a 2
 a 2  a 1
0
x  1, a2  x
a 1 a2

 
 0, 0x
1
5 
 1
( x )  a ( x  ) k ,   x    k
 a
x
0  1, 1
 1  k x
  k a  a


 0, 0xa
6 1

( x )   k ( x  a ) 2
, a  x, k  0
1  k ( x  a )
x
0 a

7 1

2
x
( x )  e  kx
0

12
 0,    x  a 2
  a2  x
 ,  a 2  x  a 1
8 1 a
 2  a 1
( x )   1,  a1  x  a1
 a2  x
x
a  a , a1  x  a 2
-a 2 -a 1 0 a1 a2
 2 1
 0, a2  x  

 1
 0, xk
 a
 1
1 K>1 1  a (  x ) , 
k
x0
9  k
a
K=1
( x )  
K<1 1
 1  a (x) k , 0x k
x  a
 1/ k
a 0 1/ k
a  1
 0, k
x
 a

10 1

1
( x )  , k 1
0
x 1  kx 2

 0,    x  b
1 1  ab
  sin (x  ),
 2 2 ba 2
1   b  x  a
11 
 ( x)   1, a  x  a
1 1  ab
x   sin (x  ),
0 -a

a  b -b a a  b b 2 2 ba 2
2 2
 a xb

 0, bx


1  e kx ,  x0
-1 /k 1 1 /k

12 ( x )   1  e  kx , 0  x  ,
 k 1
x 
0

13

1
13
kx
x ( x )  , k 1
0
1  kx 2

 1,    x  a 2
  x  a1
 ,  a 2  x  a 1
1 a
 2  a 1
14 ( x )   0,  a1  x  a1
 x  a1
x
a  a , a1  x  a 2
-a 2 -a 1 0 a1 a2
 2 1
 1, a2  x  

 1
 1,  x  k
 a
 1/ k a 1/ k
a
 1
1 a ( x ) k ,  k  x  0
K<1  a
15 ( x )  
K=1 1
K>1
 a (x )k , 0x k
x  a
0
 1
 1, k
x
 a

 1,    x  b
1 1  ab
1
  sin (x  ),  b  x  a
2 2 b  a 2
16 (x)   0, a  x a
x  1 1  ab
0 -a a  b - b

2
a ab
2
b  2  2 sin b  a (x  2 ), a  x  b
 1, bx

Các hàm liên thuộc F (x) có dạng trơn gọi là hàm liên thuộc kiểu S. Các
hàm liên thuộc kiểu S có công thức biểu diễn  F ( x) phức tạp, nên thời gian
tính độ phụ thuộc cho một phần tử lâu. Một hàm liên thuộc có dạng tuyến tính
từng đoạn được gọi là hàm liên thuộc có mức chuyển đổi tuyến tính.

14
Ví dụ 1.3: Tập mờ F bao gồm các số thực lớn hơn 3 nhiều và nhỏ hơn 9 nhiều
có hàm liên thuộc gần đúng là hình thang như Hình 1.5. Từ hàm liên thuộc ta
xác định được độ phụ thuộc (liên thuộc) của các số trong tập này:

 F (4)  0, 5 ,  F (4,5)  0, 75 ,  F (5)  1 ,  F (6)  1 ,  F (8)  0,5

F(x)
1
0,5
x
0
3 4 5 6 8 9

Hình 1.5. Hàm liên thuộc dạng tuyến tính

2. Độ cao, miền xác định và miền tin cậy

- Độ cao của tập mờ F (định nghĩa trên cơ sở M) là giá trị:

H = sup F(x), x M (1.2)

nếu tập mờ có H = 1 gọi là chính tắc, H luôn < 1 là không chính tắc.

Miền xác định của tập mờ F (định nghĩa trên cơ sở M) ký hiệu bằng S, là tập
con của M thoả mãn.

S = {xM; F(x)>0} (1.3)

- Miền tin cậy của tập mờ F (định nghĩa trên cơ sở M), ký hiệu bằng T, là tập
con của M thoả mãn.

T = {x M; F(x) = 1} (1.4)

15
F(x)
1

0 x

Miền tin cậy

Miền xác định

Hình 1.6. Miền xác định và miền tin cậy của tập mờ

Dạng tổng quát của hàm liên thuộc

Hàm liên thuộc có rất nhiều dạng, các hàm liên thuộc vẫn có thể viết ở
dạng tổng quát sau:

 I( x ) x  a , b 
H x  ( b, c )

( x, a , b, c, d, H)   (1.5)
D( x ) x  c, d 
 0 x  R  (a , d )

trong đó a  b  c  d , H là độ cao của hàm liên thuộc, I(x) và D(x) là các hàm
nào đó.

Nếu b = c, I(x) là hàm tuyết tính dương, D(x) là hàm tuyến tính giảm thì
hàm liên thuộc có dạng tam giác.

Nếu b  c , I(x) là hàm tuyến tính dương, D(x) là hàm tuyến tính giảm
thì hàm liên thuộc có dạng hình thang.

 xx
Nếu a   , b  c  x , d   và I( x )  D( x )  exp   thì hàm
  
liên thuộc có dạng Gauss....

16
1.2. Các phép toán trên tập mờ

Tập mờ có ba phép toán cơ bản: phép hợp, phép giao và phép bù.

1.2.1. Phép hợp hai tập mờ

Hợp của hai tập mờ A và B có cùng cơ sở M là một tập mờ cũng xác


định trên cơ sở M với hàm liên thuộc:

AB(x) = MAX{A(x), B(x)} (1.6)

Phép hợp của hai tập mờ thể hiện trên Hình 1.7

Hình 1.7. Hàm liên thuộc của hợp hai tập mờ

Ngoài công thức (1.6) còn có một số công thức khác để tính hàm liên
thuộc của phép hợp hai tập mờ như: Phép hợp Lukasiewier, tổng Einstein,
tổng trực tiếp...

+ Phép hợp Lukasiewier:

A B(x) = min{1, A(x) + B(x)} (1.6a)

+ Tổng Einstein:

 A (x)   B (x)
 A B ( x )  (1.6b)
1   A (x)   B (x)

+ Tổng trực tiếp:

17
A B(x) = A(x) + B(x) - A(x) B(x) (1.6c)

max{ A ( x ),  B ( x )} nÕu min { A ( x ),  B ( x )}  0


+  AB ( x )   (1.6d)
1 nÕu min { A ( x ),  B ( x )}  0

Trường hợp hai tập mờ không cùng cơ sở:

Giả sử tập mờ A với hàm liên thuộc A(x) định nghĩa trên cơ sở M và
tập mờ B với hàm liên thuộc B(y) định nghĩa trên cơ sở N Hình 1.8 a.

Để tính phép hợp trước tiên ta phải đưa chúng về cùng cơ sở bằng cách
lấy tích của hai cơ sở đã có là (MN). Vì tập mờ A không phụ thuộc vào N do
đó khi đưa về cơ sở MN thì A(x) là một mặt “cong” theo trục y, Tập mờ B
không phụ thuộc M do đó khi đưa về cơ sở MN thì B(y) là một mặt “cong”
theo x như Hình 1.8b.

a,

b,
Hình 1.8: Phép hợp hai tập mờ
không cùng cơ sở
(a) Hàm liên thuộc hai tập mờ
(b) Đưa hai tập mờ về cùng cơ
sở
(c) Hợp hai tập mờ trên cơ sở
MN c,

18
Ký hiệu tập mờ A là tập mờ định nghĩa trên cơ sở MN và tập mờ B là
tập mờ định nghĩa trên cơ sở MN. Như vậy:

 A ( x, y)   A ( x ) với mọi y  N và

 B ( x , y)   B ( y) với mọi x  M

Hợp của hai tập mờ A và B tương ứng với hợp của hai tập mờ A và B
kết quả là một tập mờ xác định trên cơ sở MN với hàm liên thuộc:

 A B ( x, y)  MAX{ A ( x, y),  B ( x , y)} (1.6e)

Hợp của hai tập mờ không cùng cơ sở được thể hiện trên Hình 1.8c.

1.2.2. Phép giao hai tập mờ

Giao của hai tập mờ A và B có cùng cơ sở M là một tập mờ cũng xác


định trên cơ sở M với hàm liên thuộc.

A B(x) = MIN{A(x), B(x)} (1.7)

Phép giao của hai tập mờ được thể hiện trên Hình 1.9.

A(x) B(x)

Hình 1.9. Hàm liên thuộc của giao hai tập mờ

Ngoài công thức (1.7) còn có một số công thức tính khác để tính hàm
liên thuộc của giao hai tập mờ như: Phép giao Lukasiewier, tích Einstein, tích
đại số ...

19
+ Phép giao Lukasiewier:

A B(x) = max{0, A(x) + B(x) - 1} (1.7a)

+ Tích Einstein:

 A (x)   B (x)
 A B ( x )  (1.7b)
2  ( A ( x )   B ( x ))   A ( x ) B ( x )

+ Tích đại số:

A B(x) = A(x)B(x) (1.7c)

 min{ A ( x ),  B ( x )} nÕu max { A ( x ),  B ( x )}  1


+  A B ( x )   (1.7d)
0 nÕu max { A ( x ),  B ( x )}  1

Trường hợp hai tập mờ không cùng cơ sở:

Nếu tập mờ A với hàm liên thuộc A(x) định nghĩa trên cơ sở M và tập
mờ B với hàm liên thuộc B(x) định nghĩa trên cơ sở N Hình 1.10 thì ta đưa
chúng về cùng một cơ sở bằng cách lấy tích của hai cơ sở đã có là (MN). Ta
ký hiệu tập mờ A là tập mờ định nghĩa trên cơ sở MN và tập mờ B là tập mờ
định nghĩa trên cơ sở MN.

Hình 1.10. Giao hai tập mờ không cùng cơ sở

20
Như vậy, giao của hai tập mờ A và B tương ứng với giao của hai tập mờ
A và B kết quả là một tập mờ xác định trên cơ sở MN với hàm liên thuộc:

 A B ( x , y)  MIN{ A ( x , y),  B ( x , y)} (1.7e)

trong đó:

 A ( x , y)   A ( x ) Víi mäi y  N vµ

 B ( x , y )   B ( y) Víi mäi x  M

Giao của hai tập mờ không cùng cơ sở được thể hiện trên Hình 1.10.

1.2.3. Phép bù của một tập mờ

Bù của tập mờ A có cơ sở M và hàm liên thuộc A(x) là một tập mờ AC


xác định trên cùng cơ sở M với hàm liên thuộc:

 AC (x )  1   A (x ) (1.8)

Phép bù của một tập mờ được thể hiện trên Hình 1.11.


A(x)  AC ( x )

Hình 1.11. Phép bù của tập mờ

1.3. Biến ngôn ngữ

Biến ngôn ngữ là cách thể hiện bằng ngôn ngữ của các biến trạng thái
như vận tốc, nhiệt độ, vị trí... . Ở đây các thành phần ngôn ngữ của cùng một

21
ngữ cảnh được kết hợp lại với nhau ví dụ như: rất chậm, chậm, trung bình,
nhanh, rất nhanh…; âm, zê rô, dương…

Ví dụ 1.4: Xét tốc độ của xe mô tô trong khoảng 0 đến 100 km/h

Như vậy biến ngôn ngữ cũng có 2 miền giá trị:

- Miền các giá trị ngôn ngữ:

N= {rất chậm(VS), chậm(S), trung bình (M), nhanh (F), rất nhanh(VF)}

- Miền các giá trị vật lý:

V= { x  B│ x  0}

Biến tốc độ được xác định trên miền ngôn ngữ N được gọi là biến ngôn
ngữ ta có các hàm liên thuộc tương ứng là:

x→ (x) = { VS(x), S(x), M(x), F(x), VF(x) }

Biến ngôn ngữ tốc độ được mô tả bằng các tập mờ như Hình 1.12.

Hình 1.12. Mô tả biến ngôn ngữ tốc độ

Ví dụ 1.5: Hàm thuộc tại giá trị rõ x = 40km/h của biến tốc độ là:

 VS   0 
   
  S  1
40km / h    M    0 
   
  F  0
   0
 VF   

22
Với x = 65km/h là:

 VS   0 
   
 S   0 
65km / h    M    0, 75 
   
  F   0, 25 
   0 
 VF   

1.4. Luật hợp thành mờ

1.4.1. Mệnh đề hợp thành

Luật mờ cơ bản là luật mô tả bởi quan hệ: Nếu ... Thì...(IF....THEN....),


một cách tổng quát có dạng:

NẾU <các mệnh đề mờ điều kiện> THÌ <các mệnh đề mờ kết luận>

Một mối quan hệ NẾU.... THÌ ..... gọi là một mệnh đề hợp thành, trong
một mệnh đề hợp thành có thể có một mệnh đề điều kiện hoặc nhiều mệnh đề
điều kiện và một hoặc nhiều mệnh đề kết luận.

Một số dạng mệnh đề mờ:

x = A và x1 = A1 và x2  B.

x1 = A1 và x2 = A2 và ... và xn = An

....................

x1 = A1 hoặc x2 = A2 hoặc ... hoặc xn = An (1.9)

(lưu ý rằng các phép logic và (and), hoặc (or), phủ định (not) trong logic mờ
tương ứng các phép giao, hợp, bù).

Ví dụ 1.6: Một số mệnh đề hợp thành phát biểu theo biến ngôn ngữ như sau:

Nếu x = A thì y = B

23
Nếu xe đang chạy chậm thì tăng ga lên

Nếu xe đang chạy rất chậm thì tăng mạnh ga lên

Trong hệ mờ luật mờ là bộ não của nó, người thiết kế phải dựa vào kinh
nghiệm của mình mà phát biểu và xây dựng cho được một tập mờ dạng này
làm cơ sở cho việc triển khai thiết kế tiếp theo.

1.4.2. Qui tắc hợp thành

Từ một giá trị đầu vào x0 hay cụ thể hơn là độ phụ thuộc A(x0) ta phải
xác định được đầu ra hay độ phụ thuộc của đầu ra. Độ phụ thuộc đầu ra sẽ là
một tập mờ gọi là tập mờ B'(y), tập mờ B' cùng cơ sở với tập mờ kết luận B.

Như trên Hình 1.14, A(x) là mệnh đề điều kiện ví dụ tốc độ xe chậm,
B(y) là mệnh đề kết luận ví dụ tăng bàn đạp ga, thì từ một giá trị rõ x0 (một
giá trị tốc độ xác định) ta xác định được tập mờ đầu ra B'(y) (theo qui tắc MIN
của Mandani) chính là AB(x0,y) (là tập mờ tô đậm trên Hình 1.14b).

Như vậy, biểu diễn hệ số thỏa mãn mệnh đề kết luận như một tập mờ B'
cùng cơ sở với B thì mệnh đề hợp thành chính là ánh xạ.

A(x0)  B'(y) (1.10)

Mô tả mệnh đề hợp thành chính là mô tả ánh xạ trên, có nghĩa là phải


tìm được hàm liên thuộc AB(x,y) cho mệnh đề hợp thành A B, có nhiều
cách mô tả mệnh đề hợp thành gọi là các qui tắc hợp thành đó là:

1- Công thức Zadeh: (qui tắc hợp thành Zadeh)

AB(x,y) = MAX{MIN{A(x), B(y)}, 1 - A(x)} (1.11a)

2- Công thức Lukasiewicz: (qui tắc hợp thành Lukasiewicz)

AB(x,y) = MIN{1, 1 - A(x) + B(y)} (1.11b)

3- Công thức Kleene-Dienes: (qui tắc hợp thành Kleene-Dienes)

24
AB(x,y) = MAX{1 - A(x), B(y)} (1.11c)

Theo nguyên tắc của Mandani " Độ phụ thuộc của kết luận không được
lớn hơn độ phụ thuộc của điều kiện" ta có cách xác định hàm liên thuộc
AB(x,y) cho mệnh đề hợp thành A B như sau.

4- Công thức MIN: (qui tắc hợp thành MIN của Mandani, sách gọi là
qui tắc hợp thành MAX-MIN)

AB(x,y) = MIN{A(x), B(y)} (1.11d)

5- Công thức PROD: (qui tắc hợp thành MIN của Mandani, hay còn gọi
là qui tắc hợp thành MAX-PROD)

AB(x,y) = A(x)B(y) (1.11e)

Các công thức (1.11a, ..., 1.11e) cho mệnh đề hợp thành AB được gọi
là các quy tắc hợp thành. Hai quy tắc hợp thành theo Mamdani là MIN (MAX-
MIN) và PROD (MAX-PROD) hay được sử dụng hơn cả.

Xét mệnh đề hợp thành một điều kiện: Nếu x = A thì y = B, (x có thể là
tốc độ xe, y là bàn đạp ga, A là chậm, B là tăng) x được xác định bởi các hàm
liên thuộc A(x), và y được xác định bởi các hàm liên thuộc B(y) thì hàm liên
thuộc AB(x,y) sử dụng quy tắc MIN và quy tắc PROD tại một giá trị rõ
x  x 0 được chỉ ra trên Hình 1.13 a và b.

25
 
a) B(y)
A(x)

x y
 
b) B(y)
A(x)
H
AB(x0,y
x0 x y
c) 
A(x) B(y)
H
AB(x0,y
x0 x y
Hình 1.13. Hàm liên thuộc của luật hợp thành AB(x,y)

a) Hàm liên thuộc; b) Với qui tắc MAX-MIN; c) Với qui tắc MAX-PROD

1.4.3. Luật hợp thành

Để đơn giản ký hiệu mệnh đề hợp thành AB tại một giá trị rõ x  x 0 là
R. Tên gọi chung của mô hình R (ma trận) là luật hợp thành.

Hàm liên thuộc AB(x,y) của mô hình R được biểu diễn theo cách tổ
hợp các mệnh đề hợp thành nào, theo quy tắc hợp thành nào thì luật hợp thành
có tên gọi là tên ghép của cách tổ hợp và tên quy tắc hợp thành đó.

Ví dụ 1.7: hàm liên thuộc AB(x,y)

+ Hàm liên thuộc AB(x,y) được tổ hợp theo phép hợp AB(x) =
MAX{A(x), B(x)} và quy tắc MIN thì ta có luật hợp thành MAX-MIN.

+ Hàm liên thuộc AB(x,y) được tổ hợp theo phép hợp AB(x) =
MAX{A(x), B(x)} và quy tắc PROD thì ta có luật hợp thành MAX-PROD.

26
+ Hàm liên thuộc AB(x,y) được tổ hợp theo phép hợp Lukasiewier: A

B(x) = min{1, A(x) + B(x)} và quy tắc MIN thì ta có luật hợp thành SUM-
MIN.

+ Hàm liên thuộc AB(x,y) được tổ hợp theo phép hợp Lukasiewier: A

B(x) = min{1, A(x) + B(x)} và quy tắc PROD thì ta có luật hợp thành SUM-
PROD….

Chú ý: Nếu luật hợp thành chỉ có một mệnh đề hợp thành (không phải tổ hợp)
thì thực chất chưa thể hiện được khái niệm MAX hoặc SUM, khi đó luật hợp
thành MAX-MIN tương đương SUM-MIN, MAX-PROD tương đương SUM-
PROD.

Ký hiệu giá trị mờ đầu ra là B' thì hàm liên thuộc của B' tại một giá trị rõ
x0 với quy tắc MAX-MIN sẽ là:

B'(y) = R(x0,y) = MIN{A(x0) B(y)} (1.12)

Từ công thức (1.12) ta thấy khi độ cao của tập mờ B là 1 thì độ cao của
tập mờ B' sẽ chính là độ cao của tập mờ A tại x0, Hình 1.13b.

Như vậy: H( x 0 )   A ( x 0 )

Ta gọi H ( x 0 ) là độ thỏa mãn mệnh đề điều kiện hay gọi tắt là độ thỏa
mãn. Thì hai luật hợp thành MAX-MIN và MAX-PROD được viết như sau:

1- Luật hợp thành MAX-MIN:

B'(y) = R(x0,y) = MIN{ H( x 0 ) , B(y)}. (1.13a)

2- Luật hợp thành MAX-PROD:

B'(y) = R(x0,y) = H ( x 0 ) B(y). (1.13b)

27
Do đó để xác định hàm liên thuộc B'(y) ta phải xác định độ thỏa mãn
H ( x 0 ) sau đó có thể sử dụng các công thức (1.13a) hoặc (1.13b).

Ví dụ 1.8: Bộ điều khiển mờ với luật hợp thành MAX-MIN như Hình 1.14.

Hình 1.14. Bộ điều khiển mờ luật hợp thành MAX - MIN

* Cách xác định độ thỏa mãn H( x 0 ) :

Cách xác định độ thỏa mãn H ( x 0 ) được chỉ ra trên Hình 1.15.

 
A(x) A'(x) A(x)

H (x 0 ) H (x 0 )

x0 x x
a) b)

Hình 1.15. Xác định độ thỏa mãn H(x0)


(a)Với giá trị vào rõ x0; (b) Với giá trị vào mờ có hàm liên thuộc A'(x)

+ Khi tín hiệu vào là một giá trị rõ x0 Hình 1.15a.

+ Khi tín hiệu vào là một giá trị mờ với hàm liên thuộc A'(x) Hình
1.15b.

28
1.4.3.1. Luật hợp thành một điều kiện

Từ các khái niệm về luật hợp thành và tập mờ đầu ra B'(y) như trên ta
có thể xây dựng thuật toán để xác định luật hợp thành và tập mờ đầu ra.

a. Thuật toán xây dựng luật hợp thành R

Luật hợp thành R chính là mô hình ma trận R của mệnh đề hợp thành
AB, ứng với mỗi công thức tính hàm liên thuộc AB(x,y) khác nhau ta có
các luật hợp thành khác nhau. Nhưng nhìn chung để xây dựng luật hợp thành
R (một điều kiện) ta có thể tiến hành theo các bước sau:

Bước 1: Rời rạc hóa các hàm liên thuộc A(x), B(y), số điểm rời rạc hóa với
tần số đủ lớn sao cho không bị mất tín hiệu. Chẳng hạn rời rạc hàm A(x) với n
điểm x1 , x 2 ,..., x i ,..., x n , hàm B(y) với m điểm y1, y2 ... yj ...ym .

T T
Bước 2: Xác định hàm liên thuộc rời rạc  A ( x ) và  B ( y) là: (T là chuyển vị)

T
 A ( x )  { A ( x1 ),  A ( x 2 ), ... ,  A ( x n )}

T
 B ( y)  { B ( y1 ),  B ( y 2 ), ... ,  B ( y m )} (1.14)

Bước 3: Xây dựng ma trận hợp thành R, ma trận này có n hàng và m cột:

  R ( x1 , y1 ) ...  R ( x1 , y m )   r11 ... r1m 


   
R          (1.15)
  ( x , y ) ...  ( x , y )   r 
 R n 1 R n m   n1 ... rnm 

trong đó: rij = R(xi, yj) được tính theo các công thức (1.11a) đến (1.11e). Thực
tế hay dùng hai công thức MIN và PROD của Mandani (1.11d) và (1.11e) là:

- Theo công thức MIN (với luật hợp thành MAX-MIN):

rij = R(xi, yj) = MIN {A(xi), B(yj)} (1.16a)

- Theo công thức PROD (với luật hợp thành MAX-PROD):

29
rij = R(xi, yj) = A(xi).B(yj) (1.16b)

* Công thức tổng quát để xây dựng luật hợp thành R

Từ các công thức (1.14) đến (1.16b) ta thấy có thể đưa ra công thức tổng
quát (công thức dyadic) để tính ma trận hợp thành R như sau:
T
R   A ( x ). B ( y) (1.17)

Trong công thức (1.17) nếu áp dụng quy tắc MAX-MIN thì phép nhân
được thay bằng phép lấy cực tiểu (MIN), với quy tắc MAX-PROD thì thực
hiện phép nhân như bình thường.

Ví dụ 1.9: Cho mệnh đề hợp thành AB, với hàm liên thuộc A(x), B(y) cho
trên Hình 1.17. Hãy xác định ma trận hợp thành R.

 
B(y)
A(x)
1 1

0,5 0,5

0,1 0,3 0,5


x 0,5 0,7 0,9 y

Hình 1.17. Rời rạc hóa hàm liên thuộc

Bước 1: Rời rạc hóa hàm liên thuộc A(x), B(y)

x  {x1 ; x2 ; x3 ; x4 ; x5} = {0,1 ; 0,2 ; 0,3 ; 0,4 ; 0,5}

y  {y1 ; y2 ; y3 ; y4 ; y5} = {0,5 ; 0,6 ; 0,7 ; 0,8 ; 0,9}

Bước 2: Xác định các giá trị của hàm liên thuộc tại các điểm rời rạc:

30
T
 A ( x )  { A ( x1 ),  A ( x 2 ), ... ,  A ( x n )}  { A (0,1),  A (0,2), ... ,  A (0,5)}
 (0 ; 0,5 ; 1 ; 0,5 ; 0)
T
 B ( y)  { B ( y1 ),  B ( y 2 ), ... ,  B ( y m )}  { B (0,5),  B (0,6), ... ,  B (0,9)}
 (0 ; 0,5 ; 1 ; 0,5 ; 0)
Các điểm rời rạc được thể hiện trên Hình 1.17.

Bước 3: Tính ma trận R

- Tính theo công thức (1.15), (1.16), với luật hợp thành MAX-MIN, ma
trận hợp thành R có 5 hàng và 5 cột:

 r11 r12 r13 r14 r15   0 0 0 0 0


   
 r21 r22 r23 r24 r25   0 0,5 0,5 0,5 0 
R   r31 r32 r33 r34 r35    0 0,5 1 0,5 0 
   
 r41 r42 r43 r44 r45   0 0,5 0,5 0,5 0 
r r52 r53 r54 r55   0 0 0 0 0 
 51

trong đó:

r11 = R(x1, y1) = MIN {A(x1), B(y1)} = MIN {0;0} = 0

r12 = R(x1, y2) = MIN {A(x1), B(y2)} = MIN {0; 0,5} = 0

............

r23 = R(x2, y3) = MIN {A(x2), B(y3)} = MIN {0,5 ; 1} = 0,5


r33 = R(x3, y3) = MIN {A(x3), B(y3)} = MIN {1;1} = 1

cứ như vậy tính cho 55 = 25 phần tử của ma trận.

- Với luật hợp thành MAX-PROD, ma trận hợp thành R có 5 hàng và 5


cột:

31
 r11 r12 r13 r14 r15   0 0 0 0 0
   
 r21 r22 r23 r24 r25   0 0,25 0,5 0,25 0
R   r31 r32 r33 r34 r35    0 0,5 1 0,5 0
   
 r41 r42 r43 r44 r45   0 0,25 0,5 0,25 0
r r52 r53 r54 r55   0 0 0 0 0 
 51

trong đó:

r11 = R(x1, y1) = A(x1).B(y1) = 0  0 = 0.

r22 = R(x2, y2) = A(x2).B(y2) = 0,5  0,5 = 0,25.

r23 = R(x2, y3) = A(x2).B(y3) = 0,5  1 = 0,5.

r33 = R(x3, y3) = A(x3).B(y3) = 1  1 = 1

cứ như vậy tính cho 5  5 = 25 phần tử của ma trận.

Tính theo công thức tổng quát (công thức dyadic) (1.17)

- Với luật hợp thành MAX-MIN (phép nhân thay bằng phép lấy cực tiểu).

 0  0 0 0 0 0
   
 0,5   0 0,5 0,5 0,5 0 
R   A ( x ). B ( y)   1 (0, 0,5; 1; 0,5; 0)   0 0,5 1 0,5 0 
T

   
 0,5   0 0,5 0,5 0,5 0 
 0  0 0 0 0 0 
  

- Với luật hợp thành MAX-PROD (phép nhân giữ nguyên).

 0  0 0 0 0 0
   
 0,5   0 0,25 0,5 0,25 0
R   A ( x ). B ( y)   1 (0, 0,5; 1; 0,5; 0)   0 0,5 0
T
1 0,5
   
 0,5   0 0,25 0,5 0,25 0
 0  0 0 0 0 0 
  

b. Xác định hàm liên thuộc đầu ra B'(y) khi có luật hợp thành R

32
Từ ma trận R ta thấy hàm liên thuộc đầu ra B'(y) ứng với một giá trị đầu
vào x0 chính là một hàng của ma trận R.

Ví dụ, hàm liên thuộc đầu ra ứng với đầu vào x0 = 0,2 là hàng thứ hai của bảng
ma trận R.
y
R 0,5 0,6 0,7 0,8 0,9

0,1 0 0 0 0 0
 
0,2 0,5 0,5
0 0,5 0,5 00,5
,5 0 
x  0 0,5 1 0,5 0 
0,3
 
0,4  0 0,5 0,5 0,5 0 
0,5 0 0 0 0 0 

Để đơn giản, gọi a là vector xác định vị trí của giá trị rõ x 0, vector xác
định vị trí chỉ có một giá trị bằng 1 tại vị trí có x0 còn các giá trị khác đều bằng
0. Do vậy cho một giá trị rõ bất kỳ x  X  {x1 ,..., x i ,..., x n } ta sẽ có một vector
chuyển vị aT với: aT = (a1, a2, ... ai ..., an)

Trong đó chỉ có một phần tử ai duy nhất có chỉ số i là vị trí của x0 trong
x có giá trị bằng 1, các phần tử còn lại đều bằng không. Như vậy hàm liên
thuộc B'(y) sẽ được xác định:

 r11 ... r1m 


 
B'(y) = a .R = (a1, a2, ... ai ..., an)   
T
  = (l1, l 2, ..., l j, ..., l m)
r 
 n1 ... rnm 
n
với: l j   ai rij (1.18)
i 1

Trong thực tế để tránh phải sử dụng thuật toán nhân ma trận (tăng tốc độ
xử lý) thì phép nhân ma trận kiểu (1.18) được thay bởi luật max-min của
Zadeh với max (lấy cực đại) thay vào vị trí phép cộng, min (lấy cực tiểu) thay
vào vị phép nhân.

33
l j  max min{a i , rij} (1.19)
1 i  n

Kết quả của hai phép tính (1.18) và (1.19) với đầu vào là giá trị rõ là
hoàn toàn như nhau.

*Chú ý: Khi lượng vào là tập mờ A' với hàm liên thuộc A'(x), thì vector xác
định vị trí a gồm các giá trị rời rạc của hàm liên thuộc A'(x) tại các điểm
x  X  {x 1 ,..., x i ,..., x n } khi này không sử dụng công thức (1.19) được, phải sử
dụng công thức (1.18).

Ví dụ 1.10: Tại vị trí đầu vào rõ xo = 0,2 ta có hàm liên thuộc đầu ra là:

0 0 0 0 0
 
 0 0,5 0,5 0,5 0 
 B' ( y)  a .R  (0; 1; 0; 0; 0) 0 0,5 1 0,5 0   (0; 0,5; 0,5; 0,5; 0)
T
 
 0 0,5 0,5 0,5 0 
0 0 0 0 0 

1.4.3.2. Luật hợp thành nhiều điều kiện

Thuật toán xây dựng luật hợp thành R:

+ Rời rạc hóa miền xác định các hàm liên thuộc  A1 ( x1 ) ,  A 2 ( x 2 ) , ...,

 A d ( x d ) của các mệnh đề điều kiện,  B ( y) và mệnh đề kết luận.

+ Xác định độ thỏa mãn H cho từng vector các giá trị rõ đầu vào là
vector tổ hợp d điểm mẫu thuộc miền xác định của các hàm liên thuộc
 c1 
 
 Ai ( x i ) , i  1,..., d . Chẳng hạn với một vector các giá trị rõ đầu vào x    
c 
 d
trong đó ci, i = 1, ..., d là một trong các điểm mẫu ở miền xác định của  Ai ( x i ) ,

thì: H  MIN{ A1 (c1 ),  A 2 (c 2 ),...,  Ad (c d )} (1.20)

34
+ Lập mô hình ma trận R gồm các hàm liên thuộc giá trị mờ đầu ra cho
từng vector các giá trị đầu vào theo nguyên tắc:

 B ' ( y)  MIN{H,  B ( y)} nếu quy tắc sử dụng là MAX-MIN (1.11d).

 B ' ( y)  H. B ( y) nếu quy tắc sử dụng là MAX-PROD (1.11e).

Không như luật hợp thành một điều kiện, luật hợp thành R của d mệnh
đề điều kiện không thể biểu diễn dưới dạng ma trận được nữa mà thành một
lưới trong không gian (d +1) chiều.

Ví dụ 1.11: Xét luật hợp thành với hai điều kiện A và B thì có C Hình 1.8. Các
bước xây dựng luật hợp thành R như sau:

+ Rời rạc hoá các hàm liên thuộc

Hàm liên thuộc  A ( x ) được rời rạc hoá tại 5 điểm:

x  {0,1; 0,2; 0,3; 0,4; 0,5}

Hàm liên thuộc  B ( y) được rời rạc hoá tại 5 điểm:

y  {0,3; 0, 4; 0, 5; 0, 6; 0, 7}

Hàm liên thuộc  C (z) được rời rạc hoá tại 5 điểm:

z  {0, 5; 0, 6; 0, 7; 0,8; 0,9}

+ Xác định độ thoả mãn H cho từng vector giá trị rõ đầu vào.

Hình 1.18. Xây dựng luật hợp thành R cho hai đầu vào

35
với giá trị rõ đầu vào là x  0,2 , y  0,5 được thể hiện trên Hình 1.18. Lần lượt
tính cho hết các cặp giá trị vào.

+ Lập R gồm các hàm liên thuộc cho từng vector giá trị đầu vào. Như vậy, sẽ
có 5  5  25 cặp điểm giá trị đầu vào và ứng với từng cặp điểm đầu vào là một
hàm liên thuộc  C ' (z ) của biến mờ đầu ra C’.

Ví dụ 1.12: Cho cặp điểm x  0,2 , y  0,5 là hàm


 C' ( z)   R (0,2; 0,5)  {0; 0,5; 0,5; 0,5; 0} ;

cặp điểm x  0,5 , y  0,5 là hàm:  C ' ( z)   R (0,5; 0,5)  {0; 0; 0; 0; 0} ;

cặp điểm x  0,2 , y  0,3 là hàm:  C ' (z )   R (0,2; 0,3)  {0; 0; 0; 0; 0} .

Xác định các giá trị của  C ' (z ) dựa vào Hình 1.18.

Biểu diễn tất cả 25 hàm trên của R trong không gian thì sẽ được một
lưới 3 chiều, trong đó tại mỗi điểm nút trên lưới là một giá trị của  R ( x; y)
Hình 1.19. Tuy nhiên, vẽ hết tất cả các điểm sẽ rất khó quan sát.

Hình 1.19: Biểu diễn R trong không gian

36
1.4.3.3. Luật của nhiều mệnh đề hợp thành

Trong thực tế ít có hệ mờ nào chỉ làm việc với một mệnh đề hợp thành
mà thường với nhiều mệnh đề hợp thành, hay còn gọi là một tập các mệnh đề
hợp thành Rk.

Vậy ta phải liên kết các luật hợp thành riêng rẽ lại, có hai kiểu liên kết là
liên kết theo kiểu "cực đại" (MAX-MIN, MAX-PROD) và kiểu "tổng" (SUM-
MIN, SUM-PROD) tương ứng với hai phép hợp là phép hợp bình thường và
phép hợp Lukasiewicz.

a. Liên kết luật hợp thành kiểu "cực đại" (MAX)

Khi đã có các luật hợp thành thành phần R 1, R2 ,... , Rp ta có luật hợp
thành tổng hợp:

 max{r111 , r112 ,..., r11p } ... max{r11m , r12m ,..., r1pm } 


 
R  R 1  R 2  ...  R p       (1.21)
 max{r 1 , r 2 ,..., r p } ... max{r 1 , r 2 ,..., r p }
 n1 n1 n1 nm nm nm 

Chú ý: từng mệnh đề thành phần nên được mô hình hóa thống nhất theo một
quy tắc chung, cùng theo quy tắc MAX-MIN hoặc cùng theo quy tắc MAX-
PROD... khi đó luật hợp thành chung sẽ có tên là luật hợp thành MAX-MIN
hoặc luật hợp thành MAX-PROD...

Luật hợp thành MAX-MIN một điều kiện được thể hiện trên Hình 1.20c

b. Liên kết luật hợp thành kiểu "tổng" (SUM)

Luật hợp thành chung liên kết theo kiểu "cực đại" (MAX) không có tính
thống kê. Chẳng hạn khi đa số các mệnh đề hợp thành thành phần có cùng một
giá trị đầu ra nhưng vì không phải là giá trị lớp nhất nên sẽ không được để ý
đến và bị mất trong kết quả chung.

37
Có nhiều cách khắc phục nhược điểm này, một trong các cách là sử
dụng phép HOẶC Lukasiewicz để liên kết các mệnh đề thành phần.

 B1 ( y)  B2 ( y )

y y
a) b)
 B ( y)  B ( y)

y y

c) d)

Hình 1.20. Cách kết hợp các mệnh đề


a, b) Luật hợp thành của một mệnh đề
c) Luật hợp thành kết hợp kiểu MAX-MIN
d) Luật hợp thành kết hợp kiểu SUM-MIN

 p p

 min{1,  r11} ... min{1,  r1m } 
k k

 p   k 1 k 1 
R  min 1,  R k        (1.22)
 k 1   p p

 min{1,  rnk1} ... min{1,  rnmk


}
 k 1 k 1 

Với cách liên kết này ta có luật hợp thành SUM-MIN và SUM-PROD.

Luật hợp thành SUM-MIN một điều kiện được thể hiện trên Hình 1.20d.

c. Thuật toán xây dựng luật hợp thành chung của nhiều mệnh đề

Thuật toán để xây dựng luật hợp thành chung của nhiều mệnh đề nói
chung tương tự như của một mệnh đề, chỉ thêm bước tổng hợp các mệnh đề.

38
Xét mệnh đề hợp thành chung cho p mệnh đề hợp thành mỗi mệnh đề
hợp thành có 1 điều kiện gồm:

R1: NẾU   A1 ,…, THÌ Y  B1 hoặc

R2: NẾU   A 2 ,…, THÌ Y  B2 hoặc

….

Rp: NẾU   A p ,…, THÌ Y  B p hoặc

Trong đó các giá trị mờ A1, A2, …, Ap có cùng cơ sở X

B1, B2, …, Bp có cùng cơ sở Y

Gọi hàm liên thuộc Ak và Bk là  A k ( x ) và  B k ( y) với k  1,2,..., p

Các bước thuật toán:

Bước 1: Rời rạc hóa các hàm liên thuộc điều kiện X và kết luận Y, số điểm rời
rạc đủ lớn sao cho không bị mất tín hiệu. Chẳng hạn rời rạc hàm  A k ( x ) với n

điểm x1 , x 2 ,..., x i ,..., x n , hàm  B k ( y) với m điểm y1, y2 ... yj ...ym .

T T
Bước 2: Xác định hàm liên thuộc rời rạc  A ( x ) và  B ( y) là:
k k

T
 A ( x )  { A k ( x1 ),  A k ( x 2 ), ... ,  A k ( x n )}
k

T
 B ( y)  { B k ( y1 ),  B k ( y 2 ), ... ,  B k ( y m )} (1.23)
k

Bước 3: Xây dựng ma trận hợp thành R, (theo công thức công thức dyadic)
T
R k   A ( x ). B ( y) , i  1,2,..., n và j  1,2,..., m
k k

ma trận này có n hàng và m cột:

39
 r11k ... r1km 
 
Rk       (1.24)
 k k 
 r n1 ... r nm 

trong đó: - Phép nhân được giữ nguyên nếu sử dụng nguyên tắc MAX-PROD
hoặc SUM-PROD.

- Phép nhân được thay bằng phép lấy cực tiểu khi sử dụng nguyên tắc
MAX-MIN hoặc SUM-MIN.

Bước 4: Xác định luật hợp thành chung

Theo MAX-PROD và MAX-MIN (công thức 1.21)

 max{r111 , r112 ,..., r11p } ... max{r11m , r12m ,..., r1pm } 


 
R  R 1  R 2  ...  R p      
 max{r 1 , r 2 ,..., r p } ... max{r 1 , r 2 ,..., r p }
 n1 n1 n1 nm nm nm 

Theo SUM-PROD và SUM-MIN (công thức 1.22)

 p p

 min{1,  r k
11 } ... min{1,  r1km } 
 p   k 1 k 1 
R  min 1,  R k       
 k 1   p p

 min{1,  rn1} ... min{1,  rnm }


k k

 k 1 k 1 

d, Xác định hàm liên thuộc đầu ra tại các đầu vào

Với các giá trị đầu vào được xác định bởi vector vị trí a ta cũng có:

T
 B' ( y)  a .R (1.25)

Chú ý: Thuật toán trên viết cho p mệnh đề hợp thành với một điều kiện, có thể
mở rộng cho p mệnh đề hợp thành với q điều kiện.

Ví dụ 1.13: Cho 2 mệnh đề hợp thành của việc lái xe ôtô với  chỉ tốc độ của
xe, y chỉ sự tác động vào bàn đạp ga xe:

40
R1: IF   chËm THEN y = tăng

R2: IF   nhanh THEN y = giảm

Hình 1.21. Hàm liên thuộc của tốc độ và đạp ga xe

Hàm liên thuộc của các tập mờ tốc độ và đạp ga trên Hình 1.21.

Hãy xây dựng mệnh đề hợp thành chung, và một giá trị rõ hãy xác định tập mờ
đầu ra.

Bước 1: Rời rạc hoá các tập mờ điều kiện và kết luận, với các điểm rời rạc
chọn như Hình 1.21.

x  {x1; x 2 ; x 3 ; x 4 ; x 5 ; x 6 ; x 7 ; x 8 }  {0,3; 0,4; 0,5; 0,6; 0,7; 0,8; 0,9; 1}


y  {y1; y 2 ; y 3 ; y 4 ; y5 ; y 6 ; y 7 ; y8 ; y 9 }  {0,6; 0,8; 1,0; 1,2; 1,4; 1,6; 1,8; 2,0; 2,2}

Bước 2: Xác định các hàm liên thuộc đã rời rạc

  chËm (x1)   0    nhanh ( x1 )   0 


       
  chËm ( x 2 )   0 ,5   ( x )
 nhanh 2   0 
 (x 3 )   1     0 
nhanh ( x 3 )
 chËm       
  chËm ( x 4 )   0 ,5  
 nhanh 4   0 
( x )
 chËm     
 ( x 5 )   0  , nhanh   nhanh ( x 5 )   0,5 
 chËm       
  chËm (x 6 )   0    nhanh ( x 6 )   1 
      
  chËm ( x 7 )   0   ( x )
 nhanh 7   0,5 
 ( x 8 )   0     
 chËm  nhanh ( x 8 )   0 

41
  gi¶ m ( y1 )   0    t¨ng ( y1 )   0 
       
 (
 gi¶ m 2  y ) 0,33   ( y )
 t¨ng 2   0 
   0,66    (y )   0 
gi¶ m ( y 3 )
     t¨ng 3   
  gi¶ m ( y 4 )   1  
 t¨ng 4   0,33 
( y )
 
 gi¶ m    gi¶ m ( y5 )    0,66   t¨ng
 
   t¨ng ( y 5 )    0,66 
 ,  
  gi¶ m ( y 6 )   0,33    t¨ng ( y 6 )   1 
       
  gi¶ m ( y 7 )   0    t¨ng ( y 7 )   0,66 
  gi¶ m ( y8 )   0    t¨ng ( y8 )   0,33 
       
 ( y )
 gi¶ m 9   0   ( y )
 t¨ng 9   0 

Bước 3: Tính các luật hợp thành thành phần R1, R2. (theo công thức min)

 0 
 
 0,5 
 1 
 
 0,5 
R 1   chËm ( x ) ( y)   0 0,33 0,66 1 0,66 0,33 0 0 0 
T
t¨ng 0
 
 0 
 
 0 
 0 
 

0 0 0 0 0 0 0 0 0
 
 0 0,33 0,5 0,5 0,5 0,33 0 0 0 
 0 0,33 0,66 1 0,66 0,33 0 0 0 
 
 0 0,33 0,5 0,5 0,5 0,33 0 0 0 

0 0 0 0 0 0 0 0 0
 
0 0 0 0 0 0 0 0 0
 
0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 

42
 0 
 
 0 
 0 
 
 0 
( y)   0 0 0 0,33 0,66 1 0,66 0,33 0
T
R 2   nhanh ( x )
gi¶ m 0,5
 
 1 
 
 0,5 
 0 
 

0 0 0 0 0 0 0 0 0
 
0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0
 
0 0 0 0 0 0 0 0 0

0 0 0 0,33 0,5 0,5 0,5 0,33 0 
 
0 0 0 0,33 0,66 1 0,66 0,33 0 
 
0 0 0 0,33 0,5 0,5 0,5 0,33 0 
0 0 0 0 0 0 0 0 0 

Bước 4: Xác định luật hợp thành chung R  R 1  R 2

0 0 0 0 0 0 0 0 0
 
 0 0,33 0,5 0,5 0,5 0,33 0 0 0
 0 0,33 0,66 1 0,66 0,33 0 0 0
 
 0 0,33 0,5 0,5 0,5 0,33 0 0 0
R  max( R 1 , R 2 )  
0 0 0 0,33 0,5 0,5 0,5 0,33 0 
 
0 0 0 0,33 0,66 1 0,66 0,33 0 
 
 0 0 0 0 ,33 0,5 0 ,5 0 ,5 0,33 0 
0 0 0 0 0 0 0 0 0 
 

Như vậy, với một giá trị rõ được xác định bởi vector vị trí ta sẽ xác định
được giá trị mờ đầu ra. Chẳng hạn, với giá trị rõ x  0,6 (vị trí thứ 4) ta có:

43
0
 
0
0
 
1
a  
0
 
0
 
0
0
 

Giá trị mờ đầu ra là:

 B' ( y )  a T R
0 0 0 0 0 0 0 0 0
 
0 0,33 0,5 0,5 0,5 0,33 0 0 0
0 0,33 0,66 1 0,66 0,33 0 0 0
 
0 0,33 0,5 0,5 0,5 0,33 0 0 0
 0 0 0 1 0 0 0 0  
0 0 0 0,33 0,5 0,5 0,5 0,33 0 
0 0 0 0,33 0,66 1 0,66 0,33 0 
 
0 0 0 0,33 0,5 0,5 0,5 0,33 0 
0 0 0 0 0 0 0 0 0 

 0 0,33 0,5 0,5 0,5 0,33 0 0 0

Ví dụ trên mới chỉ xét với luật MAX-MIN, tương tự có thể làm với luật
MAX-PROD, SUM-MIN, SUM-PROD.

1.5. Giải mờ

Với bộ điều khiển mờ như Hình 1.15 thì đầu ra là một tập mờ, vậy đưa
cho các bộ điều khiển thực tế chưa làm việc được. Cần phải giải mờ tức là cần
rõ hoá tập mờ đầu ra B’.

Giải mờ là quá trình xác định một giá trị rõ y' nào đó có thể chấp nhận
được từ hàm liên thuộc  B' ( y) của giá trị mờ B'. Có hai phương pháp giải mờ
chính là phương pháp cực đại và phương pháp điểm trọng tâm.

44
1.5.1 Phương pháp cực đại

Để giải mờ theo phương pháp cực đại phải tiến hành theo hai bước:

+ Xác định miền chứa giá trị rõ y': Miền chứa giá trị rõ y' là miền mà tại
đó hàm liên thuộc đạt giá trị cực đại:

G = { yY,  B' ( y) = H} (1.26)

Miền chứa giá trị rõ y1  y'  y 2 trên Hình 1.22.

 B ( y)

y
y1 y2

Hình 1.22. Xác định miền chứa giá trị

+ Xác định giá trị rõ y’ có thể chấp nhận được trong miền G theo một
trong ba nguyên lý:

1.5.1.1. Nguyên lý trung bình

Theo nguyên lý trung bình cho kết quả y’ là hoành độ của điểm trung
bình giữa cận trái y1 và cận phải y2 của miền G:

y1  y 2
y'  (1.27)
2

Nguyên lý trung bình được thể hiện trên Hình 1.23. Nguyên lý trung
bình thường dùng khi G là miền liên thông. Như vậy, y' sẽ có độ phụ thuộc lớn
nhất.

45
 B ( y)

y1 y' y2
Hình 1.23. Nguyên lý trung bình

Trong trường hợp B' có dạng đều thì y' không phụ thuộc vào độ thỏa
mãn của luật điều khiển (Hình 1.23 nếu H cao thấp khác nhau đều có y' như
nhau).

1.5.1.2. Nguyên lý cận phải

Theo nguyên lý cận phải cho kết quả y’ là hoành độ của điểm cận phải
y2 của miền G:

y'  y 2 (1.28)

 B ( y)  B ( y)

y y
y1 y2 y1 y2
a) b)

Hình 1.24. a). Nguyên lý cận phải; b). Nguyên lý cận trái

Nguyên lý cận phải được thể hiện trên Hình 1.24a, nguyên lý cận trái
trên Hình 1.24b. Giá trị rõ theo nguyên lý cận phải phụ thuộc tuyến tính vào
đáp ứng của luật điều khiển.

46
1.5.1.3. Nguyên lý cận trái

Theo nguyên lý cận trái cho kết quả y’ là hoành độ của điểm cận trái y1
của miền G:

y'  y1 (1.30)

Nguyên lý cận trái được thể hiện trên Hình 1.24b. Giá trị rõ theo nguyên
lý cận trái cũng phụ thuộc tuyến tính vào đáp ứng của luật điều khiển.

Nhận xét:

+ Sai lệch của ba giá trị rõ, xác định theo trung bình, cận trái, cận phải
sẽ càng lớn nếu độ thoả mãn H của luật điều khiển càng nhỏ.

+ Phương pháp cực đại có thể không có lợi khi G là miền không liên
thông vì:

- Giá trị rõ y' theo trung bình sẽ có thể có độ phụ thuộc nhỏ hơn H, thậm chí
có thể bằng không Hình 1.25.

Hình 1.25. Hàm liên thuộc B’ có G không liên thông

Với khái niệm cận trái và cận phải vẫn còn thừa các cận như cận y3 và y4
Hình 1.25.

+ Trong trường hợp G không liên thông có thể chọn một khoảng con
liên thông trong G làm khoảng có mức ưu tiên cao và xét y' trong khoảng đó
hoặc chọn phương pháp khác.

47
+ Với luật hợp thành MAX-PROD, thì miền G chỉ có một điểm duy nhất
do đó kết quả của cả ba phương pháp trung bình, cận trái, cận phải là như
nhau.

1.5.2. Phương pháp điểm trọng tâm

Phương pháp điểm trọng tâm cho kết quả y’ là hoành độ của điểm trọng
tâm miền được bao phủ bởi trục hoành và đường B’(y) Hình 1.26.

 y μ B' y dy
y'  S (1.31)
 μ B' y dy
S

Trong đó S là miền xác định của tập mờ.

 B ( y)

y
y'

Hình 1.26. Phương pháp điểm trọng tâm

Nhận xét:

+ Xác định y’ theo biểu thức (1.31) cho ta giá trị y’ với sự tham gia của
tất cả các tập mờ đầu ra của mọi luật điều khiển một cách bình đẳng và chính
xác.

+ Không để ý được tới độ thỏa mãn của luật điều khiển có tính quyết
định, thời gian tính toán lâu.

+ Đặc biệt có thể xảy ra trường hợp y’ rơi vào điểm có sự phụ thuộc nhỏ
nhất thậm chí sự phụ thuộc có thể bằng 0 Hình 1.27.

48
Bởi vậy, khi định nghĩa hàm liên thuộc cho từng giá trị mờ của biến
ngôn ngữ nên để ý sao cho miền xác định của các giá trị mờ đầu ra là một miền
liên thông.

y’

Hình 1.27. Miền không liên thông có thể y’ = 0

Phương pháp điểm trọng tâm trong một số trường hợp đặc biệt có dạng
biến thể là trường hợp luật hợp thành SUM-MIN và một biến thể thành
phương pháp độ cao.

1.5.2.1. Phương pháp điểm trọng tâm cho luật hợp thành SUM-MIN

Giả sử có q luật điều khiển. Như vậy mỗi giá trị mờ đầu ra của bộ điều
khiển sẽ là tổng của q giá trị đầu ra của từng luật hợp thành (tổng hợp theo
SUM). Ký hiệu các giá trị mờ đầu ra của luật điều khiển thứ k là  B' k ( y) với

k  1,2,..., q . Thì với quy tắc SUM-MIN hàm liên thuộc đầu ra sẽ là:

q
 B ' ( y)    B ' k ( y) (1.32)
k 1

Thay (1.32) và công thức điểm trọng tâm (1.31), sau đó đổi chỗ của tổng
và tích phân cho nhau (hoàn toàn có nghĩa vì tổng và tích phân đều hội tụ) ta
có công thức tính y’ đơn giản sau:

49
 q  q   q
  y  μ B' k y  dy    y μ B' k y dy   M k
y'  S  q 
k 1 k 1  s  
 k 1 (1.33)
q  q
  μ B' k y dy    μ B' k y dy   N k
S k 1 k 1  s  k 1

M k   yμ B'k  y  dy; N k   μ B'k  y  dy


trong đó: s s (1.34)

Xét riêng cho các hàm liên thuộc  B' k ( y) dạng hình thang (đây cũng là

dạng phổ biến) như Hình 1.28. Ta có:

Hình 1.28. Tập mờ có hàm liên thuộc hình thang

Nk 
H
2

2m 2  2m1     

Mk 
H
6

3m 22  3m12   2   2  3m 2  3m1  (1.35)

Công thức (1.35) rất tiện lợi để tính nhanh y’.

50
y1 y2

Hình 1.29. Xác định giá trị rõ cho bộ điều khiển

Ví dụ 1.14: Cho tập mờ đầu ra như Hình 1.29. Hãy tính giá trị rõ y’ theo
phương pháp điểm trọng tâm. Biết nguyên tắc tổng hợp là SUM-MIN.

Với nguyên tắc tổng hợp là SUM-MIN ta có tập mờ đầu ra như Hình
1.30. Phải tính trọng tâm của Hình 1.30. Áp dụng công thức (1.33) và (1.35) ta
có:

Hình 1.30. Tổng hợp theo nguyên tắc SUM-MIN

M1 
H
6
3m 22  3m12   2   2  3m 2  3m1 

0,6
6
 
3  52  3  4 2  12  12  3  5  1  3  4  1  5,4

51
M2 
H
6

3m 22  3m12   2   2  3m 2  3m1 

0,4
6
 
3  7,52  3  5,52  0,52  0,52  3  5  0,5  3  4  0,5  6,5

N1 
H
2

2m 2  2m1     
0,6
2

2  5  2  4  1  1  1,2

N2 
H
2

2m 2  2m1     
0,4
2

2  7,5  2  5,5  0,5  0,5  1

Kết quả giá trị rõ y’ là:

2
 M k
M1  M2 5 , 4  6 ,5
k 1
y'     5 , 41
2
N1  N 2 1, 2  1
 N k
k 1

Chú ý: Mặc dù công thức (1.33) chỉ xây dựng cho luật hợp thành kiểu SUM-
MIN, song trong thực tế nó vẫn được dùng cho cả luật hợp thành MAX-MIN.

1.5.2.2. Phương pháp độ cao

Phương pháp này giá trị mỗi tập mờ  ' ( y ) được xấp xỉ bằng một cặp
B k

giá trị (yk, Hk) duy nhất (singleton), trong đó Hk là độ cao của  B' ( y) , và yk là
k

một điểm mẫu trong miền giá trị của  B ' ( y) , điểm mẫu được chỉ ra trên Hình
k

1.31 (thường là giá trị trung bình).

 B' ( y k ) H k
k

lúc đó giá trị rõ y’ được tính theo biểu thức:

52
q

 ykH k
y'  k 1
q (1.36)
 k 1
H k

Phương pháp này có thể áp dụng cho mọi luật hợp thành (MAX-MIN,
SUM-MIN, MAX-PROD, SUM-PROD).

Ví dụ 1.15: Tính giá trị rõ y’ cho Hình 1.31.

B’  B' ( y ) Điểm mẫu


1

 B' ( y )
0,66 2

0,25

2 y1 6 y2 10 12 y
0

Hình 1.31. Tính y' bằng phương pháp độ cao

Ta có:  ' ( y ) được xấp xỉ bằng cặp giá trị (y1, H1) là (4; 0,25),
B 1

 B ' ( y ) được xấp xỉ bằng cặp giá trị (y2, H2) là (8; 0,66).
2

theo công thức (1.36)

y1H1  y2 H2 4 0,25  8 0,66


y    6,9
H1  H2 0,25  0,66

53
CÂU HỎI VÀ BÀI TẬP

1. Định nghĩa tập mờ. Nêu các khái niệm cơ sở, tập con mờ, hàm chỉ thị và
hàm liên thuộc, Định nghĩa biến ngôn ngữ ?. Cho ví dụ về biến ngôn ngữ;
Mệnh đề hợp thành: thuật toán mệnh đề hợp thành 1 điều kiện và mệnh đề
nhiều điều kiện; Hệ các mệnh đề hợp thành: thuật toán tính mệnh đề chung;
Các phương pháp giải mờ.

2. Nêu ý nghĩa giá trị hàm liên thuộc tập mờ và đặc điểm khác nhau giữa giá
trị hàm liên thuộc tập hợp và giá trị hàm thuộc tập mờ.

3. Phát biểu các định nghĩa về tập hợp: Định nghĩa tập hợp; Định nghĩa tập
con; Các phép tính về tập hợp; Hàm thuộc của tập hợp.

4. Cho A ={1,2,3,6,7,8, 10} và B={1,2,5,7,8,9}

Thực hiện các phép tính tập hợp: phép giao A và B, phép hợp A và B, phép trừ
B cho A.

5. Cho hàm thuộc như hình và a2=8; a1 =2.


1

x
-a 2 -a 1 0 a1 a2

Tính hàm thuộc tại x = -5, x = -7.

6. Cho tập hợp A = {(x1, 0.2), (x2, 0.7), (x3, 1), (x4, 0)} và tập hợp

B = {(x1, 0.5), (x2, 0.3), (x3, 1), (x4,0.1)}. Tính tập hợp C=AB và C=A B

54
7. Cho tập mờ sau F  (1;1),(2; 1),(3; 0,8),(4; 0,08),(5;0,09),(6;0)

Tìm các số tự nhiên lớn hơn 2 và nhỏ hơn 5 có độ phụ thuộc

8. Cho hình vẽ, Sử dụng phương pháp độ cao tính giá trị rõ y’

B’  B' ( y ) Điểm


1
 B' ( y )
2

2 y1 6 y2 1 12 y

9. Cho hàm thuộc của các tập mờ tốc độ như hình dưới.

Xác định vector hàm liên thuộc tocdo (cham) , tocdo (nhanh) được rời
rạc hóa như hình trên.

10. Tính luật hợp thành R1 theo qui tắc Min và Prod

55
0
 
0,5
1
 
0,5
R1  chËm(x) (y)   0 0,33 0,66 1 0,66 0,33 0 0 0
T
t¨ng 0
 
0
 
0
0
 

11. Cho R1 và R2, xác định luật hợp thành chung R theo MAX

0 0 0 0 0 0 0 0 0
0 0,33 0,5 0,5 0,5 0,33 0 0 0
 
0 0,33 0,66 1 0,66 0,33 0 0 0
 
 0 0,33 0,5 0,5 0,5 0,33 0 0 0
R1 
0 0 0 0 0 0 0 0 0
 
 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0
 
0 0 0 0 0 0 0 0 0

0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0

0 0 0 0 0 0 0 0 0
 
0 0 0 0 0 0 0 0 0
R2  
0 0 0 0,33 0,5 0,5 0,5 0,33 0
 
0 0 0 0,33 0,66 1 0,66 0,33 0
0 0 0 0,33 0,5 0,5 0,5 0,33 0
 
0 0 0 0 0 0 0 0 0

12. Cho giá trị x, y rời rạc tại các điểm như hình vẽ:

56
Tính ma trận R theo luật , MAX-MIN và MAX-PROD

  B(y)
A(x)
1 1
0,5 0,5

0,1 0,3 0,5 x 0,5 0,7 0,9 y

13. Xây dựng luật hợp thành và sử dụng qui tắc nào tương ứng hình vẽ dưới

57
2

HỆ ĐIỀU KHIỂN MỜ

2.1 Khái niệm

2.1.1 Mô hình mờ

a. Mô hình Mamdani

Mô hình mờ chính là một tập các luật dạng mệnh đề “IF…THEN…”,


trong đó phần “IF” được gọi là mệnh đề điều kiện hay tiền đề, còn phần
“THEN” được gọi là phần kết luận.

Mô hình mờ dạng đơn giản hay còn gọi là mô hình SISO (Single Input
Single Output) là tập các mệnh đề điều kiện mà trong đó mỗi mệnh đề chỉ chứa
một biến đầu vào và một kết luận có dạng sau:

if X = A1 then Y = B1

if X = A2 then Y = B2 (2.1)

.............

if X = An then Y = Bn

trong đó X, Y là các biến ngôn ngữ với không gian tham chiếu tương ứng là U
và V, còn A1, A2,…, An, B1, B2, …, Bn là các giá trị ngôn ngữ hay nhãn của các
tập mờ.

Tuy nhiên, trong một số lĩnh vực, chẳng hạn như trong điều khiển mờ,
sự phụ thuộc giữa các biến vật lý không chỉ biểu diễn ở dạng đơn giản như mô
hình 2.1 mà nó bao gồm nhiều biến đầu vào. Vì vậy, một mô hình mờ ở dạng
tổng quát là một tập các mệnh đề IF …THEN, và để cho gọn ta gọi là các luật,
mà phần tiền đề của mỗi luật là một điều kiện phức được viết như sau:

58
If X1 = A11 and ... and Xm = A1m then Y = B1

If X1 = A21 and ... and Xm = A2m then Y = B2

.......... (2.2)

If X1 = An1 and ... and Xm = Anm then Y = Bn

ở đây X1, X2, …,Xm và Y là các biến ngôn ngữ, Aij, Bi (i = 1,…, n; j = 1,…, m)
là các giá trị ngôn ngữ tương ứng. (2.1) còn được gọi là mô hình đơn điều kiện
và (2.2) được gọi là mô hình đa điều kiện, ngoài ra mô hình 2.1, 2.2 gọi là mô
hình Mamdani vì nó biểu diễn tri thức của chuyên gia trong lĩnh vực ứng dụng
nào đó đang xét.

Ví dụ 2.1: Điều khiển mức nước trong bồn chứa.

+ Mức nước trong bồn L = {rất thấp, thấp, vừa}

+ Góc mở van ống dẫn G = {đóng, nhỏ , lớn}

Ta xây dựng được mô hình mờ theo Mamdani như sau:

IF mức nước = rất thấp THEN góc mở van = lớn

IF mức nước = thấp THEN góc mở van = nhỏ

IF mức nước = vừa THEN góc mở van = đóng

b. Mô hình Tagaki Sugeno (TS)

Mô hình Mamdani có ưu điểm là đơn giản, dễ thực hiện nhưng khả năng
mô tả hệ thống không tốt. Trong kỹ thuật điều khiển người ta thường sử dụng
mô hình Tagaki - Sugeno (TS).

Tagaki - Sugeno đưa ra mô hình mờ sử dụng cả không gian trạng thái


mờ lẫn không gian hệ thống. Theo Tagaki – Sugeno thì một vùng LXk được
mô tả bởi luật:

59
.
Rsk : IF x = LXk Then x  A(x k )x  B(x k )u (2.3)

Luật này có nghĩa là nếu vector trạng thái x nằm trong vùng LXk thì hệ
.
thống được mô tả bởi phương trình vi phân cục bộ x  A(x k )x  B(x k )u . Nếu
toàn bộ các luật của hệ thống được xây dựng thì có thể mô tả toàn bộ trạng thái
của hệ thống toàn cục. Trong (2.3) ma trận A(xk) và B(xk) là ma trận hằng của
hệ thống ở trọng tâm của miền LXk được xác định từ các chương trình nhận
dạng. Từ đó ta rút ra được:

.
x   w k (A(x k )x  B(x k )u) (2.4)

Với w k (x)  0,1 là độ thỏa mãn đã chuẩn hóa của x* đối với vùng mờ LXk

Và luật điều khiển tương ứng là:

Rck : IF x = LXk THEN u = K(xk)x

Luật điều khiển cho toàn bộ không gian trạng thái có dạng
n
u  w k K(x k )x (2.5)
k 1

Từ (2.3) và (2.4) ta có phương trình động học hệ kín là:


.
x   w k (x)w l (x)(A(x k )  B(x k )K(x l ))x (2.6)

Ví dụ 2.2: Một hệ TS gồm hai luật điều khiển, hai đầu vào x1 và x2 và đầu ra
là y.

R1 : If x1 = BIG and x2 = MEDIUM Then y1 = x1 – 3x2

R2 : If x1 = SMALL and x2 = BIG Then y2 = 4 + 2x1

Đầu vào rõ đo được là x1* = 4 và x2* = 60. Theo hình vẽ dưới ta xác định được :

LXBIG(x1*) = 0.3 và LXBIG(x2*) = 0.35

60
LXSMALL(x1*) = 0.7 và LXMEDIUM(x2*) = 0.75

Từ đó ta xác định được:

Min (0.3; 0.75) = 0.3 và Min (0.35; 0,7) = 0.35

y1 = 4 - 3x60 = -176 và y2 = 4 + 2x4 = 12

Như vậy hai thành phần R1 và R2 là (0.3; -176) và (0.35; 12). Theo
phương pháp tổng trọng số trung bình ta có:
0.3 x ( 176 )  0.35 x12
y  74 .77
0.3  0 .35

1 1
0.75
0.7
0.3
0.35

0 4 10 x1 0 60 100 x2

2.1.2 Phương pháp lập luận mờ

Từ những năm 70 các phương pháp lập luận đã được phát triển mạnh mẽ
và được ứng dụng nhiều trong các hệ chuyên gia mờ, điều khiển mờ. Một số
phương pháp lập luận mờ nhằm giải quyết bài toán lập luận. Theo cách tiếp
cận của lý thuyết tập mờ, các phương pháp lập luận mờ nói chung được mô tả
dựa trên hai dạng mô hình sau.

Mô hình hội: Xem mô hình mờ (2.2) như là hội của các mệnh đề IF…THEN

Các giá trị ngôn ngữ của các biến ngôn ngữ trong mô hình mờ được biểu
thị bằng các tập mờ tương ứng của chúng.

Từ các luật mờ dạng câu IF - THEN, xây dựng quan hệ mờ R như sau:

61
+ Sử dụng phép hội các điều kiện ở tiền đề, mỗi câu IF…THEN xem
như là một phép kéo theo I(s,t), một phép 2-ngôi trong [0,1], lưu ý rằng giá trị
s phụ thuộc m biến đầu vào.

+ Vì (2.2) được xem là mô hình hội, R được tính bằng hội của các biểu
thức phép kéo theo đã xây dựng.

Khi đó ứng với vector đầu vào A0, giá trị của biến đầu ra được tính theo
công thức B0 = A0R, trong đó  là một phép hợp thành nào đó.

Mô hình tuyển: Xem (2.2) như là tuyển của các mệnh đề IF - THEN

Phương pháp tiến hành giống như trên cho đến bước xây dựng được các
phép kéo theo Ij(s,t) cho mỗi mệnh đề IF…THEN trong (2.2), j = 1, ..., n.

Với vector đầu vào A0, giá trị của biến đầu ra B0j dựa trên luật thứ j được tính
theo công thức B0j = A0 Ij(s,t), trong đó  là một phép hợp thành nào đó.

Cuối cùng, giá trị đầu ra của mô hình mờ (2.2) được tính bằng tuyển của
các B0j, j = 1, ..., n.

Một cách tổng quát, các phép tuyển và hội được xây dựng dựa trên các
phép t-norm và s-norm.

Tuy ý tưởng chung về lược đồ phương pháp lập luận mờ là giống nhau,
nhưng những phương pháp lập luận sẽ khác nhau ở cánh thức mô phỏng mô
hình mờ và cách xác định các phép hợp thành.

Hiệu quả của phương pháp lập luận mờ nói chung phụ thuộc nhiều yếu
tố rất căn bản chẳng hạn như:

- Lựa chọn tập mờ (bài toán xây dựng các hàm thuộc).

- Bài toán lựa chọn phép kết nhập (bài toán chuyển mô hình đa điều kiện
về mô hình đơn điều kiện).

62
- Xây dựng quan hệ mờ mô phỏng tốt nhất mô hình mờ (bài toán lựa chọn
phép kéo theo).

- Khử mờ (bài toán lựa chọn phương pháp khử mờ).

- Luật hợp thành (max-min, min-max, t-norm, s-norm, …).

Đó chính là những khó khăn không nhỏ khi xây dựng phương pháp giải
bài toán lập luận mờ.

Với mục tiêu tìm kiếm các phương pháp lập luận giải bài toán trên, hiện
nay có một số phương pháp nội suy mờ.

Ý tưởng của phương pháp này là xem các tiền đề của mệnh đề
IF…THEN trong mô hình mờ như là các “điểm lưới”. Mô hình mờ cho ta
thông tin của lời giải tại điểm lưới. Dữ liệu đầu vào A0 sẽ rơi vào một “đoạn
thẳng” nào đó xác định bởi các điểm lưới. Trên đoạn này giải bằng phương
pháp nội suy trên cơ sở thông tin được cho tại 2 điểm lưới đầu mút của “đọan
thẳng”.

Có thể thấy phương pháp nội suy mờ có trực quan rõ ràng cho phép
người ta cảm nhận hay dự đoán mức độ nào đó về ứng xử của hệ thống được
cho bởi mô hình mờ. Tuy nhiên, phương pháp này vẫn chứa đựng các yếu tố
phức tạp chẳng hạn như:

- Vấn đề xây dựng hàm thuộc dạng tam giác của các tập mờ.

- Vấn đề khử mờ để chuyển giá trị mờ đầu ra thành giá trị thực.

- Vấn đề tìm lời giải bằng nội suy trên từng tập mức của tập mờ.
Các phương pháp lập luận, đặc biệt là phương pháp lập luận mờ đa điều
kiện có rất nhiều ứng dụng trong thực tiễn như trong xây dựng các hệ chuyên
gia, các hệ trợ giúp quyết định, các hệ điều khiển mờ.

63
2.1.3 Phương pháp lập luận mờ trong điều khiển mờ

Lý thuyết điều khiển mờ chiếm một ví trí quan trọng trong điều khiển
học kỹ thuật hiện đại và đã đem lại những kết quả đáng ngạc nhiên về khả
năng và hiệu quả ứng dụng kỹ thuật điều khiển mờ trong nhiều lĩnh vực khác
biệt. Trong kỹ thuật điều khiển, điều khiển mờ đã được ứng dụng rộng rãi như:
điều khiển các thiết bị nhiệt độ, điều khiển các phương tiện giao thông vận tải,
điều khiển trong các thiết bị gia dụng, dân dụng…

Trong thực tế, các phương pháp điều khiển truyền thống đòi hỏi người
ta biết rõ bản chất của đối tượng điều khiển thông qua mô hình toán học. Tuy
nhiên, trong nhiều ứng dụng các đối tượng điều khiển có mô hình toán học quá
phức tạp, tính phi tuyến cao, hơn nữa còn có các yếu tố gây nhiễu nên rất khó
xác định được các đặc trưng và trong nhiều trường hợp không thể xây dựng
được mô hình toán học cho hệ thống. Điều đó làm cho phương pháp điều
khiển truyền thống gặp khó khăn, vì vậy trong quá trình tự động hóa người ta
phải nhờ vào khả năng xử lý tình huống của con người. Việc con người có khả
năng điều khiển các quá trình như vậy chứng tỏ rằng các quá trình đó đã được
phản ánh và mô phỏng đúng đắn bằng mô hình nào đó trong đầu óc của người
điều hành. Như vậy các mối quan hệ trong quá trình điều khiển có thể được
biểu thị bằng mô hình ngôn ngữ với các thông tin không chính xác, không
chắc chắn hay thông tin mờ.

Mục tiêu của điều khiển mờ là nhằm vào việc xây dựng khả năng bắt
chước cách thức con người điều khiển các quá trình với mô hình định tính dựa
trên cơ sở phương pháp luận dựa trên lý thuyết tập mờ.

Một hệ điều khiển mờ đơn giản bao gồm các khâu chính sau đây: Fuzzy
hóa, thiết bị hợp thành (thực hiện luật hợp thành) và khâu giải mờ. Quá trình
tính toán điều khiển cơ bản sẽ tuân theo sơ đồ sau:

64
Hình 2.1. Bộ điều khiển mờ cơ bản

Trong Hình 2.1: y’ là giá trị đầu ra cần tính (giá trị điều khiển) tương
ứng với các giá trị đầu vào (x1, x2,…, xq); Cơ sở tri thức được cho dưới dạng
tập mệnh đề “IF - THEN” với các dữ liệu ngôn ngữ để mô tả mối quan hệ giữa
các biến vào và biến ra.

Việc mô phỏng hành vi của hệ trong thực tế điều khiển là một thuật toán
tính được bằng máy tính và nó chính là phương pháp lập luận mờ đã trình bày
ở trên.

Khâu mờ hoá: Có nhiệm vụ biến đổi giá trị rõ đầu vào thành một miền giá trị
mờ với hàm liên thuộc đã chọn ứng với biến ngôn ngữ đầu vào đã được định
nghĩa từ trước.

Khối hợp thành: Biến đổi các giá trị mờ của biến ngôn ngữ đầu vào thành các
giá trị mờ của biến ngôn ngữ đầu ra theo các luật hợp thành.

Khối luật mờ (suy luận mờ): Bao gồm tập các luật “IF …THEN …” dựa vào
các luật mờ cơ bản, được thiết kế và viết ra cho thích hợp với từng biến và giá
trị của các biến ngôn ngữ theo quan hệ mờ vào/ra. Khối luật mờ và khối hợp
thành là phần cốt lõi của bộ điều khiển mờ, vì nó có khả năng mô phỏng
những suy đoán của con người để đạt được mục tiêu điều khiển mong muốn
nào đó.

65
Khối giải mờ: Biến đổi các giá trị mờ đầu ra thành các giá trị rõ để điều khiển
đối tượng.

Theo cách hiểu trên, một bộ điều khiển mờ có thể bao gồm các luật
được cho bởi kinh nghiệm và nó thực sự hữu ích cho việc điều khiển các thiết
bị. Có ít nhất 4 nguồn chính để tìm ra các luật điều khiển.

- Dựa trên kinh nghiệm chuyên gia và tri thức điều khiển: Cách tiếp cận
thông thường nhất là đặt ra những câu hỏi cho các chuyên gia hoặc
người điều khiển.

- Dựa trên hành động của người điều khiển: Quan sát những hành động
của người điều khiển, từ đó có thể khái quát thành các luật thể hiện mối
quan hệ giữa đầu vào và đầu ra.

- Dựa trên mô hình mờ của các thiết bị: Nếu mô hình mờ của các thiết bị
điều khiển là có sẵn thì chúng ta cũng có thể tạo ra mô hình mờ mới
bằng cách chọn lọc một số luật điều khiển. Phương pháp này chỉ sử
dụng trong trường hợp muốn hạn chế bớt số luật.

- Dựa trên việc học: Trong các mô hình điều khiển thích nghi, chẳng hạn
như điều khiển tự tổ chức (self-organizing), các luật sẽ thu được nhờ
quá trình học (learning).

Có thể thấy rằng các phương pháp điều khiển mờ thường gắn liền với
các phương pháp lập luận mờ. Dưới đây là phần trình bày một cách ngắn gọn
về một vài phương pháp xây dựng bộ điều khiển mờ.

Phương pháp xây dựng bộ điều khiển mờ dựa trên luật:

Bộ điều khiển mờ dựa trên luật lần đầu tiên được Mamdani và Assilan
phát triển vào năm 1974. Ý tưởng chính của phương pháp là dựa vào việc xây
dựng một hệ lập luận mờ và lượng hóa các khái niệm mờ cho phù hợp.

66
Đặc trưng của phương pháp này là tập hợp các luật được xây dựng dựa
vào tri thức của các chuyên gia hay nói khác đi, tập luật là sự mô phỏng các
tình huống đáp ứng của các chuyên gia trong quá trình thao tác điều khiển.

Ưu điểm của phương pháp xây dựng bộ điều khiển này là đơn giản và
việc ứng dụng khá phổ biến. Tuy nhiên nó cũng có những hạn chế như:

- Việc xây dựng tập luật là một khó khăn.

- Khi bộ điều khiển được xây dựng thì thuật toán điều khiển dựa trên tập
luật đó là cố định, không thể thích nghi theo sự thay đổi của quá trình
điều khiển.

Phương pháp xây dựng bộ điều khiển mờ dựa trên mô hình:

Nếu như ý tưởng của phương pháp trên là thuật toán mô phỏng hành vi
của người điều hành thì trong phương pháp này lại là mô hình hóa chính đối
tượng bằng mô hình mờ trên cơ sở khảo sát dữ liệu của biến vào và biến ra.
Nội dung chính của phương pháp là:

- Xây dựng mô hình quan hệ mờ dựa trên quan sát đầu vào/đầu ra.

- Xây dựng thuật toán cho phép bộ điều khiển lựa chọn thao tác điều hành
cho kết quả tốt nhất dựa trên hàm tổn thất mờ (fuzzy cost function).

- Có thể sử dụng mô hình tự học hay các mô hình lai giữa mô hình mờ và
mô hình toán học.

Phương pháp này có nhiều ưu điểm:

- Khảo sát hành vi của đối tượng điều khiển thông qua đầu vào và đầu ra
là dễ dàng hơn so với việc khảo sát sự đáp ứng của các chuyên gia;

- Phương pháp này cung cấp khả năng thiết kế mềm dẻo, linh hoạt hơn và
cung cấp cách thức bộ điều khiển đạt được mục tiêu chứ không đơn giản
là chỉ đáp ứng lại các dữ liệu đầu vào;

67
- Tận dụng được lợi thế của phương pháp lập luận mờ.

Phương pháp xây dựng bộ điều khiển thông minh dựa trên tri thức và logic
mờ:

Trong thực tiễn điều khiển các quá trình người ta thường gặp những môi
trường mà trong đó không thể thu được các dữ liệu chính xác hoặc không thể
mô tả được chính xác trạng thái… những trường hợp như vậy cần phải phát
triển, xây dựng các bộ điều khiển thông minh gồm nhiều thành phần dựa trên
việc kết hợp các kỹ thuật điều khiển chuyên gia để chọn các giải thuật điều
khiển và sử dụng logic mờ để đánh giá hiệu năng thực hiện của giải thuật.
Nghĩa là người ta dùng nhiều giải thuật điều khiển khác nhau trong cùng một
bộ điều khiển.

Phương pháp này cũng dựa trên công nghệ các hệ chuyên gia nhưng nó
khác biệt đáng kể so với các hệ chuyên gia khác như đòi hỏi phải sản sinh các
tín hiệu điều khiển trong thời gian thực, không cần đòi hỏi sự tương tác với
con người để thực hiện chức năng điều khiển. Bộ điều khiển loại này có những
đặc điểm sau:

- Có khả năng sử dụng nhiều thuật toán điều khiển khác nhau, đánh giá
được chiến lược điều khiển nào có khả năng sinh ra tín hiệu điều khiển
thích ứng nhất và có khả năng điều chỉnh các thông số của mỗi thuật
toán để thích ứng với những đòi hỏi trong các tình huống khác nhau.
Việc đánh giá này dựa vào kỹ thuật tập mờ và logic mờ với dữ liệu ngôn
ngữ.

- Có khả năng đánh giá và lựa chọn thuật toán để duy trì trạng thái gần tối
ưu và đảm bảo độ tin cậy ngay cả khi một vài yếu tố của thiết bị điều
khiển bị hỏng nó cũng có thể cấu hình lại thuật toán đó hoặc chuyển
sang thuật toán thích ứng hơn.

68
- Có một cơ sở tri thức về kinh nghiệm đối với quá trình điều khiển cùng
với những tri thức dạng luật mà các giải thuật sẽ sử dụng.

2.2 Bộ điều khiển mờ

2.2.1 Nguyên lý điều khiển mờ

Hoạt động bộ điều khiển mờ phụ thuộc vào kinh nghiệm và phương
pháp lập luận sau đó được cài đặt vào máy tính trên cơ sở logic mờ.

Một bộ điều khiển mờ bao gồm ba khối cơ bản: Giao diện đầu vào, thiết
bị hợp thành, luật điều khiển, giao diện đầu ra như hình vẽ 2.2.

Hình 2.2. Hệ thống kín có tham gia điều khiển mờ

Giao diện đầu vào bao gồm khâu mờ hóa và các khâu phụ trợ, thực hiện việc
tổng hợp và chuyển đổi tín hiệu vào (từ tương tự sang số), ngoài ra còn có thể
có thêm các khâu phụ trợ để thực hiện bài toán động như tích phân, vi phân....
Trong đó khâu mờ hóa có chức năng chuyển mỗi giá trị rõ của biến ngôn ngữ
đầu vào thành vector µ có số phần tử bằng số tập mờ đầu vào.

Thiết bị hợp thành là sự triển khai luật hợp thành R được xây dựng trên cơ sở
luật điều khiển.

Giao diện đầu ra gồm khâu giải mờ và các khâu giao diện trực tiếp với đối
tượng, có nhiệm vụ thực hiện chuyển đổi tín hiệu ra (từ số sang tương tự) để

69
điều khiển đối tượng. Trong đó khâu giải mờ có nhiệm vụ chuyển tập mờ đầu
ra thành giá trị rõ y0 ứng với mỗi giá trị rõ đầu vào x0 để điều khiển đối tượng.

Nguyên tắc tổng hợp một bộ điều khiển mờ hoàn toàn dựa vào những
phương pháp toán học trên cơ sở định nghĩa các biến ngôn ngữ vào/ra và sự
lựa chọn những luật điều khiển. Do các bộ điều khiển mờ có khả năng xử lý
các giá trị vào/ra biểu diễn dưới dạng dấu phẩy động với độ chính xác cao nên
chúng hoàn toàn đáp ứng được các yêu cầu của một bài toán điều khiển "rõ
ràng" và "chính xác".

Trong sơ đồ ở hình vẽ trên, khâu đối tượng được điều khiển bằng đại
lượng u là tín hiệu đầu ra của bộ điều khiển mờ. Vì các tín hiệu điều khiển đối
tượng là các “tín hiệu rõ” nên tín hiệu đầu ra của bộ điều khiển mờ trước khi
đưa vào điều khiển đối tượng phải thông qua khâu giải mờ nằm trong bộ giao
diện đầu ra. Tín hiệu ra y của đối tượng được đo bằng cảm biến và được xử lý
sơ bộ trước khi đưa vào bộ điều khiển. Các tín hiệu này cũng là các “tín hiệu
rõ”, do vậy để bộ điều khiển mờ có thể hiểu được chúng thì tín hiệu y và ngay
cả tín hiệu đặt x cũng phải được mờ hóa thông qua khâu mờ hóa trong bộ giao
diện đầu vào.

Chất lượng của một hệ điều khiển không chỉ được đánh giá qua độ
chính xác của hệ thống mà trong nhiều trường hợp người ta còn quan tâm đến
các chỉ tiêu khác như độ dao động, tính bền vững (robust), vấn đề tiết kiệm
năng lượng, …

Thành phần trọng tâm của bộ điều khiển mờ đó chính là hệ luật điều
khiển, chúng là tập các mệnh đề hợp thành cùng cấu trúc IF … THEN …và
nguyên tắc triển khai các mệnh đề hợp thành đó có tên gọi là nguyên tắc max-
MIN, max – PROD hay sum-MIN, … Mô hình R của luật điều khiển được xây
dựng theo một nguyên tắc triển khai đã chọn trước và được gọi là luật hợp

70
thành. Thiết bị thực hiện luật hợp thành trong bộ điều khiển gọi là thiết bị hợp
thành.

Trong nhiều trường hợp, các thông tin về sai lệnh giữa tín hiệu chủ đạo
x và tín hiệu ra y chưa đủ để tạo ra một hệ luật điều khiển. Với các bài toán
điều khiển động cơ, bộ điều khiển mờ còn đòi hỏi phải có các thông tin về đạo
hàm của sai lệnh hay tích phân của sai lệnh để cung cấp thêm các đại lượng
đầu vào cho thiết bị hợp thành. Hầu hết các đại lượng này phải được số hóa
một cách phù hợp cho thiết bị hợp thành. Tương tự như vậy với các giá trị ra
của hệ thống, không phải trong trường hợp nào cũng cần các tín hiệu ra rõ mà
có trường hợp lại cần giá trị tích phân của tín hiệu ra.

2.2.2 Nguyên tắc thiết kế bộ điều khiển mờ

Như đã biết, chất lượng của bộ điều khiển mờ phụ thuộc rất nhiều vào
kinh nghiệm của người điều khiển. Nếu khéo léo trong tối ưu hóa hệ thống thì
các bộ điều khiển mờ cũng có thể làm việc ổn định, bền vững và có thể còn
làm việc tốt hơn sự linh hoạt của con người.

Các bước cần thiết để thiết kế và tổng hợp bộ điều khiển mờ:

Bước 1: Định nghĩa tất cả các biến ngôn ngữ vào và ra.

Bước 2: Định nghĩa tập mờ (giá trị ngôn ngữ) cho các biến vào/ra.

Bước 3: Xây dựng các luật điều khiển (các mệnh đề hợp thành).

Bước 4: Chọn thiết bị hợp thành (max-MIN, max - PROD hay sum-MIN).

Bước 5: Chọn nguyên lý giải mờ.

Bước 6: Tối ưu hóa hệ thống.

2.2.2.1 Định nghĩa các biến vào, ra

Định nghĩa các biến vào/ra cho một hệ thống điều khiển là quá trình xác
định các thành phần (đại lượng) đi vào và ra bộ điều khiển mờ. Các thành phần
71
này chủ yếu là được tách ra từ sai lệch giữa đại lượng đặt và giá trị thực ở đầu
ra. Thành phần ra bộ điều khiển mờ để đi tới đối tượng được điều khiển.

2.2.2.2 Xác định tập mờ

Bước tiếp theo là định nghĩa các biến ngôn ngữ vào/ra bao gồm số các
tập mờ và dạng hàm thuộc cho chúng. Để thực hiện được việc này cần xác
định:

Miền giá trị vật lý của các biến ngôn ngữ vào/ra: Ở đây ta cần xác định
khoảng xác định của các biến ngôn ngữ cho các đầu vào và ra. Ví dụ như giá
trị đặt, giá trị thực ở đầu ra và sai lệch giữa các giá trị này, hoặc thành phần thể
hiện tốc độ biến đổi của sai lệch, …Số lượng tập mờ (lực lượng giá trị biến
ngôn ngữ). Về nguyên tắc, số lượng giá trị ngôn ngữ cho mỗi biến ngôn ngữ
chỉ nên nằm trong khoảng từ 3 đến 7 giá trị. Nếu số lượng giá trị ít hơn 3 thì ít
có ý nghĩa vì không thực hiện được lấy vi phân. Nếu lớn hơn 7 thì con người
khó có khả năng bao quát và phản ứng.

Ví dụ 2.3: Điều khiển nhiệt độ, xác định các giá trị điều khiển sử dụng bộ điều
khiển mờ như sau:

- Nhiệt độ = {thấp, trung bình, cao}

- Nhiệt độ = {thấp, hơi thấp, trung bình, hơi cao, cao}

- Nhiệt độ = {rất thấp, hơi thấp, trung bình, hơi cao, rất cao}

Xác định hàm thuộc: Đây là công việc rất quan trọng trong quá trình thiết
kế và tổng hợp bộ điều khiển mờ vì quá trình làm việc của bộ điều khiển mờ
rất phụ thuộc vào dạng và kiểu của hàm thuộc. Nhưng thực tế lại không có một
quy tắc nhất quán nào cho vấn đề chọn hàm thuộc mà ở đây chỉ có một cách
đơn giản là chọn hàm thuộc từ những dạng hàm đã biết trước và mô hình hóa

72
nó cho đến khi nhận được bộ điều khiển mờ làm việc như mong muốn. Quá
trình này thực hiện như một vòng lặp.

Cũng nên cần chọn các hàm thuộc có phần chồng lên nhau và phủ kín
miền giá trị vật lý để trong quá trình điều khiển không xuất hiện “lỗ hổng”.
Trong trường hợp với một giá trị vật lý rõ x0 của biến đầu vào mà tập mờ B’ở
đầu ra có độ cao bằng 0 và bộ điều khiển không thể đưa ra một quyết định điều

khiển nào được gọi là hiện tượng “cháy nguyên tắc”, lý do là hoặc không định
nghĩa được nguyên tắc điều khiển phù hợp hoặc là do các tập mờ của biến
ngôn ngữ có những “lỗ hổng”. Cũng như vậy, đối với các biến ra, các hàm
thuộc dạng hình thang với độ xếp chồng lên nhau rất nhỏ thường không phù
hợp đối với bộ điều khiển mờ. Nó tạo ra vùng “chết” trong trạng thái làm việc
của bộ điều khiển. Trong một vài trường hợp, chọn hàm thuộc dạng hình
thang hoàn toàn hợp lý đặc biệt khi sự thay đổi các miền giá trị của tín hiệu
vào không kéo theo sự thay đổi bắt buộc tương ứng cho miền giá trị của tín
hiệu ra. Nói chung nên chọn hàm thuộc sao cho miền tin cậy của nó chỉ có một
phần tử, hay là chỉ tồn tại một điểm vật lý có độ phụ thuộc bằng độ cao của tập
mờ.

2.2.2.3. Xây dựng các luật điều khiển

Trong việc xây dựng các luật điều khiển (mệnh đề hợp thành), cần lưu ý
vùng xung quanh điểm không, không được tạo ra các “lỗ hổng”, bởi vì khi gặp
các lỗ hổng xung quanh điểm làm việc bộ điều khiển sẽ không thể làm việc
đúng như trình tự đã định sẵn. Ngoài ra cần để ý rằng trong phần lớn các bộ
điều khiển, tín hiệu ra sẽ bằng không khi tất cả các tín hiệu vào bằng không.

2.2.2.4. Chọn thiết bị hợp thành

Để chọn thiết bị hợp thành theo những nguyên tắc đã trình bày trong
phần trước, ta có thể sử dụng một trong các công thức theo luật:

73
- Luật max-MIN, max-PROD.

- Công thức Lukasiewicz có luật sum-MIN, sum-PROD.

- Công thức Einstein.

- Tổng trực tiếp.

2.2.2.5. Chọn nguyên lý giải mờ

Các phương pháp xác định giá trị đầu ra rõ gọi là quá trình giải mờ hoặc
rõ hóa đã được trình bày trong phần trước. Phương pháp giải mờ được chọn
cũng ảnh hưởng đến độ phức tạp, tốc độ tính toán và trạng thái làm việc của
toàn bộ hệ thống. Thường trong thiết kế hệ thống điều khiển mờ, giải mờ bằng
phương pháp điểm trọng tâm có nhiểu ưu điểm hơn cả, bởi vì như vậy trong
kết quả đều có sự tham gia của tất cả các thành phần kết luận của các luật điều
khiển (mệnh đề hợp thành).

2.2.2.6. Tối ưu

Sau khi bộ điều khiển mờ đã được tổng hợp, có thể ghép nối nó với đối
tượng điều khiển thực hoặc với một đối tượng mô phỏng để thử nghiệm. Trong
quá trình thử nghiệm cần đặc biệt kiểm tra xem nó có tồn tại “lỗ hổng” nào
trong quá trình làm việc không, tức là xác định xem tập các luật điều khiển
được xây dựng có đẩy đủ hay không để bổ xung. Một lý do nữa có thể dẫn đến
hệ thống làm việc không ổn định là nó nằm quá xa điểm làm việc. Trong mọi
trường hợp, trước hết nên xem xét lại các luật điều khiển cơ sở.

Bước tiếp theo là tối ưu hóa hệ thống theo các chỉ tiêu khác nhau. Chỉnh
định bộ điều khiển theo các chỉ tiêu này chủ yếu được thực hiện thông qua
việc điều chỉnh lại các hàm thuộc và bổ sung thêm các luật điều khiển hoặc
sửa lại các luật điều khiển đã có, và nên thực hiện việc chỉnh định trên một hệ
kín.

74
Ví dụ 2.4: Điều khiển tự động cho hệ thống bơm nước lấy nước từ giếng.
Trong khi hồ hết nước và trong giếng có nước thì máy bơm tự động bơm như
hình vẽ.

Bước 1: Định nghĩa tất cả các biến ngôn ngữ vào và ra.

Bộ điều khiển mờ gồm 2 tín hiệu đầu vào và 1 tín hiệu đầu ra:

Đầu vào (Input): có 2 biến ngôn ngữ (Hồ, Giếng).

Đầu ra (Output): có 1 biến ngôn ngữ kết luận (Thời gian).

Bước 2: Định nghĩa tập mờ (giá trị ngôn ngữ) cho các biến vào/ra.

Đầu vào (Input): 2 biến ngôn ngữ (Hồ, Giếng).

Biến ngôn ngữ Hồ có các tập mờ hồ đầy (H.Đầy), hồ lưng (H.Lưng) và hồ cạn
(H.Cạn). Hàm thuộc của Hồ nước (Input):

x
H.Đầy(x) = 0 x2
2

 x 0  x 1 
H.Lưng(x) =  
 2 x 0  x  2

x
H.Cạn(x) = (1  ) 0 x2
2

75
Biến ngôn ngữ giếng có các tập mờ nuớc cao (N.Cao), nuớc vừa (N.Vừa), nuớc
ít (N.Ít). Hàm thuộc cho giếng (Input):
y
N.Cao(y ) = 0  y  10
10

 y 
 0  y  5 
5
N.Vừa(y) =  10  y 
 5  y  10 
 5 
x
N.Ít(y) = (1  ) 0 x2
2
Đầu ra (Output): biến ngôn ngữ kết luận (Thời gian).

Biến ngôn ngữ kết luận xác định thời gian bơm sẽ có các tập mờ bơm vừa
(B.Vừa), bơm lâu (B.Lâu), bơm hơi lâu (B.HơiLâu). Hàm thuộc của kết luận
(Output) cho từng luật:

 z 
 0  z  15 
15
B.Vừa(z) =  30  z 
 15  z  30 
 15 

z
B.lâu(z) = 0 ≤ z ≤ 30
30

 z 
 0  z  20 
B.Hơi lâu(z) =  20 
 1  0 . 05 ( z  20 ) 20  z  30 

Trong đó: x là độ sâu của hồ (0 ≤ x ≤ 2)

y là độ sâu của giếng (0 ≤ y ≤ 10)

z là thời gian bơm (0 ≤ z ≤ 30)

Các tập mờ trên được xác định bởi các hàm thành viên sau:

76
Bước 3: Xây dựng các luật điều khiển (các mệnh đề hợp thành).
R1: IF x is H.Lưng And y is N.Cao THEN z is B.Vừa
R 2: IF x is H.Cạn And y is N.Cao THEN z is B.Lâu
R 3: IF x is H.Lưng And y is N.Vừa THEN z is B.Vừa
R 4: IF x is H.Cạn And y is N.Vừa THEN z is B.Hơi lâu

Bước 4: Chọn thiết bị hợp thành (max-MIN hay sum-MIN).

Với giá trị đầu vào (Input): x0 = 1 (Độ cao của nước trong hồ ), y0 = 3 (Độ cao
của nước trong giếng), dựa vào bảng luật điều khiển trên ta có:

H.Lung(x0 ) 1  H.Can(x0 )  0.5


  3   3
3   w1  min1,   0.3 3   w2  min0.5,   0.5
N.Cao( y0 )    10 N.Vua( y0 )    5
10 5 

H.Lung(x0 )  1 H.Can(x0 ) 1 
  3   3
3  w2  min0.5,   0.3 3  w4  min0.5,   0.5
N.Vua( y0 )    5 N.Vua( y0 )    5
5 5

77
Bước 5: Chọn nguyên lý giải mờ.

wi gọi là các trọng số của luật thứ i

Theo lý thuyết hàm thuộc của kết luận cho bởi công thức:

 C(z) =  wi Ri (z) i = 1 …N

 C(z) = w1.B.Vừa(z) + w2.B.Lâu(z) + w3.B.Vừa(z) + w4.B.Hơi Lâu(z)

 C(z) = 3/10.B.Vừa(z) + 0.5.B.Lâu(z) + 3/5.B.Vừa(z) + 0.5.B.HơiLâu(z)

Bước tiếp: Giải mờ từ hàm thuộc của kết luận bằng phương pháp tính trọng
tâm của hàm  C(z)
30

 z. c ( z )dz
17.12
 c ( z)  0
30
  8.15
2.3

0
c ( z )dz

Vậy Defuzzy(z) = 8.15

78
Bước 6: Tối ưu hóa hệ thống. Với mực nước trong hồ là 1m và giếng là 3m thì
thời gian cần bơm là 8 phút và 15 giây.

Ví dụ 2.5: Bài toán điều khiển con lắc ngược


Áp dụng bộ điều khiển mờ điều khiển hệ con lắc ngược. Đây là bài toán khá
kinh điển với hệ được xét là một hệ phi tuyến. Mục đích của việc điều khiển là
đưa con lắc về vị trí cân bằng. Phương trình vi phân mô tả hệ con lắc ngược
được cho như sau:
 ml 2 d 2 / dt 2  ml g sin   u (t )
trong đó m là khối lượng của vật ở đầu con lắc; l là chiều dài của con lắc;  là
góc lệch so với phương thẳng đứng; u(t), giá trị điều khiển tại thời điểm t; g là
hằng số gia tốc trọng trường.
d/dt


m
u

Giả sử rằng x1 =  và x2 = d/dt là các biến trạng thái. Trong trường hợp
góc lệch  nhỏ thì sin() = , với  được đo bằng radian.
Chọn chiều dài con lắc l = g và khối lượng m = 180/(π.g2), bằng cách
tuyến tính hóa hệ ban đầu, ta có hệ phương trình động học tuyến tính mô tả
con lắc ngược dưới dạng không gian trạng thái được rời rạc như sau:
x1(k+1) = x1(k) + x2(k) (*)

x2(k+1) = x1(k) + x2(k) –u(k)

79
Khoảng xác định của các biến trạng thái (đầu vào) x1, x2 và các biến điều
khiển (đầu ra) u như sau:

-20  x1(k)  20 và -50/giây  x2(k) 50/giây

-24 mA  u(k)  24 mA

Các hàm thuộc được xây dựng trên các khoảng xác định của các biến như sau:

Z
P
N P - positive
Z - zero
N - Negative

-2 0 2 x1

Hàm thuộc đầu vào x1

Z
P
N P - positive
Z - zero
N - Negative

-5 0 5 x2

Hàm thuộc đầu vào x2

80
Z
P - positive
NB N P PB
Z – zero
N – negative
PB- positive big
NB- negative big

-24 -16 -8 0 8 16 24 u
Hàm thuộc đầu ra u
Tri thức chuyên gia điều khiển như Bảng 3.2 (được xây dựng theo 9 luật tương
ứng với 2 đầu vào, 1 đầu ra; mỗi đầu vào có phân hoạch chứa 3 hàm thuộc;
phân hoạch đầu ra chứa 5 hàm thuộc).

Bảng 3.2. Bảng tri thức chuyên gia điều khiển.

x2 P Z N
x1
P PB P Z
Z P Z N
N Z N NB

Điều kiện ban đầu để khởi động quá trình điều khiển mờ như sau :

x1(0) = 10

x2(0) = -40/giây

Trên cơ sở bảng điều khiển và điều kiện ban đầu như trên, phương pháp điều
khiển mờ truyền thống điển hình có thể tóm tắt như sau :

k = 0 có 4 luật hoạt động :

Nếu x1 = P và x2 = Z thì u = P min (0.5; 0.2) = 0.2 (P)

Nếu x1 = P và x2 = N thì u = Z min (0.5; 0.8) = 0.5 (Z)

Nếu x1 = Z và x2 = Z thì u = Z min (0.5; 0.2) = 0.2 (Z)

81
Nếu x1 = Z và x2 = N thì u = N min (0.5; 0.8) = 0.5 (N)

Sau khi giải mờ bằng phương pháp trọng tâm, nhận được :

u(0) = -2 mA

Điều kiện ban đầu mới tại thời điểm tiếp theo được tính như sau :

x1(1) = x1(0) + x2(0) = 1 + (-4) = -3

x2(1) = x1(0) + x2(0)- u(0) = 1 + (-4) – (-2) = -1

Trên cơ sở bảng điều khiển và điều kiện ban đầu mới, tại thời điểm :

k = 1 có 2 luật hoạt động

Nếu x1 = N và x2 = N thì u = NB min (1; 0.2) = 0.2 (NB)

Nếu x1 = N và x2 = Z thì u = N min (1; 0.8) = 0.8 (N)

Sau khi giải mờ nhận được :

u(1) = -9.6 mA

Quá trình tính toán được lặp lại với k = 2, 3, ..... và các kết quả tính toán này
được đưa vào bảng 3.3.

Bảng 3.3. Kết quả điều khiển qua 10 chu kỳ

Chu kỳ x1(k) x2(k) u(k)


1 1 -4 -2
2 -3 -1 -9.6
3 -4 5.6 0.0
4 1.6 1.6 5.28
5 3.2 -2.08 1.12
6 1.12 0 4.32
7 1.12 -3.2 0.8
8 -2.08 -2.28 -9.86

82
9 -4.36 5.5 0.0
10 1.14 1.14 6.8

Với sai số con lắc ngược là:

e( k )  x12 ( k )  x22 (k )

Đồ thị hàm sai số con lắc ngược được biểu diễn trên hình vẽ sau:
e(k)

7
 
6

4 

 
3

 
2


1

0 1 2 3 4 5 6 7 8 9 k

Đồ thị sai số e(k)

2.3 Bộ điều khiển mờ tĩnh

2.3.1 Khái niệm

Bộ điều khiển mờ tĩnh là bộ điều khiển mờ có quan hệ vào và ra y(x),


với x là đầu vào và y là đầu ra, theo dạng một phương trình đại số (tuyến tính
hoặc phi tuyến). Bộ điều khiển mờ tĩnh không xét tới các yếu tố "động" của
đối tượng (vận tốc, gia tốc,…). Các bộ điều khiển tĩnh điển hình là bộ khuếch
đại P, bộ điều khiển relay hai vị trí, ba vị trí,...

83
2.3.2 Thuật toán tổng hợp bộ điều khiển mờ tĩnh

Các bước tổng hợp bộ điều khiển mờ tĩnh về cơ bản giống các bước
chung để tổng hợp bộ điều khiển mờ như đã trình bày ở trên. Để hiểu kỹ hơn
ta xét ví dụ cụ thể sau:

Ví dụ 2.6: Thiết kế bộ điều khiển mờ tĩnh SISO có hàm truyền đạt y =f(x)
trong khoảng x = [a1, a2] tương ứng với y trong khoảng y [β1, β2].

Bước 1: Định nghĩa các tập mờ vào, ra

- Định nghĩa N tập mờ đầu vào: A1, A2,…, AN trên khoảng [a1, a2] của x
có hàm liên thuộc μAi (x) (i = 1, 2,..., N), dạng hình tam giác cân.

- Định nghĩa N tập mờ đầu ra: B1, B2,…, BN trên khoảng [β1, β2] của y có
hàm liên thuộc μBj(x) (j = 1, 2,..., N), dạng hình tam giác cân.

Bước 2: Xây dựng luật điều khiển

Với N hàm liên thuộc đầu vào ta sẽ xây dựng được N luật điều khiển
theo cấu trúc:

Ri: IF χ = Ai THEN γ = Bj

Bước 3: Chọn thiết bị hợp thành

Giả thiết chọn nguyên tắc triển khai SUM-PROD cho mệnh đề hợp

thành, và công thức Lukasiewicz cho phép hợp thì tập mờ đâu ra B’ khi đầu

vào là một giá trị rõ x0 sẽ là:

 N 
 B' (y)  MIN 1,   Bi (y) Ai (x 0 )  (2.1)
 i1 

vì μBi(y) là một hàm Kronecker μBi(y)μAi(x0) = μAi(x0) khi đó:

 N 
 B' (y)  MIN 1,   Ai (x 0 )  (2.2)
 i 1 

84
Bước 4: Chọn phương pháp giải mờ

Chọn phương pháp độ cao để giải mờ, ta có:


N N
 yi H i  yi Ai (x 0 )
i 1 i 1
y(x 0 )  N
 N
(2.3)
 Hi   Ai (x 0 )
i 1 i 1

Quan hệ truyền đạt của bộ điều khiển mờ có dạng:


N
 yi Ai (x)
y(x)  i 1
N
(2.4)
  Ai (x)
i 1

2.4 Bộ điều khiển mờ động

Bộ điều khiển mờ động là bộ điều khiển mờ mà đầu vào có xét tới các
trạng thái động của đối tượng như vận tốc, gia tốc, đạo hàm của gia tốc,....Ví
dụ đối với hệ điều khiển theo sai lệch thì đầu vào của bộ điều khiển mờ ngoài
tín hiệu sai lệch e theo thời gian còn có các đạo hàm của sai lệch giúp cho bộ
điều khiển phản ứng kịp thời với các biến động đột xuất của đối tượng.

Các bộ điều khiển mờ động hay được dùng hiện nay là bộ điều khiển mờ
theo luật tỉ lệ tích phân (PI), tỉ lệ vi phân (PD) và tỉ lệ vi tích phân (PID).

Một bộ điều khiển mờ theo luật I có thể thiết kế từ một bộ mờ theo luật
P (bộ Điều khiển mờ tuyến tính) bằng cách mắc nối tiếp một khâu tích phân
vào trước hoặc sau khối mờ đó. Do tính phi tuyến của hệ mờ, nên việc mắc
khâu tích phân trước hay sau hệ mờ hoàn toàn khác nhau hình 2.3 a, b.

85
Hình 2.3. a, b Hệ điều khiển mờ theo luật PI

Khi mắc thêm một khâu vi phân ở đầu vào của một bộ điều khiển mờ
theo luật tỉ lệ sẽ có được một bộ điều khiển mờ theo luật tỉ lệ vi phân PD (hình
2.4).

Hình 2.4. Hệ điều khiển mờ theo luật PD

Các thành phần của bộ điều khiển này cũng giống như bộ điều khiển
theo luật PD thông thường bao gồm sai lệch giữa tín hiệu chủ đạo và tín hiệu
ra của hệ thống e và đạo hàm của sai lệch e'. Thành phần vi phân giúp cho hệ
thống phản ứng chính xác hơn với những biến đổi lớn của sai lệch theo thời
gian.

Trong kỹ thuật điều khiển kinh điển, bộ Điều khiển PID được biết đến
như là một giải pháp đa năng và có miền ứng dụng rộng lớn. Định nghĩa về bộ
điều khiển theo luật PID kinh điển trước đây vẫn có thể sử dụng cho một bộ
điều khiển mờ theo luật PID. Bộ điều khiển mờ theo luật PID được thiết kế
theo hai thuật toán:

86
- Thuật toán chỉnh định PID;

- Thuật toán PID tốc độ.

Bộ điều khiển mờ được thiết kế theo thuật toán chỉnh định PID có 3 đầu
vào gồm sai lệch e giữa tín hiệu chủ đạo và tín hiệu ra, đạo hàm và tích phân
của sai lệch. Đầu ra của bộ điều khiển mờ chính là tín hiệu điều khiển rút).

 1 t de 
u(t)  k e   e.dt  Td  (2.5)
 T1 0 dt 

Với thuật toán PID tốc độ, bộ điều khiển PID có 3 đầu vào: sai lệch e
giữa tín hiệu đầu vào và tín hiệu chủ đạo, đạo hàm bậc nhất e' và đạo hàm bậc
du
hai e" của sai lệch. Đầu ra của hệ mờ là đạo hàm của tín hiệu điều khiển
dt
u(t).

du  de 1 d 2e 
 k  e  (2.6)
dt  dt T1 (dt)2 

Do trong thực tế thường có một hoặc hai thành phần trong (2.5), (2.6)
được bỏ qua, nên thay vì thiết kế một bộ điều khiển PID hoàn chỉnh người ta
lại thường tổng hợp các bộ điều khiển PI hoặc PD.

Hình 2.5. Hệ điều khiển mờ theo luật PID

Bộ điều khiển PID mờ được thiết kế trên cơ sở của bộ điều khiển PD mờ


bằng cách mắc nối tiếp ở đầu ra của bộ điều khiển PD mờ một khâu tích phân
(Hình 2.5).

87
Hiện nay đã có rất nhiều dạng cấu trúc khác nhau của PID mờ đã được
nghiên cứu. Các dạng cấu trúc này thường được thiết lập trên cơ sở tách bộ
điều chỉnh PID thành hai bộ điều chỉnh PD và PI (hoặc I). Việc phân chia này
chỉ nhằm mục đích thiết lập các hệ luật cho PD và PI (hoặc I) gồm hai (hoặc
một) biến vào, một biến ra, thay vì phải thiết lập 3 biến vào. Hệ luật cho bộ
điều chỉnh PID mờ kiểu này thường dựa trên ma trận do Mac Vicar-whelan đề
xuất.

Có một số trường hợp sử dụng bộ điều khiển mờ điều chỉnh các tham số
(kp, kI, kD) của bộ điều khiển PID, như hình vẽ 2.6, 2.7.

Hình 2.6. Bộ điều khiển PID được điều chỉnh bằng bộ điều khiển mờ

88
Bé ®iÒu chØnh K’q
®Þnh mê 1
r(n)
)
Bé ®iÒu chØnh
®Þnh mê 2 K’d

e(n) Bé ®iÒu chØnh


) ®Þnh mê 3 

Hình 2.7. Cấu trúc bộ điều khiển mờ

2.5 Thiết kế bộ điều khiển mờ trên Matlab

Matlab là ngôn ngữ lập trình được viết dựa trên cở sở toán học như: lý
thuyết ma trận, đại số tuyến tính, phân tích số …. Nhằm sử dụng cho các mục
đích tính toán khoa học và kỹ thuật.

Matlab cho phép người sử dụng thiết kế các hộp công cụ của riêng
mình. Ngày càng nhiều các hộp công cụ được tạo ra bởi các nhà nghiên cứu
trên các lĩnh vực khác nhau. Matlab bao gồm một số hộp công cụ trong Matlab
ứng dụng trong lĩnh vực điều khiển tự động: Control System Toolbox, Fuzzy
Logic Toolbox, Neutral Network Toolbox, Nonlinear Control Design Toolbox,
Simulink, System Identification Toolbox….

Trong Matlab công cụ lôgic mờ (Fuzzy Logic Toolbox) là tổ hợp các


hàm được xây dựng trên nền Matlab giúp cho việc thiết kế, mô phỏng, kiểm tra
và hiệu chỉnh bộ điều khiển mờ một cách dễ dàng. Để thiết kế bộ điều khiển
mờ trong Fuzzy Logic Toolbox, ta có thể thực hiện thông qua dòng lệnh hoặc
thông qua giao diện đồ hoạ. Trong khuôn khổ cuốn sách này chỉ giới thiệu
những thao tác cơ bản để thiết kế bộ điều khiển mờ thông qua giao diện đồ

89
hoạ. Phần thiết kế thông qua dòng lệnh, ta có thể đọc trong phần "Fuzzy Logic
Toolbox" của Matlab.

Các bước thiết kế bộ điều khiển mờ trong Fuzzy Logic Toolbox của
Matlab như sau:

Bước 1: Trên cửa sổ lệnh (Command Window) ta gõ fuzzy, một cửa sổ Fis
Editor xuất hiện như Hình 2.8. Trên hình vẽ chức năng của từng khối, từng vị
trí đã được chú thích rõ ràng.

Hình 2.8. Soạn thảo FIS Editor

Bước 2: Soạn thảo các hàm thuộc vào, hàm thuộc ra và các luật điều khiển
như Hình 2.9.

90
Hình 2.9. Cửa sổ soạn thảo hệ luật

Kích đúp chuột vào biểu tượng Input (Hình 2.9) chọn Edit, và chọn
Add MFs hoặc Add Custom MF thêm hàm liên thuộc, chọn Remove Select
MF để gỡ bỏ một hàm liên thuộc nào đó, nếu chọn Remove All MFs sẽ gỡ bỏ
tất cả các hàm liên thuộc của biến đã chọn. Theo mặc định, số hàm liên thuộc
là 3 có dạng tam giác, ta có thể thay đổi số lượng cũng như hình dạng hàm liên
thuộc. Để thay đổi hình dạng một hàm liên thuộc nào đó, ta kích chuột vào
hàm đó, nó sẽ chuyển sang mầu đỏ, sau đó kích chuột vào hộp thoại như chỉ ra
ở Hình 2.9 để chọn hàm liên thuộc mong muốn. Trên ô Range và Display
Range ta có nhập các giá trị về miền xác định và miền hiển thị của biến ngôn
ngữ, mặc định của các miền đó là từ 0 đến 1. Trên ô Name và ô Params (Hình
2.10) ta có thể đặt tên và miền xác định cho từng tập mờ.

91
Hình 2.10. Xây dựng hàm thuộc

Nếu thiết lập biến đầu vào Click chuột vào khối Input1. Mặc định có 3
biến đầu vào và có dạng hình tam giác, có thể thay đổi số lượng biến đầu vào
bằng cách Edit → Add MFs cửa sổ Membership Function xuất hiện cho phép
chọn dạng và số lượng hàm liên thuộc cần thêm.

Hình 2.11. Chọn dạng hàm liên thuộc

Với hàm liên thuộc đầu ra cũng làm tương tự chỉ khác là khi lựa chọn
Click chuột vào khối output1 (khối màu xanh).

92
Có thể đổi tên, thay đổi miền xác định, miền hiển thị của các hàm liên
thuộc đầu vào/ đầu ra bằng cách thay đổi các thong số trong hộp Names,
Params, Range tương ứng.

Sau khi đã xây dựng xong các biến ngôn ngữ đầu vào/ đầu ra, lựa chọn
nguyên tắc triển khai luật. Có thể lựa chọn nguyên tắc MAX – MIN, MAX –
PROD, SUM – MIN, SUM – PROD,… và lựa chọn nguyên lý giải mờ trên cửa
sổ FIS Editor.

Để soạn thảo luật hợp thành, ta ấn Edit, Rules trên màn hình hiện ra cửa
sổ Hình 2.11. Sau mỗi lần soạn xong một luật ta ấn Add rule để xác nhận. Để
thay đổi một luật hợp thành ta ấn Change rule. Để xoá một luật điều khiển ta
ấn Delete rules. Muốn quan sát hoạt động của các luật ta ấn View Rules. Ấn
View Surface để quan sát quan hệ vào – ra của bộ điều khiển (Hình 2.12).

Hình 2.12. Xây dựng hệ luật

93
Bước 3: Sau khi thiết kế xong bộ điều khiển, ta cần đặt tên và lưu chúng bằng
cách ấn File, Export To Disk để cất vào đĩa hoặc to Workspase để lưu vào
vùng làm việc của Matlab.

Bước 4: Xây dựng mô hình mô phỏng cho hệ, tiến hành chạy mô phỏng và
hiệu chỉnh hệ thống như hình vẽ 2.13.

Để quan sát quan hệ vào ra, từ cửa sổ FIS Editor ta vào View →
Surface hoặc nhấn tổ hợp phím Ctr+6. Cửa sổ Surface Viewer xuất hiện.
(Hình 2.13).

Hình 2.13. Cửa sổ quan sát vào ra

Để quan sát luật, từ cửa sổ FIS Editor ta vào View →Rules hoặc nhấn
tổ hợp phím Ctr+5. Cửa sổ Rule Viewer xuất hiện. Tại cửa sổ này ta có thể
thay đổi giá trị đầu vào x0 bằng cách kéo thanh trượt màu đỏ như hình vẽ và
quan sát giá trị đầu ra tương ứng. (Hình 2.14).

94
Hình 2.14. Cửa sổ Rule Viewer

Hiệu chỉnh: Sau khi quan sát cửa sổ Surface và Rules chúng ta quay trở lại
hiệu chỉnh giá trị, dạng của các biến ngôn ngữ đầu vào/đầu ra, các luật….. và
cứ tiếp tục như vậy cho đến khi đạt được bộ điều khiển mờ mong muốn.

Để liên kết được bộ điều khiển mờ vừa thiết kế với hệ thống điều khiển
mờ cần mô phỏng trong Simulink, một thao tác không thể thiếu đó là xuất File
dạng *.fis vào vùng Workspace của Matlab. Thao tác như sau:

Cách 1: Trên cửa sổ FIS Editor vào File →Export→To Workspace hoặc
nhấn tổ hợp phím Ctr+T. Một cửa sổ xuất hiện yêu cầu ta ghi tên File. Ta gõ
tên file cần ghi vào ô Workspace variable rồi Click OK.

95
Cách 2: Trên cửa sổ FIS Editor vào File → Export → To Disk hoặc nhấn tổ
hợp phím Ctr+S. Một cửa sổ xuất hiện. Ta gõ tên file cần ghi vào ô File name
rồi Click Save.

96
3

MẠNG NƠRON NHÂN TẠO

3.1. Khái niệm mạng nơron nhân tạo

3.1.1. Đặt vấn đề

Mạng nơron nhân tạo (Artificial Neural Netwworks) được xây dựng dựa
trên cấu trúc của bộ não con người, giúp ta đưa ra một phương pháp mới trong
lĩnh vực tiếp cận hệ thống thông tin. Mạng nơron nhân tạo có thể thực hiện các
bài toán nhận mẫu (Recognition), tối ưu, nhận dạng (Identiffication) và điều
khiển (Control) cho các đối tượng tuyến tính và phi tuyến đạt hiệu quả hơn so
với các phương pháp tính toán truyền thống.

Quá trình nghiên cứu và phát triển mạng nơron nhân tạo có thể chia
thành bốn giai đoạn như sau:

+ Giai đoạn một: Giai đoạn một có thể tính từ nghiên cứu của William
1890 về tâm lý học với sự liên kết các nơron thần kinh. Năm 1940 Mc.Culloch
và Pitts đã cho biết: nơron có thể được mô hình hoá như thiết bị ngưỡng (giới
hạn) để thực hiện các phép tính lôgic. Cũng thời gian đó Wiener đã xét các
mối liên quan giữa nguyên lý phản hồi và chức năng bộ não.

+ Giai đoạn hai: Giai đoạn hai vào những năm 1960, gần như đồng thời
một số mô hình nơron hoàn hảo hơn đã được đưa ra, đó là mô hình:

- Perceptron của Rosenblatt.

- Adaline của Widrow.

- Ma trận học của Steinbuck.

Trong đó, mô hình nơron Perceptron rất được quan tâm vì nguyên lý
đơn giản, nhưng nó cũng có hạn chế vì như Minsky và Papert đã chứng minh

97
nó không dùng được cho các hàm lôgic phức. Còn Adaline là mô hình tuyến
tính, tự chỉnh, được dùng rộng rãi trong điều khiển thích nghi, tách nhiễu, mô
hình Adaline vẫn phát triển và ứng dụng cho đến nay.

+ Giai đoạn ba: Giai đoạn ba có thể tính là khoảng đầu những năm 80.
Những đóng góp lớn cho mạng nơron trong giai đoạn này phải kể đến
Grossberg, Kohonen, Rumelhart và Hopfield. Đóng góp lớn của Hopfield gồm
hai mạng phản hồi: mạng rời rạc năm 1982 và mạng liên tục năm 1984. Đặc
biệt, ông đã dự kiến nhiều khả năng tính toán lớn của mạng nơron mà một
nơron không có khả năng đó. Dự đoán của Hopfield đã được Rumelhart,
Hinton và Williams đề xuất thuật toán sai số truyền ngược nổi tiếng để huấn
luyện mạng nơron nhiều lớp nhằm giải bài toán mà mạng khác không thực
hiện được.

+ Giai đoạn bốn: Giai đoạn bốn là từ năm 1987 đến nay, hàng năm thế
giới đều mở hội nghị toàn cầu chuyên ngành nơron IJCNN (International Joint
Conference on Neural Networks). Các công trình nghiên cứu để hoàn thiện
thêm lý thuyết về mạng nơron như: mở rộng, hoàn thiện các lớp mạng, phân
tích ổn định, kết hợp lý thuyết mạng nơron với các lý thuyết khác cũng không
ngừng được đưa ra. Hàng loạt lĩnh vực khác nhau như kỹ thuật tính, tối ưu,
sinh học, y học, thống kê, giao thông, hoá học, truyền thông....đã đóng góp
nhiều công trình nghiên cứu và ứng dụng mạng nơron vào lĩnh vực của mình.
Trong những thập kỷ 90, các nghiên cứu ứng dụng cho đo lường, điều khiển tự
động chủ yếu mới tiệm cận cho các hệ tuyến tính.

Một số năm gần đây có nhiều công trình nghiên cứu đề xuất các cấu
trúc, luật học cho nhiều loại mạng nơron truyền thẳng và hồi qui mới có nhiều
ưu điểm. Mạng nơron hiện đang được áp dụng có hiệu quả trong nhiều lĩnh
vực kinh tế, kỹ thuật.

98
Phần này trình bày về khái niệm cơ bản và các khái niệm cơ bản và một
số loại mạng nơron thường gặp. Trong đó ứng với mỗi loại mạng nơron đi sâu
trình bày vào cấu trúc, luật học đặc thù của chúng cùng với các ví dụ minh
họa.

3.1.2. Nguyên nhân thúc đẩy nghiên cứu mạng nơron

Mô phỏng sinh học, đặc biệt là mô phỏng nơron thần kinh là một ước
muốn từ lâu của nhân loại. Với khoảng 1012 nơron ở não người, mỗi nơron có
thể nhận hàng vạn tín hiệu từ các khớp thần kinh và được coi là một cơ chế
sinh học phức tạp nhất. Não người có khả năng giải quyết những vấn đề như:
nghe, nhìn, nói, hồi ức thông tin, phân biệt các mẫu mặc dù dữ liệu bị méo mó,
thiếu hụt. Não thực hiện những nhiệm vụ như vậy bởi có những phần tử tính
gọi là nơron. Não phân bổ việc xử lý thông tin cho hàng tỷ nơron có liên quan,
điều khiển liên lạc giữa các nơron. Nơron không ngừng nhận và truyền thông
tin lẫn nhau. Cơ chế hoạt động của nơron bao gồm: Tự liên kết, tổng quát hoá
và tự tổ chức. Các nơron liên kết với nhau thành mạng, mỗi mạng gồm hàng
vạn các phần tử nơron khác nhau, mỗi phần tử nơron có khả năng liên kết với
hàng ngàn các nơron khác.

Bảng 3.1. Một số kết quả so sánh giữa máy tính và bộ não

Máy tính Bộ não

Đơn vị tính một bộ CPU với 105 mạch logic mạng trên 100 tỷ nơron
làm việc theo chế độ tuần tự làm việc song song

Thời gian xử lý 10-8 giây 10-3 giây

Một số kết luận:

Một nơron làm được những chức năng đơn giản hơn CPU, với tốc độ
chậm hơn rất nhiều. Nhưng cả bộ não thì làm được một số việc hơn hẳn máy

99
tính nhất là các bài toán nhận dạng (ảnh, vật thể, tiếng nói...), xử lý thông tin
có nhiễu, không đầy đủ, không chắc chắn, mờ (là những tính chất ta đòi hỏi ở
máy tính thế hệ mới). Vậy tính ưu việt của bộ não là ở chỗ:

- Có số lượng lớn nơron được nối thành mạng liên kết chặt chẽ với nhau.
Tức là, ở đây thông tin cần thiết cho làm quyết định không những được
lấy ra từ bản thân các tín hiệu vào (lớn hay nhỏ) mà còn khai thác triệt
để mối liên hệ giữa chúng.

- Xử lý tín hiệu song song sẽ giúp mạng nơron nhân tạo giải quyết vấn đề
tính toán theo thời gian thực dễ dàng, một trở ngại mà máy tính cũ khó
có thể vượt qua.

3.1.3 Mô hình nơron sinh học

3.1.3.1 Mô hình một nơron sinh vật

Bộ não con người có khoảng 1011 - 1012 nơron sinh học ở nhiều dạng
khác nhau. Mô hình của một dạng nơron sinh học được mô tả trên Hình 3.1.
Cấu trúc chung của một nơron sinh học gồm có ba thành phần: thân (bên trong
có nhân), cây và trục. Cây gồm các dây thần kinh liên kết với thân. Trục có cấu
trúc đơn, dài liên kết với thân. Phần cuối của trục có dạng phân nhánh. Trong
mỗi nhánh có một cơ cấu nhỏ là khớp thần kinh, từ đây nơron sinh học này
liên kết bằng tín hiệu tới các nơron sinh học khác. Sự thu nhận thông tin của
nơron sinh học được thực hiện từ cây hoặc từ thân của nó. Tín hiệu thu nhận ở
dạng các xung điện.

100
Hình 3.1. Cấu trúc nơron sinh học

Các khớp thần kinh: Có nhiều loại khớp khác. Mỗi loại khớp lại cản các loại
xung khác bằng những lực khác. Nên một khớp chỉ cho đi qua một số loại
xung nhất định. Mỗi lần một xung đi qua sức cản của khớp giảm đi một ít làm
cho lần sau dễ dàng hơn.

Truyền xung tín hiệu: Xung điện phát ra từ nơron trước khớp. Nếu lực cản
của khớp nhỏ xung truyền qua. Các nhánh của nơron nhận và truyền về thân
gây ra quá trình hoá học, làm tăng hoặc giảm điện thế bên trong của nơron
nhận. Nếu điện thế lớn hơn ngưỡng nơron phát hoả (fire), một xung sẽ được
gửi đi theo trục qua các nhánh tới chỗ kết thúc gọi là khớp - để truyền tiếp đến
các nơron sau khớp. Các khớp cho xung đi qua tác động làm tăng khả năng
phát hoả của nơron nhận gọi là khớp ức chế.

Quá trình học: Khi có xung kích thích từ bên ngoài tới, các khớp cản lại khác
nhau, cho đi qua hoặc không và sẽ kích thích hay ức chế các nơron tiếp theo.
Do đó hình thành một con đường dẫn truyền xung nhất định. Học là làm cho
con đường này được lặp lại nhiều lần, nên sức cản các khớp nhỏ dần, tạo điều
kiện cho các lần sau lặp lại dễ dàng hơn. Có thể nói: Toàn bộ kiến thức, kinh
nghiệm của một người tích luỹ được và lưu giữ trong đầu chính là hệ thống các
sức cản của các khớp (trong mạng nơron nhân tạo ta làm việc với các trọng số

101
wij - biểu diễn mối liên kết giữa các nơron - tức là đại lượng có ý nghĩa ngược
lại với sức cản của khớp).

3.1.3.2. Các đặc tính cơ bản của não người

Tính phân lớp: Các vùng trong bộ não được phân thành nhiều lớp, ở đó thông
tin được xử lý theo tính chất tương ứng của mỗi lớp đặc thù.

Tính Modul: Các vùng của bộ nhớ được phân thành các modul được mã hóa
bằng các định nghĩa mối quan hệ tích hợp giữa các tín hiệu vào qua các giác
quan với các tín hiệu ra.

Mối liên kết: Liên kết giữa các lớp dẫn đến các dữ liệu dùng chung được xem
như các liên hệ phản hồi khi truyền tín hiệu.

Xử lý các phân tán tín hiệu vào: Các tín hiệu vào được truyền qua nhiều
kênh thông tin khác nhau, được xử lý bởi các phương pháp đặc biệt.

3.1.4. Mô hình nơron nhân tạo

3.1.4.1 Phần tử xử lý

Mô hình một phần tử xử lý hay mô hình một nơron có dạng nhiều vào,
một ra (MISO), Hình 3.2 mô tả mô hình một nơron thứ i, gồm các phần tử sau:

x1
wi1 θ

x2 vi(t) ui(t) yi(t)


wi2  f(.) a(.)
.
.
xm p
wim

Hình 3.2. Mô hình một nơron nhân tạo thứ i


102
Tín hiệu đầu vào có m tín hiệu đầu vào là (x1, ..., xj, ..., xm); tín hiệu ra
có một tín hiệu ra yi (j = 1, 2, ...., m).

Mô hình một nơron nhân tạo có thể được cấu tạo từ ba thành phần chính
đó là: Phần tổng các liên kết đầu vào, phần động học tuyến tính f(.), phần phi
tuyến không động học a(.).

Bộ tổng liên kết: Bộ tổng liên kết đầu vào phần tử nơron có thể mô tả như
sau:
m
vi (t )  wij yi (t )   w ij x j (t )   i (3.1)
j 1

Trong đó:

vi(t) tổng tất cả các đầu vào mô tả toàn bộ thế năng tác động ở thân
nơron.

xj(t) các đầu vào ngoài, mô tả tín hiệu vào từ các khớp nơron ngoài tới
nơron hiện tại, m là số đầu vào, j = 1,..., m.

yi(t) đầu ra nơron (còn dùng làm đầu vào phản hồi, đầu vào cho nơron
khác) mô tả tín hiệu ra.

Wij trọng liên kết các đầu vào ngoài, là hệ số mô tả mức độ liên kết
giữa các đầu vào ngoài tới nơron hiện tại.

p trọng liên kết các đầu vào trong, là hệ số mô tả mức độ liên kết
giữa các nơron trong mạng nơron, liên kết phản hồi, tự liên kết.

θ là ngưỡng, xác định ngưỡng kích thích hay ức chế (hằng số).

v, w, y, x, θ là số thực.

Phần động học tuyến tính (f(.) hàm chuyển đổi tuyến tính):

103
Đầu vào của phần động học tuyến tính là đầu ra của bộ tổng liên kết
vi(t). Đầu ra của nó ui(t) là tín hiệu dạng tương tự. Có nhiều hàm để mô tả phần
động học tuyến tính như thể hiện ở Bảng 3.2.

Dùng toán tử Laplace mô tả hàm truyền của phần động học tuyến tính ta
được dạng:

U(s) = F(s) V(s) (3.2)

Trong miền thời gian phương trình (3.2) có thể viết:



u(t )  

f (t  t ')v (t ')dt ' (3.3)

Bảng 3.2: Một số hàm F(s) thường dùng cho mô hình nơron nhân tạo.

1 1
F(s) 1 Exp(-sT)
s 1  sT

Quan hệ du ( t ) du ( t )
u(t) = v(t)  v(t ) T  u ( t )  v ( t ) u(t) = v(t-T)
vào ra dt dt

Phần phi tuyến. (a(.) - hàm chuyển đổi phi tuyến) : Hàm chuyển đổi (transfer
function), còn gọi là hàm hoạt hóa (activation function), có nhiệm vụ biến đổi
hàm u(t) thành tín hiệu đầu ra yi.

y = a(u(t)) (3.4)

Trường hợp hàm u(t) = v(t) thì ta có:

yi = a(neti) = a(vi)

trong đó a(.) là ký hiệu của hàm chuyển đổi.

104
Có nhiều hàm phi tuyến có thể sử dụng trong phần phi tuyến. Một số
hàm phi tuyến thường dùng được cho ở Bảng 3.3, một số dạng khác cũng được
sử dụng.

Các nơron ở vùng thị giác có đặc tính của hàm Sigmoid, nơron ở khu
vực quan sát có dạng hàm Gauss. Một số dạng hàm mũ, logarit cũng được sử
dụng mặc dù cơ sở sinh học của những hàm đó chưa được đặt ra. Đầu ra y(t)
còn gọi là đầu ra nhị phân, (giá trị ra là 1 hoặc -1 (0)). Các dạng hàm chuyển
đổi thường dùng được biểu diển như trong bảng 3.3.

Bảng 3.3. Một số hàm phi tuyến thường dùng trong các mô hình nơron

Tên hàm Công thức Đặc tính

Hàm chuyển đổi dạng 1 nÕu u  0


g( u )  
cứng gọi là bước nhảy 0 nÕu u  0
đơn vị
Hàm chuyển đổi dạng  1 nÕu u  0
g( u )  
giới hạn cứng đối xứng  1 nÕu u  0
(sgn)
Hàm tuyến tính g(u) = u

Hàm chuyển đổi tuyến 1 nÕu u  1



tính bão hoà g( u)  u nÕu 0  u  1
0 nÕu u  0

Hàm tuyến tính bão hoà 1 nÕu u  1

đối xứng g (u )   u nÕu  1  u  1
 1 nÕu u  1

Hàm tuyến tính dương u nÕu u  0
g(u)  
 0 nÕu u  0

105
Hàm Sigmoid đơn cực 1
g( u ) 
(Unipolar Sigmoid) 1  e  u

Hàm Sigmoid lưỡng cực 2


g(u)  1
(Bipolar Sigmoid) 1  e  u

Chú ý: Để đơn giản, phần chuyển đổi tuyến tính sử dụng hàm F(s)=1 do vậy
u(t) = v(t), do vậy tín hiệu đầu ra y = a(net) = a(v(t)).

Ví dụ 3.1. Cho một nơron được trình bày như hình vẽ, tính giá trị tín hiệu ra
với các trường hợp: hàm chuyển đổi a(.) có các dạng hàm tuyến tính và hàm
sigmoid khi λ =1.

Giải:

Trong đầu vào của nơron là:

3
net  v   w i xi  x1 w1  x2 w 2  x3 w 3 
i 1

= 0.9 x 1+ 0.1 x (-3) + (-1) x 0.1 =0.5

Tín hiệu ra y, với hàm chuyển đổi a(.) có dạng tuyến tính, bảng 3.3

y = a(v) = a (0.5) = 0.5

Tín hiệu ra y, với hàm chuyển đổi a(.) có dạng sigmoid, bảng 3.3

106
1 1
y = a(net)  a ( v )  v
  0.8446
1 e 1  e 1 x 0,5

Ví dụ 3.2. Cho hàm số y = f(x1, x2, x3) được biểu diễn như trong bảng.

TT x1 x2 x3 y TT x1 x2 x3 y

1 0 0 0 0 5 1 0 0 1

2 0 0 1 0 6 1 0 1 1

3 0 1 0 0 7 1 1 0 1

4 0 1 1 1 8 1 1 1 1

 3 
Xác định hàm y  a   w i xi  T  ; Chú ý rằng trên bảng các giá trị của y ở
 i 1 
dạng 0 và 1, do đó chọn hàm chuyển đổi a(.) ở dạng giới hạn cứng.

Giải:

Nếu thay T bởi -xmwm, viết lại hàm số y, ta có: y = a(w1x1+ w2x2+ w3x3+ wmxm)

Áp dụng cho từng trường hợp giá trị của y có trong bảng ta có:

Xét trường hợp 1:

y = a(v1) = a(w1x0 + w2x0 + w3x0 + wmxm ) =0

từ hàm giới hạn cứng, ta có: w1x0 + w2x0 + w3x0 + wmxm ≤ 0 hay wmxm ≤ 0

Thực hiện tương tự cho 7 trường hợp còn lại ta có:

1. wmxm≤ 0

2. w3+ wmxm≤ 0

3. w2 + wmxm≤ 0

4. w2+ w3+ wmxm > 0

107
5. w1+ wmxm > 0

6. w1 + w3+ wmxm > 0

7. w1 + w2+ wmxm > 0

8. w1+ w2+ w3+ wmxm > 0

Từ trường hợp 1, 4 ta có: w2+ w3>0 → w2 = 1 và w3 = 1;

Từ các trường hợp 2, 3 ta có: wmxm≤-1 → xm = -1, wm = 1;

Từ trường hợp 5 → w1=2.

Thay các giá trị vào ta xác định được hàm:

y = a(2x1 + x2 + x3 -1)

3.1.4.2. Mạng nơron nhân tạo

Giống như các nơron sinh học, các nơron nhân tạo có thể liên kết với
nhau tạo thành mạng. Có nhiều cách kết hợp các nơron nhân tạo thành mạng.
Mỗi cách kết hợp tạo thành một loại lớp mạng nơron nhân tạo khác nhau.
Trong mỗi một lớp mạng như vậy có nhiều dạng mạng đã được các tác giả đề
xuất và xây dựng với nhiều đặc trưng về kiến trúc, thuật học và ứng dụng khác
nhau.

+ Dựa vào số lượng lớp có trong mạng nơron ta có thể phân loại thành:
Mạng nơron một lớp; mạng nơron nhiều lớp.

+ Dựa vào đường truyền tín hiệu trong mạng nơron ta phân thành: Mạng
nơron truyền thẳng; mạng nơron phản hồi; mạng nơron tự tổ chức.

Thông thường, các phần tử tổ chức thành nhóm hoặc lớp (layer), ta có:

+ Mạng nơron một lớp: Mạng nơron một lớp là tập hợp các phần tử
nơron có đầu vào và đầu ra trên mỗi một phần tử. Nếu mạng nơron nối các đầu

108
ra của phần này với đầu vào của phần tử kia gọi là mạng tự liên kết (auto
associative).

+ Mạng nơron hai lớp: Mạng nơron hai lớp gồm một lớp đầu vào và
một lớp đầu ra riêng biệt.

+ Mạng nơron nhiều lớp: Mạng nơron nhiều lớp gồm một lớp đầu vào
và một lớp đầu ra riêng biệt. Các lớp nằm giữa lớp đầu vào và lớp đầu ra gọi là
các lớp ẩn (Hidden layers).

+ Mạng nơron truyền thẳng: Mạng nơron truyền thẳng là mạng hai hay
nhiều lớp mà quá trình truyền tín hiệu theo một hướng.

+ Mạng nơron phản hồi: Mạng nơron phản hồi là mạng mà trong đó
một hoặc nhiều đầu ra của các phần tử lớp sau truyền ngược tới đầu vào của
lớp trước.

+ Mạng nơron tự tổ chức: Mạng nơron tự tổ chức là mạng có khả năng


sử dụng những kinh nghiệm quá khứ để thích ứng với những biến đổi của môi
trường (không dự báo trước). Loại mạng nơron này thuộc nhóm hệ học, thích
nghi không cần có tín hiệu chỉ đạo từ ngoài.

Hình 3.3 cấu trúc của một số loại mạng nơ ron thường gặp:

109
Hình 3.3. Cấu trúc một số loại mạng nơron thường gặp

(a). Mạng nơron truyền thẳng một lớp; (b). Mạng nơron truyền thẳng nhiều lớp; (c). Mạng
nơron chỉ có một nơron tự hồi qui; (d). Mạng nơron hồi qui một lớp; (e). Mạng có cấu trúc
ngang hạn chế; (f). Mạng nơron hồi qui nhiều lớp

3.1.5 Các tính chất của mạng nơron nhân tạo

Mạng nơron nhân tạo có một số tính chất sau đây:

- Là hệ phi tuyến.

- Là hệ xử lý song song: Mạng nơron có cấu trúc song song, do đó có tốc độ


tính toán rất cao, rất phù hợp với lĩnh vực nhận dạng và điều khiển.

110
- Là hệ học và thích nghi: Mạng được luyện từ các số liệu quá khứ, có khả
năng tự chỉnh khi số liệu đầu vào bị mất, có thể điều khiển online.

- Là hệ nhiều biến, là hệ nhiều đầu vào, nhiều đầu ra (MIMO) rất tiện dùng
khi điều khiển đối tượng có nhiều biến số.

3.1.6 Các luật học

Mạng nơron sử dụng hai nhóm luật học: nhóm luật học thông số
(parameter learning rules) và nhóm các luật học cấu trúc (structure learning
rules).

+ Học cấu trúc: Có nhiệm vụ đưa ra cấu trúc hợp lý của mạng như thay
đổi số lượng nơron hoặc thay đổi số lượng liên kết của các nơron trong mạng.

+ Học thông số: có nhiệm vụ tính toán cập nhật giá trị của trọng số liên
kết wij, các tham số kích hoạt a(.).

Hai cách học trên có thể kết hợp được áp dụng đồng thời với nhau gọi là
các luật học lai (hybrid learning rules) học cả thông số và cấu trúc, hoặc được
áp dụng riêng rẽ.

Giả thiết mạng nơron có:

- Cấu trúc của mạng nơron gồm số lượng lớp nơron, số lượng nơron và
cách thức liên kết của các trọng số có trong mạng đã hợp lý.

- Ma trận trọng số đã bao gồm tất cả các phần tử thích hợp.

Nhiệm vụ của học thông số là đưa ra phương pháp nào đó để tìm ma


trận trọng số điều chỉnh từ ma trận trọng số tùy chọn ban đầu với cấu trúc của
mạng nơron đã được xác định từ trước, thỏa mãn điều kiện sai lệch trong phạm
vi cho phép.

Để làm điều đó, mạng nơron phải có phương pháp thích ứng để tính
toán được các ma trận trọng số điều chỉnh w đặc trưng cho mạng. Phương

111
pháp đó gọi là quá trình học, quá trình học có thể được thực hiện có hoặc
không có tín hiệu để so sánh:

- Có tín hiệu để so sánh: học có giám sát (Supervised Learning), hay gọi
là học có thày giáo.

- Có nhưng không chi tiết (ví dụ:"đúng, sai”,"được không"): học củng cố
(Reinforcement Learning), hay gọi là học tăng cường.

- Không có tín hiệu để giám sát: học không giám sát (Unsupervised
Learning ), hay gọi là học không thày giáo.

3.1.6.1 Học có giám sát

Cho trước p cặp tập mẫu tín hiệu vào – ra: (x(1), d(1)), ..., (x(k), d(k)), ...,
(x(p), d(p)), với x là vector tín hiệu mẫu đầu vào x = (x(1), x(2), ..., x(p))T; và d là
vector tín hiệu đầu ra mong muốn d = (d(1), d(2), ..., d(p))T.

Khi đưa một mẫu tín hiệu vào là x(k) vào đầu vào của mạng nơron, ở đầu
ra có tín hiệu ra y(k) tương ứng. Sai lệch giữa hai vector tín hiệu d và y có
nhiệm vụ điều chỉnh vector trọng số W của mạng nơron sao cho vector tín
hiệu ra y của mạng bám theo được vector tín hiệu mong muốn d, nói cách khác
là giảm thiểu sai lệch giữa chúng. Kiểu học có giám sát được minh họa như
Hình 3.4.

Hình 3.4. Sơ đồ mạng nơron học có giám sát

112
3.1.6.2 Học củng cố

Trong quá trình học giám sát, giả thiết rằng đáp ứng đầu ra của mạng đã
đạt được giá trị mong muốn. Nhưng ở một mẫu vào ra nào đó cho rằng kết quả
không tin cậy, vì vậy cần phải tiến hành kiểm tra lại mẫu nói trên. Kiểu học
này được gọi là kiểu học củng cố được thể hiện qua hình 3.5.

Hình 3.5. Sơ đồ mạng nơ ron học củng cố

3.6.1.2 Học không giám sát

Kiểu học này có đặc điểm là không có tín hiệu lấy từ bên ngoài. Mạng
phải tự tìm ra các mẫu, nét đặc trương, sự tương thích, phân loại trong dữ liệu
đầu vào và mã hóa thành các mẫu ở đầu ra. Trong quá trình học không giám
sát hình 3.6 nếu mạng không thay đổi thông số của nó thì được gọi là tự tổ
chức.

Hình 3.6. Sơ đồ mạng nơ ron học củng cố

113
3.1.6.3 Dạng chung của học thông số

Hình 3.7 trình bày luật học thông số dạng cơ bản nhất cho nơron thứ i.
Trong đó thành phân thông số ngưỡng có thể thay thế bằng phần tử thứ m của
vector đầu vào thứ m, xm = -1 được kết nối bởi trọng số wim = bi.

Hình 3.7. Luật học thông số dạng cơ bản

Yêu cầu đối với hai kiểu học có giám sát và học củng cố: Cần phải có tín
hiệu mong muốn di, các trọng số của nơron thứ i được điều chỉnh theo các giá
trị của tín hiệu vào, tín hiệu đầu ra và tín hiệu đầu ra mong muốn của nó.
Nghĩa là cần đưa ra một luật học với mục đích điều chỉnh vector trọng số W
sao cho tín hiệu đầu ra của nơron thứ i là yi bám được tín hiệu đầu ra mong
muốn di.

Yêu cầu đối với kiểu học không giám sát: Trọng số của nơron thứ i chỉ phụ
thuộc vào giá trị của sự kết hợp cảu tín hiệu đầu vào and/or với tín hiệu đầu ra.

Nói chung các luật học có thông số (trọng số) đều có sự thay đổi giá trị của
vector trọng số liên kết của nơ ron thứ i là wi tại thời điểm t tỷ lệ với tín hiệu
học r và tín hiệu vào x(t).

Wi(t) = .r.x(t) (3.5)

114
Trong đó:

Wi(t) chênh lệch trong cần cập nhật

 là một số dương gọi là hằng số học, thể hiện tốc độ học của mạng,
thông thường 0<<1.

r tín hiệu học thông thường phụ thuộc vào wi, x và di , thường là sai
lệch giữa đích và đầu ra

r = fr(Wi, x, di) (3.6)

x(t) tín hiệu vào

Biểu thức tính vector trọng số của nơ ron thứ i tại (t+1) là:

Wi(t+1) = Wi(t) + . fr((Wi(t), x(t), di(t)). x(t)

Luật học không giám sát của Hebb (1949):

Wi(t) = .yi.x

Trong đó:

Wi(t) chênh lệch trong cần cập nhật

 hệ số học, thể hiện tốc độ học

yi tín hiệu ra

x tín hiệu vào

Lực khớp trong não thay đổi tỉ lệ với tương quan giữa sự phát hoả của
các nơron trước và sau khớp. Gần đây lại có thêm luật học phản Hebb
(Matsuokak Kawamoto M, 1996).

Ví dụ 3.3: Áp dụng luật học Hebb để cập nhật vector trọng số

115
W = [w1, w2,w3, w4]T cho một nơron với 4 đầu vào x = [x1, x2, x3, x4]T theo
một tập gồm 3 mẫu sau:

 1   0,5  1 
1,5   1   0 
x (1)    (2)
,x    , x 
(3) 
0,5  0   1 
     
 0   1,5   0,5

1
0
Chọn giá trị ban đầu w (1)    ,  = 1.
 1
 
0

Ta xét trường hợp nơron với hàm tích hợp tuyến tính, có ngưỡng I  0 , và hàm
m
kích hoạt dạng ngưỡng: y = Sgn(  w j x j ) = Sgn (wTx)
j1

Bước1: Tính đầu ra với bộ mẫu vào thứ nhất

  1 
 1,5  

y(1)  sgn w (1)T x (1)   sgn 1; 0;  1; 0     sgn 1  0  0,5  0 

  0,5 
  
  0 
 sgn(0,5)  1

Tính chênh lệch trọng cần cập nhật lần thứ nhất

 1   1 
1,5  1,5 
W (1)  y(1) x (1)  11     
0,5  0,5
   
 0   0 

Cập nhật trọng lần thứ nhất (để tính cho lần thứ 2)

116
1  1   2 
 0  1,5   1,5 
W (2)  W (1)  W (1)    
 1  0,5  0,5
     
0  0   0 

Bước2: Tính đầu ra với bộ mẫu vào thứ hai

  0,5 
  1 
y(2) 
 sgn w x (2)T (2)
  sgn   2;1,5;  0,5; 0 
  0 

  
  1,5  
 sgn  1  1,5  0  0   sgn(0,5)  1

Tính chênh lệch trọng cần cập nhật lần thứ hai

 0,5  0,5
 1   1 
W (2)  y(2) x (2)  1 1   
 0   0 
   
 1,5   1,5 

Cập nhật trọng lần thứ hai (để tính cho lần thứ 3)

 2   0,5  1,5 
 1,5   1   2,5 
W (3)  W (2)  W (2)    
 0,5  0   0,5
     
 0   1,5   1,5 

Bước 3: Tính đầu ra với bộ mẫu vào thứ ba

  1  
  0 
y(3) 
 sgn w x (3)T (3)
 sgn  1,5; 2,5;  0,5;1,5 


 1  
  
  0,5 
 sgn  1,5  0  0,5  0,75   sgn(1,75)  1

117
Tính chênh lệch trọng cần cập nhật lần thứ ba

 1   1 
 0   0 
W (2)  y(2) x (2)  1  (1)    
 1   1 
   
 0,5  0,5

Cập nhật trọng lần thứ ba

 1,5   1   2,5
 2,5   0   2,5
W (4)  W (3)  W (3)    
 0,5  1   0,5
     
 1,5   0,5  2 

3.2 Mạng nơron truyền thẳng sử dụng luật học có giám sát

3.2.1. Mô hình nơron nhân tạo M-P

Mô hình nhân tạo M-P do Mc Culloch và Pitts đề xuất năm 1943 như
hình 3.8, trong đó:
X1 
xj(t): đầu vào thứ j ở thời điểm (t)
W1
f() a() y
y(t+  ): đầu ra của nơron
X2 W2 
 : thời gian xử lí tín hiệu
.
. Wm
wj: trọng nối từ đầu vào thứ j .
Xm
: ngưỡng
Hình 3.8. Nơron M-P
f(.): hàm chuyển đổi phi tuyến

a(.): Hàm chuyển đổi tuyến tính

Phương trình mô tả:

m 
Y(t+  ) = y(t   )  a   w j x j (t)    (3.7)
 j1 

118
1 nÕu f  0
a (f )   (3.8)
 0 nÕu f  0

Khả năng tính toán:

Bằng cách chọn các trọng và ngưỡng thích hợp, một nơron có thể thực
hiện được ba phép tính logic cơ bản: OR, AND, NOT. Do đó một mạng từ các
nơron M-P có thể thực hiện các hàm logic phức tạp bất kỳ, và có khả năng tính
toán như một máy tính số hiện nay. Tất nhiên ta không chỉ sử dụng nơron M-P
để thực hiện ba phép tính trên và máy tính nơron không chắc sẽ làm việc theo
nguyên lý của máy tính cũ...

Chứng minh:

Phép OR:

y  x1  x 2  x 3  ...  x m

Để đơn giản, ta chọn: w1= w2 = ... = wm = w.

Phép OR đòi hỏi các điều kiện sau:

Nếu: x1 = 0 , x2 = 0, x3 = 0, ... xm = 0 thì y = 0

x1 = 1, x2 = 0, x3 = 0, ... xm = 0 thì y = 1

x1 = 1, x2 = 1, x3 = 0, ... xm = 0 thì y = 1

x1 = 1, x2 = 1, x3 = 1, ... xm = 0 thì y = 1

Thay các giá trị trên của xj và y vào (3.7), (3.8) ta có hệ phương trình:

119
0  0  0  ...  0    0   0
 w  0  0  ...  0    0 w  0
 
 w  w  0  ...  0    0  2w  0
 
 
 w  w  w  ...  w    0 mw  0

Với các điều kiện trên ta luôn chọn được các trọng và ngưỡng thoả mãn.

Phép AND:

y  x1  x 2  x 3  ...  x m

Cần thoả mãn điều kiện :

Nếu x1 = 1, x2 = 1, x3 = 1, ..., xm = 1 thì y = 1

x1 = 0, x2 = 1, x3 = 1, ..., xm = 1 thì y = 0

x1 = 0, x2 = 0, x3 = 1, ..., xm = 1 thì y = 0

x1 = 0, x2 = 0, x3 = 0, ..., xm = 1 thì y = 0

x1 = 1, x2 = 1, x3 = 1, ..., xm = 1 thì y = 0

Như vậy ta có:

 w  w  w  ...  w    0  mw    0
0  w  w  ...  w    0 (m  1)w    0
 
0  0  w  ...  w    0 (m  2)w    0
  
 
0  0  0  ...  w    0  w 00
 
0  0  0  ...  0    0  0

Từ đó ta phải có:

120
 
w  m
 mw    0   
    w
(m  1)w    0   w   m m 1
  m 1 
 0   0
  0


Với điều kiện trên ta dễ dàng chọn được w và  thoả mãn.

Phép NOT:

Xét với một đầu vào y  x1 vậy cần thoả mãn điều kiện

 x1  1 th × y  0 w    0 w  
    
 x1  0 th × y  1  0   0

Với điều kiện trên ta luôn chọn được w và  thoả mãn. Xét với nhiều đầu vào

Cho trường hợp có nhiều đầu vào ta phải có y  x1  x 2  ...  x m , vậy trước
hết ta tính z  x1  x 2  ...  x m sau đó thực hiện y  z .

3.2.2. Các mạng truyền thẳng 1 lớp

3.2.2.1. Mạng Percetron 1 lớp (Rosenblatt, 1962)

Mạng perceptron nơron 1 lớp (single – layer perceptron networks) còn


được gọi là perceptron đơn giản do Rosenblatt đề xuất vào năm 1962.

Cấu trúc: Mạng perceptron một lớp có cấu trúc là một lớp nơron truyền thẳng
được mô tả như Hình 3.9.

Trong đó vector tín hiệu vào: x= [x1, x2, ...,xj,...,xm]T, với j = 1,2,...,m;
thành phần đầu vào thứ m là xm = -1.

Vector tín hiệu ra: y = [y1, y2, ...,yi,...,yn]T, với i = 1,2,...,n; thành phần
đầu vào thứ m là xm = -1.

Vector trọng số liên kết giữa tín hiệu vào với nơron thứ i có dạng:

121
wi = [wi1, wi2,...,yim]T

Vector bộ nhớ tín hiệu mẫu ra: d = [d1, d2,...,di,...,dn]T

Vector sai lệch: e = [e1, e2, ...,ei,...,en]T, với i = 1,2,...,n

e1
x1 y1 d1

- +
y2
x2 d2
- +
e2
y3
Xm-1
- +
e3
yn
dn
xm=-1
- +
en
Hình 3.9 Mạng Perceptron 1 lớp

Phương trình mô tả:

m 
yi  a   w ij x j  a(w i T x)  d i  (3.9)
 j1 

 1 nÕu f  0
a(f )  sgn(f )   (3.10)
1 nÕu f < 0

hoặc yi = sgn(WiTx)

Luật học Perception: (Rosenblatt)

Cho trước bộ mẫu tín hiệu vào: x(k)= [x1(k), x2(k),...,xm(k)]T, tương ứng với
mẫu tín hiệu ra: d(k) = [d1(k), d2(k),...,dn(k)]T với k = 1, 2,...,p, trong đó p là số
lượng cặp mẫu vào ra. Điều mong muốn là sau khi học đạt được kết quả
y(k)=d(k), với tín hiệu ra của mạng y(k) = [y1(k), y2(k), ...,yn(k)]T, nghĩa là:

122
m 
yi (k )  a   w ijx j(k)  a(w iT x (k) )  d i (k)  (3.11)
 j 1 

Luật học perceptron dùng cho mạng perceptron một lớp gồm LTU sử dụng tìm
vector trọng số trong quá trình học bộ mẫu vào ra cho trước.

Tín hiệu học r ở đây được chọn là sai số giữa đích và đầu ra:

r = di - yi (3.12)

Thay vào (3.10) ta có:

2ηd i x j nÕu y i  d i
Wịj = [di- sgn(wiTx)]xj =  (3.13)
0 nÕu y i  d i

 2d i x nÕu yi  di
hoặc: Wị = [di-Sgn(wiTx)]x =  (3.14)
0 nÕu yi  d i

Ý nghĩa: Bài toán phân lớp (tách) tuyến tính nhờ một nơron perceptron ta có
thể chia các đối tượng.

Ví dụ: Sản phẩm với m -1 đặc tính (x1, x2, ... xm-1), theo giá trị của hàm g1(x) =
W1Tx (tuyến tính đối với các biến xj) ra hai loại g1(x) 0 và g1(x) < 0.

Trường hợp các trọng Wij được xác định bằng tính toán:

+ Cho m = 2: Thì gi(x) = wi1x1 - i = 0 là một điểm trên trục số Hình 3.10.

i/wi1 x
0

g1(x)<0 g1(x)<0

Hình 3.10

+ Cho m = 3: Thì g i (x)  w i1 x1  w i2 x 2    0 là một đường thẳng trong mặt


phẳng (x1, x2).

123
x2

g2(x)
II
I
g1(x) x1
IV III
0
Hình 3.11

Bằng một nơron ta chia các sản phẩm ra 2 loại. Nhờ hai nơron ta có thể chia
thành 4 loại Hình 3.11

g1(x)  0, g2(x)  0 ;

g1(x)  0, g2(x) <0;

g1(x) < 0, g2(x)  0;

g1(x) <0, g2(x) < 0.

+ Cho m = 4: gi(x) = wi1x1 + wi2x2 + wi3x3 -  là một mặt phẳng trong không
gian (x1, x2, x3).

+ Cho m = 5: gi(x) gọi là siêu phẳng quyết định.

Trường hợp các trọng Wij được xác định nhờ quá trình học:

Có thể xác định các trọng của mạng nơron nhờ quá trình học, đây là tính
ưu việt của mạng nơron. Nếu một tập mẫu (x(k), d(k)); k =1,2..p là tốt, thì sau
một số bước k = 1, 2,...n  p Wij sẽ tiến đến giá trị xác định và sẽ không thay
đổi cho các lần học tiếp k = n + 1, n + 2, ...p. Tuy nhiên, cho một tập mẫu cho
trước không phải luôn luôn tồn tại các siêu phẳng quyết định g j(x). Người ta đã
chứng minh rằng nếu bài toán phân lớp có lời giải thì luật học (3.13), (3.14)

124
hội tụ sau một số hữu hạn bước luyện và không phụ thuộc vào chọn giá trị ban
đầu W(1).

Ví dụ 3.4: Luyện một nơron Perceptron với một đầu vào x1 Hình 3.12 nhờ 1
tập 4 mẫu:

x1(1)  0,5; d (1)  1


W1
y d
x1(2)  1; d (2)
 1 x1
- +
x1(3)  2; d (3)
 1 e
W2 =
x2
x1(4)  2; d (4)  1 Hình 3.12

Mở rộng thêm một đầu vào x2 = -1 để mô tả ngưỡng của nơron bằng dạng
không tường minh đối với ngưỡng.

 2 
Chọn hệ số học  = 0,5 và giá trị trọng ban đầu W (1)   
1,5

Như vậy ta có các véctơ đầu vào của mẫu

 x (1)  0,5  1 2  1


X (1)   1     ; X (2)    ; X (3)    ; X (4)   
 1   1   1  1  1

Bước 1:

 0,5 
y(1) = sgn (W(1)TX(1)) = sgn   2; 1,     sgn(1  1,5)  1  d (1)
  1  

 2  0,5  1,5
W (2)  W (1)  W (1)  W (1)  2d (1) X (1)         
1,5  1   0,5 

  1 
 
Bước2: y(2)  sgn W (2)T X (2)  sgn   1,5; 1,      sgn(1,5  0,5)  1  d (2)
 1 

125
 1,5  1  0,5
W (3)  W (2)  W (2)  W (2)  2d (2) X (2)     
 0,5   1  1,5 

  2 
 
Bước3: y(3)  sgn W (3)T X (3)  sgn   0,5;1,5     sgn( 1  1,5)  1  d (3)
 1 

 0,5  2  1,5 
W (4)  W (3)  W (3)  W (3)  2d (3) X (3)     
 1,5   1  0,5

  2  
 
Bước4: y(4)  sgn W (4)T X(4)  sgn  1,5;0,5     sgn(3  0,5)  1  d (4)
 1 

1,5 
W (5)  W (4)   
0,5

vậy w  1,5 ;   0,5

Phương trình của hàm quyết định g(x):

y = sgn(wx-) = sgn(1,5x - 0,5)

0,5 1
hay g(x)  1,5x - 0,5 = 0  điểm quyết định x=  Hình 3.13.
1,5 3

-2 -1 0 0,5 2 x
1 1 1
x< , d = -1 x> , d = +1
3 3 3

Hình 3.13
Nhận xét:

1
- Có thể diễn đạt kiến thức mà nơron vừa học được là: Nếu x  thì
3
1
thuộc 1 lớp có d = +1; còn x< thì thuộc lớp thứ 2 với d = -1.
3

Do đó, có thể đoán được trước kết quả : x = 4  y = +1; x= -3y = -1…

126
- Ảnh hưởng của chọn giá trị vector trọng ban đầu: Ví dụ lấy vector
 2
trọng ban đầu khác W (1)    lần lượt tính như trên ta được w  1,5 ;   0 .
1
Như vậy, phương trình của hàm quyết định là: g(x)  1,5x - 0 = 0  điểm
quyết định x  0 . Do đó vector trọng hội tụ tới giá trị khác trước, nhưng kết
quả các mẫu vẫn được phân thành hai lớp như trước.

- Sau khi vector trọng đã hội tụ, nếu gặp một mẫu xấu vector trọng lại
thay đổi. Có thể coi lúc đó như bắt đầu chu trình luyện mới và nếu có đủ số
mẫu tốt thì W sẽ hội tụ (có thể là đến giá trị khác trước). Vậy nếu số mẫu xấu
là ít thì quá trình luyện vẫn đạt kết quả. Người ta nói mạng nơron có thể làm
việc trong điều kiện có cả thông tin sai.

3.2.2.2. Mạng Adaline 1 lớp (Windrov, 1960)

Phần này trình bày phần tử Adaline và mạng Adaline, trong đó bao gồm
cấu trúc, luật học và một số ví dụ ứng dụng cho bài toán nhận mẫu.

Phần tử Adaline (Adaplive Linear Element): là một nơron với hàm tích hợp
tuyến tính và hàm kích hoạt dốc như Hình 3.14

x1

x2 d
1 y
- +
xm-1 e

xm=-1

Hình 3.14. Cấu trúc phần tử Adaline

Chỉ gồm một nơron tuyến tính hoặc hàm kích hoạt dốc.

Tín hiệu vector đầu vào: x = [x1, x2,...,xm]T;

127
Vector trọng số liên kết w = [w1, w2,...,wm]T với hàm chuyển đổi tuyến tính
a(.) có dạng tuyến tính.

Phương trình mô tả tính toán tín hiệu ra y:

m  m
y  a(v)  a   w jx j    w jx j  d
 j 1  j 1 (3.14)
y  a(v)  a(w T x)  w T x

Luật học:

Cho trước bộ mẫu tín hiệu vào – ra gồm p phần tử {(x(1), d(1)), (x(2), d(2)),...,
(x(p), d(p))}, trong đó mẫu tín hiệu đầu vào thứ k là:

x(k) = [x1(k), x2(k),...., xm(k)]T

Vấn đề là dùng một Adaline để xấp xỉ một hàm tuyến tính (m-1) biến:

y = w1x1 + w2x2 + ...+ wm-1xm-1 -  nhờ một tập hợp gồm p mẫu:

w1x1(1) + w2x2(1) +...+wm-1x(1)m-1 -  = d(1)

w1x1(2) + w2x2(2) +...+wm-1x(2)m-1 -  = d(2)

...............….

w1x1(p) + w2x2(p) +...+wm-1x(p)m-1 -  = d(p)

- Điều kiện để tìm được các ẩn w1, w2... wm-1,  là hệ phương trình tuyến
tính trên có nghiệm, tức là p  m; hoặc nếu p > m thì số các phương trình độc
lập tuyến tính của hệ phải  m.

- Phương pháp cũ: Ta cần một lúc m mẫu gọi là độc lập tuyến tính (có
thể kiểm tra theo phương pháp nào đó) và tính vector trọng W. Sau đó cho
vector đầu vào x, ở đầu ra của nơron ta sẽ nhận được giá trị chính xác
y  WT X .

128
- Phương pháp mới: Phương pháp học có giám sát gọi là luật học
Adaline như hình vẽ 3.15, còn được gọi là luật học Widrow – Hoff (Widrow
Hoff learning rule), và luật học bình phương trung bình cực tiểu (Least Mean
Square – LMS).

Hình 3.15. Phần tử Adaline phương pháp học có giám sát

Luật học Adaline: Chọn vector trọng ban đầu W(1) sau đó ta từng bước hiệu
chỉnh lại W(k) theo các mẫu x(k), d(k), k = 1,2..p, sao cho tổng bình phương sai
số đạt cực tiểu:
2
1 p (k) 1 p (k) 1 p  (k ) m 
E(w)   (d  y )   (d  w x )    d   w j x j 
(k) 2 T (k) 2
2 k 1 2 k 1 2 k 1  j1 

(3.15)

Vấn đề đã được giải quyết bằng phương pháp bình phương cực tiểu truy
hồi (rất nổi tiếng và đã được áp dụng rộng rãi trong nhận dạng, điều khiển
thích nghi, lọc nhiễu, thống kê,...) ở đây Windrow và Hoff đề ra một luật học
dựa trên phương pháp gradient đơn giản hơn:

E p
Wj     (d (k)  W T x (k) )x (k) j (3.16)
Wj k 1

Bởi vì học được tiến hành lần lượt theo các mẫu, nên Wj có thể tích tuần tự:

129
Wj = (d(k) - WTx(k))xj(k) (3.17)

Luật học cập nhật tìm trọng số tại thời điểm (t+1):

wj(t+1) = w j(t) + wj (3.18)

Luật học LMS:

Tín hiệu học r được tính theo biểu thức:

r = d – y = d - WTx (3.19)

Lượng điều chỉnh trọng số wj được tính theo biểu thức:

wj = rx (3.20)

Luật cập nhật tìm trọng số tại thời điểm (t+1):

wj(t+1) = w j(t) + wj (3.21)

Chú ý: E(w) có dạng bình phương, là một siêu parabol trong không gian các
trọng Rm, có một điểm cực tiểu duy nhất. Nên nếu chọn  đủ nhỏ theo phương
pháp gradient ở trên có thể tìm được véc tơ trọng tối ưu sau số lần lặp đủ lớn.
T
Ví dụ 3.5. Phần tử Adaline có hai đầu vào, vector tín hiệu vào x=[x1, x2] , tín
hiệu ra y. Sử dụng phần tử Adaline lưu trữ 2 bộ mẫu tín hiệu vào – ra.
(1) (1) (1) T T; (1)
Mẫu 1: x =[x1 , x2 ] = [0.1, 0.2] d = 0.5;
(2) (2) (2) T T; (2)
Mẫu 1: x =[x1 , x2 ] = [0.5, 0.25] d = 1.0;

- Chọn giá trị vector trọng số tại thời điểm ban đầu t=1:
T T
w(1) = [w (1), w (1)] = [0.5, 0.2]
1 2

- Chọn  = 1.

Giải:

130
Tính w (2) là giá trị điều chỉnh các thành phần trọng số thứ nhất tại thời điểm
1

t=2.

Áp dụng công thức:


E p
Wj     (d (k)  W T x (k ) )x (k) j
Wj k 1

  
W1  1.  d (1)  w(1)T x (1) x1(1)  d (2)  w(1)T x (2) x1(2)  
Thay các giá ta được: W1 = 0.391

w1(2) = w1(1) + W1 = 0.5 + 0.391 = 0.891

Tương tự tính w (2) là giá trị điều chỉnh của thành phần trọng số thứ 2 tại thời
2

điểm t=2 .

W2  1.  d (1)  w(1)T x (1) x (1)
2  d
(2)

 w(1)T x (2) x (2)
2 
 
Thay các giá ta được W = 0.257
2

w (2) = w (1) + W = 0.2 + 0.257= 0.457


2 2 2

Nhận xét ví dụ:

Tín hiệu ra tại thời điểm t=2


T (1) (1)
y = w(2) .x = 0.1805 khác d
T (2) (2)
y = w(2) .x = 0.597 khác d

Sử dụng Matlab sau 500 chu kỳ tính toán được:


T T
w(500) = [w (500), w (500)] = [1.0002, 1.9997]
1 2

T (1) (1)
y = w(500) .x = 0.5001 xấp xỉ d
T (2) (2)
y = w(500) .x = 1.0001 xấp xỉ d

131
Chú ý: Phần tử Adaline có hàm chuyển đổi a(.) là tuyến tính, bài toán nhớ mẫu
là tìm nghiệm của hệ phương trình tuyến tính.

 w1 x1(1)  w 2 x2 (1)  d (1) 


 (2) 
 w1 x1  w 2 x2  d 
(2) (2)

Ta có mô hình như hình vẽ:

Áp dụng luật học Adaline cho mạng Adaline một lớp n nơron:

là mạng có một lớp có n phần tử Adaline. Ta kí hiệu: neti = fi cho hàm tích
hợp.

a(net i )
Trong đó: neti = WiTx ; a(neti) = neti , nên a’(neti) = 1 (3.22)
net i

1 p n 1 p n
  
(k ) (k ) 2 (k ) T
Ta có hàm sai số: E(w) = [ d i  yi ]  [di  a(Wi x ( k ) )]2
2 k 1 i 1 2 k 1 i 1

2
1 p n  (k) m (k) 

=   i d  a   ij j  
W x (3.23)
2 k 1 i 1   j1 

Áp dụng thuật toán gradient theo (3.22), (3.23) ta có:

E p n
   [di (k)  a '(net i (k)' )]a '(net i (k) )x j(k ) (3.24)
Wij k 1 i 1

Từ đó nhận được luật học delta (Windrow) cho cập nhật Wij sau khi mẫu
thứ k xuất hiện:

E
Wij    [d i (k)  a(net i (k) )]a '(net i (k) )x j(k )  rx j(k) (3.25)
Wij

132
Trong đó hằng số  được chọn đủ nhỏ, và r được tính theo biểu thức sau:

r  [di (k)  a(net i (k) )]a '(net i (k) )x j(k )  [d i (k)  a(w iT x)]a '(w iT x) (3.26)

Luật học cập nhật tìm trọng số tại thời điểm học (t+1):

wij(t+1) = wij(t) + wij (3.27)

Ví dụ 3.6: Cho mạng Adaline có hai phần tử Adaline như hình vẽ, có tín hiệu
vào x1, x2, hàm chuyển đổi a(.) là dạng tuyến tính. Mạng cần lưu giữ hai mẫu
vào ra sau đây:
(1) (1) (1) T T
Mẫu 1: x = [x11 , x12 ] = [0.1, 0.2] ;

(1) (1) (1) T (1) (1) T T


y = [y11 , y12 ] = [d11 , d12 ] =[0.5, 0.8]

(2) (2) (2) T T


Mẫu 2: x = [x21 , x22 ] = [0.5, 0.25] ;

(2) (2) (2) T (2) (2) T T


y = [y21 , y22 ] = [d21 , d22 ] =[1.0, 0.4]

Mô tả cấu trúc mạng Adaline gồm có 2 phần tử Adaline (n=2);


T; T
Trong đó: vector tín hiệu vào x=[x1, x2] , vector tín hiệu ra y = [y1, y2] .

Chọn: Vector trọng số tại thời điểm ban đầu t=1, liên kết Adaline 1và 2 là:
T T
w1(1) = [w11(1), w12 (1)] = [0.5, 1.0]

T T
w2(1) = [w21(1), w22 (1)] = [0.2, 0.3]

 =1 ; a’(vi) =1

133
Ý nghĩa: Đặc tính tuyến tính và thích nghi, nhờ một mạng Adaline ta có thể
mô hình hoá một hệ thống tuyến tính y = WTX. Một khi các tham số của hệ
thống thay đổi thì ma trận trọng cũng thay đổi thích nghi theo. Với các đặc
tính tuyến tính và thích nghi, các mạng Adaline được áp dụng rộng rãi trong
xử lí tín hiệu thích nghi, cân bằng hoá, khử nhiễu, điều khiển thích nghi các hệ
thống tuyến tính ...

3.2.3. Mạng truyền thẳng nhiều lớp

3.2.2.1. Cấu trúc mạng

Mạng truyền thẳng nhiều lớp (multilayer feedforward network) có


nhiều lớp nơron: một lớp vào, một hoặc nhiều lớp ẩn và một lớp ra.

- Lớp vào (input layer): gồm m nơron tín hiệu vào.

x = [x1, x2, ....,xj, ....,xm]T , với j = 1, 2, ....,m

- Lớp ra (output layer): gồm n nơron có tín hiệu ra.

y = [y1, y2, ....,yi, ....,yn]T , với i = 1, 2, ....,n

Các lớp ẩn: Có thể có một hoặc nhiều lớp ẩn, với đặc điểm là các nơron
không liên hệ trực tiếp với tín hiệu vào x và tín hiệu ra y.

Hình 3.16 mô tả mạng truyền thẳng 3 lớp (có một lớp ẩn). Mỗi nơron
thứ q ở lớp ẩn liên kết với lớp vào bằng trọng số wqj và liên kết với lớp ra bằng
trọng số wiq, với j = 1, 2, ..., m; q = 1, 2, ..., l ; i = 1, 2, ..., n.

134
Hình 3.16. Mạng nơron truyền thẳng ba lớp

Chú ý: Các mạng truyền thẳng nhiều lớp dùng để giải những bài toán mà
mạng một lớp không làm được. Chẳng hạn như bài toán phân lớp XOR.

3.2.2.2. Bài toán phân lớp XOR

Bài toán XOR xử lý với hai biến vào x1 và x2 để phân thành hai lớp như
bảng 3.4. Từ bảng giá trị ta thấy không thể dùng một perceptron để phân loại
được mà phải dùng mạng phức tạp hơn.

Bảng 3.4. Bảng xử lý bài toán XOR

x1 x2 lớp y Z1 Z2

0 0 1 +1 1 -1

0 1 2 -1 1 1

1 0 2 -1 -1 -1

1 1 1 +1 1 -1

Để phân được thành hai lớp ta sẽ dùng 2 đường g1, g2 Hình 3.17 bất kì
để chia không gian đầu vào ra 3 miền:

135
g1: x2 = x1 - 0,5  -x1+ x2 + 0,5 = 0; đặt z1= Sgn(-x1 + x2 + 0,5).

x2 z2
g2 1 z(2)
(4)
x g1
(2) 1 h
x
-1
0,5
1 z1
0 1 x1
0,5
x(1) x(3) z(3)
-1
z1=z(4)
a, b,
Hình 3.17. Bài toán XOR
g2: x2 = x1+ 0,5-x1+ x2-0,5 = 0; đặt z2 = Sgn(-x1+ x2- 0,5).

Trong không gian ảnh (z1, z2), các mẫu ban đầu trở thành:

x(1) : (0,0) z1(1) = Sgn(-0+0+0,5) = 1; z2(1) = Sgn(-0+0-0,5) = -1

x(2) : (0,1) z1(2) = Sgn(-0+1+0,5) = 1; z2(2) = Sgn(-0+1-0,5) = 1

x(3) : (1,0) z1(3) = Sgn(-1+0+0,5) = -1; z2(3) = Sgn(1+0-0,5) = -1

x(4) : (1,1) z1(4) = Sgn(-1+1+0,5) = 1; z2(4) = Sgn(-1+1-0,5) = -1

Ta thấy: z(1)  z(4), và cần một Perceptron để phân lớp, ví dụ theo đường quyết
định h:

z2 = z1 - 1 -z1+ z2 + 1 = 0

Để z(1)= z(4)(nằm dưới h) tương ứng với đầu ra y = +1 , thì:

y = -Sgn(-z1+z2+1)

= Sgn(z1-z2-1).

Mạng nơron để phân lớp Hình 3.18.

136
- z1
x1
1

y
1 z1-1
1
x2
1
-
0,50,
1 5

Hình 3.18. Mạng nơron để phân lớp XOR

3.3.2.3 Thuật học lan truyền ngược (Runethart, Hinton, Williams)

Mạng nơron thực sự là công cụ mạnh khi nó gồm nhiều lớp với số lượng
lớn các nơron, lúc đó vấn đề học trở nên khó khăn. Thuật học lan truyền ngược
không những đưa ra thuật toán, mà nó còn chỉ ra cách điện tử hoá - để chế tạo
thành các vi mạch nhằm giải quyết tính toán trong thời gian thực, dễ dàng cho
ứng dụng. Mạng truyền thẳng với thuật toán lan truyền ngược gọi là mạng lan
truyền ngược.

Mạng lan truyền ngược có khả năng “tổng quát hoá ” cao. Sau khi được
luyện theo một tập mẫu x(k), d(k), k= 1,2...p sẽ cho ta đáp ứng chấp nhận
được y(k) của đầu vào x(k) không phụ thuộc tập mẫu dùng để luyện.

Thực chất ở đây ta áp dụng phương pháp gradient để tìm giá trị tối ưu
của các trọng Wij, sao cho tổng bình phương sai số nhỏ nhất. Nhược điểm của
phương pháp là có thể chỉ đạt tối ưu cục bộ. Phương pháp bình phương cực
tiểu truy hồi đảm bảo đạt tối ưu toàn cục, nhưng không áp dụng được ở đây, vì
các nơron có hàm tích hoạt a(.) phi tuyến thì sai số không còn là tuyến tính đối
với các trọng nữa (trong trường hợp mạng tuyến) (mạng Adaline) thì phương
pháp cũng rất khó “cứng hoá” được).

137
Hình 3.19. Mạng lan truyền ngược

Để hiểu rõ thuật lan truyền ngược ta xét mạng nơron hai lớp hình 3.19.
Với giả thiết cấu trúc của mạng (số lớp, số nơron trong mỗi lớp) đã được xác
định (ví dụ qua bước học cấu trúc).

Cho trước bộ cặp mẫu tín hiệu vào – ra x(k), d(k), k= 1,2...p luật học lan
truyền ngược thực hiện hai giai đoạn trong quá trình học cặp dữ liệu mẫu.

Giai đoạn đầu, bộ mẫu tín hiệu đầu vào x lan truyền theo chiều thuận từ
lớp vào qua các lớp ẩn đến lớp ra để tạo ra tín hiệu ra y.

Giai đoạn hai, sai lệch e = d - y được lan truyền theo hướng ngược lại từ
lớp ra qua lớp ẩn trở về lớp vào, có nhiệm vụ điều chỉnh lại giá trị trọng số
giữa các lớp sao cho tín hiệu ra y bám theo được tín hiệu mẫu đầu ra d.

Ta phải tìm các trọng Wiq, Vqj để xấp xỉ tốt nhất quan hệ giữa n đầu ra yi
với m -1 đầu vào xj theo một tập mẫu x(k), d(k), k = 1,2...p.

Trước hết ta mở rộng vector x thêm một phần tử xm = -1 và biểu diễn


vector ngưỡng  nhờ vector trọng Wqm, (q = Wqm, q = 1,2...l).

Xét nơron thứ q của lớp ẩn có tổng trọng là:

138
m
net q  v q   v qjx j ; q  1, 2...l  1 (3.28)
j1

Tín hiệu ra nơron thứ q của lớp ẩn là:

m 
z q  a  net q   a   v qj x j  (3.29)
 j1 

Xét nơron thứ i của lớp ra ta có tổng trọng là:

l l m 
net i  vi   Wiq Zq   Wiq a   v qj.x j  (3.30)
q 1 q 1  j1 

Tín hiệu ra của nơron thứ i của lớp ra là:

 l   l m 
yi  a  vi   a   Wiq z q   a   Wiq a   v qjx j   (3.31)
 q 1 
 q 1    j1 

Trung bình bình phương sai lệch E được viết như sau:

1 p n 1 p n  (k)
 
2
E    (d i  yi )    d i  a w iT x (k ) 
(k) (k) 2
2 k 1 i1 2 k 1 i1  

2
1 p n  (k ) m 
   di  a   w ijx j(k )   (3.32)
2 k 1 i1   j1 

Theo phương pháp gradient tìm lượng điều chỉnh của trọng số giữa
nơron thứ q của lớp ẩn với nơron thứ i của lớp ra:

E E yi vi
w iq     . .  (di  yi ).a '(vi ).z q  0i z q (3.33)
w iq yi vi w iq

trong đó ta gọi 0i là ký hiệu sai số của nơron thứ i trong lớp ra:

E E yi
0i    .  (d i  yi )a '(vi ) (3.34)
vi yi vi

139
Sử dụng phương pháp hạ gradient tìm lượng điều chỉnh của trọng số giữa
nơron thứ j với nơron thứ q của lớp ẩn:

E E vq E z q vq
vqj     .   . .
vqj vq v qj Zq vq vqj

n
  [(di  yi )a '(vi )w iq ]a '(v q )x j   hq x j (3.35)
i 1

E E z q n
Trong đó ký hiệu:  hq     a '(vq ) oi w iq (3.36)
vq z q vq i 1

Luật cập nhật trọng số tại thời điểm (t+1):

vqj(t+1) = vqj(t) + ∆vqj (3.37)

wiq(t+1) = wiq(t) + ∆wiq (3.38)

Để tiện cho thực hiện tính toán, nên sử dụng các công thức tính tín hiệu
sai lệch đã được cho sẵn sau đây ứng với từng trường hợp sử dụng dạng hàm
chuyển đổi a(.) sau đây:

+ Trường hợp hàm kích hoạt dạng sigmoid đơn cực:

1 a ev
a(v)   a '(v)   (3.39)
1  e v v (1  e v )2

cho  = 1, ta có a’(v) = a(v).[1-a(v)]

Như vậy tìm được các công thức tính các tín hiệu sai lệch như sau:

oi = (di -yi)yi(1-yi) (3.40)


n
 hq  z q (1  z q ) oi w iq (3.41)
i 1

+ Trường hợp hàm sigmoid lưỡng cực,  = 1:

140
2 1
a(v)  2  v
 1;  a '(v)  [1  a 2 (v)] (3.42)
1 e 2

Như vậy tìm được các công thức tính các tín hiệu sai lệch như sau:

1
oi  (1  yi 2 )[d i  yi ] (3.43)
2

1 n
 hq  (1  z q 2 ) oi w iq (3.44)
2 i 1

Các bước thực hiện:

Với mạng truyền thẳng có S lớp, svi và syi tương ứng là tổng trọng và giá
trị đầu ra của nơron thứ i của lớp thứ s; swij là các trọng số nối từ s-1
yj đến syi
(s=1, 2, 3..., S); có m nơron ở lớp vào và n nơron ở lớp ra.

Ban đầu: Thiết lập bộ dữ liệu mẫu vào - ra (x(k), d(k)), với k = 1, 2, 3,..., p

Bước 1: Thiết lập trạng thái ban đầu cho mạng.

Chọn η >0 và Ecp (Ecp là sai lệch cho phép);

Các trọng số ban đầu với gia trị nhỏ ngẫu nhiên:

thiết lập E = 0 và k =1.

Bước 2: Vòng luyện tập.

Đưa dữ liệu các mẫu đầu vào thứ k vào lớp đầu vào (s=1);
s
yi = 1yi = xi(k) với mọi i;

Bước 3: Quá trình truyền thẳng.

Quá trình truyền thẳng của tín hiệu trong mạng công thức:
m 
s
 
yi  a s net i  a   s w ij s 1 y j  (3.45)
 j 1 

Cho mỗi giá trị i và s cho tới khi các đầu ra syi của lớp ra được xác định ;

141
Bước 4: Tính toán sai lệch đầu ra.

Xác định giá trị sai lệch và tín hiệu sai lệch Sδi cho lớp đầu ra:

1 n (k) S 2
E m   (d i - yi )  E c (3.46)
2 i1

Với Em , Ec , là sai lệch mới và cũ ( sai lệch chu kỳ mới và chu kỳ cũ);
S
i  (d i (k ) - S yi )a ' ( S vi ) (4.27)

Bước 5: Lan truyền ngược của sai lệch.

Quá trình lan truyền ngược của sai lệch được cập nhật các trọng số tính
toán theo tín hiệu sai lệch s-1δi cho các lớp phía trước;

 s w ij  s is1y j (3.47)

s
w ij (t  1) s w ij (t)   s w ij (3.48)

s
s 1
i  a '(s1 vi ) s w ji  j (3.49)
j

với s = S, S - 1, ..., 2

Bước 6: Cho mỗi chu kỳ học; Kiểm tra vòng luyện tập.

Nếu k<p, thì k = k+1 và tiến hành bước 1;

Nếu không thực hiện bước 6;

Bước 7: Kiểm tra sai lệch hệ thống.

Nếu Em < Ec thì đã hoàn thành quá trình học, tiến hành ghi lại kết quả
các vector trọng số, bias của các lớp và các đồ thị cần thiết.

Nếu không thỏa mãn quay trở lại thực hiện bước 1.

Ví dụ 3.6: Cho mạng chỉ có một perceptron có bốn đầu vào, một đầu ra có sơ
đồ như Hình 3.20, hàm chuyển đổi có dạng hypecbolic.

142
2
a(v)   1 cho λ =1.
1  e( v)

Hình 3.20. Sơ đồ cấu trúc mạng perceptron

Vector tín hiệu vào là: x = [x1, x2, x3, x4]T, tín hiệu ra là y.

Ma trận trọng số là : w = [w1, w2, w3, w4]T

Cho trước ba cặp mẫu thông số vào ra sau đây:

{x(1) =(1, -2, 0, -1)T , d(1) = -1}

{x(2) =(0, 1.5, -0.5, -1)T , d(2) = -1}

{x(3) =(-1, 1, 0.5, -1)T , d(3) = -1}

Chọn giá trị ban đầu của ma trận trọng số liên kết w tại thời điểm t=1 là:

w = [w1, w2, w3, w4]T = [1, -1,0 , 0.5]T, hệ số học η = 0.1;

Sử dụng luật học delta.

Công thức tính toán đạo hàm bậc nhất của hàm chuyển đổi dạng tang
hypecbolic:

a(v) 1 1
a '(v)   [1  a 2 (v)]  (1  y2 )
v 2 2

Thực hiện quá trình học của mạng tiến hành theo các bước sau:

143
Bước 1: Với mẫu đầu vào là x(1) và giá trị ban đầu cảu ma trận trọng số đã
chọn là w(1), ta có:

Tổng trọng: v(1)= (w(1))Tx(1) = 2.5

Tín hiệu đầu ra: y(1) = a(v(1)) = 0.848 ≠ d(1)

(1) 1 (1) 2
Có: a '(v )  [1  (y ) ]  0.14
2

Áp dụng luật cập nhật trọng số, có giá trị ma trận trọng số mới ( tại t =2)
cho mẫu 1:

w(2) = η(d(1) – y(1))a’(v(1))x(1) + w(1) = [0.974, -0.948, 0, 0.526]T

Bước 2: Với mẫu đầu vào là x(2) và giá trị của ma trận trọng số w(2), ta có.

Tổng trọng: v(2)= (w(2))Tx(2) = -1.948

Tín hiệu đầu ra: y(2) = a(v(2)) = -0.75 ≠ d(2)

(2) 1 (2) 2
Có: a '(v )  [1  (y ) ]  0.218
2

Áp dụng luật cập nhật trọng số, giá trị ma trận trọng số mới tại thời điểm
t=3 cho mẫu 2:

w(3) = η(d(2) – y(2))a’(v(2))x(2) + w(2) = [0.974, -0.956, 0.002, 0.531]T

Bước 3: Với mẫu đầu vào là x(3) và giá trị của ma trận trọng số w(3), ta có.

Tổng trọng: v(3)= (w(3))Tx(3) = -2.46

Tín hiệu đầu ra: y(3) = a(v(3)) = -0.842 ≠ d(3)

(3) 1 (3) 3
Có: a '(v )  [1  (y ) ]  0.145
2

Áp dụng luật cập nhật trọng số, giá trị ma trận trọng số mới tại thời điểm
t=3 cho mẫu 3:

144
w(4) = η(d(3) – y(3))a’(v(3))x(3) + w(3) = [0.947, -0.929, 0.016, 0.505]T

Các bước thực hiện cho một chu kỳ (hay epoch) học của mạng với ba
mẫu vào – ra cho trước. Ta thấy các giá trị tín hiệu ra thứ i (i = 1, 2, 3) vẫn
khác giá trị đầu ra mong muốn: y(i) = d(i). Do đó cần phải tiếp tục thực hiện
thêm nhiều epochs nữa đến khi đạt được giá trị các giá trị tín hiệu ra thứ i là
y(i) (i = 1, 2, 3), tức là đạt y(i) = d(i).

Nói cách khác là cần xác định được một bộ giá trị của ma trận w đặc
trưng của mạng là w = w* sao cho khi đưa vào đầu vào mạng lần lượt ba bộ
mẫu mẫu đầu vào là x(i) (i = 1, 2, 3), sẽ lần lượt nhận được giá trị các mẫu đầu
ra tương ứng là y(i) = d(i) (i = 1, 2, 3):

y(i) = a(v(i)) = a[(w*)Tx(i)] = d(i);

Khi đó nói rằng mạng được lưu giữ được ba mẫu đã cho.

Ví dụ 3.7: Sử dụng mạng nơ ron truyền thẳng học hàm XOR trình bày như
Hình 3.21

Hình 3.21. Mạng lan truyền ngược học hàm XOR

145
Tín hiệu đầu vào Tín hiệu đầu ra

(nơron 3, nơron 4) ( nơron 1)

(1, 1) 0

(1, 0) 1

(0, 1) 1

(0, 0) 0

Thông số ban đầu ngẫu nhiên của mạng như hình 3.19 như sau:

w13 = 0.02 ; w14 = 0.03 ; w12 = -0.02 ; w23 = 0.01 ;

w24 = 0.02 ; w1b = -0.01 ; w2b = -0.01

với nút b là bias; hàm chuyển đổi a(.) là dạng sigmoid, λ =1.

Thực hiện cho trường hợp vector đầu vào (1, 1), đầu ra mong muốn là 0.

Tín hiệu ra của nơ ron 3 và nơ ron 4 là:

y3 = y4 =1

Tín hiệu ra của nơ ron 2:

y2 = a(w23y3 + w24y4 + w2bb ) = a(v2)

1 1
   0.505
1  e .v2 1  e 1x(0.01x10.02x1( 0.01)x1)

Tín hiệu ra của nơ ron 1:

y1 = a(w13y3 + w14y4 + w12y2 + w1bb) = a(v1)

1 1
  .v1
 1x (0.02x10.03x1( 0.02)x 0.505( 0.01)x1)
 0.508
1 e 1 e

Chọn hệ số học η = 0.3.

146
Tính các trọng số điều chỉnh.

Tính w13 ở thời điểm (t+1) theo các bước như sau:

δ1 = y1 (1-y1)(d – y1) = 0.508 x (1-0.508)x(0 – 0.508) = -0.127

Δw13 = ηδ1y3 = 0.3 x (-0.127)x1 = -0.038

w13(t+1) = w13(t) + Δw13 = 0.02 + (-0.038) = - 0.018

Tính w23 ở thời điểm (t+1) theo các bước như sau:

δ2 = y2 (1-y2)( δ1w12) = 0.505 x (1-0.505)x(– 0.127)x(-0.02)] = 0.000635

Δw23 = ηδ2y3 = 0.3 x 0.000635x1 = 0.0002

w23(t+1) = w23(t) + Δw23 = 0.01 + 0.0002 = 0.0102

Thực hiện tương tự cho các trường hợp giá trị vào – ra còn lại của hàm
XOR cho tới khi thỏa mãn điều kiện E≤ 0.01. Kết quả sau quá trình học, bộ
trọng số tìm được của mạng học hàm XOR là:

w13 = 4.98 ; w14 = 4.98 ; w12 = -11.30; w23 = 5.62;

w24 = 5.62; w1b = -2.16; w2b = -8.83

3.2.3.3 Các nhân tố ảnh hưởng đến tốc độ hội tụ trong luật học lan truyền
ngược

Tốc độ hội tụ của luật học lan truyền ngược phụ thuộc vào một số nhân
tố quan trọng: giá trị của các trọng số khởi tạo ban đầu, hằng số học, hàm sai
lệch (ở dạng trung bình bình phương của sai lệch), luật cập nhật, kích thước và
đặc tính của mẫu và cấu trúc của mạng (gồm số lớp và số nơron mỗi lớp).

Giá trị của các trọng số khởi tạo ban đầu:

- Các trọng số khởi tạo ban đầu của mạng nơron truyền thẳng nhiều lớp
có ảnh hưởng rất lớn đến kết quả cuối cùng. Nó thường được khởi tạo
ban đầu bởi các giá trị ngẫu nhiên khá nhỏ. Nếu các trọng số khởi tạo

147
ban đầu có giá trị bằng nhau thì khó luyện được mạng, nên các trọng số
khởi tạo ban đầu cần có giá trị khác nhau.

- Các trọng số khởi tạo ban đầu cũng nên có giá trị nhỏ, vì nếu không
thỏa mãn điều này các hàm sigmoid sẽ ở trạng thái bị bão hòa ngay từ
đầu, quá trình luyện mạng gặp khó khăn, khi đó sẽ gặp phải các điểm
cực tiểu địa phương hoặc ở các trạng thái ổn định quanh điểm cực tiểu.

 3 3 
Nên chọn giá trị trong khoảng  ,  , với ki là số lượng nơron thứ
 k i k i 
j đưa tín hiệu truyền thẳng đến nơron thứ i ( hay số lượng tín hiệu đầu vào đưa
tới nơron thứ i).

Hằng số học η:

Nhân tố quan trọng khác ảnh hưởng rất lớn tới hiệu quả và sự hội tụ của
luật học lan truyền ngược đó là hằng số học η, thông thường η được chọn theo
kinh nghiệm. Nếu η có giá trị lớn sẽ làm tăng được tốc độ học, nhưng có
nhược điểm là có thể dẫn đến sự quá điều chỉnh lớn. Nếu η có gia trị nhỏ hơn
thì nó chỉ có tác dụng bù. Theo kinh nghiệm, nên chọn hằng số học 10-3 ≤ η
≤10.

Một vấn đề xảy ra là giá trị của η được chọn phù hợp với chu kỳ đầu,
tuy nhiên chu kỳ tiếp theo có thể không phù hợp với giai đoạn luyện mạng sau.
Vì vậy, có một phương pháp hiệu quả hơn là sử dụng η là một hằng số học
thích nghi. Sau mỗi lần giá trị trọng số, cần thực hiện kiểm tra để xem xét sự
thay đổi của trọng số đó có làm giảm được giá trị của hàm sai lệch E hay
không. Nếu giá trị hàm sai lệch E không giảm, nghĩa là việc cập nhật đã dẫn
đến sự quá điều chỉnh và cần phải giảm giá trị η. Mặt khác, nếu trong nhiều
bước tính liên tiếp đều làm giảm giá trị hàm sai lệch E thì quá trình luyện

148
mạng sẽ chậm, nên tăng giá trị của η. Do đó, hằng số η cần cập nhật theo luật
sau đây:

 a khi E  0,

   b khi E  0,
 0 

với ΔE là độ biến thiên giá trị hàm sai lệch E; a và b là các hằng số dương.

Theo kinh nghiệm cho thấy khi không dùng luật thích nghi cũng nên sử
dụng các hằng số học khác nhau cho từng mẫu học, từng trọng số liên kết.

Động lượng:

Phép tính sai phân sẽ rất chậm nếu hằng số học nhỏ và có thể dao động
nếu hằng số học η quá lớn. Một phương pháp được sử dụng tiến hành học với
hằng số học η có giá trị lớn hơn mà không bị dao động phân kỳ bằng cách
thêm vào phép tính sai phân thông thường một số hạng thành phần động
lượng.

Ý tưởng của phương pháp này là đưa thêm vào mỗi trọng số một thành
phần quán tính hay động lượng, nhờ vậy nó sẽ thay đổi theo hướng độ dốc
trung bình. Cơ chế này được thực hiện bằng cách đưa vào nhân tố của bước
tính trước đó trong biểu thức cập nhật trọng số:

(t+1) = -η ΔE(t) + Δw(t-1) (3.50)

Với    0,1 là tham số động lượng, thường chọn α = 0.9.

Luật cập nhật:

Phương pháp hạ gradient có ưu điểm là đơn giản, dễ thực hiện, nhưng


không phải là công cụ tính toán hiệu quả nhất. Áp dụng tính toán tối ưu số hóa
cho mạng có thể làm tăng tốc độ hội tụ của thuật toán lan truyền ngược.

149
Phương pháp hạ gradient chỉ quan tâm đến thành phần bậc nhất của hàm
sai lệch. Sử dụng công thức triển khai Taylo E(w) tại điểm w0 ta có:

1
E(w)  E(w 0 )  (w  w 0 )T E(w 0 )  (w  w 0 )T H(w)(w  w 0 )  ... (3.51)
2

Với H(w) là ma trận Hessian được viết như sau:

H(w)   2 E(w)

 2E
hoặc H ij 
w i w j

Để tìm giá trị cực tiểu của E(w) ta thiết lập phương trình sau đây:

E(w)  E(w 0 )  H(w)(w  w 0 )  ...  0 (3.52)

Nếu bỏ qua các thành phần bậc 3 ta có:

w  w 0  H 1 (w)E(w 0 ) (3.53)

Hoặc viết biểu thức ở dạng cập nhật trọng số ở thời điểm thứ k:

w (k 1)  w (k )  H 1 (w) k E(w (k) ) (3.54)

Các biểu thức trên mô tả cập nhật trọng số theo phương pháp Newton.
Phương pháp này sử dụng thêm thành phần đạo hàm bậc hai để đánh gía trọng
số của bước cập nhật tiếp theo. Ưu điểm của nó là tốc độ hội tụ cao, nhưng lại
có nhược điểm là cần tính toán ma trận nghịch đảo nên có khó khăn trong quá
trình thực hiện, vì vậy ít được áp dụng trong thực tế.

Số lượng nơron lớp ẩn:

Việc chọn số lượng nơron trong mỗi lớp là một vấn đề luôn luôn được
đặt ra trong các bài toán ứng dụng mạng nhiều lớp truyền thẳng. Số lượng
nơron mỗi lớp cần thỏa mãn các yêu cầu sau đây.

150
- Số lượng nơron ở lớp vào bằng số lượng tín hiệu vào.

- Số lượng ở lớp ra bằng số lượng tín hiệu ra.

Vấn đề là phải tìm được số lượng nơron của lớp ẩn sao cho với số lượng
nơron ở lớp ẩn là nhỏ nhất nhưng vẫn đảm bảo mạng hội tụ để giảm mức độ
phức tạp của mạng.

Có các phương pháp như sau:

- Theo kinh nghiệm: Nếu mạng đã hội tụ, nên giảm số lượng nơron lớp ẩn
để giảm độ phức tạp của mạng và tăng khả năng tác động nhanh của hệ
thống. Nếu mạng không hội tụ thì cần tăng thêm số lượng nơron ở lớp
ẩn.

- Theo phương pháp phân ly các đầu vào: Số lượng nơron lớp ẩn phải đủ
lớn để phân ly không gian vào sao cho các đầu vào khác nhau thì được
bố trí nằm ở các vùng khác nhau. Nếu có một không gian đầu vào m
chiều được phân ly tuyến tính thành M vùng riêng biệt bởi các mặt siêu
phẳng bảo đảm điều kiện các yếu tố ở vùng giống nhau thì có cùng một
đầu ra ở cùng một lớp. Mạng truyền thẳng có một lớp ẩn có thể phân ly
được không gian đầu vào m chiều. Vì vậy vấn đề đặt ra là tìm chính xác
số lượng nơron ở lớp ẩn là Nm để thực hiện được yêu cầu trên. Mối quan
hệ giữa M, m, Nm đã được Mirchandini, Cao (1989) và Huang (1991)
đưa ra có dạng:

M N 
Nm  1  M    m  (3.55)
j1  j 

 Nm 
với    0 nếu Nm <j
 j 

151
Nghĩa là số lượng lớn nhất các vùng phân ly tuyến tính dùng Nm nơron ở
lớp ẩn trong không gian đầu vào có m chiều là Mmax có biểu thức:

Nếu Nm > m:

M N 
M max    m 
j1  j 

N m (N m  1) N (N  1)...(N m  j  1)
 1  Nm   ...  m m (3.56)
2! m!

Nếu Nm > m:

M max  2 Nm và N m  log 2 M max (3.57)

3.2.4 Mạng RBF (Radiel Basis Funtion)

Cấu trúc mạng:

Mạng RBF được Moody và Darker đề xuất năm 1989, nằm trong nhóm
mạng nơron truyền thẳng, có ưu điểm học nhanh hơn mạng lan truyền ngược.

Sự khác nhau giữa mạng cơ sở hình tia và mạng lan truyền ngược là: mạng
RBF chỉ có một lớp ẩn nhưng mạng lan truyền ngược có thể có nhiều lớp ẩn;
mạng lan truyền ngược sử dụng hàm chuyển đổi dạng sigmoid hoặc các hàm
trong nhóm chữ S, còn mạng hàm RBF lại sử dụng hàm chuyển đổi thuộc
nhóm hàm cơ sở đã trình bày ở trên.

Sơ đồ cấu trúc của RBF như Hình 3.22. Trong đó xj là tín hiệu vào của
mạng RBF với i = 1, 2,…, m (còn gọi x là véc tơ đầu vào của mạng); yi là tín
hiệu ra của RBF với j = 1,2,…, n; zq là số phần tử nơron lớp ẩn của mạng
nơron RBF với q = 1, 2, …, l; wq là các trọng số kết nối giữa lớp ẩn và lớp đầu
ra của mạng nơ ron RBF.

152
y1 yj yn

wiq
w1q wnq
z1 z2 zq zl-1 zl

x1 xi xm

Hình 3.22. Cấu trúc mạng RBF


Giá trị đầu ra tại mỗi nút của lớp ẩn của mạng nơron RBF thông thường
là ở dạng hàm Gaussian và có dạng như sau:
2
x mq

2 q
zq  e (3.58)

trong đó x là vector đầu vào, mq là vector tâm của hàm cơ sở thứ q, q là bán
kính (độ rộng) của hàm cơ sở của nơron ẩn thứ q và || . || là một chuẩn ơclit.

Giá trị đầu ra thứ i của mạng là yi:

 l 
y i  ai   wiq z q   i  (3.59)
 q 1 

153
trong đó ai(.) là hàm kích hoạt đầu ra của phần tử nơron thứ i, i là giá trị
ngưỡng (threshold) của phần tử nơron thứ i. Như vậy dạng hàm kích hoạt đầu
ra của phần tử nơron là dạng hàm tuyến tính.

Như vậy RBF chỉ có một lớp ẩn q được kích hoạt và tương ứng với
vector trọng số wq = (w1q , w2q, …, wnq)T. Giá trị đầu ra tuyến tính thứ i của
RBF được tính theo tổng của tích vector trọng số wq với vector giá trị đầu ra
của lớp ẩn zq. Kể từ đây thì RBF mới giống như mạng nơron lan truyền thẳng.

Mẫu vào ra để huấn luyện RBF là (xk, dk), k = 1, 2, …, p. RBF được


huấn luyện luật học lại: học không giám sát trong lớp đầu vào và lớp đầu ra.
Các trọng số trong lớp đầu ra có thể được cập nhật một cách đơn giản bằng
cách sử dụng luật học delta như sau:

iq i

w   d  y z q
i
 (3.60)

Tính tổng trung bình bình phương sai số tính cho p cặp mẫu vào ra của
mạng, và huấn luyện mạng sao cho tổng trung bình bình phương sai số là nhỏ
nhất. Tổng trung bình bình phương sai số được tính như sau:

2 2
1 p n p n  k l 
E  wiq   
 d y
k k  1 k (3.61)

 i i   2   d i   wiq z q 
  2
k  1i  1  k  1i  1  q 1 

Tiếp theo cần phải xác định phạm vi của các tâm hàm cơ sở mq và các
độ rộng của hàm cơ sở q. Các tâm mq có thể tìm được bằng các luật học
không giám sát như luật học Kohonen, đó là:

m
closest

 x  m
closest
 (3.62)

ở đây mclosest là tâm gần với vector đầu vào x nhất và các tâm khác được giữ
không đổi.

154
Giả sử tập mẫu huấn luyện {(x(k), d(k))}, k = 1, 2, …, p, sau đây là một
thuật toán kinh điển huấn luyện mạng RBF, quá trình huấn luyện mạng RBF
thường được chia thành các pha như sau:

Pha 1: Lấy các mốc nội suy làm các tâm mạng: x(k), k = 1, 2,.., p và xác định độ
rộng của các bán kính ứng với mỗi tâm mạng:
1
1 r 2
 k    xi  xk
2
 , k = 1,2,.., p;
 r i 1 

trong đó xi , i = 1,2,.., r, là các láng riềng gần nhất với tâm xk.

Pha 2: Xác định các trọng số của mạng, gồm các bước sau

Bước 1. Chọn tốc độ học  , chọn sai số cực đại Emax

Bước 2. Đặt giá trị đầu

E  0, k  1; Gán giá trị ngẫu nhiên cho các trong số wiq(k)

Bước 3. Tính toán

Tính đầu ra của mạng với tín hiệu vào là x(k):


2
x ( k )  mq
 l
; yi (k )   wiq (k ) z q (k ) ;
2 q
zq ( k )  e (3.63)
q 1

Cập nhật trọng số lớp ra của mạng:

wiq (k  1)  wiq (k )   ( d i (k )  y i (k )) z q ( k ) ; (3.64)

Tính sai số tích luỹ:

1 n
EE 
2 i 1
( d i ( k )  y i ( k )) 2 (3.65)

Bước 4.(Lặp một chu kỳ):

Kiểm tra tập dữ liệu huấn luyện đã quay hết một vòng. Nếu k < p thì

155
k  k+1 và quay lại bước 3; trường hợp khác về bước 5.

Bước 5. (Kiểm tra tín hiệu sai số):

Kiểm tra tín hiệu sai số, nếu E < Emax thì kết thúc vòng luyện và đưa ra
bộ trọng số cuối cùng; trường hợp khác cho E  0, k  1 và quay lại bước 3
tiến hành chu kỳ luyện mới.

Lưu ý: Với bài toán nội suy với các mốc x(k), k = 1, 2, …, p ta thường

+ Lấy các mốc nội suy làm các tâm mạng: x(k), k = 1, 2, …, p

+ Độ rộng của các bán kính ứng với mỗi tâm mạng có thể được tính:
1
1 r 2
 k    xi  xk
2
 , k = 1, 2, …, p; (3.66)
 r i 1 

trong đó xi , i = 1, 2,.., r là các láng riềng gần nhất với tâm xk

Trên thực tế kiến trúc mạng nơ ron RBF và đã trở thành một công cụ
hữu hiệu để giải quyết bài toán nội suy và xấp xỉ hàm nhiều biến.

Nhận xét:

Mạng RBF không bị ảnh hưởng bởi vấn đề cực trị cục bộ. Tuy nhiên,
mạng RBF thường đáp ứng chậm trong giai đoạn nhớ do có một lượng lớn
nơron lớp ẩn. Nhưng ta có thể cải thiện vấn đề này bằng việc chọn tâm và độ
phân tán phù hợp.

Nhờ khả năng xấp xỉ hàm phi tuyến bất kỳ với độ chính xác tùy ý, mạng
nơron, đặc biệt là mạng RBF là công cụ quan trọng cho mô hình hóa hệ thống
và cho điều khiển thích nghi các hệ thống phi tuyến.

156
3.3 Mạng nơron hồi qui một lớp

Có nhiều hệ mạng nơron hồi qui, song đặc trưng nhất là mạng
Hopfield. Các công trình nghiên cứu của Hopfield từ 1982 - 1986 mở đầu thời
kỳ hiện đại của mạng nơron. Các mạng Hopfield kèm theo sơ đồ điện tử đã
thúc đẩy việc xây dựng chip nơron VLSI (Very Large Scale Intergation (mạch
tích hợp mật độ cao)) analog đầu tiên (Howard...,1988). Đến nay đã có rất
nhiều ứng dụng thành công, đặc biệt trong lĩnh vực bộ nhớ liên kết, tối ưu hoá.
Mạng Hopfield là trường hợp đặc biệt của mạng Cohen-Grossberg (1983).

Cấu trúc:

Mạng Hopfield là một lớp nơron hồi qui (hình 5.1). Trong đó mỗi nơron
thứ j đều có tín hiệu vào lấy từ bên ngoài là xj và bias bj với j = 1, 2,...,n.

Chú ý tín hiệu ra của nơron thứ j là yj được đưa ngược trở lại đầu vào
của các nơron khác bởi trọng số wij, với i = 1, 2,....,n và i ≠ j (nghĩa là tín hiệu
ra của mỗi nơ ron thứ i không đưa ngược trở lại đầu vào của chính nó wii =0),
các trọng của mạng có tính đối xứng wij = wji, không có vòng tự hồi qui wii =
0, i = 1,2...n, như Hình 3.23.

x1 y1
1
-1

x2 y2
-1
-1
n
xm yn

Hình 3.23. Cấu trúc mạng Hopfield

157
3.3.1. Mạng Hopfield rời rạc

Mạng Hopfield được gọi là mạng Hopfield rời rạc khi nó làm việc ở chế
độ có thời gian lấy mẫu gián đoạn. Mạng thực hiện quá trình cập nhật như sau:

Ban đầu đặt một mẫu đầu vào cho mạng, nó sẽ tính toán được tín hiệu
đầu ra tương ứng; sau đó mẫu đầu vào ban đầu được loại bỏ và thay vào đó là
tín hiệu đầu ra vừa được tính toán thông qua các liên kết hồi qui. Với tín hiệu
đầu vào cập nhật lần thứ nhất, mạng lại tính được đầu ra cập nhật mới (đầu ra
cập nhật lần thứ nhất), đầu ra cập nhật lần thứ nhất lại thực hiện vai trò của
đầu ra cập nhật lần thứ hai thông qua các liên kết hồi qui, mạng lại tính được
đầu ra cập nhật lần thứ hai. Quá trình này sẽ diễn ra liên tục cho tới khi mạng
đạt tới trạng thái cân bằng.

Luật học:

Từ sơ đồ hình vẽ 3.23, tín hiệu ra của nơron thứ i ở thời điểm (k+1) được tính
theo biểu thức sau.

 n 
yi(k 1)  sgn  Wij y j  x i  i  với i = 1, 2, 3,..., n
 (k)
(3.67)
 j1 
 ji 
 

trong đó a(.) là hàm chuyển đổi có dạng hàm dấu.

Mạng Hopfield có thể hoạt động ở phương thức đồng bộ hoặc không
đồng bộ: phương thức đồng bộ, các trọng số của mọi nơron trong mạng được
cập nhật đồng bộ; phương thức không đồng bộ thì trọng số của duy nhất một
nơron được cập nhật tại thời điểm tính, vì chỉ có một nơron được chọn trong n
nơron có trong mạng nên xác suất lựa chọn là 1/n.

Ví dụ 3.8: Cho mạng Hopfield rời rạc có 2 nơron với: w12 = w21 = -1, w11 =
w22 = 0 và θ1 = θ2. Tín hiệu đầu ra tại thời điểm ban đầu y(0) =[-1, -1]T. Tính tín
hiệu ra của mạng ở các phương pháp cập nhật đồng bộ và không đồng bộ.

158
Giải:

Với phương pháp không đồng bộ:

Tín hiệu ra cập nhật tại thời điểm thứ nhất với giả thiết nơron thứ nhất
được chọn.

y1(1) = sgn(w12y2(0) + x1 - θ1) = sgn ((-1) x(-1) + 0 – 0) = sgn (1) =1

T T 1
nên: y(1)   y1(1) , y 2 (1)    y1(1) , y 2 (0)    
 1

Nơron thứ hai được chọn là:

y2(2) = sgn(w21y1(1) + x2 – θ2) = sgn ((-1) x(1) + 0 – 0) = sgn (-1) =-1

T T  1
nên: y(2)   y1(2) , y 2 (2)    y1(1) , y 2 (2)    
1

ta thấy rằng không có sự thay đổi trạng thái nào nữa vì trạng thái [1, -1]T đã là
trạng thái ổn định của mạng. Sử dụng các đầu ra được khởi tạo ban đầu khác
nhau sẽ thu được các trạng thái ổn định khác nhau trên hình 3.24, trong đó các
vector [1, -1]T và [-1, 1]T là hai trạng thái ổn định của hệ thống. Chú ý trong
trường hợp phương pháp không đồng bộ tại mỗi thời điểm chỉ có một thành
phần của vector tín hiệu n chiều đầu ra được cập nhật.

Hình 3.24. Biểu đồ các trạng thái ổn định

159
Với phương thức không đồng bộ:

Cả hai nơron được kích hoạt đồng thời, sử dụng vector đầu ra ban đầu
là: y(0) =[-1, -1]T, từ công thức 3.67.

Tín hiệu ra cập nhật tại thời điểm thứ nhất là:

 sgn(w12 y 2 (0)  x1  1 )   sgn(( 1)x( 1)  0  0)   1


y(1)    
 sgn(w y (0)  x   )   sgn(( 1)x( 1)  0  0)   1
 21 1 2 2 

Tín hiệu ra cập nhật tại thời điểm thứ hai:

(1)
 sgn(w12 y 2(1)  x1  1 )   sgn(( 1)x1  0  0)   1
y   
 sgn(w y (1)  x   )   sgn(( 1)x1  0  0)   1
 21 1 2 2 

Như vậy kết quả thu được sau hai lần cập nhật lại chính là trạng thái ban đầu
y(0), vì vậy phương thức cập nhật đồng bộ cho phép tạo ra vòng lặp gồm hai
trạng thái chứ không phải là một trạng thái ổn định. Qua ví dụ này có thể thấy
phương thức cập nhật đồng bộ có thể là nguyên nhân làm cho mạng hội tụ đến
các điểm cố định hoặc các vòng lặp giới hạn.

Tính ổn định của mạng:

Hàm năng lượng E của mạng Hopfield rời rạc được viết như sau:

1 n n n n
E 
2 i1 j1
Wij yi y j   x i yi   i yi (3.68)
i 1 i 1
ji

Ở đây ta không sử dụng trực tiếp định lí Liapunov cho các hệ thống rời
rạc, mà chỉ dựa vào ý tưởng của định lí, kết hợp với các tính chất của hàm E để
chứng minh mạng luôn tiến đến trạng thái cân bằng, nằm ở điểm cực tiểu cục
bộ của E.

Trong đó: q = 1,2...,i,...,n: kí hiệu số thứ tự các nơron, i là nơron sẽ được chọn
để cập nhật theo (3.67). Ta có:

160
1 n n n n
E(k  1)   
2 q 1 j1
Wqj yq(k 1) y(k
j
1)
  x y
q q
(k 1)
  q yq (k 1) (3.69)
q 1 q 1

Ta xét:
n n n
 Wqj yq (k 1) y j(k 1)    Wq1 y1(k 1) y1(k 1)  Wq2 y(kq 1) y 2
(k 1)

q 1 j1 q 1
j i (3.70)
(k 1) 1) (k 1) 
...  Wqi y q(k 1) y i  ...  Wqn y(k yn
q 

n n
Nếu ta cũng khai triển  Wqj y(kq ) y(kj ) , và tính E(k) thì sẽ nhận được kết quả
q 1 j1
j i

sau khi rút gọn với lưu ý: Wqj = Wjq, Wqq = 0 , yj(k+1)- yj(k):

 n 
E  E(k  1)  E(k)    Wij y j  x i  i  yi (k 1)  yi (k)

 j1
(k)
   (3.71)
 ji 
 
  net i yi

với yi = yi(k+1)- yi(k)

Từ (3.67) nếu yi thay đổi từ yi(k) = -1 sang yi(k+1) = +1 (tức là yi = 2) thì
neti > 0, do đó E < 0. Tương tự nếu yi đổi từ yi(k) = 1 sang yi(k+1) = -1 (tức là
yi = -2) thì neti < 0 và E < 0. Còn từ (3.71) khi yi không thay đổi

yi(k 1)  yi(k) E = 0. Do đó, trong mọi trường hợp ta có E  0, tức hàm năng
lượng luôn giảm. Theo (3.68) ta thấy hàm E có dạng bình phương và bị giới
hạn trong không gian đầu ra n chiều yi, i = 1,2...n. Do đó với luật cập nhật
(3.67), hàm năng lượng E phải đạt cực tiểu (cục bộ). Mạng Hopfield luôn hội
tụ đến trạng thái ổn định nằm ở điểm cực tiểu cục bộ của hàm năng lượng E
sau một số hữu hạn bước tính.

Nhận xét:

161
+ Từ cách chứng minh tính ổn định của mạng, ta thấy yêu cầu Wqq = 0 là
không cần thiết, mạng có thể có một số hoặc tất cả các vòng tự phản hồi, mà
vẫn đúng.

Wii (k 1) (k 1)


Thật vậy, lúc bấy giờ E  (net i ) yi  (yi yi  yi (k) yi(k) ) , Vì yi
2
2 2
+1,-1 nên: yi (k 1)  yi (k)  0 .

+ Trường hợp các trọng không đối xứng Wịj  Wji cho một số i, j (gọi là mạng
Hopfield biến dạng) đã được Roska nghiên cứu (1988).

3.3.2. Mạng Hopfield liên tục

Mạng Hopfield liên tục là tổng quát hoá của mô hình Hopfield rời rạc
mô tả được quá trình quá độ, nên gọi là nơron động, mạng nơron động
(dynamic), thích hợp cho mô hình hoá các hệ động lực, được biểu diễn bằng
phương trình vi phân. Sơ đồ mạng Hopfield liên tục như Hình 3.25.

x1 y1

a(.)

xj
 yi
a(.)

n yn
xn  a(.)

Hình 3.25. Mạng Hopfield liên tục

Mạng Hopfield liên tục khác mạng Hopfield rời rạc ở chỗ tín hiệu đầu ra
ở dạng liên tục chứ không phải ở dạng trạng thái. Mô hình mạng Hopfield liên
tục ở dạng mạch điện có n bộ khuếch đại, mỗi bộ khuếch đại có nhiệm vụ biến
đổi điện áp vào ui thành điện áp ra yi thông qua hàm chuyển đổi a(ui) như hình

162
3.26, hàm chuyển đổi sử dụng hàm sigmiod. Mỗi khuếch đại thứ i có điện dẫn,
có điện dung đầu vào và tín hiệu từ bên ngoài đầu vào tương ứng là gi, Ci và xi.
Trong đó mạch điện thực tế, tín hiệu đầu vào là một nguồn dòng điện không
đổi cho bộ khuếch đại. Điện dẫn wij nối giữa đầu ra của nút thứ j với đầu vào
nút thứ i. Chú ý mạng có tính chất đối xứng của các trọng số wij = wji và wii =
0.

Hình 3.26. Mô hình một nơron Hopfield ở dạng mạch điện

Luật cập nhật cho các nút mạng Hopfield liên tục được thực hiện tương tự như
luật Kirhop 1 cho mỗi nút mạng: tổng các dòng điện đi vào một nút bằng tổng
các dòng điện đi ra khỏi nút đó. Ta có phương trình động học như sau:

Phương trình động học (luật tiến triển):

du i n n
Ci   w ij (y j  u i )  G i u i  x i  w ij y j  G i u i  x i (3.72)
dt j1 j1
j i ji

Phương trình (3.72) thường được dùng kèm với sơ đồ điện tử như hình vẽ 3.34
n
với: G i   w ij  g i
j1
ji

163
Phương trình trên mô tả sự biến đổi trạng thái của hệ thống theo thời gian. Nếu
mỗi một nút có một giá trị khởi tạo ban đầu ui(0) thì có thể tìm được ui(t) và
yi(t) = a(ui(t)) tại thời điểm t bằng cách giải phương trình vi phân trên.

Tính ổn định của mạng: Sự biến đổi trạng thái của hệ thống sẽ làm năng
lượng giảm dần và cuối cùng sẽ hội tụ về một trong những điểu cực tiểu ổn
định trong không gian trạng thái. Chọn hàm năng lượng Liapunov ở dạng sau
đây:
yi
1 n n n
1 n
E    w ij yi y j   x i yi   G i  a 1 (y)dy (3.73)
2 i1 j1 i 1  i1 0
j1

Trong đó: Hàm ngược a-1(y) = u là nghịch đảo của y = a(u) Theo phương
pháp Liapunov, ta tính được:

 
dE n dE dyi n  n dy n du dy
    w ij y j  G i u i  x i  i   Ci i i (3.74)
dt i1 dyi dt i1  j1  dt j1 dt dt
 ji  j i

1 1
với u i  a (yi )

Từ đó được:

du i 1 da 1 (yi ) dyi 1 1' dy


 .  a (yi ) i (3.75)
dt  dyi dt  dt

với a 1' (yi ) là đạo hàm của a-1(y). Thay vào 3.74 ta có:

2
dE n C '  dy 
  i a 1 (yi )  i  (3.76)
dt i 1   dt 

Với a-1(yi) là hàm đơn điệu tăng đối với biến yi, vì thế đạo hàm của nó a-1’(yi)
dE
luôn dương, hình vẽ 3.27. Do đó kết luận được thì  0 , tức là hàm năng
dt

164
lượng E giảm trong quá trình biến đổi trạng thái hệ thống. Vì vậy, nếu E bị
dE dyi
giới hạn thì cuối cùng hệ thống sẽ đạt tới trạng thái ổn định khi   0.
dt dt

U=a-1(y)
y
1
a (y)dy
0
y
-1 1
y
-1 1

Hình 3.27. Năng lượng mạng Hopfield liên tục

Giả thiết các giá trị ngưỡng đều bằng không thì hàm năng lượng của
mạng Hopfield liên tục sẽ phân biệt với hàm năng lượng của mạng Hopfield
yi
1 n
rời rạc ở thành phần:  G i  a 1 (y)dy . Xét thành phần này ta nhận thấy rằng
 i1 0
hàm tích phân chỉ bằng không khi y0 = 0, còn lại nó mang giá trị dương và
bằng vô cùng lớn khi yi tiến tới ±1. Do đó, hàm năng lượng E bị giới hạn dưới
và thỏa mãn yêu cầu của một hàm Liapunov.

Chú ý:

dE
- Trong nhiều tài liệu người ta chỉ chứng minh  0 , (E là một hàm
dt
Liapunov).

- Có thể mở rộng cho mạng có Wii  0.

3.3.3 Tối ưu hoá sử dụng mạng nơron Hopfield

Một số vấn đề cơ bản:

Năm 1982 Hopfield và Tark đã nhận thấy khả năng sử dụng mạng
Hopfield vào tính toán tối ưu. Bởi vì mạng nơron sẽ tiến tới trạng thái ổn định,

165
tại đó hàm năng lượng E đạt cực tiểu, nên có thể thiết kế mạng nơron để cực
tiểu hàm số  bằng cách đặt  = E, và tìm mối liên hệ giữa các biến của  và E.
Người ta gọi phương pháp này là tối ưu hoá không thuật toán. Hopfield và
Tark minh hoạ một số ứng dụng: Bài toán tìm đường đi cho bán hàng, xử lí tín
hiệu, qui hoạch tuyến tính. Cho mục đích tối ưu hoá, một số mạng khác (như
Kohenen...) đã sử dụng. Đến nay ta đã có hàng loạt kết quả trong nhiều lĩnh
vực, như nhận dạng đối tượng tối ưu hoá tổ hợp, điều khiển tối ưu các hệ
thống với thông số thay đổi, tối ưu hoá cảm biến...

Những khó khăn cần phải giải quyết:

a. Phương pháp không đảm bảo đạt cực tiểu toàn cục. Để giải quyết vấn
đề này, người ta áp dụng kỹ thuật “ủ mô phỏng“ (Simulated Annealing) (bắt
nguồn từ kinh nghiệm của các vật thể kim loại được nung nóng trong luyện
kim) (Waug J., 1994). Trường hợp mạng Hopfield rời rạc với luật học áp dụng
ủ mô phỏng gọi là máy Boltzman (Acklag..., 1985). Đã có phương pháp ủ
“cứng hoá” cho mạng nơron tế bào (Bang S.H, Bing f.S., 1996).

b. Chọn các hệ số mục tiêu và hệ số ràng buộc thích hợp để nhận được
một lời giải tốt, gần tối ưu, nói chung khá phiền phức, chủ yếu dựa vào thực
nghiệm.

3.4 Mạng nơron sử dụng luật học không giám sát

Giới thiệu một số luật học không giám sát thường dùng đó là: Luật học
Hebb (Hebbia Learning Rule), luật học tín hiệu (Signal Hebbian Learrning
Rule), luật học cạnh tranh (Competitive Learning Rule), luật học Hebb vi phân
(Differential Competitive Learning Rule). Sau đây trình bày một số mạng
nơron sử dụng luật học không giám sát như mạng Hamming (Hamming
Netwwork), Mạng nguyên lý cộng hưởng thích nghi (Resonance Theory

166
Network – ART), mạng ARTMAP, mạng cơ sở hàm hình tia(Radial Basic
Function Netwwork - RBFN).

3.4.1 Các luật học không giám sát

Các luật học không giám sát có dạng phương trình vi phân bậc nhất,
được áp dụng cho mạng nơron chỉ có một lớp vector tín hiệu vào x = [x1, x2,
....,xm]T và tín hiệu ra là y = [y1, y2, ....,ym]T, trọng số liên kết từ nơron thứ j đến
nơron thứ i là wij.

3.4.1.1 Luật học Hebb

Luật học Hebb do Donald Hebb đề xuất năm 1994.

Giả thiết nơron A được kích hoạt bởi một nơron B, nơron A sẽ trở nên
nhạy cảm hơn khi bị kích hoạt từ nơron B và liên kết từ B đến A càng trở nên
hiệu quả.

Giả thiết các trọng số liên kết được điều chỉnh theo các mốc tương quan
trước và sau, tín hiệu học r có biểu thức sau:

r = a(wiT.x) = yi (3.77)

Tín hiệu r chính là đầu ra của nơron đó, từ đó có biểu thức tính độ thay đổi của
vector trọng số:

∆wi(t) = ηa(wiTx)x = ηyix (3.78)

Mức độ thay đổi các giá trị thành phần của vector trọng số:

∆wij(t) = ηa(wiTx)xj = ηyixj (3.79)

với i = 1, 2, ...., n; j = 1, 2, 3, ..., m.

Luật học Hebb là luật học không giám sát dành cho mạng nơron truyền thẳng,
sử dụng các tín hiệu vào và tín hiệu ra thực của mạng để tính toán các trọng số
liên kết.

167
Chú ý:

- Các trọng số ban đầu có giá trị ngẫu nhiên rất nhỏ (gần bằng 0) trước
khi bắt đầu học.

- Biểu thức (3.79) cho thấy rằng yixj>0 thì trọng số wij sẽ tăng, ngược lại
thì wij sẽ giảm.

3.4.1.2 Các dạng luật học Hebb tín hiệu

a. Luật học Hebb tín hiệu

Luật học Hebb tín hiệu có dạng:


.
w ij   w ij  si (yi )s j (x j ) (3.80)

với si(.) và sj(.) tương ứng là hàm chuyển đổi của phần tử thứ i và thứ j. Ta
thấy luật học Hebb tín hiệu giống luật học Hebb nếu bỏ đi phần wij. Luật học
này học giá trị trung bình của trọng số theo hàm mũ và lọc các thông số theo
hàm mũ wij(0). Trạng thái cân bằng của luật học Hebb tín hiệu xảy ra khi các
.
trọng số không thay đổi giá trị nữa, tức là khi đạt được w ij =0 (i =1, 2,..., n và j
=1, 2, ..., m). Luật học này thường được sử dụng để phân loại hoặc xác định
thành phần chính của tín hiệu vào.

b. Luật học Sanger

Là một dạng luật học của luật học Hebb tín hiệu được Sanger giới thiệu
cho mạng thành phần chính.

Luật học Sanger có dạng:


. i
w ij  yi (x j   y k w kj ) (3.81)
k 1

với yi đầu ra của mạng tuyến tính: yi   w ijx j


j

168
c. Luật học Grossberg

Là một dạng luật học của luật học Hebb tín hiệu có dạng như sau:
.
w ij  i [yx i  w i ]u(x j ) (3.82)

với 0< η<1 và u(.) là hàm chuyển đổi bước nhảy (u(xi) =1 nếu xi≥0;
u(xi) =0 nếu xi<0).

Cơ sở của luật học này là trọng số không thay đổi khi xj <0. Luật học
này được sử dụng cho cấu trúc kiểu instar.

Hình 3.28. Cấu trúc một phần tử instar

3.4.1.3 Các luật học cạnh tranh

a. Luật học cạnh tranh.

Luật học cạnh tranh được Grossbegr đề xuất vào năm 1969, có dạng như sau:
.
w ij  si (yi )[s j (x j )  w ij ] (3.82)

1
với si (yi )  và c>0
1  e cyi

169
Trong quá trình cạnh tranh giữa các nơron với nhau, nơron thứ i được
gọi là “chiến thắng” tại thời điểm t nếu thỏa mãn si (yi (t))  1 ; ngược lại nếu
được gọi là “thua” tại thời điểm t nếu thỏa mãn si (yi (t))  0 . Từ đó, một nơron
được coi là thực hiện quá trình học cạnh tranh trong một thời điểm nào đó chỉ
khi tại thời điểm đó “chiến thắng”. Các nơron đầu ra cạnh tranh với nhau, một
số trong chúng được coi là “cháy” và được gọi là nơron thắng tất cả.

Nếu sử dụng si (x j )  x j thì ta có được luật học cạnh tranh tuyến tính:

.
w ij  si (yi )[x j  w ij ] (3.83)

b. Luật học Kosko

Luật học Kosko (Kosko Learning Rule) còn gọi là luật học chiến thắng
tất cả (winner – take – all learning rule) được Kosko đề xuất. Nó là một dạng
đơn giản của luật học cạnh tranh.

Cơ sở của luật học này là thực hiện nhóm các tín hiệu vào thành các
nhóm phần tử tương tự nhau và tách ra những phần khác nhau. Giả thiết rằng n
là số lượng nhóm đã cho trước.

Mạng Kohonen: luật học Kosko được áp dụng vào mạng Kohonen (Kohonen
Network) do Kohonen đề xuất vào năm 1988. Nó có cấu trúc là một lớp nơron,
các nơron đều được lấy tín hiệu từ bên ngoài. Tín hiệu ra có dạng như sau:

yi = a(WiTx) (3.84)

với a(.) là hàm chuyển đổi; Wi = [wi1, wi2, ...., wim]T là vector trọng số liên kết.

170
Hình 3.29. Mạng Kohonen

Giả thiết có tập p mẫu tín hiệu vào {x1, x2, ....,xp} cần được phân vào n
nhóm, không có tiêu chuẩn để phân p vector tín hiệu mẫu này vào nhóm.
Mạng Kohonen có nhiệm vụ phân loại các vector đầu vào này vào nhóm phù
hợp.

Ví dụ 3.10. Cho mạng Kohonen có 1 lớp có 3 nơron, biết rằng:

Vector tín hiệu vào: x = [x1, x2, x3]T = [0.208, 0.590, 0.780]T; Vector trọng số
liên kết của các tín hiệu vào là x1, x2, x3 và các nơ ron là:

w1 = [0.530, 0.270, 0.801]T

w2 = [0.424, 0.566, 0.707]T

w3 = [0.440, 0.871, 0.220]T

Tổng trọng đầu vào của mỗi nơ ron được tính như sau:

net1 = w1Tx = 0.894

net2 = w2Tx = 0.974

net3 = w3Tx = 0.777

Ta có net2 có giá trị lớn nhất nên nơ ron thứ 2 “chiến thắng”.

171
Lấy α = 0.3, biểu thức cập nhật trọng số của nó có dạng:

w2(2) = w2(1) + α(1)(x – w2(1)) = [0.359, 0.573, 0.729]T

3.4.1.4 Các luật học Hebb vi phân

a. Luật học Hebb vi phân

Luật học Hebb vi phân có dạng như sau:


. . .
w ij   w ij  si (yi )s j (x j )  si (yi )s j (y j ) (3.85)

. dsi (yi ) si yi


với si (yi )  
dt yi t

Luật học Hebb vi phân còn được biểu diễn đơn giản hơn:
. . .
w ij   w ij  si (yi )s j (y j ) (3.86)

Tốc độ thay đổi của tín hiệu có thể dương hoặc âm. Điều đó làm cho luật học
này có thể thực hiện trong thời gian thực.

b. Luật học Kosho – Klopf

Là một dạng khác của luật học Hebb vi phân có dạng như sau:
. . .
w ij  aw ij  [bi yi x j  cw ij ]u( yi )u(x j ) (3.87)

với: u(.) là hàm chuyển đổi bước nhảy; (a, b, c) là các hằng số dương, thông
thường nên chọn a<c.

3.4.1.5 Các luật học Hebb cạnh tranh vi phân

a. Luật học Hebb cạnh tranh vi phân.

Luật học cạnh tranh vi phân có dạng như sau:


. .
w ij  si (yi )[s j (x j )  w ij ] (3.88)

172
Luật học này cho thấy chỉ học nếu có sự thay đổi, có nghĩa là hệ thống
chỉ học nếu các nơron cạnh tranh thay đổi tín hiệu cạnh tranh của chúng.
Trong học không cạnh tranh vi phân, các nơron “chiến thắng” có thể luôn
“chiến thắng”. Trong cạnh tranh vi phân tín hiệu “chiến thắng” si(yi) rất nhanh
đạt giá trị không đổi nếu nơ ron y thứ i duy trì “chiến thắng” trong cạnh tranh
của nó.

b. Luật cạnh tranh vi phân tuyến tính.

Luật học cạnh tranh vi phân tuyến tính là một dạng khác của luật học
cạnh tranh vi phân. Nó có dạng như sau:
. .
w ij  si (yi )[x j  w ij ] (3.89)

Luật này có thể viết ở dạng rời rạc như sau:

w ij (k  1)  w ij (k)  si (yi (k))[x j (k)  w ij (k)] (3.90)

Luật học bằng luật học cạnh tranh vi phân có ưu điểm là đạt được trạng
thái hội tụ của các thông số nhanh hơn so với thực hiện quá trình học bằng luật
học cạnh tranh.

3.4.2 Mạng nơron sử dụng luật học không giám sát - Hamming

Một số mạng nơron có dử dụng luật học không giám sát như: mạng
Hamming, mạng ART, mạng ARTMAP. Trong phần này giới thiệu mạng
Hamming.

Mạng Hamming được Steinbuch và Piske đề xuất vào năm 1963. Nó


thường được sử dụng để cự tiểu hóa khoảng Hamming từ các nhiễu hoặc
argument của các vector không được cho đầy đủ ở đầu vào. Các vector đó có
dạng nhị phân hoặc hai cực.

Mạng Hamming có cấu trúc gồm hai lớp như hình 3.30

173
Hình 3.30. Sơ đồ cấu trúc mạng Hamming

Lớp thứ nhất: Có n nơron truyền thẳng. Mỗi nơron có m tín hiệu vào và một
tín hiệu ra. Lớp này có hai nhiệm vụ:

- Tính giá trị (m – HD) giữa vector đầu vào x và n vector mẫu đầu tiên
được lưu trữ là s1, s2, ...., sn trong ngân hàng mẫu.

- Cực tiểu hóa giá trị HD giữa vector đầu vào x và loại mà các nơron đại
diện.

Xét nơron thứ i của lớp thứ nhất có:

x T si  [m  HD(x,si )]  HD(x,si )
(3.91)

Biến đổi ta được:

1 T i m
x s   HD(x,si )
2 2 (3.92)

Trong đó: HD(x, si) là khoảng Hamming giữa vector x và si.

Nếu cho ma trận trọng số WH của lớp 1 có dạng:

174
 s11 s12 ... s1m 
 2 2 
 s1 s 2 ... s m2 
WH  
... ... .... ...  (3.93)
 
s1n s 2n ... s mn 

Tổng trọng đầu vào của nơron thứ i có dạng:

1 m
net i  x Tsi + =m  HD(x,si )
2 2 (3.94)

với i = 1, 2, ..., n; m/2 là ngưỡng của mỗi nơron của lớp vào.

Cần giữ cho các giá trị của đầu ra của lớp thứ nhất giữa 0 và 1, nên hàm hoạt
hóa cần được có dạng:

1
a(net i )  net i
m (3.95)

với i = 1, 2, ..., n.

Lớp thứ hai: là mạng nơron hồi qui dạng MAXNET hoặc mạng chiến thắng
tất cả. Mục đích của nó là làm tăng đáp ứng ban đầu của nơron thứ i và bỏ đi
các nút khác. Kết quả MAXNET chỉ có đáp ứng đầu ra nơron thứ i, còn đáp
ứng của tất cả các nơron còn lại thì giảm về 0. Điều này phụ thuộc vào các liên
kết tự phản hồi dương và liên kết hạn chế bên cạnh âm. Ma trận trọng số WM
của MAXNET có dạng.

 1  ...  
  1 ...  
WH   
 ... ... .... ...  (3.96)
 
   ... 1 

1
với 0 là hệ số tương tác bênh cạnh, hàm chuyển đổi được cho có
n
dạng: a(net) = net với net≥0; a(net) = 0 với net <0.
175
Và luật cập nhật hồi qui của MAXNET là:

y(k+1) =a[WMy(k)] (3.97)

với a(.) được áp dụng cho mỗi phần tử trong vector cột WMy(k). Vector cập
nhật y(k+1) giảm ở bước đề qui thứ k. Khi MAXNET ổn định, chỉ có nơ ron có
đáp ứng khác 0 là nút giống argument của vector đầu vào thứ nhất.

Chú ý:

Mạng Hamming chỉ tìm loại giống nhất mà không tìm được vector
nguyên mẫu ban đầu. Nên nó chỉ có tác dụng phân loại mà không phải bộ nhớ
liên kết. Tuy nhiên, nó cũng trở thành một liên kết bộ nhớ nếu thêm vào một
lớp nữa ở sau lớp MAXNET sẽ được hoạt hóa tương ứng với vector lưu trữ.
Như vậy ta được một liên kết bộ nhớ được gọi là mạng bộ nhớ Hamming. Nó
có thể ở một trong hai loại: mạng tự liên kết, hoặc mạng liên kết khác loại.

Ví dụ 3.11: Cho mạng Hamming có 2 lớp.

Lớp 1: vector tín hiệu vào có 4 phần tử (m=4) là x = [x1, x2, x3, x4]T = [0.5 ,
0.5, 0.7, 1.0]T ; mỗi một lớp 1 và lớp 2 đều là lớp MAXNET đều có 3 nút
(n=3). Cho trước 3 bộ mẫu tín hiệu vào là:

s(1) = [0.5, 0.6, 0.7, 1.0]T

s(2) = [0.5, 0.3, 0.7, 0.8]T

s(3) = [0.8, 0.6, 0.4, 0.2]T

Bước 1: Tính toán các thông số của lớp 1

Ma trận trọng số liên kết đầu vào của lớp 1:

0.5 0.6 0.7 1.0 


0.5 0.3 0.7 0.8
WH   
0.8 0.6 0.4 0.8
 
 

176
Tính nút 1 của lớp 1: Tổng trọng mạng đầu vào nút 1:

 0.5 
 0.6 
1 T (1) 1 1 1
net1_1  x s  m   0.5 0.5 0.7 1.0    4  3.02
2 2 2 0.7  2
 
1.0 

Tín hiệu đầu ra của lớp 1:

1 1
y1_1  net1_1  3.02  0.755
m 4

HD giữa tín hiệu vào x và mẫu đầu vào 1:

HD_1 = m – net1_1 = 4 – 3.02 = 0.98

- Kết quả tính toán của nút 2 lớp 1:

Tương tự như các bước tính của nút 1 của lớp 1, ta có các kết quả tính toán của
nút 2 lớp 1 như sau:

net2_1 = 2.8450

y2_1 = 0.7112

HD_2 = 1.1550

- Kết quả tính toán của nút 3 lớp 1:

Các kết quả tính toán của nút 3 lớp 1 như sau:

net3_1 = 2.5900

y2_1 = 0.6475

HD_3 = 1.4100

Vector tín hiệu ra của lớp 1:

Y1=[y1_1, y2_1, y3_1]T = [0.7550 0.7112 0.6475]T

177
Sau bước 1 so sánh các giá trị HD(x, s1), HD(x, s2), HD(x, s3) thấy HD(x, s1)
có giá trị nhỏ nhất có nghĩa là độ sai khác giữa tín hiệu vào x so với mẫu 1 của
tín hiệu vào là ít nhất hay tín hiệu vào x giống mẫu 1 nhất.

Bước 2: Tính toán các thống số của lớp 2 (MAXNET)

1
Chọn giá trị    0.2
n2

Ma trận trọng số liên kết đầu vào của lớp 2:

 1.0 0.2 0.2 


1
WM  0.2 1.0 0.2 
2 
 0.2 0.2 1.0 

Tính các giá trị vector tín hiệu đầu vào y2(k) của lớp 2:

net net  0
y2(k) = a(net(k)) = a(WMy1) = 
 0 net  0

  1.0 0.2 0.2  0.7550    0.4833 


1 
 a   0.2 1.0 0.2 0.7112     0.4307 
2      
  0.2 0.2 1.0  0.6475  0.3542 

Tính các giá trị vector tín hiệu đầu ra y2(k+1) của lớp 2:

net net  0
y2(k+1) = a(net(k+1)) = a(WMy2(k)) = 
 0 net  0
  1.0 0.2 0.2   0.4883  0.3262 
1 
 a   0.2 1.0 0.2  0.4307    0.2946 
2    
  0.2 0.2 1.0  0.3542    0.2301

So sánh giá trị các thành phần trong vector cột tín hiệu ra của lớp 2 là
y2(k+1) nhận thấy thành phần thứ nhất có giá trị là 0.3262 là giá trị lớn nhất tức
là mạng Hamming đã tìm được mẫu vector đầu vào thứ nhất s(1) gần giống nhất

178
so với tín hiệu vào x. Điều này cũng đã được đề cập đến sau bước 1 với kết
quả HD(x, s1) có giá trị nhỏ nhất.

3.5 Mạng nơron hồi qui

Mạng nơron hồi qui còn được gọi là mạng phản hồi (Feedback
Network), là một trong những loại mạng nơron có nhiều ưu điểm trong điều
khiển.

Mạng nơron hồi qui có trọng số liên kết đối xứng luôn hội tụ đến trạng
thái ổn định, ví dụ như mạng Hoppfield, BAM. Mạng hồi qui có trọng số liên
kết không đối xứng như: mạng lan truyền ngược hồi qui, mạng hồi qui không
hoàn toàn, mạng hồi qui hoàn toàn, BAM bậc cao, mạng nơ ron Elman và các
dạng mạng nơ ron Elman sửa đổi.

3.5.1 Mạng lan truyền ngược hồi qui

Mạng lan truyền ngược hồi qui với luật học lan truyền ngược hồi qui
được Pineda và Almeida đề xuất vào năm 1987.

Cấu trúc:

Mạng lan truyền ngược hồi qui được cấu trúc bởi 3 loại nút: nút vào, nút
ẩn, nút ra; giữa các nút thứ j và nút thứ i được liên kết bởi trọng số wij. Các nút
vào có các tín hiệu đầu vào xi. Các nút không phải là các nút vào được coi như
không có tín hiệu đầu vào xi =0. Các nút ra có tín hiệu ra yi, ở một số nút được
gắn với giá trị đầu ra mong muốn là di.

Mạng lan truyền ngược hồi qui có ba nút vào là 1, 2, 5 với các tín hiệu
đầu vào là x1, x2; có hai nút ẩn là 3, 4; có hai nút ra là 5, 6 gắn với các giá trị
đầu ra mong muốn là d5, d6 như Hình 3.31. Chú ý nút 5 là nút vào ra và cũng
là nút ra.

179
Hình 3.31. a) Mạng lan truyền ngược hồi qui có sáu nút với

các đầu ra mong muốn d5, d6 ; b) Mạng lan truyền ngược của sai lệch tương
ứng với các sai lệch E5 và E6

Luật học lan truyền ngược hồi qui:

Phương trình động học của nơ ron hồi qui thứ i có dạng sau đây:

.  
 yi   yi  a   w ij y j  x i  (3.98)
 j 

Với  là thời gian hồi phục; yi và xi tương ứng là tín hiệu vào và tín hiệu ra
của rron thứ i; a(.) là hàm chuyển đổi.

Chứng minh được mạng nơron hồi qui với luật học lan truyền ngược sẽ hồi
quy sẽ hội tụ về điểm cố định. Điểm cố định ở đây chính là các giá trị mong
muốn ở nút đầu ra, được xác định bằng cách thiết lập:
.
yi  0 (3.99)

 
Ta có: yi  a(h i )  a   w ij y j  x i  (3.100)
 j 

180
Trong đó: h i   w ij y j  x i (3.101)
j

Sử dụng hàm tiêu chuẩn:

1 n 2
E  Ek ,
2 k 1
(3.102)

d  y k
với E k   k nếu k là nút ra , ngược lại.
 0

Sử dụng phương pháp giảm gradient, chứng minh được luật cập nhật trọng số
của mạng có dạng sau đây:

E y k
w pq     E k   E k [L1 ]kpa '(h p )yq  p yq (3.103)
w pq k w pq k

với: Lij = δij – a’(hi)wij (3.104)

δp = a’(hp)zp

z p   E k [L1 ]kp
k

 Lpi z p  Ei
k

a’(.) là đạo hàm của hàm chuyển đổi.

Ta có: z i   a '(h p )w pi z p  E i
p

Điểm cố định thỏa mãn phương trình vi phân sau đây:


.
 zi   zi   a '(h p )w pi z p  E i (3.105)
p

.
Cho: zi  0

Tìm được: z i   a '(h p )w pi z p  Ei (3.106)


p

181
Các bước tiếp thiết lập quá trình cho mạng nơron hồi qui học các điểm cố định
yi theo luật học lan truyền ngược hồi qui theo trình tự sau:

Bước 1: Chọn gía trị mong muốn cảu lớp ra di.

Giá trị sai lệch cho phép Ecp.

Chọn các giá trị ban đầu tại bước tính t = 1: E(1), wij(1), zi(1), hi(1), yi(1), η;

Bước 2: Tính z i (t  1)   a '(h p (t))w pi (t)z p (t)  E i (t)


p

Bước 3: Tính h i (t  1)   w ij (t)y j (t)  x i (t)


j

Bước 4: Tính yi(t+1) = a[hi(t+1)]

Bước 5: Tính w ij (t  1)  w ij (t)  .a '[h i (t  1)].z1 (t  1).yi (t  1)

d (t  1)  y k (t  1)
Bước 6: Tính Ei (t  1)   k nếu i là nút ra, ngược lại
 0

1 n
Bước 7: Tính E(t  1)  
2 k 1
[Ei (t  1)]2

+ Nếu E(t+1) < Ecp: in kết quả tính toán, lưu lại các giá trị đã được tính
toán.

+ Nếu E(t+1) > Ecp ; quay lại bước 2.

a(.), a’(.) là hàm chuyển đổi và đạo hàm của nó.

Ví dụ 3.12: Sử dụng mạng lan truyền ngược hồi qui (Hình 3.32) để học hàm
XOR như trong bảng chân lý.

TT x1 x2 y

1 1 1 0

2 1 o 1

182
3 0 1 1

4 0 0 0

Hình 3.32. Sơ đồ mạng lan truyền ngược hồi qui

Thực hiện sai phân theo bảng chân lý ta có:

t
yi (t  t)  yi (t)  ( yi (t)  a(h i (t))

Cho η =0.5,  = t =1 từ công thức 3.99 xác định các điểm cố định của luật
học lan truyền ngược hồi qui cho bởi phương trình sau đây:

y1 = a(x1)

y2 = a(x2)

y3 = a(h3) = a(w31y1 + w32y2 + w34y4 – 0,5)

y4 = a(h4) = a(w41y1 + w42y2 + w43y3 + w44y4– 0,5)

với yi là giá trị đầu ra của nơron thứ I (i=1, 2, 3, 4) hàm chuyển đổi:

a(x) = (1 + e-x)-1 và bias của nơron thứ 3 và nơron 4 là 0.5.

Ta có: E4 = d4 – y4 ; E1 = E2 = E3 = 0.

Theo công thức 3.106 ta có:

183
Z4 = E4 + a’(h4)w44z4 + a’(h3)w34z3;

Z3 = a’(h4)w43z4.

Các luật cập nhật trọng số viết theo dạng 3.103 là:

w 41  4 y1 w 31  3 y1
w 42   4 y 2 w 32  3 y 2
w 43  4 y3 w 33  3 y3
w 44   4 y 4

Từ 3.104 ta có:

 4  a '(h 4 )z 4 ; 3  a '(h 3 )z 3

Thực hiện lập trình với các công thức học bốn điểm cố định trên, kết quả ta
thu được như đồ thị trong Hình 3.33.

Hình 3.33. Đồ thị đầu ra y

3.6 Mô hình mạng nơron trong Matlab

Trình bày một số mô hình mạng nơron cơ bản được cài đặt trong NEURAL
TOOLBOX của Matlab.

184
3.6.1 Mô hình nơron và mạng nơron truyền thẳng

Nơron có tín hiệu vào ở dạng vector: Nơron có R tín hiệu vào ở dạng vector
thể hiện như trên hình vẽ 3.34 là mô hình thu gọn của nơron, trong đó:

b là bias; n là tổng trọng; f là hàm chuyển đổi; a là đầu ra của nơron;

p = [p1 p2 …. pR] là ma trận vector đầu vào;

W = [w11 w12 …. W1R] là ma trận trọng số.

Tổng của nơron có dạng:

n = w11 p1 + w12p2 + ….+ w1RpR +b

Được viết trong ngôn ngữ Matlab ở dạng:

n = W*p + b

Hình 3.34. Mô hình nơron

Một lớp nơron: Mô hình một lớp nơron với R đầu vào và S nơron như hình
3.35. Trong đó mỗi phần tử của vector đầu vào p được nối với mỗi nơron
tương ứng qua ma trận trọng số W; ni là tổng trọng của nơron thứ i và f là hàm
chuyển đổi ; p là vector đầu vào có dạng vector cột (Rx1); a là đầu ra của lớp
nơron có dạng vector cột (Sx1) và ma trận trọng số có dạng:

185
 w11 w12 ... w1R 
w w 22 ... w 2R 
W=  21 
 ... ... ... ... 
 
 w S1 w S2 ... w SR 

Hình 3.35. Mô hình một lớp nơron

Mạng nơron truyền thẳng nhiều lớp: Hình 3.36 mô tả mô hình và mô hình
thu gọn của mạng nơron truyền thẳng nhiều lớp được cài đặt trong Neural
Toolbox của Matlab. Mỗi lớp có ma trận trọng số W, vector bias b và vector
tín hiệu đầu ra a. Tín hiệu đầu ra mỗi lớp ai, p là vector tín hiệu vào, fi là hàm
chuyển đổi ( i =1, 2,3,…).

186
Hình 3.36. Mô hình mạng nơ ron truyền thẳng 3 lớp

Hình 3.37. Mô hình mạng nơron truyền thẳng 3 lớp rút gọn

Tín hiệu ra của lớp đầu ra là a3 có dạng:

a3 = f3(LW3,2f2(LW2,1f1(IW1,1p+b1)+b2)+b3

3.6.2 Simulink neural toolbox của Matlab

Trên màn hình Matlab Command Window đưa lệnh: neural để khởi
động Neural Netwwork Toolbox blockset, một cửa sổ như Hình 3.38 hiện ra.
Màn hình này gồm các khối sau:

187
Hình 3.38. Các khối trong Neural Netwwork Toolbox của Matlab

Khối các hàm chuyển đổi nháy vào khối Transfer Function cửa sổ khối các
hàm chuyển đổi hiện ra như hình 3.39.

Hình 3.39. Khối các hàm chuyển đổi

Khối đầu vào, nháy kép vào khối Net Input Function cửa sổ khối đầu vào hiện
ra như Hình 3.40

188
Hình 3.40. Khối đầu vào

Khối các hàm trọng số , nháy kép các khối Weight Function cửa sổ khối các
hàm trọng số hiện ra như hình 3.41

Hình 3.41. Khối các hàm trọng số

Khối các hệ thống điều khiển, nháy kép vào khối Control System, cửa sổ
khối các hệ thống điều khiển hiện như hình 3.42. Trong cửa sổ này có ba khối
điều khiển là: mô hình điều khiển dự báo dùng mạng nơron (NN Perdictive
Control); điều khiển phản hồi tuyến tính (NARMA – L2); điều khiển theo mô
hình mẫu (Model Reference Control).

189
Hình 3.42. Khối các bộ điều khiển sử dụng mạng nơron

Hàm gensim: hàm gensim tạo khối mô phỏng của mạng trong Simulink với
lệnh gensim(net, st).

Trong đó các thành phần thứ hai là thời gian lấy mẫu, thông thường ở dạng số
thực dương. Nếu mạng không có trễ thì giá trị đó là -1.

Trong Matlab có nhiều hàm tiện ích để thiết lập một mạng truyền thẳng nhiều
lớp; gán luật học lan truyền ngược cho mạng tiến hành hai quá trình học, kiểm
tra; vẽ đồ thị cần thiết,….

Một số hàm tiện ích của mạng nơron truyền thẳng nhiều lớp trong Matlab:

- Thiết lập mạng nơron truyền thẳng nhiều lớp: newelm, newff, newcf,
newfftd, nn2ff,....

- Thực hiện quá trình học cho mạng nơron truyền thẳng nhiều lớp:
traingdm, traingda, traingdx, trainlm, trainrp, traincgf, traincgb,
trainbfg, traincgp, trainoss, trainscg, train, .....

- Thực hiện quá trình kiểm tra cho mạng nơron truyền thẳng nhiều lớp:
sim, simuff,.....

190
CÂU HỎI VÀ BÀI TẬP

1. Cho hàm số logic y = f(x1, x2, x3) được biểu diễn như trong bảng. Xác
định hàm số đầu ra, chọn a(.) ở dạng giới hạn cứng.

x1 x2 x3 y

1 0 0 0 0

2 0 0 1 1

3 0 1 0 1

4 0 1 1 0

5 1 0 0 1

6 1 0 1 0

7 1 1 0 0

8 1 1 1 1

2. Chứng minh rằng không thể sử dụng một nơron để biểu diễn phép biến
đổi logic XOR.

3. Hãy thiết kế mạng nơron có hai tín hiệu vào và một tín hiệu ra chỉ có
một nơron có thể thực hiện được các phép biến đổi logic: NOT(x1);
OR(x1, x2) AND(x1, x2).

4. Cho phần tử Adaline có 3 đầu vào với vector tín hiệu vào: x=[x 1, x2, x3]T
và tín hiệu ra y. Hãy sử dụng phần tử Adaline này để lưu trữ hai bộ mẫu
tín hiệu vào – ra sau đây:

Mẫu 1: x(1) = [x1(1), x2(1), x3(1)]T = [0.1, 0.2, 0.3]T; y(1) = d(1) = 0.5;

191
Mẫu 2: x(2) = [x1(2), x2(2), x3(2)]T = [0.5, 0.25, 0.1]T; y(2) = d(2) = 1.0;

5. Cho mạng Adaline có ba phần tử Adaline, ba tín hiệu vào là x1, x2, x3;
ba tín hiệu ra là y1, y2, y3 hàm chuyển đổi a(.) là dạng tuyến tính. Hãy sử
dụng mạng Adaline này lưu giữ hai mẫu vào – ra sau đây:

Mẫu 1:

x(1) = [x11(1), x12(1), x13(1)]T = [0.1, 0.2, 0.5]T;

y(1) = [y11(1), y12(1), y13(1)]T = [d11(1), d12(1), d13(1)]T =[0.1, 0.2, 0.5]T

Mẫu 2:

x(2) = [x21(2), x22(2), x23(2)]T = [0.5, 0.3, 0.1]T;

y(2) = [y21(2), y22(2), y23(2)]T = [d21(2), d22(2), d23(2)]T =[0.2, 0.4, 0.6]T

6. Hãy sử dụng luật học perceptron để luyện mạng perceptron một lớp có
ba phần tử LTU để phân loại ba điểm ảnh của ba lớp trong không gian
mẫu hai chiều sau:

x(1) = (10, 2)T ; lớp 1;

x(2) = (2, -5)T ; lớp 2;

x(3) = (-5, 5)T ; lớp 3;

7. Hãy viết chương trình cho thuật toán lan truyền ngược để luyện mạng
nơron truyền thẳng có một lớp ẩn với hàm chuyển đổi a(.) là dạng hàm
hyperbolic có λ =1 để học hoàm có dạng hai đầu vào và một đầu ra có
dạng sau đây.

y1 = 4sin(πx1) + 2 cos(πx2);

y2 = sin(πx1)cos(0.5πx2);

192
4

HỆ THỐNG TÍCH HỢP MẠNG NƠRON VÀ HỆ MỜ

4.1 Các bộ điều khiển mờ nơron

4.1.1 Loại 1 (MISO)

Dựa trên luật mờ duy nhất dành cho hệ mờ có nhiều đầu vào và một đầu
ra (MISO).

Cấu trúc: Ri : IF x is Ai , …, AND y is Bi , THEN z = Ci (4.1)

với i = 1, 2, …, n; x, …, y và z là các biến ngôn ngữ mờ tương ứng với các


biến của hệ thống điều khiển mờ; Ai, Bi, Ci là các giá trị ngôn ngữ mờ tương
ứng với các biến ngôn ngữ là x, y, z. Các hàm liên thuộc thường dùng ở dạng
hình thang, hình tam giác hoặc hình chuông.

Đáp ứng đầu ra của mỗi luật là hàm liên thuộc trọng số đầu ra của nó và
trọng tâm của các hàm liên thuộc đáp ứng đầu ra chính là các tín hiệu ra của
mạng. Phép giải mờ duy nhất có dạng là:

1z1  ...  k z k
z0  với k = 1, 2,..., p (4.2)
1  ...  k

Hình 4.1 mô tả ví dụ minh họa cho điều khiển mờ loại 1

193
Hình 4.1. Minh họa mô hình mờ loại 1

4.1.2 Loại 2

Hàm liên thuộc đầu ra là loại đơn điệu tăng dần như hàm sigmoid. Hình
4.2 mô tả ví dụ minh họa cho điều khiển mờ loại 2. Đáp ứng đầu ra của luật
mờ được xác định bởi sự kích hoạt của hàm liên thuộc của đầu vào. Giá trị của
đáp ứng đầu ra được xác định theo công thức 4.1.

Chú ý rằng kết quả của mỗi một luật sẽ là một mờ hóa duy nhất khi hàm
liên thuộc đầu ra được qui về một hàm ngưỡng.

194
Hình 4.2. minh họa cho điều khiển mờ loại 2

4.1.3 Loại 3

Loại này sử dụng luật mờ kiểu TSK (Takagi – Sugeno – Kang fuzzy
ruler) có dạng sau:

Ri : IF x is Ai , …, AND y is Bi , THEN z is fi(x, …,y) (4.3)

với fi(x, …,y)là hàm biến ngôn ngữ x, …, y; i = 1, 2, …, n.

Đáp ứng của mỗi luật là tổ hợp tuyến tính của giá trị của các biến đầu
vào. Giá trị đầu ra của các luật biến đổi trên tương ứng với α1f1(x0,y0),
α2f2(x0,y0),…, αpfp(x0,y0). Do đó có phép biến đổi mờ của hai luật trên:

1f1 (x 0 , y0 )  ...   p f p (x 0 , y 0 )
z0  (4.4)
1  ...  p

với i =1, 2...p luật

Kết quả của mỗi luật mờ sẽ là mờ hóa duy nhất khi mọi hệ số trong các
kết quả thành phần đều có giá trị 0.

Ví dụ 4.1. Một hệ có hai luật điều khiển mờ như sau.

R1 : IF x1 = Big AND x2 = Medium THEN y1 = x1 – 3x2

195
R2 : IF x1 = Small AND x2 = Big THEN y2 = 4 + 2x2

Trong đó các hàm thuộc của biến ngôn ngữ x1 và x2 như hình vẽ

Hình 4.3. Hàm thuộc biến đầu vào x1 và x2

Giá trị đầu vào x1(0) = 4 và x2(0) = 60, từ hình 8.3 ta xác định được:

µBig(x1(0)) = 0.3 và µBig(x2(0)) = 0.35

µSmall(x1(0)) = 0.7 và µMedium(x2(0)) = 0.75

Từ đó xác định được:

Min(0.3; 0.75) = 0.3 và Min (0.35; 0.7) = 0.35

y1 = -176 và y2 = 4 +2x4 = 12

Như vậy hai thành phần R1 và R2 là (0.3; -176) và (0.35; 12). Theo công thức
4.4 ta có:

0.3x( 176)  0.35x12


y0   74.77
0.3  0.35

4.2 Bộ điều khiển mờ nơron học thông số

Giới thiệu một số bộ điều khiển mờ nơron học thông số. Gọi là học
thông số tức là cấu trúc của bộ điều chỉnh được chọn từ trước, cần điều chỉnh
các thông số hàm liên thuộc và các thông số khác của bộ điều chỉnh sao cho
tín hiệu ra của nó bám theo được tín hiêu ra mẫu cho trước.

196
Học thông số là kiểu học có giám sát, do đó cần cho trước bộ mẫu tín
hiệu vào ra và cấu trúc của bộ điều chỉnh nơron mờ; sử dụng một trong các
luật logic mờ như: luật mờ duy nhất, hoặc luật mờ TSK, hoặc luật mờ TS của
các bộ điều khiển mờ nơron cập nhật bộ thông số điều chỉnh thực hiện học bộ
mẫu tín hiệu vào ra cho trước.

4.2.1 Bộ điều khiển mờ nơron với các luật mờ duy nhất

Bộ điều khiển mờ nơron với các luật mờ duy nhất có dạng sau đây:

Luật học j Rj có dạng:

IF x1 is A1j AND x2 is A2j AND…AND xn is Anj THEN y is wj (4.5)

Trong đó: xi là các biến đầu vào (i = 1, 2, 3,…,n), y là biến đầu ra, Aij(xi)
là các biến ngôn ngữ mờ của biến ngôn ngữ đầu vào xi với hàm liên thuộc
 A j (x i ) ; wj là kết quả của luật học (j = 1, 2, 3, .., m)
i

197
Hình 4.4. Sơ đồ cấu trúc bộ điều chỉnh mờ nơron với luật mờ duy nhất

Bộ điều chỉnh với luật mờ duy nhất gồm 4 lớp:

Lớp 1: Là lớp đầu vào. Mỗi nơ ron thứ i (i = 1, 2,3, ..., n) tương ứng có một tín
hiệu vào xi.

Lớp 2: Mỗi phần tử là một hàm liên thuộc  A j (x i ) có dạng hàm tam giác, hàm
i

gauss, hoặc hàm hình chuông. Trong đó các thống số của các hàm liên thuộc ở
lớp 2 là các thông số điều chỉnh.

198
Lớp 3: Mỗi phần tử Rj tương ứng thực hiện một luật thứ j:
n
 j   i j (x i ) (4.6)
i 1

Lớp 4: Thực hiện phép tổng, thực hiện phép giải mờ trọng tâm để tính giá trị
rõ ở đầu ra:
M
  jw j M
j1
y M
   jw j (4.7)
 j j1

j1

Cho trước hàm đầu vào mong muốn là f(x) = yd. Sử dụng tiêu chuẩn trung bình
bình phương của sai lệch giữa hàm đầu ra mong muốn với hàm đầu ra là:

1
E  (yd  y)2 ; thay giá trị y công thức 8.6 vào ta có:
2

2 2
 M
  M
 n  
  w      (x )  wj 
1  d j1 
j j j i
1 d j1  i 1 Ai 
E  y  M   y  M n  (4.8)
2  2   
  j       Ai j (x i )  
j1   j1  i 1  

Để đạt được mong muốn E cực tiểu, tín hiệu ra y của bộ điều chỉnh bám
theo được tín hiệu đầu ra mong muốn yd , do vậy phải cần điều chỉnh bộ thông
số của hàm liên thuộc ở lớp 2 và thông số wj.

Như vậy luật cập nhật giá trị các thông số điều chỉnh còn phụ thuộc vào
dạng hàm liên thuộc. Cụ thể các hàm hàm liên thuộc thường dùng sau:

- Hàm liên thuộc có dạng hàm tam giác có hai thông số điều chỉnh có
dạng hàm:

199
2 xi  ai j
 A j (x i )  1  (4.9)
i bi j

trong đó aij, bij và wj (i = 1, 2, 3, ...,n; j = 1, 2, 3,...., M) tương ứng là điểm


giữa, chiều rộng đáy của dạng hàm liên thuộc tam giác và thông số điều chỉnh
được cập nhật theo các biểu thức sau:

E
a i j (t  1)  a i j (t)  a (4.10)
a i j (x i )

E
bi j (t  1)  bi j (t)  b (4.11)
bi j (x i )

E
w j (t  1)  w i j (t)  w (4.12)
w i j

trong đó ηa, ηb và ηw là các hệ số học.

Chứng minh:

E  2
j
 M j (y  y d )(w j  y)sgn(x i  a i j (x i )) j (4.13)
a i (x i ) bi (x i ) i j (x i )

 j
j1

E j d
1   A j (x i )
i
j
 M
(y  y )(w j  y) j
(4.14)
a i (x i ) bi (x i ) i j (x i )
 j
j 1

E 
 M j (y  y d ) (4.15)
w j
 j
j 1

- Hàm liên thuộc có dạng hàm Gauss có hàm:

 (x i  ci j )2
2.( i j )2
 A j (x i )  e (4.16)
i

200
trong đó cij, δij (i = 1, 2, 3, ...,n; j = 1, 2, 3,...., M) của dạng hàm liên thuộc
Gauss và thông số điều chỉnh wj được cập nhật theo các biểu thức sau:

E
ci j (t  1)  ci j (t)  c (4.17)
ci j (x i )

E
i j (t  1)  i j (t)   (4.18)
i j (x i )

E
w j (t  1)  w i j (t)  w (4.19)
w i j

trong đó ηc, ηδ và ηw là các hệ số học. Tương tự ta chứng minh được cho


trường hợp hàm liên thuộc dạng hình Gauss.

- Hàm liên thuộc có dạng hàm hình chuông có hàm:

1
 A j (x i )  (4.20)
2bi j
 
i
1   x i  ci / a i
j j
 

trong đó aij, bij và cij (i = 1, 2, 3, ...,n; j = 1, 2, 3,...., M) của dạng hàm liên
thuộc hình chuông và thông số điều chỉnh wj được cập nhật theo các biểu thức
sau:

E
a i j (t  1)  a i j (t)  a (4.21)
a i j (x i )

E
bi j (t  1)  bi j (t)  b (4.22)
bi j (x i )

E
ci j (t  1)  ci j (t)  c (4.23)
ci j (x i )

E
w j (t  1)  w i j (t)  w (4.24)
w i j

201
trong đó ηa, ηb, ηc và ηw là các hệ số học. Tương tự cũng chứng minh được cho
trường hợp hàm liên thuộc có dạng là hình chuông.

4.2.2 Mạng thích nghi mờ nơron - ANFIS

Mạng thích nghi dựa trên cơ sở hệ lý luận mờ (Adaptive Network based


Fuzzy Interence System - ANFIS), được Jang đề xuất năm 1992. ANFIS sử
dụng luật học mờ dạng TSK như sau:

Luật học thứ j là Rj có dạng:

IF x1 is A1j AND x2 is A2j AND .... AND xn is Anj


n
THEN f j   j (p0   pi jx i )
j
(4.25)
i 1

Với xi là các biến đầu vào (i = 1, 2, 3, ...., n), y là biến đầu ra, Aij(xi) là các biến
ngôn ngữ đầu vào của biến đầu vào xi,  A j (x i ) là hàm liên thuộc của mỗi biến
i

ngôn ngữ đầu vào (j = 1, 2, ...., M), pi j  R là các hệ số của hàm tuyến tính
fj(x1, x2, ..., xn). Cấu trúc ANFIS như hình 4.5.

202
A11
. µA1(x1) p0...pi.....pn
.
x1
µ1
A1j R1 N

. .
.
. A1M
.
.
.
. Ai1
. p0...pi.....pn
.
xi µj y
Aij Rj N Ʃ

. .
.
. AiM
. .
. .
.
. An1
. p0...pi.....pn
.
xn µM
Anj RM N

.
µAn(xn)
AnM

Lớp 1 Lớp 2 Lớp 3 Lớp 4 Lớp 5 Lớp 6

Hình 4.5. Cấu trúc ANFIS

ANFIS gồm sáu lớp như sau:

Lớp 1: Là lớp đầu vào. Mỗi nơron thứ i (i = 1, 2,3, ..., n) tương ứng có một tín
hiệu vào xi.

Lớp 2: Mỗi phần tử là một hàm liên thuộc  A j (x i ) có dạng hàm tam giác, hàm
i

gauss, hoặc hàm hình chuông.... Trong đó các thông số của các hàm liên thuộc
ở lớp 2 là các thông số điều chỉnh.

Lớp 3: Mỗi phần tử Rj tương ứng thực hiện một luật thứ j:

203
n
 j   i j (x i ) (4.26)
i 1

Lớp 4: Mỗi phân tử N tương ứng thực hiện tính toán

j
j  M
(4.27)
 j
j1

Lớp 5: Mỗi phân tử thứ j của lớp 5 tương ứng thực hiện tính toán sau:
n
f j   j (p0 j   pi jx i ) (4.28)
i 1

với  j là giá trị đầu ra của lớp 4 và {p0j, p1j ,...., pnj } là các thông số điều

chỉnh.

Lớp 6: Thực hiện phép tổng để tính giá trị rõ ở đầu ra:
M
  jf j M
j1
y M
   jf j (4.29)
 j j1

j1

Cho trước hàm đầu vào mong muốn là f(x) = yd. Sử dụng tiêu chuẩn trung bình
bình phương của sai lệch giữa hàm đầu ra mong muốn với hàm đầu ra là:

1
E  (yd  y)2 ;
2

Thay giá trị y công thức 8.6 vào ta có:

2 2
 M
  M
 n  
   f
j j      Ai j (x i )  f j 
1 1 1  i 1  
E   yd  jM1    y d  jM (4.30)
2 2  n
 
 j      (x )  
   j1  i 1
Ai j i
 
j1 

204
Để đạt được mong muốn E cực tiểu, tín hiệu ra y của bộ điều chỉnh bám
theo được tín hiệu đầu ra mong muốn yd, do vậy phải điều chỉnh bộ thông số
của hàm liên thuộc ở lớp 2 và bộ thống số điều chỉnh ở {p0j, p1j ,...., pnj } lớp 5.

Như vậy luật cập nhật giá trị các thông số điều chỉnh còn phụ thuộc vào
dạng hàm liên thuộc (tam giác, hình thang, Gauss hoặc hình chuông...) mà
ANFIS sử dụng. Cụ thể các thông số điều chỉnh hàm thuộc như sau:

Trường hợp hàm liên thuộc có dạng hàm tam giác có hai thông số điều
chỉnh có dạng hàm:

2 xi  ai j
 A j (x i )  1  (4.31)
i bi j

Các thống số điều chỉnh aij, bij và pjj (i = 1, 2, 3, ...,n; j = 1, 2, 3,...., M)


quá trình học của mạng ANFIS được cập nhật theo các biểu thức sau:

E
a i j (t  1)  a i j (t)  a (4.32)
a i j (x i )

E
bi j (t  1)  bi j (t)  b (4.33)
bi j (x i )

E
pi j (t  1)  pi j (t)  p (4.34)
pi j (x i )

trong đó ηa, ηb và ηp là các hệ số học.

Trường hợp hàm liên thuộc có dạng hàm Gauss có hàm:

 (x i  ci j )2
2.( i j )2
 A j (x i )  e (4.35)
i

trong đó cij, δij (i = 1, 2, 3, ...,n; j = 1, 2, 3,...., M) của dạng hàm liên thuộc
Gauss. Các thông số điều chỉnh của mạng ANFIS được cập nhật theo các biểu
thức sau:

205
E
ci j (t  1)  ci j (t)  c (4.36)
ci j (x i )

E
i j (t  1)  i j (t)   (4.37)
i j (x i )

E
pi j (t  1)  pi j (t)  p (4.38)
pi j (x i )

trong đó ηc, ηδ và ηw là các hệ số học. Tương tự ta chứng minh được cho


trường hợp hàm liên thuộc dạng hình Gauss.

Trường hợp hàm liên thuộc có dạng hàm hình chuông có hàm:

1
 A j (x i )  (4.39)
2bi j
 
i
1   x i  ci / a i
j j
 

trong đó aij, bij và cij (i = 1, 2, 3, ...,n; j = 1, 2, 3,...., M) của dạng hàm liên
thuộc hình chuông. Các thông số điều chỉnh mạng ANFIS được cập nhật theo
các biểu thức sau:

E
a i j (t  1)  a i j (t)  a (4.40)
a i j (x i )

E
bi j (t  1)  bi j (t)  b (4.41)
bi j (x i )

E
ci j (t  1)  ci j (t)  c (4.42)
ci j (x i )

E
pi j (t  1)  pi j (t)  p (4.43)
pi j (x i )

trong đó ηa, ηb, ηc và ηp là các hệ số học.

206
4.2.3 Mạng nơron Elman mờ

Mạng nơron elman mờ sử dụng luật học TS (Takagi - Sugeno).

Luật học thứ r là Rr có dạng sau đây:

IF x1 is Tx1r AND ...AND xN is TxNr AND u1 is Tu1r AND uM is TuMr


.
THEN X  A r X  Br U (4.44)

Với X=[x1, x1, ..., xN]T là vector trạng thái; U=[u1, u1, ..., uN]T là vector đầu
vào hệ thống; Txir , Tujr là các biến ngôn ngữ tương ứng xi và uj với luật thứ r.
Ar = (aijr)NxN là ma trận có kích thước NXN; Br = (bijr)NxM là ma trận có kích
thước N x M.

Viết lại luật Rr ở dạng rời rạc:

IF x1(t) is Tx1r AND ...AND xN is TxNr AND u1(t) is Tu1r AND uM(t) is
.
TuMr THEN X(t  1)  A r X(t)  Br U(t) (4.45)

Với X(t) = =[x1(t), x1(t), ..., xN(t)]T là các mẫu tương ứng của vector trạng thái
tại thời điểm lấy mẫu thứ t.

Với cả hai dạng liên tục và rời rạc, ta có:

Y = CX hoặc Y(t) = CX(t) (4.46)

Với C = (cij)PxN là ma trận PxN; P là số chiều của vector đầu ra Y.

Phép suy luận mờ được thực hiện theo trình tự sau đây.

Đầu tiên thực hiện luật Rr:


N M
f r   T r [x i (t)]  T r [u j (t)] (4.47)
i 1 xi j1 uj

với  r và  Tr là hàm liên thuộc tương ứng của Txri và Turi .


T xi uj

207
R
fr
Thực hiện: S   f r và h r 
r 1 S

với R là số lượng các luật; S là tổng các luật; hr là tiêu chuẩn của luật thứ r.

Thực hiện phép giải mờ có:

X r (t  1)  A r X(t)  Br U(t)

R R
X(t  1)   h r X r (t  1)   h r  A r X(t)  Br U(t) 
r 1 r 1

R  R 
   h r A r  X(t)    h r Br  U(t)  AX(t)  BU(t) (4.48)
 r 1   r 1 

R  R 
với: A    h r A r  , B    h r Br 
 r 1   r 1 

Cấu trúc: Hình 4.6 mô tả cấu trúc của mạng nơron Elman mờ gồm bảy lớp là
sự kết hợp của mạng nơron Elman và hệ mờ.

208
Hình 4.6 Cấu trúc mạng nơron Elman

- Lớp 1(lớp vào): Mỗi nút ở lớp này chỉ có một đầu vào, có thể lấy tín hiệu từ
bên ngoài hoặc từ con đường phản hồi từ lớp hệ tuyến tính. Hàm truyền từ các
nút đầu vào đến lớp sau là:

o(1) = u(1) (4.49)

- Lớp 2(lớp nhóm): Mỗi nút ở lớp này chỉ có một đầu vào. Mỗi một nhóm nút
chỉ liên kết với một nút ở lớp 1, mỗi nút tại lớp 1 có thể liên kết với một số nút
tại lớp 2. Lớp này sử dụng hàm liên thuộc dạng Gaussian:

(u(2)  cr )2

2(sr )2
o(2)  e (4.50)

Với cr và sr tương ứng là điểm giữa và chiều rộng của nhóm ngôn ngữ
mờ của đầu vào u(2) của luật thứ r của Txri hoặc Turi .

209
- Lớp 3 (lớp luật): Trong lớp này thực hiện các luật mờ dạng TS. Mỗi một nút
của lớp này tương ứng với một luật được tạo bởi các đầu ra của mọi nhóm ở
lơp nhóm ở lớp 2. Các hàm ở các nút lớp này thực hiện phép mờ AND.

o(3)   u i
(3)
(4.51)
i

- Lớp 4 (lớp tiêu chuẩn): Mỗi một nút tại lớp này có tín hiệu vào đến từ mọi
nút của lớp 3. Mỗi nút thực hiện một phép biến đổi:

u (4)
o(4)  (4.52)
 u i (4)
i

- Lớp 5 (Lớp thông số): lớp này có hai nút, một nút cho ma trận A, một nút cho
ma trận B. Tuy nhiên cũng có thể tạo nhiều nút hơn ở lớp này để việc tìm các
ma trận A và B dễ hơn. Chú ý rằng trọng số của các nút liên kết từ lớp 4 là các
ma trận Ar (tới nút A) và Br (tới nút B). Chúng được tạo liên kết đầy đủ với các
nút của lớp 4. Hàm của nút A và nút B là:
R R
choA   u r A , o choB   u r B
o(5) (5) r (5) (5) r
(4.53)
r 1 r 1

- Lớp 6 (lớp tuyến tính): Chỉ có một nút đầu vào là mọi đầu ra của lớp 1 và lớp
5. Sử dụng dạng ma trận của đầu vào và đầu ra có:

o(6)  AX  BX  o(5) (1) (5) (1)


choA o contex  ochoB oinput (4.54)

như vậy đầu ra lớp 6 là X(t+1)

- Lớp 7 (lớp ra): Có đầu vào lấy từ đầu ra của lớp 6 thực hiện biểu thức:

Y = o(7) = C.u(7) (4.55)

210
Luật học: luật học để tìm các thống số học: cr, sr, Ar, Br, C. Luật học này học
quĩ đạo đơn được tạo bởi nhiều điểm hợp thành (single trajectory learning by
point - STP) được thực hiện như sau:

Trong luật học STP cho phép học các thông số điều chỉnh của mạng
theo kiểu trực tiếp (on - line) cho mọi thời điểm của quĩ đạo học. Tại mỗi
điểm, mạng nơron Elman mờ sử dụng giá trị của các thông số điều chỉnh. Sau
đó tại các điểm tính tiếp theo, bộ thông số đã cập nhật được sử dụng và quá
trình học lại được tiếp tục thực hiện.

Cho trước trạng thái ban đầu X(0) và đầu ra mong muốn Yd(t), với t = 1,
2, ..., te. Sai lệch tại thời điểm t được định nghĩa ở dạng:

1 1 p 2
Yd (t)  Y(t)    y di (t)  y i (t) 
2
E(t)  (4.56)
2 2 i 1

Điều mong muốn của luật học là tìm cách cực tiểu hóa cho mỗi một
điểm tính của E(t) với t =1, 2,..., te.

Sử dụng phương pháp hạ gradient cho luật học, tiến hành học thông số
w (giả sử w là một thông số điều chỉnh) có:

E(t)
w(t) 
w(t)

E(t)
w(t  1)  w(t)  w(t)  w(t)   (4.57)
w(t)

với η >0 là hệ số học.

Ta có:

E(t) p E(t) y j (t) p


     ydj (t)  y j (t) c ji (t) (4.58)
x i (t) j1 y j (t) x i (t) j1

hoặc viết ở dạng ma trận:

211
E(t)
   Yd (t)  Y(t)  C(t)
T
T
(4.59)
X (t)

E(t)
Để tìm cần tìm được đạo hàm của hàm X(t) tìm thông số điều
w(t)
chỉnh w.

E(t)
Sử dụng: w(t  1)  w(t)  w(t)  w(t)   để cập nhật thông số w.
w(t)

4.3 Bộ nhớ liên kết mờ

Bộ nhớ liên kết mờ (Fuzzy Associative Memories – FAM) được Kosko


đề xuất vào năm 1992. Đây là dạng mờ hóa của bộ nhớ liên kết hai chiều.
Trong phần này trình bày bộ nhớ liên kết mờ dạng đơn giản nhất cùng với luật
học của nó.

Xét liên kết (A, B) giữa tập mờ B và tập mờ A, tìm ma trận bộ nhớ liên
kết mờ được xây dựng từ mã hóa cặp tập mờ (A, B), với A và B là các tập mờ
con của X và Y tương ứng:

X = [x1, x2, ...., xn] và Y = [y1, y2, ..., yp] (4.60)

A và B tương ứng định nghĩa các hàm liên thuộc µA và µB tương ứng với các
phần tử xi của tập mờ X và yi của tập mờ Y trong khoảng [0, 1].

ai = µA(xi) và bi = µB(yj)

a1 a 2 a
A   ....  n
x1 x 2 xn
tức là:
b1 b 2 b
B   ....  p
y1 y 2 yp

Thay thế A và B bởi các vector:

A = [a1, a2, ...., an] và B = [b1, b2, ..., bp] (4.61)

212
Mã hóa liên kết mờ: (A, B) = ((a1, a2, ...., an), (b1, b2, ..., bp)) bởi ma trận bộ
nhớ liên kết mờ sử dụng luật học Hebb:

mij = min (ai, bj) (4.62)

với mij là trọng số liên kết giữa nút thứ i với nút thứ j của bộ nhớ liên kết mờ.
Mã hóa trên gọi là tương quan mã hóa cực tiểu, tìm ma trận bộ nhớ liên kết mờ
liên kết mờ theo luật mờ Hebb theo dạng:

M = AT o B (4.63)

Nếu A = B, ta có ma trận tự liên kết mờ (autoassociative fuzzy) của bộ nhớ


liên kết mờ Hebb.

Ví dụ 4.2: Cho A = [0.2, 0.5, 0.9, 1] và B = [0.9, 0.5, 0.6] ta có:

0.2  0.2 0.2 0.2 


 0.5 0.5 0.5 0.5 
T
M= A oB =    0.9 0.5 0.6   
0.9  0.9 0.5 0.6 
   
1   0.9 0.5 0.6 

Gọi lại các vector ban đầu bởi các công thức:

A o M = [0.9 0.5 0.6] = B

B o MT = [0.2 0.5 0.9 1.0] = A’  A

Chú ý rằng bộ nhớ liên kết mờ được coi là gọi lại được mẫu B ngay ở quá
trình truyền thẳng (từ lớp 1 đến lớp 2) nếu thỏa mãn: A o M = B và nói rằng
không gọi lại được mẫu A trong quá trình phản hồi (từ lớp 2 về lớp 1) nếu B o

MT ≠ A.

Ký hiệu độ cao của tập mờ A và B tương ứng là H(A) và H(B); A và B ở dạng


chuẩn tắc.

Định lý 4.1. Định lý tương quan hai chiều cực tiểu của bộ nhớ liên kết mờ
(Kosko, 1992) như sau:

213
Nếu M = AT o B, thì :

- A o M = B khi và chỉ khi H(A) ≥ H(B);

- B o MT = A khi và chỉ khi H(B) ≥ H(A);

- A’ o M  B cho mọi A’;

- B’ o MT  A cho mọi B’.

Có cách mã hóa khác cho luật học Hebb được gọi là tương quan mã hóa theo
phép nhân, khi đó ma trận bộ nhớ liên kết của các vector liên thuộc A và B có
dạng:

M = AT B với mij = aibj

Ví dụ 4.3: Cho A = [0.2 0.5 0.9 1] và B = [0.9 0.5 0.6] tìm ma trận bộ nhớ
liên kết mờ với tương quan mã hóa theo phép nhân:

0.18 0.1 0.12 


0.45 0.25 0.3 
M = A B = 
T 
 0.81 0.45 0.54 
 
 0.9 0.5 0.6 

Nếu A’ = [0 0 0 1], thì A’ o M , bộ nhớ lien kết mờ gọi lại được mẫu B.

Nếu A’ = [1 0 0 1], thì A’ o M = [0.18 0.1 0.12], bộ nhớ liên kết mờ


nhận lại được mẫu B chỉ ở mức 0.2. Điều đó chỉ ra rằng tương quan mã hóa
cực tiểu tìm được chính xác tập mờ B. Mọi hàm liên thuộc tỉ lệ với tập mờ B là
tập mờ aiB có dạng giống như B.

Định lý 4.2. Định lý bộ nhớ liên kết mờ tương quan theo phép nhân (Kosko,
1992).

Nếu M = AT B và A, B là các vector có thành phần khác không thì:

- A o M = B khi và chỉ khi H(A) =1;

214
- B o MT = A khi và chie khi H(B) =1;

- A’ o M  B cho mọi A’;

- B’ o MT  A cho mọi B’.

Hệ thống bộ nhớ liên kết mờ mã hóa m liên kết: Xét trường hợp cần lưu trữ
m mẫu là (A1, B1),...(Am, Bm) trong ngân hàng bộ nhớ liên kết mờ, nếu sử dụng
hai định lý trên ta cần có m ma trận bộ nhớ liên kết mờ là M1, ..., M2 để mã
hóa. Biện pháp đó có nhiều nhược điểm. Để thực hiện phép lưu trữ trên sử
dụng hệ thống bố nhớ liên kết mờ mô tả trên hình 4.7.

Lưu trữ m liên kết (Ak, Bk) độc lập trong ngân hàng bộ nhớ liên kết mờ.
Có thể gọi là các vector B’k theo biểu thức sau:

B’k = A o Mk = A o ( ATk o Bk) (4.64)

Với k = 1, 2,..., m; A là vector liên thuộc bất kỳ đặt ở đầu vào ở dạng song
song tới ngân hàng của các luật bộ nhớ liên kết mờ (Ak, Bk).

Vector liên thuộc đầu ra B là tổng trọng các vector được gọi là B’k:
m
B   w k B'k (4.65)
k 1

với wk là trọng số không âm.

Hình 4.7. Sơ đồ hệ thống bộ nhớ liên kết mờ mã hóa m liên kết (Ak, Bk)

215
Trong đó:

x : Giá trị vào, x ∈Rn.

y0: Giá trị ra của hệ thống, y0 ∈R.

A : Giá trị mờ hóa của x.

Bj’: Tập mờ kết quả cho bởi luật Rj.

wj : Trọng số luật Rj trong hệ luật.

∑: Qui tắc cộng trong mô hình kết hợp cộng-tích của hệ mờ

B : Tập mờ kết quả của toàn hệ thống.

Với mỗi giá trị vào x, x được mờ hóa và kích hoạt tất cả các luật.

Để tìm giá trị thực ở đầu ra ở dạng Y = [y1, y2,...., yp] cần sử dụng phương
pháp giải mờ , ví dụ phương pháp giải mờ trọng tâm để tìm đáp ứng đầu ra B
của các vector liên thuộc B tương ứng với đầu ra Y theo biểu thức:
p
 y jB (yi )
j1
B p
(4.66)
 B (y j )
j1

Ví dụ trường hợp tín hiệu đèn giao thông, trong đó ở mọi trạng thái giả thiết
chỉ có một đèn sáng còn các đèn khác tắt, do vậy chỉ có một bit thứ i là ai = 1
còn lại các bit khác có giá trị bằng không aj = 0 với mọi i khác j. Như vậy A là
một duy nhất mờ.

4.4 ANFIS trong Matlab

Trong phần này, ta sẽ việc sử dụng hàm anfis và ANFIS Editor GUI
trong bộ công cụ Fuzzy Logic Toolbox của Matlab. Công cụ này áp dụng kỹ
thuật suy diễn mờ để mô hình hoá đối tượng. Như ta đã biết ở phần suy diễn

216
mờ GUIS hình dạng của hàm liên thuộc phụ thuộc vào các tham số, khi thay
đổi các tham số sẽ thay đổi hình dạng của hàm liên thuộc.

4.4.1. Mô hình học và suy diễn mờ thông qua ANFIS

Ý tưởng cơ bản của kỹ thuật học neuro-adaptive rất đơn giản. Kỹ thuật
này đưa ra cơ chế cho mô hình mờ có thủ tục để học thông tin về tập dữ liệu
theo thứ tự ước tính các tham số của hàm liên thuộc mà nó cho phép kết hợp
với hệ thống suy diễn mờ theo hướng dữ liệu vào/ra nhất định. Phương pháp
học này làm việc tương tự như mạng nơron. Bộ công cụ lôgic mờ dùng để thực
hiện việc điều chỉnh tham số của hàm liên thuộc được gọi là anfis. Ta có thể
mở anrs từ dòng lệnh hoặc từ giao diện đồ hoạ (ANFIS Editor GUI). Hai cách
này tương tự nhau, chúng được sử dụng hoán đổi nhau. Tuy nhiên, giữa chúng
cũng có đối chút khác biệt (chúng ta sẽ bàn đển ở phần sau).

Tìm hiểu về AFIS:

ANFIS xuất phát từ tiến Anh là Adaptive neuro-fuzzy infercnce system.


Sử dụng tập dữ liệu vào/ra có sẵn, hàm anfis xây dựng nên hệ thống suy diễn
mờ (FIS), các thông số hàm liên thuộc của nó được điều chỉnh nhờ sử dụng
các thuật toán huấn luyện của mạng nơron như thuật toán lan truyền ngược
hoặc kết hợp lan truyền với phương pháp bình phương cực tiểu. Điều đó cho
phép hệ mờ của ta "học" từ tập dữ liệu chúng được mô hình.

Cấu trúc và sự điều chỉnh tham số của FIS :

Một kiểu mạng có cấu trúc tương tự mạng nơron, nó ánh xạ các đầu vào
qua các hàm liên thuộc vào với các thông số tương ứng và sau đó là thông qua
các hàm ra với các tham số tương ứng tạo nên các đầu ra có thể được sử dụng
để giải thích ánh xạ vào/ra. Các thông số tương ứng với hàm liên thuộc sẽ thay
đổi thông qua quá trình học. Việc tính toán các tham số này (hoặc việc điều
chỉnh chúng) thực hiện dễ dàng bằng vector gradient nó đưa ra giới hạn theo

217
cách tốt cho hệ thống suy diễn mờ được mô hình hoá dữ liệu vào/ra theo tập
các tham số nhất định. Ta đã biết, véc tơ gradient được áp dụng cho một vài
thủ tục tối ưu cốt để điều chỉnh các tham số sao cho giảm nhỏ giá trị sai số
(thường được định nghĩa bằng tổng bình phương sai lệch giữa đầu ra hiện thời
và đầu ra mong muốn). Anfis sử dụng điều đó theo giải thuật lan truyền ngược
hoặc kết hợp sự ước lượng bình phương cực tiểu và sự lan truyền ngược cho
sự ước lượng tham số hàm liên thuộc.

Một số hạn chế của ANFIS:

Anfis phức tạp hơn các hệ thống suy luận mờ mà chúng ta đã đề cập ở
chương 1 rất nhiều, và cũng không sẵn có như các tuỳ chọn của hệ thống suy
luận mờ. Đặc biệt, anfis chỉ hỗ trợ cho các hệ thống mờ theo mô hình Sugeno
và chúng cần có những ràng buộc sau:

- Là các hệ thống loại Sugeno ở vị trí 0 hoặc 1.

- Có một đầu ra đơn, giải mờ bằng phương pháp trung bình trọng tâm. Tất
cả các hàm liên thuộc đầu ra phải cùng loại, hoặc tuyến tính hoặc bất biến

- Không chia sẻ luật điều khiển. Các luật khác nhau không thể chia sẻ
cùng một hàm liên thuộc đầu ra, cụ thể là số lượng các hàm liên thuộc đầu ra
phải bằng sổ lượng các luật.

Có một trọng lượng nhất định (đồng nhất) cho mỗi một nguyên tắc.

Khi không train thủ đủ những ràng buộc trên, cấu trúc FIS sẽ bị sai số. Hơn
nữa, anfis không thể chấp nhận các tuỳ chọn thông thường mà suy luận mờ cơ
bản cho phép. Vì vậy chúng ta không thể tùy ý tạo ra các hàm liên thuộc và các
phương pháp giải mờ của mình mà phải sử dụng những chức năng đã cho.

218
4.4.2 ANFIS trong Fuzzy Toolbox của Matlab

Trong phần này, ta tìm hiểu cách khai thác bộ soạn thảo hệ mờ - nơron
(ANFIS) thông qua giao diện đồ họa. Để khởi động bộ soạn thảo ANFIS GUI,
gõ: anfisedit. Cửa sổ thảo GUI sau đây xuất hiện trên màn hình:

Hình 4.8.Cửa sổ soạn thảo ANFIS

Tải dữ liệu (huấn luyện, thử và kiểm tra) bằng cách lựa chọn những nút
thích hợp trong phần Load thừa của GUI và bấm vào Load Data. Dữ liệu tải về
được vẽ trong phần đồ thị.

Tạo một mô hình FIS ban đầu hoặc tải một mô hình FIS ban đầu bằng
cách sử dựng các lựa chọn trong Generate FIS của GUI.

Xem câu trúc mẫu FIS khi FIS ban đầu đã được tạo hoặc tải bằng cách
nháy vào nút Structure.

219
Chọn phương pháp tôi ưu tham số mô hình FIS: truyền ngược hoặc kết
hợp truyền ngược với binh phương nhỏ nhất (phương pháp lai).

Chọn số kỳ huấn luyện mô hình FIS bằng cách nhấn vào nút
Train Now.

Huấn luyện này điều chỉnh các tham số hàm liên thuộc và các sơ đồ huấn
luyện (và/ hoặc dữ liệu kiểm tra) các sơ đồ sai số trong phần sơ đồ.

Quan sát mô hình FIS để thấy dược dữ liệu huấn luyện, kiểm tra hoặc
thử dữ liệu đầu ra bằng cách ấn nút Test Now.

Chức năng này vẽ dữ liệu thử tương phản với đầu ra FIS trong phần sơ
đồ. Ta có thể sử dụng thanh thực đơn bộ soạn thảo ANFIS GUI để tải một
huấn luyện FIS ban đầu, ghi FIS huấn luyện, mở một hệ thống Sugeno hoặc mở
bất kỳ một GUI nào để phân tích sự huấn luyện của mô hình FIS.

Khuôn dạng dữ liệu bộ soạn thảo ANFIS GUI: Kiểm tra và huấn luyện

Để khởi động một FIS sử dụng anfis hoặc bộ soạn thảo ANFIS GUI, đầu tiên
ta cần có một dữ liệu huấn luyện chứa các cặp dữ liệu đầu vào/đầu ra mong
muốn của hệ thống đích. Đôi khi cũng cần tập dữ liệu thử tuỳ chọn có thể kiểm
tra được khả năng khái quát hoá của hệ thống suy luận mờ, đồng thời tập dữ
liệu kiểm tra có thể giúp đỡ việc điều chỉnh trong suốt quá trình huấn luyện.
Như đã đề cập từ phần trước, việc điều chỉnh được tính để thử nghiệm huấn
luyện FIS trên một dữ liệu huấn luyện đối lập dữ liệu kiểm tra, và chọn hàm
tham số hàm liên thuộc nối kết với sai số kiểm tra nhỏ nhất nếu những sai số
này chỉ ra việc điều chỉnh mẫu quá mức. Ta sẽ phải kiểm tra sơ đồ sai số huấn
luyện nhỏ nhất để quyết định điều này. Những vấn đề này sẽ được bàn đển ở
một ví dụ phần sau. Thường thì những phần dữ liệu huấn luyện và kiểm tra
được thu thập dựa trên các quan sát của hệ thống đích và sau đó được lưu lại
trong các tệp tin cách biệt.

220
Chú ý: Bất cứ tập dữ liệu nào mà ta tải vào bộ soạn thảo ANFIS GUI, (hoặc là
cái được ứng dụng vào hàm lệnh anfis) phải là một ma trận với các dữ liệu đầu
vào được sắp xếp như các vecto trong tất cả trừ cột cuối cùng. Dữ liệu đầu ra
phải được đặt trong cột cuối cùng.

Ví dụ: Xây dựng hệ thống dự báo tăng trưởng ô tô, hệ thống gồm 2 đầu vào và
01 đầu ra như hình vẽ, hệ mờ sử dụng kiểu Sugeno.

Hình 4.9. Kiến trúc hệ mờ dự báo tăng trưởng phương tiện ô tô

Biến DSO và GDP được thiết kế 5 tập mờ có dạng hình chuông, biến OTO
được thiết kế với các giá trị tuyến tính linier. Dữ liệu huấn luyện được sử dụng
là 10 bản ghi ứng với các cột dân số, GDP, số lượng ô tô của bảng thống kê
tổng hợp, hình ảnh của dữ liệu được thể hiện ở Hình 4.10.

221
.
Hình 4.10. Dữ liệu huấn luyện cho hệ mờ nơ ron

Cấu trúc của mô hình được thể hiện ở hình dưới, cáu trúc này gồm 5 layer.

Hình 4.11. Kiến trúc hệ mờ nơ ron


Kết quả sau khi huấn luyện của hệ thống thể hiện qua hình 4.12

222
Hình 4.12. Kết quả sau khi huấn luyện theo dữ liệu mẫu của hệ thống

Mối quan hệ giữa dân số, GDP và số lượng ô tô thể hiện qua bề mặt của tập
luật được sinh ra bởi hệ thống.

Hình 4.13. Mối quan hệ giữa đầu vào và đầu ra

223
Hình 4.14. Giao diện dự báo của hệ thống
Kết quả trên cho thấy hệ mờ - nơ ron như thiết kế có thể đáp ứng được cho
các mô hình dự báo nói chung và dự báo tăng trưởng phương tiện cơ giới đường
bộ nói riêng.

224
5

ỨNG DỤNG HỆ MỜ, NƠRON TRONG ĐIỀU KHIỂN

5.1 Ứng dụng hệ mờ trong điều khiển

5.1.1 Thiết kế bộ điều khiển PID mờ

Có thể nói trong lĩnh vực điều khiển, bộ PID được xem như một giải
pháp đa năng cho các ứng dụng điều khiển Analog cũng như Digital. Theo một
nghiên cứu cho thấy có khoảng hơn 90% các bộ điều khiển được sử dụng hiện
nay là bộ điều khiển PID. Bộ điều khiển PID nếu được thiết kế tốt có khả năng
điều khiển hệ thống với chất lượng quá độ tốt (đáp ứng nhanh, độ vọt lố thấp)
và triệt tiêu được sai số xác lập.

Việc thiết kế bộ PID kinh điển thường dựa trên phương pháp
ZeiglerNichols, Offerein, Reinish … Tuy nhiên nếu đối tượng điều khiển là phi
tuyến thì bộ điều khiển PID kinh điển không thể đảm bảo chất lượng điều
khiển tại mọi điểm làm việc. Do đó nó điều khiển các đối tượng phi tuyến ngày
nay người ta thường dùng kỹ thuật hiệu chỉnh PID mềm (dựa trên phầm mềm),
đây chính là cơ sở của thiết kế PID mờ hay PID thích nghi.

Sơ đồ điều khiển sử dụng PID mờ:

Hình 5.1. Sơ đồ điều khiển PID mờ

225
Mô hình toán học của bộ PID:
t
de(t )
u (t )  K p e(t )  K I  e(x)dx  K D
0
dt
(5.1)
K
GPID ( s )  K p  I  K D s
s

Các tham số K , K , K được chỉnh định theo từng bộ điều khiển mờ riêng biệt
P I D

dựa trên sai lệch e(t) và đạo hàm de(t). Có nhiều phương pháp khác nhau để
chỉnh định bộ PID ( xem các phần sau) như là dựa trên hàm mục tiêu, chỉnh
định trực tiếp, chỉnh định theo Zhao, Tomizuka và Isaka …

Nguyên tắc chung là bắt đầu với các trị K , K , K theo Zeigler-Nichols, sau
P I D

đó dựa vào đáp ứng và thay đổi dần để tìm ra hướng chỉnh định thích hợp.

Luật chỉnh định PID:

Hình 5.2. Đồ thị tín hiệu điều khiển

- Lân cận a ta cần luật điều khiển mạnh để rút ngắn thời gian lên, do vậy
1

chọn: K lớn, K nhỏ và K nhỏ.


P D I

- Lân cận b ta tránh vọt lố lớn nên chọn: K nhỏ, K lớn, K nhỏ.
1 P D I

- Lân cận c và d giống như lân cận a1 và b1.


1 1

Ví dụ 5.1. Xây dựng bộ điều khiển PID mờ điều khiển lò nhiệt. Hàm truyền
Ke Ts K
nhiệt theo Zeigler – Nichol: G ( s )  , tuyến tính hóa G ( s) 
Ls  1 (Ts  1)( Ls  1)

226
Các bước thiết kế:

1.Xác định biến ngôn ngữ

Đầu vào: 2 biến

+ Sai lệch nhiệt độ ET = Đo – đặt hoặc Đặt – đo; được chọn trong miền giá trị
từ -12oC đến 12oC.

ET (i  1)  E (i )
+ Tốc độ biến đổi DET  , với T là chu kỳ lấy mẫu; khoảng giá
T

trị biến đổi từ -0,60C đến 0,60C

Đầu ra: Gồm 3 biến

K p max  K p
+ KP : Hệ số tỷ lệ K 0 p 
K p  K P min

+ KI : Hệ số tích phân.
+ KD : Hệ số vi phân.
Số lượng biến ngôn ngữ:
ET = {âm nhiều, âm vừa, âm ít, zêrô, dương ít, dương vừa, dương nhiều}
ET = {N3, N2, N1, ZE, P1, P2, P3}
DET = {âm nhiều, âm vừa, âm ít, zêrô, dương ít, dương vừa, dương nhiều}
DET = {N31, N21, N11, ZE1, P11, P21, P31}
KP/KD = {zêrô, nhỏ, trung bình, lớn, rất lớn} ={Z, S, M, L, U}
KI = {mức 1, mức 2, mức 3, mức 4, mức 5} ={L1,L2,L3,L4,L5}

227
2. Luật hợp thành: Có tổng cộng là 7 x 7 x 3 = 147 luật IF…THEN

- Luật chỉnh định KP:

228
- Luật chỉnh định KD:

- Luật chỉnh định KI:

3. Chọn luật mờ và giải mờ: Chọn luật hợp thành theo qui tắc Max- Min; giải
mờ theo phương pháp trọng tâm.

4. Mô phỏng trên Simulink và kết quả

229
5.1.2. Hệ mờ lai

Hệ mờ lai (Fuzzy hybrid) là một hệ thống điều khiển tự động trong đó thiết bị
điều khiển bao gồm: phần điều khiển kinh điển và phần hệ mờ.

Các dạng phổ biến: Hệ mờ lai không thích nghi; hệ mờ lai cascade; công tắc
mờ.

Hình 5.3. Cấu trúc hệ mờ lai không thích nghi

230
Hình 5.4. Hệ mờ lai cascade

Hệ công tắc mờ: điều khiển hệ thống theo kiểu chuyển đổi khâu điều khiển có
tham số đòi hỏi thiết bị điều khiển phải chứa đựng tất cả các cấu trúc và tham
số khác nhau cho từng trường hợp. Hệ thống sẽ tự chọn khâu điều khiển có
tham số phù hợp với đối tượng.

Hình 5.4. Hệ công tắc mờ

Ví dụ 5.2: Hãy xét sự khác biệt khi sử dụng bộ tiền xử lý mờ để điều khiển đối
K
tượng gồm khâu có vùng nhạy là ∆u nối tiếp với khâu G ( s) 
s(1  0.2s)

Chọn bộ điều khiển PI với các tham số KP = 10, T1=0,3s.

Sử dụng simulink kết hợp với toolbox FIS Editor của Matlab để mô phỏng hệ
thống trên.

Đáp ứng hệ thống khi không có bộ mờ:

231
Thử với các giá trị ∆u và K khác nhau cho thấy đặc tính động của hệ sẽ
xấu đi khi vùng chết rộng hoặc hệ số khuếch đại lớn. Để hiệu chỉnh đặc tính
động của hệ thống ta đưa vào bộ lọc mờ như hình vẽ ở trên.

Xây dựng luật điều khiển với 2 đầu vào và một đầu ra như sau:

Luật điều khiển có 18 luật có khuôn dạng như sau:

Nếu E = x1 và DE = x2 thì ∆x = x3

Trong đó x1, x2, x3  {NB, NS, ZE, PS, PB}

232
Từ hai đồ thị trên ta thấy được bộ mờ đã cải thiện rất tốt đặc tính động
của hệ thống. Thử với nhiều ∆u khác nhau ta sẽ thấy đáp ứng hầu như không
phụ thuộc vào ∆u.

5.1.3 Ứng dụng điều khiển mờ trong điều khiển thiết kế hệ thống

Trong hệ thống điều khiển có thể kết hợp bộ điều khiển mờ với các hệ
thống điều khiển hiện đại. Ở đây ta chỉ nghiên cứu về điều khiển mờ không
thích nghi.

1. Bộ điều khiển mờ tuyến tính ổn định SISO

Phương trình biến trạng thái của hệ SISO


.
x(t )  Ax(t)  B u(t)
y(t)  C x(t)
u(t)   f[y(t)]

Thay phương trình cuối vào hai phương trình trên ta được hệ vòng kín sau:

233
Hình 5.5. Cấu trúc hệ SISO

Thiết kế bộ điều khiển mờ ổn định SISO:

Bước 1: Giả sử y(t) có miền giá trị là khoảng U=[α β], chia U ra 2N+1
khoảng Ak như Hình vẽ 5.6.

Hình 5.6. Hàm thuộc của bộ điều khiển

Bước 2: Thành lập 2N+1 luật mờ IF – THEN có khuôn dạng

IF y = A THEN u = B
k k

trong đó k = 1,2,….,2N+1 và trọng tâm y của khoảng mờ Bk là:

  k  1,..., N

y   0  k  N 1
(5.2)
 k  N  2,...2 N  1

234
Bước 3: Chọn luật hợp thành tích, giải mờ theo phương pháp trung bình trọng
số, ta có luật điều khiển như sau:


2 N 1
y Ak ( y )
u   f ( y)  k 1


2 N 1
k 1
 Ak ( y )

với y thỏa mãn công thức 5.2 và  Ak ( y ) được nếu trong Hình 5.6.

2. Bộ điều khiển mờ tuyến tính ổn định MIMO

Phương trình biến trạng thái của hệ MIMO:


.
x(t )  Ax(t)  B u(t)
(5.3)
y(t)  C x(t)

Giả sử hệ có m đầu vào và m đầu ra thì u(t) = (u1(t),…,um(t))T có dạng :

uk(t) = - fk[y(t)] (5.4)

với k=1,2,...,m và fk[y(t)] là hệ mờ m đầu vào 1 đầu ra.

Mô hình hệ thống có cấu trúc như Hình 5.5, nhưng thay cho các số b,c bởi
các ma trận B,C, hàm vô hướng f bởi vector f = (f ,f ,…,f )T. 1 2 m

Thiết kế bộ điều khiển mờ ổn định MIMO

Bước 1: Giả sử đầu ra y (t) có miền giá trị là Uk = [αk βk], với k=1,…,m.
k

Chia Uk ta 2N+1 khoảng Ak li và thiết lập hàm thuộc như Hình 5.6.

Bước 2: Thành lập m nhóm luật mờ IF ... THEN, nhóm thứ k chứa


m
i 1
(2 N k  1) luật dạng:

IF y1= A1 l1 And …. And ym= Am lm , THEN u= Bk l1...lm


l1...lm l1...lm
Trong đó li=1,2,…,2Nk+1; k=1,2,…,m và trọng số yk của tập mờ Bk
được chọn như sau:

235
  lk  1,..., N k
l1 ..lm 
y   0  lk  N k  1
(5.6)
 l  N  2,...2 N  1
 k k k

Bước 3: Chọn luật hợp thành tích, giải mờ theo phương pháp trung bình trọng
số, ta được luật điều khiển:

 ... l ( i 1  A1 li ( yi ))
2 N1 1 2 N m 1 l1 ...lm m
l1 1
y
m 1
u   f ( y)  (5.7)
 ... l ( i 1  A1 li ( yi ))
2 N1 1 m m
l1 1 m 1

với k =1,2,…,m.

3. Điều khiển tối ưu

Phương trình trạng thái:


.
x(t )  Ax(t)  B u(t)
(5.8)
x(0)  x 0

Với x  R n và u  R m , và chỉ tiêu chất lượng đạng toàn phương:


T
j  x (T) Mx(T)    xT (t )Qx(t )  u T (t ) Ru (t ) dt
T
(5.9)
0

Với M  R nxn , Q  R nxn , Q  R mxm là các ma trận xác định dương.

Ta xác định u(t) dạng như công thức (5.7), với u(t)= (u1,u2,...,um)T

 ... l ( i 1  A1 li (x i ))
2 N1 1 2 N m 1 l1 ...lm m
l1 1
yk
m 1
u   fk (x)  (5.9)
 ... l ( i 1  A1 li (x i ))
2 N1 1 m m
l1 1 m 1

l1 ...lm
Chúng ta cần xác định thông số y k để cực tiểu J.

236
5.2 Ứng dụng mạng nơron trong nhận dạng và điều khiển

Xét hệ thống có phương trình trạng thái ở dạng sau đây:


.
x(t)  [x(t),u(t)] (5.10)
y(t)  [x(t)]

Với x(t) = [x1(t), x2(t), ...., xn(t)]T; u(t) = [u1(t), u2(t), ...., un(t)]T

Y(t) = [y1(t), y2(t), ...., yn(t)]T; p, m tương ứng là số đầu vào, đầu ra cảu hệ
thống bậc n; ui(t), yi(t) tương ứng là các tín hiệu vào, tín hiệu ra; xi(t) là các
biến trạng thái; (.) và  (.) là các hàm phi tuyến dừng được định nghĩa tương
ứng với: Rn x Rp  Rn và Rn  Rm.

Viết lại công thức 6.10 ta có:

x(k  1)  [x(k),u(k)]
(5.11)
y(k)  [x(k)]

Với u(t), x(k), y(k) là các đại lượng cho ở dạng dãy rời rạc.

Rời rạc hệ 6.11 là tuyến tính và bất biến, có thể viết lại ở dạng:

x(k  1)  Ax(k)  Bu(k)


( 5.12)
y(k)  Cx(k)

với A, B, C tương ứng là các ma trận có kích thước : (m x n) , (n x p) và (m x


n).

Đối tượng tuyến tính: xét hệ SISO, dạng rời rạc, có thong số tuyến tính bất
biên với thời gian được cho dạng:
n 1 m 1
y p (k  1)   i y p (k  i)    ju(k  j) (5.13)
i 1 j0

trong đó các hằng số αi, βj là các hằng số chưa biết; m≤n.

237
Tín hiệu ray p(k+1) là tổ hợp tuyến tính của các giá trị quá khứ của cả
tín hiệu đầu vào u(k-j) (j = 0, 1, …., (m-1)) và tín hiệu đầu ra yp(k-i) (i = 1, 2,
3, …, (n-1)).

Đối tượng phi tuyến: Đối tượng phi tuyến dược biểu diễn theo mô hình rời
rạc theo bốn dạng sau đây:

- Dạng 1:
n 1
y p (k  1)   i y p (k  i) g[u(k),u(k  1),...,u(k  m  1)] (5.14)
t 0

yp(k+1) phụ thuộc tuyến tính vào các giá trị quá khứ yp(k-i), (i =0, 1, ..., (n-1))
và phụ thuộc phi tuyến vào các giá trị quá khứ đầu vào u(k), ..., u(k-m+1).

- Dạng 2:
m 1
y p (k  1)  f[y p (k), y p (k  1),...., y p (k  n  1)]   i u(k  i) (5.15)
i 0

yp(k+1) phụ thuộc tuyến tính vào các giá trị quá khứ đầu vào u(k-i), (i =0, 1,
..., (m-1)) và phụ thuộc phi tuyến vào các giá trị quá khứ ra (yp(k), ..., yp(k-
n+1)).

- Dạng 3:

y p (k  1)  f[y p (k), y p (k  1),...., y p (k  n  1)]  g[u(k),...,u(k  m  1)] (5.16)

yp(k+1) phụ thuộc phi tuyến vào các giá trị quá khứ đầu vào u(k),..., u(k-m+1)
và phụ thuộc phi tuyến vào giá trị quá khứ đầu ra (yp(k), ..., yp(k-n+1)).

- Dạng 4:

y p (k  1)  f[y p (k), y p (k  1),...., y p (k  n  1),u(k),...,u(k  m  1)] (5.17)

238
yp(k+1) phụ thuộc phi tuyến vào các giá trị quá khứ đầu ra và phụ thuộc vào
các giá trị đầu vào cùng với các giá trị quá khứ của nó, [u(k), yp(k)] là cặp tín
hiệu vào-ra của đối tượng tại thời điểm k, m≤n.

f(.), g(.) là các hàm phi tuyến chưa biết trước của đối tượng, chúng cần
được xấp xỉ gần đúng bởi mạng nơron với độ chính xác mong muốn. Số lượng
các lớp, số nơron ở mỗi lớp và số lượng mối liên kết trọng số giữa các nơron
mỗi lớp với nhau của mạng nơron nhận dạng cần được chọn phù hợp với độ
chính xác và đặc tính vào ra của hàm phi tuyến tương ứng của đối tượng đã
cho.

5.3.1 Ứng dụng mạng nơron trong nhận dạng

Vấn đề nhận dạng được đặt ra khi các tham số (.) và  (.) của 5.11
hoặc các ma trận A, B, và C của 5.12 hoặc αi, βi của 5.13, hoặc các hàm phi
tuyến f(.) và g(.) là chưa được biết trước.

Vì đầu vào đầu ra của hệ bất biến theo thời gian, nên hệ động học rời rạc
là u(k) và y(k) tương ứng; trong đó u(k) là hàm giới hạn, thay đổi theo thời
gian. Đối tượng được giả thiết là ổn định, nhưng chưa biết gái trị các thông số
của đối tượng.

Hệ thống nhận dạng được mô tả như hình 5.11, trong đó mô hình nhận
dạng có cùng đầu vào u(k) với đối tượng cần nhận dạng, đầu ra của mô hình
nhận dạng là yP(k) là biểu diễn tính toán gần đúng của đầu ra đối tượng cần
dạng là yp(k).

Hình 5.11. Mô hình nhận dạng

239
5.3.1.1 Mô hình nhận dạng song song

Trên cơ sở các dạng phương trình của đối tượng tuyến tính và phi tuyến,
có các mô hình nhận dạng các đối tượng nói trên theo mô hình nhận dạng song
song có dạng tương ứng như sau:

- Với đối tượng tuyến tính.

 n 1 m 1
 (k)y (k  i)  u(k  j)
y p (k  1)    i p  j (5.18)
i 1 j0

Trong đó:   (k) (i =0, 1, 2, ..., n-1);  (k), ( j = 0, 1, 2,..., m-1);


i j

y p (k  1) là các thông số nhận dạng của 6.13.

- Với đối tượng phi tuyến.

Dạng 1:
n 1 
yp (k  1)     y (k  i)  g[u(k),u(k  1),...,u(k  m  1)]
i p (5.19)
t 0

Dạng 2:

 m 1
yp (k  1)  f[y p (k), yp (k  1),...., yp (k  n  1)]   i u(k  i) (5.20)
i 0

Dạng 3:
 
yp (k  1)  f[yp (k),...., yp (k  n  1)]  g[u(k),...,u(k  m  1)] (5.21)

Dạng 4:
 
yp (k  1)  f[y p (k),...., yp (k  n  1),u(k),...,u(k  m  1)] (5.22)

Để nhận dạng đối tượng dạng 3 (5.21), trong trường hợp này cấu trúc
của mô hình nhận dạng là giống như đối tượng với f và g được thay thế tương
ứng bởi N2 và N1. Mô hình này được mô tả bởi phương trình sau đây:

240

yp (k  1)  N 2 [f[yp (k),...., yp (k  n  1),u(k),u(k  1),...,u(k  m  1)]

Vì N2 nằm ở mạch vòng phản hồi động học, các thông số của N1 và N2
được xác định bởi lan truyền ngược. Hình 6.12 trình bày cấu trúc của mô hình
nhận dạng đối tượng phi tuyến dạng 3 sử dụng mạng nơ ron N1 và N2.

Hình 5.12. Cấu trúc mô hình nhận dạng cho đối tượng phi tuyến nhận dạng 3
sử dụng mạng nơron N1 và N2

5.3.1.2 Mô hình nhận dạng nối tiếp song song

Căn cứ vào các dạng phương trình của đối tượng tuyến tính và phi tuyến từ
(6.13) đến (6.17), các mô hình nhận dạng của các đối tượng nói trên theo mô
hình nhận dạng nối tiếp song song có dạng tương ứng như sau:

- Với đối tượng tuyến tính.

 n 1 m 1
 (k) y (k  i)  u(k  j)
y p (k  1)    i p  j (5.23)
i 1 j0

- Với đối tượng phi tuyến.

Dạng 1:

241
n 1 
yp (k  1)     y (k  i)  g[u(k), u(k  1),..., u(k  m  1)]
i p (5.24)
t 0

Dạng 2:

 m 1
yp (k  1)  f[y p (k), y p (k  1),...., y p (k  n  1)]   i u(k  i) (5.25)
i 0

Dạng 3:
 
yp (k  1)  f[y p (k),...., y p (k  n  1)]  g[u(k),...,u(k  m  1)] (5.26)

Dạng 4:

yp (k  1)  f[y p (k),...., y p (k  n  1),u(k),...,u(k  m  1)] (5.27)

Ví dụ 5.1. Cho mô hình nhận dạng như hình vẽ 5.3

Hình 5.3. Mô hình nhận dạng ví dụ 5.1


(b). Mô hình nhận dạng song song;
(b). Mô hình nhận dạng nối tiếp – song song nhận dạng hàm g
của đối tượng phi tuyến

242
Thực hiện bài toán nhận dạng đối tượng phi tuyến dạng 3, tín hiệu đầu ra mô
hình nhận dạng là yp(k+1). Mô hình được mô tả bởi phương trình sau đây:

yp (k  1)  N 2 [f[yp (k),...., yp (k  n  1),u(k),u(k  1),...,u(k  m  1)]

Vì mô hình không bao gồm mạch vòng phản hồi có phần tử phi tuyến
nên sử dụng lan truyền ngược theo sai số lệch tĩnh để xác định các trọng số
của các mạng nơron.

Hình 5.3 (a) là mô hình nhận dạng song song, hình 5.3 (b) là mô hình
nhận dạng nối tiếp song song nhận dạng hàm g(.) của đối tượng phi tuyến dạng
1, bằng mô hình nhận dạng tương ứng là (5.18) và (5.21), với trường hợp
yp(k+1) phụ thuộc vào 2 giá trị của tín hiệu đầu ra đối tượng yp(k), yp(k-1)
(n=2) và phụ thuộc gia trị tìn hiệu vào u(k) (m=1).

5.5.2 Ứng dụng mạng nơron trong điều khiển

Vấn đề đặt ra là thiết kế bộ điều khiển thỏa mãn các yêu cầu đề ra với
điều kiện các hàm (.) và  (.) của 5.11 hoặc các ma trận A, B và C của 5.12
hoặc αi, βi của 5.13, hoặc các hàm phi tuyến f(.) và g(.) là chưa được biết
trước.

5.5.2.1 Bộ điều khiển ổn định

Hình 5.4. Bộ điều khiển ổn định

Bộ điều khiển ổn định như hình vẽ 5.4. Lệnh đầu vào và tín hiệu điều
khiển phản hồi được đưa vào đầu vào của mạng nơron mô phỏng mô hình

243
ngược của đối tượng điều khiển để tạo ra tín hiệu điều khiển ngược. Tín hiệu
điều khiển đưa vào đối tượng điều khiển được tổng hợp từ hai tín hiệu: tín hiệu
điều khiển phản hồi và tín hiệu điều khiển ngược. Mạng nơron thực hiện học
theo tín hiệu học theo tín hiệu điều khiển phản hồi với thuật toán thích nghi.
Ưu điểm của cấu trúc điều khiển loại này là dễ dàng thiết lập được một hệ
thống ổn định, với mạng nơron không cần huấn luyện quá phức tạp.

5.5.2.2 Điều khiển ngược thích nghi

Hình 5.5 cấu trúc mô hình điều khiển ngược thích nghi. Thuật toán này
có khả năng tiếp nhận sai lệch giữa đầu ra của đối tượng và đầu ra của mô hình
mẫu. Thông số của bộ điều khiển được cập nhật liên tục để giảm sai lệch. Bộ
điều khiển mô hình thích nghi mẫu cơ bản có thể ảnh hưởng bởi nhiều từ
sensor và nhiễu bên ngoài tác động vào đối tượng điều khiển. Loại bỏ các
nhiễu này bằng cách sử dụng mạng nơron mô tả đối tượng nối song song với
đối tượng điều khiển. mạng nơron được huấn luyện trên cơ sở dữ liệu vào ra
của đối tượng điều khiển. Sai lệch giữa đầu ra của đối tượng điều khiển và của
mô hình mạng nơron được phân tích như hiệu ứng của nhiễu và nhiễu đầu ra
đối tượng. Tín hiệu sai lệch này được đưa vào mạng nơron mô phỏng ngược
của đối tượng điều khiển tạo ra tín hiệu lọc nhiễu và dấu hiệu nhiễu được loại
trừ từ đầu vào của đối tượng. Đó chính là ý tưởng loại trừ được nhiễu bên
trong và bên ngoài đối tượng.

Hình 5.5 Hệ thống điều khiển ngược thích nghi

244
5.5.2.3 Mô hình điều khiển phi tuyến

Mô hình điều khiển phi tuyến biểu diễn trên hình 5.6. Nó gồm có bộ
điều khiển sử dụng mạng nơron, mạng nơron mô phỏng đối tượng và bộ lọc
với một thống số điều khiển. Bộ điều khiển sử dụng mạng nơron thường được
huấn luyện để biểu diễn mô hình ngược của đối tượng (nếu mô hình ngược này
tồn tại). Sai lệch giữa đầu ra của mạng nơron mô phỏng đối tượng và tín hiệu
đầu ra của đối tượng được đưa về đầu vào của bộ lọc, sau đó được đưa tới bộ
điều khiển sử dụng mạng nơron. Mạng nơron mô phỏng đối tượng và mạng
nơron đóng vai trò là bộ điều khiển đối tượng (nếu nó là mô hình ngược của
đối tượng) có thể được huấn luyện theo kiểu off- line, sử dụng dữ liệu tập hợp
từ động học của đối tượng. Bộ lọc ở mô hình này là bộ lọc bậc nhất có hằng số
thời gian được lựa chọn để đảm bảo mạch vòng kín ổn định.

Hình 5.6 Mô hình điều khiển phi tuyến

5.5.2.4 Mô hình điều khiển dự báo

Mô hình điều khiển dự báo như hình 5.7 sử dụng để tối ưu hóa đáp ứng
đầu ra của đối tượng trong khoảng thời gian dự kiến đây là cấu trúc phụ thuộc
nhiều vào mạng nơron mô tả đối tượng, bộ điều khiển sử dụng mạng nơron,
hàm biểu diễn phản ứng đầu ra của hệ thống và thực hiện tối ưu hóa để lựa
chọn tín hiệu điều khiển tốt nhất.

245
Mạng nơron mô phỏng đối tượng được sử dụng để dự báo đầu ra của đối
tượng. Bộ điều khiển sử dụng mạng nơron tiến hành học, lựa chọn các đầu vào
bằng quá trình tối ưu. Khi quá trình huấn luyện đã hoàn thành, quá trình tối ưu
hóa được thay thế bởi quá trình điều khiển sử dụng bộ điều khiển nơron.

Hình 5.7. Mô hình điều khiển dự báo

5.5.2.4 Điều khiển thích nghi theo mô hình mẫu hoặc điều khiển nơron
thích nghi

Điều khiển thích nghi theo mô hình sử dụng hai mạng nơron: mạng
nơron thứ nhất thực hiện mô phỏng đối tượng và mạng nơron thứ hai đóng vai
trò là bộ điều khiển (hình 5.7). Mạng mô phỏng đối tượng được huấn luyện
theo kiểu off- line sử dụng dữ liệu vào – ra của đối tượng điều khiển. Bộ điều
khiển có nhiệm vụ tạo ra tín hiệu điều khiển cung cấp cho đối tượng điều
khiển sao cho tín hiệu đầu ra của mô hình mẫu. Mạng nơron mô phỏng đối
tượng được sử dụng để dự báo ảnh hưởng của bộ điều khiển đến sự thay đổi
tín hiệu đầu ra của đối tượng điều khiển và cho phép cập nhật thông số của bộ
điều khiển.

246
Hình 5.7 . Điều khiển thích nghi theo mô hình mẫu

5.5.2.5 Đánh giá thích nghi

Hình 5.8 mô tả bộ điều khiển đánh giá thích nghi gồm có hai mạng
nơron. Mạng nơron thứ nhất là bộ điều khiển ngược, được gọi là mạng hoạt
động. Mạng nơron thứ hai được gọi là mạng đánh giá, dự báo tương lai quá
trình làm việc trong tương lai. Quá trình huấn luyện sử dụng phương pháp học
củng cố, là chương trình xấp xỉ động học.

Hình 5.8 Mô hình đánh giá thích nghi

5.5.2.6 Phản hồi tuyến tính hóa phản hồi thích nghi dùng mạng nơ ron

Phương pháp phản hồi tuyến tính hóa thích nghi dùng mạng nơron dựa
vào nguyên tắc thiết kế bộ điều khiển phản hồi tuyến tính hóa (hình 5.9).

Phương pháp phản hồi tuyến tính hóa có đặc điểm là tín hiệu điều khiển
có hai thành phần.

Hệ thống phi tuyến được mô tả bởi quan hệ:

x p ( n )  f ( x p )  g ( x p )u
Với . . ( n 1) (5.28)
x p  [x p , x p ,..., x p ]T

Trong đó có n biến trạng thái và u là tín hiệu điều khiển.

247
Hình 5.9. Phương pháp phản hồi tuyến tính hóa thích nghi

dùng mạng nơron

Để tìm hệ tuyến tính hóa từ hệ thống phi tuyến mô tả bởi công thức (5. 28), sử
dụng tín hiệu u có dạng:

1
u [  f ( xp )  k T xp  r] (5.29)
g(xp )

với k là hệ số phản hồi, r tín hiệu đầu vào.

Thay 5.28 vào 6.29 hệ tuyến tính có dạng:

xp(n) = -kTxp + r (5.30)

Hệ thống được điều chỉnh bởi mạch phản hồi tuyến tính.

Có thể sử dụng mạng nơron để thực hiện chiến lược phản hồi tuyến tính.
Thực hiện xấp xỉ các hàm f(.) và g(.) bởi hai mạng nơ ron NNf và NNg, khi đó
tín hiệu điều khiển có dạng:

1
u [  NN f ( x p )  k T x p  r ] (5.31)
NN g

Chọn mô hình mẫu ở dạng:

xm(n) = -kTxm + r (5.32)

Thay công thức (5.31) vào công thức (5.32) ta được:

248
g (xp )
x p ( n)  f ( x p )  [  NN f ( x p )  k T x p  r ] (5.33)
NN g ( x p )

Sai lệch điều khiển được xác định như sau:

e = xp – xm (5.34)

Phương trình vi phân sai lệch có dạng:

e( n )   k T x p   f ( x p )  NN f ( x p )   g ( x p )  NN g ( x p ) u (5.35)

Với sự huấn luyện mạng hợp lý, phương trình vi phân sai lệch sẽ dần đến trạng
thái ổn định, sai lệch sẽ hội tụ tới điểm không.

5.5.2.6 Điều khiển thích nghi trực tiếp ổn định

Phương pháp này sử dụng định lý ổn định Pyapulov trong thiết kế luật
học của mạng nơron. Bộ điều khiển (hình 5.10) gồm ba phần: Bộ điều khiển
phản hồi tuyến tính, bộ điều khiển trượt phi tuyến và bộ điều khiển mạng
nơron thích nghi.

Hình 5.10. Điều khiển thích nghi trực tiếp ổn định

Tín hiệu điều khiển được tính toán ở dạng:

u(t) = upd(t) + (1 – m(t))uad(t) + m(t)usl(t) (5.36)

trong đó: upd(t) là tín hiệu điều khiển phản hồi phi tuyến, usl(t) tín hiệu điều
khiển trượt phi tuyến và uad(t) là tín hiệu điều khiển nơ ron thích nghi . Hàm

249
m(t) cho phép một sự chuyển tiếp mịn giữa bộ điều khiển trượt và thích nghi,
dựa vào chuẩn của các vùng trạng thái hệ thống.

Bộ điều khiển trượt được sử dụng để giữ trạng thái hệ thống trong vùng
mạng nơron huấn luyện đạt trạng thái điều khiển tối ưu. Sự phối hợp giữa các
bộ điều khiển sẽ làm cho hệ thống ổn định thích nghi đạt điều kiện tối ưu.

Nhận xét: Mỗi phương pháp điều khiển đều có các ưu điểm và nhược điểm
đặc thù. Ví dụ, phương pháp phản hồi tuyến tính hóa chỉ được áp dụng với
những hệ thống được mô tả bởi phương trình (5.27). Phương pháp điều khiển
thích nghi trực tiếp ổn định yêu cầu không có thành phần phi tuyến trong
phương trình mô tả cũng như tín hiệu điều khiển không gian trạng thái.
Phương pháp điều khiển thích nghi yêu cầu sự tồn tại của mô hình ngược của
đối tượng.

5.3 Một số ứng dụng trong nhận dạng và điều khiển

Phần này giới thiệu một số ứng dụng cơ bản ứng dụng mạng nơron trên
Simulink Neural Netwwork Toolbox của Matlab. Các ứng dụng này giải các
bài toán nhận dạng và điều khiển.

5.3.1 Ứng dụng 1

Cho trước mẫu ở đầu vào là vector : x =p=[1.0 -1.2] và mẫu đầu ra tương ứng
là : y = T = [0.5 1.0]. nói cách khác là cho trước 2 mẫu vào-ra với mẫu 1 : (1.0
0.5) và mẫu 2 : (-1.2 1.0). Yêu cầu sử dụng phần tử Adline để thực hiện nhận
mẫu và biểu diễn mặt sai lệch.
P = [1.0 -1.2];
T= [0.5 1.0];
w_range = -1:0.1:1;
b_range = -1:0.1:1;
ES = errsurf(P,T,w_range, b_range, 'purelin');
% Sử dụng hàm errsurf tính toán mặt sai lệch giữa mẫu
vector mẫu vào - ra
plotes(w_range, b_range, ES)

250
net =newlind(P,T);
% Sử dụng hàm newlind thiết lập phần tử Adaline học
các tín hiệu mẫu vào
A = sim(net,P)
% Sử dụng hàm sim tính tín hiệu ra A của phần tử
E = T-A;
SSE = sumsqr(E);
plotes(w_range, b_range,ES)
plotep(net.IW{1,1}, net.b{1},SSE)
p = -1.2;
a=sim(net,p);
net.IW; net.b

% Kết quả trên màn hình là -0.2273 và 0.7273

Thử lại cho mẫu 1 ta được:

x(1)w + b = 1x(-0.2273) + 0.7272 = 0.5 = y(1)

Thử lại cho mẫu 2 ta được :

x(2)w + b = (-1.2)x(-0.2273) + 0.7272 = 1.0001 = y(2)

Như vậy sử dụng phần tử Adaline đã lưu trữ được hai mẫu đã chọn.

5.3.2 Ứng dụng 2

Sử dụng mạng Hopfield co hai nơron học hai điểm ổn định.

251
% Hai điểm cân bằng ổn định bằng các vector trong ma trận T
T = [+1 -1; -1 +1];
figure
plot(T(1,:),T(2,:),'r*');
axis([-1.1 1.1 -1.1 1.1])
title('Hopfield Network State Space');
xlabel('a(1)');
ylabel('a(2)');
% sử dụng hàm newhop tạo mạng Hopfield với các điểm ổn
định T
net = newhop(T);
[Y,Pf, Af] =sim(net,2,[],T);
Y
w=net.LW{1,1};
w
b=net.b{1,1};
b
a = {rands(2,1)};
[y,Pf,Af] = sim(net,{1 20},{},a);
record = [cell2mat(a) cell2mat(y)];
start = cell2mat(a);
hold on
plot(start(1,1), start(2,1),'bx',record(1,:),record(2,:))
color = 'rgbmy';
for i = 1:25
a= {rands(2,1)};
[y,Pf,Af] = sim(net,{1,20},{},a);
record = [cell2mat(a) cell2mat(y)];
start = cell2mat(a);
plot(start(1,1),
start(2,1),'kx',record(1,:),record(2,:),color(rem(i,5)+1)
)
end
Kết quả mô phỏng :

252
5.3.3 Ứng dụng 3

Ứng dụng mạng nơron cơ sở xuyên tâm trong bài toán nhận mẫu cho các
điểm thông số cho trước.

% cho trước 21 điểm vector mong muốn T


figure
P = -1:0.1:1;
T =[-0.9602,-0.5770,-0.0729,0.3771,0.6405 0.6600
0.4609...
0.1336 -0.2013 -0.4344 -0.5 -0.3930 -0.1647 0.0988...
0.3072 0.3960 0.3499 0.1816 -0.312 -0.2189 -0.3201];
plot(P,T,'+');
title('Training Vector');
xlabel('Input vector P');
ylabel('Target vector T');
p=-3:0.1:3;
a= radbas(p);
plot(p,a);
title('Radial Basis Transfer function');
xlabel('Input P');
ylabel('Output a');
a2 = radbas(p-1.5);
a3 = radbas(p+2);
a4 = a+a2*1 +a3*0.5;

253
plot(p,a,'b-',p,a2,'b--',p,a3,'b--',p,a4,'m-');
title('Weighted sum of Radial basis transfer funtions');
xlabel('Input P');
ylabel('Outputa');
eg = 0.02;
sc = 1;
net = newrb(P,T,eg,sc);
plot(P,T,'+');
xlabel('input');
X = -1:0.1:1;
Y=sim(net,X);
hold on
plot(X,Y);
hold off
legend('Target','output');
% Kết quả mô phỏng:

254
TÀI LIỆU THAM KHẢO

[1] Phan Xuân Minh & Nguyễn Doãn Phước (1999), "Lý thuyết đi
khiển mờ", Nhà xuất bản khoa học và kỹ thuật.
[2] Nguyễn Thương Ngô (1998), "Lý thuyết điều khiển tự động hiện đại",
Nhà xuất bản khoa học và kỹ thuật.
[3] Phạm Hữu Đức Dục, Mạng nơron và ứng dụng trong điều khiển tự
động, NXB KH&KT, 2009
[4] Nguyễn Trọng Thuần, Điều khiển logic và ứng dụng, NXB Khoa h
và Kỹ thuật, 2004
] Bùi Công Cường, Nguyễn Doãn Phước, Hệ mờ mạng rron và ứng dụng,
NXB KH & KT, 2001
[5] H. Yamamoto & T. Furuhashi (1999), "New fuzzy Inference
methodfor system Using symbolic stability analysis offuzzy control", The
fourth Asian Fuzzy System Synposium, May 31 - June, Tsukuba, Japan.
pp.450-455.
[6] Kenji IKEDA and Seiichi SHIN (2000), "Autonomous Decentralizrd
Adaptive Control System Using Parameter Projection", The fourth Asian
Fuzzy System Synposium, May 31 - June, Tsukuba, Japan. pp.293-298.
[7] Timothy J.Ross, Fuzzy logic with Engineering Applications
University of new Mexico, USA, 2004
[8] Kosko, B (1991), "Neuralnetworks andfuzzy control", Prentice Hall,.
[9] L.A. Zadeh (1965), "fuzzy set System", Inf. contr. vol. 8, pp. 338-353.

255
256

You might also like