ĐẠI HỌC THÁI NGUYÊN TRƯỜNG ĐẠI HỌC CÔNG NGHỆ THÔNG TIN VÀ TRUYỀN THÔNG --------------------------------------------------------------------

ĐỖ TUẤN MINH

ĐỀ TÀI

MẠNG NƠRON WAVELET ỨNG DỤNG

CHO XẤP XỈ PHI TUYẾN

LUẬN VĂN THẠC SĨ KHOA HỌC MÁY TÍNH

1

THÁI NGUYÊN, 2017

ĐẠI HỌC THÁI NGUYÊN TRƯỜNG ĐẠI HỌC CÔNG NGHỆ THÔNG TIN VÀ TRUYỀN THÔNG --------------------------------------------------------------------

ĐỖ TUẤN MINH

MẠNG NƠRON WAVELET ỨNG DỤNG

CHO XẤP XỈ PHI TUYẾN

Chuyên ngành: Khoa học máy tính

Mã số: 60480101

LUẬN VĂN THẠC SĨ KHOA HỌC MÁY TÍNH

Người hướng dẫn khoa học: PGS. TS. Lê Bá Dũng

2

THÁI NGUYÊN, 2017

MỤC LỤC

DANH MỤC HÌNH ẢNH ................................................................................... 5 LỜI CAM ĐOAN ................................................................................................. 6

LỜI CẢM ƠN ...................................................................................................... 7

LỜI MỞ ĐẦU ...................................................................................................... 8

CHƯƠNG: NHỮNG KHÁI NIỆM CƠ BẢN VỀ MẠNG NƠRON .................. 9

1.1 Khái niệm mạng nơron................................................................................. 9

1.2 Các cấu trúc mạng nơron .......................................................................... 11

1.2.1 Cấu trúc và mô hình của một nơron nhân tạo ................................... 11

1.2.2 Mạng nơron một lớp ............................................................................ 16

1.2.3 Mạng nơron truyền thẳng nhiều lớp .................................................... 17

1.2.4 Mạng Hopfield .................................................................................... 18

CHƯƠNG II: MẠNG NƠRON WAVELET VÀ CÁC THUẬT TOÁN HỌC ............................................................................................................................ 20

2.1 Phép biến đổi wavelet liên tục ................................................................. 20

2.1.1 Giới thiệu ............................................................................................ 20

2.1.2 Phép biến đổi wavelet thuận ................................................................ 21

2.1.3 Các tính chất của hàm wavelet ............................................................ 23

2.1.3.1 Tính chất sóng ................................................................................ 23

2.1.3.2 Đặc trưng về năng lượng ............................................................... 23

2.1.3.3 Biểu diễn các hệ số wavelet ......................................................... 23

2.1.4 Phép biến đổi wavelet nghịch .............................................................. 25

2.1.5 Phép biến đổi wavelet liên tục hai chiều và nhiều chiều ..................... 25

2.1.6 Tiêu chuẩn chọn hàm wavelet ............................................................. 26

1.2.6.1 Hàm wavelet trực giao hay hàm wavelet không trực giao ............ 26

1.2.6.2 Hàm wavelet phức hay hàm wavelet thực ..................................... 27

2.1.6.3 Độ rộng .......................................................................................... 27

2.1.6.4 Hàm wavelet chẵn và hàm wavelet lẻ ........................................... 28

2.2 Mạng nơron wavelet .................................................................................. 29

2.3 Quy tắc học của mạng nơron wavelet ........................................................ 32

2.3.1 Học có giám sát .................................................................................... 34

3

2.3.2 Học không giám sát ............................................................................ 35

2.3.3 Học tăng cường .................................................................................... 35

2.4 Mô hình cấu trúc đề xuất (WNN-LCW) .................................................... 36 2.5 Phương án nghiên cứu tham số Lai............................................................ 38

2.6 Khởi tạo các tham số của mạng ................................................................. 43

2.7 Nhận dạng hệ thống động lực học ............................................................. 43

2.8 Phát triển mô hình hóa phi tham số ........................................................... 46

CHƯƠNG III: XÂY DỰNG HỆ THỐNG XẤP XỈ PHI TUYẾN SỬ DỤNG MẠNG WAVELET ........................................................................................... 48

3.1 Đặt bài toán ................................................................................................ 48

3.2 Áp dụng mạng nơron wavelet cho nhận dạng hệ động lực........................ 49

3.2.1. Hệ thống với chuỗi thời gian Mackey-Glass ..................................... 49

3.2.2. Thuật toán huấn luyện mạng nơron wavelet ...................................... 50

3.2.3. Cho hệ phi tuyến một chiều ................................................................ 52

PHẦN KẾT LUẬN ............................................................................................ 56

4

TÀI LIỆU THAM KHẢO .................................................................................. 57

Hình 1.1 Mô hình nơron sinh học .................................................................................. 10 Hình 1.2 Mô hình một nơron nhân tạo .......................................................................... 12

Hình 1.3 Đồ thị các dạng hàm truyền ............................................................................ 14

Hình 1.4 Mạng nơron 3 lớp ........................................................................................... 15

Hình 1.5 Mạng truyền thẳng một lớp ............................................................................ 17

Hình 1.6 Mạng hồi tiếp một lớp .................................................................................... 17

Hình 1.7 Mạng truyền thẳng nhiều lớp.......................................................................... 17

Hình 1.8 Cấu trúc mạng hopfield .................................................................................. 18

Hình 2.1 Tín hiệu f(t) ..................................................................................................... 20

Hình 2.2 Biến đổi Fourier của tín hiệu f(t) .................................................................... 21

Hình 2.3 Ba dạng hàm wavelet ...................................................................................... 22

Hình 2.4 Biểu diễn hệ số wavelet trong hệ tọa độ ba trục vuông góc ........................... 24

Hình 2.5 Biểu diễn hệ số wavelet trong tỉ lệ đồ ở dạng các đường đẳng trị ................. 24

Hình 2.6 Biểu diễn hệ số wavelet trong tỉ lệ đồ ở dạng ảnh.......................................... 24

Hình 2.7 Hàm wavelet mexican ở ba tỉ lệ s khác nhau ................................................. 27

Hình 2.8 Biến đổi wavelet của tín hiệu sử dụng hàm wavelet chẵn và lẻ ..................... 28

Hình 2.9 Cấu trúc của mạng nơron sóng nhỏ ................................................................ 30

Hình 2.10 Hàm wavelet morlet cơ bản .......................................................................... 31

Hình 2.11 Học có giám sát ............................................................................................ 35

Hình 2.12 Học không giám sát ...................................................................................... 35

Hình 2.13 Cấu trúc mạng thần kinh sóng nhỏ trọng lượng tổ hợp tuyến tính ............... 38

Hình 2.14 Các mô hình ngoại động lực ......................................................................... 46

Hình 3.1 Sơ đồ hệ thống bất biến theo thời gian ........................................................... 48

Hình 3.2 Sử dụng mạng nơron wavelet cho xấp xỉ như bộ dự báo ............................... 50

Hình 3.3 Thuật toán huấn luyện mạng nơron wavelet .................................................. 51

Hình 3.4 Biểu đồ tính toán xấp xỉ mạng nơron wavelet gồm giá trị thực và giá trị xấp xỉ .................................................................................................................................... 54

DANH MỤC HÌNH ẢNH

DANH MỤC BẢNG BIỂU

Bảng 3.1 Kết quả sau khi mạng nơron được huấn luyện .............................................. 55

5

LỜI CAM ĐOAN

Em xin cam đoan luận văn thạc sĩ công nghệ thông tin “Mạng nơron Wavelet ứng dụng cho xấp xỉ phi tuyến” là sản phẩm nghiên cứu của riêng cá nhân em dưới sự giúp đỡ rất lớn của Giảng viên hướng dẫn là PGS. TS. Lê Bá Dũng, không sao chép lại của người khác. Tất cả tài liệu tham khảo đều có nguồn gốc rõ ràng và trích dẫn hợp pháp. Các thông số, bảng biểu và kết quả sử dụng trong luận văn là hoàn toàn có thật và chưa từng được công bố ở bất kỳ luận văn nào khác.

Thái Nguyên, ngày 17 tháng 10 năm 2017

TÁC GIẢ LUẬN VĂN

6

Đỗ Tuấn Minh

LỜI CẢM ƠN

Luận văn này được hoàn thành dưới sự hướng dẫn tận tình của thầy giáo PGS. TS Lê Bá Dũng, em xin đặc biệt bày tỏ lòng biết ơn chân thành của mình đối với thầy. Em cũng chân thành cảm ơn các thầy, cô giáo Viện Công nghệ thông tin, Trường Đại học Công nghệ Thông tin và Truyền thông - Đại học Thái Nguyên đã tham gia giảng dạy, giúp đỡ em trong suốt quá trình học tập nâng cao trình độ kiến thức.

Tuy nhiên vì điều kiện thời gian và khả năng có hạn nên luận văn không thể tránh khỏi những thiếu sót. Em kính mong các thầy cô giáo và các bạn đóng góp ý kiến để đề tài được hoàn thiện hơn.

7

Em xin trân trọng cảm ơn!

LỜI MỞ ĐẦU

- Mạng nơron nhân tạo (Artificial Nơron Network - ANNs) nói chung. Hệ

mạng nơron wavelet nói riêng đã và đang được nghiên cứu, ứng dụng mạnh mẽ

và thành công ở nhiều lĩnh cực trong những năm gần đây [5,6]. Với các quá trình

như: xấp xỉ phi tuyến, dự báo thị trường chứng khoán, dự báo mô phỏng các hệ

thống điều khiển…được đưa ra, giải quyết mang lại nhiều kết quả tích cực

[1,2,3,4];

- Trong hệ thống điều khiển hiện đại, có rất nhiều phương pháp điều khiển

đảm bảo được tốt chất lượng điều khiển. Để điều khiển chính xác đối tượng khi

chưa biết rõ được thông số, trước tiên ta phải hiểu rõ đối tượng đó. Đối với đối

tượng là phi tuyến như rô bốt, hay hệ thống điều khiển phi tuyến ta cần thực hiện

nhận dạng đặc tính vào ra của nó để đảm bảo tạo ra tín hiệu điều khiển thích nghi

được lựa chọn chính xác hơn. Hiện nay thường sử dụng logic mờ (Fuzzy Logic),

mạng nơron nhân tạo (Artificial Neural Networks) và mạng nơron mờ (Fuzzy

Neural Networks) để nhận dạng và điều khiển thích nghi hệ thống phi tuyến;

- Sử dụng mạng nơron wavelet là một phương pháp tốt, có nhiều khả năng

vượt trội trong việc tuyến tính hóa, dự báo, phân tích, đánh giá dữ liệu trong lĩnh

vực mô hình hóa động lực học. Được sự gợi ý của thầy hướng dẫn và nhận thấy

tính thiết thực của vấn đề em chọn đề tài: “Mạng nơron wavelet ứng dụng cho

8

xấp xỉ phi tuyến” làm khoá luận tốt nghiệp cho luận văn tốt nghiệp của mình.

CHƯƠNG I

NHỮNG KHÁI NIỆM CƠ BẢN VỀ MẠNG NƠRON

1.1 Khái niệm mạng nơron

- Bộ não người có chức năng hết sức quan trọng trong đời sống của

con người. Nó gần như kiểm soát hầu hết mọi hành vi của con người từ

các hoạt động cơ bắp đơn giản đến những hoạt động phức tạp như học

tập, nhớ, suy luận, tư duy, sáng tạo, ...

- Bộ não người được hình thành từ sự liên kết của khoảng 10 11 phần

tử (tế bào), trong đó có khoảng 1010 phần tử là nơron, số còn lại khoảng

9.1010 phần tử là các tế bào thần kinh đệm và chúng có nhiệm vụ phục vụ

cũng như hỗ trợ cho các nơron. Thông thường một bộ não trung bình cân

nặng khoảng 1,5 kg và có thể tích là 235 cm3 . Cho đến nay người ta vẫn

chưa thực sự biết rõ cấu tạo chi tiết của bộ não. Tuy vậy về đại thể thì cấu

tạo não bộ được phân chia ra thành nhiều vùng khác nhau. Mỗi vùng có

thể kiểm soát một hay nhiều hoạt động của con người.

- Các đặc tính của não người:

+ Tính phân lớp: Các vùng trong bộ não được phân thành các lớp,

thông tin được xử lý theo các tầng.

+ Tính môđun: Các vùng của bộ nhớ được phân thành các môđun

được mã hoá bằng các định nghĩa mối quan hệ tích hợp giữa các tín hiệu

vào qua các giác quan và các tín hiệu ra.

+ Mối liên kết: Liên kết giữa các lớp dẫn đến các dữ liệu dùng chung

xem như các liên hệ phản hồi khi truyền tín hiệu

+ Sử lý phân tán các tín hiệu vào: Các tín hiệu vào được truyền qua

nhiều kênh thông tin khác nhau, được xử lý bằng các phương pháp đặc biệt.

- Bộ não có cấu trúc nhiều lớp. Lớp bên ngoài thường thấy như là các nếp

nhăn, là lớp có cấu tạo phức tạp nhất. Đây là nơi kiểm soát và phát sinh các hành

9

động phức tạp như nghe, nhìn, tư duy, ...

- Cấu trúc của một nơron thần kinh gồm các phần:

+ Myelin là lớp cách nhiệt được bao quanh những Axons của dây thần

kinh. Nhiệm vụ của lớp vỏ Myelin này là giúp việc dẫn truyền các tín hiệu của

các dây thần kinh được nhanh chóng và hiệu quả;

+ Axon của một nơron là một sợi dây đơn giản mang tín hiệu từ Soma

của một Nơron này tới Dendrite hay Soma của một nơron khác;

+ Dendrite của một nơron là những nhánh ngắn chạy từ thân nơron ra,

nhiệm vụ của chúng là tiếp nhận những tín hiệu từ những nơron khác đưa đến

qua những Axons;

+ Khoảng giữa những sợi Myelin được gọi là nút Ranvier;

+ Soma hay thân tế bào nơron gồm một nhân và những cấu trúc khác của

một tế bào;

+ Synapselà nơi hai nơron tiếp xúc nhau. Những thông tin hoá điện giữa

các Nơron xảy ra tại đây.

Hình 1.1 Mô hình nơron sinh học

* Hoạt động của nơron sinh học

- Các tín hiệu đưa ra bởi một khớp nối và được nhận bởi các dây thần

kinh vào là kích thích điện tử. Việc truyền tín hiệu như trên liên quan đến một

quá trình hóa học phức tạp mà trong đó các chất truyền đặc trưng được giải

phóng từ phía gửi của nơi tiếp nối. Điều này làm tăng hay giảm điện thế bên

trong thân của nơron nhận nơron nhận tín hiệu sẽ kích hoạt nếu điện thế vượt

10

ngưỡng nào đó. Và một điện thế hoạt động với cường độ cùng thời gian tồn tại

cố định được gửi ra ngoài thông qua đầu dây thần kinh tới phần dây thần kinh

vào rồi tới chỗ khớp nối để đến nơron khác. Sau khi kích hoạt, nơron sẽ chờ trong một khoảng thời gian được gọi là chu kỳ cho đến khi nó có thể được kích

hoạt lại;

- Có 2 loại khớp nối là khớp nối kích thích và khớp nối ức chế. Khớp nối

kích thích sẽ cho tín hiệu qua nó để tới nơron, còn khớp nối ức chế có tác dụng

làm cản tín hiệu của nơron;

- Cấu trúc mạng nơron luôn thay đổi và phát triển, các thay đổi có khuynh

hướng chủ yếu là làm tăng hay giảm độ mạnh các mối liên kết thông qua các

khớp nối. Các khớp nối đóng vai trò rất quan trọng trong sự học tập. Khi chúng

ta học tập thì hoạt động của các khớp nối được tăng cường, tạo lên nhiều liên

kết mạnh giữa các nơron. Có thể nói rằng người nào học càng giỏi thì càng có

nhiều khớp nối và các khớp nối ấy càng mạnh mẽ, hay nói cách khác thì liên

kết giữa các nơron càng nhiều càng nhạy bén.

1.2 Các cấu trúc mạng nơron

1.2.1 Cấu trúc và mô hình của một nơron nhân tạo

* Tính chất mạng nơron nhân tạo

Nơron nhân tạo là sự sao chép nơron sinh học của não người, nó có những

tính chất sau:

- Là hệ phi tuyến: Mạng nơron có khả năng to lớn trong lĩnh vực nhận

dạng và điều khiển các đối tượng phi tuyến.

- Là hệ xử lý song song: Mạng nơron có cấu trúc song song, do đó có độ

tính toán rất cao rất phù hợp với lĩnh vực nhận dạng và điều khiển.

- Là hệ học và thích nghi: Mạng được luyện từ các số liệu quá khứ và

có khả năng tự chỉnh khi số liệu đầu vào bị mất, có thể điều khiển on-

line.

- Là hệ nhiều biến, nhiều đầu vào, nhiều đầu ra (MIMO), rất tiện dùng

khi đối tượng điều khiển có nhiều biến số.

11

- Có khả năng học và làm xấp xỉ các hàm toán học bất kỳ với độ chính

xác tùy ý

* Cấu trúc của một nơron nhân tạo

Mô hình toán học của mạng nơron sinh học được đề xuất bởi McCulloch

và Pitts [2], thường được gọi là nơron M-P, ngoài ra nó còn được gọi là phần

tử xử lý và được ký hiệu là PE .

Wi1

x1

Hàm truyền

y1

Wi2

f()

Σ

x2 .

.

.

Đầu ra

Hàm tổng

.

.

. Wim

𝜃𝑖

xm

Đầu vào

Trọng số liên kết

Ngưỡng

Mô hình nơron có m đầu vào x1, x2, ..., xm, và một đầu ra yi như sau:

Hình 1.2 Mô hình một nơron nhân tạo

* Giải thích các thành phần cơ bản:

- Tập các đầu vào: Là các tín hiệu vào của nơron, các tín hiệu này thường

được đưa vào dưới dạng một vector m chiều;

- Tập các liên kết (các trọng số): Mỗi liên kết được thể hiện bởi một trọng

số liên kết. Trọng số liên kết giữa tín hiệu vào thứ j cho nơron i thường được

ký hiệu là wij. Thông thường các trọng số này được khởi tạo ngẫu nhiên ở thời

điểm khởi tạo mạng và được cập nhật liên tục trong quá trình học mạng;

- Bộ tổng (hàm tổng): Thường dùng để tính tổng của tích các đầu vào với

trọng số liên kết của nó;

- Ngưỡng: Ngưỡng này thường được đưa vào như một thành phần của

hàm truyền;

- Hàm truyền: Hàm này dùng để giới hạn phạm vi đầu ra của mỗi nơron.

Nó nhận đầu vào là kết quả của hàm tổng và ngưỡng đã cho. Thông thường, 12

phạm vi đầu ra của mỗi nơron được giới hạn trong đoạn [0,1] hoặc [-1,1]. Các

hàm truyền rất đa dạng, có thể là các hàm tuyến tính hoặc phi tuyến. Việc lựa chọn hàm truyền tùy thuộc vào từng bài toán và kinh nghiệm của người thiết

kế mạng;

- Đầu ra: Là tín hiệu đầu ra của một nơron, với mỗi nơron sẽ có tối đa

một đầu ra.

* Về mặt toán học, cấu trúc của một nơron i được mô tả bằng cặp phương

trình sau: y =f(neti -θi ) và neti =∑wijxj

- Trong đó: x1, x2, …xm là các tín hiệu đầu vào, còn wi1, wi2,…,wim là các

trọng số kết nối của Nơron thứ i, neti là hàm tổng, f là hàm truyền, θi là một

ngưỡng, yi là tín hiệu đầu ra của Nơron;

- Như vậy, tương tự như nơron sinh học, nơron nhân tạo cũng nhận các

tín hiệu đầu vào, xử lý (nhân các tín hiệu này với trọng số liên kết, tính tổng

các tích thu được rồi gửi kết quả đến hàm truyền), và cho một tín hiệu đầu ra

(là kết quả của hàm truyền).

* Hàm truyền có thể có các dạng sau:

(1.1) Hàm bước: 𝑦 = { 1 𝑘ℎ𝑖 𝑥 ≥ 0 0 𝑘ℎ𝑖 𝑥 < 0

(1.2) Hàm giới hạn chặt: 𝑦 = 𝑠𝑔𝑛(𝑥) = {

(1.3) Hàm bậc thang: 𝑦 = 𝑠𝑔𝑛(𝑥) = {

1

1 𝑘ℎ𝑖 𝑥 ≥ 0 −1 𝑘ℎ𝑖 𝑥 < 0 1 𝑘ℎ𝑖 𝑥 ≥ 1 𝑥 𝑘ℎ𝑖 0 ≤ 𝑥 ≤ 1 −1 𝑘ℎ𝑖 𝑥 < 0

1+𝑒𝜆𝑥

2

(1.4) Hàm ngưỡng đơn cực: 𝑦 = với 𝜆 > 0

1+𝑒𝜆𝑥 − 1

(1.5) Hàm ngưỡng hai cực: 𝑦 = với 𝜆 > 0

13

Đồ thị các dạng hàm truyền được biểu diễn như sau:

y

y

y

+1

+1

1

x

x

x

+1

0

0

0

(a) Hàm bước

-1 (b) Hàm giới hạn chặt

(c) Hàm bậc thang

y

y

1

+1

x

x

0

-1

-1

(d) Hàm ngưỡng đơn cực

(e) Hàm ngưỡng hai cực

Hình 1.3 Đồ thị các dạng hàm truyền

* Mô hình của mạng nơron nhân tạo

- Dựa trên những phương pháp xây dựng nơron đã trình bày ở mục trên,

ta có thể hình dung mạng nơron như là một hệ truyền đạt và xử lý tín hiệu. Đặc

tính truyền đạt của nơron phần lớn là đặc tính truyền đạt tĩnh;

- Khi liên kết các đầu vào/ra của nhiều nơron với nhau, ta thu được một

mạng nơron, việc ghép nối các nơron trong mạng với nhau có thể là theo một

nguyên tắc bất kỳ. Vì mạng nơron là một hệ truyền đạt và xử lý tín hiệu, nên

có thể phân biệt các loại nơron khác nhau, các nơron có đầu vào nhận thông tin

từ môi trường bên ngoài khác với các nơron có đầu vào được nối với các nơron

khác trong mạng, chúng được phân biệt với nhau qua vector trọng số ở đầu vào

w;

- Nguyên lý cấu tạo của mạng nơron bao gồm nhiều lớp, mỗi lớp bao

gồm nhiều nơron có cùng chức năng trong mạng. Hình 1.4 là mô hình hoạt

động của một mạng nơron 3 lớp với 8 phần tử nơron. Mạng có ba đầu vào là

x1, x2, x3 và hai đầu ra y1, y2. Các tín hiệu đầu vào được đưa đến 3 nơron đầu

14

vào, 3 nơron này làm thành lớp đầu vào của mạng. Các nơron trong lớp này

được gọi là nơron đầu vào. Đầu ra của các nơron này được đưa đến đầu vào

của 3 nơron tiếp theo, 3 nơron này không trực tiếp tiếp xúc với môi trường bên ngoài mà làm thành lớp ẩn, hay còn gọi là lớp trung gian. Các nơron trong lớp

này có tên là nơron nội hay nơron ẩn. Đầu ra của các nơron này được đưa đến

2 nơron đưa tín hiệu ra môi trường bên ngoài. Các nơron trong lớp đầu ra này

Lớp vào

Lớp ẩn

Lớp ra

x1

y1

x2

y2

xm

được gọi là nơron đầu ra.

Hình 1.4 Mạng nơron 3 lớp

- Mạng nơron được xây dựng như trên là mạng gồm 3 lớp mắc nối tiếp

nhau đi từ đầu vào đến đầu ra. Trong mạng không tồn tại bất kỳ một mạch hồi

tiếp nào. Một mạng nơron có cấu trúc như vậy gọi là mạng một hướng hay

mạng truyền thẳng một hướng và có cấu trúc mạng ghép nối hoàn toàn (vì bất

cứ một nơron nào trong mạng cũng được nối với một hoặc vài Nơron khác).

Mạng nơron bao gồm một hay nhiều lớp trung gian được gọi là mạng Multilayer

Perceptrons (MLP-Network);

- Mạng nơron khi mới được hình thành thì chưa có tri thức, tri thức của

mạng sẽ được hình thành dần dần sau một quá trình học. Mạng nơron được học

bằng cách đưa vào những kích thích, và mạng hình thành những đáp ứng tương

ứng, những đáp ứng tương ứng phù hợp với từng loại kích thích sẽ được lưu

trữ. Giai đoạn này được gọi là giai đoạn học của mạng. Khi đã hình thành tri

15

thức mạng, mạng có thể giải quyết các vấn đề một cách đúng đắn. Đó có thể là

vấn đề ứng dụng rất khác nhau, được giải quyết chủ yếu dựa trên sự tổ chức

hợp nhất giữa các thông tin đầu vào của mạng và các đáp ứng đầu ra;

- Nếu nhiệm vụ của một mạng là hoàn chỉnh hoặc hiệu chỉnh các thông

tin thu được không đầy đủ hoặc bị tác động của nhiễu. Mạng nơron kiểu này

được ứng dụng trong lĩnh vực hoàn thiện mẫu, trong đó có một ứng dụng cụ

thể là nhận dạng chữ viết;

- Nhiệm vụ tổng quát của một mạng nơron là lưu giữ động các thông tin.

Dạng thông tin lưu giữ này chính là quan hệ giữa các thông tin đầu vào và các

đáp ứng đầu ra tương ứng, để khi có một kích thích bất kỳ tác động vào mạng,

mạng có khả năng suy diễn và đưa ra một đáp ứng phù hợp. Đây chính là chức

năng nhận dạng theo mẫu của mạng nơron. Để thực hiện chức năng này, mạng

nơron đóng vai trò như một bộ phận tổ chức các nhóm thông tin đầu vào, và

tương ứng với mỗi nhóm là một đáp ứng đầu ra phù hợp. Như vậy, một nhóm

bao gồm một loại thông tin đầu vào và một đáp ứng đầu ra. Các nhóm có thể

được hình thành trong quá trình học, và cũng có thể không hình thành trong

quá trình học.

Như vậy, đối với mạng 3 lớp có thể được huấn luyện để làm xấp xỉ một

hàm bất kỳ.

1.2.2 Mạng nơron một lớp

- Mỗi một nơron có thể phối hợp với các nơron khác tạo thành một lớp

các trọng số. Mạng một lớp truyền thẳng như hình 1.5. Một lớp nơron là một

nhóm các nơron mà chúng đều có cùng trọng số, nhận cùng một tín hiệu đầu

vào đồng thời;

- Trong ma trận trọng số, các hàng là thể hiện nơron, hàng thứ j có thể

đặt nhãn như một vector wj của nơron thứ j gồm m trọng số wji. Các trọng số

trong cùng một cột thứ j (j=1,2,...,n) đồng thời cùng nhận một tín hiệu đầu vào

xj.

16

wj = [wj1, wj2, ..., wjm]

- Tại cùng một thời điểm, vector đầu vào x = [x1, x2,..., xn] có thể là một

nguồn bên ngoài là cảm biến hoặc thiết bị đo lường đưa tới mạng.

Hình 1.5 Mạng truyền thẳng một lớp

Hình 1.6 Mạng hồi tiếp một lớp

Hình 1.7 Mạng truyền thẳng nhiều lớp

1.2.3 Mạng nơron truyền thẳng nhiều lớp

Mạng nơron nhiều lớp hình 1.7 có các lớp được phân chia thành 3 loại

sau đây:

- Lớp vào là lớp nơron đầu tiên nhận tín hiệu vào xi (i = 1, 2, ..., n). Mỗi

tín hiệu xi được đưa đến tất cả các nơron của lớp đầu vào. Thông thường các

nơron đầu vào không làm biến đổi các tín hiệu vào x i, tức là chúng không có

các trọng số hoặc không có các loại hàm chuyển đổi nào, chúng chỉ đóng vai

17

trò phân phối các tín hiệu;

- Lớp ẩn là lớp nơron sau lớp vào, chúng không trực tiếp liên hệ với thế

giới bên ngoài như các lớp nơron vào/ra;

- Lớp ra là lớp nơron tạo ra các tín hiệu ra cuối cùng.

1.2.4 Mạng Hopfield

Mạng Hopfield là mạng phản hồi một lớp, được chỉ ra trong hình 1.6.

Cấu trúc chi tiết của nó được thể hiện trong hình 1.8. Khi hoạt động với tín

hiệu rời rạc, nó được gọi là mạng Hopfield rời rạc, và cấu trúc của nó cũng

w1n

xn

Wn2

w12

x2

x1

wn1

…..

w2n

w21

𝜃𝑛

𝜃1

𝜃2

yn

y1

y2

được gọi là mạng hồi quy.

Hình 1.8 Cấu trúc mạng hopfield

- Như mạng hopfield trên hình 1.8, ta thấy nút có một đầu vào bên ngoài

xj và một giá trị ngưỡng Өj (j = 1,2,...n). Một điều quan trọng cần nói ở đây là

mỗi nút không có đường phản hồi về chính nó. Nút đầu ra thứ j được nối tới

mỗi đầu vào của nút khác qua trọng số wij với ij (i = 1,2,...,n), hay nói cách

khác wii = 0 (với i = 1,2,...,n);

- Một điều quan trọng nữa là trọng số của mạng Hopfield là đối xứng,

tức là wij = wji (với i,j = 1,2,...,n). Khi đó, luật cập nhật cho mỗi nút mạng là

như sau:

+ Luật cập nhật trên được tính toán trong cách thức không đồng bộ. Điều

này có nghĩa là, với một thời gian cho trước, chỉ có một nút mạng cập nhật

18

được đầu ra của nó. Sự cập nhật tiếp theo trên một nút sẽ sử dụng chính những

đầu ra đã được cập nhật. Nói cách khác dưới hình thức hoạt động không đồng

bộ của mạng, mỗi đầu ra được cập nhật độc lập;

+ Có sự khác biệt giữa luật cập nhật đồng bộ và luật cập nhật không đồng

bộ. Với luật cập nhật không đồng bộ thì sẽ chỉ có một trạng thái cân bằng của

hệ (với giá trị đầu đã được xác định trước). Trong khi đó, với luật cập nhật

(1.6)

đồng bộ thì có thể làm mạng hội tụ ở mỗi điểm cố định hoặc một vòng giới hạn.

𝑘 + 𝑥𝑖

(𝑘+1) = 𝑠𝑛𝑔 (∑ 𝑤𝑖,𝑗𝑦𝑗 𝑦𝑖

𝑛 𝑖=1 𝑗≠1

19

− 𝜃) 𝑖 = 1,2, … . . , 𝑛

CHƯƠNG II

MẠNG NƠRON WAVELET VÀ CÁC THUẬT TOÁN HỌC

2.1 Phép biến đổi wavelet liên tục

2.1.1 Giới thiệu

Trong xử lý tín hiệu, phép biến đổi Fourier (FT, Fourier Transform) là

một công cụ toán học quan trọng vì nó là cầu nối cho việc biều diễn tín hiệu

giữa miền không gian và miền tần số; việc biểu diễn tín hiệu trong miền tần số

đôi khi có lợi hơn là việc biểu diễn trong miền không gian. Hình 2.1 biếu diễn

tín hiệu theo thời gian, hình 2.2 biểu diễn phép biến đổi Fourier của tín hiệu

trong miền tần sổ [6]. Tuy nhiên, phép biến đổi Fourier chỉ cung cấp thông tin

có tính toàn cục và chỉ thích hợp cho những tín hiệu tuần hoàn, không chứa các

đột biến hoặc các thay đổi không dự báo được. Trong hình 2.2, phổ của f(t) cho

thấy các thành phẩn tần số cấu thành tín hiệu nhưng không cho biết các tẩn số

nảy xuất hiện ở đâu. Để khắc phục khuyết điểm này, Gabor, D đã áp dụng phép

biến đối Fourier cửa sổ (WFT, Windowed Fourier Transform) cho từng đoạn

nhỏ của tín hiệu (cửa sổ); phép biến đổi này cho thấy mối liên hệ giữa không

gian vả tần số nhưng bị khống chế bởi nguyên lý bất định Heisengber cho các

thành phần tần số cao và tần số thấp trong tín hiệu. Phép biến đổi wavelet là

bước tiếp theo để khắc phục hạn chế này.

Hình 2.1 Tín hiệu f(t)

20

Hình 2.2 Biến đổi Fourier của tín hiệu f(t)

Năm 1975, Morlet, J, phát triển phương pháp đa phân giải

(multiresolution); trong đó, ông ta sử dụng một xung dao động, được hiểu là

một “wavelet” (dịch theo từ gốc của nó là một sóng nhỏ) cho thay đổi kích

thước và so sánh với tín hiệu ở từng đoạn riêng biệt. Kỹ thuật này bắt đầu với

sóng nhỏ (wavelet) chứa các dao động tần số khá thấp, sóng nhỏ này được so

sánh với tín hiệu phân tích để có một bức tranh toàn cục của tín hiệu ở độ phân

giải thô. Sau đó sống nhỏ đượcc nén lại để nâng cao dần tần số dao động. Quá

trình này được gọi là làm thay đổi tỉ lệ (scale) phân tích; khi thực hiện tiếp

bước so sánh, tín hiệu sẽ được nghiên cứu chi tiết ở các độ phân giải cao hơn,

giúp phát hiện các thành phần biến thiên nhanh còn ẩn bên trong tín hiệu;

Sau đây, tôi xin trình bày về phép biến đổi wavelet liên tục thuận và

nghịch đồng thời trình bày một số các thuộc tính cơ bản của các hàm wavelet

để có thể vận dụng trong các bài toán cụ thể. Các công trình nghiên cứu của

phép biến đổi wavelet liên tục áp dụng trong việc phân tích định lượng.

2.1.2 Phép biến đổi wavelet thuận

Gọi f(x) là tín hiệu 1-D, phép biến đổi wavelet liên tục của f(x) sử dụng

∗ (

+∞ ∫ −∞

𝑠

(2.1) 𝑊(𝑠, 𝑏) = ) 𝑑𝑥 𝑓(𝑥). Ψ0 hàm wavelet Ψ0 đưọc biểu diễn bởi: 𝑥−𝑏 1 √𝑠

Trong đó:

- W(s, b) là hệ số biến đổi wavelet liên tục của f(x), với s là tỉ lệ (nghịch

21

đảo của tần số) và b là dịch chuyến đặt trưng vị trí.

∗(𝑥) được gọi là hàm wavelet

∗ là hàm liên hiệp phức của wavelet Ψ0

− Ψ0 phân tích.

Phương trình (2.1) cho thấy, phép biến đổi wavelet là một ánh xạ chuyển

từ hàm một biến f(x) thành hàm W(s, b) phụ thuộc hai biến số là biến tỉ lệ s và

biến dịch chuyển b. Hệ số chuẩn hóa 1/(√𝑠) trong Phương trình 1.7 đảm bảo

cho sự chuẩn hóa song wavelet với các tỉ lệ phân tích s khác nhau ‖Ψ0(𝑠,𝑏)‖ =

‖Ψ0‖

Phép biến đổi wavelet có tính linh động cao so với phép biến đổi Fourier

(sử dụng duy nhất hàm mũ) vì không nhất thiết phải sử dụng một hàm wavelet

cố định, mà có thể lựa chọn các hàm wavelet khác nhau trong họ hàm wavelet

sao cho thích hợp với bài toán (hình dạng của hàm wavelet phù hợp với tín hiệu

cần phân tích) để kết quả phân tích là tốt nhất [7]. Hiện nay, người ta đã xây

dụng được khoản vài chục các họ hàm wavelet khác nhau nhằm áp dụng cho

nhiều mục đích phân tích đa dạng. Hình 2.3 đồ thị của ba hàm wavelet là hàm

wavelet Har, hàm wavelet doubechies 5 và hàm wavelet Morlet

Phương trình 2.1 có thể viết lại dưới dạng tích trong (inner product) như

sau:

(2.2) 𝑤(𝑠, 𝑏) = 〈𝑓(𝑥), Ψ0(𝑠,𝑏)(𝑥)〉

1

𝑥−𝑏

Trong đó:

𝑠

√𝑠

c)

a)

b)

(2.3) ) Ψ0(𝑠,𝑏)(𝑥) = Ψ0 (

Hình 2.3 Ba dạng hàm wavelet

22

(a) Wavelet Harr, (b) Wavelet Daubechies 5, (c) Wavelet Morlet

2.1.3 Các tính chất của hàm wavelet

2.1.3.1 Tính chất sóng

Hàm wavelet phức (tổng quát) Ψ0 được xứ hoàn toàn trong cả hai miền:

miền không gian và miền tỉ lệ (ghịch đảo tần số) và đồng thời phải thỏa mãn

tính chất song, nghĩa là dao động với giá trị trung bình của hàm Wavelet bằng

0.

+∞ ∫ Ψ0(𝑦)𝑑𝑦 = 0 −∞

(2.4)

Như vậy, wavelet là dạng song nhỏ có không gian tồn tại hữu hạn và có

giá trị trung bình bằng không. Hệ quả từ tính chất song của hàm wavelet dẫn

đến sự độc lập của phép biến đổi wavelet đối với tất cả các hàm được phân tích.

𝑥−𝑏

Lưu ý rằng khi sử dụng phép biến đổi wavelet liên tục, phải chuẩn hóa

𝑠

) trọng một vùng không gian giới hạn phiên bản của hàm wavelet là Ψ0(

được qui định bởi kích thước cửa sổ: bên ngoài vùng giới hạn hàm wavelet

triệu tiêu. Vậy phép biến đổi wavelet liên tục cung cấp những thông tin về sự

thay đổi cục bộ ở vùng đang khảo sát mà chúng ta không cần quan tâm đến

biến đổi toàn cục của hàm wavelet.

2.1.3.2 Đặc trưng về năng lượng

Năng lượng tổng của tín hiệu f(x) được định nghĩa bởi phương trình sâu:

+∞ −∞

(2.5) |𝑓(𝑥)|2𝑑𝑥 = ‖𝑓(𝑥)‖2 𝐸 = ∫

Tín hiệu có năng lượng xác định khi phương trình 2.5 nhận giá trị xác

định.

Hàm sóng wavelet có đặc trưng về năng lượng được chuẩn hóa bằng đơn

vị cho mọi tỉ lệ s. Vậy, tính chất thứ hai của hàm wavelet là:

+∞ ∫ −∞

(2.6) |Ψ0(𝑦)|2𝑑𝑦 = 1

2.1.3.3 Biểu diễn các hệ số wavelet

Có hai cách biểu diễn các hệ số wavelet. Thứ nhất, biểu diễn các hệ số

wavelet W(s,b) trong hệ tọa độ ba trục vuông góc (x,y,z) với trục x biểu diễn

23

tham số dịch chuyển (vị trí) b, trục y biểu diễn tham số tỉ lệ (là nghịch đảo tần

số) s và trục thẳng đứng z biểu diễn hệ số wavelet W. Hình 2.4 mô tả cách biểu

diễn các hệ số W(s,b) trọng hệ tọa độ ba trục vuông góc, trên hình này, dễ dàng xác định vị trí hiện diện của các thành phần tần số (nghịch đảo của tỉ lệ). Thứ

hai, biểu diễn các hệ số W(s,b) trong mặt phẳng không gian – tỉ lệ (x,s) (gọi là

tỉ lệ đồ) ở dạng các đường đẳng trị hay ở dạng ảnh; các biểu diễn này thông

dụng trong xử lý ảnh. Hình 2.5 mô tả các biểu diễn các hệ số W(s,b) trong tỉ lệ

đồ ở dạng các đường đẳng trị modun và pha. Hình 2.6 mô tả các biểu diễn các

hệ số W(s,b) trong tỉ lệ đồ dạng ảnh.

Hìnhg2.4 Biểu diễn hệ số wavelet trong hệ tọa độ ba trục vuông góc

Hình 2.5 Biểu diễn hệ số wavelet trong tỉ lệ đồ ở dạng các đường đẳng trị

Hình 2.6 Biểu diễn hệ số wavelet trong tỉ lệ đồ ở dạng ảnh

24

2.1.4 Phép biến đổi wavelet nghịch

Tương tự như phép biến đổi Fourier, phép biến đổi wavelet liên tục có tính

thuận nghịch. Nếu phép biến đổi wavelet thuận có dạng (1.7) thì phép biến đổi

1

𝑥−𝑏

wavelet nghịch có dạng:

+∞ ∫ −∞

+∞ ∫ −∞

𝑠

𝑠

1 𝐶𝑔

(2.7) 𝑓(𝑥) = 𝑑𝑏 )𝑑𝑠 𝑊(𝑠, 𝑏)Ψ0(

Trong đó:

- cg là hằng số phục thuộc và hàm wavelet được sử dụng.

Phương trình (2.7) cho phép khôi phục lại tín hiệu nguyên thủy từ các hệ

số biến đổi wavelet bằng phép tính tích phân theo toàn bộ các tham số tỉ lệ s và

dịch chuyển b. Trong (2.7), hàm wavelet Ψ0 được sử dụng sao cho hàm liên hiệp

phức của nó trong phương trình 2.1.

Trong thực tế, việc khôi phục chính xác tín hiệu gốc từ phép biểu đổi

wavelet gặp khó khăn (không giống như việc khôi phục tín hiệu từ phép biến đổi

Fourier). Theo Vecsey, L việc khôi phục tín hiệu gốc từ phép biến đổi wavelet sẽ

cho kết quả chính xác khi phương trình sau đây được thỏa:

1 2 < ∞ }

+∞ −∞

‖Ψ(ω)‖2 ‖𝜔‖

(2.8) 𝑑𝜔 𝑐𝑔 = {2𝜋 ∫

Trong đó:

Ψ(𝜔) là biến đổi Fourier của hàm Ψ(𝑥)

2.1.5 Phép biến đổi wavelet liên tục hai chiều và nhiều chiều

1

𝑅−𝐵

Phép biến đổi wavelet 2-D được cho bởi phương trình:

∗ (

+∞ ∫ −∞

𝑠

𝑠

(2.9) 𝑊(𝑠, 𝐵) = ) 𝑑𝑅 𝑓(𝑅). Ψ0

Trong đó

2 2 + 𝑥2

2 2 + 𝑏2

- R(x1, x2) là véctơ tọa độ gồm hai phần là x1 và x2 thỏa hệ thức: 𝑅2 = 𝑥1

- B(b1,b2) là véctơ vị trí , có hai thành phần thhoar hệ thức: 𝐵2 = 𝑏1 Hệ số (1/s) để chuẩn hóa năng lượng của sóng Wavelet 2-D, được suy ra từ

25

trường hợp 1-D. Tín hiệu f(R) làm hàm theo hai biến không gian x1 và x2.

1

𝑅−𝐵

Phép biến đổi Wavelet nghịch 2-D được viết dưới dạng.

+∞ ∫ −∞

𝑠3 𝑊(𝑠, 𝑏)Ψ0(

𝑠

1 𝐶𝑔

(2.10) 𝑓(𝑅) = )𝑑𝑠

So với phương trình biển đổi wavelet nghịch 1-D cho bởi (2.7), phương

trình (2.3) xuất hiện số hạng (1/s3) thay cho số hạng (1/s) do nguyên nhân co giãn

1

𝑅−𝐵

và dịch chuyển của hàm wavelet trong phép biến dổi 2-D:

𝑠

𝑠

(2.11) ) Ψ0(𝑠,𝑏)(𝑅) = Ψ0(

Phép biến đổi wavelet n chiều (n>2) có thể xây dựng đơn giản bằng các mở

rộng phần tử trong các véctơ R và B đến n giá trị theo các biểu diễn:

(2.12) 𝑅(𝑥1, 𝑥2, … . 𝑥𝑛) và 𝐵(𝑏1, 𝑏2, … . 𝑏𝑛)

Để đảm bảo sự bảo toàn năng lượng của sống wavelet, trong phép biến đổi

wavelet n-D, cần hiệu chỉnh lại số hạng trước phân tích dưới dạng 1/s(n/2). Do đó,

𝑅−𝐵

hàm wavelet Ψ0(𝑠,𝐵)(𝑅) trong không gian n-D được viết ở dạng:

(

𝑠

1 𝑛 ) 2

𝑠

(2.13) ) Ψ0(𝑠,𝐵)(𝑅) = Ψ0(

𝑅−𝐵

Nên phép biến đổi wavelet trong n-D được viết lại dưới dạng:

∗ (

+∞ −∞

1 𝑠(𝑛/2) ∫

𝑠

(2.14) 𝑊(𝑠, 𝐵) = ) 𝑑𝑅 𝑓(𝑅). Ψ0

1

𝑅−𝐵

Và phép biến đổi wavelet nghịch của nó trong n-D có dạng:

+∞ ∫ −∞

+∞ ∫ −∞

𝑠𝑛+1 𝑊(𝑠, 𝑏)Ψ0(

𝑠

1 𝐶𝑔

(2.15) 𝑓(𝑅) = 𝑑𝐵 )𝑑𝑠

2.1.6 Tiêu chuẩn chọn hàm wavelet

Ưu điểm chính của phép biến đỏi wavelet là phân tích chi tiết từng vùng

không gian rất nhỏ trong vùng biến đổi rộng của tín hiệu khảo sát. Sự địa phương

hóa trong phân tích giúp phát hiện vị trí các điểm đứt gãy, các điểm gián đoạn với

độ dốc lớn nếu hàm wavelet được chọn đồng dạng với tín hiệu. Ngoài yếu tố trên,

các yếu tố khác cũng giữ vai trò quan trọng, cần được xem xét kỹ trước khi chọn

một hàm wavelet để phân tích.

1.2.6.1 Hàm wavelet trực giao hay hàm wavelet không trực giao

Các hàm wavelet trực giao, gọi là cơ sở wavelet trực giao, thường được

sử dụng cho phép biến đổi wavelet rời rạc (sẽ trình bày sau) và nó rất tiện dụng 26

cho việc tái tạo lại tín hiệu ban đầu sau quá trình nén dữ liệu. Các hàm wavelet

trực giao Coiflets (viết tắt là Coif), đó là các wavelet trực giao và chuẩn hóa,

cho phép thực hiện các biến đổi wavelet liên tục cũng như rời rạc. Ngược lại,

các hàm wavelet không trực giao thường được sử dụng cho phép biến đổi

wavelet liên tục vì nó thích hợp để phát hiện các tính chất đặc trưng của tín hiệu.

1.2.6.2 Hàm wavelet phức hay hàm wavelet thực

Hàm wavelet phức cho bốn thông tin về phần thực, phần ảo, độ lớn và

pha của tín hiệu. Nó thích hợp khi phân tích các tín hiệu dao động mạnh. Hàm

wavelet thực, chỉ cung cấp thông tin về độ lớn của tín hiệu nên thích hợp cho

việc phát hiện các điểm gián đoạn hay các đỉnh cực đại của tín hiệu.

2.1.6.3 Độ rộng

Quan hệ giữa độ rộng của hàm wavelet trong miền không gian và độ rộng

trong miền tần số cho bởi nguyên lý bất định Heisenberg – Gabor. Nếu hàm

wavelet bị hẹp về độ rộng trong miền không gian thì ngược lại, độ rộng của phổ

tần số sẽ tăng lên. Vậy độ phân giải tối ưu trong miền tần số sẽ tương ứng với độ

phân giải rất hạn chế trong miền không gian và ngược lại. Hình 2.7 (a) mô tả ba

cung wavelet Mexican ứng với tỉ lệ s khác nhau và hình 2.7 (b) là phổ Fourier

tương ứng của ba xung wavelet nêu trên. So sánh các đồ thị có cùng tỉ lệ s ta thấy,

khi xung Wavelet có dạng nở rộng (đồ thị thứ 3 trên hình 2.7 (a)) thì phổ tần số

tương ứng của nó lại có dạng rất hẹp (đồ thị thứ 3 trên hình 2.7 (b))

Hình 2.7 Hàm wavelet mexican ở ba tỉ lệ s khác nhau

(a) Các hàm wavelet mexican với tỉ lệ s lần lượt là 1,2 và 3

27

(b) Phổ Fourier của hàm wavelet mexican với tỉ lệ s là 1,2 và 3

2.1.6.4 Hàm wavelet chẵn và hàm wavelet lẻ

- Khi sử dụng các hàm wavelet thực, cần phân biệt hàm wavelet chẵn hay

hàm wavelet lẻ. Sử dụng hàm wavelet lẻ, chúng ta có thể xác định chính xác nơi

xuất hiện và kết thúc của tín hiệu có dạng giống hàm wavelet. Hàm wavelet chẵn

sử dụng để xác định các đỉnh cực đại trên tín hiệu;

Hình 2.8 Biến đổi wavelet của tín hiệu sử dụng hàm wavelet chẵn và lẻ

(a) Hình trên là tín hiệu f(x), hình dưới là biến đổi wavelet của tín hiệu sử dụng hàm

wavelet là đạo hàm bậc nhất của hàm Gauss

(b) Hình trên là tín hiệu f(x), hình dưới là biến đổi wavelet của tín hiệu sử dụng hàm

wavelet là đạo hàm bậc hai của hàm Gauss

- Hình 2.8(a) là phép biến đổi wavelet của tín hiệu có dạng hình hộp sử

dụng hàm tạo ra từ đạo hàm bậc nhất của hàm Gauss; lúc này, hàm wavelet là lẻ

và dựa vào đồ thị có thể chỉ ra trực tiếp vị tri của các bờ biên. Hình 2.8(b) là phép

biến đổi wavelet của tín hiệu sử dụng hàm tạo ra từ đạo hàm bậc hai của hàm

Gauss; lúc này, hàm wavelet là chẵn nên thích hợp cho việc xác định vị trí của đỉnh;

- Hơn hai mươi năm qua, phép biến đổi wavelet đã được áp dụng và phát

triển mạnh mẽ góp phần quan trọng trong việc phân tích tài liệu ở nhiều lĩnh vực

khác nhau trong đó có việc phân tích tài liệu từ (và trọng lực). Trong chương này,

tôi đã trình bày tổng quát về lý thuyết cơ bản của phép biến đổi wavelet liên tục

và việc tính toán để hạn chế tác động của hiệu ứng biên. Ngoài ra, tôi cũng trình

28

bày tóm lược về phép biến đổi wavelet rời rạc và các ứng dụng của nó để tách

trường và lọc nhiễu trong phân tích tài liệu từ và trọng lực.

2.2 Mạng nơron wavelet

- Trong những thập kỷ qua, các mạng nơron đã được thiết lập như là một

công cụ ướ c chừ ng chung cho các mô hình phi tuyến tính trù ng khớ p từ dữ liệu

đầu vào, đầu ra. Một mạng nơron xuất phát từ sức mạnh tính toán thông qua cấu

trúc được phân bổ song song một cách ồ ạt và khả năng nghiên cứu của nó. Tuy

nhiên, việc thực hiện của các mạng nơron bị thiếu hụt các phương pháp xây dựng

hiệu quả, cả hai xác định các thông số của các nơron và cho việc lựa chọn những

cấu trúc mạng. Mạng nơron nhân tạo đã hạn chế khả năng mô tả đặc tính riêng

của một chuỗi thời điểm, nó i chung là rất quan trọng để phân loại chính xác hay

mô phỏng các chuỗi. Bởi các tính năng này thường bị biệt lập theo thời gian và/hay

tần số, sử dụng những sóng nhỏ cho phép mạng nơron tận dụng lợi thế của việc

phân tích đa phân giải được cung cấp bởi những sóng nhỏ để tập trung mạng lưới

vào các tính năng cục bộ;

- Những kỹ thuật sóng nhỏ có thể cung cấp thêm cái nhìn sâu sắc và hiệu

quả trong các tình huống phân tích dữ liệu mà các kỹ thuật Fourier đã được sử

dụng trước đây. Ý tưởng sử dụng những sóng nhỏ trong các mạng nơron được đề

xuất bởi Zhang và Benveniste [3]. Zhang và cộng sự được mô tả như một mạng

nơron dựa trên sóng nhỏ cho nghiên cứu hàm số và lập dự toán, và cấu trúc của

mạng này là tương tự như của mạng RBF ngoại trừ các hàm số tỏa tròn được thay

thế bởi các hàm số xác định tỷ xích trực chuẩn. Từ quan điểm của đại diện hàm

số, những mạng lưới RBF truyền thống có thể đại diện cho bất kỳ hàm sốnào trong

không gian được nối lại bởi các hệ thốnghàm số cơ bản.Tuy nhiên, các hàm số cơ

bản trong hệ thống thường không trực giao và là dư thừa.Nó có nghĩa rằng đại

diện mạng RBF cho một hàm số nhất định không phải là duy nhất và có lẽ không

phải là hiệu quả nhất. Bakshi và Stephanopoulos đã trình bày một cách sáng tạo

về một mạng nơron wavelet trực giao cho sự xấp xỉ và phương pháp phân loại dựa

29

trên phân tích đa phân giải;

- Những sóng nhỏ (wavelets) đã trở thành một chủ đề rất tích cực trong

nhiều lĩnh vực nghiên cứu khoa học cụ thể và kỹ thuật. Đặc biệt, những mạng nơron sóng nhỏ (Wavelet Neural Networks), được lấy cảm hứng từ cả thức ăn –

hướng đến mạng nơron và sự phân tách sóng nhỏ, đã nhận được sự chú ý đáng kể

và trở thành một công cụ phổ biến cho phép tính xấp xỉ hàm số. Đặc điểm chính

của mạng nơron wavelet là dường như trái ngược với mạng nơron cổ điển sử dụng

các hàm số kích hoạt dựa trên đường xích ma, chúng thường sử dụng DWT - rút

ra từ một hệ thống của những sóng nhỏ trực giao - như hàm số kích hoạt cho các

nơron ở lớp bị ẩn đi thay vì hàm xích ma bình thường. Mỗi nơron trong lớp ẩn đại

diện cho một hệ số sóng nhỏ. Kể từ sự biến đổi của sóng nhỏ dẫn đến kết quả

trong một đại diện thưa thớt, không phải tất cả các hệ số sóng nhỏ là cần thiết cho

một sự tái thiết lập chính xác của tín hiệu ban đầu. Trong thực tế, bao gồm của tất

cả các hệ số có khả năng sẽ gây ra qua việc đào tạo các mạng nơron, và dẫn đến

sự hội tụ kém. Vì lý do này, các hệ số sóng nhỏ mà không đóng góp vào các tính

năng riêng của tín hiệu được xác định trong quá trình đào tạo lặp đi lặp lại của

mạng nơron wavelet, và tế bào thần kinh tương ứng của chúng được thu gọn từ

mạng. Cấu trúc đơn giản nhất của mạng nơron wavelet rất giống với mạng nơron

như trong hình 2.9 trong đó mỗi tế bào thần kinh thường được áp dụng cho tất cả

các biến vào. Ở đây, những lớp ẩn bao gồm các tế bào nơron, thường được quy

cho là những sóng nhỏ.

Lớp đầu vào Lớp sóng nhỏ Lớp đầu ra

Hình 2.9 Cấu trúc của mạng nơron sóng nhỏ

30

Mạng nơron sóng nhỏ bao gồm ba lớp: lớp đầu vào, lớp ẩn và lớp đầu ra.

Những kết nối giữa các đơn vị đầu vào và các đơn vị ẩn, và giữa các đơn vị ẩn và các đơn vị đầu ra được gọi theo thứ tự là trọng số vjp và Wj. Trong mạng Nơron

sóng nhỏ này, quy trình hướng dẫn được miêu tả như sau:

- Ban đầu tham số giãn nở mj, tham số tịnh tiến nj, và nút giao điểm có trọng

số vjp,Wj đến một vài giá trị ngẫu nhiên. Tất cả những giá trị ngẫu nhiên được giới

d, trong đó p

hạn trong khoảng (0, 1).

- Dữ liệu đầu vào xp(t) và những giá trị đầu ra tương ứng yt

biến thiên từ 1 đến P, đại diện cho số lượng của các nút đầu vào, t đại diện cho

mẫu dữ liệu thứ t của tập hướng dẫn, và d đại diện cho trạng thái đầu ra được

mong muốn;

N

- Giá trị đầu ra của ví dụ t, ŷ t được tính toán theo phương trình sau:

P p=1

p − mj vjp xt nj

j=1

∑ ( ) (2.16) ŷ𝑡 = ∑ Wjφ

Tại đó φ được xem là hàm wavelet gốc, như bộ lọc hàm wavelet morlet

được minh họa ở hình 3.3 và được biểu diễn bởi phương trình:

1

0.5

0

-0.5

-4

-3

-2

2

-1

0

1

3

4

-1

𝜑(x) = cos( 2𝜇𝛽x )exp ( −0.5x2 ) (2.17)

Hình 2.10 Hàm wavelet morlet cơ bản

31

Để giảm sai số thì vjp, wj, mj, nj được điều chỉnh thành ∆v, ∆w, ∆m, ∆n. Trong

mạng nơron wavelet, thực hiện thuật giảm gradient (gradient descent) thông qua

∆Wj(t + 1) = −η

+ ξ∆Wj(t)

∂Et ∂Wj(t)

∆vjp(t + 1) = −η

+ ξ∆vjp(t) (2.18)

∂Et ∂vjp(t)

∆mj(t + 1) = −η

+ ξ∆mj(t)

∂Et ∂mj(t)

∆nj(t + 1) = −η

+ ξ∆nj(t)

∂Et ∂nj(t)

những phương trình sau:

2

(2.19)

d − ŷ𝑡)

Et =

1 2

M ∑(yt t=1

Trong đó hàm sai số E diễn tả:

M là số lượng dữ liệu của tập huấn luyện. η và ξ là tỷ lệ học và động lượng

tương ứng.

- Quá trình này tiếp tục cho đến khi E đáp ứng yêu cầu được đưa ra, và toàn

bộ huẩn luyện của mạng nơron wavelet được hoàn thành.

Kết hợp các thuộc tính xác định vị trí tần số thời gian của các sóng nhỏ và

các khả năng nghiên cứu của mạng Nơron nói chung, mạng nơron wavelet đã cho

thấy lợi thế qua các phương pháp thông thường như mạng nơron cho mô hình hệ

thống phi tuyến phức tạp.

2.3 Quy tắc học của mạng nơron wavelet

- Thông thường mạng nơron được điều chỉnh hoặc được huấn luyện để

hướng các đầu vào riêng biệt đến đích ở đầu ra. Cấu trúc huấn luyện mạng được

32

chỉ ra trên. Ở đây, hàm trọng của mạng được điều chỉnh trên cơ sở so sánh đầu ra

với đích mong muốn (taget) cho tới khi đầu ra mạng phù hợp với đích. Những cặp

vào/đích (input/taget) được dùng để giám sát cho sự huấn luyện mạng;

- Để có được một số cặp vào/ra, ở đó mỗi giá trị vào được gửi đến mạng và

giá trị ra tương ứng được thực hiện bằng mạng là sự xem xét và so sánh với giá

trị mong muốn. Bình thường tồn tại một sai số bởi lẽ giá trị mong muốn không

hoàn toàn phù hợp với giá trị thực. Sau mỗi lần chạy, ta có tổng bình phương của

tất cả các sai số. Sai số này được sử dụng để xác định các hàm trọng mới;

- Sau mỗi lần chạy, hàm trọng của mạng được sửa đổi với đặc tính tốt hơn

tương ứng với đặc tính mong muốn. Từng cặp giá trị vào/ra phải được kiểm tra

và trọng lượng được điều chỉnh một vài lần. Sự thay đổi các hàm trọng của mạng

được dừng lại nếu tổng các bình phương sai số nhỏ hơn một giá trị đặt trước hoặc

đã chạy đủ một số lần chạy xác định (trong trường hợp này mạng có thể không

thoả mãn yêu cầu đặt ra do sai lệch còn cao). Có hai kiểu học:

- Học thông số (Paramater Learning): Tìm ra biểu thức cập nhật các thông

số về trọng số, cập nhật kết nối giữa các nơron;

- Học cấu trúc (Structure Learning): Trọng tâm là sự biến đổi cấu trúc của

mạng nơron gồm số lượng nút (node) và các mẫu liên kết;

- Nhiệm vụ của việc học thông số là bằng cách nào đó, tìm được ma trận

chính xác mong muốn từ ma trận giả thiết ban đầu với cấu trúc của mạng nơron

có sẵn;

- Để làm được việc đó, mạng nơron sử dụng các trọng số điều chỉnh, với

nhiều phương pháp học khác nhau có thể tính toán gần đúng ma trận W cần tìm

đặc trưng cho mạng;

- Huấn luyện mạng sử dụng các phần từ vector trọng số hoặc các thành

phần của vector trọng số wij kết nối với đầu vào của Nơron i, dữ liệu đầu ra của

nơron khác có thể là đầu vào của Nơron i. Các dạng hàm kích hoạt nơron có thể

33

khác nhau khi các quy tắc học khác nhau được xem xét;

tăng theo tỉ lệ kết quả đầu vào

- Trọng số của vector wi=[wi1 wi2 wi3...win]t

x và tín hiệu học r. Tín hiệu học là một hàm của trong số wi và dữ liệu đầu vào x,

hoặc tín hiệu dạy di

(2.20) R=fr (wi,x,di

Trọng số của vector wi sẽ tăng tại thời điểm t theo quy tắc học :

(2.21) Δwi (t) =θr[wi (t),x(t),di (t)]x(t)

Trong đó θ là hằng số xác định tỉ lệ học

Tại bước tiếp theo vector trọng số tương ứng với thời gian t:

(2.22) wi(t+1)=wi(t) +θr[wi (t),x (t),di (t)]x(t)

Quy ước chỉ số trên sẽ được sử dụng trong phạm vi chỉ mục rời rạc. Đối

với các bước có thể sử dụng từ phương trình 2.22 bằng cách sử dụng phương

k )xk

trình

k+1 = wi

k +θr(wi

k ,xk ,di

(2.23) wi

2.3.1 Học có giám sát

- Nguyên tắc học tập được cung cấp với một tập huấn luyện về hoạt động

mạng thích hợp: {x1, y1} , {x2, y2} , …, {xn, yn};

- Với (xn) là một dữ liệu đầu vào mạng, (yn) là dữ liệu đầu ra tương ứng.

Khi đầu vào được áp dụng vào mạng, các kết quả đầu ra của mạng được so sánh

với kết quả mục tiêu. Nguyên tắc học được sử dụng để điều chỉnh trọng số và sai

số của mạng để dịch chuyển kết quả đầu ra của mạng gần hơn với kết quả mong

muốn. Trong học có giám sát tại từng thời điểm khi đầu vào được áp dụng người

huấn luyện sẽ cung cấp thông tin phản hồi của hệ thống. Điều này được minh họa

trong hình 2.11, khoảng cách thực tế và khoảng cách mong muốn là biện pháp để

tìm ra lỗi và được sử dụng để điều chỉnh trọng số của mạng. Trong phân loại học

của các mẫu đầu vào hoặc các trạng thái đầu vào được biết trước câu trả lời, lỗi

này có thể được sử dụng để thay đổi trọng số nhằm giảm lỗi. Học có giám sát là

34

phương thức học phổ biến và được sử dụng trong nhiều trường hợp học tự nhiên.

Hình 2.11 Học có giám sát

2.3.2 Học không giám sát

Trong học không giám sát trọng số và các sai số của mạng được thay đổi để đáp ứng với dữ liệu đầu vào của mạng. Học không giám sát không có kết quả đầu ra của mạng. Mạng tự học cách phân loại các mẫu đầu vào đưa vào trong các lớp. Học không giám sát không có các tín hiệu phản hồi, thông tin lỗi không được sử dụng để cải tiến hoạt động của mạng. Học không giám sát được thực hiện dựa trên quan sát các phản ứng đầu vào. Mạng tự tìm hiểu các mẫu, quy tắc, các thuộc tính… mạng tự tìm ra sự thay đổi trong các tham số của nó.

Hình 2.12 Học không giám sát

2.3.3 Học tăng cường

Học tăng cường là luật học có điểm giống như học có giám sát là mạng được cung cấp dữ liệu đầu ra mong muốn và có điểm giống học không giám sát là mạng không nhận được tất cả các thông tin phản hồi. Trong học tăng cường hệ thống nhận được tín hiệu phản hồi đánh giá kết quả đầu ra là đúng hay sai. Tuy nhiên học tăng cường không được cung cấp thông tin đầu ra chính xác. Do không có thông tin đầu ra chính xác lên hệ thống phải sử dụng một số chiến lược tìm kiếm ngẫu nhiên để lựa chọn không gian tìm kiếm từ đó đưa ra 35

kết quả chính xác nhất. Khi có thông tin phản hồi đúng từ môi trường đầu vào học tăng cường khám phá môi trường mới. Hệ thống này sẽ nhận được tín hiệu đầu vào từ môi trường và cho kết quả đầu ra tương ứng. Hệ thống sẽ nhận được thông tin phản hồi tích cực hoặc không tích cực từ môi trường. Để nhận biết được thông tin phản hồi từ môi trường là tích cực hay không tích cực hệ thống sẽ phải thực hiện qua nhiều bước.

2.4 Mô hình cấu trúc đề xuất (WNN-LCW)

- Như đã đề cập, hai vấn đề chủ chốt trong việc thiết kế mạng nơron wavelet

là làm thế nào để xác định cấu trúc mạng nơron wavelet và thuật toán nghiên cứu

nào có thể được sử dụng một cách hiệu quả cho việc huấn luyện mạng nơron

wavelet. Những vấn đề này liên quan đến việc xác định một kiến trúc mạng nơron

wavelet tối ưu để tìm kiếm các hàm wavelet;

- Mạng nơron wavelet là một loại mạng nơron với hàm wavelet bao gồm

những hàm số cơ bản. Đặc tính bên trong của các mạng hàm cơ bản đó là kích

hoạt cục bộ với giá trị đầu vào cho trước được chỉ ra bởi các hàm hoạt tính

(activation function). So với mạng perceptron đa lớp (MLP), các mạng hàm số cơ

bản cũng tương tự như MLP. Mô hình mạng nơron wavelet đề xuất trong luận văn

này hợp nhất một vài biến đổi so với những mạng nơron wavelet cổ điển nhằm

nâng cao hiệu suất của nó. Một mạng nơron wavelet cổ điển sử dụng các hàm cơ

bản wavelet phi tuyến (gọi là các hàm wavelet) thay vì sử dụng các hàm kích hoạt

sigmoid thông thường. Giá trị đầu ra của mạng này là một tổng có trọng số của

một số hàm wavelet. Trong mạng nơron wavelet tuyến tính (WNN-LCW), các

trọng số liên kết giữa các nơron lớp ẩn và các nơron đầu ra được thay thế bởi một

mô hình tuyến tính cục bộ, tương tự với lớp đầu ra xuất hiện trong hệ suy luận

nơron mờ thích nghi ANFIS. Giá trị đầu ra của mạng là một tổng có trọng số của

một số hàm wavelet. Mạng nơron wavelet tuyến tính (WNN - LCW) các trọng số

liên kết giữa các nơron lớp ẩn và các nơron đầu ra được thay thế bởi một mô hình

tuyến tính cục bộ (tương tự mô hình Takagi – Sugeno – Kang như trong các hệ

36

thống lọc nano (NF));

- Một mạng nơron wavelet dự tính gần đúng bất kỳ một tín hiệu mong muốn

y(t) nào bằng cách tạo ra tổ hợp của một số các hàm wavelet con tạo ra bởi phép giãn và tịnh tiến kích thước bước m và n từ một wavelet mẹ với một trong hai

𝑡−𝑛

phương trình dưới đây:

𝑚

(2.24) ) 𝜑𝑚,𝑛 = 𝜑(

𝜑𝑚,𝑛 = 𝜑(2−𝑚𝑡 − 𝑛)

Với, m>0. Ghi nhớ rằng phương trình (2.24) không có tiêu chuẩn hóa. Đối

với không gian đầu vào n chiều, hàm cơ sở wavelet đa biến có thể được tính bởi

(2.25)

𝑃 𝜑(𝑥) = ∏ 𝜑(𝑥𝑝) 𝑃=1

tích tenxơ của các hàm cơ sở đơn wavelet P như dưới đây:

- Do tính toàn vẹn của phép xấp xỉ địa phương, một số lượng lớn đơn vị

hàm số cơ bản phải được sử dụng cho việc nhận diện hệ thống được đưa ra. Bất

lợi của mạng Nơron Wavelet là:

- Đối với những vấn đề nhiều chiều hơn thì cần có nhiều lớp ẩn;

- Do các tham số bên trong hàm số hoạt động trong mạng, nên bỏ qua nhiều

giai đoạn huấn luyện để đạt được một mức độ chính xác cụ thể của.

N

Giá trị đầu ra trong lớp ra được đưa ra bởi phương trình:

j=1

(2.26) y = ∑(ωj0 + ωj1x1 + ⋯ + ωjpxp)φj(x̅)

Tại đó, 𝑥𝑗̅ là tích của các trọng số và các giá trị đầu vào từ lớp vào đến

37

Nơron j của lớp ẩn. Nó được biểu thị ở hình 2.13

Lớp 1 Lớp 2 Lớp 3

Hình 2.13 Cấu trúc mạng thần kinh sóng nhỏ trọng lượng tổ hợp tuyến tính

- Các trọng số giữa lớp ẩn và lớp ra là một sự kết hợp tuyến tính của các

trọng số Wj theo i. Những đặc tính tốt trong các hệ thống nơron mờ TSK ii) các

mô hình tuyến tính riêng phải cung cấp một phép nội suy kỹ lưỡng hơn trong các

không gian bậc cao. Các thông số về quy mô và tịnh tiến và các thông số mô hình

tuyến tính riêng và trọng số lớp đầu tiên cho đến thứ hai được khởi tạo ngẫu nhiên

ban đầu và được tối ưu hóa bằng thuật toán lan truyền ngược giảm gradient. Chức

năng được thông qua trong nút lớp ẩn là một phiên bản được sửa đổi của sóng

nhỏ, được xuất hiện trong thuật toán. Sóng nhỏ này được bắt nguồn từ một chức

năng tỷ lệ thuận với hàm cosin và hàm mật độ xác suất Gaussian. Nó không trực

giao và có hỗ trợ thay thế. Hàm kích hoạt nút sóng nhỏ thứ j được kết nối với dữ

2

)

x̅−mj ( nj 𝑣

liệu đầu vào sẽ được thể hiện:

(2.27) )) 𝑒− 𝜑𝑚𝑗,𝑛𝑗(x𝑗̅ ) = cos (2𝜋𝛽 ( x𝑗̅ − m𝑗 nj

2.5 Phương án nghiên cứu tham số Lai

- Trong giai đoạn điều chỉnh, sự tập trung được dành cho việc tối ưu hóa

38

hiệu quả của các thông số mạng qua phương pháp nghiên cứu Lai. Do cấu trúc

mạng được đề xuất bao gồm các bộ phận tuyến tính và phi tuyến tính. Quá trình

huấn luyện theo bình phương nhỏ nhất (Recursive least-squares - RLS) giảm

gradient (gradient descent - GD) đã được áp dụng;

- Phương trình cổ điển của bình phương nhỏ nhất đặt ra những vấn đề tính

toán lớn với sự phức tạp trong tính toán là theo thứ tự của O(Ω3) phát triển liên

tục với số lượng dữ liệu được thu thập, trong đó Ω là số các tham số được ước

tính. Để tăng hiệu quả của thuật toán LS, được sử dụng để từng bước tạo ra một

mô hình hồi quy tuyến tính;

- Việc nghiên cứu tham số được dựa trên dữ liệu sau khi quá trình dự đoán

trước một bước được thực hiện thông qua lớp đầu ra có trọng số của mạng nơron

wavelet là tuyến tính, do đó, việc sử dụng các kỹ thuật RLS để điều chỉnh các

thông số của lớp ra trong quá trình huấn luyện là hợp lí, cùng với giảm gradient

(gradient Descent - GD) cho các thông số khác. Việc tăng tốc độ quá trình thể

hiện rõ và đồng thời tăng tính ổn định của nó. Các thông số được chia thành hai

loại; thông số tuyến tính và thông số phi tuyến tính. Để cập nhật các thông số

tuyến tính RLS được sử dụng, thuật toán GD như là lựa chọn đơn giản đơn nhất.

1

3)2 𝑡 = 1, … … , 𝑀 (2.28)

Cả hai thuật toán được sử dụng cho mục tiêu:

𝑑 − O𝑡

2 - Trong đó Ol

t là đầu ra của đầu ra thứ l cho ví dụ huấn luyện thứ t. Trong

𝐸𝑡 = (𝑦𝑡

d là giá trị mong

t là đầu ra được ước tính của hệ thống và yt

một cấu trúc ba lớp O3

muốn cho mẫu M;

- Thuật toán tích hợp trong mạng nơron wavelet là trọng số tuyến tính phối

hợp phương pháp bình phương tối thiểu (RLS) và thuật toán giảm gradient lan

truyền ngược (BP/GD) để tìm các tham số. Thể hiện qua các hướng:

1) RLS: Trong tính toán trực tiếp, các giá trị đầu ra của nút tới lớp cuối

cùng và các trọng số tuyến tính xác định bởi RLS, với giá trị không đổi cho trước

của những tham số hàm wavelet, giá trị đầu ra có thể được biểu diễn như một tập

hợp tuyến tính của các tham số tuyến tính. Các tham số tuyến tính ước lượng là

39

tối ưu trên toàn cục.

2) BP/GD: Trong tính ngược, chúng tôi tính toán các tín hiệu sai số một

cách đệ quy từ lớp đầu ra ngược về các nút đầu vào và các nút ẩn. Do đó, các tham

số wavelet được điều chỉnh thu giảm gradient.

- Đối với việc cập nhật các yếu tố trọng số liên kết tuyến tính

(𝜔0𝑗, … … , 𝜔𝑝𝑗) giữa lớp thứ ba và lớp thứ hai, qua biến phương trình (2.29) trở

thành tuyến tính xét về tham số và để làm được điều đó phải qua những bước sau:

𝑁 𝑗=1

(2.29) ) 𝑦 = ∑ 𝑊𝑗(𝑥)𝜑𝑗(𝑥𝑗̅

(2.30)

{ 𝑊1(𝑥) = 𝜔01 + 𝜔11𝑥1 + ⋯ + 𝜔𝑝1𝑥𝑝 𝑊2(𝑥) = 𝜔02 + 𝜔12𝑥1 + ⋯ + 𝜔𝑝2𝑥𝑝 . . . 𝑊𝑁(𝑥) = 𝜔0𝑁 + 𝜔1𝑁𝑥1 + ⋯ + 𝜔𝑝𝑁𝑥𝑝

Do đó, có thể viết lại và mở rộng phương trình (2.29) dưới dạng:

𝑁 𝑗=1

𝑁 𝑗=1

𝑁 𝑗=1

∑ 𝑦 = ∑ (2.31) 𝜔0𝑗𝜑𝑗(𝑥𝑗̅ ) + 𝜔1𝑗𝑥1𝜑𝑗(𝑥𝑗̅ ) + … . + ∑ 𝜔𝑝𝑗𝑥𝑝𝜑𝑗(𝑥𝑗̅ )

Nếu xác định

Ф(x) =

[φ1(x1̅ ), φ2(x2̅̅̅), … , φN(xN̅̅̅), x1φ1(x1̅ ), x1φ2(x2̅̅̅), … , x1φN(xN̅̅̅), … , xpφ1(x1̅ ), xpφ2(x2̅̅̅), … , xPφN(xN̅ )]T

(2.32)

𝜃 = [𝜔01,𝜔20, … , 𝜔𝑁0, 𝜔11, 𝜔21, … , 𝜔𝑁1, … , 𝜔𝑝1, 𝜔𝑝2, … , 𝜔𝑝𝑁] (2.33)

Sao cho

y(x|θ) = θTФ(x) (2.34)

- Để ước lượng thông số của θ tại mỗi bước nhảy, chúng tôi sử dụng phương

trình sau:

Nếu chúng tôi xác định một ma trận M ×P bao gồm các vector dữ liệu x’

40

chồng lên nhau chúng tôi có:

(𝑥1)𝛾 (𝑥2)𝛾 ⋮ (𝑥𝑀)𝑇

(M) = [ ] (2.35)

- Trong đó M là tổng số vector dữ liệu và P là chiều của mỗi vector dữ liệu.

Trong RLS, một dạng thuật toán Gaussian Newton được sử dụng để cập nhật các

tham số ước lượng θ (bao gồm các trọng số và các ngưỡng)

(2.36)

θ(T) = θ(T − 1) + K(T)(yt − Ф(T)Tθ(T − 1)) - Trong đó, yt là giá trị đầu ra mong muốn và K(t) là dữ liệu phụ thuộc

Kalman Gain hoặc kích thước bước cập nhật:

S(T−1)Ф(T) λ+ Ф(T)T P(T−1)Ф(T)

(2.37) K(t) =

- Ma trận hiệp phương sai S(t) được cập nhật một cách đệ quy theo:

(2.38) S(T) = λ−1(1 − K(T)Ф(T)T)S(T − 1)

- Giá trị khởi đầu của ma trận K(T), K(0) được thiết lập về 0 và giá trị khởi

đầu của ma trận S(T), S(0) được đặt ở 𝜗𝐼 với kiểu Italic K[t], K[Ф], I là ma trận

đơn vị và 𝜗 là một số dương lớn tiêu biểu ở giữa 100 đến 10000. Những giá trị

nhỏ của 𝜗 có thể dẫn đến làm chậm việc tìm hiểu. Và giá trị 𝜗 lớn có thể dẫn đến

các tham số ước lượng không đúng đắn. 𝜆 được gọi là hệ số suy nhớ, thường được

chỉnh tới giá trị không đổi 0 < 𝜆 ≤ 1, có thể hơn 1.

- Trở lại thuật toán lan truyền ngắn đã được sử dụng theo những phương

trình cập nhật có liên quan cho các thông số sóng nhỏ (mj, nj). Chúng được cập

nhật bằng cách sử dụng quy tắc dây chuyền và đưa vào những kí hiệu tính toán P

và N biểu thị kích thước của đầu vào và số lượng tế bào thần kinh trong lớp ẩn

tương ứng. Các đạo hàm của hàm lỗi thu được bằng cách phân biệt hàm phí tổn

cùng với việc chú tâm đến từng thông số có thể điều chỉnh theo:

3 ×

𝜕𝐸𝑡 𝜕𝑛𝑗

𝜕𝐸𝑡 𝜕𝑂𝑡

=

𝑝 = 1, … 𝑃 𝑗 = 1, … , 𝑁 (2.39)

3 ×

𝜕𝐸𝑡 𝜕𝑚𝑗

𝜕𝐸𝑡 𝜕𝑂𝑡

3 𝜕𝑂𝑡 3 × 𝜕𝐼𝑡 3 𝜕𝑂𝑡 3 × 𝜕𝐼𝑡

3 𝜕𝐼𝑡 2 × 𝜕𝑂𝑗 3 𝜕𝐼𝑡 2 × 𝜕𝑂𝑗

2 𝜕𝑂𝑗 𝜕𝑛𝑗 2 𝜕𝑂𝑗 𝜕𝑚𝑗

41

= {

𝑑 − 𝑂𝑡

3) × 𝑓𝑜𝑢𝑡

= −(𝑦𝑡

′ × 𝑊𝑗 × ′ × 𝑊𝑗 ×

{ (2.40)

𝑑 − 𝑂𝑡

3) × 𝑓𝑜𝑢𝑡

𝜕𝐸𝑡 𝜕𝑛𝑗 𝜕𝐸𝑡 𝜕𝑛𝑗

𝜕𝑓ℎ𝑖𝑑𝑑𝑒𝑛 𝜕𝑛𝑗 𝜕𝑓ℎ𝑖𝑑𝑑𝑒𝑛 𝜕𝑚𝑗

ℓ là đầu vào và đầu ra của lớp ℓ tại thời điểm t. Hàm lớp ra là tuyến

= −(𝑦𝑡

ℓ và Ot

It

2

2

)

)

−(

−(

𝑥−𝑛𝑗 𝑚𝑗 𝑣

𝑥−𝑛𝑗 𝑚𝑗 𝑣

=

sin (2𝜋𝛽 (

)) 𝑒

+ (

) cos (2𝜋𝛽

) 𝑒

2(𝑥−𝑛𝑗) 2 𝑚𝑗 𝑣

𝜕𝑓ℎ𝑖𝑑𝑒𝑛 𝜕𝑛𝑗

2𝜋𝛽 𝑚𝑗

𝑥−𝑛𝑗 𝑚𝑗

𝑥−𝑛𝑗 𝑚𝑗

2

2

)

)

−(

−(

(

2 )(

𝑥−𝑛𝑗 𝑚𝑗

𝑥−𝑛𝑗 𝑚𝑗

𝑥−𝑛𝑗 𝑚𝑗 𝑣

𝑥−𝑛𝑗 𝑚𝑗 𝑣

=

sin (2𝜋𝛽 (

)) 𝑒

+ (

) ) cos (2𝜋𝛽

) 𝑒

2𝜋𝛽(𝑥−𝑛) 𝑚2

𝑣

𝜕𝑓ℎ𝑖𝑑𝑒𝑛 𝜕𝑚𝑗

𝑥−𝑛𝑗 𝑚𝑗

𝑥−𝑛𝑗 𝑚𝑗

{

tính, do đó nó phát sinh đối với đầu vào tương ứng của nó từ lớp trước đó, f’out =1.

(2.41)

(2.42) 𝑛𝑗(𝑡 + 1) = 𝑛𝑗(𝑡) + ∆𝑛𝑗 { 𝑚𝑗(𝑡 + 1) = 𝑚𝑗(𝑡) + ∆𝑚𝑗

Trong đó:

+ 𝑛𝑗(𝑡 − 1) ∆𝑛𝑗 = 𝑛 (2.43)

𝜕𝐸 𝜕𝑛𝑗 𝜕𝐸 𝜕𝑚𝑗

+ 𝑚𝑗(𝑡 − 1) { ∆𝑚𝑗 = 𝑚

Tương tự như vậy, trọng số kết nối đã được cập nhật giữa đầu vào và các

trọng số lớp sóng nhỏ (vij) được cho như sau:

3 ×

𝜕𝐸𝑡 𝜕𝑣𝑗𝑝

2 𝜕𝐼𝑗 𝜕𝑣𝑗𝑝

𝜕𝐸𝑡 𝜕𝑂𝑡

3 𝜕𝑂𝑡 3 × 𝜕𝐼𝑡

3 𝜕𝐼𝑡 2 × 𝜕𝑂𝑗

2 𝜕𝑂𝑗 2 × 𝜕𝐼𝑗

′ × 𝑊𝑗 ×

= 𝑝 = 1, … 𝑃 𝑗 = 1, … , 𝑁 (2.44)

𝑑 − 𝑂𝑡

3) × 𝑓𝑜𝑢𝑡

𝑡 × 𝑥𝑝

= −(𝑦𝑡 𝜕𝐸𝑡 𝜕𝜔𝑗𝑝 𝜕𝜑𝑗 𝜕𝑥̅𝑡

2

2

)

)

−(

−(

𝑥−𝑛𝑗 𝑚𝑗 𝑣

𝑥−𝑛𝑗 𝑚𝑗 𝑣

= −

sin (2𝜋𝛽

) 𝑒

cos (2𝜋𝛽

) 𝑒

(2.45)

𝜕𝜑𝑗 𝜕𝑥̅𝑗

2𝜋𝛽 𝑚𝑗

𝑥−𝑛𝑗 𝑚𝑗

2𝑥 𝑚𝑗𝑣

𝑥−𝑛𝑗 𝑚𝑗

Do đó việc nhận được độ lệch đầu tiên từ phương trình (2.44)

(2.46) 𝑣𝑗𝑝(𝑡 + 1) = 𝑣𝑗𝑝(𝑡) + ∆𝑣𝑗𝑝

42

Trong đó:

𝜕𝐸 𝜕𝑣𝑖𝑝

(2.47) + 𝑣𝑗𝑝(𝑡 − 1) ∆𝑣𝑗𝑝 = 𝑣

m, n và v lần lượt đại diện cho những tỉ lệ học cho m, n và v và ﻯ là

động lượng. Như chúng ta có thể thấy từ phương trình, việc sử dụng các trọng số

kết hợp tuyến tính được đề xuất, không làm phức tạp việc thực hiện điều chỉnh

còn cho phép với tốc độ hội tụ cao hơn và độ chính xác tốt hơn.

2.6 Khởi tạo các tham số của mạng

- Khởi tạo các tham số mạng với hàm wavelet là một vấn đề quan trọng.

Tương tự các mạng hàm cơ sở bán kính (và đối lập với các mạng nơron sử dụng

các hàm sigmoid), một khởi tạo ngẫu nhiên tất cả các tham số tới các giá trị nhỏ

(như thường làm với các mạng nơron) không phải là điều mong muốn bởi điều

này có thể khiến cho các hàm wavelet quá cục bộ (độ giãn nhỏ) và khiến cho các

thành phần của gradient của hàm giá trị rất nhỏ. Nói chung, muốn tận dụng các

miền không gian giá trị vào nơi mà các hàm wavelet khác không;

- Thông qua [ap , bp ], miền chứa các giá trị phần tử pth của các vector đầu

vào. Khởi tạo vector m của hàm wavelet j tại tâm hình hộp xác định bởi các khoảng

{[ap , bp]} : mjp = 1 2⁄ (ap + bp ). Các tham số giãn được khởi tạo tới giá trị 0.2(bp

– ap ) để đảm bảo rằng các hàm wavelet bắt đầu mở rộng ra toàn bộ miền giá trị

vào. Với 𝛽 = 0.5 và ʋ = 1 lựa chọn tối ưu cho dữ liệu. Những tham số còn lại

được khởi tạo tới những giá trị nhỏ ngẫu nhiên.

2.7 Nhận dạng hệ thống động lực học

- Khi các hệ thống phi tuyến, mục đích của việc mô hình hóa là khác nhau

đối với những ứng dụng khác nhau. Trong nhiều trường hợp, các dữ liệu có điều

kiện xấu và hỗ trợ của các phiên bản giá trị vào và giá trị ra bị chậm là cần thiết

để đạt được sự chính xác như mong muốn, điều đó khiến cho việc mô hình hóa

hệ thống tĩnh sang mô hình hóa hệ thống động;

- Nói chung, các hệ thống động khá phức tạp và phi tuyến. Một bước quan

trọng trong xác định các hệ thống phi tuyến là sự phát triển của một mô hình phi

43

tuyến. Trong vài năm gần đây, những kỹ thuật trí tuệ nhân tạo như mạng nơron,

logic mờ và thuật giải di truyền là công cụ hiệu quả trong việc xác định các thiết

bị phi tuyến. Vấn đề là chọn một mô hình xác định và điều chỉnh các tham số như phản hồi của mô hình gần giống như phản hồi của hệ thống thực đối với cùng một

giá trị vào. Cấu trúc WNN-LCW (mạng nơron hàm) được sử dụng cho các bài

toán như vậy;

- Có nhiều phương pháp khác nhau đã được phát triển. Những phương pháp

này sử dụng một mô hình tham số hóa. Các tham số được cập nhật để giảm thiểu

sai số xác định giá trị ra. Một lớp rộng các hệ thống động phi tuyến với giá trị vào

𝓊 và một giá trị ra có thể được mô tả bằng các mô được xác định chung như sau:

ym(k) = f(𝛗(xk), θ)

Trong đó ym(k) là giá trị ra của mô hình, 𝛗(xk) là vector biến hồi quy độc

lập và θ bao gồm tất cả trọng số và những tham số hàm wavelet khác trong mạng.

Tùy vào lựa chọn của biến hồi quy độc lập trong 𝛗(xk) mà có thể rút ra được những mô hình nhận dạng kahcs nhau.

- NARX (tự hồi quy phi tuyến với giá trị vào ngoại sinh) là mô hình nối

tiếp song song.

Như minh họa ở hình 2.14(a), các giá trị đầu ra của thiết bị thực được sử

dụng như giá trị đầu vào của mô hình. Duy chỉ một bước trước dự đoán là có thể

(hình 2.14 (b)). Mô hình được cho là có ngoại động lực.

φ(k) = (u(k), u(k − 1), u(k − 2), … , u(k − nu), y(k − 1), y(k −

(2.48) 2), … , y(k − ny))

- NOE (Sai số đầu ra phi tuyến) là một mô hình song song. Có nghĩa là đầu

ra của mô hình tự tạo ra những giá trị đầu vào có quãng thời gian chờ (time - lag).

Mô hình này có thể được xem như một mô hình lặp toàn bộ. Mô hình song song

này có khả năng đưa ra các dự đoán trong khoảng thời gian ngắn. Mô hình này

44

được cho là có nội động lực cao.

φ(k) = (u(k), u(k − 1), u(k − 2), … , u(k − nu), ym(k − 1), ym(k − (2.49) 2), … , ym(k − ny))

Trong cả hai trường hợp, so với các giá trị đầu ra đúng của thiết bị, sai số

sự đoán của mô hình được sử dụng như một phương pháp để tối ưu hóa các tham

số của mô hình. Đối với những hệ thống động, mô hình phải có biện pháp để thực

thi các khoảng thời gian chờ. Nói cách khác trong mô hình phải có hàm nhớ.

Trong việc mô hình hóa sử dụng các sơ đồ trí tuệ nhân tạo như mạng nơron, hệ

nơron mờ, mạng nơron hàm wavelet, việc này có thể được thực hiện theo hai cách:

hoặc các giá trị vào, ra được sử dụng như những giá trị vào bên ngoài thêm vào,

hoặc một số bộ nhớ được thêm vào trong các cá thể nơron.

Các mô hình ngoại động lực có thể được xem như các bộ dự đoán đi trước

một bước. Các mô hình nội động lực được sử dụng tốt nhất với mục đích phỏng

theo, mô hình với giá trị đầu ra đúng của thiết bị. Xét về lâu dài, sai số dự đoán

có thể tích tụ trong quá trình lặp lại và sai số lớn hơn. Đây chắc chắn là trường

hợp của những hệ thống phi tuyến, khi tính phi tuyến có thể đưa hệ thống vào

trạng thái bất ổn. Do đối với những vấn đề phi tuyến, độ phức tạp thường gia tăng

mạnh cùng với bậc không gian đầu vào, việc áp dụng mô hình ngoại sinh tự hồi

quy phi tuyến NARX có ít chiều hoặc mô hình sai số đầu ra phi tuyến NOE phổ

biến hơn. Một điểm hạn chế của những mô hình này là lựa chọn thứ tự động lực

mang tính quyết định đối với việc thực hiện và không có sẵn những phương pháp

45

hiệu quả cho việc xác định của nó.

u(k)

y(k)

Thiết bị

z-1

e(k)

z-1

z-1 y(k – 1)

z-1 y(k – ny)

z-1 y(k – 2)

z-1

ym(k)

Mô hình

u(k – nz)

ym(t+1)

y(t)

ym(t+2)

y(t+1)

y(t+k-1)

z-1

z-1

z-1

ym(t+k)

y(t-u+1)

y(t+k-u)

y(t+u+2)

x(t-d)

x(t-d+k-1)

x(t-d+1)

Dự đoán trước một bước tại thời điểm t

z-1

Dự đoán trước một bước tại thời điểm t + k + 1

Dự đoán trước một bước tại thời điểm t+1

z-1

z-1

x(t-d+k-u’)

u(k - 1) u(k - 2)

Hình 2.14 Các mô hình ngoại động lực

(a) Dự đoán trước một bước

(b) Hệ thống động liên tiếp – song song

2.8 Phát triển mô hình hóa phi tham số

Hồi quy dùng phương pháp bình phương tối thiểu từng phần (PLS), một kỹ

thuật hiệu chuẩn đa biến, chiếu dữ liệu đầu vào-đầu ra ban đầu trong một khoảng

trống ẩn, khai căn một số nhân tử chính (cũng được biết đến như là những biến

ẩn) với cấu trúc trực giao, trong khi đó thu nạp phần lớn phương sai trong dữ liệu

gốc. Tóm lại, nó có thể được biểu diễn như một khai triển song tuyến tính của cả

X và Y như sau:

(2.50) X = TWY + EX

46

(2.51) Y = UQY + EY

Như vậy các trị số trong ma trận X và các trị số của phần chưa xác định của

Y có hiệp phương sai tối đa. Ở đó, T và W, U và Q theo thứ tự là những vector

của X và Y, các trị số PLS và trọng số, còn EX, EY là những số dư của X và Y. Các

mô hình khai triển của X và Y và phương trình liên kết những mô hình này qua

hồi quy tạo thành mô hình hồi quy PLS tuyến tính. Trong trường hợp một biến số

của Y là y, mô hình này có thể được biểu diễn bằng một hàm hồi quy:

y = bX + E (2.52)

Ở đó, b là hệ số hồi quy. Mô hình PLS này được phát triển qua hai giai

đoạn; bộ dữ liệu ban đầu được chia làm hai bộ con: huấn luyện và kiểm tra. Bộ

dữ liệu huấn luyện được sử dụng để xây dựng các mô hình và tính toán một bộ

các hệ số hồi quy (bPLS), các hệ số sau đó được sử dụng để tạo một dự đoán của

biến số phụ thuộc trong bộ dữ liệu con.

Cấu trúc perceptron đa lớp có lẽ là mô hình mạng nơron được sử dụng rộng

rãi nhất và có năng lực/thực hiện mô hình hóa phi tuyến dài lâu đã được chứng

minh. Tri thức về mạng nơron này được lưu trữ trong các trọng số kết nối các

nơron nhân tạo. Cấu trúc kết nối hàng loạt của mạng perceptron đa lớp cung cấp

số lượng lớn các trọng số và theo đó cung cấp sức chứa lớn để lưu trữ những thông

tin phức tạp. Quy tắc delta khái quát hóa được áp dụng cho điều chỉnh các trọng

47

số của các mạng truyền thẳng nhằm cực tiểu hóa sai số hàm cost định trước.

CHƯƠNG III XÂY DỰNG HỆ THỐNG XẤP XỈ PHI TUYẾN SỬ DỤNG MẠNG WAVELET

3.1 Đặt bài toán

Mạng nơron tiếp cận mô hình bằng cách sử dụng đầu vào và đầu ra chính

xác được sử dụng để huấn luyện một mô hình chung có đủ độ tự do để ước

lượng tốt giữa đầu vào và đầu ra. Một mạng nơron có thể được huấn luyện để

thực hiện một chức năng cụ thể bằng cách điều chỉnh các giá trị của các kết nối

(trọng số) giữa các phần tử. Một trong những quá trình phổ biến nhất mà mạng

nơron được sử dụng trong mô hình hóa hệ thống bao gồm việc đặt mạng nơron

song song với hệ thống vật lý, áp dụng hệ thống vào đầu vào của mạng, sử dụng

đầu ra của hệ thống như là đầu ra mong muốn cho hệ thống mạng và huấn luyện

mạng nơron cho đến khi lỗi giữa đầu ra hệ thống và mạng đạt đến mức chấp

nhận được. Ở đây, mạng được điều chỉnh, dựa trên sự so sánh giữa đầu ra và

mục tiêu. Sơ đồ của việc xác định một hệ thống bất biến theo thời gian được

F(u)

Hệ thống hiện tại

thể hiện trong hình 3.1

+

e

u

-

Mạng nơron

F෠ (u)

Thuật toán học

Hình 3.1 Sơ đồ hệ thống bất biến theo thời gian

Hình 3.1: Sơ đồ hệ thống bất biến theo thời gian

Nói chung, với một hàm y, các đầu vào u ⊂ R được ánh xạ thành các

phần y cho j = 1, .., N trong không gian đầu ra. Trong trường hợp của một hệ

48

thống động, chúng ta có cặp vào - ra của thời gian u(t), y(t). Mục tiêu chính là

xác định F sao cho đầu vào và đầu ra được cho bởi u và F (u) tương ứng. Sai

số e là sự khác biệt giữa đầu ra của hệ thống quan sát và đầu ra được tạo ra bởi

F෠ theo

||y − ŷ|| = ||F(u) − F෠(u)|| = 𝑒 (3.1)

Để có thể có được (3.1) thỏa mãn theo yêu cầu đặt ra thì cần phải huấn

luyện mạng nơron theo các thuật toán học.

3.2 Áp dụng mạng nơron wavelet cho nhận dạng hệ động lực

3.2.1. Hệ thống với chuỗi thời gian Mackey-Glass

𝑑𝑥(𝑡)

- Giả sử cho một hệ thống Mackey-Glass sau:

𝑑𝑡

𝑎𝑥(𝑡−𝜏) 1+𝑥10(𝑡−𝜏)

(3.2) = − 𝑏𝑥(𝑡)

- Quá trình tạo ra 1000 điểm với điều kiện ban đầu của x (0) = 1: 2, = 17,

a = 0.2, b = 0.1 và chúng ta lấy tập dữ liệu từ t = 123 đến t = 1123. Lần đầu tiên

500 điểm dữ liệu được sử dụng để đào tạo và xác nhận, còn lại 500 Điểm được

dành riêng cho giai đoạn thử nghiệm. Trong bài kiểm tra bước trước, chúng ta sử

dụng x (t), x (t + 1), x (t + 2) ….. x (t + 9) để dự đoán giá trị của x (t + 10), trong

khi ở bài kiểm tra 6 bước, nhiệm vụ là để dự đoán x (t + 6) sử dụng các biến đầu

vào x (t), x (t - 6), x (t - 12), x (t - 18). Bài toán đã mô phỏng bốn trường hợp sau:

(1) thuật toán giảm gradient được sử dụng để đào tạo một mô hình mạng nơron

wavelet với kiến trúc mạng đã đề xuất thuật toán học lai được sử dụng để đào tạo

mô hình mạng nơron wavelet với cùng kiến trúc mạng , thuật toán giảm gradient

(với momentum) là để đào tạo mô hình mạng nơron wavelet với kiến trúc mạng

hình 2.13;

- Đề xuất thuật toán học lai được sử dụng để huấn luyện một mô hình mạng

nơron wavelet với cùng một kiến trúc mạng hình 2.13. Đối với mỗi trường hợp,

1000 điểm mẫu được sử dụng 500 cặp dữ liệu đầu tiên được sử dụng làm dữ liệu

huấn luyện, còn 500 số còn lại được sử dụng để xác nhận mô hình được xác định.

Để loại bỏ các hiệu ứng của các giá trị ban đầu của các tham số cho kết quả cuối

49

cùng, mô hình được huấn luyện cho các giai đoạn và RMSE trung bình được tính.

Độ lệch tối đa và tối thiểu trong RMSE là 0.0028 và 0.012. Để có kết quả tốt nhất,

việc so sánh với thuật toán giảm gradient và kỹ thuật lai mới được trình bày trong cho thấy việc so sánh các kết quả thử nghiệm của các mô hình khác nhau đối với

hỗn hợp Mackey - Glass. Quá trình đã được thực hiện để hiển thị chuỗi thời gian

thực tế, kết quả của mô hình mạng nơron wavelet tốt nhất và lỗi dự báo bằng cách

sử dụng thuật toán huấn luyện lai ghép cho tập dữ liệu huấn luyện và kiểm tra.

Kiểm tra các phương pháp với số lượng khác nhau của các lớp ẩn và so sánh chỉ

những kết quả tốt nhất nhận được trong trường hợp mạng nơron wavelet được

hiển thị. Rõ ràng mạng nơron wavelet có độ chính xác cao hơn so với mạng nơron

thông thường. Trong khi đó, các kết quả mô phỏng chứng minh rằng thuật toán

huấn luyện lai mới hiệu quả hơn thuật toán học gradient thông thường. Từ các kết

quả mô phỏng ở trên, có thể thấy rằng mô hình mạng nơron wavelet đề xuất với

Biểu đồ giá trị thực - và dự báo +

Các giá trị thực và giá trị dự báo

kỹ thuật lai mới hoạt động tốt để tạo ra các mô hình dự đoán thời gian

Hình 3.2 Sử dụng mạng nơron wavelet cho xấp xỉ như bộ dự báo

50

3.2.2. Thuật toán huấn luyện mạng nơron wavelet

Bắt đầu

Khởi tạo Wij, Wjk,bk,ak, 𝞰

Xây dựng mạng nơron wavelet dữ liệu đầu vào, dữ liệu đầu ra

Uớc tính các giá trị đầu ra trong mạng Nơron Wavelet

I=I+1

Cập nhật bk và ak

Tính toán sai số e giữa đầu ra và giá trị dự kiến

Cập nhật trọng số giữa (đầu vào,H.L) và (H.L,đầu ra)

Is e < ed

Sai

Đúng

Hiển thị kết quả

Kết thúc

Hình 3.3 Thuật toán huấn luyện mạng nơron wavelet

51

3.2.3. Cho hệ phi tuyến một chiều

𝑠𝑖𝑛2𝜋𝑥 𝑒𝑥

(3.3) 𝑓(𝑥) = 𝑥[0,10]

Ví dụ f (x) đã được thử nghiệm cho xấp xỉ phi tuyến. Vị trí và độ dãn nở

sử dụng cho các chức năng kích hoạt wavelet, một bộ huấn luyện 100 mẫu đã

được tạo ra bằng cách đầu vào được lấy thống nhất từ khoảng [0, 10]. Hình 3.4

trình bày xấp xỉ của mạng Nơron Wavelet sử dụng 10 chức năng kích hoạt wavelet

và có thể thấy mạng nơron wavelet có khả năng thực hiện một phép xấp xỉ hoàn

52

hảo. Hình 3.4 và bảng 3.1.

-0.0000

0

Đầu ra (B) 0.0036 0.0052 0.0047 0.0027 0 -0.0022 -0.0032 -0.0029 -0.0016 0 0.0013 0.0019 0.0017 0.0010 0 -0.0008 -0.0012 -0.0011 -0.0006 0 0.0005 0.0007 0.0006 0.0004 0 -0.0003 -0.0004 -0.0004 -0.0002 0 0.0002 0.0003 0.0002 0.0001 0 -0.0001 -0.0002 -0.0001 -0.0001 0 0.0001 0.0001 0.0001 0.0000 0 -0.0000 -0.0001 -0.0001 -0.0000 Đầu vào (A) 0.0036 0.0052 0.0047 0.0027 0.0000 -0.0022 -0.0032 -0.0029 -0.0016 -0.0000 0.0013 0.0019 0.0017 0.0010 -0.0000 -0.0008 -0.0012 -0.0011 -0.0006 -0.0000 0.0005 0.0007 0.0006 0.0004 0.0000 -0.0003 -0.0004 -0.0004 -0.0002 -0.0000 0.0002 0.0003 0.0002 0.0001 -0.0000 -0.0001 -0.0002 -0.0001 -0.0001 -0.0000 0.0001 0.0001 0.0001 0.0000 0.0000 -0.0000 -0.0001 -0.0001 -0.0000

53

Đầu vào (A) 0 0.5319 0.7787 0.7046 0.3940 0.0000 -0.3226 -0.4723 -0.4273 -0.2390 -0.0000 0.1957 0.2865 0.2592 0.1449 0.0000 -0.1187 -0.1737 -0.1572 -0.0879 -0.0000 0.0720 0.1054 0.0954 0.0533 0.0000 -0.0437 -0.0639 -0.0578 -0.0323 -0.0000 0.0265 0.0388 0.0351 0.0196 0.0000 -0.0161 -0.0235 -0.0213 -0.0119 -0.0000 0.0097 0.0143 0.0129 0.0072 0.0000 -0.0059 -0.0087 -0.0078 -0.0044 -0.0000 Đầu ra (B) 0.9995 0.9992 0.9988 0.9979 0.3940 0 -0.3226 -0.4723 -0.4273 -0.2390 -0.0000 0.1957 0.2865 0.2592 0.1449 0.0000 -0.1187 -0.1737 -0.1572 -0.0879 0 0.0720 0.1054 0.0954 0.0533 0 -0.0437 -0.0639 -0.0578 -0.0323 -0.0000 0.0265 0.0388 0.0351 0.0196 0 -0.0161 -0.0235 -0.0213 -0.0119 0 0.0097 0.0143 0.0129 0.0072 0 -0.0059 -0.0087 -0.0078 -0.0044 0

h n í t

m ể i đ i ờ h t c á c i ạ t x ị r t á i G

Các thời điểm tính x

Hình 3.4 Biểu đồ tính toán xấp xỉ mạng nơron wavelet gồm giá trị thực và giá trị

xấp xỉ

54

Bảng 3.1 Kết quả sau khi mạng nơron được huấn luyện (Kết quả bài toán được trích dẫn từ nghiên cứu của sinh viên học viện công nghệ bưu chính viễn thông)

Kết quả mô phỏng cho thấy sai lệch nhận dạng giữa tín hiệu mẫu và tín hiệu

tính toán của mô hình nhận dạng là rất nhỏ, điều đó chứng tỏ rằng sử dụng mạng

nơron truyền thẳng nhiều lớp trong nhận dạng hệ thống là một giải pháp rất hiệu

quả và có độ chính xác cao. Giải pháp này có đóng góp mới là chỉ cần sử dụng

một mạng nơron wavelet mà có thể nhận dạng được hệ thống là hệ phi tuyến. Có

thể ứng dụng giải pháp này cho việc sử dụng mạng nơron wavelet nhận dạng cho

55

các đối tượng phi tuyến khác có mức độ phi tuyến cao.

PHẦN KẾT LUẬN

- Đồ án đã trình bày được cơ sở lý thuyết của mạng nơron wavelet, thuật

học của nó và ứng dụng cho nhận dạng hệ động lực phi tuyến;

- Bằng phương pháp phân tích, so sánh về cấu trúc, các luật học và khả

năng ứng dụng thực tiễn của các loại mạng nơron, luận văn này đã chọn mạng

nơron wavelet là mạng có nhiều ưu điểm về cấu trúc và luật học để tập trung

nghiên cứu ứng dụng nó trong bài toán nhận dạng hệ động lực phi tuyến;

- Trên cơ sở cài đặt thử nghiệm cho bài toán phi tuyến sử dụng mạng nơron

wavelet cho thấy kết quả sai lệch E là rất nhỏ, đồng nghĩa với việc tín hiệu học

của mạng nơron wavelet bám sát theo được tín hiệu thực của hệ thống để có thể

thay thế điều khiển hệ thống phi tuyến này;

- Tuy nhiên qua quá trình tìm hiểu một số thuật toán cơ bản về mạng nơron

wavelet cho thấy vẫn còn tồn tại nhiều khuyết điểm trong các thuật toán này dẫn

đến việc tính toán còn chưa chính xác tuyệt đối; việc xây dựng, cài đặt thuật toán

còn khó khăn. Vì vậy theo quan điểm của học viên đề tài còn có một số hướng

phát triển sau:

- Tiếp tục tìm hiểu các thuật toán khác dễ xây dựng và có độ chính xác cao

hơn.

- Kết hợp nhiều thuật toán nhận dạng để khắc phục khuyết điểm tồn tại của

56

một thuật toán làm tăng độ chính xác.

TÀI LIỆU THAM KHẢO

Tiếng Việt

[1] Bùi Công Cường, Nguyễn Doãn Phước (2006), “Lý thuyết mờ và công nghệ tính toán mềm”, Hệ mờ mạng Nơron và ứng dụng, Nhà xuất bản Khoa học và Kỹ thuật.

[2] Nguyễn Đình Thúc (2000), Trí tuệ nhân tạo Mạng Nơron phương pháp

& ứng dụng, Nhà xuất bản Giáo dục.

Tiếng Anh

[3] Zhang Q. G., Benveniste A (1992), Wavelet Networks. IEEE Trans.

Nơron Network, 3, pp. 889-898.

[4] Moddy J., Darken C. J. (1989), Fast learning in network of locally

tuned processing units. Nơron Comput., 1, pp. 281-294.

[5] Cao J., Lin X. (2008), Application of the diagonal recurrent wavelet Nơron network to solar irradia- tion forecast assisted with fuzzy technique, Eng, Appl, Artif, Intel, 21, pp. 1255-1263.

[6] Zainuddin Z., Ong P. (2011), Modified wavelet Nơron network in function approximation and its application in prediction of time-series pollution data, Appl, Soft Comput, 11, pp. 4866-4874.

57

[7] Zainuddin Z., Wan Daud W. R., Ong P., Shafie A. (2011), Wavelet Nơron Networks Applied to Pulping of Oil Palm Fronds, Bioresource Technol, 102, pp. 10978-10986.