Phân loại hình ảnh sử dụng ràng buộc cục bộ đại diện hạng thấp
lượt xem 5
download
Bài viết Phân loại hình ảnh sử dụng ràng buộc cục bộ đại diện hạng thấp đề xuất một phương pháp phân loại hình ảnh sử dụng đại diện hạng thấp (LRRC). Bằng cách bổ sung ràng buộc cục bộ vào hàm mục tiêu và huấn luyện một từ điển nhằm loại bỏ vấn để ảnh hưởng của nhiễu, một đại diện hạng thấp cho dữ liệu hình ảnh huấn luyện tương ứng với một từ điển đã đạt được.
Bình luận(0) Đăng nhập để gửi bình luận!
Nội dung Text: Phân loại hình ảnh sử dụng ràng buộc cục bộ đại diện hạng thấp
- No.12/2022 Journal of Science, Tien Giang University Phân loại hình ảnh sử dụng ràng buộc cục bộ đại diện hạng thấp Image classification based on locality constrained low rank representation Nguyễn Hoàng Vũ1,*, Trần Quốc Cường1 1 Trường Đại học Tiền Giang, 119 Ấp Bắc, Phường 5, Mỹ Tho, Tiền Giang, Việt Nam Thông tin chung Tóm tắt Ngày nhận bài: Đại diện hạng thấp đã được sử dụng hiệu quả trong phân 22/05/2022 đoạn không gian con, đại diện tốt cho dữ liệu, và trích xuất đặc điểm từ dữ liệu bị hỏng. Bài báo này đề xuất một phương pháp phân Ngày nhận kết quả phản biện: loại hình ảnh sử dụng đại diện hạng thấp (LRRC). Bằng cách bổ 02/06/2022 sung ràng buộc cục bộ vào hàm mục tiêu và huấn luyện một từ điển Ngày chấp nhận đăng: nhằm loại bỏ vấn để ảnh hưởng của nhiễu, một đại diện hạng thấp 13/06/2022 cho dữ liệu hình ảnh huấn luyện tương ứng với một từ điển đã đạt được. Với ý nghĩa về về cấu trúc thông tin và khả năng phân biệt Từ khóa: mạnh, đại diện này rất phù hợp cho nhiệm vụ phân loại hình ảnh. Đại diện hạng thấp, Kết quả thực nghiệm trên các tập dữ liệu hình ảnh tiêu chuẩn đã học từ điển, phân đoạn, phân chứng minh tính hiệu quả của phương pháp đề xuất. loại hình ảnh, trích đặc điểm. Abstract Keywords: Low-rank representation (LRR) has been used effectively in Low-rank subspace segmentation, data representation and feature extraction representation, dictionary from corrupted data. In this paper, an image classification method learning, segmentation, based on low-rank representation (Low Rank Representation image classification, feature Classification: LRRC) is proposed. By adding local constraints to extraction. objective functions and constructing a dictionary to eliminate interference effects, a low rank representation for images corresponding to the constructed dictionary is obtained. With the meaning in terms of information structure and strong identification capability, this representation is appropriate for image classification tasks. The experimental results of standard image files demonstrate the effectiveness of the proposed approach. 1. GIỚI THIỆU Tuy nhiên, LRR bỏ qua những Đại diện hạng thấp (LRR) ngày thông tin phân biệt trong dữ liệu, đây là càng nhận được nhiều sự quan tâm, chú những thông tin hữu ích để sử dụng LRR ý vì các ứng dụng thành công trong lĩnh trong phân loại hình ảnh. Các ứng dụng vực thị giác máy tính và học máy. Mục học LRR phụ thuộc rất nhiều vào từ tiêu của LRR là tìm một đại diện hạng điển, thường từ điển được chọn chính là thấp nhất trong số tất cả dữ liệu, có thể dữ liệu huấn luyện [1], do đó thông tin được biểu diễn dưới dạng kết hợp tuyến phân biệt trong từ điển là rất thấp. Để có tính của dữ liệu và các nguyên tử trong được khả năng phân biệt, thông thường một từ điển. LRR đã được chứng minh từ điển được học dựa theo lỗi tái cấu trúc hoạt động hiệu quả trong phân đoạn lại dữ liệu huấn luyện theo mỗi lớp [4] không gian con và trích xuất đặc điểm từ và theo tất cả dữ liệu huấn luyện [5]. dữ liệu bị hỏng [1], [2], [3]. Một số đề xuất đã xây dựng một từ điển * tác giả liên hệ, email: nguyenhoangvu@tgu.edu.vn, 0907 495 882 -100-
- Tạp chí Khoa học, Trường Đại học Tiền Giang Số 12/2022 phân biệt từ đại diện hạng thấp kết hợp với các ràng buộc làm cho đại diện có tính miêu tả và tính phân biệt mạnh (1) trong nhiệm vụ nhận dạng hình ảnh [6], Trong đó là (số phần tử [7] , [8], [9], [10], [11]. nonzero), là tham số cân bằng giữa 2 Các phương pháp tiếp cận dựa trên phần. LRR đều có thể đối phó hiệu quả với Phương trình (1) là dạng non- tình huống khi cả mẫu huấn luyện và convex do sự rời rạc tự nhiên của phép kiểm tra đều có nhiễu hoặc bị hỏng. Tuy và . Do đó, phương nhiên, các phương pháp trên bỏ qua mối trình (1) được chuyển về dạng sau: quan hệ giữa các mẫu tương tự hoặc không học từ điển nhỏ gọn từ dữ liệu (2) huấn luyện bị hỏng. Để giải quyết các vấn đề trên, chúng tôi đề xuất phương Trong đó là nuclear norm (tổng các pháp phân loại hình ảnh dựa trên đại giá trị riêng của Z); là diện hạng thấp với một ràng buộc cục bộ (tổng các giá trị tuyệt đối của các phần và thuật toán học từ điển (LRRC). Ràng tử trong E); buộc cục bộ được đưa vào hàm mục tiêu Việc giải (2) tương đương với giải để khai thác cấu trúc đa nội tại của dữ (1) trong trường hợp dữ liệu có nhiễu tự liệu huấn luyện. Dưới điều kiện của ràng nhiên. Tuy nhiên, trong thực tế, một số buộc cục bộ, các mẫu tương tự sẽ có xu lượng lớn dữ liệu thường bị các nhiễu hướng tạo ra các đại diện tương tự, các khác hoặc bị hỏng nặng, vì vậy phương mẫu khác nhau sẽ có tính phân biệt cao. trình (2) được mô tả lại như sau: Kết quả thực hiện phân loại ảnh trên các tập dữ liệu tiêu chuẩn, so sánh với các (3) giải thuật khác sẽ chứng minh tính hiệu quả vượt trội của phương pháp đề xuất. Trong đó: là và 2. NỘI DUNG NGHIÊN CỨU 2.1. Đại diện hạng thấp , so sánh Đại diện hạng thấp là khái niệm dựa với , hướng đến trên giả thuyết rằng tất cả dữ liệu được các cột của E là vector có nhiều phần tử lấy mẫu từ nhiều không gian con thấp là 0, tương ứng với nhiều mẫu là rõ ràng chiều nhúng trong không gian cao chiều. và các mẫu còn lại có nhiễu. LRR đã được chứng minh thực hiện Từ (3), có thể thấy Z là một ma trận nhiệm vụ phân đoạn không gian con một hệ số, mỗi phần tử trong Z đại diện cho cách hiệu quả [1], [2]. Với giả thuyết mỗi phần tử trong X tương ứng với phần rằng dữ liệu được rút ra từ tử của D. Như vậy, nếu sử dụng một từ một trong nhiều không gian con thấp điển D thích hợp, đại diện hạng thấp chiều. Mô hình LRR nhằm tìm kiếm một nhất (lowest-rank representation) trong Z đại diện hạng thấp và nhiễu có thể đại diện cho dữ liệu X dưới dạng thưa thông qua từ điển kết hợp tuyến tính với các phần tử trong . Cụ thể, LRR được miêu tả từ điển D (các biểu diễn hạng thấp trong bởi phương trình tối ưu: Z sẽ tiết lộ nhóm các điểm dữ liệu trong X). -101-
- No.12/2022 Journal of Science, Tien Giang University Để phân đoạn dữ liệu thành các Để cải thiện tính phân biệt giữa các không gian con tương ứng, cần tính toán lớp chúng tôi xem xét về cấu trúc hình một ma trận quan hệ để mã hóa các mối học của mẫu khác lớp. Hầu hết các thuật quan hệ từng cặp giữa các véc tơ dữ liệu. toán học khác nhau sử dụng ý tưởng bất Vì vậy, nhóm tác giả đã sử dụng chính biến cục bộ là: nếu hai điểm dữ liệu dữ liệu làm từ điển ( ). và gần nhau trong cấu trúc nội tại của dữ liệu phân phối, khi đó chúng sẽ có trọng số lớn giữa hai điểm và có khả (4) năng thể hiện mối quan hệ trong không Sau khi đạt được Z và E, có thể sử gian biểu diễn dữ liệu mới. Như đã công dụng hoặc để đạt được ma trận bố trong [12], chúng tôi sử dụng dạng hạng thấp phục hồi dữ liệu gốc . Nhóm ràng buộc cục bộ sau để khai thác thông tác giả sử dụng đại diện hạng thấp Z để tin hình học cục bộ trong dữ liệu: xác định ma trận quan hệ của một đồ thị (6) vô hướng. Các véc tơ dữ liệu tương ứng Trong đó ký hiệu là phép nhân của các đỉnh và quan hệ giữa và được tính bởi . Sau đó có Hadamard và . thể thực hiện phân đoạn bằng cách sử Biểu thức (6) được xem là một trọng dụng thuật toán Normalized Cuts để đưa số , vì vậy nó có thể thúc đẩy ra kết quả phân đoạn. sự thưa thớt của hàm mục tiêu, (6) được Dựa trên những đặc điểm có thể tính như sau: phục hồi dữ liệu gốc và khả năng đại (7) diện tốt cho dữ liệu, bài báo đề xuất sử dụng LRR và bổ sung các ràng buộc vào Theo [13], ràng buộc này có lợi cho hàm mục tiêu phù hợp để cải thiện hiệu việc phân loại khi sử dụng một biểu đồ quả phân loại hình ảnh trên cơ sở thưa đặc trưng cho mối quan hệ cục bộ. phương pháp học từ điển. Ma trận trọng số M có một đặc tính: trọng số M càng nhỏ thể hiện các mẫu 2.2. Mô hình phân loại hình ảnh sử càng giống nhau, trong khi trọng số M dụng đại diện hạng thấp càng lớn thì các mẫu càng khác nhau. Xét 1 tập dữ liệu hình ảnh huấn Như vậy, ràng buộc này mong đợi sẽ đạt luyện được sắp xếp thành ma trận được sự tương tự trong cùng lớp và sự , trong đó phân biệt giữa các lớp. Dạng ràng buộc là mẫu của lớp thứ i. cục bộ này được tích hợp vào hàm mục Để đạt được đại diện hạng thấp Z từ tiêu của LRR và viết lại như sau: tập dữ liệu X, phương trình tổng quát tối thiểu hóa hạng thấp được sử dụng: (8) (5) Chất lượng từ điển có tầm quan Mặc dù ma trận Z có khả năng đại trọng lớn đối với vấn đề phân loại hình diện tốt cho dữ liệu huấn luyện X, tuy ảnh, đặc biệt đối với trường hợp cả hai nhiên để sử dụng trong phân loại hình dữ liệu huấn luyện và hình ảnh thử ảnh, cần phải cải thiện tính phân biệt nghiệm bị hỏng [14]. Hiệu suất của thuật giữa các lớp trong Z. toán phân loại đã được cải thiện đáng kể -102-
- Tạp chí Khoa học, Trường Đại học Tiền Giang Số 12/2022 với từ điển được học từ dữ liệu huấn trong khi giữ các biến khác cố định trong luyện bị hỏng [15], [16]. Ngoài ra, quá cùng thời điểm. trình học đại diện trở nên hiệu quả đối Cập nhật J: với một từ điển nhỏ gọn, thay vì sử dụng toàn bộ dữ liệu huấn luyện làm từ điển [17], [1]. Trong mô hình học đại diện này, một từ điển nhỏ gọn và phân biệt được học từ các quan sát bị hỏng bằng cách khai thác thông tin hình học cục bộ. Hàm mục tiêu của phương pháp đề xuất (12) LRRC để học từ điển đại diện kết hợp với ràng buộc cục bộ có dạng như sau: Sử dụng giải thuật SVT (Singular Value Thresholding) để giải (12): (13) (9) Với , Trong đó: là chuẩn Frobenius của là toán tử shrinkage. D và dùng để tránh sự thay đổi tỉ lệ trong quá trình học từ điển. (14) 2.3. Giải hàm mục tiêu Để giải phương trình (9), các biến Cập nhật Z: phụ J và L được thêm vào, phương trình (9) được viết lại: (10) (15) Phương trình (10) được giải bằng phương pháp Augmented Lagrange Multiplier (ALM) [18]. Hàm Lagrange tương ứng được viết như sau: (16) Cập nhật L: (11) Trong đó , là các nhân tử Lagrange. Tối ưu hóa các biến trong (11) được thực hiện (17) bằng cách luân phiên cập nhật 1 biến -103-
- No.12/2022 Journal of Science, Tien Giang University Phương trình (17) được cập nhật theo Trong đó đại diện của mẫu thử thứ i là từng phần tử, hàng thứ i và cột thứ j của cột thứ i của và là đại diện của phần tử được tính: hạng thấp của dữ liệu được tính bằng cách giải (5). Thuật toán 1: Giải phương trình (9) bằng phương pháp ALM (18) Input: Ma trận dữ liệu hình ảnh X, các tham số , , . Cập nhật E: 1: Khởi tạo , , , , , , , , , 2: while chưa hội tụ do 3: Lần lượt cập nhật J, Z, L, E, D sử dụng (12), (16), (18), (19), (20). (19) 4: Cập nhật các nhân tử: Cập nhật D: 5: Cập nhật : (20) 6: Kiểm tra điều kiện hội tụ: Thuật toán 1 tổng hợp các bước giải phương trình (9) bằng phương pháp ALM. 2.4. Phân loại 7: end while Quá trình phân loại được thực hiện Output: Z, D, E bởi bộ phân lớp tuyến tính. Sau khi đại 2.5. Khởi tạo từ điển diện hạng thấp Z của dữ liệu huấn luyện X được tính, chúng tôi sử dụng mô hình Phương pháp K-SVD [19] được sử hồi quy ridge đa biến để xác định bộ dụng để khởi tạo từ điển. phân lớp tuyến tính : 3. KẾT QUẢ VÀ THẢO LUẬN Để chứng minh hiệu quả của (21) phương pháp đề xuất, các thử nghiệm H là ma trận lớp nhãn của X. được thực hiện trên 3 cơ sở dữ liệu hình ảnh tiêu chuẩn: cơ sở dữ liệu Extended (22) Yale B [20], cơ sở dữ liệu AR [21] và Nhãn của mẫu thử thứ i được xác Caltech101 [22]. Thuật toán đề xuất định bởi: được so sánh với các phương pháp liên (23) quan bao gồm SRC [17], SLRR [14], LRSR [23], LRSI [15]. -104-
- Tạp chí Khoa học, Trường Đại học Tiền Giang Số 12/2022 tăng hiệu suất đáng kể trong trường hợp 32 hình ảnh huấn luyện trên mỗi lớp, vì từ điển đã học với 20 nguyên tử cho mỗi (a) Dữ liệu Extended Yale B lớp có khả năng mở rộng không gian con tương ứng tốt hơn và biểu diễn do LRRC thu được có khả năng phân biệt tốt hơn, có lợi cho việc mục đích phân loại. Bảng 1. Tỉ lệ nhận dạng trên tập dữ (b) Dữ liệu AR liệu Extended Yale B (Nc = 8) Tỉ lệ mẫu 1/8 1/4 1/2 SRC 75,3 78,9 80,1 (c) Dữ liệu Caltech101 LRSR 75,3 78,6 79,5 Hình 1. Vài hình ảnh từ các tập dữ SLRR 76,6 83,7 83,8 liệu LRSI 70,3 80,9 80,8 3.1. Thực nghiệm trên tập dữ liệu LRRC 80,1 84,6 85,0 Extended Yale B Bảng 2. Tỉ lệ nhận dạng trên tập dữ Tập dữ liệu khuôn mặt Extended liệu Extended Yale B (Nc = 32) Yale B chứa 2414 hình ảnh của 38 Tỉ lệ mẫu 1/8 1/4 1/2 người, hình ảnh của mỗi người được SRC 84,4 85,7 85,9 chụp trong 64 điều kiện ánh sáng được kiểm soát khác nhau. Các hình ảnh đều ở LRSR 96,8 96,9 97,7 tư thế chính diện và được cắt theo vùng SLRR 89,9 93,6 95,7 mặt thực tế. Tất cả các hình ảnh có độ LRSI 89,5 93,5 94,5 phân giải 192 × 168 pixel (Hình 1a). LRRC 97,8 99,0 99,8 Chúng tôi thực hiện giảm kích thước 1.1. Thực nghiệm trên tập dữ liệu AR hình ảnh với tỉ lệ 1/2, 1/4, 1/8 tương ứng Tập dữ liệu khuôn mặt AR bao gồm với 8064, 2016 và 504 chiều. Số lượng hơn 4000 hình ảnh trực diện từ 126 cá ảnh được chọn ngẫu nhiên trên mỗi lớp nhân. Đối với mỗi cá nhân, 26 hình ảnh (Nc) để huấn luyện là 8 và 32. Đối với được chụp trong hai nhóm riêng biệt, trường hợp 8 ảnh cho mỗi lớp, từ điển gồm nhiều biến thể như thay đổi ánh được chọn có 5 nguyên tử cho mỗi lớp, sáng, biểu cảm và ngụy trang trên trường hợp 32 ảnh mỗi lớp, từ điển được khuôn mặt (Hình 1b). Kích thước của chọn có 20 mục cho mỗi lớp. Kết quả mỗi hình ảnh là 165 × 120 pixel. Trong nhận dạng so sánh các phương pháp các thử nghiệm, một tập hợp con của cơ khác được trình bày trong Bảng 1 và sở dữ liệu AR gồm 50 nam và 50 nữ Bảng 2. Có thể thấy rằng phương pháp được chọn. Các ảnh được chuyển đổi đề xuất LRRC có kết quả vượt trội hơn sang thang màu xám và lấy mẫu xuống so với các phương pháp khác trong cả theo tỷ lệ 1/3. Kích thước của vectơ đặc hai các trường hợp. Nó vượt trội hơn điểm là 2200. Các thí nghiệm được tiến SLRR khi cải thiện cao nhất 3,5% với 8 hành trong ba tình huống sau: hình ảnh đào tạo cho mỗi người và cải 1) Kính râm: Trước tiên, chúng tôi thiện 7,9% với 32 hình ảnh huấn luyện. xem xét các mẫu huấn luyện có sự hiện Cách tiếp cận của chúng tôi đạt được -105-
- No.12/2022 Journal of Science, Tien Giang University diện của kính râm, ảnh hưởng đến trường hợp ảnh bị che khuất như kính khoảng 20% hình ảnh khuôn mặt. râm và khẩu trang trong khi hiệu suất Chúng tôi sử dụng bảy hình ảnh trung của các phương pháp khác thấp hơn khi tính cộng với 1 hình ảnh kính râm từ cả hình ảnh huấn luyện và kiểm tra bị nhóm 1 (được chọn ngẫu nhiên) cho 1 hỏng. Từ kết quả nhận dạng cho thấy, từ lớp (8 hình ảnh cho mỗi lớp) và hình điển dựa trên đại diện hạng thấp có tính ảnh trung tính còn lại hình ảnh (từ phân biệt rất quan trọng đối với học cách nhóm 2) và phần còn lại của hình ảnh đại diện khi cả hình ảnh huấn luyện và với kính râm (2 ảnh ở nhóm 1 và 3 ảnh kiểm tra đều bị hỏng nặng. ở nhóm 2) dùng để kiểm tra (12 hình 3.2. Thực nghiệm trên tập dữ liệu ảnh kiểm tra cho mỗi lớp). Caltech101 2) Khẩu trang: Chọn số lượng ảnh Tập dữ liệu hình ảnh Caltech 101 huấn luyện và kiểm tra giống như ảnh chứa 9144 ảnh gồm 102 lớp, 101 lớp là kính râm ở trên. động vật, hoa, cây cối, … và một lớp 3) Hỗn hợp (kính râm và khẩu nền. Số lượng hình ảnh trong mỗi lớp trang): Các mẫu huấn luyện bao gồm thay đổi từ 31 đến 800 (Hình 1c). 15 và ảnh kính râm và khẩu trang. 7 hình ảnh 30 hình ảnh trong mỗi lớp được chọn trung tính, 2 hình ảnh bị hỏng (1 ảnh có ngẫu nhiên cho dữ liệu huấn luyện, phần kính râm và 1 ảnh với khẩu trang) từ còn lại dùng để kiểm tra. Từ điển được nhóm 1 được sử dụng để huấn luyện (9 chọn với 10 phần tử/mỗi lớp. Bảng 4 ảnh huấn luyện cho mỗi lớp) và phần trình bày độ chính xác của quá trình còn lại được sử dụng để kiểm tra (17 phân loại. Thuật toán đề xuất đã đạt hình ảnh kiểm tra/mỗi lớp). được hiệu suất vượt trội so với các Kích thước từ điển được chọn với 5 phương pháp khác. Hình 2 thể hiện ảnh nguyên tử/mỗi lớp trong cả 3 tình từ các lớp đạt được độ chính xác phân huống. Kết quả so sánh các phương loại cao trong trường hợp sử dụng 30 pháp khác nhau trên cơ sở dữ liệu AR hình ảnh huấn luyện cho mỗi lớp. được tóm tắt trong Bảng 3. Cách tiếp cận của chúng tôi đạt được kết quả nhận tốt nhất và làm tốt hơn LRSR 3,1% đối với trường hợp kính râm, 5,2% cho trường hợp khẩu trang và 4,4% cho trường hợp hỗn hợp. Bảng 3. Tỉ lệ nhận dạng trên tập dữ liệu AR (a) Đồng hồ 95,8% Chiều 2200 Kính Khẩu Hỗn râm trang hợp SRC 82,1 72,6 65,5 LRSR 89,2 85,2 85,6 SLRR 87,3 83,4 82,4 (b) Mô tô 97,6% LRSI 84,9 76,4 80,3 LRRC 92,3 90,4 90,0 Phương pháp tiếp cận của chúng tôi cho thấy sự chắc chắn đối với những (c) Âm dương 100% -106-
- Tạp chí Khoa học, Trường Đại học Tiền Giang Số 12/2022 phương pháp đề xuất so với các phương pháp học tương tự. TÀI LIỆU THAM KHẢO (d) Hoa 100% [1]. G. Liu, Z. Lin, S. Yan, J. Sun, Y. Yu, and Y. Ma, “Robust recovery of subspace structures by low-rank representation,” IEEE Trans. (e) Quả bóng 100% Pattern Anal. Mach. Intell., vol. 35, Hình 2. Hình ảnh có tỉ lệ nhận dạng no. 1, pp. 171–184, 2013, doi: cao 10.1109/TPAMI.2012.88. Bảng 4. Tỉ lệ nhận dạng trên tập dữ [2]. J. Chen and J. Yang, “Robust liệu Caltech 101 subspace segmentation via low-rank Số mẫu huấn luyện 15 30 representation,” IEEE Trans. SRC 64,9 70,7 Cybern., vol. 44, no. 8, pp. 1432– LRSR 69,6 77,2 1445, 2014, doi: SLRR 66,1 73,6 10.1109/TCYB.2013.2286106. LRSI 58,3 65,7 [3]. Z. Hu, F. Nie, R. Wang, and X. Li, LRRC 72,1 79,8 “Low Rank Regularization: A review,” Neural Networks, vol. 136, Qua kết quả thực nghiệm, có thể pp. 218–232, 2021, doi: thấy phương pháp đề xuất đã đạt được 10.1016/j.neunet.2020.09.021. hiệu quả phân loại hình ảnh tốt hơn so với các phương pháp khác khi kết hợp [4]. L. Ma, C. Wang, B. Xiao, and W. đại diện hạng thấp với ràng buộc cục bộ. Zhou, “Sparse representation for Ràng buộc cục bộ đã có xu hướng làm face recognition based on cho đại diện của các mẫu trong cùng lớp discriminative low-rank dictionary có tính tương tự, trong khi đại diện hạng learning,” in Proceedings of the thấp có khả năng loại trừ nhiễu trong IEEE Computer Society Conference hình ảnh. Ngoài ra, khi sử dụng phương on Computer Vision and Pattern pháp học từ điển, một từ điển nhỏ gọn Recognition, 2012, pp. 2586–2593, với khả năng tái tạo tốt các mẫu và khả doi: 10.1109/CVPR.2012.6247977. năng phân biệt mạnh được học cùng thời [5]. T. Zhang, B. Ghanem, S. Liu, … C. điểm với đại diện hạng thấp. X.-P. of the, and undefined 2013, 4. KẾT LUẬN “Low-rank sparse coding for image classification,” Bài báo đã giới thiệu một thuật toán openaccess.thecvf.com, 2013, doi: mới “Phân loại hình ảnh sử dụng đại 10.1109/ICCV.2013.42. diện hạng thấp”. Với việc thiết kế bổ sung các ràng buộc phân biệt vào quy tắc [6]. L. Li, S. Li, and Y. Fu, “Learning hạng thấp, thuật toán đã cải thiện khả low-rank and discriminative năng miêu tả và độ phân biệt của đại dictionary for image classification,” diện hạng thấp và từ điển phân biệt được Image Vis. Comput., vol. 32, no. 10, huấn luyện nhằm nâng cao hiệu quả pp. 814–823, 2014, doi: nhận dạng hình ảnh. Kết quả thực 10.1016/j.imavis.2014.02.007. nghiệm cho thấy tính vượt trội của -107-
- No.12/2022 Journal of Science, Tien Giang University [7]. H.-F. Yin, X.-J. Wu, and J. Kittler, representation,” Neural Comput., “Face Recognition via Locality vol. 15, no. 6, pp. 1373–1396, 2003, Constrained Low Rank doi: 10.1162/089976603321780317. Representation and Dictionary [14]. Y. Zhang, Z. Jiang, and L. S. Learning,” 2019, Accessed: Mar. Davis, “Learning structured low- 01, 2020. [Online]. Available: rank representations for image https://github.com/yinhefeng/LCLR classification,” Proc. IEEE Comput. RDL. Soc. Conf. Comput. Vis. Pattern [8]. P. Xie, H.-F. Yin, and X.-J. Wu, Recognit., pp. 676–683, 2013, doi: “Low-rank representations with 10.1109/CVPR.2013.93. incoherent dictionary for face [15]. C.-F. Chen, C.-P. Wei, and Y.-C. recognition,” 2019, Accessed: Apr. F. Wang, “Low-rank matrix 06, 2020. [Online]. Available: recovery with structural incoherence http://arxiv.org/abs/1912.04478. for robust face recognition,” [9]. H. Nguyen, W. Yang, B. Sheng, and ieeexplore.ieee.org, 2012, doi: C. Sun, “Discriminative low-rank 10.1109/CVPR.2012.6247981. dictionary learning for face [16]. Y. Rong, S. Xiong, and Y. Gao, recognition,” Neurocomputing, vol. “Low-rank double dictionary 173, pp. 541–551, Jan. 2016, doi: learning from corrupted data for 10.1016/j.neucom.2015.07.031. robust image classification,” Pattern [10]. Q. Wang, X. He, and X. Li, Recognit., vol. 72, pp. 419–432, “Locality and structure regularized 2017, doi: low rank representation for 10.1016/j.patcog.2017.06.038. hyperspectral image classification,” [17]. J. Wright, A. Y. Yang, A. IEEE Trans. Geosci. Remote Sens., Ganesh, S. S. Sastry, and Y. Ma, vol. 57, no. 2, pp. 911–923, 2019, “Robust face recognition via sparse doi: 10.1109/TGRS.2018.2862899. representation,” IEEE Trans. [11]. J. Li, H. Chang, and J. Yang, Pattern Anal. Mach. Intell., vol. 31, “Learning discriminative low-rank no. 2, pp. 210–227, 2009, doi: representation for image 10.1109/TPAMI.2008.79. classification,” Proc. Int. Jt. Conf. [18]. Z. Lin, M. Chen, and Y. Ma, Neural Networks, no. September, “The Augmented Lagrange pp. 313–318, 2014, doi: Multiplier Method for Exact 10.1109/IJCNN.2014.6889401. Recovery of Corrupted Low-Rank [12]. L. Wei, A. Wu, and J. Yin, Matrices,” Sep. 2010, doi: “Latent space robust subspace 10.1016/j.jsb.2012.10.010. segmentation based on low-rank and [19]. M. Aharon, M. Elad, and A. locality constraints,” Expert Syst. Bruckstein, “K-SVD: An algorithm Appl., vol. 42, no. 19, pp. 6598– for designing overcomplete 6608, 2015, doi: dictionaries for sparse 10.1016/j.eswa.2015.04.041. representation,” IEEE Trans. Signal [13]. M. Belkin and P. Niyogi, Process., vol. 54, no. 11, pp. 4311– “Laplacian eigenmaps for 4322, 2006, doi: dimensionality reduction and data 10.1109/TSP.2006.881199. -108-
- Tạp chí Khoa học, Trường Đại học Tiền Giang Số 12/2022 [20]. A. S. Georghiades, P. N. Belhumeur, and D. J. Kriegman, “From few to many: Illumination cone models for face recognition under variable lighting and pose,” IEEE Trans. Pattern Anal. Mach. Intell., vol. 23, no. 6, pp. 643–660, Jun. 2001, doi: 10.1109/34.927464. [21]. A. Mart Nez and R. Benavente, “The AR Face Database,” CVC Tech. Rep., 1998, Accessed: Apr. 06, 2020. [Online]. Available: http://rvl1.ecn.purdue.edu/aleix/alei xfaceDB.htmlorhttp://RVL.www.ec n.purdue.edu. [22]. L. Fei-Fei, R. Fergus, and P. Perona, “Learning generative visual models from few training examples: An incremental Bayesian approach tested on 101 object categories,” Comput. Vis. Image Underst., vol. 106, no. 1, pp. 59–70, Apr. 2007, doi: 10.1016/j.cviu.2005.09.012. [23]. Y. Li, J. Liu, H. Lu, and S. Ma, “Learning robust face representation with classwise block-diagonal structure,” IEEE Trans. Inf. Forensics Secur., vol. 9, no. 12, pp. 2051–2062, 2014, doi: 10.1109/TIFS.2014.2361936. -109-
CÓ THỂ BẠN MUỐN DOWNLOAD
-
Hướng dẫn sử dụng PowerPoint 2007 - Phần 2
4 p | 356 | 158
-
ỨNG DỤNG CÔNG NGHỆ THÔNG TIN TRONG DẠY HỌC
15 p | 453 | 94
-
Bài giảng Photoshop - Chương 7: Phục hồi và chỉnh sửa ảnh
22 p | 71 | 20
-
Cẩm nang sử dụng filter trong nhiếp ảnh
26 p | 102 | 16
-
Đánh giá hiệu suất các thuật toán trí tuệ nhân tạo trong phân loại rác thải
5 p | 56 | 6
-
Nghiên cứu nhận dạng biểu cảm khuôn mặt bằng phương pháp học sâu sử dụng kiến trúc resnet
5 p | 72 | 6
-
Giáo trình xử lý ảnh y tế Tập 3 P1
9 p | 79 | 5
-
Dự đoán góc lái xe tự hành sử dụng mạng noron tích chập tiên tiến
9 p | 49 | 5
-
Nghiên cứu thuật toán học cặp từ điển phân biệt trong phân loại hình ảnh
6 p | 20 | 4
-
Truy vấn ảnh sử dụng RS-Tree và mạng học sâu R-CNN
13 p | 11 | 4
-
Tính toán lưu lượng giao thông theo thời gian thực từ ảnh carmera giám sát
8 p | 13 | 4
-
Phân loại ảnh đa nhãn với đối tượng mới từ tập dữ liệu đơn nhãn dựa trên mô hình conformer mặt nạ
9 p | 12 | 3
-
Phân loại web đồi trụy dựa vào văn bản và hình ảnh
9 p | 45 | 3
-
Phát hiện và phân loại người đi bộ sử dụng phương pháp học sâu
8 p | 34 | 3
-
Xóa chi tiết không mong muốn trên hình ảnh với InPaint
7 p | 65 | 3
-
Sử dụng mạng nơ-ron đồ thị để phân tích cảm xúc cho bình luận
15 p | 3 | 2
-
Ứng dụng mạng Efficientnet trong phân loại lớp phủ bề mặt
7 p | 1 | 0
Chịu trách nhiệm nội dung:
Nguyễn Công Hà - Giám đốc Công ty TNHH TÀI LIỆU TRỰC TUYẾN VI NA
LIÊN HỆ
Địa chỉ: P402, 54A Nơ Trang Long, Phường 14, Q.Bình Thạnh, TP.HCM
Hotline: 093 303 0098
Email: support@tailieu.vn