intTypePromotion=1
zunia.vn Tuyển sinh 2024 dành cho Gen-Z zunia.vn zunia.vn
ADSENSE

Phát hiện khẩu trang sử dụng mô hình học sâu MobileNetV2

Chia sẻ: _ _ | Ngày: | Loại File: PDF | Số trang:8

62
lượt xem
9
download
 
  Download Vui lòng tải xuống để xem tài liệu đầy đủ

Nghiên cứu này trình bày phương pháp học sâu (deep learning - DL) MobileNetV2 nhằm phát hiện người đeo khẩu trang trên ảnh và video thời gian thực. Mạng được huấn luyện để thực hiện nhận dạng hai lớp gồm những người đeo khẩu trang và những người không đeo khẩu trang, đầu vào là các ảnh mầu RBG với độ phân giải 224×224. Các ảnh mẫu được lấy từ cơ sở dữ liệu Real World Masked Face Dataset.

Chủ đề:
Lưu

Nội dung Text: Phát hiện khẩu trang sử dụng mô hình học sâu MobileNetV2

  1. LIÊN NGÀNH ĐIỆN - ĐIỆN TỬ - TỰ ĐỘNG HÓA Phát hiện khẩu trang sử dụng mô hình học sâu MobileNetV2 Face Mask Detector using Deep Learning model MobileNetV2 Phạm Thị Hường Email: pthuong@saodo.edu.vn Trường Đại học Sao Đỏ Ngày nhận bài: 13/4/2020 Ngày nhận bài sửa sau phản biện: 26/9/2020 Ngày chấp nhận đăng: 30/9/2020 Tóm tắt Nghiên cứu này trình bày phương pháp học sâu (deep learning - DL) MobileNetV2 nhằm phát hiện người đeo khẩu trang trên ảnh và video thời gian thực. Mạng được huấn luyện để thực hiện nhận dạng hai lớp gồm những người đeo khẩu trang và những người không đeo khẩu trang, đầu vào là các ảnh mầu RBG với độ phân giải 224×224. Các ảnh mẫu được lấy từ cơ sở dữ liệu Real World Masked Face Dataset. Kết quả thử nghiệm trên bộ mẫu gồm 4.591 mẫu cho khả năng phát hiện chính xác đạt 99,22% cho thấy đây là một trong những phương pháp góp phần hạn chế lây nhiễm dịch bệnh COVID-19 nhằm bảo vệ sức khỏe cộng đồng. Từ khóa: COVID-19; học sâu; phát hiện khẩu trang. Abstract This study presents a deep learning method to detect people who wear masks on images and real- time videos. A MobileNetV2 network was used to train a binary recognition task (people with mask or without mask). The input RGB color images were at resolution of 224×224. The set of 4.591 images was taken from Real World Fase Dataset to train and test the network. Numerical results showed an accurate detection at 99,22%, whichproves that this could be one of the measures contributing to the limit of COVID-19 disease transmission to protect public health. Keywords: COVID-19; deep learning; face mask detection. 1. ĐẶT VẤN ĐỀ ra COVID-19, kết hợp với bằng chứng mới xuất hiện từ các nghiên cứu lâm sàng và trong phòng Hiện tại, dịch bệnh COVID-19 vẫn có diễn biến thí nghiệm cho thấy khẩu trang làm giảm việc phun phức tạp trên toàn thế giới, nó không chỉ ảnh các giọt bắn khi đeo qua mũi và miệng [2]. Các hưởng đến kinh tế, thương mại, dịch vụ mà còn giọt cũng có thể rơi xuống các bề mặt nơi vi-rút có ảnh hưởng không nhỏ đến tâm lý xã hội của người thể tồn tại. Do đó, môi trường trực tiếp của một cá dân và chưa có vacxin điều trị cho nên cần kiểm nhân bị nhiễm bệnh có thể đóng vai trò là nguồn soát tốt nguồn lây nhiễm. Leung et al. [1] cho rằng lây truyền do tiếp xúc. Theo các chuyên gia của Tổ khẩu trang có thể làm giảm sự lây lan của vi-rút chức Y tế thế giới (WHO), đeo khẩu trang có thể Corona vì đa số các ca lây nhiễm COVID-19 do hạn chế sự lây lan của một số bệnh đường hô hấp tiếp xúc rất gần và không đeo khẩu trang khi nói trong đó có COVID-19. Dịch bệnh này lây lan chủ chuyện. Theo trung tâm kiểm soát bệnh tật CDC yếu giữa những người tiếp xúc gần với nhau (trong (Centers for Disease Control and Prevention), khoảng 6 feet), vì vậy việc sử dụng khẩu trang đặc khẩu trang được khuyến nghị là một rào chắn đơn biệt quan trọng ở những nơi mọi người gần nhau giản để giúp ngăn các giọt bắn từ đường hô hấp hoặc nơi khó có thể duy trì cách ly xã hội. WHO bay vào không khí và lên người khác. Khuyến nghị cũng khuyến cáo mọi người nên đeo khẩu trang này dựa trên nghiên cứu vai trò của các giọt bắn nếu họ có triệu chứng hô hấp, hoặc họ đang chăm từ đường hô hấp đối với sự lây lan của vi-rút gây sóc những người có triệu chứng [3]. Như vậy, phát hiện người đeo khẩu trang đề cập Người phản biện: 1. PGS. TS. Trần Hoài Linh đến việc phát hiện xem một người đeo khẩu trang 2. TS. Đỗ Văn Đỉnh hay không và vị trí của khuôn mặt đó [4] trở thành Tạp chí Nghiên cứu khoa học, Trường Đại học Sao Đỏ, ISSN 1859-4190, Số 3 (70) 2020 5
  2. NGHIÊN CỨU KHOA HỌC một nhiệm vụ quan trọng nhưng nghiên cứu liên nhầm. Ở Pháp cũng sử dụng AI để kiểm tra xem quan đến vấn đề này chưa phổ biến. Trên thế giới, mọi người có đeo khẩu trang trên phương tiện giao đã có một số nghiên cứu phát hiện người đeo hay thông công cộng hay không như tại ga tàu điện không đeo khẩu trang. Trong [5] đã xây dựng mô ngầm Chatelet-Les Halles. Tại Việt Nam, Robot do hình CNN để phát hiện khuôn mặt đeo khẩu trang, Đại học Công nghệ (ĐH Quốc gia) chế tạo để phát mô hình có độ chính xác 98,86% với bộ huấn luyện hiện người không đeo khẩu trang và nhắc nhở sử và 96,19% với bộ thử nghiệm. Tác giả sử dụng đặc dụng những thiết bị, linh kiện có sẵn. Camera tích trưng Haar để phát hiện khuôn mặt và CNN với các hợp cảm biến laser để đo khoảng cách, phát hiện lớp khác nhau như Conv2D, MaxPooling2D, Flatten, người ra vào cửa. Cùng lúc, camera sẽ thu lại hình Dropout và Dense. Trong [6] sử dụng PyTorch và ảnh và truyền tới máy tính. Các chi tiết chính trên khuôn mặt như mắt, mũi, miệng sẽ được số hóa CNN để cài đặt học sâu. Các mô hình đã được thử và xử lý. Nếu máy tính phát hiện mũi và miệng bị nghiệm với hình ảnh và video thời gian thực với độ che, có nghĩa là người đó đang đeo khẩu trang. chính xác của mô hình là 60%. Trong [7] dùng mô Còn trong trường hợp miệng bị che nhưng mũi hình học sâu thay vì mô hình Haar-Cascade, CNN hở, hoặc cả mũi và miệng đều hở, nghĩa là người sử dụng 4 lớp chập theo sau là 2 lớp tuyến tính, đó đeo chưa đúng cách hoặc không đeo. Khi đó dùng ReLU làm chức năng kích hoạt và MaxPool2 máy tính sẽ lập tức kích hoạt loa và phát ra thông là lớp tổng hợp. Huấn luyện mô hình trong 10 lần báo. Độ chính xác phụ thuộc nhiều vào bối cảnh, lặp và độ chính xác đạt cao nhất tại lần lặp thứ 8 chẳng hạn ánh sáng, cách di chuyển của người là 99%. Trong [8], sử dụng deepleaning và bộ dữ ra vào cao nhất đã đạt 95%. Như vậy, phát hiện liệu của tác giả Prajna Bhandary là bộ dữ liệu đào khẩu trang là một nhiệm vụ cần thiết trong tình hình tạo có phần hạn chế bởi nhãn lớp có khẩu trang hiện nay, mục tiêu ngoài nhắc nhở những cá nhân được tạo một cách nhân tạo. Cụ thể, chụp ảnh không đeo khẩu trang, mà còn tạo ra dữ liệu thống bình thường của khuôn mặt sau đó tùy chỉnh để kê giúp chính quyền dự đoán sự bùng phát của thêm khẩu trang cho chúng. Phương pháp này COVID-19 trong tương lai. Nghiên cứu này tiếp dễ hơn nhiều so với áp dụng các mốc trên khuôn cận theo phương pháp học sâu sử dụng mô hình mặt. Các mốc trên khuôn mặt cho phép chúng ta MobileNetV2, một mô hình khá nhẹ, số lượng tham tự động suy ra vị trí của các cấu trúc khuôn mặt, số ít, tốc độ tính toán nhanh và dễ triển khai ứng bao gồm: Đôi mắt, lông mày, mũi, miệng, hàm. dụng real time trên các thiết bị di động hoặc thống Dựa vào các mốc trên khuôn mặt để xây dựng bộ nhúng có khả năng tính toán thấp để tự động phát dữ liệu khuôn mặt đeo khẩu trang. Ngoài ra, bộ dữ hiện cùng lúc nhiều người không đeo khẩu trang liệu nhân tạo hình ảnh khuôn mặt đeo khẩu trang trên ảnh và video thời gian thực với bộ dữ liệu không chứa các hình ảnh có thể khiến phân loại người đeo khẩu trang thực. Begin Load ảnh/video Dự đoán Có Không Có khẩu trang Thông báo with _mask Thông báo with _mask Kết thúc Lưu hình ảnh, thời gian hiện tại Hình 1. Sơ đồ thuật toán phát hiện khẩu trang 6 Tạp chí Nghiên cứu khoa học, Trường Đại học Sao Đỏ, ISSN 1859-4190, Số 3 (70) 2020
  3. LIÊN NGÀNH ĐIỆN - ĐIỆN TỬ - TỰ ĐỘNG HÓA 2. NỘI DUNG NGHIÊN CỨU 2.2. Tiền xử lý dữ liệu 2.1. Bài toán phát hiện khẩu trang Cơ sở dữ liệu hình ảnh thu thập tại Real World Masked Face Dataset (RMFD) chứa 5.000 khuôn Phát hiện đối tượng là để trả lời câu hỏi: “Đối tượng mặt đeo khẩu trang của 525 người và 90.000 cần tìm có ở trong ảnh hay video hay không?” và khuôn mặt bình thường, sau đó tiến hành tiền xử “Nếu có thì nằm ở vị trí nào?” Trong bài toán phát lý để đưa vào mô hình huấn luyện [11]. Các bước hiện người đeo khẩu trang cần trả lời câu hỏi người xử lý trước bao gồm thay đổi kích thước thành trong ảnh/video có hay không đeo khẩu trang? Bài 224 × 224 pixel, chuyển đổi sang định dạng mảng, toán phân loại này gồm hai bước là xây dựng mô chuyển kênh màu BGR sang RGB và chia tỷ lệ hình và vận hành mô hình. Cho sẵn một tập dữ liệu cường độ pixel trong hình ảnh đầu vào thành phạm vi [-1, 1]. Sau đó sử dụng scikit-learn One-Hot- các khuôn mặt được gán nhãn là không đeo khẩu Encoding để tạo nhãn lớp cho mỗi hình ảnh. Trong trang hay có đeo khẩu trang gọi tắt là lớp không chiến lược này, mỗi véc-tơ giá trị nhãn đầu ra được khẩu trang và lớp có khẩu trang. Cần một phương chuyển đổi thành dạng mới, trong đó chỉ có 1 đầu pháp huấn luyện để xây dựng một mô hình phân ra bằng “1” ứng với mã phân loại của véc-tơ đầu lớp từ tập dữ liệu mẫu đó, sau đó dùng mô hình vào tương ứng còn các đầu ra khác đều bằng “0”. này dự đoán lớp của những khuôn mặt mới chưa Tập hình ảnh này gọi là tập huấn luyện. Trong biết nhãn. nghiên cứu này tác giả sử dụng 686 hình ảnh khuôn mặt không đeo khẩu trang và 3.905 hình ảnh đeo khẩu trang làm dữ liệu huấn luyện mô hình. (a) (b) Hình 2. (a) Mặt không có khẩu trang và (b) mặt có khẩu trang (a) Mặt không có khẩu trang (c) Mặt có và không có khẩu trang (b) Mặt có khẩu trang (d) Mặt nhầm lẫn là khẩu trang Hình 3. (a), (b), (c), (d) Minh họa các ảnh trong bộ dữ liệu phát hiện khẩu trang Tạp chí Nghiên cứu khoa học, Trường Đại học Sao Đỏ, ISSN 1859-4190, Số 3 (70) 2020 7
  4. NGHIÊN CỨU KHOA HỌC 2.3. Huấn luyện mô hình 2.4. Vận hành mô hình CNN (Mạng nơron tích chập) có nhiều phiên bản Tải hình ảnh, video đầu vào sau đó phát hiện của mạng được đào tạo trước và kiến trúc tốt như khuôn mặt trong ảnh. Áp dụng bộ phát hiện khẩu AlexNet, ResNet, Inception, LeNet, MobileNet,… trang để phân loại khuôn mặt đeo khẩu trang (with_ Trong trường hợp này sử dụng MobileNetV2 là mô mask) hoặc là không đeo khẩu trang (without_ mask). Tiền xử lý được thực hiện là chuẩn hóa hình hướng di động, nhẹ và hiệu quả do số lượng kích thước và hoán đổi kênh màu. Để giảm nhiễu tham số ít. MobileNetV2 xây dựng dựa trên các ý cho ảnh do chiếu sáng cần chuyển ảnh sang dạng tưởng từ MobileNetV1 [10], sử dụng tích chập có ảnh blob thông qua hàm blobFromImage của thể phân tách theo chiều sâu với các đặc trưng mới OpenCV. cho kiến trúc. Trong bước này, chia dữ liệu thành tập huấn luyện Load ảnh/video cần kiểm tra chứa các hình ảnh mà mô hình CNN sẽ được huấn luyện và tập kiểm tra với các hình ảnh mà mô hình sẽ kiểm tra. Cụ thể lấy split_size = 0.8, có nghĩa là Phát hiện mặt từ ảnh/video 80% tổng số hình ảnh cho huấn luyện và 20% còn lại của hình ảnh cho kiểm tra một cách ngẫu nhiên. Sau đó, xây dựng mô hình CNN với các lớp khác Áp dụng mô hình để dự đoán nhau như AveragePooling2D với trọng số 7×7, Flatten, Dropout và Dense. Trong lớp Dense cuối cùng, sử dụng hàm softmax để xuất ra một véc - tơ thể hiện xác suất của mỗi lớp. Đưa ra kết quả dự đoán Ảnh huấn luyện Hình 5. Vận hành mô hình 2.5. Phát hiện khẩu trang trên ảnh Tiền xử lý ảnh Với mỗi hình ảnh trong bộ kiểm tra, cần tìm chỉ mục của nhãn với xác suất dự đoán lớn nhất tương ứng, đánh giá và lưu mô hình. Sơ đồ phát hiện Trích chọn đặc trưng khẩu trang trên ảnh như trên hình 6. 2.6. Phát hiện khẩu trang trên ảnh Huấn luyện mô hình Đối với vấn đề xác định người trong video/webcam có đeo khẩu trang hay không cần xác định các khuôn mặt trong webcam và phân loại khuôn mặt đeo khẩu trang. Đầu tiên, lặp qua các frame từ Lưu mô hình video và thay đổi kích thước để có chiều rộng tối đa 400 pixel, phát hiện khuôn mặt trong frame và xác Hình 4. Huấn luyện mô hình định xem họ có đang đeo khẩu trang hay không? Quy trình chi tiết được thể hiện trên hình 7. Pooling theo Phẳng hóa ma trận Ảnh nguồn MobileNetV2 giá trị trung bình thành véc - tơ Hàm kích hoạt Dropout Kích hoạt phi tuyến Kết quả Softmax 2 kênh ra p = 0,5 Relu 128 kênh ra Hình 6. Sơ đồ phát hiện người đeo khẩu trang trên ảnh 8 Tạp chí Nghiên cứu khoa học, Trường Đại học Sao Đỏ, ISSN 1859-4190, Số 3 (70) 2020
  5. LIÊN NGÀNH ĐIỆN - ĐIỆN TỬ - TỰ ĐỘNG HÓA Khởi tạo Trích xuất ảnh Load phát hiện từ các frame Ảnh khuôn mặt video khuôn mặt Hiện thị Chuyển kết quả Load mô hình kết quả vào frame MobileNetV2 Tiền xử lý ảnh Hình 7. Sơ đồ phát hiện người đeo khẩu trang trên video/webcam 3. KẾT QUẢ NGHIÊN CỨU VÀ THẢO LUẬN - FN: Số lượng khuôn mặt đeo khẩu trang bị phân loại nhầm là khuôn mặt không đeo khẩu trang. Dữ liệu thực hiện huấn luyện được lấy tại Real - TP: Số lượng khuôn mặt đeo khẩu trang được World Masked Face Dataset với nhiều ánh sáng, phân loại chính xác. tư thế, sự che khuất khác nhau, một số khuôn mặt được che bằng tay hoặc các vật thể khác thay vì - FP: Số lượng khuôn mặt không đeo khẩu trang bị phân loại nhầm là khuôn mặt đeo khẩu trang. khẩu trang thực. Dữ liệu bao gồm các mặt có khẩu trang, mặt không có khẩu trang, mặt có và không Từ đó, độ chính xác của mô hình được tính theo có khẩu trang trong một hình ảnh và hình ảnh nhầm công thức sau: là khẩu trang nhưng thực tế thì không có. 𝑇𝑇𝑇𝑇 + 𝑇𝑇𝑇𝑇 𝐴𝐴𝐴𝐴𝐴𝐴𝐴𝐴𝐴𝐴𝐴𝐴𝐴𝐴𝐴𝐴 = (2) Để đánh giá tập trọng số cần xác định lỗi cho cả 𝑇𝑇𝑇𝑇 + 𝐹𝐹𝑇𝑇 + 𝑇𝑇𝑇𝑇 + 𝐹𝐹𝑇𝑇 huấn luyện (loss) và kiểm tra (val_loss) ta sử dụng Đây là tỉ lệ của tất cả trường hợp phân loại đúng hàm Cross Entropy là nhị phân chéo binary_cros- (không phân biệt negative/positive) trên toàn bộ sentropy. Cụ thể, tính toán loss của mỗi trường trường hợp trong mẫu kiểm tra. hợp bằng cách tính giá trị trung bình như sau: Một độ đo cũng thường được dùng để đánh giá mô 1 " hình phân lớp đó là F-measure hay F-core được ( ) = − , . 0 𝑦𝑦! . log(𝑦𝑦4! ) + (1 − 𝑦𝑦! ). log (1 − 𝑦𝑦4!tính 𝑙𝑙𝑜𝑜𝑜𝑜𝑜𝑜(𝑦𝑦, 𝑦𝑦 )6 dựa trên 2 độ đo khác là precision và recall, và 𝑛𝑛 " !#$ (1) được tính như sau: 1 ( ) = − , . 0 𝑦𝑦! . log(𝑦𝑦4! ) + (1 − 𝑦𝑦! ). log (1 − 𝑦𝑦4! )6 𝑦𝑦 𝑇𝑇𝑃𝑃 𝑛𝑛 𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃 = (3) !#$ 𝑇𝑇𝑃𝑃 + 𝐹𝐹𝑃𝑃 Với n là số lượng giá trị vô hướng trong đầu ra của mô hình, hàm loss trả về một số thực không 𝑇𝑇𝑇𝑇 𝑅𝑅𝑅𝑅𝑅𝑅𝑅𝑅𝑅𝑅𝑅𝑅 = (4) âm thể hiện sự chênh lệch giữa hai đại lượng yˆ là 𝑇𝑇𝑇𝑇 + 𝐹𝐹𝐹𝐹 xác suất nhãn được dự đoán và y là xác suất của 2 𝑇𝑇𝑃𝑃 nhãn đúng. Sau đó sử dụng thuật toán gradient 𝐹𝐹!"#$% = = (5) 1 1 𝐹𝐹𝐹𝐹 + 𝐹𝐹𝑃𝑃 descent “adam” (Adaptive Mô - ment Estimator) + 𝑇𝑇𝑃𝑃 + 𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃 𝑅𝑅𝑃𝑃𝑃𝑃𝑅𝑅𝑅𝑅𝑅𝑅 2 để tối ưu [13]. Bảng 2. Đánh giá huấn luyện mô hình Hơn nữa, để kiểm định hiệu năng của mô hình phân loại, cần tính toán tỷ lệ chính xác trung bình Thời loss acc val_loss val_acc trên tất cả các dự đoán sử dụng thang đo ma trận gian (s) nhầm lẫn như sau: 49 0,8343 0,6261 0,3932 0,8050 Bảng 1. Ma trận nhầm lẫn 50 0,4339 0,7987 0,2218 0,9300 53 0,2503 0,9007 0,1433 0,9450 Dự đoán là Dự đoán là Positive Negative 52 0,1726 0,9490 0,1104 0,9550 Thực tế là Positve TP FN 52 0,1405 0,9582 0,0907 0,9700 Thực tế là Negative FP TN 59 0,1336 0,9490 0,0770 0,9800 57 0,0957 0,9752 0,0674 0,9800 Trong đó: 48 0,0802 0,9752 0,0595 0,9850 Các hàng của ma trận là nhãn lớp thực tế, các cột của ma trận là nhãn lớp dự đoán. 49 0,0718 0,0718 0,0548 0,9850 46 0,0843 0,9673 0,0481 0,9800 - TN: Số lượng khuôn mặt không đeo khẩu trang 43 0,0728 0,9778 0,0428 0,9850 được phân loại chính xác. Tạp chí Nghiên cứu khoa học, Trường Đại học Sao Đỏ, ISSN 1859-4190, Số 3 (70) 2020 9
  6. NGHIÊN CỨU KHOA HỌC Thời Bảng 3. Đánh giá mô hình loss acc val_loss val_acc gian (s) Precision Recall Fscore 48 0,0507 0,9817 0,0399 0,9950 Có khẩu trang 0,97 1,00 0,98 60 0,0423 0,9869 0,0372 0,9900 Không khẩu trang 1,00 0,99 0,99 74 0,0555 0,9843 0,0373 0,9900 Trọng số trung bình 0,99 0,99 0,99 77 0,0420 0,9883 0,0333 0,9950 71 0,0406 0,9869 0,0307 0,9950 57 0,0383 0,9895 0,0331 0,9900 57 0,0407 0,9869 0,0286 0,9950 55 0,0324 0,9900 0,0290 0,9922 42 0,0322 0,9900 0,0297 0,9922 Tiến hành huấn luyện với tốc độ học 0.0001, sau 20 lần lặp với số số lượng mẫu (Batch_size) sử dụng cho mỗi lần cập nhật trọng số là 32 ta thu được kết quả (bảng 3). Như bảng 3 có thể thấy, sau 20 lần lặp, mô hình đạt được độ chính xác Hình 8. Đồ thị độ chính xác và giá trị lỗi khoảng 99% trên bộ thử nghiệm (bộ kiểm tra). Đây Kết quả cài đặt phát hiện khẩu trang trên ảnh: là một giá trị tương đối cao. Hình 9. Kết quả phát hiện người đeo khẩu trang trên ảnh Hình 10. Kết quả phát hiện người đeo khẩu trang trên webcam điều kiện ánh sáng tối khoảng cách 3 m 10 Tạp chí Nghiên cứu khoa học, Trường Đại học Sao Đỏ, ISSN 1859-4190, Số 3 (70) 2020
  7. LIÊN NGÀNH ĐIỆN - ĐIỆN TỬ - TỰ ĐỘNG HÓA Hình 11. Kết quả phát hiện người đeo khẩu trang trên webcam điều kiện ánh sáng tối Hình 12. Kết quả phát hiện người đeo khẩu trang trên webcam điều kiện ánh sáng trung bình Hình 13. Kết quả phát hiện người đeo khẩu trang trên webcam điều kiện ánh sáng trung bình Với những khuôn mặt không đeo khẩu trang, hệ những cơ sở thống kê dự đoán sự bùng phát trong thống phát hiện và lưu dữ liệu ảnh là một trong tương lai. Hình 14. Kết quả lưu người không đeo khẩu trang trên webcam Tạp chí Nghiên cứu khoa học, Trường Đại học Sao Đỏ, ISSN 1859-4190, Số 3 (70) 2020 11
  8. NGHIÊN CỨU KHOA HỌC 4. KẾT LUẬN [5] https://towardsdatascience.com/covid-19- Kết quả nghiên cứu cho thấy: Phát hiện người đeo face-mask-detection-using-tensorflow-and- khẩu trang sử dụng mô hình học sâu MobileNetV2 opencv-702dd833515b. có độ chính xác khá cao, số lượng tham số ít, giảm [6] https://www.ideas2it.com/blogs/face- chi phí sản xuất các hệ thống phát hiện nếu triển m a s k- d et e c t o r- u s i n g - d e e p - l e a r n i n g - pytorch-and-computer-vision-opencv/ khai trên các thiết bị nhúng, có thể phát hiện nhiều khuôn mặt trên ảnh và video với bộ dữ liệu đeo [7] https://towardsdatascience.com/how-i- built-a-face-mask-detector-for-covid-19- khẩu trang thực tế. Hơn nữa, nghiên cứu cũng using-pytorch-lightning-67eb3752fd61 thực hiện việc thu thập mặt không đeo khẩu trang [8] h t t p s : / / w w w . p y i m a g e s e a r c h . và lưu trữ vào thư mục máy chủ nhằm tạo dữ liệu com/2020/05/04/covid-19-face-mask- thống kê để dự đoán sự bùng phát của dịch bệnh detector-with-opencv-keras-tensorflow- mà không cần xác định danh tính cá nhân của họ. and-deep-learning/ [9] https://vnexpress.net/dung-robot-de-phat- hien-nguoi-khong-deo-khau-trang-4099618. TÀI LIỆU THAM KHẢO html, đăng ngày 15/5/2020. [10] A. G. Howard, M. Zhu, B. Chen, D. [1] N. H. Leung, D. K. Chu, E. Y. Shiu, K.-H. Chan, Kalenichenko, W. Wang, T. Weyand, M. J. J. Mc Devitt, B. J. Hau, H.-L. Yen, Y. Li, D. KM, Andreetto, and H. Adam (2017), Mobilenets: J. Ip et al.(2020), Respiratory virus shedding in Efficient convolutional neural networks for exhaled breath and efficacy of face masks. mobile vision applications, arXiv preprint [2] S. Feng, C. Shen, N. Xia, W. Song, M. Fan, arXiv:1704.04861. and B. J. Cowling (2020), Rational use of face [11] https://github.com/X-zhangyang/Real- masks in the covid-19 pandemic, The Lancet World-Masked-Face-Dataset. Respiratory Medicine. [12] h t t p s : // t o w a r d s d a t a s c i e n c e . c o m / [3] https://vietnamese.cdc.gov/coronavirus/2019- categorical-encoding-using-label-encoding- ncov/prevent-getting-sick/cloth-face-cover- and-one-hot-encoder-911ef77fb5bd. guidance.html. [13] https://phantichdautu.com/2019/07/24/ [4] Z. Wang, G. Wang, B. Huang, Z. Xiong, Q. cac-thuat-toan-toi-uu-trong-tensorflow- Hong, H. Wu, P. Yi, K. Jiang, N. Wang, Y. voi-cong-thuc/ Pei et al. (2020), Masked face recognition dataset and application, arXiv preprint arXiv:2003.09093. THÔNG TIN TÁC GIẢ Phạm Thị Hường - Tóm tắt quá trình đào tạo, nghiên cứu (thời điểm tốt nghiệp và chương trình đào tạo, nghiên cứu): + Năm 2004: Tốt nghiệp Đại học chuyên ngành Tin học, Trường Đại học Sư Phạm Quy Nhơn. + Năm 2017: Tốt nghiệp Thạc sĩ ngành Công nghệ thông tin, Trường Đại học sư phạm Hà Nội. - Tóm tắt công việc hiện tại: Giảng viên bộ môn Công nghệ thông tin, Trường Đại học Sao Đỏ. - Lĩnh vực quan tâm: Tin học, toán học. - Email: phamthihuongdtth@gmail.com. - Điện thoại: 0972306806. 12 Tạp chí Nghiên cứu khoa học, Trường Đại học Sao Đỏ, ISSN 1859-4190, Số 3 (70) 2020
ADSENSE

CÓ THỂ BẠN MUỐN DOWNLOAD

 

Đồng bộ tài khoản
2=>2