YOMEDIA
ADSENSE
Một hàm lỗi cho phát hiện bất thường trên video giám sát
29
lượt xem 2
download
lượt xem 2
download
Download
Vui lòng tải xuống để xem tài liệu đầy đủ
Nghiên cứu này tập trung vào bài toán phát hiện bất thường ở người. Chúng tôi tiến hành đánh giá phương pháp tiên tiến Future frame prediction trên video có độ phân giải thấp, đồng thời đưa ra đề xuất hàm độ lỗi cải thiện hiệu quả cho trường hợp này.
AMBIENT/
Chủ đề:
Bình luận(0) Đăng nhập để gửi bình luận!
Nội dung Text: Một hàm lỗi cho phát hiện bất thường trên video giám sát
- Hội nghị Quốc gia lần thứ 24 về Điện tử, Truyền thông và Công nghệ Thông tin (REV-ECIT2021) MỘT HÀM LỖI CHO PHÁT HIỆN BẤT THƯỜNG TRÊN VIDEO GIÁM SÁT Vũ Ngọc Tú, Đinh Thanh Toàn, Trần Minh Tùng, Võ Duy Nguyên, Nguyễn Tấn Trần Minh Khang Trường Đại Học Công Nghệ Thông Tin Đại học Quốc gia Thành phố Hồ Chí Minh {18520184,18521504}@gm.uit.edu.vn, tungtm.ncs@grad.uit.edu.vn,{nguyenvd, khangnttm}@uit.edu.vn Tóm tắt—Thành phố thông minh triển khai hệ thống người đi bộ là bất thường, nhưng khi đi xe đạp trong camera kết hợp trí tuệ nhân tạo nhằm hỗ trợ cho hoạt đường phố thì đây lại là một sự kiện bình thường. động giám sát an ninh, trong đó việc phát hiện các sự kiện bất thường rất được quan tâm. Các sự kiện bất thường (abnormal event) là các tình huống hiếm xảy ra, khó lường Đầu vào Đầu ra trước, phụ thuộc rất nhiều vào ngữ cảnh và chất lượng của video đầu vào. Nghiên cứu này tập trung vào bài toán (Bất thường, phát hiện bất thường ở người. Chúng tôi tiến hành đánh Bất thường, giá phương pháp tiên tiến Future frame prediction trên video có độ phân giải thấp, đồng thời đưa ra đề xuất hàm Mô hình Bất thường, độ lỗi cải thiện hiệu quả cho trường hợp này. Kết quả thực Bất thường, nghiệm trên bộ dữ liệu UCSD Ped1, Subway Entrance cho Bất thường) thấy hiệu quả của phương pháp đề xuất, kết quả cải thiện lần lượt là 0.79%, 1.90%. Bên cạnh đó, nghiên cứu cung Hình 1: Bài toán nhận vào 1 video (nhiều frame ảnh) cấp các khảo sát thực nghiệm mở rộng trên 2 bộ dữ liệu UCSD Ped2, CUHK Avenue làm cơ sở cho các nghiên cứu cho biết nhãn của từng frame trong video: bình thường sau này. hay bất thường. Từ khóa—Phát hiện bất thường, học không giám sát, học sâu, dự đoán khung hình trong video. Có hai hướng giải quyết chính cho bài toán phát hiện bất thường: (1) nhóm phương pháp học không giám sát I. GIỚI THIỆU [4], [6], [5], [7], (2) nhóm phương pháp học có giám Bất thường trong video giám sát được định nghĩa là sát yếu [3], [8], [9]. Trong đó, nhóm phương pháp học những sự kiện hoặc hành động mà không ngờ tới và hiếm không giám sát tập trung vào việc dự đoán, tái tạo lại khi xảy ra trong thực tế [1], [2]. Bài toán phát hiện bất khung hình hiện tại dựa trên thông tin của khung hình thường trong video giám sát nhận vào một chuỗi frame trước đó. Sau đó khung hình tái tạo sẽ được so sánh và trả về nhãn của từng frame (bất thường, bình thường) với frame thực tế để thực hiện phân loại frame đó là như mô tả trong Hình 1. Đây là một trong những bài toán bình thường hay bất thường [4], [6]. Với nhóm phương vô cùng quan trọng và cần thiết trong việc hỗ trợ quản pháp này, chỉ cần định nghĩa bình thường với việc sử lý thành phố, khu dân cư. Tuy nhiên, do những thách dụng tập huấn luyện đầy đủ, có thể giảm bớt tỉ lệ phát thức lớn về chất lượng video, sự đa dạng của ngữ cảnh hiện bỏ sót các frame bất thường. Trong nhóm phương và sự kiện bất thường, cho đến gần đây nhiều nghiên pháp này, Future frame prediction [6] là một trong cứu mới đạt được những tiến bộ đáng kể trong việc giải những phương pháp đã mở đầu cho những bước tiến quyết bài toán [3], [4], [5]. Để hướng tới việc quản lý lớn trong việc giải quyết bài toán phát hiện bất thường. thành phố và khu dân cư, nghiên cứu sẽ tập trung những Trong quá trình huấn luyện, phương pháp có đầu vào là sự kiện, hành động bất thường liên quan tới người. một frame hiện tại và các frame trong quá khứ ở trạng Thách thức lớn nhất của bài toán là do định nghĩa của thái bình thường, phương pháp này sẽ huấn luyện mô bất thường không cụ thể mà phụ thuộc rất nhiều vào ngữ hình tạo ra một frame tiếp theo (bình thường). Trong cảnh, một sự kiện có thể là bất thường ở ngữ cảnh này quá trình kiểm tra, mô hình đã huấn luyện sinh ra nhưng đối với những ngữ cảnh khác thì sự kiện đó lại là frame mới và so sánh với frame thực tế để quyết định bình thường. Ví dụ đi xe đạp trong làn đường dành cho frame đó có bất thường hay không. Tuy nhiên, phương ISBN 978-604-80-5958-3 140
- Hội nghị Quốc gia lần thứ 24 về Điện tử, Truyền thông và Công nghệ Thông tin (REV-ECIT2021) pháp này cho thấy hiệu suất kém khi chạy trên các bộ video chia sẻ trên các nền tảng mạng xã hội (Youtube, dữ liệu có chất lượng thấp. Để giải quyết vấn đề này, Facebook,..) cho phép thu thập được một số lượng lớn nghiên cứu đề xuất sử dụng các đặc trưng Histogram các video bất thường. Tuy nhiên khi gán nhãn dữ liệu, Of Gradients (HOG) [10] bổ sung vào hàm độ lỗi để việc xác định chính xác khoảng thời gian diễn ra sự giải quyết tình trạng hình dáng đối tượng không chi tiết, kiện bất thường là một việc khó khăn, khi làm ở mức một tích chất đặc trưng trong video có độ phân giải thấp. frame thì mức độ thách thức còn tăng lên cao hơn. Vì vậy đối với các bộ dữ liệu lớn đã công bố các nhà Đóng góp chính của bài báo này bao gồm: nghiên cứu thường chỉ gán nhãn ở mức video - nghĩa là • Đối với việc dự đoán frame tương lai, dựa trên gán video đó có bất thường hay không. Việc gán nhãn phương pháp được đề xuất bởi [6] nghiên cứu đề như vậy được gọi là giám sát yếu (weakly supervised). xuất thêm thông tin về đặc trưng HOG trong hàm Nhóm phương pháp phát hiện bất thường giám sát yếu độ lỗi huấn luyện mô hình. chủ yếu gồm 3 thành phần chính: i) Xử lý nhãn ii) • Thực nghiệm và đánh giá, phân tích kết quả trên Trích xuất đặc trưng iii) Xác định bất thường dựa trên 4 bộ dữ liệu đã được công bố: UCSD Ped 1 [11], các đặc trưng được trích xuất. Tuy nhiên, hạn chế của UCSD Ped 2 [11], Subway Entrance [12] và CUHK phương pháp này là nó chỉ hiệu quả trên những bộ dữ Avenue [13]. Từ đó chứng minh tính hiệu quả của liệu có bất thường. Do đó, các phương pháp giám sát hàm lỗi này trong bài toán phát hiện bất thường. yếu chỉ phù hợp khi thực hiện đối với các bất thường Nội dung còn lại của bài báo được cấu trúc như sau. được định nghĩa rộng như đánh nhau, ẩu đả. Phần II cung cấp tổng quan về các nghiên cứu liên quan. Phần III trình bày hàm lỗi mới cho bài toàn phát hiện Generator/ Frame Predictor bất thường. Phần IV trình bày thực nghiệm và và các đánh giá, phân tích về kết quả thực nghiệm. Cuối cùng là trình bày kết quả và hướng nghiên cứu tương lai sẽ được trình bày trong phần V Unet II. CÁC NGHIÊN CỨU LIÊN QUAN Frame predictor module Intensity difference Score Anomaly or not? A. Kỹ thuật rút trích đặc trưng truyền thống Các kỹ thuật xử lý rút trích đặc trưng trên ảnh và video bao gồm các đặc trưng cục bộ (local features), Anomaly decision module đặc trưng toàn cục (global features), đặc trưng chuyển động (motion features), đặc trưng không gian – thời Hình 2: Tổng quan kiến trúc của phương pháp học không gian (spatial-temporal features), đặc trưng ngoại hình giám sát. (appearance features), tư thế người (human pose), thông tin hình ảnh (visual information), thông tin thời gian (temporal information), thông tin ngữ cảnh (context in- C. Các phương pháp phát hiện bất thường không giám formation): SIFT, SURF, MBH, HOG, Color Histogram, sát Dense trajectory, Couboid, Onset, Actionlet, Poselet. Theo định nghĩa bất thường là những sự kiện rất hiếm Trong các phương pháp này, một phương pháp được sử khi xảy ra trong thực tế, trong khi đó những sự kiện bình dụng nhiều nhất hiện nay là phương pháp Histogram of thường lại xảy ra thường xuyên. Dựa vào định nghĩa đó, gradients (HOG). HOG là phương pháp biểu diễn đặc nhóm phương pháp học không giám sát tập trung chủ trưng trong ảnh được đề xuất bởi vào năm 1986 và sau yếu vào thu thập các video bình thường làm tập huấn đó được sử dụng rộng rãi sau nghiên cứu [10] vào năm luyện, rồi sau đó học các trường hợp bình thường để 2005. Trong đặc trưng HOG, phân phối của hướng của phát hiện bất thường. Việc quyết định một khung hình đạo hàm trong ảnh được sử dụng làm đặc trưng. Đạo có bất thường hay không dựa chủ yếu vào so sánh giữa hàm của một ảnh khá hữu dụng bởi vì giá trị của đạo frame thực tế và frame tái tạo lại. Hướng tiếp cận bằng hàm lớn ở những vùng góc, cạnh của ảnh. nhóm phương pháp này cho phép mô hình áp dụng được trong nhiều ngữ cảnh, xử lý nhiều loại bất thường hơn. B. Các phương pháp phát hiện bất thường giám sát yếu Chỉ cần xây dựng một tập huấn luyện định nghĩa bình Trong khoảng thời gian gần đây, sự phổ biến của thường đủ tốt, hướng phương pháp sẽ cho phép mô hình camera giám sát cũng như gia tăng số lượng dữ liệu dự đoán với tỉ lệ sai sót thấp. ISBN 978-604-80-5958-3 141
- Hội nghị Quốc gia lần thứ 24 về Điện tử, Truyền thông và Công nghệ Thông tin (REV-ECIT2021) Hình 3: Tổng quan kiến trúc huấn luyện mô hình Future frame prediction [6]. Vì những ưu điểm của nhóm phương pháp học không • Thành phần xác định bất thường: Dựa vào sự khác giám sát, nhóm quyết định sử dụng phương pháp Future nhau giữa Iˆt+1 và It+1 , thành phần sẽ trả ra được frame prediction [6] - một trong những phương pháp tân điểm số bình thường (normal score) của frame ảnh, tiến nhất hiện nay trong giám sát bất thường làm phương điểm số này nằm trong khoảng [0,1]. Từ đó dựa vào pháp nền tảng để cải thiện. Nghiên cứu này tập trung 1 ngưỡng được xác định sẵn (thông thường được vào thay thế một hàm độ lỗi mới trong thành phần dự chọn là 0.5) để quyết định là frame đó là frame đoán frame tương lai để tăng khả năng dự đoán frame bình thường hay bất thường (nếu frame có điểm bình thường của Hình 2. vượt quá 0.5 sẽ được coi là frame bình thường, ngược lại thì sẽ bị coi là bất thường). III. PHƯƠNG PHÁP THỰC NGHIỆM Trên các bộ dữ liệu được thu thập trước đây, đa phần B. Hàm độ lỗi đề xuất từ các CCTV, có độ phân giải thấp. Việc sử dụng phương Với ảnh đầu vào I, đặc trưng HOG của ảnh I được pháp so sánh dựa trên các điểm ảnh dẫn đến sai lệch lớn, ký hiệu là h(I). Dựa trên nền của phương pháp Future ảnh hưởng kết quả đánh giá. Trong trường hợp đó, dựa frame prediction, chúng tôi thay đổi hàm mục tiêu của trên phương pháp Future frame prediction được đề xuất thành phần dự đoán frame mới với sự bổ sung thêm của trong [6] được mô tả trong Hình 3, nghiên cứu sử dụng hàm độ lỗi HOG (Hình 4) được định nghĩa như sau: đặc trưng thủ công HOG để biểu diễn đặc trưng người X cho thấy xu hướng của các giá trị trong vùng điểm ảnh Lhog = ˆ − h(I)| |h(I) (1) quan tâm. Kết hợp lại với hàm độ lỗi gốc của phương pháp A. Kiến trúc tổng quan Future frame prediction, chúng tôi đề xuất hàm mục Kiến trúc tổng quan của phương pháp gồm 3 thành tiêu của thành phần dự đoán frame như sau: phần chính được trình bày trong Hình 4. Với đầu vào là một video với t frame liên tiếp I1 , I2 , ..., It , It+1 . Mục tiêu của bài toán là xác định frame It+1 có bất thường LG = λint Lint (Iˆt+1 , It+1 ) + λgd Lgd (Iˆt+1 , It+1 )+ hay không. λop Lop (Iˆt+1 , It+1 ) + λadv Ladv (Iˆt+1 , It+1 )+ • Thành phần dự đoán frame tương lai: Từ các frame λhog Lhog (Iˆt+1 , It+1 ) (2) I1 , I2 , ..., It , phương pháp dự đoán frame tương lai bình thường cho frame It+1 . Kết quả dự đoán được Với LG ký hiệu cho hàm độ lỗi của thành phần ký hiệu là Iˆt+1 . Để huấn luyện Iˆt+1 gần với It+1 , generator. Lgd ký hiệu cho hàm độ lỗi của giá trị đạo phương pháp dựa trên nền tảng mạng sinh đối ngẫu hàm trong ảnh. Lop ký hiệu cho hàm độ lỗi của giá trị - GAN (generative adversarial network) [14] với 2 optical flow. Ladv ký hiệu cho hàm độ lỗi của của kết thành phần sinh và phân biệt. Trong đó, hàm mục quả trả về từ Discriminator. Lhog ký hiệu cho hàm độ tiêu sẽ bổ sung được thêm những ràng buộc về lỗi của giá trị HOG. ngoại hình và chuyển động để tăng thêm khả năng Việc chỉ sử dụng cường độ của gradient làm độ lỗi về frame được dự đoán là frame bình thường. hình dáng của đối tượng sẽ khiến cho mô hình dự đoán ISBN 978-604-80-5958-3 142
- Hội nghị Quốc gia lần thứ 24 về Điện tử, Truyền thông và Công nghệ Thông tin (REV-ECIT2021) Generator (Unet) Flownet2 Generator Intensity/ Gradient Optical flow Discriminator HOG Loss Loss Loss Loss Flownet2 Hình 4: Tổng quan kiến trúc huấn luyện của phương pháp đề xuất. chỉ tập trung tối ưu vào những chi tiết đường nét tổng huấn luyện và 36 video đánh giá với 40 sự kiện bất thể của video. Tuy nhiên trong các video có độ phân thường. Tất cả các trường hợp bất thường này liên giải thấp, những đặc trưng về đường nét của các đối quan tới việc đi xe đạp, xe máy vào đường dành tượng như người lại không rõ ràng nên sẽ thường bị bỏ cho người đi bộ. Bộ UCSD Pedestrian 2 (Ped 2) qua. Vậy nên việc sử dụng hàm HOG trích xuất ra được bao gồm 16 video huấn luyện và 12 video đánh thông tin về góc cạnh cục bộ trong quá trình huấn luyện giá với 12 sự kiện bất thường. Định nghĩa của Ped mô hình dự đoán frame giúp bổ sung được những thông 2 cũng giống với Ped 1. Sự khác biệt lớn nhất giữa tin về hình dáng của đối tượng, giúp cho mô hình dự 2 bộ này không chỉ ở kích thước bộ dữ liệu và góc đoán frame dự đoán các frame bất thường chính xác, quay mà còn ở độ phân giải của video Ped 1 có độ chi tiết hơn khi áp dụng trên các video có độ phân giải phân giải 238x158 so với 360 x 240 của Ped 2. thấp. • Bộ dữ liệu Subway Entrance dataset [12] chứa 1 video duy nhất được chia ra thành 2 phần dùng để IV. PHÂN TÍCH KẾT QUẢ THỰC NGHIỆM huấn luyện và đánh giá. Bộ huấn luyện bao gồm A. Bộ dữ liệu 20,000 frame đầu tiên của video, phần đánh giá Giới thiệu tổng quan về 4 bộ dữ liệu sử dụng trong gồm 116524 frame còn lại. quá trình thực nghiệm, một vài ví dụ về các bộ dữ liệu được trình bày trong Hình 5. B. Độ đo đánh giá • Bộ dữ liệu CUHK Avenue [13] chứa 16 video huấn Trong các nghiên cứu phát hiện bất thường [3], [4], luyện và 21 video đánh giá với tổng cộng 47 sự kiện [6], [5], một độ đo đánh giá được tính bằng độ đo bất thường bao gồm ném đồ vật, chạy, nhảy, che Recerver Operation Characteristic (ROC) bằng cách thay khuất. Kích thước của người có thể thay đổi vì vị đổi dần dần ngưỡng của điểm bình thường. Sau đó diện trí và góc của camera. tích ở dưới đường cong - Area Under Curve (AUC) được • Bộ dữ liệu UCSD [11] gồm 2 phiên bản: UCSD tích lũy thành một con số duy nhất trong khoảng [0,1] Pedestrian 1 (Ped 1) và UCSD Pedestrian 2 (Ped để đánh giá hiệu suất của phương pháp. Giá trị càng cao 2). Bộ UCSD Pedestrian 1 (Ped 1) gồm 34 video cho thấy hiệu suất phát hiện bất thường càng tốt. ISBN 978-604-80-5958-3 143
- Hội nghị Quốc gia lần thứ 24 về Điện tử, Truyền thông và Công nghệ Thông tin (REV-ECIT2021) Độ phân giải thấp Độ phân giải cao Phương pháp UCSD Ped 1 Subway Entrance CUHK Avenue UCSD Ped 2 Future frame predict 82.33% 71.72% 85.01% 95.58% Future frame predict + HOG 83.07% 73.62% 84.88% 95.48% Bảng I: Kết quả thực nghiệm của 2 phương pháp Future frame prediction. UCSD Ped 1 UCSD Ped 2 Subway Entrance CUHK Avenue Normal D. Phân tích kết quả Trong bài báo này, để đánh giá khả năng phát hiện bất Abnormal Throwing object thường, chúng tôi thực nghiệm phương pháp đề xuất trên Enter without payment Ride a bike 4 bộ dữ liệu gồm: UCSD Ped 1, UCSD Ped 2, CUHK Ride a bike Avenue và Subway Entrance. Kết quả của thực nghiệm Hình 5: Một vài mẫu dữ liệu bình thường và bất thường được trình bày trong Bảng I trên 4 bộ: UCSD Ped 1, UCSD Ped 2, CUHK Avenue Dựa vào bảng kết quả, có thể thấy phương pháp đạt và Subway Entrance. được kết quả nhỉnh hơn khi thực nghiệm trên 2 bộ dữ liệu có chất lượng hình ảnh thấp (UCSD Ped 1, Subway). Với bộ Ped 1, kết quả ROC-AUC của phương pháp đề xuất nhỉnh hơn 0.74% so với phương pháp gốc. Trên phương C. Cài đặt thực nghiệm pháp Subway phương pháp đề xuất cũng cao hơn 1.9%. Dữ liệu thực nghiệm được chia thành 2 tập: tập huấn Đối với 2 bộ dữ liệu Ped 2 và Avenue có chất lượng luyện (train), và tập kiểm tra (test) theo bài báo [6]. Toàn hình ảnh cao, phương pháp đề xuất chỉ có kết quả nhỏ bộ quá trình thực nghiệm được triển khai trên GeForce hơn phương pháp gốc rất ít (0.1% và 0.13%). Từ kết RTX 2080 Ti GPU với bộ nhớ 11019MiB. Chúng tôi quả này, có thể thấy việc sử dụng đặc trưng HOG đã tiến hành huấn luyện trên phiên bản cài đặt bằng Pytorch trích xuất bổ sung thêm những đặc trưng của các đối của Future frame prediction 1 . Để huấn luyện mô hình tượng, từ đó giúp cải thiện kết quả của phương pháp. Future frame prediction, nghiên cứu thiết lập thông số Tuy nhiên, đối với những bộ dữ liệu có độ phân giải môi trường dựa trên cấu hình mặc định được cung cấp cao, đối tượng đã khá chi tiết vì thế nên đặc trưng này trong mã nguồn cùng với một vài tinh chỉnh về số lượng không có ảnh hưởng tốt. epoch và kích thước batch size. Thông số tinh chỉnh được Trong khi đó, từ bảng III, có thể thấy mức tiêu thụ trình bày trong Bảng II. tài nguyên tính toán của phương pháp đề xuất cao hơn một chút so với phương pháp ban đầu. Tuy nhiên, do sự thay đổi chỉ diễn ra ở hàm lỗi trong quá trình huấn Ped 1 Ped 2 Avenue Subway Epoch 40000 80000 80000 40000 luyện và không đòi hỏi phải thêm dữ liệu nên sự khác Batch size 8 8 8 1 biệt chỉ nằm ở thời gian của quá trình huấn luyện mô hình. Đối với mức sử dụng bộ nhớ hoặc thời gian kiểm Bảng II: Các thông số mô hình tinh chỉnh trong quá tra, dự đoán bất thường khi đưa vào thực tế của mô hình trình huấn luyện. đề xuất gần như không chênh lệch so với mô hình ban đầu. Vì vậy, có thể thấy rằng phương pháp đề xuất cải 1 https://github.com/feiyuhuahuo/Anomaly_Prediction Bộ dữ liệu Ped 1 Ped 2 Avenue Subway Phương pháp FFP FFP + HOG FFP FFP + HOG FFP FFP + HOG FFP FFP + HOG Bộ nhớ tiêu thụ 7284 MB 7288 MB 7284 MB 7288 MB 7279 MB 7284 MB 1959 MB 1961 MB Thời gian huấn luyện 21567.21s 26049.38s 44875.4s 46684.18s 48925.24s 57876.34s 11445.22s 11775.57s Thời gian kiểm tra 79.84s 80.01s 26.23s 26.57s 321.97s 322.49s 2333.79s 2207.85s Bảng III: Mức tiêu thụ tài nguyên tính toán của phương pháp được tính theo 2 tiêu chí: bộ nhớ và thời gian xử lý. Bộ nhớ đơn vị tính theo đơn vị Megabyte (MB), thời gian được đo theo đơn vị là giây (s). FFP ký hiệu cho Future Frame Prediction [6]. ISBN 978-604-80-5958-3 144
- Hội nghị Quốc gia lần thứ 24 về Điện tử, Truyền thông và Công nghệ Thông tin (REV-ECIT2021) thiện kết quả với mức tài nguyên tính toán sử dụng hợp [5] M. Z. Zaheer, J. ha Lee, M. Astrid, and S.-I. Lee, “Old is gold: lý. Redefining the adversarially learned one-class classifier training paradigm,” 2020. V. KẾT LUẬN [6] W. Liu, W. Luo, D. Lian, and S. Gao, “Future frame prediction for anomaly detection - a new baseline,” in 2018 IEEE/CVF Trong bài báo này, nghiên cứu đã đề xuất một hàm độ Conference on Computer Vision and Pattern Recognition, 2018, lỗi mới cho việc dự đoán frame cho phương pháp phát pp. 6536–6545. hiện bất thường. Phương pháp này cho thấy khả năng [7] H. Park, J. Noh, and B. Ham, “Learning memory- guided normality for anomaly detection,” in 2020 xử lý tốt trên các bộ dữ liệu có chất lượng độ phân giải IEEE/CVF Conference on Computer Vision and Pattern thấp (UCSD Ped 1, Subway Entrance) và vẫn duy trì Recognition (CVPR). IEEE, Jun. 2020. [Online]. Available: được kết quả tốt trên các bộ dữ liệu có chất lượng độ https://doi.org/10.1109/cvpr42600.2020.01438 [8] R. Morais, V. Le, T. Tran, B. Saha, M. Mansour, phân giải cao (UCSD Ped 2, CUHK Avenue). and S. Venkatesh, “Learning regularity in skeleton Từ những kết quả đạt được, chúng tôi đề xuất hướng trajectories for anomaly detection in videos,” in 2019 nghiên cứu tiếp theo sử dụng kết hợp các phương pháp IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). IEEE, Jun. 2019. [Online]. Available: trích xuất đặc trưng trên ảnh và các phương pháp trích https://doi.org/10.1109/cvpr.2019.01227 xuất sử dụng học sâu hiện đại hơn. [9] B. Wan, Y. Fang, X. Xia, and J. Mei, “Weakly supervised video anomaly detection via center-guided discriminative LỜI CẢM ƠN learning,” in 2020 IEEE International Conference on Multimedia and Expo (ICME). IEEE, Jul. 2020. [Online]. Available: Chúng tôi xin chân thành cảm ơn Phòng thí nghiệm https://doi.org/10.1109/icme46284.2020.9102722 Truyền thông Đa phương tiện (MMLab) của Trường Đại [10] N. Dalal and B. Triggs, “Histograms of oriented gradients for học Công nghệ Thông tin, ĐHQG-HCM đã hỗ trợ chúng human detection,” in 2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR’05), vol. 1, tôi trong quá trình thực hiện nghiên cứu này. 2005, pp. 886–893 vol. 1. TÀI LIỆU THAM KHẢO [11] V. Mahadevan, W. Li, V. Bhalodia, and N. Vasconcelos, “Anomaly detection in crowded scenes,” in 2010 IEEE Computer [1] S. Zhu, C. Chen, and W. Sultani, “Video anomaly detection for Society Conference on Computer Vision and Pattern Recognition, smart surveillance,” CoRR, vol. abs/2004.00222, 2020. [Online]. 2010, pp. 1975–1981. Available: https://arxiv.org/abs/2004.00222 [12] A. Adam, E. Rivlin, I. Shimshoni, and D. Reinitz, “Robust [2] G. Pang, C. Shen, L. Cao, and A. V. D. Hengel, “Deep real-time unusual event detection using multiple fixed-location learning for anomaly detection,” ACM Computing Surveys, monitors,” IEEE Transactions on Pattern Analysis and Machine vol. 54, no. 2, pp. 1–38, Mar. 2021. [Online]. Available: Intelligence, vol. 30, no. 3, pp. 555–560, Mar. 2008. [Online]. https://doi.org/10.1145/3439950 Available: https://doi.org/10.1109/tpami.2007.70825 [3] Z. Zaheer, A. Mahmood, M. Astrid, and S.-I. Lee, CLAWS: [13] C. Lu, J. Shi, and J. Jia, “Abnormal event detection at 150 fps Clustering Assisted Weakly Supervised Learning with Normalcy in matlab,” in 2013 IEEE International Conference on Computer Suppression for Anomalous Event Detection, 11 2020, pp. 358– Vision, 2013, pp. 2720–2727. 376. [14] I. Goodfellow, J. Pouget-Abadie, M. Mirza, B. Xu, D. Warde- [4] W. Liu, W. Luo, Z. Li, P. Zhao, and S. Gao, “Margin learning Farley, S. Ozair, A. Courville, and Y. Bengio, “Generative embedded prediction for video anomaly detection with a few adversarial networks,” Communications of the ACM, vol. 63, anomalies,” in Proceedings of the Twenty-Eighth International no. 11, pp. 139–144, Oct. 2020. [Online]. Available: Joint Conference on Artificial Intelligence. International Joint https://doi.org/10.1145/3422622 Conferences on Artificial Intelligence Organization, Aug. 2019. [Online]. Available: https://doi.org/10.24963/ijcai.2019/419 ISBN 978-604-80-5958-3 145
ADSENSE
Thêm tài liệu vào bộ sưu tập có sẵn:
Báo xấu
LAVA
AANETWORK
TRỢ GIÚP
HỖ TRỢ KHÁCH HÀNG
Chịu trách nhiệm nội dung:
Nguyễn Công Hà - Giám đốc Công ty TNHH TÀI LIỆU TRỰC TUYẾN VI NA
LIÊN HỆ
Địa chỉ: P402, 54A Nơ Trang Long, Phường 14, Q.Bình Thạnh, TP.HCM
Hotline: 093 303 0098
Email: support@tailieu.vn