(IT4853) Tìm kiếm và trình diễn thông tin
Phân lớp và ứng dụng trong tìm kiếm
Giảng viên
TS. Nguyễn Bá Ngọc Địa chỉ: ViệnCNTT & TT/BM HTTT/B1-603 Email: ngocnb@soict.hust.edu.vn Website: http://is.hust.edu.vn/~ngocnb
2
Nội dung chính
Các giải thuật Naïve Bayes; Trích chọn đặc trưng.
3
Multinomial Naïve Bayes: Huấn luyện
4
Multinomial Naïve Bayes: Phân lớp
5
Bernoulli Naïve Bayes: Huấn luyện
6
Bernoulli Naïve Bayes: Phân lớp
7
Nội dung chính
Các giải thuật Naïve Bayes; Trích chọn đặc trưng.
8
Trích chọn đặc trưng
Trong phân lớp, văn bản thường được biểu diễn
trong không gian đa chiều; chiều ~ trục; từ ~ đặc trưng.
Các từ hiếm có thể gây lỗi phân lớp;
Từ gây lỗi phân lợp được gọi là đặc trưng nhiễu.
Loại các đặc trưng nhiễu làm tăng hiệu quả và
hiệu năng phân lớp;
Quá trình loại bỏ các đặc trưng nhiễu gọi là trích
chọn đặc trưng;
9
Đặc trưng nhiễu
Giả sử một từ hiếm t không chứa thông tin liên quan đến lớp c nhưng chỉ xuất hiện trong các văn bản của lớp c.
Vì tlà từ hiếm nên bộ phân lớp sau huấn luyện có
thể coi tnhư một tín hiệu mạnh thuộc lớp c.
Hiện tượng này được gọi là overfitting Trích chọn đặc trưng làm giảm overfitting và cải
thiện tính chính xác của bộ phân lớp.
10
Giải thuật trích chọn đặc trưng
11
Các phương pháp cơ bản
Phương pháp trích chọn đặc trưng được xác định
chủ yếu bởi cách đo độ hữu ích của đặc trưng
Độ hữu ích của đặc trưng:
Tần suất – lựa chọn những từ xuất hiện thường xuyên
information – lựa
chọn từ với mutual
nhất. Mutual
information cao nhất;
Còn được gọi là Information Gain
Chi-square
12
Các phương pháp cơ bản
Phương pháp trích chọn đặc trưng được xác định
chủ yếu bởi cách đo độ hữu ích của đặc trưng
Độ hữu ích của đặc trưng:
Tần suất – lựa chọn những từ xuất hiện thường xuyên
nhất.
Hàm lượng thông tin – lựa chọn từ với Hàm lượng
thông tin cao nhất;
Chi-square
13
Hàm lượng thông tin
Mutual information hoặc Information Gain.
N11 số văn bản thuộc lớp c chứa t; N10 số văn bản thuộc lớp c không chứa t; N01 không thuộc lớp c, chứa t; N00 không thuộc lớp c không chứa t. N = N11 + N10 + N01 + N00 là tổng số văn bản.
14
Ví dụ tính MI, poultry/EXPORT
15
Kết quả trích chọn đặc trưng trên Reuters
16
(multinomial = multinomial Naive Bayes, binomial = Bernoulli Naive Bayes)
17
Naïve Bayes
Trong trường hợp tổng quát, trích chọn đặc trưng
là cần thiết để đạt kết quả cao
Cần trích chọn đặc trưng để đạt hiệu quả tối đa!
18
Bài tập
Tính ma trận nhầm lẫn tương tự poultry/EXPORT cho cặp
“Kyoto/JAPAN”.
Hãy thiết lập ma trận nhầm lẫn mà MI = 0
19
20