T
P CHÍ KHOA HC
T
NG ĐI HC SƯ PHM TP H CHÍ MINH
Tp 22, S 2 (2025): 235-246
HO CHI MINH CITY UNIVERSITY OF EDUCATION
JOURNAL OF SCIENCE
Vol. 22, No. 2 (2025): 235-246
ISSN:
2734-9918
Websit
e: https://journal.hcmue.edu.vn https://doi.org/10.54607/hcmue.js.22.2.4320(2025)
235
Bài báo nghiên cứu1
CẢI TIẾN MÔ HÌNH DỊCH MÁY MẠNG -RON ANH-VIỆT
SỬ DỤNG ĐỒ THỊ TRI THỨC
Lê Công Trí1, Nguyn Phương Nam1, Nguyn Hng Bu Long2, Trn Thanh Nhã1*
1Trưng Đại hc Sư phm Thành ph H Chí Minh, Vit Nam
2Trưng Đại hc Khoa hc T nhiên, Đại hc Quc gia Thành ph H Chí Minh, Vit Nam
*Tác gi liên h: Trn Thanh Nhã Email: nhatt@hcmue.edu.vn
Ngày nhn bài: 06-6-2024; ngày nhn bài sa: 21-10-2024; ngày duyt đăng: 23-10-2024
TÓM TẮT
Dịch máy một vấn đề quan trọng trong lĩnh vực xử lí ngôn ngữ tự nhiên (XLNNTN), với
mục tiêu tạo ra các bản dịch từ ngôn ngữ nguồn sang ngôn ngữ đích ý nghĩa tương đương. Tuy
nhiên, các hình dịch máy mạng -ron (Neural Machine Translation - NMT) hiện tại gặp khó
khăn trong việc xử lí các thực thể, đặc biệt là với các ngôn ngữ thiếu nguồn tài nguyên chất lượng
cao như tiếng Việt. Bài báo này đề xuất một phương pháp cải thiện khả năng của các mô hình NMT
bằng cách tích hợp thông tin từ đồ thị tri thức (Knowledge Graph - KG) vào mô hình Transformer.
Phương pháp này giúp mô hình học được biểu diễn của các thực thể trong quá trình huấn luyện, từ
đó tăng cường khả năng dịch tự động khi gặp c thực thể các yếu tngôn ngữ tương tự khác.
Kết quả thực nghiệm cho thấy phương pháp đề xuất cải thiện đáng kể chất lượng dịch của mô hình
Transformer, đặc biệt trong việc dịch các thực thể. Những kết quả này chứng minh hiệu quả của việc
tích hợp đồ thị tri thức vào mô hình NMT và mở ra hướng phát triển mới cho nghiên cứu trong lĩnh
vực này.
Từ khóa: BERT; xử lí ngôn ngữ tự nhiên; dịch máy; đồ thị tri thức; dịch máy mạng nơ-ron
1. Gii thiu
Dch máy là mt vn đ quan trọng trong lĩnh vực x lí ngôn ng t nhiên (XLNNTN).
Mc tiêu ca dch máy là to ra các bn dch của câu, đoạn văn, hoặc tài liu t ngôn ng
ngun sang ngôn ng đích với ý nghĩa tương đương. Việc này giúp gim bt rào cn ngôn
ng khi tiếp cn các nguồn thông tin được trình bày bng ngôn ng mà chúng ta chưa biết,
hoặc chưa có nhiều kiến thc đ phân tích.
Dch máy mạng -ron (Neural Machine Translation NMT) da trên kiến trúc b
mã hóa-gii mã đã tr thành một phương pháp dịch t động tiên tiến nh kh năng học biu
din ngôn ng hiu qu trên các cp ngôn ng khác nhau. Các mô hình Seq2seq (Sutskever
et al., 2014), Conv2seq (Gehring et al., 2017) và Transformer (Vaswani et al., 2017) có th
Cite this article as: Le Cong Tri, Nguyen Phuong Nam, Nguyen Hong Buu Long, & Tran Thanh Nha (2025).
Enhancing neural machine translation with knowledge graph integration. Ho Chi Minh City University of
Education Journal of Science, 22(2), 235-246.
Tạp chí Khoa học Trường ĐHSP TPHCM
Lê Công Trí và tgk
236
to ra các bn dch sánh ngang vi bn dch của con người khi dch gia các ngôn ng
nguồn tài nguyên phong phú trong các điều kin c th. Tuy nhiên, vn còn nhng thách
thc, đc bit là vi các ngôn ng có ít ng liu cht lưng cao s làm cho h thng NMT
giảm đi hiệu năng đáng kể như đối vi tiếng Vit.
Mt trong nhng vấn đề nghiêm trng khi hun luyn các mô hình dch máy NMT
trong điu kin thiếu ng liệu đó là việc dch các thc th. Các thc th trong câu đóng vai
trò quan trng và vic dch chính xác các thc th ảnh hưởng lớn đến toàn b cht ng
dch ca câu. Tuy nhiên, các thc th thường không xut hin nhiu ln trong ng liu hun
luyn, dẫn đến việc các mô hình NMT thường xem các thc th như các t có tn sut xut
hin thp (Out of Vocabulary - OOV). Do đó, các mô hình này sẽ loi b các t này ra khi
quá trình hun luyn, dẫn đến vic không th dch được các t này. C th, các mô hình
NMT chuyn tt c c t có tn sut xut hin thp thành kí hiu “unk” (viết tt ca
“unknown”) trong bước tin x trưc khi tiến hành hun luyn. Vì vy, mô hình NMT
không th dịch được các t này khi trin khai thc tế.
Các thc th thông thường có th được chia làm hai nhóm: danh t riêng và danh t
chung. Danh t riêng bao gồm tên người, tên địa phương, và tên tổ chc (ví d: Hà Ni, Tôn
Đức Thng...). Danh t chung dùng để ch các nhóm đi tưng mang tính tng quát (ví d:
c phn, c đông...). Các thực th này thông thường được đnh nghĩa trong các đồ th tri thc
(Knowledge Graph - KG) i dng các b ba (triplet) bao gm: mt ch th (là mt thc
th), mi quan h (là mt liên kết) và mt đi tưng (là mt thc th khác). Ví d, b ba <Hà
Ni, is-a, th đô> có biểu din ngôn ng t nhiên là “Hà Ni là th đô”. Như vậy, nếu được
tích hp thông tin t đồ th tri thc, mô hình NMT có th mô hình hóa các thc th và có
kh năng xử lí được các thc th trong quá trình dch.
Mc tiêu ca bài báo là ci thin kh năng của các mô hình NMT khi x lí các thc
th, bng cách tích hp thông tin t bên ngoài. C thể, đề tài nghiên cu các phương pháp
tích hp thông tin t đồ th tri thc vào mô hình dch máy tiên tiến nht hin nay là
Transformer (Vaswani et al., 2017). Điu này nhm giúp mô hình có th hc đưc biu din
ca các thc th trong quá trình hun luyn, t đó tăng cường kh năng dịch t động khi gp
các trưng hợp như thực th, thut ng và các yếu t ngôn ng tương tự khác.
Trong nội dung bài báo này, các đóng góp chính bao gồm:
Nghiên cu và đ xuất phương pháp sử dụng đồ th tri thc đ ci thin vic dch các
thc th ca mô hình Transformer;
Đánh giá phân tích các kết quả thực nghiệm nhằm chứng minh hiệu quả của phương
pháp đề xuất và đưa ra các kết luận về hướng phát triển trong tương lai.
2. Đối tượng và phương pháp nghiên cứu
Chương này trình bày cụ thể nội dung về: 1) các đối tượng nghiên cứu gồm đồ thị tri
thức (KG), hình dịch máy mạng -ron (NMT) một số công trình tích hợp đồ thị tri
Tạp chí Khoa học Trường ĐHSP TPHCM
Tập 22, Số 2 (2025): 235-246
237
thức vào dịch máy mạng -ron; 2) phương pháp nghiên cứu đề xuất để tích hợp đồ thị
tri thức vào dịch máy mạng nơ-ron.
2.1. Đối tưng nghiên cu
2.1.1. Đồ th tri thc
Trong biểu diễn suy luận tri thức, đồ thị tri thức một sở tri thức sử dụng mô
hình dữ liệu hoặc cấu trúc liên kết dạng đồ thị để biểu diễn thao tác trên dữ liệu. Đồ
thị tri thức thường được sử dụng để lưu trc mô tả liên kết của các thực thđối tượng,
sự kiện, tình huống hoặc khái niệm trừu tượng đồng thời hóa ngữ nghĩa hoặc mối quan
hệ làm cơ sở cho các thực thể này (Ehrlinger et al., 2016).
Hình 1. Minh họa đồ th tri thc
Đồ th tri thc (KG) là mt biu đ đa giác không đồng nht có hưng mà các loi nút
và quan h có ng nghĩa theo miền c thể. KG cho phép người dùng mã hóa kiến thc thành
dạng con người có th hiểu được, phân tích và suy luận. KG đang tr thành mt cách
tiếp cn ph biến để th hin các loại thông tin đa dạng dưới dng các loi thc th khác
nhau được kết ni thông qua các loi quan h khác nhau. Các đỉnh ca đ th tri thc thưng
được gi là các thc th và các cạnh có hướng thường được gi là b ba và đưc biu din
dưới dng mt b (h, r, t), trong đó h là thc th đầu, t là thc th đuôi và r là quan h liên
kết phn đu vi các thc th đuôi. Lưu ý rằng thut ng quan h đây đề cp đến loi quan
h (ví d: trong Hình 1, quan h gm “sell”, “love”, “like”...).
Nhng phát trin gần đây trong khoa học d liu và máy hc, đc bit là trong mng
-ron đồ th và biu din d liu trong không gian vec-tơ, đã mở rng phm vi ca đ th
tri thc trong các công c tìm kiếm ng nghĩa và h thng khuyến ngh vi nhng ng dng
đáng chú ý trong các lĩnh vực như y sinh, pháp luật… (Wang et al., 2018; Yao et al., 2020).
2.1.2. Mô hình dch máy mạng -ron
Trong khuôn kh bài báo này, chúng tôi nghiên cu mô hình dch máy Transformer,
vn là mô hình dch máy tt nht hin nay. Tranformer bao gm hai thành phn chính: b
mã hóa và b gii mã. C hai đều bao gm các lớp tương tự được xếp chng lên nhau.
B mã hóa gm N lp vi mi lp bao gm 02 thành phn chính:
Tạp chí Khoa học Trường ĐHSP TPHCM
Lê Công Trí và tgk
238
chế t chú ý đa góc độ (Multi-Head Self-Attention) là s kết hp gia chế t
chú ý (self-attention) và s kết hp các góc đ khác nhau (multi-head):
Cơ chế t chú ý: tính trng s gia mi t vi các t còn li trong mt câu:
Attention(Q,K,V)= 𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑄𝑄𝐾𝐾𝑇𝑇
𝑍𝑍𝑉𝑉
Kết hợp các góc độ: tính toán cơ chế chú ý nhiu ln và kết hp li vi nhau:
MultiHead(Q, K, V)=Concat(head1, ..., headh)WO
headi=Attention(QWQi, KWKi, VWVi)
Mng lan truyn thng theo v trí (Position-wise Feed-Forward Network): áp dng hai
phép biến đổi tuyến tính vi hàm kích hot ReLU:
FFN(x)= max(0, xW1+b1)W2+b2
Bộ giải mã tương tnhư bộ hóa nhưng bao gồm thêm một lớp con để nhận kết quả
từ cơ chế chú ý của bộ giải mã trả về bao gồm các vector biểu diễn từ đầu vào sẽ được xử lí
qua nhiều lớp để tạo ra dự đoán cho từ tiếp theo trong câu dịch. Quá trình này diễn ra với
các bước như sau:
Đầu tiên, ti lp Masked Multi-Head Self-Attention các vector biu din t đầu vào
(𝑦𝑦1
,𝑦𝑦2
, 𝑦𝑦𝑚𝑚
) vi m là s ng t đã được dch;
Tiếp theo, ti lp Multi-Head Cross-Attention các vector 𝑧𝑧 s được dùng làm Query
(Q), trong khi các vector (𝑠𝑠1
,𝑠𝑠2
, 𝑠𝑠𝑚𝑚
) t b mã hóa s được s dng làm Key (K) và Value
(V) cho Multihead-Attention;
Sau đó, các vector sẽ đi qua lớp Feed-Forward gm hai tng n vi hàm kích hot
ReLU to ra mt tp hp mi các vector. Các vector này mang thông tin ng nghĩa ngữ
cảnh phong phú hơn cho mỗi t trong câu đầu ra;
Cui cùng, ti mi c dch các vector tương ng vi v trí t tiếp theo s được s
dụng để tính xác sut cho các t có th xut hin v trí đó trong câu dịch, thông qua mt
lp softmax. T có xác sut cao nht s đưc chn làm d đoán cho bước dch hin ti.
2.1.3. Các công trình liên quan
Trên thế giới, các công trình nghiên cứu đáng chú ý liên quan đến việc tích hợp đồ thị
tri thức vào dịch máy mạng -ron chủ yếu tập trung vào tiếng Anh. Du cộng sự (Du et
al., 2016) đã đề xuất phương pháp cải tiến chất lượng dịch máy bằng cách xử lí c từ ngoài
bộ từ vựng (OOV) bằng BabelNet (từ điển ngữ nghĩa đa ngôn ngữ) (Navigli et al., 2010).
Shi và cộng sự (Shi et al., 2016) trình bày phương pháp nhúng ngữ nghĩa dựa trên tri thức
(KBSE) cho dịch máy, sdụng cơ sở tri thức để tạo ra không gian ng nghĩa liên kết ngôn
ngữ nguồn ngôn ngữ đích. Phương pháp này bao gồm hai thành phần chính: hiểu câu
nguồn (ánh xạ các câu nguồn tới một không gian ngữ nghĩa bằng ch sử dụng các bộ dữ
liệu ngữ nghĩa) và phát sinh câu đích (xây dựng câu đích từ các bộ dữ liệu này). Moussallem
cộng sự (Moussallem et al., 2019) giới thiệu phương pháp KG-NMT giúp cải tiến
hình NMT bằng cách kết hợp nhúng đồ thị tri thức (KG Embedding) để cải thiện độ chính
xác của bản dịch, đặc biệt đối với các thực thể và biểu thức thuật ngữ. Lu và cộng sự (Lu et
Tạp chí Khoa học Trường ĐHSP TPHCM
Tập 22, Số 2 (2025): 235-246
239
al., 2018) sử dụng các mối quan hệ thực thể trong biểu đồ tri thức làm các ràng buộc để tăng
cường kết nối giữa các từ nguồn từ đích. Cụ thể, tác giả đề xuất 02 loại ràng buộc gồm:
ràng buộc đơn ngsử dụng các quan hệ thực thtrong KG để tăng cường biểu diễn ngữ
nghĩa của các từ trong câu nguồn và ràng buộc song ngữ nhằm tìm ra các mối quan hệ thực
thể giữa các từ trong câu nguồn được liên kết trong bản dịch trong câu đích.
Đối với tiếng Việt, chưa bất công trình nghiên cứu nào liên quan đến việc sử
dụng đồ thị tri thức trong dịch máy mạng nơ-ron.
2.2. Phương pháp nghiên cứu
Phương pháp đề xuất của chúng tôi bao gồm: trích xuất đồ thị tri thức, tiền huấn luyện
hình BERT (Devlin et al., 2019) với đồ thị tri thức tích hợp hình BERT vào
Transformer. Do song ngữ Anh-Việt thuộc nhóm ngôn ngữ ít tài nguyên, việc tích hợp KG
vào NMT thông qua BERT có những ưu điểm sau:
Ci thin kh năng học chuyn giao: vic tích hợp Đồ th tri thc (KG) vào BERT
trưc khi truyn sang h thng dch máy (NMT) giúp tn dng sc mnh hc chuyn giao
ca BERT. BERT đưc hun luyn trên mt ng ln d liệu đa dạng, do đó khả năng
hc các biu din ng nghĩa của ngôn ngữ. Khi được b sung kiến thc có cu trúc t KG,
các biu din này tr nên phong phú hơn, giúp hệ thng NMT hc và áp dng các thông tin
hu ích vào nhiu ng cảnh khác nhau, đặc bit là trong các trưng hp có ít d liu hun
luyn (ngôn ng hoặc lĩnh vực ít tài nguyên).
Ci thin kh năng biu din thông tin: BERT, nh được hun luyn trên lưng d liu
khng l, có kh năng nắm bt ng nghĩa các mi quan h gia t ng mt cách tng
quát chính xác. Khi được tích hp thêm vi KG, BERT có th tiếp cn các tri thc chuyên
ngành, giúp tăng cường kh ng hiểu thông tin và phân tích ng cnh phc tp. Nh đó,
NMT có th tn dng nhng biu din ng nghĩa này để to ra bn dch không ch đúng về
ng pháp mà còn chính xác v ng nghĩa và thực tế, đc biệt trong các lĩnh vực chuyên sâu.
2.2.1. Trích xuất đồ th tri thc
Chúng tôi sử dụng phương pháp phát sinh đồ thị tri thức Grapher được đề xuất bởi
Melnyk (Melnyk et al., 2022). Phương pháp Grapher được minh họa trong Hình 2, gồm các
thành phần cụ thể như sau:
Văn bản: văn bản đầu vào cha các thc th cn trích xut;
Mô hình ngôn ng: s dng mô hình ngôn ng Seq2Seq được hun luyn trưc đ
chuyển văn bản đầu vào thành mt danh sách các thc th;
Thc th: các thc th đưc trích xut bi mô hình ngôn ng;
Đặc trưng nút: các thực th được xem là các nút (node) trong đồ th tri thức được sinh
ra bằng phương pháp DETR (Carion et al., 2020);
B phân lp: s dng b phân lớp được xây dng t mng LSTM hoc GRU đ phát
sinh các cạnh (như chuỗi các t có trt t);
Đồ th KG: đ th tri thc kết qu được biu diễn dưới dng các b ba.