Professional Documents
Culture Documents
Giáo viên:
Lê Hoài Bắc
2. Related work
4. Experiment result
5. Conclusions
6. Q & A
1. Introduction
Đồ Thị Tri Thức (Knowledge Graph)
Từ năm những năm 1972
các nhà khoa học đã nghiên
cứu về Knowledge Graph
Đồ thị tri thức () là một cách biểu diễn thông tin có cấu trúc trong thế giới
thực
Ví dụ về một thông tin trong
wife_of
relation
entityhead entitytail
Biểu diễn đồ thị tri thức
Đồ Thị Tri Thức (Knowledge Graph)
[1]
𝑉 𝑅 𝐸 ⊆ 𝑉 × 𝑅 ×𝑉
Google’s Knowledge Graph
Kích thước
Kích thước 50 triệu thực thể
1 tỷ thực thể 500 triệu sự kiện[5]
70 tỷ sự kiện[5]
Dữ liệu mất
Khai thác
mát, không
thông tin
đầy đủ
dựa trên
Minh họa về dự đoán liên kết
relation
entityhead ?
relation
source target
relation
? entitytail
10
2. Related work
Minh hoạ đồ thị tri thức trong thực tế
Hướng nghiên cứu
Link
Prediction
Knowledge Graph
Completion
Knowledge
acquisition
Các phương pháp
Mô hình dựa trên luật
14
Phương pháp dựa trên nhúng
15
Các phương pháp nhúng
Transfomer trên
Knowledge Graph (KB)
TransE Word2vec
(Translating Embedding) (Word Embeddings in NLP)
Mô hình nhúng TransE
Thuật toán
+
Mô hình nhúng TransE
TransE (Translating Embeddings)
Ví dụ :
Vector khởi tạo ban đầu Vector sau khi tịnh tiến
Nếu d - d' > 0. Tiến hành cập nhật lại trọng số cho h, r, t. 21
3. Learning Attention-based
Embeddings for Relation
Prediction in Knowledge
Graphs
Mô hình nhúng dựa trên học sâu
Data 𝑓 (𝑥 ) Class 2 ei
r
?e? 𝑟𝑎𝑛 𝑘2
2
?e 𝑟𝑎𝑛 𝑘
3 3
Class n 𝒢 𝑘𝑛𝑜𝑤
rr
S
h r t
hh r tt
1valid
h t h r t
h r t
𝑓 (𝑥 ) score
hh
rr
t’
h r t’ -1invalid
r t’ h r t’
S’ h’ t h’ r t
23
Phương pháp KBGAT
Biểu diễn các đặc Học được các đặc Khái quát hóa quá
trưng lên không gian trưng lân cận của các trình biến đổi đặc
Datasets thực thể và quan hệ trưng
Trans GAT
ConvKB
E Entity Embedding
’ Entity Embedding
weight
𝑡 ∈𝑆
𝑖𝑗
𝜆
ℒ= ∑ log (1+ exp ( 𝑙𝑡 𝑖𝑗 . 𝑓 ( 𝑡 𝑖𝑗 ) ) ) + ‖𝐖‖2 v ớ i𝑙 𝑡𝑖𝑗 =
2
2 1 :𝑡 𝑖𝑗 ∈ 𝑆
−1 :𝑡 𝑖𝑗 ∈ 𝑆 ′
Tham số chuẩn hóa
{ 24
Mô hình ConvKB[10]
Convolution
w 1 , 𝑤 2 , 𝑤 3 , 𝑤 4 , 𝑤0.65 0.2
, 𝑤
0.8
w 1 , 𝑤 2 , 𝑤 3 , 𝑤 4 , 𝑤 5 , 𝑤60.2 = = 𝑠𝑜𝑓𝑡𝑚𝑎𝑥
0.3
𝑠𝑜𝑓𝑡𝑚𝑎𝑥
0.1 0.1 0.1 (
0.3 ,)
( ,)
6
Query Q 0.8 0.1 0.8 0.4 0.3 0.7
Hệ số chuẩn hóa
Keys K
Valueshóa
V
26
Cơ chế chú ý đa đỉnh
⇒ 𝑆𝑒𝑙𝑓 −𝑎𝑡𝑡𝑒𝑛𝑡𝑖𝑜𝑛 27
Graph Attention Networks – GAT[12]
29
Mô hình KBGAT
Entity Embedding
Entity Embedding
Entity Embedding
Relation Embedding
Relation Embedding
Relation Embedding
Relation Embedding
30
Cải tiến của KBGAT
Cải tiến của KBGAT
Cài đặt
32
4. Experiment result
Datasets
34
Thông tin tập dữ liệu
e1 𝑟𝑎𝑛𝑘1
?
r
ei ?e? 𝑟𝑎𝑛 𝑘2
2
?e 𝑟𝑎𝑛𝑘
3 3
𝒢 𝑘𝑛𝑜𝑤
38
Kết quả thực nghiệm (Tác giả)
Kết quả thực nghiệm
40
Mã nguồn và quá trình thực hiện
KBGAT :
● Mã nguồn github (Graph Collaborate Attention
Network) :
https://github.com/hmthanh/GCAT
● Public Google Colab :
https://drive.google.com/file/d/1uVd_w6vE5C70rmgK
LI7BvnhCWegXTMhk/view?usp=sharing
41
Kết luận
42
Q&A
References
1. A Comprehensive Survey of Graph Embedding: Problems, Techniques, and Applications
2. https://en.wikipedia.org/wiki/Knowledge_Graph
3. http://web.informatik.uni-mannheim.de/AnyBURL/
4. https://www.forbes.com/sites/robtoews/2020/10/12/the-next-generation-of-artificial-intelligence/
5. Industry-scale Knowledge Graphs: Lessons and Challenges (Natasha Noy Yuqing Gao Anshu Jain Anant Narayanan
Alan Patterson Jamie Taylor)
6. Bahdanau, Dzmitry, Cho, Kyunghyun, and Bengio, Yoshua. “Neural machine translation by jointly learning to align
and translate”. In: arXiv preprint arXiv:1409.0473 (2014).
7. Cai, Hongyun, Zheng, Vincent W, and Chang, Kevin Chen-Chuan. “A comprehensive survey of graph embedding:
Problems, techniques, and applications”. In: IEEE Transactions on Knowledge and Data Engineering 30.9 (2018), pp.
1616–1637
8. Cordonnier, Jean-Baptiste, Loukas, Andreas, and Jaggi, Martin. “MultiHead Attention: Collaborate Instead of
Concatenate”. In: arXiv preprint arXiv:2006.16362 (2020).
9. Bordes, Antoine et al. “Translating embeddings for modeling multirelational data”. In: Advances in neural
information processing systems. 2013, pp. 2787–2795.
10. Nguyen, Dai Quoc et al. “A novel embedding model for knowledge base completion based on convolutional neural
network”. In: arXiv preprint arXiv:1712.02121 (2017).
11. Nathani, Deepak et al. “Learning attention-based embeddings for relation prediction in knowledge graphs”. In: arXiv
preprint arXiv:1906.01195 (2019).
12. Veliˇckovi´c, Petar et al. “Graph attention networks”. In: arXiv preprint arXiv:1710.10903 (2017)
13. Meilicke, Christian et al. Anytime Bottom-Up Rule Learning for Knowledge Graph Completion. 2019. url:
http://web.informatik.unimannheim.de/AnyBURL/meilicke19anyburl.pdf.
14. Rossi, Andrea et al. “Knowledge Graph Embedding for Link Prediction: A Comparative Analysis”. In: arXiv preprint
arXiv:2002.00819 (2020).
45
Conclusions
Thời gian dự đoán • Nhanh hơn do dựa trên các trọng số của mô hình để
tính xác xuất
Dữ liệu • Học không thể lý giải (do các lớp hidden layer)
Thêm tri thức • Phải huấn luyện lại từ đầu nếu thêm tri thức mới
Đặc điểm học • Học được các cấu trúc phức tạp mà không cần biết
trước cấu trúc
46
Nhược điểm của mô hình TransE