Professional Documents
Culture Documents
Nhóm 08 - Transformer
Nhóm 08 - Transformer
MÔ HÌNH
TRANSFORMER
Nhóm 08 - Trí tuệ nhân tạo
NỘI DUNG CHÍNH
01 TỔNG QUAN
02 MÔ HÌNH
04 ỨNG DỤNG
Định nghĩa
• Là một mô hình học sâu được đào tạo để
xử lý và chuyển đổi đầu vào dữ liệu tuần
tự thành đầu ra dữ liệu tuần tự cụ thể.
Điểm yếu:
• Thời gian và tốc độ train rất chậm, không
tận dụng được tính toán song song trên
GPU.
• Xử lý không tốt với những câu dài do hiện
tượng Gradient Vanishing/Exploding.
Long-short Term Memory (LSTM)
Định nghĩa
• LSTM được phát triển để giải quyết vấn đề
Gradient Vanishing của RNNs. LSTM cell có
thêm một nhánh C cho phép toàn bộ thông
tin đi qua cell, giúp duy trì thông tin cho
những câu dài.
Điểm yếu:
• Thời gian và tốc độ train rất chậm, không tận
dụng được tính toán song song trên GPU.
• Xử lý không tốt với những câu dài do hiện
tượng Gradient Vanishing/Exploding.
Transformer
“Groot” #1960
one-hot
vecto
Word Embedding
là một phương pháp biểu diễn các từ bằng vecto theo
cách mà các từ tương tự có vecto tương tự.
Positional Encoding
Positional Encoding
Self Attention tính toán mối quan hệ của các từ với nhau
Self Attention
Hình 2: Hiệu suất của mô hình máy biến áp trong quá trình dịch thuật so với các mô hình khác
3.2. CÁC BIẾN THỂ CỦA MÔ HÌNH
Các thử
nghiệm với
biến thể của
mô hình cơ
bản cho thấy
sự thay đổi về
hiệu suất và
hiệu quả tính
toán.
Hình 4: Hiệu suất của mô hình máy biến áp trong nhiệm vụ phân tích cú pháp bằng Tiếng Anh
4. ỨNG DỤNG
01. Mô hình Transformer đã đạt được thành công lớn trong việc dịch ngôn ngữ, nhận
dạng giọng nói, dịch giọng nói và dự đoán chuỗi thời gian.
VÍ DỤ
Một nhóm các nhà nghiên cứu Google DeepMind đã phát triển AlphaFold
•
4. ỨNG DỤNG
03. Trong tài chính, mô hình Transformer được sử dụng để phân tích dữ liệu chuỗi
thời gian
5. KẾT LUẬN
TRANSFORMER
THANK YOU
FOR
LISTENING!