Professional Documents
Culture Documents
Exaplianable AI
Exaplianable AI
2. Related work
4. Experiment
5. Conclusion
6. Q&A
Explainable AI
❑ Mục tiêu của XAI là để giúp con người hiểu, có thể tin
tưởng và quản lý hiệu quả các kết quả của một hệ
thống AI.
Adversarial Attack: là kỹ thuật để tìm ra một sự nhiễu loạn làm thay đổi dự đoán
của một mô hình học máy. Sự nhiễu loạn có thể rất nhỏ và mắt người không thể
nhận thấy được.
XAI in Medical Image Segmentation
(XAI in MIS)
Image
Segmentation
(Edge base, Threadhold,
Region base, ..)
2. Related work
Medical Image
2D (X-ray)
3D (MRI,CT)
● Machine learning
● Deep learning
Image Segmentation
❑ Requirement
● Lý giải cho 1 dự đoán mô
hình của 1 ảnh bất kỳ
❑ Input
● Một ảnh bất kỳ
● Mô hình phân đoạn và trọng số XAI
Model
❑ Output
● Sự giải thích (The Explanation)
Image (Saliency Maps)
Visual Image
Văn bản (Text)
Number
Tree/Table/...
Explainable AI
Giải thích kết quả của 1 dự đoán dựa Giải thích kết quả của 1 dự đoán dựa
trên một đặc trưng cục bộ trên phạm vi toàn cục
(Explain individual predictions) (Explain complete behavior of model)
Tìm ra được sự bias của mô hình trong Làm rõ được những bias sẽ ảnh hưởng
phạm vi toàn cục đến những nhóm dữ liệu nào
(Help unearth biases in the local (Help shed light on big picture biases affecting
neighborhood of a given instance) larger subgroups)
Điều tra được dự đoán dựa trên Điều tra dự đoán đúng có đã dựa trên
những đặc trưng đúng hay sai những đặc trưng đúng hay chưa
(Help vet if individual predictions are being (Help vet if the model, at a high level, is
made for the right reasons ) suitable for deployment)
❑ Output:
● Inherently Interpretable Models
Lý giải bằng mô hình đơn giản mà con người dễ dàng hiểu được
Ưu: Lý giải dễ dàng hiểu được, dễ dàng tiếp cận với người dùng thông thường
Nhược:
• Độ chính xác không cao
• Không bao quát hết và mô tả đầy đủ về model
❑ Saliency map:
Là ảnh grayscale trong đoạn [0 , 1], kích thước cùng với ảnh gốc
Input Output
Saliency map
Saliency map giải thích điều gì?
❑ Nếu saliency map làm nổi bật không đúng các đặc
trưng cần học, ta có thể biết để điều chỉnh:
● Theo region/pixel:
Tăng thêm dữ liệu có nhiều các ảnh có đặc trưng và nhãn tương ứng để
model có thể học được đúng trong trường hợp đó.
● Theo từng giai đoạn (stage)/từng lớp (layers)
Nếu với từng stage/layers mà saliency map không học đúng thì có thể
tăng/giảm thêm layers hoặc điều chỉnh mô hình
● Theo từng lớp nhãn (ground truth) khác nhau
Với những lớp nhãn có độ chính xác thấp hoặc saliency học không đúng với
yêu cầu thì cần tăng thêm dữ liệu để mô hinh có thể học tốt hơn
Công
Nguyên lý Ưu điểm Nhược điểm
trình
● VD: Kết quả dự đoán ảnh là con mèo là 0.6 hay 60%.
0.6 (~60%) là 3
❑ Input:
● 1 ảnh chụp não kích thước
❑ Output:
● 1 mask chứa khối u tương ứng
❑ Nhãn (Ground Truth):
● ; pixel não không có khối u
● ; pixel não có khối u
❑ Dataset:
● Tập ảnh 2D não
● Tập mask 2D tương tương ứng
Unet Architecture
Unet Architecture
Loss Functions
Binary Cross-Entropy
XAI trong phân đoạn khối u não
❑ Input:
● Ảnh chụp 2D não
● Mô hình U-net và trọng số đã training
● Kết quả phân đoạn khối u của U-net
❑ Output:
● Explainable (Saliency map - vùng ảnh khối u được kích hoạt)
Input:
• 1 ảnh não bất kỳ
• trọng số model XAI Menthod
• model Output :
Saliency map
Phương pháp Gradient-based
❑ Mục tiêu:
● Visualize saliency map cho các lớp convolution cuối cùng
5x5
Gradient-
base method
Saliency map
Pipeline of Method Framework
CAM (Vanilla
XAI Menthod
gradient) là gì?
Grad-CAM
Input
Guided Grad-CAM
CAM (Class Activation Map)
Vanilla gradient
❑ Guided Grad-CAM
● Kết hợp GradCAM + VanillaGrad
bằng nội suy song tuyến
(bilinear interpolation)
Global Average Pooling
Các công đoạn SmoothGrad
- Tương tự UNET
- Dùng skip-connection (redisual
learning) giải quyết vấn đề vanishing - Độ chính xác
gradient cao hơn UNET - Kiến trúc phức
ResNET
- Tăng số lượng layer, tăng độ sâu mạng. - Độ phức tạp tạp hơn UNET
Tăng kích thước ảnh đầu vào xử lý hiệu quả cao hơn
hơn
Công trình Nguyên lý Ưu điểm Nhược điểm
Feed forward
backpropagation
XAI Image Result
Các vấn đề còn tồn đọng
❑ Input
● Ảnh não 2D
● Model & weight
● Ảnh phân đoạn
khối u
XAI Model
❑ Output
● Saliency map
Framework pipeline
❑ Framework pipeline
● Huấn luyện mô hình Image Segmentation thông
thường
Thu được trọng số mô hình
● Áp dụng mô hình XAI
weight
Image Segmentation
XAI
Model
Hướng tiếp cận Hậu xử lý
❑ Framework pipeline
● Phrase 1: Segmentation (U-NET)
● Phrase 2: Classification (VGG, ResNET, Inception)
Bị nhiễm Covid
Không
● Phrase 3: Explainable (LIME, Grad-CAM)
Framework pipeline
❑ Framework pipeline
● Offline (Input -> Training -> Output)
Medical Image
X-quang CT MRI
(2D) (3D) (3D)
Khai triển Taylor bậc nhấtnhất
Framework pipeline
❑ Framework pipeline
● Phrase 1: Segmentation (U-NET)
● Phrase 2: Classification (VGG, ResNET, Inception)
Bị nhiễm Covid
Không
● Phrase 3: Explainable (LIME, Grad-CAM)
Framework pipeline
❑ Framework pipeline
● Offline (Input -> Training -> Output)
XAI trong phân đoạn ảnh khối u não
❑ Input
● Ảnh não 2D
● Model & weight
● Ảnh phân đoạn
khối u
XAI Model
❑ Output
● Saliency map
Local Explanations
• Feature Importances
• Rule Based
• Saliency Maps
• Prototypes/Example Based
• Counterfactuals
Global Explanations
• Collection of Local Explanations
• Representation Based
• Model Distillation
• Summaries of Counterfactuals
Medical Image
X-quang CT MRI
(2D) (3D) (3D)
Nhãn
●Mask
: không chứa khối u
: có chứa khối u