[Paper Review]ON CONCEPT-BASED EXPLANATIONS IN DEEP NEURAL NETWORKS
[발표자]
석사과정 김혜연
[발표 요약]
1.Topic
Concept based XAI
2. Overview
본 논문은 특정 concept들이 이루는 부분집합이 얼마나 model의 prediction을 설명하는데 기여하는가를 측정하는 정량적 지표인 completeness score를 정의하였습니다. Activation space상에서 각 concept과 input example들이 얼마나 근접한지를 의미하는 concept score를 통해, concept을 도입한 모델의 prediction accuracy를 concept을 도입하지 않은 기존 방법론의 prediction accuracy로 나눠줍니다.
또한 모델의 결과를 충분히 설명하는 concept vector들을 도출하기 위해, completeness score와 (concept들에 interpretability를 높여주는) regulerizer를 더하여 찾고자 하는 concept vector들과 mapping function g를 최적화합니다.
마지막으로 ConceptSHAP을 통해 각 concept의 중요도를 도출합니다. 각 concept이 얼마나 completeness score에 기여하는가와 model의 prediction에 얼마나 기여하는지를 나타내는 shapley value기반의 지표입니다.
3. 발표 자료
https://drive.google.com/file/d/1fMOesr9GVjmR7oY-JnpsXSVTt3Hq3cM8/view?usp=sharing
Видео [Paper Review]ON CONCEPT-BASED EXPLANATIONS IN DEEP NEURAL NETWORKS канала 고려대학교 산업경영공학부 DSBA 연구실
석사과정 김혜연
[발표 요약]
1.Topic
Concept based XAI
2. Overview
본 논문은 특정 concept들이 이루는 부분집합이 얼마나 model의 prediction을 설명하는데 기여하는가를 측정하는 정량적 지표인 completeness score를 정의하였습니다. Activation space상에서 각 concept과 input example들이 얼마나 근접한지를 의미하는 concept score를 통해, concept을 도입한 모델의 prediction accuracy를 concept을 도입하지 않은 기존 방법론의 prediction accuracy로 나눠줍니다.
또한 모델의 결과를 충분히 설명하는 concept vector들을 도출하기 위해, completeness score와 (concept들에 interpretability를 높여주는) regulerizer를 더하여 찾고자 하는 concept vector들과 mapping function g를 최적화합니다.
마지막으로 ConceptSHAP을 통해 각 concept의 중요도를 도출합니다. 각 concept이 얼마나 completeness score에 기여하는가와 model의 prediction에 얼마나 기여하는지를 나타내는 shapley value기반의 지표입니다.
3. 발표 자료
https://drive.google.com/file/d/1fMOesr9GVjmR7oY-JnpsXSVTt3Hq3cM8/view?usp=sharing
Видео [Paper Review]ON CONCEPT-BASED EXPLANATIONS IN DEEP NEURAL NETWORKS канала 고려대학교 산업경영공학부 DSBA 연구실
Показать
Комментарии отсутствуют
Информация о видео
Другие видео канала
[Paper Review] Towards better understanding of self supervised representations[Paper Review] RocketQA: An Optimized Training Approach to Dense Passage Retrieval for Open-Domain..[Paper Review] Various Methods to develop Verbalizer in Prompt-based Learning (KPT, WARP)[Paper Review] C2-CRS: Coarse-to-Fine Contrastive Learning for CRS[Paper Review] DualPrompt: Complementary Prompting for Rehearsal-free Continual Learning[DSBA] CS224n 2021 Study | #10 Transformers and Pretraining[Paper Review] How Much Knowledge Can You Pack Into the Parameters of a Language Model?[Paper Review] Speech to Speech Translation[Paper Review] Open Source LMs[Paper Review] Masked Image Modeling[Paper Review] WinCLIP: Zero-/few-shot anomaly classification and segmentation.[Paper Review] Towards Total Recall in Industrial Anomaly Detection[Paper Review] LightGCN: Simplifying and Powering Graph Convolution Network for Recommendation[Paper Review] DeepTIMe: Deep Time-Index Meta-Learning for Non-Stationary Time-Series[Paper Review] Non-Autoregressive Neural Machine Translation (Gu et al., ICLR 2018)[Paper Review] Asymmetric Student-Teacher Networks for Industrial Anomaly Detection[Paper Review] BEIT: BERT Pre-Training of Image Transformers[Paper Review] Momentum Contrast for Unsupervised Visual Representation Learning[Paper Review] Community Detection in graphs[Paper Review] AER: Auto-Encoder with Regression for Time Series Anomaly Detection