107 해석
| parent_topic | 100-데이터분석 & AI |
| types | 레퍼런스 |
| tags | #interpretation #explainability #model-evaluation |
107 해석
모델 결과 해석 및 설명 가능성 관련 학습 내용을 담는 SubTopic이다.
What is 모델 해석
머신러닝 모델이 어떻게 예측을 내렸는지, 어떤 특성이 중요한지 이해하고 설명하는 과정이다.
왜 중요한가
신뢰성 확보
- 블랙박스 모델을 투명하게 만든다
- 이해관계자에게 모델의 동작을 설명할 수 있다
디버깅 및 개선
- 모델이 잘못된 이유를 파악
- 어떤 특성이 중요한지 알면 데이터 수집 방향 결정 가능
규제 및 윤리
- 금융, 의료 등에서는 설명 가능한 AI 요구
- 공정성과 편향성 검증
주요 기법
Feature Importance
- 각 특성의 중요도 측정
- 트리 기반 모델에서 기본 제공
SHAP (SHapley Additive exPlanations)
- 게임 이론 기반 설명 기법
- 각 특성의 기여도를 정량화
LIME (Local Interpretable Model-agnostic Explanations)
- 로컬 영역에서 해석 가능한 모델로 근사
- 모델에 독립적으로 사용 가능
Attention Mechanism
- 딥러닝에서 모델이 어디에 집중하는지 시각화