두 가지 인기있는 포스트 모델 해석 기술에 대해 읽고 있습니다 : LIME 및 SHAP
이 두 기술의 주요 차이점을 이해하는 데 어려움을 겪고 있습니다.
SHAP의 핵심 인 Scott Lundberg 를 인용 하면 :
SHAP 값은 LIME의 블랙 박스 로컬 추정 이점과 함께 제공되며 게임 이론의 일관성 및 로컬 정확도에 대한 이론적 보증도 제공합니다 (우리가 통합 한 다른 방법에서 기인).
이 ' 게임 이론 의 일관성과 로컬 정확성에 대한 이론적 보장 '이 무엇인지 이해하는 데 어려움 이 있습니다. SHAP는 LIME 이후에 개발되었으므로 LIME가 해결하지 못하는 약간의 차이를 메운다고 가정합니다. 저게 뭐야?
Shapley Estimation에 관한 장에서 Christoph Molnar의 책 은 다음과 같이 말합니다.
예측과 평균 예측의 차이는 인스턴스의 특성 값인 shapley 효율 특성에 상당히 분산되어 있습니다. 이 속성은 Shapley 값을 LIME과 같은 다른 방법과 별도로 설정합니다. LIME은 효과를 완벽하게 분배한다고 보증하지 않습니다. 그것은 Shapley 가치를 완전한 설명을 제공하는 유일한 방법으로 만들 수 있습니다
이것을 읽으면 SHAP가 로컬이 아니라 데이터 포인트에 대한 glocal 설명이라는 것을 알 수 있습니다. 나는 여기에 잘못이있을 수 있으며 위의 인용문이 의미하는 바에 대한 통찰력이 필요합니다. 내 질문을 요약하면 LIME은 로컬 설명을 생성합니다. SHAP의 설명은 LIME과 어떻게 다릅니 까?