답변:
많은 프레임 워크와 접근 방식이 있습니다. 이것은 반복되는 문제입니다.
예 :
기술적 복잡성 \ 수준의 세부 사항이 증가하는 일부 검토 결과 :
아, 그리고 90 % / 10 %는 불균형이 아닙니다. 카드 거래 사기 데이터 세트는 종종 99.97 % / 0.03 %로 나뉩니다. 이것은 불균형입니다.
이것은 학습 방법에 따라 크게 다릅니다. 대부분의 범용 접근 방식에는이를 처리하는 하나 이상의 방법이 있습니다. 일반적인 수정은 소수 클래스에 대해 더 높은 오 분류 페널티를 할당하여 분류자가 클래스를 인식하도록하는 것입니다 (SVM, 로지스틱 회귀, 신경망 등).
언급 한 것처럼 샘플링 변경도 가능합니다. 이 경우 소수 클래스를 오버 샘플링하는 것이 대다수 클래스를 언더 샘플링하는 것보다 일반적으로 더 나은 솔루션입니다.
임의 포리스트와 같은 일부 방법은 수정할 필요가 없습니다.