scikit-learn 의 StandardScaler 객체 설명서에 따르면 :
예를 들어, 학습 벡터 알고리즘의 목적 함수에 사용되는 많은 요소 (예 : Support Vector Machine의 RBF 커널 또는 선형 모델의 L1 및 L2 정규화 기)는 모든 기능이 0을 중심으로하고 동일한 순서로 분산되어 있다고 가정합니다. 특징이 다른 것보다 수십 배 큰 분산을 갖는 경우, 목적 함수를 지배하고 추정기가 예상대로 다른 특징에서 올바르게 학습하지 못할 수 있습니다.
분류하기 전에 기능을 확장해야합니다. 내가 왜이 일을해야하는지 보여줄 수있는 쉬운 방법이 있습니까? 과학 기사에 대한 언급이 더 좋습니다. 나는 이미 하나를 찾았 지만 아마도 많은 것이있을 것입니다.