머신 러닝 과정에서 PCA ( Principal Component Analysis ) 의 일반적인 용도 중 하나 는 다른 머신 러닝 알고리즘의 속도를 높이는 것입니다. 예를 들어 로지스틱 회귀 모델을 학습한다고 가정합니다. 1에서 n까지 i에 대한 훈련 세트 가 있고 벡터 x의 치수가 매우 크다는 것을 알 수 있습니다 (치수를 말하십시오) .PCA를 사용하여 더 작은 치수 (k 치수라고 함) 특징 벡터 z. 그런 다음 훈련 세트 ( z ( i ) , y ( i ) 에서 로지스틱 회귀 모델을 학습 할 수 있습니다. 경우 1에서 n까지입니다. 피처 벡터의 크기가 더 작으므로이 모델을 빠르게 학습 할 수 있습니다.
그러나 임의의 k 개의 피쳐를 무작위로 선택하고 나머지를 제거하여 피쳐 벡터의 치수를 k 치수로 줄일 수없는 이유를 이해하지 못합니다.
z 벡터는 특징 벡터의 선형 조합입니다. z 벡터는 k- 차원 표면에 국한되기 때문에, k 개의 제거 된 피처 값의 선형 함수로서 ak 제거 피처 값을 쓸 수 있으며, 따라서 모든 z는 k 피처의 선형 조합에 의해 형성 될 수 있습니다. 따라서 기능이 제거 된 훈련 세트에서 훈련 된 모델이 PCA에 의해 치수가 축소 된 훈련 세트에서 훈련 된 모델과 동일한 힘을 가져서는 안됩니까? 모델의 유형과 선형 조합에 의존하는지 여부에 달려 있습니까?