K- 평균과 K- 최근 접 이웃의 주요 차이점은 무엇입니까?


답변:


106

이것들은 완전히 다른 방법입니다. 그들이 둘 다 그들의 이름에 문자 K를 가지고 있다는 사실은 우연의 일치입니다.

K- 평균 은 각 클러스터의 포인트가 서로 가까이있는 경향이 있도록 포인트 세트를 K 세트 (클러스터)로 분할하는 클러스터링 알고리즘입니다. 포인트에는 외부 분류가 없으므로 감독되지 않습니다.

K- 최근 접 이웃 은 점의 분류를 결정하기 위해 K 가장 가까운 점의 분류를 결합하는 분류 (또는 회귀) 알고리즘입니다. 알려진 다른 포인트 분류에 따라 포인트를 분류하려고하기 때문에 감독됩니다.


6
이 사람이 신용을주는 것보다 더 많은 유사성이 있다고 생각합니다. 둘 다 거리 방법을 사용하여 입력을 각각 클러스터하고 분류합니다. 이것이 종종 그들이 함께 가르치는 이유와 차원 문제가 그들과 관련하여 논의되는 이유입니다. 다양한 거리 방법을 두 가지 모두에 적용 할 수 있습니다. 사실 많은 유사점이 있습니다.
eljusticiero67

물론 @ eljusticiero67은 입력을 분류하는 데 사용되며 OP에 의해 언급됩니다. 그리고 대부분의 고전적인 학습 방법은 거리에 따라 다르므로 놀라운 것도 아닙니다. OP는 차이점에 관심이있었습니다. 또한 OP가 두 이름의 K로 인해 유사성이있을 수 있음을 암시하는 것으로 이해했습니다.
Bitwise

12

Bitwise 의 답변 에서 언급했듯이 k- 평균은 클러스터링 알고리즘입니다. k- 최근 접 이웃 (k-NN)에 관해서는이 용어가 약간 희미합니다.

  • 분류와 관련하여 앞에서 언급 한 답변에서 언급 한 바와 같이 분류 알고리즘입니다.

  • 일반적으로 다양한 솔루션 (알고리즘)이 존재 하는 문제입니다

따라서 첫 번째 맥락에서 "k-NN 분류기"는 k-NN 문제를 해결하는 다양한 기본 콘크리트 알고리즘을 의미 할 수 있으며 그 결과는 분류 목적으로 해석됩니다.

이것들은 서로 다른 두 가지이지만 k- 평균 알고리즘이 k-NN 문제를 해결하기위한 다양한 방법 중 하나라는 사실을 흥미로울 것입니다 (Marius Muja 및 David G. Lowe, "자동 알고리즘 구성을 사용하는 가장 가까운 가장 가까운 이웃" ). 컴퓨터 비전 이론 및 응용에 관한 국제 회의 (VISAPP'09), 2009 PDF )


0

감독 된 k- 평균을 가질 수 있습니다. 레이블이 지정된 데이터를 기반으로 중심 (k- 평균)을 작성할 수 있습니다. 아무것도 당신을 막을 수 없습니다. 이를 개선하려면 유클리드 공간과 유클리드 거리가 최상의 결과를 제공하지 못할 수 있습니다. 공간을 선택하고 (예 : 리만 공간 일 수 있음) 점 사이의 거리를 정의하고 "점"을 정의해야합니다. 마지막 두 가지는 연구 주제이며, 데이터의 유형 (속성) (신호)에 따라 다릅니다.


-2

K- 평균은 인접 노드에 대한 클러스터 정보를 생성 할 수 있지만 KNN은 주어진 인접 노드에 대한 클러스터를 찾을 수 없습니다.


-2

k knn이 실제 분류 단계에 배치되기 전에 평균을 훈련 단계로 사용할 수 있습니다. K는 각 클래스에 속하는 샘플의 중심 및 클래스 레이블로 표시되는 클래스를 만듭니다. knn은 이러한 매개 변수와 k 번호를 사용하여 보이지 않는 새로운 샘플을 분류 하고 K 평균 알고리즘으로 생성 된 k 클래스 중 하나에 할당합니다.

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.