(먼저 아래의 "표"를보고 싶을 수도 있습니다)
"클래식"지원 벡터 머신부터 시작하겠습니다. 이들은 두 범주를 구별하는 법을 배웁니다. 카테고리 A의 일부 예와 카테고리 B의 일부 예를 수집하여 둘 다 SVM 훈련 알고리즘으로 전달합니다.이 알고리즘은 A와 B를 가장 잘 구분하는 선 / 평면 / 고 평면을 찾습니다. 당신은 잘 정의 된 클래스와 상호 배타적 인 클래스 (남성 대 여자, 알파벳 글자 등)를 구별하려고합니다.
그러나 대신 "A"를 식별하려고한다고 가정하십시오. 이것을 분류 문제로 취급 할 수 있습니다. "A"와 "not-A"를 어떻게 구별합니까? 개 사진으로 구성된 훈련 세트를 수집하는 것은 상당히 쉽지만 개가 아닌 훈련 세트에는 무엇이 있어야합니까? 개가 아닌 수많은 것들이 있기 때문에 개가 아닌 것들에 대한 포괄적이고 대표적인 훈련 세트를 구성하는 데 어려움을 겪을 수 있습니다. 대신 1 클래스 분류기를 사용하는 것이 좋습니다. 기존의 2 클래스 분류기는 A와 B를 분리하는 (하이퍼) 평면을 찾습니다. 대신 1 클래스 SVM은 모든 동급 포인트 ( "A")를 원점에서 분리하는 선 / 평면 /과 평면을 찾습니다. ;
Ensemble SVM "시스템"은 실제로 많은 2 클래스 SVM "서브 유닛"의 모음입니다. 각 소단위는 하나를 사용하여 훈련한 클래스에 대한 긍정적 인 예와 다른 클래스에 대한 부정적인 예의 거대한 모음. 따라서 개와 개가 아닌 예 (표준 2 종 SVM) 또는 개와 원산지 (1 종 SVM)를 구별하는 대신 각 하위 단위는 특정 개 (예 : "Rex")와 많은 개를 구별합니다. 예. 개별 서브 유닛 SVM은 포지티브 클래스의 각 예에 대해 훈련되었으므로 Rex에 대한 SVM, Fido에 대한 SVM, 오전 6시에 짖는 이웃의 개에 대한 SVM이 있습니다. 이들 서브 유닛 SVM의 출력은 교정되고 결합되어 특정 예시 중 하나가 아니라 개가 시험 데이터에 나타나는지 여부를 결정합니다. 개별 서브 니트를 단일 클래스 SVM과 비슷하게 생각할 수 있다고 생각합니다. 좌표 공간이 이동하여 단일 긍정적 예가 원점에 위치합니다.
요약하면 주요 차이점은 다음과 같습니다.
훈련 데이터
- 두 가지 클래스 SVM : 긍정적 및 부정적 예
- 하나의 클래스 SVM : 긍정적 인 사례 만
- Ensemble SVM "시스템": 긍정적이고 부정적인 예. 각 서브 유닛은 하나의 긍정적 인 예와 많은 부정적인 예에 대해 훈련됩니다.
기계 수
- 두 가지 클래스 SVM : 하나
- 하나의 클래스 SVM : 하나
- Ensemble SVM "시스템": 다수 (긍정적 인 예당 하나의 서브 유닛 기계)
수업 당 예 (기계 당)
- 2 가지 SVM : 다 / 다
- 하나의 클래스 SVM : 다수 / 하나 (원점에서 고정)
- 앙상블 SVM "시스템": 많은 / 많은
- 앙상블 SVM "서브 유닛": 하나 / 다
후 처리
- 2 클래스 SVM : 필요하지 않음
- 하나의 클래스 SVM : 필요하지 않음
- 앙상블 SVM : 각 SVM의 출력을 클래스 수준 예측에 통합해야합니다.
Postscript : "[다른 접근 방식]에서는 유사 커널을 계산할 수있는 공통 피처 공간에 예제를 매핑해야합니다." 나는 그들이 클래스의 모든 멤버는 어떻게 든 유사하다는 기존의 두 클래스 SVM는 가정하에 동작하는 것을 의미한다 생각하고, 당신이 커널을 발견 할 수 있도록 그 장소 위대한 덴마크 와 dachsunds 멀리 다른 모든 것들에서 서로 가까이 있지만. 대조적으로, 앙상블 SVM 시스템은 예를 들어 덴마크 인이나 닥스 훈트 형 또는 푸들 형과 같이 충분히 훌륭한 경우 개를 호출함으로써 이러한 예시를 회피합니다.