수치 적 최적화 관점에서 이중 제제가 매력적인 이유는 다음과 같습니다. 자세한 내용은 다음 용지를 참조하십시오 .
Hsieh, C.-J., Chang, K.-W., Lin, C.-J., Keerthi, SS 및 Sundararajan, S.,“대규모 선형 SVM을위한 이중 좌표 하강 법”, 헬싱키, 제 25 회 기계 학습 국제 회의.
이중 포 뮬레이션에는 단일 아핀 항등 구속 조건과 n 바운드 구속 조건이 포함됩니다.
아핀 평등 제약은 이중 제형으로부터 "제거"될 수있다.
R ^ (d + 1)에 R ^ d를 삽입하여 각 데이터 포인트에 단일 "1"좌표를 추가하여 R ^ (d + 1)의 데이터를 간단히 살펴볼 수 있습니다 (예 : R ^ d ----> R ^ (d + 1) : (a1, ..., ad) | ---> (a1, ..., ad, 1).
훈련 세트의 모든 점에 대해 이것을 수행하면 R ^ (d + 1)의 선형 분리 문제가 다시 발생하고 분류기에서 상수 항 w0이 제거되어 이중에서 아핀 평등 제약 조건이 제거됩니다.
포인트 1에 의해, 듀얼은 구속 조건 만이 구속 구속 조건 인 볼록 2 차 최적화 문제로 쉽게 캐스트 될 수있다.
3. 이중 문제는 이제 효율적으로, 즉 O (log (1 / epsilon))에서 엡실론-최적 솔루션을 제공하는 이중 좌표 하강 알고리즘을 통해 해결 될 수 있습니다.
하나를 제외한 모든 알파를 고정하면 닫힌 형태의 솔루션이 생성됩니다. 그런 다음 모든 알파를 하나씩 차례로 순환 할 수 있습니다 (예 : 무작위로 하나 선택, 다른 모든 알파 수정, 닫힌 양식 솔루션 계산). 따라서 "가장 빨리"거의 최적의 솔루션을 얻을 수 있음을 보여줄 수 있습니다 (앞서 언급 한 정리 1 참조).
이중 문제가 최적화 관점에서 매력적인 이유는 여러 가지가 있는데, 그 중 일부는 하나의 아핀 평등 제약 조건 (남은 제약 조건이 모두 바운드 제약 조건 임) 만 있다는 사실을 악용하는 반면 다른 솔루션은 솔루션에서 관찰 한 내용을 악용합니다. 이중 문제 중 "대부분의 알파"는 0 (지원 벡터에 해당하는 0이 아닌 알파)입니다.
Computational Learning Workshop (2009) 에서 Stephen Wright의 프레젠테이션 을 통해 SVM에 대한 수치 최적화 고려 사항에 대한 좋은 개요를 얻을 수 있습니다 .
추신 : 나는 여기에 처음입니다. 이 웹 사이트에서 수학 표기법을 잘 사용하지 못해서 죄송합니다.