Optunity의 수석 개발자로서 2 센트를 추가하겠습니다.
실제 문제에서 Optunity와 가장 인기있는 Bayesian 솔버 (예 : hyperopt, SMAC, bayesopt)를 비교 한 광범위한 벤치 마크를 수행했으며 그 결과 PSO가 실제로 많은 실제 사례에서 그리 효율적이지 않은 것으로 나타났습니다. 다양한 데이터 세트에서 SVM 분류기를 조정하는 벤치 마크에서 Optunity는 실제로 hyperopt 및 SMAC보다 효율적이지만 BayesOpt보다 약간 덜 효율적입니다. 나는 여기에 결과를 공유하고 싶지만 Optunity가 JMLR에 마침내 출판 될 때까지 기다릴 것입니다 (1 년 이상 검토 중이므로 숨을 참지 마십시오 ...).
알다시피, 효율성 향상은 베이지안 최적화에 일반적으로 사용되는 판매 지점이지만 실제로는 기본 대리 모델의 가정이 사소한 경우에만 물을 보유합니다. 우리의 실험에서 Optunity의 매우 간단한 PSO 솔버는 종종 함수 평가 수 측면에서 복잡한 베이지안 접근법과 경쟁합니다. 베이지안 솔버는 우수한 선행 조건이 제공 될 때 매우 잘 작동하지만 정보가없는 선행으로는 효율성 측면에서 PSO와 같은 메타 휴리스틱 방법에 비해 구조적 이점이 거의 없습니다.
PSO의 큰 판매 포인트는 그것이 당연히 평행하다는 사실입니다. 베이지안 최적화는 본질적으로 순차적 인 특성으로 인해 병렬화가 어려운 경우가 많습니다 (hyperopt의 구현이 유일한 예외 임). 표준이되고있는 분배 기회가 주어짐에 따라 Optunity는 벽시계 시간을 앞당겨 우수한 솔루션을 얻는 데 빠르게 앞장서고 있습니다.
Optunity와 대부분의 다른 전용 하이퍼 파라미터 최적화 라이브러리의 또 다른 주요 차이점은 대상 독자입니다. Optunity는 인터페이스가 가장 단순하고 비 기계 학습 전문가를 대상으로하는 반면, 대부분의 다른 라이브러리는 효과적으로 사용하기 위해 베이지안 최적화에 대한 이해가 필요합니다 (즉, 전문가를 대상으로 함).
우리가 라이브러리를 만든 이유는 전용 하이퍼 파라미터 최적화 방법이 존재하지만 실제로 채택이 부족하기 때문입니다. 대부분의 사람들은 여전히 수동으로 조정하거나 그리드 또는 임의 검색과 같은 순진한 접근 방식을 통해 전혀 튜닝하지 않습니다. 우리가 생각하기에 이것이 중요한 이유는 Optunity를 개발하기 전에 기존 라이브러리가 설치, 문서화, API 측면에서 사용하기가 너무 어려워 단일 환경으로 제한되기 때문입니다.