TL; DR
LIPO를 사용하는 것이 좋습니다. 순수한 무작위 검색 (PRS)보다 정확하고 아마 더 낫습니다. 또한 구현이 매우 간단하고 하이퍼 파라미터가 없습니다. LIPO를 BO와 비교하는 분석을 수행하지는 않았지만 LIPO의 단순성과 효율성은 BO가 성능을 능가 할 것임을 암시합니다.
(또한 베이지안 하이퍼 파라미터 최적화의 단점은 무엇입니까? )
베이지안 최적화
베이지안 최적화 유형 방법은 가우스 프로세스 대리 모델을 작성하여 매개 변수 공간을 탐색합니다. 주요 아이디어는 서로 더 가까운 매개 변수 튜플의 기능 값이 비슷하므로 점 사이의 공분산 구조를 가정하면 알고리즘이 다음에 시도 할 가장 좋은 매개 변수 튜플에 대한 교육 된 추측을 할 수 있다는 것입니다. 이 전략은 기능 평가 횟수를 줄이는 데 도움이됩니다. 실제로 BO 방법의 동기는 기능 평가의 수를 가능한 한 낮게 유지하면서 "버팔로 전체를 사용하여"다음에 어떤 점을 테스트해야하는지에 대한 좋은 추측을하는 것입니다. 다음 방문 점을 비교하는 데 사용되는 장점 (예상 개선, 예상 수량 개선, 개선 가능성 ...)의 여러 수치가 있습니다.
이 기능을 그리드 검색과 비교하면 이전 기능 평가의 정보를 사용하여 다음에 어디로 가야하는지 알 수 없습니다.
또한 이것은 강력한 글로벌 최적화 기술이기도하므로 표면의 볼록도에 대한 가정은 없습니다. 또한 함수가 확률 적 (예 : 평가에 고유 한 랜덤 노이즈가있는 경우) 인 경우 GP 모델에서 직접 설명 할 수 있습니다.
반면에, 매번 반복 할 때마다 하나 이상의 GP (또는 여러 개의 "최상의"선택 또는 대안에 대한 평균화 또는 완전한 베이지안 방법)를 충족해야합니다. 그런 다음이 모델은 일반적으로 멀티 스타트 로컬 최적화 형태로 (아마도 수천 개의) 예측을 수행하는 데 사용되며, 최적화중인 함수보다 GP 예측 함수를 평가하는 것이 훨씬 저렴하다는 관찰과 함께 이루어집니다. 그러나이 계산 오버 헤드가 있어도 볼록하지 않은 함수도 비교적 적은 수의 함수 호출로 최적화 할 수 있습니다.
이 주제에 대해 널리 인용 된 논문은 Jones et al , "고비용 블랙 박스 기능의 효율적인 글로벌 최적화"입니다. 그러나이 아이디어에는 많은 변형이 있습니다.
무작위 검색
피 큐
큐= 0.95p = 0.95100 × ( 1 − q) = 5엔큐엔= 0.95엔1 - 0.95엔. 모두 합치면
1 − q엔≥ p⟹n ≥ 로그( 1 - p )로그( q)
우리의 특정한 경우에 산출 합니다.n ≥ 59
n = 60n = 60
결과가 얼마나 좋은지에 대한 확률 적 보장이 있기 때문에 더 많은 실험을 수행 할 필요가 없음을 상사에게 설득 할 수있는 설득력있는 도구가 될 수 있습니다.
LIPO와 그 변형
이것은 새로운 것이 아니라면 나에게 새로운 흥미로운 도착입니다 . 함수에 정보 바운드를 배치하는 것과 최상의 바운드에서 샘플링을 이차 근사를 사용하여 번갈아 진행됩니다. 나는 여전히 모든 세부 사항을 연구하고 있지만 이것이 매우 유망하다고 생각합니다. 이 글은 멋진 블로그 글 이며, 논문은 Cédric Malherbe와 Nicolas Vayatis " Lipschitz 기능의 글로벌 최적화 "입니다.