일반적인 샘플링 알고리즘에서 최적화 알고리즘을 도출 할 수 있습니다.
실제로 임의의 함수 를 최대화하려면 에서 샘플을 추출하면 충분합니다 . 들어 작은만큼,이 샘플은 기능의 세계 최대 (또는 실제로 지역 최대) 근처에 떨어질 것입니다 .
"샘플링"이란 상수까지 알려진 로그 우도 함수가 주어진 분포에서 의사 랜덤 샘플을 그리는 것을 의미합니다. 예를 들어, MCMC 샘플링, Gibbs 샘플링, 빔 샘플링 등 "최적화"란 주어진 함수의 값을 최대화하는 매개 변수를 찾으려는 시도를 의미합니다.
그 반대가 가능합니까? 함수 또는 조합 식의 최대 값을 찾는 휴리스틱이 주어지면 효율적인 샘플링 절차를 추출 할 수 있습니까?
예를 들어 HMC는 기울기 정보를 활용하는 것 같습니다. BFGS와 같은 Hessian 근사를 활용하는 샘플링 절차를 구성 할 수 있습니까? (편집 : 분명히 예 : http://papers.nips.cc/paper/4464-quasi-newton-methods-for-markov-chain-monte-carlo.pdf ) 조합 문제에서 MCTS를 사용할 수 있습니다. 샘플링 절차에?
맥락 : 샘플링의 어려움은 대부분 확률 분포의 질량이 매우 작은 영역 내에 있다는 것입니다. 이러한 영역을 찾는 흥미로운 기술이 있지만 편향되지 않은 샘플링 절차로 직접 변환되지는 않습니다.
편집 : 나는 이제 그 질문에 대한 대답이 복잡성 클래스 # P와 NP의 평등과 다소 동등한 것으로 느낀 느낌을 가지고 있으며 대답을 "아니오"로 만듭니다. 모든 샘플링 기법이 최적화 기법을 산출하지만 그 반대의 이유는 설명하지 않습니다.