알려지지 않은 잡음 기능 최대화


10

함수 를 최대화하는 데 관심이 있는데 여기서 θ R p 입니다.f(θ)θRp

문제는 함수 또는 파생 함수의 분석 형식을 모른다는 것입니다. 내가 할 수있는 유일한 방법은 값에 연결하여, 포인트 - 현명한 기능을 평가하는 것입니다 잡음 추정 얻을 F를 ( θ * ) 그 시점에서. 원하는 경우 이러한 추정값의 변동성을 줄일 수 있지만 계산 비용을 증가시켜야합니다. θf^(θ)

내가 지금까지 시도한 것은 다음과 같습니다.

  • 유한 한 차이가있는 확률 적 가파른 하강 : 작동 할 수 있지만 많은 튜닝 (예 : 게인 시퀀스, 스케일링 계수)이 필요하고 종종 매우 불안정합니다.

  • 시뮬레이션 어닐링 : 작동하고 신뢰할 수 있지만 많은 기능 평가가 필요하므로 상당히 느립니다.

따라서 이러한 조건에서 작동 할 수있는 가능한 대체 최적화 방법에 대한 제안 / 아이디어를 요청합니다. 나는 다른 연구 분야의 제안을 장려하기 위해 가능한 한 일반적인 문제를 유지하고 있습니다. 필자는 수렴시 Hessian을 추정 할 수있는 방법에 매우 관심이 있다고 덧붙여 야한다. 매개 변수 의 불확실성을 추정하기 위해 사용할 수 있기 때문 입니다. 그렇지 않으면 견적을 얻으려면 최대 주위에 유한 차이를 사용해야합니다.θ


함수의 출력과 관련된 노이즈에 대해 더 구체적으로 말할 수 없다면 시뮬레이션 어닐링보다 더 정교한 것이 확실하지 않습니다 (어느 정도 조정해야 할 것입니다).
Aron Ahmadia

θ

f^(θ)N(f(θ),σ)

내가 Neumaier 교수에 의해 수정 된 것처럼 보인다 :)
Aron Ahmadia

여기서 물리학 자들은 광학 위상 형성 (펄스 쉐이퍼를 통해 레이저 펄스의 위상을 최적화)을 위해 CMA-ES를 사용했습니다.
tillsten

답변:


7

우리의 Matlab 패키지 SnobFit은이 목적을 위해 정확하게 만들어졌습니다. 노이즈 분포에 대한 가정은 필요하지 않습니다. 또한 텍스트 파일을 통해 함수 값을 제공 할 수 있으므로 텍스트 파일을 작성할 수있는 모든 시스템에서 구현 된 함수에 적용 할 수 있습니다. 참조
http://www.mat.univie.ac.at/~neum/software/snobfit/를

SnobFit은 최적화 될 기능이 존재하지 않는 애플리케이션을 위해 개발되었으며, 기능성 값 (제조 품질 측정)은 샘플 제품을 생성하고 수작업으로 측정하는 특수하고 고가의 장비에 의해 얻어졌으며, 약 50 개의 기능 하루 평가.


대답 해 주셔서 감사합니다. SnobFit 패키지에 관한 기사를 읽기 시작했는데 정말 흥미 롭습니다. 또한 기사에 대한 소개를 읽는 동안 (통계적 맥락에서) 다루는 문제가 산업 수학에서 매우 빈번하다는 것을 깨달았습니다. 내가 완전히 몰랐던 방대한 문헌이있다. 실제로 내가 작업했던 접근 방식은 Powell (2002)의 2 차 근사와 다소 유사합니다.
Jugurtha

스노 피트는 128 자유 도로 잘 작동합니까? 내 사건을 시험해 볼 가치가 있음을 아는 것입니다.
tillsten

@tillsten : 시끄러운 문제에 대한 방법은 많은 함수 값을 사용할 수 없다면 128 dof에서 잘 작동합니다. VXQR1은 시끄러운 문제가 아니지만 때로는 시끄러운 문제를 잘 처리합니다.
Arnold Neumaier 8

Snobfit의 한계는 약 20 개의 변수입니다. 더 많은 것이 있다면 부분적으로 최적화하는 20 개의 변수로 구성된 상식 그룹을 선택해야합니다. 또는 치수가 축소되도록 일부 변수를 동시에 슬라이드 할 수 있습니다.
Arnold Neumaier 8

7

시도 할 수 있는 몇 가지 베이지안 최적화 기술이 있습니다. 가장 쉬운 방법은 가우스 프로세스를 기반으로합니다.

  • 해롤드 J. 쿠 쉬너. 잡음이있을 때 임의의 다중 피크 곡선의 최대 값을 찾는 새로운 방법. 기본 공학 저널, 1964 년 3 월 86 : 97 ~ 106
  • J. Mockus. 글로벌 최적화에 대한 베이지안 접근 방식. 제어 및 정보 과학에 관한 강의 노트, 38 : 473–481, 1982.
  • Niranjan Srinivas, Andreas Krause, Sham Kakade 및 Matthias Seeger. 산적 설정에서 가우스 프로세스 최적화 : 후회 및 실험 설계 없음. Proc. 국제 머신 러닝 컨퍼런스 (ICML), 2010.
  • Andreas Krause, Ajit Singh 및 Carlos Guestrin. 가우스 프로세스에서 거의 최적의 센서 배치 : 이론, 효율적인 알고리즘 및 경험적 연구. J. 마하 배우다. Res., 9 : 235-284, 2008 년 6 월.

그것들은 지금까지 관찰 가능한 타당한 함수들보다 후자를 형성함으로써 작동하며, 함수를 빨리 배우고 글로벌 최대 점을 찾는 다음 요점을 제안합니다 ( 내 블로그 게시물 참조 ).

또 다른 장점은 최대 값에서 Hessian을 추정 할 수 있다는 것입니다. 그러나 노이즈 모델을 지정해야합니다.


4

James Spall의 SPSA 알고리즘 (정확히 기억하면 확률 적 변동 시뮬레이션 어닐링의 줄임말)은 정확히 이런 종류의 문제를 위해 설계되었습니다. 그는 당신이 묘사 한 것과 같은 문제를 위해 그것을 사용하는 몇 가지 논문을 가지고 있습니다.


나는 가장 가파른 하강과 Raphson Newton의 확률 적 버전을 기반으로 Spall의 접근 방식을 시도했습니다. 나는 Simulated Annealing을 시도했지만 Spall이 제안한 버전은 시도하지 않았습니다. 나는 수렴에서 Hessian의 추정치를 얻을 수 없기 때문에 시뮬레이션 된 어닐링에 대해 정말로 열성적이지 않습니다 (예를 들어, 확률 론적 Raphson Newton의 경우 Hessian에 대한 "무료")에 대한 근사치를 얻을 수 있습니다.
Jugurtha
당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.