여기에는 최적화의 장점 중 하나 인 ADMM (Alternating Direction Method of Multipliers) 알고리즘이 있습니다.
두 변수 (변수 자체는 벡터 일 수 있음)와 두 변수를 결합하는 선형 구속 조건의 결합되지 않고 볼록한 목적 함수가 제공됩니다.
분 f1( x1) + f2( x2)
s . t .에이1엑스1+ A2엑스2= b
엘ρ( x1, x2, λ ) = f1( x1) + f2( x2) + λ티( A1엑스1+ A2엑스2− b ) + ρ2| | 에이1엑스1+ A2엑스2− b | |22
엘ρ( x1, x2, λ )엑스1엑스2, λ엘ρ( x1, x2, λ )엑스2엑스1, λλ. 이 사이클은 정지 기준에 도달 할 때까지 계속됩니다.
(참고 : Eckstein과 같은 일부 연구원은 근위 연산자를 위해 가우스-시델 분할보기를 폐기합니다 (예 : http://rutcor.rutgers.edu/pub/rrr/reports2012/32_2012.pdf 참조 )
볼록한 문제의 경우이 알고리즘은 두 변수 세트에 대해 수렴되는 것으로 입증되었습니다. 세 가지 변수에는 해당되지 않습니다. 예를 들어 최적화 문제
분 f1( x1) + f2( x2) + f삼( x삼)
s.t.A1x1+A2x2+A3x3=b
fxiλ
https://web.stanford.edu/~yyye/ADMM-final.pdf