Conjugate gradient가 GMRES보다 훨씬 잘 작동하는 문제


17

Conjugate gradient가 GMRES 방법보다 훨씬 우수한 경우에 관심이 있습니다.

일반적으로 CG는 저장이 덜 필요하고 CG에 대한 수렴 률에 대한 이론적 경계가 GMRES의 두 배이기 때문에 많은 SPD (대칭-양의-정의) 경우에 선호됩니다. 그러한 비율이 실제로 관찰되는 데 문제가 있습니까? GMRES가 동일한 수의 spmvs (희소 한 행렬-벡터 곱셈)에 대해 CG에 비해 성능이 우수하거나 유사한 경우에 대한 특성이 있습니까?

답변:


8

CG가 선호하는 한 가지는 잔여 다항식 (GMRES가하는 것)에 대한 이산 l2 규범을 최소화 하지 않는다는 것입니다. 대신 매트릭스 유도 규범을 최소화하고 있으며, 종종이 매트릭스 유도 규범은 물리적 문제의 불연속 화에 대한 에너지 규범에 매우 가깝게 나타나며, 종종 보존 특성으로 인해 오류를 측정하는 것이 훨씬 합리적인 규범입니다. 물리학에서.

질량 행렬의 hole 레 스키 분해 (Cholesky factorization)를 수행하는 것이 너무 비싸지 않은 경우 GMRES를 사용하여 실제로 이런 종류의 효과를 얻을 수 있습니다. 내부 제품을 원하는 에너지 내부 제품으로 만들 수 있습니다.

그렇다면 CG가 GMRES와 매우 다른 성능을 기대해야하는 경우는 표준 동등성에 내재 된 상수가 매우 다른 경우입니다. 예를 들어 GMRES에서 사용되는 불연속 l2 규범이 실제로 다항식 구배가 경계 근처에서 가장 가파르면 (따라서 노드 클러스터링) 모든 자유도를 동일하게 처리 하는 고차 스펙트럼-갈 레르 킨 방법에서 이것은 사실 일 수 있습니다. 그 규범 사이의 규범 등가 상수 는 질량 행렬에 의해 주어진 연속 L2 규범이 매우 클 수 있다고 말합니다 .


CG, GMRES 및 GMRES + Cholesky 트릭의 고차 수법과 수렴 이력을 사용하여 여기에 예제를 제공하고 싶었지만 불행히도 2 차 문제에 대해 가지고있는 유일한 코드는 비대칭 다양성의 DG입니다. 적용 할 수 없습니다.이 작업을 실제로보고 싶습니다.
Reid. Atcheson

3
귀하의 답변이 중요한 것으로 생각되지만 귀하가 명확히하기를 바랍니다. 특히,이 질문은 순수한 선형 대수 질문이며, 답은 숫자 PDE에서 물리 규범 및 질량 행렬 등에 대해 이야기합니다. 동일한 Krylov 공간 내에서 다른 규범을 최소화하는 것이 어떻게 다른 반복으로 이어지는 지에 대해 정확하게 말할 수 있습니까?
앤드류 T. 바커

수치 적 예를 제외하고는 다른 규범이 실질적으로 다른 답을 산출하는 방법을 설명하는 신중한 이론적 연구가 아직 없다고 생각합니다. 내가 생각하는 문제는 결과가 무증상을 중심으로 돌아가고 고정 선형 시스템의 경우 이론적 결과는 동일한 모듈로 상수 요인이 될 것입니다. 만약 거기에 이론적 인 연구가 있다면 그것들을보고 싶지만, 부서의 수치 선형 대수학 전문가들에게 물었을 때, 다른 규범에 무슨 일이 일어나는지를 보여주는 정확한 이론적 분석이 아직없는 것 같습니다.
Reid. Atcheson

4

SPD 매트릭스의 경우 GMRES와 CG 사이에는 일반적으로 큰 차이가없는 것으로 생각됩니다.

A 대칭 양수 한정과 시작 추측 x 0 = 0으로 를 풀고 CG 및 GMRES로 반복 생성한다고 가정하고 x c kx g k라고 합니다. 두 반복 방법이 구축 될 X K 동일한 크릴 로프 공간에서 K의 K = { B , 경우 → B , 2 B , ... } . 그들은 약간 다른 방식으로 그렇게 할 것입니다.엑스=엑스0=0엑스케이엑스케이엑스케이케이케이={,,2,}

CG 오류 최소화하는 것을 특징으로 에 의해 유도 된 에너지 놈에 , 그래서 ( E C K , E C K ) = ( ( X - X C K ) , X - X c k ) = 최소 y K ( A ( x y ) , x 이자형케이=엑스엑스케이

(이자형케이,이자형케이)=((엑스엑스케이),엑스엑스케이)=와이케이((엑스와이),엑스와이).

GMRES는 대신 잔류 최소화 하고 불연속 2 규범에서 그렇게하므로 ( r k , r k ) = ( b A x g k , b A x g k ) = Y K ( B - Y , B - Y ) .아르 자형케이=엑스케이2

(아르 자형케이,아르 자형케이)=(엑스케이,엑스케이)=와이케이(와이,와이).
이제 오차 방정식 GMRES를 최소화 ( r k , r k ) = ( A e g k , A e g k ) = ( A 2 e g k , e g k ) 로쓸 수도 있습니다 . 나는 이것이 SPD 행렬 A 에만 해당된다는 것을 강조하고 싶다. 그런 다음 CG는 A 와 관련하여 오류를 최소화합니다 .이자형케이=아르 자형케이
(아르 자형케이,아르 자형케이)=(이자형케이,이자형케이)=(2이자형케이,이자형케이)
2

케이1={}엑스1=α

α=(,)(,)
α=(,)(2,).
(ϵ,1,1,1,)=(1,1,0,0,0,)ϵ0 이 두 가지 차이의 요소가 반복되는 동안 계속되지만 그보다 더 나빠질 것 같지는 않습니다.

2
=(1,ϵ,0,0,)||=1+ϵ=2ϵ2=ϵ1+ϵ2. 그러므로αCG=ϵ1+12ϵ1하지만 αGMRES=21+ϵ22. 즉, 초기 벡터는 잔차를 작게 만들기 위해 이미 올바른 배율을 가지지 만 다음과 같이 배율을 조정해야합니다.ϵ1오류를 작게 만듭니다.
Jed Brown

3

한 가지 점은 CG를 적용 할 수있는 모든 위치에 GMRES가 사용되지 않는다는 것입니다. 이 두 가지를 비교하는 것이 의미가 없다고 생각합니다. SPD 매트릭스의 경우 스토리지 요구 사항과 위에서 언급 한 이유 때문에 CG가 확실히 승자입니다. 흥미로운 질문은 CG의 확장을 찾는 것이 CG를 적용 할 수없는 문제에 적용 할 수 있다는 것입니다. BiCG-stab과 같은 방법으로 GMRES와 같이 선형 적으로 메모리를 증가시킬 필요는 없지만 수렴은 GMRES만큼 좋지 않습니다 (때로는 GMRES를 다시 시작하더라도).


2
메모리 절약, 안정성 및 수렴 측면에서 GMRES와 BiCG 사이의 간격을 메우는 IDR 체계가 있습니다. ta.twi.tudelft.nl/nw/users/gijzen/IDR.html GMRES에 동의하지 않습니다 CG를 사용할 수 있다면 사용해서는 안됩니다. 에너지 표준을 유도하는 행렬의 콜레 스키 인수 분해를 수행 할 수있는 경우 대칭 Lanczos 반복에이를 공급하고 CG와 매우 유사하게 작동하는 3 기 재귀 솔루션을 얻을 수 있습니다. 물론 CG가 더 쉬운 옵션이지만이 옵션을 사용할 수 있습니다 :)
Reid. Atcheson

2
예를 들어 Krylov를 더 부드럽게 사용하면 GMRES가 더 높은 고유 값을 목표로하는 더 약한 규범을 사용하므로 더 높은 빈도를 갖는 경향이 있기 때문에 바람직합니다.
제드 브라운
당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.