선형 방정식 시스템을 풀기위한 Krylov 부분 공간 방법의 수렴의 원리는 무엇입니까?


24

내가 이해하는 것처럼 선형 방정식 시스템을 푸는 반복적 인 방법에는 두 가지 주요 범주가 있습니다.

  1. 고정 방법 (Jacobi, Gauss-Seidel, SOR, Multigrid)
  2. Krylov Subspace 방법 (콘쥬 게이트 그라디언트, GMRES 등)

나는 대부분의 고정 방법이 푸리에 오류 모드를 반복적으로 완화 (평활)함으로써 작동한다는 것을 이해합니다. 내가 알기로, Conjugate Gradient 방법 (Krylov subspace 방법)은 번째 잔차에 적용된 행렬의 힘으로부터 최적의 검색 방향 세트를 통해 "스테핑"함으로써 작동합니다 . 이 원리는 모든 Krylov 부분 공간 방법에 공통적인가? 그렇지 않다면, 우리는 일반적으로 Krylov subspace 방법의 수렴의 원리를 어떻게 특성화합니까?n


2
고정 방법 분석은 간단한 모델 문제로 인해 편향됩니다. 푸리에 모드로 분석 할 수 있기 때문입니다. 또한 ADI (Alternative Direction Implicit) 및 기타 여러 가지 방법도 무시합니다. 대부분의 "정적 방법"의 요점은 많은 간단한 "근사 적 부분"솔버를 하나의 반복 솔버로 결합하는 것입니다. Krylov 방법의 요점은 주어진 고정 선형 반복의 수렴을 가속화 (또는 심지어 시행)하는 것입니다.
Thomas Klimpel

4
귀하의 질문에 대답하기 위해 작성된 것으로 생각되는 논문은 Ipsen and Meyer, Krylov 방법의 기본 개념입니다. 수학. 월간 105 (1998) pp. 889-899. 그것은 사용할 수있는 멋지고 잘 쓰여진 및 명확히 종이의 여기 .
Andrew T. Barker

@ AndrewT.Barker : 대단해! 고마워 앤드류! :)
Paul

답변:


21

일반적으로 모든 Krylov 방법은 본질적으로 매트릭스의 스펙트럼에서 평가할 때 작은 다항식을 찾습니다. 특히 Krylov 방법 의 번째 잔차 (초기 추측 값이 0 임)는 다음과 같은 형식으로 작성 될 수 있습니다.n

rn=Pn(A)b

여기서 은 차수 n 의 일부 다항식입니다 .Pnn

경우 와, diagonalizable입니다 = V Λ V - 1 , 우리는이AA=VΛV1

rnVPn(Λ)V1b=κ(V)Pn(Λ)b.

그 경우 (예를 들어, 대칭 또는 단일) 우리가 알고있는 정상 κ ( V를 ) = 1 CG 다른 내적을 이용하여 다항식 구축하면서 Arnoldi 반복을 통해 이러한 다항식 GMRES 구조를 (볼 이 응답 세부 사항)을 . 마찬가지로 BiCG는 비대칭 Lanczos 프로세스를 통해 다항식을 구성하는 반면 Chebyshev 반복에서는 스펙트럼에 대한 사전 정보 (일반적으로 대칭 한정 행렬에 대한 최대 및 최소 고유 값 추정)를 사용합니다.Aκ(V)=1.

멋진 예로 (Trefethen + Bau에서 동기 부여) 스펙트럼이 다음과 같은 행렬을 생각해보십시오.

매트릭스의 스펙트럼

MATLAB에서는 다음과 같이 구성했습니다.

A = rand(200,200);
[Q R] = qr(A);
A = (1/2)*Q + eye(200,200);

n 차의 모든 monic 다항식에 대한 잔차 를 실제로 최소화 하는 다항식을 구성하는 GMRES를 고려 하면 후보 다항식을 보면 잔차 이력을 쉽게 예측할 수 있습니다n

Pn(z)=(1z)n

우리의 경우에는

|Pn(z)|=12

의 스펙트럼 .에이

이제 랜덤 RHS에서 GMRES를 실행하고 잔차 이력을이 다항식과 비교하면, 그것들은 상당히 유사해야합니다 (후보 다항식 값은 이므로 GMRES 잔차보다 작습니다 ).2>1

잔여 역사


"행렬의 스펙트럼에서 작은"이라는 말의 의미를 명확하게 설명해 주시겠습니까?
Paul

2
복소 다항식으로 취하면, 다항식 A 의 스펙트럼을 포함하는 복소 평면 영역에서 작은 계수를 갖습니다 . 고유 값의 산포도에 중첩 된 등고선 그림을 상상해보십시오. 얼마나 작습니까? 문제, A 가 정상 인지 여부 및 오른쪽 b에 따라 다릅니다 . 기본 아이디어는 다항식 ( P n ) 시퀀스가 스펙트럼에서 점차 작아지고 작아지기 때문에 내 답변의 잔류 추정치가 0 이되는 것 입니다. 에이에이.(Pn)0
Reid. Atcheson

@ Reid.Atcheson : 잘 넣었습니다. 나는 쓰는 것을 권장 할 수 있음 κ ( V를 ) 하고 정상 행렬에 대한 하나라고 언급? VV1κ(V)
Jack Poulson

최적의 SOR에 의해 사전 조정 된 라플라시안은이 예시 매트릭스와 매우 유사한 스펙트럼을 갖는다. 자세한 내용은 여기 : scicomp.stackexchange.com/a/852/119
Jed Brown

엄밀히 말하면 CGNE는 단일 값에만 의존하기 때문에 스펙트럼과 무관합니다.
Jed Brown

17

규범에

Reid. Atcheson의 답변에 대한 부록으로 규범과 관련된 몇 가지 문제를 분명히하고 싶습니다. 상기 반복, GMRES 다항식 발견 P는 N 이 최소화 2 잔류의 -normnthPn2

rn=Axnb=(Pn(A)1)bb=Pn(A)b.

가 SPD이므로 A 가 표준을 유도하고 A - 1도 유도 한다고 가정하십시오 . 그때AAA1

rnA1=rnTA1rn=(Aen)TA1Aen=enTAen=enA

우리가 오류를 사용한 곳

이자형=엑스엑스=엑스에이1=에이1아르 자형

따라서 오류 -norm는 동등 - 1 잔류의 규범. 컨쥬 게이트 그라디언트 (conjugate gradient) 는 오차 의 A- 노름을 최소화하여 저에너지 모드를 해결할 때 상대적으로 더 정확합니다. 2 최소화를 GMRES 등인 잔여의 -norm, T 따라서 오류 -norm, 및 저에너지 모드 덜 잘 해결한다는 점에서 더 약하다. 잔차 의 A- 노름은 저에너지 모드에서는 훨씬 약하기 때문에 본질적으로 가치가 없습니다.에이에이1에이2에이에이에이

수렴 범위의 선명도

마지막으로, 특히 비정규 연산자에 대한 다양한 Krylov 방법과 GMRES 수렴의 미묘함에 관한 흥미로운 문헌이 있습니다.


Olavi Nevanlinna의 우수 도서를 중단했습니다 : books.google.com/…
Matt Knepley

11

간단히 말해서 반복 방법 :

  1. 고정 된 방법은 본질적으로 고정 소수점 반복입니다 . 를 풀기 위해 , 당신은 가역 행렬 C 를 고르고 고정 소수점 x = x + C b C A x를 찾습니다. 이것은 I - C < 1 . 다양한 방법은 C 의 특정 선택에 해당합니다 (예 : Jacobi 반복의 경우 C = D - 1 , 여기서 D에이엑스=기음

    엑스=엑스+기음기음에이엑스
    나는기음에이<1기음기음=1 의 대각선 요소를 포함하는 대각선 행렬 입니다.에이
  2. ,V기음엑스~에이엑스~V에이VV=V=에이

    V엑스~

    에이엑스~

    이것은 반복적 인 방법에 관한 Youcef Saad의 에서 잘 설명되어 있습니다 .

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.