오류 수정 프로토콜이 오류 비율이 이미 상당히 낮은 경우에만 작동하는 이유는 무엇입니까?


15

양자 오류 정정 은 양자 계산의 기본 측면이며, 대규모 양자 계산이 실제로는 불가능합니다.

종종 언급되는 내결함성 양자 컴퓨팅의 한 측면은 각각의 에러 정정 프로토콜이 에러율 임계 값 과 관련되어 있다는 것이다. 기본적으로 주어진 계산을 통해 주어진 프로토콜을 통해 오류로부터 보호 할 수 있으려면 게이트의 오류율이 특정 임계 값보다 낮아야합니다.

다시 말해, 단일 게이트의 오류율이 충분히 낮지 않으면 계산을보다 안정적으로 만들기 위해 오류 수정 프로토콜을 적용 할 수 없습니다.

왜 이런거야? 아직 시작하기에 아직 매우 낮은 오류율을 줄일 수없는 이유는 무엇입니까?


글쎄, 어떤 시점에는 단순히 잡음이 있습니다. 에러 정정이 올바른 부분을 노이즈로 정정 할 가능성이 더 높다는 것이 이상합니까?
이산 도마뱀

1
@Discretelizard는 그다지 많지 않을 수도 있지만, 임계 값은 일반적으로 매우 낮습니다 (또는 충실도 측면에서 높음). 왜 이렇게이다?
glS

답변:


4

우리는, 그래서 일반적으로, 어떤 이상적인 상태와 충실도를 출력 상태를 비교하려면, 이 사용됩니다의 가능한 측정 결과를 얼마나 잘 알 수있는 좋은 방법입니다 ρ가 의 가능한 측정 결과와 비교 | ψ , 어디 | ψ 이상적인 출력 상태이며, ρ은 일부 잡음 후의 달성 (잠재적으로 혼합 된) 상태이다. 우리가 상태를 비교하고,이는 F ( | ψ , ρ ) = F(|ψ,ρ)ρ|ψ|ψρ

F(|ψ,ρ)=ψ|ρ|ψ.

크라우스 연산자를 이용하여 잡음 및 에러 정정 과정을 모두 나타내는 크라우스 사업자와 잡음 채널 인 N IE는 크라우스 연산자와 에러 정정 채널 인 E의 J 노이즈 후의 상태가 ρ ' = N ( | ψ ⟨을 ψ | ) = i N i | ψ ψ | N i 및 노이즈 및 오류 수정 후 상태는 ρ = ENNiEEj

ρ=N(|ψψ|)=iNi|ψψ|Ni
ρ=EN(|ψψ|)=i,jEjNi|ψψ|NiEj.

이것의 충실도가 주어진다

F(|ψ,ρ)=ψ|ρ|ψ=i,jψ|EjNi|ψψ|NiEj|ψ=i,jψ|EjNi|ψψ|EjNi|ψ=i,j|ψ|EjNi|ψ|2.

에러 정정 프로토콜이 사용되기 위해서는, 에러 정정 후의 충실도가 노이즈 후의 충실도보다 크지 만, 에러 정정 전의 에러 정정 상태가 정정되지 않은 상태와 덜 구별되도록하기를 원한다. 즉 우리가 원하는이며, 이것은 √를 준다

F(|ψ,ρ)>F(|ψ,ρ).
충실도가 양수이므로이 값을i,j| ψ| EjNi| ψ| 2>i| ψ| N| ψ| 2.
i,j|ψ|EjNi|ψ|2>i|ψ|Ni|ψ|2.
i,j|ψ|EjNi|ψ|2>i|ψ|Ni|ψ|2.

분할 정정 부분에, N의 C 에 대한 EN C ( | ψ ψ | ) = | ψ ψ | 및 정정 할 수없는 부분, N , N (C) 에 대한 EN N C ( | ψ ψ | ) = σ . 오류가 P c 로 정정 될 가능성을 나타냄NNcENc(|ψψ|)=|ψψ|NncENnc(|ψψ|)=σPci , j |을 제공 할 때 수정할 수 없고 (즉, 이상적인 상태를 재구성하기 위해 너무 많은 오류가 발생 함) ψ | E j N i | ψ | 2 = P C + P N Cψ | σ | ψ P의 C , 평등 가정하여 추정됩니다 ψ | σ | ψ = 0Pnc

i,j|ψ|EjNi|ψ|2=Pc+Pncψ|σ|ψPc,
ψ|σ|ψ=0. 그것은 틀린 '수정'이 올바른 결과에 직교하는 결과를 가져올 것입니다.

들면 각 큐 비트에 에러의 (동일) 확률 큐빗, P ( 참고 :이다 되지 갖는 확률 에러의 확률을 계산하기 위해 사용되어야 할 것이다 잡음 파라미터와 같은) 에러 정정합니다 (가정 N 개의 큐빗 인코딩에 사용 된 유전율 까지의 오류를 허용 큐빗 t에서 , 큐빗 싱글 톤 결정은 결합 된 N - K 4 t )는 P의 C가npnktnk4t.

Pc=jt(nj)pj(1p)nj=(1p)n+np(1p)n1+12n(n1)p2(1p)n2+O(p3)=1(nt+1)pt+1+O(pt+2)

Ni=jαi,jPjPj χj,k=iαi,jαi,k

i|ψ|Ni|ψ|2=j,kχj,kψ|Pj|ψψ|Pk|ψχ0,,0,
χ0,0=(1p)n

1(nt+1)pt+1(1p)n.
ρ1ppt+1p

ppt+1pn=5t=1p0.29

주석에서 편집 :

Pc+Pnc=1

i,j|ψ|EjNi|ψ|2=ψ|σ|ψ+Pc(1ψ|σ|ψ).

1(1ψ|σ|ψ)(nt+1)pt+1(1p)n,

1

이는 회로 깊이에 따라 오류가 매우 낮지 않는 한 대략적인 오차로 오류 수정 또는 오류율 감소만으로 내결함성 계산에 충분하지 않음 을 보여줍니다 .


수정 불가능한 오류 가능성이 낮은 물리적 오류 속도를 설명하려고 생각하십니까? 내결함성 임계 값은 더 작습니다 (많은 코드의 경우 크기 순서)
M. Stern

@ M.Stern 따라서 이것은 오류 수정이 '오류를 줄이는'(즉, 노이즈가 적용된 후 일정량만큼 충실도를 증가시키는 경우)에 대한 (매우 거친) 추정치이므로 내결함성 임계 값은 아닙니다. 오류 수정을 수행하면 노이즈 후 정확도가 어느 정도 증가했을 수 있지만 재설정하지는 않았으므로 오류 수정이 지속적으로 적용 되더라도 오류가 계속 감소하고 오류가 전파되어 오류 수정이 표시됩니다. 그 자체만으로는 내결함성이 충분하지 않습니다
Mithrandir24601

glS는 그 질문에 대한 대답인지 판단해야합니다. 어쨌든 그것은 재미 있고 잘 쓰여졌습니다. 따라서 오류를 수정할 수 없으면 상태가 직교라고 가정합니다. (많은 시나리오에서 확실히 합리적입니다.) 또 다른 극단적 인 방법은 수정할 수없는 오류가 발생할 경우 논리적 오류가 50/50 일 가능성이있는 경우입니다.
M. Stern

@ M.Stern 감사합니다! 예, 상태가 직교이거나 하한을 취합니다. 하나의 하한을 다른 하한과 비교하는 것은 좋은 생각이 아니기 때문에 나는 그것들이 직교한다는 가정을 했어요. 이 끝에 추가하는 것이 유용하다고 생각되는 수정 사항이 있으면 해결하십시오! 흠 ... 나는 50/50의 논리적 인 실수가 같은 결과를 낳을 것이라고 생각한다. 결국 다른 선 인자들만있을 것이다.
Mithrandir24601

4

이미 좋은 수학 답변이 있으므로 이해하기 쉬운 답변을 제공하겠습니다.

QEC (Quantum Error Correction)는 복잡한 알고리즘의 그룹으로, 큐 비트에 대해 큐 비트간에 많은 작업 (게이트)이 필요합니다. QEC에서는 두 큐 비트를 세 번째 도우미 큐 비트 (ancilla)에 거의 연결하고 다른 두 비트가 특정 세 번째 큐 비트와 동일한 경우 정보를 전송합니다. 그런 다음 ancialla에서 해당 정보를 읽습니다. 그것이 동일하지 않다고 말하면, 당신은 그 정보에 따라 행동합니다 (수정 적용). 큐빗과 게이트가 완벽하지 않다면 어떻게 잘못 될 수 있습니까?

QEC는 큐 비트에 저장된 정보를 소멸시킬 수 있습니다. 이 게이트는 각각 완벽하게 실행되지 않으면 저장된 정보를 손상시킬 수 있습니다. 따라서 QEC를 실행하는 것만으로 평균 복구하는 것보다 많은 정보가 파괴되면 쓸모가 없습니다.

당신은 오류를 발견했다고 생각하지만, 그렇지 않았습니다. 비교 (게이트 실행) 또는 정보 판독 (ancilla)이 불완전한 경우 잘못된 정보를 얻을 수 있으므로 "잘못된 수정"(읽기 : 오류 발생)을 적용 할 수 있습니다. 또한 판독하기 전에 ancillas의 정보가 쇠퇴하거나 잡음에 의해 변경되면 잘못된 판독 값을 얻게됩니다.

모든 QEC의 목표는 분명히 수정하는 것보다 적은 오류를 발생시키는 것이므로 위에서 언급 한 효과를 최소화해야합니다. 모든 수학을 수행하면 선택한 정확한 QEC 알고리즘에 따라 큐 비트, 게이트 및 판독 값에 대해 매우 엄격한 요구 사항이 있습니다.


4

클래식 버전

000000111111
01010.
p

p>12

01010

양자 버전

XZ

|ψNN/2N/2N복제 데모|ψ


2

나에게는이 질문의 두 부분이 있습니다 (하나는 제목과 관련이 있고 하나는 질문 자체와 관련이 있습니다).

1) 오류 정정 코드는 어느 정도의 노이즈에 효과적입니까?
2) 게이트 내 결함의 양으로 내결함성 양자 계산을 구현할 수 있습니까?

차이를 강조하자 : 양자 오류 수정 코드는 전송의 손실을 수정하기 위해 다양한 시나리오에서 사용될 수있다. 여기에서 노이즈의 양은 주로 광섬유 길이에 달려 있으며 게이트의 불완전성에 의존하지 않습니다. 그러나 내결함성 양자 계산을 구현하려면 게이트가 주요 노이즈 소스입니다.

1)

1/2에프()=

물리 대 논리 오류율 플롯

1/2영형()영형(2)

2)

우리는 양자 컴퓨터로 임의로 긴 양자 계산을 수행하려고합니다. 그러나 양자 게이트는 완벽하지 않습니다. 게이트에서 발생하는 오류에 대처하기 위해 양자 오류 정정 코드를 사용합니다. 이것은 하나의 논리적 큐 비트가 많은 물리적 큐 비트로 인코딩됨을 의미합니다. 이 이중화는 논리적 큐 비트에 저장된 정보가 그대로 유지되도록 물리적 큐 비트의 특정 양의 오류를 정정 할 수 있습니다. 코드가 클수록 더 긴 계산이 여전히 정확 합니다. 그러나 코드가 클수록 더 많은 게이트가 필요하며 (예 : 더 많은 신드롬 측정)이 게이트에 노이즈가 발생합니다. 여기에는 약간의 상충 관계가 있으며 어떤 코드가 최적인지는 분명하지 않습니다.
각 게이트에 의해 발생 된 노이즈가 일부 임계 값 (내결함성 또는 정확도 임계 값)보다 낮 으면 임의로 긴 계산이 가능하도록 코드 크기를 늘릴 수 있습니다. 이 임계 값은 시작한 코드에 따라 다릅니다 (보통 자체적으로 반복적으로 연결됨). 이 값을 추정하는 몇 가지 방법이 있습니다. 그것은 종종 수치 시뮬레이션에 의해 수행됩니다 : 임의의 오류를 도입하고 계산이 여전히 작동하는지 확인하십시오. 이 방법은 일반적으로 너무 높은 임계 값을 제공합니다. 또한 문헌에는 Aliferis and Cross 등의 일부 분석 증거도 있습니다 .


두 번째 단락은 올바른 지점에 닿아 있지만 여전히 매우 질적입니다. 오류율이 증가하는 것보다 오류율을 줄이려면 오류 수정 프로토콜에 의해 도입 된 게이트가 필요하다고합니다. 그러나이 직관적 인 아이디어에서 임계 값에 대한 실제 정량적 추정으로 어떻게 이동합니까? 또한 이는 오류 수정 프로토콜이 이길 수없는 범용 하위 임계 값을 의미합니까?
glS

@glS 나는 "범용 하위 임계 값", 즉 내결함성 수정 프로토콜이 존재하지 않는 오류 값이 있다고 생각합니다. 그러나 값은 게이트 세트와 오류 모델에 따라 달라집니다. 사람들은 여기서 긍정적 인 결과에 더 관심이있는 경향이 있습니다 (좋은 결함 허용 프로토콜의 존재를 보여줍니다). 내결함성 체계를 개선하기 위해 "얼마나 많은 공간이 남아 있는지"확인하기 위해 상한값을 찾는 것이 흥미로울 수 있습니다. 남은 공간이 많지 않은 것 같습니다.
Jalex Stark

@glS 맞습니다. 실제 정량적 계산으로이 답을 개선 할 수 있습니다. 이러한 계산은 일반적으로 수치 적으로 수행된다고 생각합니까? 그러나 나는 이것에 대해서도 알고 싶습니다
M. Stern

@JalexStark 남은 공간이 충분하지 않다고 생각하는 이유는 무엇입니까? 예를 들어이 임계 값으로 표면 코드가 최적화되지 않은 것 같습니다. 격자에서 가장 가까운 이웃 상호 작용 만 사용하며 일반적으로 더 많은 것을 할 수 있습니다.
M. Stern

@ M.Stern 나는 이론에 근거한 증거가 없으며,이 분야의 전문가가 아닙니다. 방금 수행 한 작업량과 최대 임계 값의 크기에 따라 추측했습니다.
Jalex Stark

2

엑스나는나는나는나는와이나는나는나는나는나는나는나는나는, 나는엑스나는나는나는, 나는와이나는나는나는, 나는나는나는나는, 나는나는엑스나는나는, 나는나는와이나는나는, 나는나는나는나는, 나는나는나는엑스나는, 나는나는나는와이나는, 나는나는나는나는, 나는나는나는나는엑스, 나는나는나는나는와이, 나는나는나는나는, 나는나는나는나는나는 어디 엑스, 와이, 가능한 단일 큐 비트 오류 나는 (신분)은이 오류가없는 큐 비트 상황을 나타냅니다.

그러나 그 이유의 주요 부분은 간단한 오류 감지 회로를 사용할 수 없기 때문입니다. 모든 CNOT (또는 다른 모든 사소한 2 개 이상의 큐 비트 게이트)는 하나의 큐 비트에서 다른 큐 비트로 오류를 전달합니다. 단일 qubit 오류 수정 코드의 경우 더 복잡한 코드에는 여전히 좋지 않습니다. 그러므로 내결함성이있는 (유용한) 구현은 순진하게 생각하는 것보다 훨씬 더 많은 노력이 필요합니다.

오류 수정 단계 당 많은 게이트가 있으면 단계 당 매우 낮은 오류율 만 허용 할 수 있습니다. 여기서 또 다른 문제가 발생합니다. 일관된 오류가있을 수 있으므로 최악의 경우 오류가 발생할 수 있도록 준비해야합니다.ϵ 로 전파되지 않음 ϵ N 단일 큐 비트 게이트 이후 2ϵ. 이 값은 충분히 낮게 유지되어야합니다 (예를 들어 단일 큐 비트 오류 만).

일관된 오류의 예는 게이트의 구현입니다 즉, 단순히 주문하는 것이 아니라 그러나 +ϵ엑스 이 오류는 ϵ 그것이 확률 진폭에 해당하는 확률이기 때문에 ϵ 따라서 게이트 바로 뒤의 측정에서 오류로 작용 한 것으로 밝혀 질 확률 엑스. 후 이 게이트의 응용, 다시 첫 번째 순서로, 당신은 실제로 적용 +ϵ엑스 (G와 X가 출퇴근하는 경우에는 에 비례하는 별개의 용어 ϵ). 따라서 측정하면 오차 확률을2ϵ.

일관되지 않은 오류가 더 양성입니다. 그러나 하나의 값을 오류 임계 값으로 제공해야하는 경우, 단지 양성 오류 만 가정 할 수 없습니다!


답변 주셔서 감사하지만 여기에 몇 가지 요점에 대해 더 많은 답변을 제공 할 수 있다면 감사하겠습니다. 특히, 1) "검출 할 많은 오류"가 있기 때문에 오류 수정 코드에 많은 게이트가 필요하다는 말은 정확히 무엇을 의미합니까? 2) "직진적인 논리적 구성"이란 무엇입니까? 3) "일관성 오류"가 오류 전파 스케일링을 의미하는 이유2ϵ 대신에 ϵ?
glS

@glS 귀하의 모든 질문에 대한 답변을 크게 확대했습니다. 내가 그렇게 했습니까?
피라미드
당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.