공분산 vs 자기 상관


13

이 개념들 사이에 직접적인 관계가 있는지 알아 내려고 노력 중입니다. 엄밀히 말하면, 그것들은 일반적으로 다른 개념으로 보입니다. 그러나 그것에 대해 더 많이 생각할수록 그것들이 매우 유사하다고 생각합니다.

를 WSS 랜덤 벡터라고 하자 . 공분산 는 로 여기서 는 벡터의 Hermitian)를 나타냅니다.엑스,와이엑스와이

엑스와이=이자형[(엑스μ엑스)(와이μ와이)H]
H

를 WSS 랜덤 벡터라고 하자 . 자기 상관 함수 는아르 자형엑스엑스

아르 자형(τ)=이자형[(()μ)((+τ)μ)H]

편집 참고 신호 처리에 적용되는이 정의에 대한 수정 사항이 있습니다. 아래의 Matt 's Answer를 참조하십시오.

공분산은 시간 개념을 포함하지 않으며, 랜덤 벡터의 각 요소가 임의의 랜덤 생성기의 다른 실현이라고 가정합니다. 자기 상관은 랜덤 벡터가 초기 랜덤 생성기의 시간 진화라고 가정합니다. 그러나 결국, 그들은 둘 다 동일한 수학적 실체, 일련의 숫자입니다. 당신이 할 경우 , 다음이 나타납니다 뭔가 내가 놓친 것을 더 미묘한인가?엑스=와이=

엑스와이=아르 자형


자기 상관의 정의 잘못 매트에 의해 지적 밖으로 같은 질문에 명시되어아르 자형(τ)
ijuneja

답변:


12

자기 상관의 정의에 따르면, 자기 상관은 단순히 두 개의 임의 변수 Z ( n + τ ) 의 공분산입니다 . 이 기능을 자기 공분산 이라고도 합니다.Z(n)Z(+τ)

또한 신호 처리에서 자기 상관은 일반적으로 다음과 같이 정의됩니다.

아르 자형엑스엑스(1,2)=이자형{엑스(1)엑스(2)}

즉, 평균을 빼지 않고. 자기 공분산은

엑스엑스(1,2)=이자형{[엑스(1)μ엑스(1)][엑스(2)μ엑스(2)]}

이 두 기능은

엑스엑스(1,2)=아르 자형엑스엑스(1,2)μ엑스(1)μ엑스(2)

를 변수로 보면 , 자기 상관은 "시간 간격"의 함수가되어 데이터 세트에 대한 매우 흥미로운 정보를 얻을 수 있습니다. 자기 상관, 이산 푸리에 변환 및 비너-킨친 정리의 관계를 살펴보십시오. τ
PhilMacKay

@ PhilMacKay : 물론이지만 WSS 프로세스에서만 작동합니다. 프로세스가 반드시 고정적이지 않은 일반적인 경우에 대한 정의를 제공했습니다.
Matt L.

그렇습니다. 비 정적 프로세스는 데이터 분석을 위해 성가 시게 될 수 있습니다. 이것이 제가 사랑하는 통계 도구를 사용하기 전에 항상 데이터의 추세를 바꾸려고하는 이유입니다! 항상 가능하지는 않지만 ...
PhilMacKay

0

Autocorrelation 정의에 숫자 Z ( n )Z ( n + τ ) 의 두 시퀀스에서 오프셋을 지정 하는 추가 용어 어떻게 포함되는지 확인하십시오 . 실제로, 표기법은 R Z Z ( τ )τ R +에 대해 정의 된 연속 함수 이고 C X Y 는 스칼라 임을 제안합니다 .τ()(+τ)아르 자형(τ)τ아르 자형+엑스와이

앞에서 언급했듯이 이면 R Z Z ( τ ) 의 특수한 경우 인 τ = 0을 의미합니다 .엑스=와이=τ=0아르 자형(τ)

내 개인적인 경험 (천체 물리학, 다양한 센서 처리)에서 공분산은 두 데이터 세트의 유사성을 확인하는 계수로 사용되었으며, 자기 상관은 상관 거리, 즉 데이터가 다른 데이터가되기 위해 얼마나 빨리 진화 하는가를 특성화하는 데 사용되었습니다. 전적으로.

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.