우도 함수는 모형 매개 변수 θ 의 함수로서 이벤트 E (데이터 세트 x ) 의 확률로 정의 됩니다.Exθ
L(θ;x)∝P(Event E;θ)=P(observing x;θ).
따라서 관측치의 독립성에 대한 가정은 없습니다. 고전적인 접근법에서는 매개 변수가 임의의 변수가 아니기 때문에 매개 변수의 독립성 에 대한 정의 가 없습니다. 일부 관련 개념은 식별 가능성 , 모수 직교성 및 최대 가능성 추정기 (임의 변수)의 독립성 일 수 있습니다 .
몇 가지 예
(1). 개별 사례 . 와 (독립) 이산 관찰 시료 인 P ( 관찰 엑스 J ; θ ) > 0 , 다음,x =( x1, . . . , x엔)P ( x 관찰) 제이;θ ) > 0
L (θ;x)∝ ∏j = 1엔P ( x 관찰) 제이; θ ) .
특히, 알고 있으면 N을 알 수 있습니다.엑스제이∼ 이항 ( N, θ )엔
L (θ;x)∝ ∏j = 1엔θ엑스제이( 1 − θ )엔− x제이.
(2). 연속 근사 . 하자 연속적인 임의의 변수의 샘플 수 X 분포, F 및 밀도 F 측정 오차와, ε 이이고,는 세트의 관찰 ( X J - ε , X j + ϵ ) . 그때x =( x1, . . . , x엔)엑스에프에프ϵ( x제이− ϵ , x제이+ ϵ )
L (θ;x)∝ ∏j = 1엔P [관찰 ( x제이− ϵ , x제이+ϵ);θ]=∏j=1n[F(xj+ϵ;θ)−F(xj−ϵ;θ)]
When ϵ is small, this can be approximated (using the Mean Value Theorem) by
L(θ;x)∝∏j=1nf(xj;θ)
For an example with the normal case, take a look at this.
(3). Dependent and Markov model. Suppose that x=(x1,...,xn) is a set of observations possibly dependent and let f be the joint density of x, then
L(θ;x)∝f(x;θ).
If additionally the Markov property is satisfied, then
L(θ;x)∝f(x;θ)=f(x1;θ)∏j=1n−1f(xj+1|xj;θ).
Take also a look at this.