두 개의 iid lognormal 랜덤 변수의 차이점


23

하자 및 2 iidrv의 수 곳 . 의 분포를 알고 싶습니다 .X 2 로그 ( X 1 ) , 로그 ( X 2 ) ~ N ( μ , σ ) X 1 - X 2X1X2log(X1),log(X2)N(μ,σ)X1X2

내가 할 수있는 최선의 방법은 테일러 시리즈를 모두 가져 와서 차이가 나머지 항 사이의 나머지 차이와 함께 두 정규 rv와 두 카이 제곱 rv의 차이의 합이라는 것을 얻는 것입니다. 2 iid log-normal rv의 차이 분포를 얻는 더 직접적인 방법이 있습니까?


관련 논문이 있습니다. 인터넷 검색으로 더 많은 논문을 찾을 수 있습니다! papers.ssrn.com/sol3/papers.cfm?abstract_id=2064829
kjetil b halvorsen

1
나는 그 논문을 한 눈에 보았는데 만족스러운 방식으로 내 질문에 대답하지 않는 것 같습니다. 그들은 상관 로그 정규 rv의 합 / 차에 대한 분포를 찾는 더 어려운 문제에 대한 수치 적 근사에 관심이있는 것으로 보입니다 . 독립 사건에 대한 더 간단한 대답이 있기를 바랐습니다.
frayedchef

2
독립적 인 경우에는 더 간단한 대답 일 수 있지만 간단한 것은 아닙니다! 로그 정규 케이스는 잘 알려진 하드 케이스입니다. 즉, 로그 정규 분포의 모멘트 생성 기능이 존재하지 않습니다. 즉, 0을 포함하는 열린 간격으로 수렴하지 않습니다. 따라서 쉬운 해결책을 찾지 못할 것입니다.
kjetil b halvorsen

알 겠어 ... 그래서 내가 위에서 설명한 접근법이 합리적 일까? (즉, , X 1 - X 2( Y 1 - Y 2 ) + ( Y 2 1 - Y 2 2 ) / 2 +Yi=log(Xi)우리는 고차 항에 대해 아는 것이 있습니까? X1X2(Y1Y2)+(Y12Y22)/2+...
frayedchef

1
어려움을 설명하기 --- 대수 정규 MGF 만 정의된다 , 우리가 필요 saddlepoint 방법으로 차분 분포를 근사 (K = cumulant GF). K ( S ) + K ( - S ) 및 .. 합이 하나 개의 점에 정의되어 있는지, 제로 그래서 나던 작업 합계에 보이거나 평균은 간단 할 것입니다!(,0]K(s)+K(s)
할보 르센 kjetil B

답변:


15

이것은 어려운 문제입니다. 나는 로그 정규 분포의 모멘트 생성 기능을 사용하는 것에 대해 먼저 생각했습니다. 내가 설명하는 것처럼 작동하지 않습니다. 그러나 먼저 몇 가지 표기법이 있습니다.

하자 표준 정규 밀도 될 Φ 대응하는 누적 분포 함수. 밀도 함수 f ( x ) = 1 인 대수 정규 분포 l n N ( 0 , 1 ) 만 분석합니다.ϕΦlnN(0,1) 및 누적 분포 함수 F(x)=Φ(lnx)XY가 위의 로그 정규 분포를 갖는 독립적 인 랜덤 변수 라고 가정합니다. 우리는평균이 0 인 대칭 분포인D=X-Y의 분포에 관심이있습니다. 하자M(t)=는EEtX될 순간 발생 기능X를. t에대해서만 정의됩니다

f(x)=12πxe12(lnx)2
F(x)=Φ(lnx)
XYD=XYM(t)=EetXX 그래서 개방 구간이 제로 함유 정의되지의 모멘트 생성 함수. D는 M D ( t ) = E E t ( X - Y ) = E E t X E E - t Y = M ( t ) M ( - t ) . 그래서이위한 모멘트 생성 함수 D는 단지 정의되는 t = 0t(,0]DMD(t)=Eet(XY)=EetXEetY=M(t)M(t)Dt=0별로 유용하지 않습니다.

Dt0

P(Dt)=P(XYt)=0P(Xyt|Y=y)f(y)dy=0P(Xt+y)f(y)dy=0F(t+y)f(y)dy
t<0P(Dt)=1P(D|t|)).

This expression can be used for numerical integration or as a basis for simulation. First a test:

 integrate(function(y) plnorm(y)*dlnorm(y), lower=0,  upper=+Inf)
  0.5 with absolute error < 2.3e-06

which is clearly correct. Let us wrap this up inside a function:

pDIFF  <-  function(t) {
    d  <-  t
    for (tt in seq(along=t)) {
        if (t[tt] >= 0.0) d[tt] <- integrate(function(y) plnorm(y+t[tt])*dlnorm(y),
                                         lower=0.0,  upper=+Inf)$value else
                          d[tt] <- 1-integrate(function(y) plnorm(y+abs(t[tt]))*dlnorm(y),
                                         lower=0.0, upper=+Inf)$value
    }
    return(d)
}

> plot(pDIFF,  from=-5,  to=5)

which gives:

cumulative distribution function found by numerical integration

Then we can find the density function by differentiating under the integral sign, obtaining

dDIFF  <-  function(t) {
       d  <- t; t<- abs(t)
       for (tt in seq(along=t)) {
           d[tt]  <-  integrate(function(y) dlnorm(y+t[tt])*dlnorm(y),
                                lower=0.0,  upper=+Inf)$value
       }
       return(d)
}

which we can test:

> integrate(dDIFF,  lower=-Inf,  upper=+Inf)
0.9999999 with absolute error < 1.3e-05

And plotting the density we get:

plot(dDIFF,  from=-5,  to=5)

density function found by numerical integration

I did also try to get some analytic approximation, but so far didn't succeed, it is not an easy problem. But numerical integration as above, programmed in R is very fast on modern hardware, so is a good alternative which probably should be used much more.


1

This does not strictly answer your question, but wouldn't it be easier to look at the ratio of the X and Y? You then simply arrive at

Pr(XYt)=Pr(log(XY)log(t))=Pr(log(X)log(Y)log(t))N(0,2σ2)

Depending on your application, this may serve your needs.


3
But aren't we looking at X-Y instead of log(X) - log(Y) ?
Sextus Empiricus

물론입니다. 이것은 누군가가 두 개의 로그 정규 변수가 반드시 차이가 없어도 서로 어떻게 다른지 아는 데 관심이있는 경우에 대비합니다. 그래서 나는 그것이 질문에 대한 답이 아니라고 말합니다.
Vincent Traag
당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.