Jeffreys가 이전에 유용한 이유는 무엇입니까?


답변:


30

젠의 답변을 완성하겠습니다. 나는 "무지 대표"라는 개념을 좋아하지 않습니다. 중요한 것은 이전의 Jeffreys가 아니라 Jeffreys의 후부 입니다. 이 후부는 데이터가 가져 오는 매개 변수에 대한 정보를 최대한 반영하는 것을 목표로합니다. 불변성 속성은 자연적으로 다음 두 가지 사항에 필요합니다. 예를 들어, 알 수없는 비율 매개 변수 및 승산 매개 변수 이항 모형을 고려하십시오 .ψ = θθψ=θ1θ

  1. 의 Jeffreys 후부 는 데이터가 가져온 에 대한 정보를 최대한 반영 합니다. 와 사이에는 일대일 대응이 있습니다. 그런 다음 의 Jeffreys 사후를 의 사후로 변환하면 (일반적인 변수 변경 수식을 통해) 에 대한 정보를 최대한 반영한 분포를 얻을 수 있습니다 . 따라서이 분포는 에 대한 Jeffreys 사후 여야합니다 . 이것은 불변 속성입니다.θ θ ψ θ ψ ψ ψθθθψθψψψ

  2. 통계 분석의 결론을 도출 할 때 중요한 점은 과학적 의사 소통 입니다. 의 Jeffreys 후부를 과학 동료 에게 제공한다고 상상해보십시오 . 그러나 그는 보다는 관심이있다 . 그러면 이는 불변 속성에 문제가되지 않습니다. 변수 변경 수식 만 적용하면됩니다.ψ θθψθ


아 이것은 조금 정리합니다. 그러나 승률 매개 변수의 사후가 비례 매개 변수의 사후와 같아야하는 직관적으로 좋은 이유가 있습니까? 그것은 다소 부자연 스럽습니다.
tskuzzy

동일하지 않습니다! 하나는 변수 변경 공식에 의해 다른 하나에 의해 유도됩니다. 두 매개 변수 사이에는 일대일 대응이 있습니다. 그런 다음이 매개 변수 중 하나의 후방 분포가 다른 것의 후방 분포를 유도해야합니다.
Stéphane Laurent

2
(+1) 스테판. 그가 "... 동일해야한다 ..."라고 말하면서 OP는 여전히 혼란스러워 보인다. 두 후자는 "동일"하지 않습니다. 예를 들어 Stéphane의 예에서 ; 기본값 (계산 된) 사전을 사용하여 이러한 종류의 일관성이 없으면 이전의 내용이 약간 견고합니다. P{1/3θ2/3X=x}=P{1/2ψ2X=x}
Zen

1
이 게시물에서 누락 된 것은 매개 변수에 대한 데이터에 많은 정보가있을 때 이전에 사용 된 특정 정보가 실제로 중요하지 않다는 것입니다. 예를 들어, 우리가 유니폼, 제프리 또는 할데 인을 사용하든 이항 비율은 후부가 매우 넓지 않으면 거의 차이가 없습니다. 이 경우 어쨌든 의미있는 결론을 도출 할 수 없기 때문에 이전의 "옳은"부분에 대한 약간의 학문적 주장이 있습니다. 정보가없는 이전의 실제 가치는 여러 차원에 있지만이 문제는 해결되지 않았습니다. Jeffreys prior는 여기서 나쁩니다.
확률 론적

3
이 이론은 불완전하며 매개 변수 순서, 콤팩트 영역 선택 및 가능성 함수에 따라 달라집니다. 예를 들어 가능성 원칙을 따르지 않습니다. 또한 비 독립 데이터에는 적용하기가 어렵습니다. 또한 Bernardo의 이론은 1 차원 매개 변수 문제에 대해서만 완벽합니다. 아마도 현재 사용 가능한 가장 좋은 방법 일 것입니다. 좋은 경쟁자는 Jaynes의 변형 그룹 접근 방식입니다.
probabilityislogic

41

귀하와 친구가 일반 모델을 사용하여 동일한 데이터 세트를 분석한다고 가정하십시오. 평균과 분산을 매개 변수로 사용하여 일반 모델의 일반적인 매개 변수화를 채택하지만 친구는 변동 계수와 정밀도를 매개 변수로 사용하여 정규 모델을 매개 변수화하는 것을 선호합니다 (완전히 "법적"임). 두 사람 모두 Jeffreys의 사전을 사용하는 경우 사후 분포는 친구의 사후 분포가 그의 매개 변수화에서 귀하의 매개 변수로 올바르게 변환됩니다. 이러한 의미에서 Jeffreys의 이전은 "불변"입니다.

(그런데, "불변"은 끔찍한 단어입니다. 우리가 정말로 의미하는 것은 텐서 미적분학 / 차동 기하학과 같은 의미에서 "공변량"이라는 것입니다. 물론이 용어는 이미 잘 확립 된 확률 적 의미를 가지고 있습니다. 사용할 수 없습니다.)

이 일관성 속성이 필요한 이유는 무엇입니까? 만약 Jeffreys의 이전 버전이 절대적인 의미로 매개 변수의 가치에 대해 무지를 표현할 가능성이 있다면 (실제로는 그렇지 않지만 다른 이유로 "불변성"과 관련이없는) 특정 매개 변수에 대해 무지하지 않기 때문입니다. 모델의 경우, 우리가 임의로 시작하기로 선택한 매개 변수에 관계없이 후자는 변환 후 "일치"해야합니다.

Jeffreys는 자신의 이전을 구성 할 때이 "불변성"속성을 정기적으로 위반했습니다.

논문 은이 주제와 관련 주제에 대한 흥미로운 토론을 가지고 있습니다.


1
+1 : 좋은 답변입니다. 그러나 왜 Jeffreys의 이전 매개 변수 값에 대한 무지를 대표하지 않습니까?
Neil G

4
심지어 배포판이 아니기 때문입니다. 분포가 무지를 반영한다고 주장하는 것은 역설적이다. 분포는 항상 정보를 반영합니다.
Stéphane Laurent

2
또 다른 참조 : projecteuclid.org/…
Stéphane Laurent

@ StéphaneLaurent : 하나는 있어야합니다 일부 도 총 무지의 상태에 대한 믿음을. 당신의 후부가 마이너스가 될지라도 당신의 데이터에 의해 유발되는 가능성은 무지 상태라고 가정한다는 믿음입니다. 신념을 결정할 때 반드시 지켜야 할 직관적 인 원칙은 레이블 변경 (재 파라미터 화 포함)에서 변하지 않아야한다는 것입니다. 확실하지는 않지만 원칙 (가능한 모든 해석-최대 엔트로피, 불변 재 파라미터 화 등)이 항상 신념을 결정한다고 생각합니다.
Neil G

그러므로 "분포가 무지를 반영한다"고 할 때, 분포가이 원칙에 부합한다는 것을 의미합니다.
Neil G

12

젠의 위대한 답변에 인용문을 추가하려면 Jaynes에 따르면, Jeffreys는 이전에 무관심의 원칙에서 비롯된 변환 그룹의 원칙의 예라고합니다.

원리의 본질은 단지 다음과 같습니다. (1) 우리는 확률 할당이 특정 상태 지식을 설명하는 수단임을 인식합니다. (2) 이용 가능한 증거 가 보다 더 많거나 적은 발의안 을 고려할 이유가 없다면 , 지식 상태가 그들에게 동등한 확률을 할당하는 것임을 설명 할 수있는 유일한 방법은 입니다. 레이블 의 단순한 상호 교환에 의해 지식 상태가 동일하지만 다른 확률을 할당하는 새로운 문제가 발생할 수 있다는 점에서 다른 절차는 일관성이 없습니다 .A 2 p 1 = p 2 ( 1 , 2 )A1A2p1=p2(1,2)

이제, 당신의 질문에 대답하기 위해 :“왜 변수의 변화에 ​​따라 이전의 변화를 원하지 않습니까?”

Jaynes에 따르면, 매개 변수화는 또 다른 종류의 임의의 레이블이며,“단순한 레이블 교환만으로도 우리의 지식 상태는 동일하지만 다른 확률을 부여하는 새로운 문제가 발생합니다. "


2
Jaynes는 다소 신비한 것 같습니다.
Stéphane Laurent

@ StéphaneLaurent : 어쩌면 내가 너무 쉽게 변환되었습니다! 그러나 나는 이것이 매우 설득력이 있음을 발견했다 . 미국 매사추세츠 케임브리지 : MIT Press, 1979, 15–118 쪽.
Neil G

2
Xian은 Jaynes를 찬양하는 메일을 받았습니다 : ceremade.dauphine.fr/~xian/critic.html 프랑스어를 읽지 않으면 안타깝습니다.이 메일은 무섭고 재미 있습니다. 작가는 베이지안 통계에 대해 너무 많이 생각함으로써 미쳐 버린 것 같습니다;)
Stéphane Laurent

1
@ StéphaneLaurent : 지금 읽어보세요. 이것은 "정확히 맞습니다."508 페이지의 "대부분의 실험의 비 반복성"à quoi bon ensuite "최적의 Fequentist 절차 찾기"ko 512 페이지의 Si la plupart des problèmes ne peuvent donc pas être traités par les 댓글 ""최고의 Bayésien ", 그레이트 베트 르 패러다임 쏟아지다 problème inférentiel, n'est-ce pas, peut-il se baser sur une réconciliation avec le fréquentisme (p. 517-518)? Pourquoi ne pas dire une fois 뿌르 퀴 퀴 투르 프로 페 테리 트 네 이스트 자 마이즈 프레 네즈
Neil G

1
또한 : "Le Principe du Maximum d' Entropie est lui absolument fondamental étant donné qu'il est nécessaire et suffisant pour régler ces cas d' école et que par parsquentquent il procure dans ces cas la la signification vesritable des probabilités a presitiable as a prioriit. qu'il permet en'e d' unifier Théorie de l' Information, Mécanique Statistique, Thermodynamique… "내 입장도 설명합니다. 그러나 필자는 작가와 달리 다른 사람들이 내가 자연스럽게 찾은 것을 받아들이도록 설득하는 데 시간을 투자하는 데 관심이 없다.
Neil G

4

pN(μ0,σ02)+(1p)N(μ1,σ12)
나는 Clara Grazian과 함께 썼다.)

-2

Jeffreys 이전에는 쓸모없습니다 . 이 때문입니다:

  1. 그것은 단지 배포 형태를 지정합니다. 매개 변수가 무엇인지 알려주지 않습니다.
  2. 당신은 완전히 무지하지 않습니다-당신이 알고있는 매개 변수에 대해 항상 뭔가가 있습니다 (예를 들어, 무한대가 될 수없는 경우가 종종 있습니다). 이전 분포를 정의하여 추론에 사용하십시오. 아무 것도 모른다고 말함으로써 자신에게 거짓말하지 마십시오.
  3. "변형 하에서의 불변"은 바람직한 특성이 아니다. 변화에 따라 가능성이 바뀝니다 (예 : Jacobian). 이 "새로운 문제"를 작성하지 않습니다 속도 제인스합니다. 왜 이전을 동일하게 취급해서는 안됩니까?

그냥 사용하지 마십시오.


1
뭐라고? 가능성은 밀도가 아니며 재
파라미터 화시
당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.