«prior» 태그된 질문

베이지안 통계에서 사전 분포는 확률 분포의 형태로 표본을보기 전에 이용 가능한 정보 또는 지식 (주관적)을 공식화한다. 매개 변수에 대해 거의 알려지지 않은 경우 큰 확산을 갖는 분포가 사용되는 반면, 더 좁은 사전 분포는 더 큰 정보를 나타냅니다.

2
Laplace가 왜 스파 스 솔루션을 생성합니까?
나는 정규화에 관한 문헌을 살펴 보았고 L2 규제를 가우시안과 연결하고 L1을 0으로 중심으로 한 L1을 연결하는 단락을 종종 볼 수 있습니다. 나는 이러한 이전의 모습을 알고 있지만 선형 모델의 가중치와 같이 어떻게 해석되는지 이해하지 못합니다. L1에서, 내가 올바르게 이해한다면, 우리는 희소 한 솔루션, 즉 일부 가중치가 정확히 0으로 푸시 될 …


6
후부는 이전과 가능성과 매우 다릅니다
이전과 가능성이 서로 매우 다른 경우, 때때로 후부가 그들과 유사하지 않은 상황이 발생합니다. 정규 분포를 사용하는이 그림을 참조하십시오. 이것은 수학적으로 정확하지만 내 직감과 일치하지 않는 것 같습니다. 데이터가 내 견실 한 신념이나 데이터와 일치하지 않으면 범위가 잘 맞지 않을 것으로 예상되며 평소보다 뒤 떨어질 것으로 기대합니다 이전과 가능성에 대한 전체 …

4
척도 모수에 대한 유익한 사전 분포
스케일이 무엇인지에 대한 대략적인 아이디어가있을 때 스케일 모수 (정규 분포, t 분포 등)에 대한 사전 분포로 로그 정규 분포를 사용하고 있지만 알지 못한다는 측면에서 잘못하고 싶습니다. 그것에 대해 많이. 나는 그 사용이 나에게 직관적으로 의미가 있기 때문에 그것을 사용하지만 다른 사람들이 그것을 사용하는 것을 보지 못했습니다. 이것에 숨겨진 위험이 있습니까?

2
LDA 하이퍼 파라미터에 대한 자연 해석
누군가 LDA 하이퍼 파라미터에 대한 자연 해석이 무엇인지 설명 할 수 있습니까? ALPHA그리고 BETA(문서 당) 주제 및 (주제 당) 단어 분포에 대한 디리클레 분포의 매개 변수입니다. 그러나 누군가이 하이퍼 매개 변수의 값을 더 작게 선택하는 것이 무엇을 의미하는지 설명 할 수 있습니까? 그것은 문서의 주제 희소성 및 주제의 상호 배타성에 …

2
분산 이전 의 왜 약한 것으로 간주됩니까?
배경 분산에서 가장 일반적으로 사용되는 약점 중 하나는 매개 변수가 역 감마입니다 (Gelman 2006) .α = 0.001 , β= 0.001α=0.001,β=0.001\alpha =0.001, \beta=0.001 그러나이 분포의 90 % CI는 약 입니다.[ 3 × 1019, ∞ ][삼×1019,∞][3\times10^{19},\infty] library(pscl) sapply(c(0.05, 0.95), function(x) qigamma(x, 0.001, 0.001)) [1] 3.362941e+19 Inf 이로부터 는 분산이 매우 높을 확률이 …



4
일반적으로 정보가 없거나 주관적인 사전을 사용할 때 베이지안 체계가 어떻게 해석에 더 좋습니까?
베이지안 프레임 워크는 해석에서 (자주주의에 비해) 큰 장점을 가지고 있다고 종종 주장되는데, 이는 데이터에서 주어진 매개 변수의 확률 을 대신 대신 계산하기 때문 입니다. 빈번한 틀. 여태까지는 그런대로 잘됐다.p ( x | θ )p ( θ | x )p(θ|x)p(\theta|x)p ( x | θ )p(x|θ)p(x|\theta) 그러나 전체 방정식은 다음을 기반으로합니다. p …

1
동시 L1 및 L2 정규화 (일명 탄력적 그물)를 사용한 선형 회귀 분석의 베이지안 해석이 있습니까?
페널티 를 갖는 선형 회귀 는 계수에 앞서 가우시안이 주어진 MAP 추정치를 찾는 것과 동일 하다는 것이 잘 알려져 있습니다. 마찬가지로, 사용 L 1 패널티 것은 종래와 같은 라플라스 분포를 사용하는 것과 동일하다.l2l2l^2l1l1l^1 및 l 2 정규화 의 일부 가중치 조합을 사용하는 것은 드문 일이 아닙니다 . 이것이 계수에 대한 …

2
Jeffreys Priors와 분산 안정화 변환의 관계는 무엇입니까?
나는 Wikipedia에서 Jeffreys에 대해 읽었습니다 : Jeffreys Prior 는 각 예제 후에 분산 안정화 변환이 Jeffreys를 이전에 균일하게 만드는 방법을 설명합니다. 예를 들어, Bernoulli 사례의 경우 확률이 γ∈[0,1]γ∈[0,1]\gamma \in [0,1] 인 동전의 경우 Bernoulli 시험 모델은 매개 변수에 대한 Jeffreys 이전의 결과를 나타냅니다 .γγ\gamma p(γ)∝1γ(1−γ)−−−−−−−√p(γ)∝1γ(1−γ) p(\gamma) \propto \frac{1}{\sqrt{\gamma ( 1-\gamma)}} …


2
자주주의와 이전
Robby McKilliam 은이 게시물 에 대한 코멘트에서 다음 과 같이 말합니다 . 잦은 주의자 관점에서 사전 지식을 모델에 통합 할 수없는 이유는 없다는 점을 지적해야합니다. 이런 점에서, 잦은 관점은 더 단순합니다. 모델과 데이터 만 있습니다. 사전 정보를 모델에서 분리 할 필요가 없습니다. 또한, 여기 , @jbowman는 베이 즈는이 이전 할 …


4
베이지안 통계는 이전의 부재를 어떻게 처리합니까?
이 질문은 제가 최근에 이력서 에서 두 개, 경제 에서 다른 두 가지 상호 작용에서 영감을 얻었습니다 . 나는 대답이 게시 한 잘 알려진 "봉투 역설"(당신을 마음을하지로를 "정답"하지만 상황의 구조에 대해 특정 가정에서 흐르는 답변으로). 얼마 후 사용자가 비판적인 의견을 게시하고 그의 요점을 이해하려고 대화에 참여했습니다. 그가 베이지안 방법을 생각이 …

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.