«bayesian» 태그된 질문

베이지안 추론은 모형 변수를 랜덤 변수로 처리하고 베이 즈 정리를 적용하여 관측 된 데이터 세트에 따라 모수 또는 가설에 대한 주관적 확률 진술을 추론하는 통계적 추론 방법입니다.

2
Jeffreys Priors와 분산 안정화 변환의 관계는 무엇입니까?
나는 Wikipedia에서 Jeffreys에 대해 읽었습니다 : Jeffreys Prior 는 각 예제 후에 분산 안정화 변환이 Jeffreys를 이전에 균일하게 만드는 방법을 설명합니다. 예를 들어, Bernoulli 사례의 경우 확률이 γ∈[0,1]γ∈[0,1]\gamma \in [0,1] 인 동전의 경우 Bernoulli 시험 모델은 매개 변수에 대한 Jeffreys 이전의 결과를 나타냅니다 .γγ\gamma p(γ)∝1γ(1−γ)−−−−−−−√p(γ)∝1γ(1−γ) p(\gamma) \propto \frac{1}{\sqrt{\gamma ( 1-\gamma)}} …

2
Jeffreys와 달리 이전 버전의 예는 변하지 않는 후부로 이어집니다.
2 주 전에 여기에했던 질문에 대한 "답변"을 다시 게시하고 있습니다. 왜 Jeffreys가 이전에 유용합니까? 그것은 실제로 질문이었습니다 (그리고 당시에 의견을 게시 할 권리도 없었습니다). 그래서 나는 이것을 할 수 있기를 바랍니다. 위의 링크에서 Jeffreys의 흥미로운 특징은 모델을 다시 매개 변수화 할 때 결과로 발생하는 후방 분포가 변형에 의해 부과 된 …

1
가능성 원칙에 대한 질문
나는 현재 가능성 원칙을 이해하려고 노력하고 있으며 솔직히 이해하지 못한다. 따라서 나는 기본적인 질문 일지라도 모든 질문을 목록으로 작성합니다. 이 원칙의 맥락에서 "모든 정보"문구는 정확히 무엇을 의미합니까? ( 샘플의 모든 정보에서와 같이 가능성 함수에 포함되어 있습니다.) 이 원리는 라는 매우 확실한 사실과 연결되어 있습니까? 원칙적으로 "우도"는 와 같은 것 입니까?p(x|y)∝p(y|x)p(x)p(x|y)∝p(y|x)p(x)p(x|y)\propto …

4
베이지안과 잦은 포인트 추정기는 어떤 조건에서 일치합니까?
사전 설정이 평평하면 ML (자주 주의자-최대 우도) 및 MAP (Bayesian-최대 사후 계산) 추정기가 일치합니다. 그러나 더 일반적으로, 나는 일부 손실 함수의 최적화 프로그램으로 도출 된 포인트 추정기에 대해 이야기하고 있습니다. 즉 x^(.)=argminE(L(X−x^(y))|y) (Bayesian) x^(.)=argminE(L(X−x^(y))|y) (Bayesian) \hat x(\,. ) = \text{argmin} \; \mathbb{E} \left( L(X-\hat x(y)) \; | \; y \right) …


2
자주주의와 이전
Robby McKilliam 은이 게시물 에 대한 코멘트에서 다음 과 같이 말합니다 . 잦은 주의자 관점에서 사전 지식을 모델에 통합 할 수없는 이유는 없다는 점을 지적해야합니다. 이런 점에서, 잦은 관점은 더 단순합니다. 모델과 데이터 만 있습니다. 사전 정보를 모델에서 분리 할 필요가 없습니다. 또한, 여기 , @jbowman는 베이 즈는이 이전 할 …

1
잠재 된 디리클레 할당을 사용하기위한 입력 매개 변수
주제 모델링 (Latent Dirichlet Allocation)을 사용할 때 주제 수는 사용자가 지정해야하는 입력 매개 변수입니다. Dirichlet 프로세스가 샘플링해야하는 후보 토픽 세트를 제공해야한다고 생각합니까? 이해가 정확합니까? 실제로 이런 종류의 후보 주제 세트를 설정하는 방법은 무엇입니까?

2
통계적인 조경
통계에 대한 다양한 접근 방식에 대한 간단한 설문 조사를 작성한 사람이 있습니까? 첫 번째 근사치에 당신은 빈번하고 베이지안 통계가 있습니다. 그러나 자세히 살펴보면 우도 주의자 및 경험적 베이 즈와 같은 다른 접근 방식도 있습니다. 그리고 베이지안 통계 내에서 주관적인 베이 즈 객관적인 베이와 같은 그룹 내에 세분화가 있습니다. 설문 조사 …

2
R의 비모수 적 베이지안 분석
RHDP (Hierarchical Dirichlet Process) (최근의 인기있는 비모수 적 베이지안 방법 중 하나) 를 사용하여 데이터를 클러스터링하는 방법에 대한 유용한 자습서를 찾고 있습니다. 가 DPpackage에 (IMHO, 가능한 모든 것들의 가장 포괄적 인) R비모수 베이지안 분석은. 그러나 R NewsHDP를 코딩하기에 충분히 또는 패키지 참조 매뉴얼에 제공된 예제를 이해할 수 없습니다 . 도움이나 …

12
통계 데이터 분석에 대한 최고의 책?
잠김 . 이 질문과 주제는 주제가 다르지만 역사적 의미가 있기 때문에이 질문과 답변은 잠겨 있습니다. 현재 새로운 답변이나 상호 작용을받지 않습니다. 나는이 책을 샀다 : 무엇이든 측정하는 방법 : 비즈니스에서 무형 자산의 가치 찾기 과 Head First Data Analysis : 큰 숫자, 통계 및 올바른 결정에 대한 학습자 안내서 다른 …

2
누군가 영어로 NUTS를 설명 할 수 있습니까?
알고리즘에 대한 나의 이해는 다음과 같습니다. NUTS (U-Turn Sampler)는 Hamiltonian Monte Carlo Method가 아닙니다. 이는 Markov Chain 방식이 아니므로이 알고리즘은 랜덤 워크 파트를 피하며, 이는 종종 비효율적이고 수렴이 느린 것으로 간주됩니다. NUTS는 무작위 보행을 수행하는 대신 길이 x의 점프를 수행합니다. 알고리즘이 계속 실행되면서 각 점프는 두 배가됩니다. 이것은 궤도가 시작점으로 …



4
베이지안 통계는 이전의 부재를 어떻게 처리합니까?
이 질문은 제가 최근에 이력서 에서 두 개, 경제 에서 다른 두 가지 상호 작용에서 영감을 얻었습니다 . 나는 대답이 게시 한 잘 알려진 "봉투 역설"(당신을 마음을하지로를 "정답"하지만 상황의 구조에 대해 특정 가정에서 흐르는 답변으로). 얼마 후 사용자가 비판적인 의견을 게시하고 그의 요점을 이해하려고 대화에 참여했습니다. 그가 베이지안 방법을 생각이 …

2
다루기 어려운 가능성을 가진 정말 간단한 모델의 예는 무엇입니까?
대략적인 베이지안 계산 은 기본적으로 확률 모델이 적합하지 않은 모델에 적합하도록하는 멋진 기법입니다 (예 : 모수를 수정하면 모델에서 샘플링 할 수 있지만 수치, 알고리즘 또는 분석적 으로 가능성을 계산할 수는 없음 ). 청중에 대략적인 베이지안 계산 (ABC)을 도입하면 정말 간단하지만 여전히 다소 흥미로운 몇 가지 예제 모델을 사용하는 것이 좋다 …

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.