«bayesian» 태그된 질문

베이지안 추론은 모형 변수를 랜덤 변수로 처리하고 베이 즈 정리를 적용하여 관측 된 데이터 세트에 따라 모수 또는 가설에 대한 주관적 확률 진술을 추론하는 통계적 추론 방법입니다.

3
경험적 우도의 예시적인 적용은 무엇입니까?
나는 Owen의 경험적 가능성에 대해 들었지만, 최근까지는 관심있는 논문에서 그것을 발견 할 때까지주의를 기울이지 않았습니다 ( Mengersen et al. 2012 ). 그것을 이해하려는 노력에서 관찰 된 데이터의 가능성이 여기서 이고 입니다.L=∏ipi=∏iP(Xi=x)=∏iP(Xi≤x)−P(Xi<x)엘=∏나는피나는=∏나는피(엑스나는=엑스)=∏나는피(엑스나는≤엑스)−피(엑스나는<엑스)L = \prod_i p_i = \prod_i P(X_i=x) = \prod_i P(X_i \le x) - P(X_i \lt x)∑ipi=1∑나는피나는=1\sum_i p_i = 1pi>0피나는>0p_i > …

1
lmer 모델의 효과 반복 계산
방금 혼합 효과 모델링을 통해 측정의 반복성 (일명 신뢰성, 일명 클래스 내 상관 관계)을 계산하는 방법을 설명하는 이 문서를 보았습니다. R 코드는 다음과 같습니다. #fit the model fit = lmer(dv~(1|unit),data=my_data) #obtain the variance estimates vc = VarCorr(fit) residual_var = attr(vc,'sc')^2 intercept_var = attr(vc$id,'stddev')[1]^2 #compute the unadjusted repeatability R = intercept_var/(intercept_var+residual_var) …
28 mixed-model  reliability  intraclass-correlation  repeatability  spss  factor-analysis  survey  modeling  cross-validation  error  curve-fitting  mediation  correlation  clustering  sampling  machine-learning  probability  classification  metric  r  project-management  optimization  svm  python  dataset  quality-control  checking  clustering  distributions  anova  factor-analysis  exponential  poisson-distribution  generalized-linear-model  deviance  machine-learning  k-nearest-neighbour  r  hypothesis-testing  t-test  r  variance  levenes-test  bayesian  software  bayesian-network  regression  repeated-measures  least-squares  change-scores  variance  chi-squared  variance  nonlinear-regression  regression-coefficients  multiple-comparisons  p-value  r  statistical-significance  excel  sampling  sample  r  distributions  interpretation  goodness-of-fit  normality-assumption  probability  self-study  distributions  references  theory  time-series  clustering  econometrics  binomial  hypothesis-testing  variance  t-test  paired-comparisons  statistical-significance  ab-test  r  references  hypothesis-testing  t-test  normality-assumption  wilcoxon-mann-whitney  central-limit-theorem  t-test  data-visualization  interactive-visualization  goodness-of-fit 



3
Jeffreys 이전의 정보가 왜 정보가없는 것으로 간주됩니까?
에서 Jeffreys를 고려하십시오. 여기서 는 Fisher 정보입니다.p(θ)∝|i(θ)|−−−−√p(θ)∝|i(θ)|p(\theta) \propto \sqrt{|i(\theta)|}iii 나는이 사전이 정보가없는 이전으로 언급되는 것을 계속 보았지만 왜 그것이 정보가 아닌지에 대한 논쟁을 보지 못했습니다. 결국, 그것은 일정한 사전이 아니므로 다른 주장이 있어야합니다. 나는 그것이 reparametrization에 의존하지 않는다는 것을 이해합니다. Fisher 정보의 결정 요인이 매개 변수화에 의존하지 않습니까? Fisher 정보는 …
27 bayesian  prior 


2
올가미 패널티가 이전의 이중 지수 (Laplace)에 해당하는 이유는 무엇입니까?
회귀 모수 벡터 대한 올가미 추정치 B비B가 각 B i에 대한 이전 분포 가 이중 지수 분포 (라플라스 분포라고도 함) 인 의 사후 모드와 같다는 많은 참고 문헌을 읽었습니다 .B비BBi비나는B_i 나는 이것을 증명하려고 노력했다. 누군가가 세부 사항을 살릴 수 있습니까?

3
다른 분석보다 먼저 수행 된 권한 분석에 대한 베이지안의 근거는 무엇입니까?
배경과 경험적 예 두 가지 연구가 있습니다. 실험 (연구 1)을 실행 한 다음 실험 (연구 2)을 수행했습니다. 연구 1에서 두 변수 사이의 상호 작용을 발견했습니다. 연구 2에서,이 상호 작용은 같은 방향이지만 유의하지는 않았습니다. 연구 1의 모델에 대한 요약은 다음과 같습니다. Coefficients: Estimate Std. Error t value Pr(>|t|) (Intercept) 5.75882 0.26368 …
26 bayesian 

2
Dirichlet 분포의 알파는 정확히 무엇입니까?
저는 베이지안 통계를 처음 접했 을 때 알고리즘의 백엔드에서 Dirichlet 프로세스를 사용 하는 수정 된 상관 측정 SparCC 를 발견했습니다. 실제로 무슨 일이 일어나고 있는지 이해하기 위해 단계별로 알고리즘을 시도했지만 alphaDirichlet 분포에서 벡터 매개 변수가 무엇을하는지 그리고 벡터 매개 변수가 어떻게 정규화되는지 확실 하지 않습니다 alpha. 구현은 https://docs.scipy.org/doc/numpy/reference/generated/numpy.random.dirichlet.html 을 Python사용하고 …

1
변형 베이와 EM의 관계
Variational Bayes 방법이 EM 알고리즘의 일반화라는 것을 읽었습니다. 실제로 알고리즘의 반복 부분은 매우 유사합니다. EM 알고리즘이 Variational Bayes의 특수 버전인지 테스트하기 위해 다음을 시도했습니다. 는 데이터이고 X 는 잠재 변수의 모음이며 Θ 는 매개 변수입니다. 변분 베이 즈에서 우리는 근사 할 수 있도록이되도록 P ( X , Θ | Y …

5
가능성에 대한 위키 백과 입장은 모호해 보인다
"조건부 확률"과 "가능성"에 관한 간단한 질문이 있습니다. (나는 이미이 질문을 조사했다 여기 지만 아무 소용에.) Wikipedia 페이지에서 시작합니다 . 그들은 이렇게 말합니다. 가능성 파라미터 값들의 세트는 , 소정의 결과 이며, 이러한 파라미터 값 주어진 이러한 관찰 결과의 확률 같다θθ\thetaxxx L(θ∣x)=P(x∣θ)L(θ∣x)=P(x∣θ)\mathcal{L}(\theta \mid x) = P(x \mid \theta) 큰! 따라서 영어, I …

3
베이지안 이전의 표본이 큰 표본 크기와 관련이 없습니까?
베이지안 추론을 수행 할 때, 우리는 매개 변수에 대한 사전과 결합하여 우도 함수를 최대화함으로써 작동합니다. 로그 우도가 더 편리하기 때문에 MCMC를 사용하거나 사후 분포를 생성하는 (또는 각 매개 변수의 사전 및 각 데이터 포인트의 우도에 대한 pdf 사용 ) ∑ln(prior)+∑ln(likelihood)∑ln⁡(prior)+∑ln⁡(likelihood)\sum \ln (\text{prior}) + \sum \ln (\text{likelihood}) 을 효과적으로 최대화 합니다. …
26 bayesian  prior 

7
다른 출처의 확률 / 정보 결합
내가 세 개의 독립적 인 출처를 가지고 있고 각각이 내일 날씨를 예측한다고 가정 해 봅시다. 첫 번째 것은 내일 비가 올 확률이 0이고 두 번째는 확률이 1이라고 말하고 마지막은 확률이 50 %라고 말합니다. 그 정보가 주어진 총 확률을 알고 싶습니다. 독립적 인 사건에 대해 곱셈 정리를 적용하면 0이 나오지만 올바르지 …

1
가우스 모형에서 최소 제곱과 MLE의 동등성
저는 머신 러닝을 처음 사용하며 스스로 배우려고합니다. 최근에 저는 강의 노트를 읽고 기본적인 질문을했습니다. 슬라이드 13은 "최소 제곱 추정값은 가우스 모형의 최대 우도 추정값과 동일합니다"라고 말합니다. 단순한 것 같지만 이것을 볼 수 없습니다. 누군가 여기서 무슨 일이 일어나고 있는지 설명해 주시겠습니까? 나는 수학을보고 싶다. 나중에 Ridge와 Lasso 회귀에 대한 확률 …

2
베이지안 방법이 과적 합하지 않는 것이 사실입니까?
베이지안 방법이 과적 합하지 않는 것이 사실입니까? (이 주장을하는 논문과 튜토리얼을 보았습니다) 예를 들어, 가우시안 프로세스를 MNIST (손으로 쓴 숫자 분류)에 적용하지만 단일 샘플 만 표시하는 경우 해당 단일 샘플과 다른 입력에 대해 이전 분포로 되돌 리지만 차이는 크지 않습니까?

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.