«likelihood» 태그된 질문

임의의 변수가 주어짐 X매개 변수화 된 분포 에서 발생하는 가능성은 의 함수로 관측 된 데이터의 확률로 정의됩니다F(X;θ)θ:L(θ)=P(θ;X=x)

2
표준 오차 추정에 사용되는 프로파일 가능성의 헤센
이 질문은 이것에 의해 동기가 부여 됩니다 . 나는 두 가지 출처를 찾았으며 이것이 내가 찾은 것입니다. A. van der Vaart, 증상 통계 : 프로파일 가능성을 명시 적으로 계산하는 것은 거의 불가능하지만 수치 평가는 종종 가능합니다. 그러면 프로파일 우도는 우도 함수의 차원을 감소시키는 역할을 할 수있다. 프로파일 우도 함수는 종종 …

3
베이지안 분석의 가능성과 조건부 분포
우리는 베이 즈 정리를 다음과 같이 쓸 수 있습니다. p(θ|x)=f(X|θ)p(θ)∫θf(X|θ)p(θ)dθp(θ|x)=f(X|θ)p(θ)∫θf(X|θ)p(θ)dθp(\theta|x) = \frac{f(X|\theta)p(\theta)}{\int_{\theta} f(X|\theta)p(\theta)d\theta} 여기서 는 사후, 는 조건부 분포, 는 이전입니다.p(θ|x)p(θ|x)p(\theta|x)f(X|θ)f(X|θ)f(X|\theta)p(θ)p(θ)p(\theta) 또는 p(θ|x)=L(θ|x)p(θ)∫θL(θ|x)p(θ)dθp(θ|x)=L(θ|x)p(θ)∫θL(θ|x)p(θ)dθp(\theta|x) = \frac{L(\theta|x)p(\theta)}{\int_{\theta} L(\theta|x)p(\theta)d\theta} 여기서 는 사후, 는 우도 함수이고 는 이전 함수 입니다.p(θ|x)p(θ|x)p(\theta|x)L(θ|x)L(θ|x)L(\theta|x)p(θ)p(θ)p(\theta) 내 질문은 조건부 분포가 아닌 우도 함수를 사용하여 베이지안 분석을 수행하는 이유는 무엇입니까? 가능성과 …

2
로지스틱 회귀 및 가능성 이해
로지스틱 회귀의 모수 추정 / 훈련은 실제로 어떻게 작동합니까? 지금까지 가지고있는 것을 넣어 보도록하겠습니다. x의 값에 따른 확률의 형태로 로지스틱 함수의 출력은 y입니다. P(y=1|x)=11+e−ωTx≡σ(ωTx)P(y=1|x)=11+e−ωTx≡σ(ωTx)P(y=1|x)={1\over1+e^{-\omega^Tx}}\equiv\sigma(\omega^Tx) P(y=0|x)=1−P(y=1|x)=1−11+e−ωTxP(y=0|x)=1−P(y=1|x)=1−11+e−ωTxP(y=0|x)=1-P(y=1|x)=1-{1\over1+e^{-\omega^Tx}} 한 차원에서 소위 홀수는 다음과 같이 정의됩니다. p(y=1|x)1−p(y=1|x)=p(y=1|x)p(y=0|x)=eω0+ω1xp(y=1|x)1−p(y=1|x)=p(y=1|x)p(y=0|x)=eω0+ω1x{{p(y=1|x)}\over{1-p(y=1|x)}}={{p(y=1|x)}\over{p(y=0|x)}}=e^{\omega_0+\omega_1x} 이제 log선형 형태로 W_0 및 W_1을 얻는 함수를 추가합니다 . Logit(y)=log(p(y=1|x)1−p(y=1|x))=ω0+ω1xLogit(y)=log(p(y=1|x)1−p(y=1|x))=ω0+ω1xLogit(y)=log({{p(y=1|x)}\over{1-p(y=1|x)}})=\omega_0+\omega_1x 이제 문제 부분 으로 우도 사용 …

5
매우 많은 수의 데이터 포인트에서 값을 대치하는 방법은 무엇입니까?
데이터 세트가 매우 커서 약 5 %의 임의 값이 없습니다. 이 변수들은 서로 상관되어 있습니다. 다음 예제 R 데이터 세트는 더미 상관 데이터가있는 장난감 예제 일뿐입니다. set.seed(123) # matrix of X variable xmat <- matrix(sample(-1:1, 2000000, replace = TRUE), ncol = 10000) colnames(xmat) <- paste ("M", 1:10000, sep ="") rownames(xmat) …
12 r  random-forest  missing-data  data-imputation  multiple-imputation  large-data  definition  moving-window  self-study  categorical-data  econometrics  standard-error  regression-coefficients  normal-distribution  pdf  lognormal  regression  python  scikit-learn  interpolation  r  self-study  poisson-distribution  chi-squared  matlab  matrix  r  modeling  multinomial  mlogit  choice  monte-carlo  indicator-function  r  aic  garch  likelihood  r  regression  repeated-measures  simulation  multilevel-analysis  chi-squared  expected-value  multinomial  yates-correction  classification  regression  self-study  repeated-measures  references  residuals  confidence-interval  bootstrap  normality-assumption  resampling  entropy  cauchy  clustering  k-means  r  clustering  categorical-data  continuous-data  r  hypothesis-testing  nonparametric  probability  bayesian  pdf  distributions  exponential  repeated-measures  random-effects-model  non-independent  regression  error  regression-to-the-mean  correlation  group-differences  post-hoc  neural-networks  r  time-series  t-test  p-value  normalization  probability  moments  mgf  time-series  model  seasonality  r  anova  generalized-linear-model  proportion  percentage  nonparametric  ranks  weighted-regression  variogram  classification  neural-networks  fuzzy  variance  dimensionality-reduction  confidence-interval  proportion  z-test  r  self-study  pdf 

6
를 최대화하는 포인트 추정치를 사용한다면 , 철학에 대해 어떻게 말합니까? (자주 주의자 또는 베이지안 또는 다른 것?)
누군가가 말했다면 "이 방법은 MLE를 사용 하여 을 최대화하는 매개 변수에 대한 점 추정치를 사용 하므로 빈번하고 더 이상 베이지안이 아닙니다."P ( x | θ )P(x|θ)\mathrm{P}(x|\theta) 동의하겠습니까? 배경에 대한 업데이트 : 최근에 빈번하다고 주장하는 논문을 읽었습니다. 나는 그들의 주장에 동의하지 않는다. 기껏해야 그것이 모호하다고 느낀다. 이 논문은 MLE (또는 그 …

3
칼만 필터의 가능성이 더 부드러운 결과 대신 필터 결과를 사용하여 계산되는 이유는 무엇입니까?
나는 칼만 필터를 매우 표준적인 방법으로 사용하고 있습니다. 시스템은 상태 방정식 및 관측 방정식 됩니다.xt+1=Fxt+vt+1xt+1=Fxt+vt+1x_{t+1}=Fx_{t}+v_{t+1}yt=Hxt+Azt+wtyt=Hxt+Azt+wty_{t}=Hx_{t}+Az_{t}+w_{t} 교과서는 Kalman 필터를 적용하고 "일단 예측" (또는 "필터링 된 추정치")을 얻은 후에이를 사용하여 우도 함수를 계산해야한다고 가르칩니다 .x^t|t−1x^t|t−1\hat{x}_{t|t-1} fyt|It−1,zt(yt|It−1,zt)=det[2π(HPt|t−1H′+R)]−12exp{−12(yt−Hx^t|t−1−Azt)′(HPt|t−1H′+R)−1(yt−Hx^t|t−1−Azt)}fyt|It−1,zt(yt|It−1,zt)=det[2π(HPt|t−1H′+R)]−12exp⁡{−12(yt−Hx^t|t−1−Azt)′(HPt|t−1H′+R)−1(yt−Hx^t|t−1−Azt)}f_{y_{t}|\mathcal{I}_{t-1},z_{t}}\left(y_{t}|\mathcal{I}_{t-1},z_{t}\right)=\det\left[2\pi\left(HP_{t|t-1}H^{\prime}+R\right)\right]^{-\frac{1}{2}}\exp\left\{ -\frac{1}{2}\left(y_{t}-H\hat{x}_{t|t-1}-Az_{t}\right)^{\prime}\left(HP_{t|t-1}H^{\prime}+R\right)^{-1}\left(y_{t}-H\hat{x}_{t|t-1}-Az_{t}\right)\right\} 내 질문은 다음과 같습니다. 왜 우도 함수 는 "평활 추정" \ hat {x} _ {t …

2
왜 후방 밀도가 이전 밀도 시간 우도 함수에 비례합니까?
베이 즈 정리에 따르면 입니다. 그러나 내 계량 텍스트에 따르면 라고 말합니다 . 왜 이런가요? 가 무시되는 이유를 모르겠습니다 .P ( θ | Y ) α P ( Y | θ ) P ( θ ) P ( Y )P(y|θ)P(θ)=P(θ|y)P(y)P(y|θ)P(θ)=P(θ|y)P(y)P(y|\theta)P(\theta) = P(\theta|y)P(y)P(θ|y)∝P(y|θ)P(θ)P(θ|y)∝P(y|θ)P(θ)P(\theta|y) \propto P(y|\theta)P(\theta)P(y)P(y)P(y)


1
p- 값 및 가능성 원칙
이 질문은 수업에서 나왔다 : 만약 우리가 실험에서 가설을 평가하기 위해 p- 값을 사용한다면, 우위 원칙 의 어느 부분에 따르지 않는가 : 자족 또는 조건 ? 내 직감은 Sufficiency 라고 말할 것입니다 .p- 값을 계산하면 관찰되지 않은 실험 결과에 의존하고 Sufficiency 는 단일 실험 내에서 관찰을 더 많이 처리하는 반면 …

4
콕스 위험 모델 생존 곡선을 어떻게 해석합니까?
콕스 비례 위험 모델의 생존 곡선을 어떻게 해석합니까? 이 장난감 예 age에서 kidney데이터의 변수에 대한 cox 비례 위험 모델이 있고 생존 곡선을 생성 한다고 가정 합니다. library(survival) fit <- coxph(Surv(time, status)~age, data=kidney) plot(conf.int="none", survfit(fit)) grid() 예를 들어, 시간 에 어떤 진술이 참입니까? 또는 둘 다 잘못 되었습니까?200200200 진술 1 : …

1
"평평한 사전"이있는 베이지안 추정값이 최대 우도 추정값과 동일합니까?
계통 발생학에서 계통 발생 수는 종종 MLE 또는 베이지안 분석을 사용하여 구성됩니다. 종종 베이 즈 추정에서는 플랫 사전이 사용됩니다. 내가 이해하는 것처럼 베이지안 추정치는 이전을 포함하는 가능성 추정치입니다. 내 질문은, 만약 당신이 평평한 것을 사용한다면 그것은 단순히 우도 분석을하는 것과 다른가?

1
변형 된 피셔 정보
Y. Pawitan의 "모두 가능성 : 통계 모델링 및 가능성을 사용한 추론"에서 다시 매개 변수화 가능성 θ↦g(θ)=ψθ↦g(θ)=ψ\theta\mapsto g(\theta)=\psi 로 정의된다 L∗(ψ)=max{θ:g(θ)=ψ}L(θ)L∗(ψ)=max{θ:g(θ)=ψ}L(θ) L^*(\psi)=\max_{\{\theta:g(\theta)=\psi\}} L(\theta) 가 일대일 인 경우 L ^ * (\ psi) = L (g ^ {-1} (\ psi)) (p. 45)입니다. \ theta 가 스칼라 라면 ( g 도 스칼라 함수라고 …

2
한계 가능성에 대한 강력한 MCMC 추정기?
Monte Carlo 방법으로 통계 모델에 대한 한계 우도를 계산하려고합니다. 에프( x ) = ∫에프( x ∣ θ ) π( θ )디θf(x)=∫f(x∣θ)π(θ)dθf(x) = \int f(x\mid\theta) \pi(\theta)\, d\theta 가능성은 매끄럽고 로그 오목하지만 고차원으로 잘 작동합니다. 중요도 샘플링을 시도했지만 결과가 놀랍고 사용중인 제안에 크게 의존합니다. 나는 이것을 볼 때까지 해밀턴 몬테 카를로를 사용하여 …

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.