«likelihood» 태그된 질문

임의의 변수가 주어짐 X매개 변수화 된 분포 에서 발생하는 가능성은 의 함수로 관측 된 데이터의 확률로 정의됩니다F(X;θ)θ:L(θ)=P(θ;X=x)

10
"우도"와 "확률"의 차이점은 무엇입니까?
위키 피 디아 페이지는 가능성과 확률이 별개의 개념 것을 주장한다. 비 기술적 용어에서 "가능성"은 일반적으로 "확률"의 동의어이지만 통계적 사용법에서는 명확한 관점이 있습니다. 매개 변수 값 세트가 주어진 일부 관측 된 결과의 확률은 다음과 같이 간주됩니다. 관측 된 결과가 주어진 경우 매개 변수 값 세트의 가능성. 누군가 이것이 이것이 무엇을 의미하는지에 …

3
예 : 이진 결과에 glmnet을 사용하는 LASSO 회귀
관심있는 결과가 이분법 인 LASSO Regressionglmnet 과 함께 사용하기 시작했습니다 . 아래에 작은 모의 데이터 프레임을 만들었습니다. age <- c(4, 8, 7, 12, 6, 9, 10, 14, 7) gender <- c(1, 0, 1, 1, 1, 0, 1, 0, 0) bmi_p <- c(0.86, 0.45, 0.99, 0.84, 0.85, 0.67, 0.91, 0.29, 0.88) …
77 r  self-study  lasso  regression  interpretation  anova  statistical-significance  survey  conditional-probability  independence  naive-bayes  graphical-model  r  time-series  forecasting  arima  r  forecasting  exponential-smoothing  bootstrap  outliers  r  regression  poisson-distribution  zero-inflation  genetic-algorithms  machine-learning  feature-selection  cart  categorical-data  interpretation  descriptive-statistics  variance  multivariate-analysis  covariance-matrix  r  data-visualization  generalized-linear-model  binomial  proportion  pca  matlab  svd  time-series  correlation  spss  arima  chi-squared  curve-fitting  text-mining  zipf  probability  categorical-data  distance  group-differences  bhattacharyya  regression  variance  mean  data-visualization  variance  clustering  r  standard-error  association-measure  somers-d  normal-distribution  integral  numerical-integration  bayesian  clustering  python  pymc  nonparametric-bayes  machine-learning  svm  kernel-trick  hyperparameter  poisson-distribution  mean  continuous-data  univariate  missing-data  dag  python  likelihood  dirichlet-distribution  r  anova  hypothesis-testing  statistical-significance  p-value  rating  data-imputation  censoring  threshold 


4
왜 우리가 때때로 부정적인 (로그) 가능성을 사용하는지 궁금합니다.
이 질문은 오랫동안 당황했습니다. 나는 가능성을 극대화하기 위해 '로그'의 사용을 이해하므로 '로그'에 대해 묻지 않습니다. 내 질문은 로그 가능성을 최대화하는 것이 "음성 로그 가능성"(NLL)을 최소화하는 것과 같기 때문에 왜이 NLL을 발명합니까? 왜 "긍정적 우도"를 항상 사용하지 않습니까? 어떤 상황에서 NLL이 선호됩니까? 여기에 약간의 설명이 있습니다. https://quantivity.wordpress.com/2011/05/23/why-minimize-negative-log-likelihood/ 이지만 명백한 동등성을 설명하는 …

7
왜 누군가가 전통적인 접근법 대신 '정보가없는'부적절한 방식으로 베이지안 접근법을 사용합니까?
관심이 단순히 모델의 매개 변수 (포인트 및 / 또는 간격 추정)를 추정하고 사전 정보가 신뢰할 수없고 약하지 않은 경우 (이는 약간 모호하지만 알고있는 시나리오를 설정하려고합니다. 이전이 어렵다) ... 왜 누군가가 전통적인 접근 방식 대신 '비 정보 적'부적절한 선행과 함께 베이지안 접근 방식을 사용하려고합니까?

9
사람들이 주어진 데이터의 모델 확률을 계산하는 대신 p- 값을 사용하는 이유는 무엇입니까?
대략 p- 값을 말하면 가설 (모델)이 주어지면 실험 결과가 관찰 될 가능성이 있습니다. 이 확률 (p- 값)을 가짐으로써 우리는 가설을 판단하려고합니다. 그러나 관측 된 결과가 주어지면 가설의 확률을 계산하는 것이 더 자연스럽지 않습니까? 자세한 내용은. 우리는 동전이 있습니다. 우리는 그것을 20 번 뒤집었고 14 개의 머리를 얻었습니다 (20 개 중 …

3
가능성을 엄격하게 정의하는 방법은 무엇입니까?
가능성은 다음과 같은 몇 가지 방법으로 정의 할 수 있습니다. 함수 에서 로 매핑 을 즉, .LLLΘ×XΘ×X\Theta\times{\cal X}(θ,x)(θ,x)(\theta,x)L(θ∣x)L(θ∣x)L(\theta \mid x)L:Θ×X→RL:Θ×X→RL:\Theta\times{\cal X} \rightarrow \mathbb{R} 랜덤 함수L(⋅∣X)L(⋅∣X)L(\cdot \mid X) 또한 가능성은 단지 "관측 된"가능성 임을 고려할 수 있습니다.L(⋅∣xobs)L(⋅∣xobs)L(\cdot \mid x^{\text{obs}}) 실제로 가능성은 곱셈 상수까지만 대한 정보를 가져 오므로, 가능성은 함수가 아닌 등가 …

3
Fisher 정보는 어떤 종류의 정보입니까?
랜덤 변수 X∼f(x|θ)X∼f(x|θ)X \sim f(x|\theta) 가 있다고 가정 해 봅시다 . 경우 θ0θ0\theta_0 실제 파라미터 있었다 상기 우도 함수를 최대화 제로 유도체 같아야한다. 이것이 최대 가능성 추정기의 기본 원리입니다. 내가 알기로 Fisher 정보는 다음과 같이 정의됩니다. I(θ)=E[(∂∂θf(X|θ))2]I(θ)=E[(∂∂θf(X|θ))2]I(\theta) = \Bbb E \Bigg[\left(\frac{\partial}{\partial \theta}f(X|\theta)\right)^2\Bigg ] 따라서 θ0θ0\theta_0 이 참 매개 변수이면 I(θ)=0I(θ)=0I(\theta) …

3
경험적 우도의 예시적인 적용은 무엇입니까?
나는 Owen의 경험적 가능성에 대해 들었지만, 최근까지는 관심있는 논문에서 그것을 발견 할 때까지주의를 기울이지 않았습니다 ( Mengersen et al. 2012 ). 그것을 이해하려는 노력에서 관찰 된 데이터의 가능성이 여기서 이고 입니다.L=∏ipi=∏iP(Xi=x)=∏iP(Xi≤x)−P(Xi<x)엘=∏나는피나는=∏나는피(엑스나는=엑스)=∏나는피(엑스나는≤엑스)−피(엑스나는<엑스)L = \prod_i p_i = \prod_i P(X_i=x) = \prod_i P(X_i \le x) - P(X_i \lt x)∑ipi=1∑나는피나는=1\sum_i p_i = 1pi>0피나는>0p_i > …

5
가능성에 대한 위키 백과 입장은 모호해 보인다
"조건부 확률"과 "가능성"에 관한 간단한 질문이 있습니다. (나는 이미이 질문을 조사했다 여기 지만 아무 소용에.) Wikipedia 페이지에서 시작합니다 . 그들은 이렇게 말합니다. 가능성 파라미터 값들의 세트는 , 소정의 결과 이며, 이러한 파라미터 값 주어진 이러한 관찰 결과의 확률 같다θθ\thetaxxx L(θ∣x)=P(x∣θ)L(θ∣x)=P(x∣θ)\mathcal{L}(\theta \mid x) = P(x \mid \theta) 큰! 따라서 영어, I …

1
MCMC 표본의 한계 우도 계산
이것은 되풀이되는 질문이지만 ( 이 게시물 , 이 게시물 및 이 게시물 참조 ) 다른 스핀이 있습니다. 일반 MCMC 샘플러의 많은 샘플이 있다고 가정합니다. 각 표본 대해 θθ\theta, 로그 우도 logf(x|θ)log⁡f(x|θ)\log f(\textbf{x} | \theta) 와 로그 우선 의 값을 알고 logf(θ)log⁡f(θ)\log f(\theta)있습니다. 도움이된다면 데이터 포인트 당 로그 우도 값 도 …

5
베이 즈 정리 직관
나는 측면에서 베이 즈 이론의 이해를 기반으로 직관을 개발하기 위해 노력했습니다 전 , 후방 , 가능성 과 한계 확률을. 이를 위해 다음 방정식을 사용합니다. P(B|A)=P(A|B)P(B)P(A)P(B|A)=P(A|B)P(B)P(A)P(B|A) = \frac{P(A|B)P(B)}{P(A)} 여기서AAA는 가설 또는 신념을나타내고BBB는 데이터 또는 증거를 나타냅니다. 나는의 개념을 이해 한후방- 그것은 통일 기업의 그 결합이전에믿음과가능성이벤트. 내가 이해하지 못하는 것은가능성이 무엇을의미 하는가? …

3
우연의 정의에 대해 Frequentist와 Bayesian간에 차이가 있습니까?
일부 출처는 우도 함수가 조건부 확률이 아니라고 말합니다. 이것은 나에게 매우 혼란 스럽다. 내가 본 대부분의 출처에 따르면, 매개 변수 를 갖는 분포 의 가능성 은 샘플이 주어질 확률 질량 함수의 곱이어야합니다 .n x iθθ\thetannnxixix_i L ( θ ) = L ( x1, x2, . . . , x엔; θ …

6
후부는 이전과 가능성과 매우 다릅니다
이전과 가능성이 서로 매우 다른 경우, 때때로 후부가 그들과 유사하지 않은 상황이 발생합니다. 정규 분포를 사용하는이 그림을 참조하십시오. 이것은 수학적으로 정확하지만 내 직감과 일치하지 않는 것 같습니다. 데이터가 내 견실 한 신념이나 데이터와 일치하지 않으면 범위가 잘 맞지 않을 것으로 예상되며 평소보다 뒤 떨어질 것으로 기대합니다 이전과 가능성에 대한 전체 …

1
매우 작은 가능성 값을 확률로 변환 (정규화)
모델이 주어지면 데이터 세트 목록에 대한 가능성을 계산 한 다음 각 가능성에 대해 정규화해야합니다. 따라서 [0.00043, 0.00004, 0.00321]과 같은 것은 [0.2, 0.03, 0.77]과 같은 것으로 변환 될 수 있습니다. 내 문제는 내가 작업하고있는 로그 가능성이 매우 작다는 것입니다 (예를 들어, 로그 공간에서 값은 -269647.432, -231444.981 등입니다). 내 C ++ 코드에서 …

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.