«log-likelihood» 태그된 질문

7
확률 대신 최대 로그 확률을 최적화해야하는 이유
당신은 어떤 확률 공식화 수있는 대부분의 기계 학습 작업에서 극대화해야한다, 우리는 실제로 로그 확률 최적화 것 대신 일부 매개 변수에 대한 확률의 . 예를 들어 최대 우도 훈련에서는 일반적으로 로그 우도입니다. 일부 그라디언트 방법 으로이 작업을 수행 할 때 요인이 있습니다.ppplogplog⁡p\log pθθ\theta ∂logp∂θ=1p⋅∂p∂θ∂log⁡p∂θ=1p⋅∂p∂θ \frac{\partial \log p}{\partial \theta} = \frac{1}{p} \cdot …

5
R의 로지스틱 회귀 분석에서 의사
R의 로지스틱 회귀 분석에 대한 Christopher Manning의 글 은 다음과 같이 R의 로지스틱 회귀 분석을 보여줍니다. ced.logr <- glm(ced.del ~ cat + follows + factor(class), family=binomial) 일부 출력 : > summary(ced.logr) Call: glm(formula = ced.del ~ cat + follows + factor(class), family = binomial("logit")) Deviance Residuals: Min 1Q Median 3Q …

4
로그 우도 대 우도를 사용하는 이론적 동기
통계와 확률 이론에서 로그 우도의 유비쿼터스 (그리고 아마도 일반적으로 로그 확률)를 더 깊이 이해하려고합니다. 로그 확률은 모든 곳에서 나타납니다. 우리는 일반적으로 분석을 위해 로그 가능성으로 작업합니다 (예 : 최대화), Fisher 정보는 로그 가능성의 2 차 미분으로 정의되며 엔트로피는 예상 로그 확률입니다. Kullback-Liebler 분기에는 로그 확률이 ​​포함되며, 예상 차이는 예상 로그 …

3
GLM에서 포화 모델의 로그 가능성은 항상 0입니까?
일반화 된 선형 모형의 출력의 일부로, 널 및 잔차 편차가 모형을 평가하는 데 사용됩니다. : 나는 종종 예를 들어, 포화 모델의 로그 가능성의 표현이 양의 공식을 참조 /stats//a/113022/22199 , 로지스틱 회귀는 어떻게 포화 모델을 얻기 위해 내가 이해하는 한 포화 된 모델은 관측 된 반응에 완벽하게 맞는 모델입니다. 따라서 내가 …

1
R / mgcv : te () 및 ti () 텐서 제품이 다른 표면을 생성하는 이유는 무엇입니까?
mgcv에 대한 패키지는 R텐서 제품의 상호 작용을 피팅에 대한 두 가지 기능이 있습니다 : te()와 ti(). 나는 둘 사이의 기본 노동 분열을 이해한다 (비선형 상호 작용에 적합하고이 상호 작용을 주요 효과와 상호 작용으로 분해). 내가 이해할 수없는 것은 왜 te(x1, x2)와 ti(x1) + ti(x2) + ti(x1, x2)(약간) 다른 결과가 발생할 …
11 r  gam  mgcv  conditional-probability  mixed-model  references  bayesian  estimation  conditional-probability  machine-learning  optimization  gradient-descent  r  hypothesis-testing  wilcoxon-mann-whitney  time-series  bayesian  inference  change-point  time-series  anova  repeated-measures  statistical-significance  bayesian  contingency-tables  regression  prediction  quantiles  classification  auc  k-means  scikit-learn  regression  spatial  circular-statistics  t-test  effect-size  cohens-d  r  cross-validation  feature-selection  caret  machine-learning  modeling  python  optimization  frequentist  correlation  sample-size  normalization  group-differences  heteroscedasticity  independence  generalized-least-squares  lme4-nlme  references  mcmc  metropolis-hastings  optimization  r  logistic  feature-selection  separation  clustering  k-means  normal-distribution  gaussian-mixture  kullback-leibler  java  spark-mllib  data-visualization  categorical-data  barplot  hypothesis-testing  statistical-significance  chi-squared  type-i-and-ii-errors  pca  scikit-learn  conditional-expectation  statistical-significance  meta-analysis  intuition  r  time-series  multivariate-analysis  garch  machine-learning  classification  data-mining  missing-data  cart  regression  cross-validation  matrix-decomposition  categorical-data  repeated-measures  chi-squared  assumptions  contingency-tables  prediction  binary-data  trend  test-for-trend  matrix-inverse  anova  categorical-data  regression-coefficients  standard-error  r  distributions  exponential  interarrival-time  copula  log-likelihood  time-series  forecasting  prediction-interval  mean  standard-error  meta-analysis  meta-regression  network-meta-analysis  systematic-review  normal-distribution  multiple-regression  generalized-linear-model  poisson-distribution  poisson-regression  r  sas  cohens-kappa 
당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.