«weighted-regression» 태그된 질문

가중 최소 제곱 회귀는 서로 다른 데이터 포인트가 다른 중요도 또는 "가중치"를 가질 때 사용되는 OLS 회귀의 일반화입니다. [가중 데이터]를 참조하십시오.

9
통계에 적용되는 선형 대수에 대한 참조 도서?
나는 R에서 약간 일하고 있었고 PCA, SVD, QR 분해 및 많은 선형 대수 결과 (가중 회귀 추정 등을 조사 할 때)와 같은 것들에 직면 했으므로 누군가가 좋은 것에 대한 권장 사항이 있는지 알고 싶었습니다. 너무 이론적이지는 않지만 수학적으로 엄격하며 이러한 모든 주제를 다루는 포괄적 인 선형 대수 책.

2
가중 최소 제곱 회귀에 대한 가중치는 어떻게 찾습니까?
나는 WLS 회귀 과정에서 약간 길을 잃었다. 나는 데이터 세트를 받았으며 내 임무는 이분산성이 있는지 테스트하고 그렇다면 WLS 회귀를 실행해야합니다. 테스트를 수행하고 이분산성에 대한 증거를 찾았으므로 WLS를 실행해야합니다. WLS는 기본적으로 변환 된 모델의 OLS 회귀라고 들었지만 변환 함수를 찾는 데 약간 혼란 스럽습니다. 나는 변환이 OLS 회귀에서 제곱 잔차의 함수가 …

1
귀무 가설 하에서 교환 가능한 샘플의 직관은 무엇입니까?
순열 검정 (랜덤 화 검정, 재 랜덤 화 검정 또는 정확한 검정이라고도 함)은 매우 유용하며, 예를 들어 요구되는 정규 분포 가정이 t-test충족되지 않고 순위에 따라 값을 변환 할 때 유용합니다. 비모수 테스트 Mann-Whitney-U-test는 더 많은 정보가 손실 될 수 있습니다. 그러나 이러한 종류의 테스트를 사용할 때 단 하나의 가정 만 …
15 hypothesis-testing  permutation-test  exchangeability  r  statistical-significance  loess  data-visualization  normal-distribution  pdf  ggplot2  kernel-smoothing  probability  self-study  expected-value  normal-distribution  prior  correlation  time-series  regression  heteroscedasticity  estimation  estimators  fisher-information  data-visualization  repeated-measures  binary-data  panel-data  mathematical-statistics  coefficient-of-variation  normal-distribution  order-statistics  regression  machine-learning  one-class  probability  estimators  forecasting  prediction  validation  finance  measurement-error  variance  mean  spatial  monte-carlo  data-visualization  boxplot  sampling  uniform  chi-squared  goodness-of-fit  probability  mixture  theory  gaussian-mixture  regression  statistical-significance  p-value  bootstrap  regression  multicollinearity  correlation  r  poisson-distribution  survival  regression  categorical-data  ordinal-data  ordered-logit  regression  interaction  time-series  machine-learning  forecasting  cross-validation  binomial  multiple-comparisons  simulation  false-discovery-rate  r  clustering  frequency  wilcoxon-mann-whitney  wilcoxon-signed-rank  r  svm  t-test  missing-data  excel  r  numerical-integration  r  random-variable  lme4-nlme  mixed-model  weighted-regression  power-law  errors-in-variables  machine-learning  classification  entropy  information-theory  mutual-information 

2
R : 패밀리 = "이항"및 "무게"사양의 glm 기능
family = "binomial"과 함께 glm에서 무게가 어떻게 작동하는지 매우 혼동됩니다. 내 이해에 따르면 family = "binomial"인 glm의 가능성은 다음과 같이 지정됩니다. f(y)=(nny)pny(1−p)n(1−y)=exp(n[ylogp1−p−(−log(1−p))]+log(nny))f(y)=(nny)pny(1−p)n(1−y)=exp⁡(n[ylog⁡p1−p−(−log⁡(1−p))]+log⁡(nny)) f(y) = {n\choose{ny}} p^{ny} (1-p)^{n(1-y)} = \exp \left(n \left[ y \log \frac{p}{1-p} - \left(-\log (1-p)\right) \right] + \log {n \choose ny}\right) 여기서 yyy 는 "관측 성공률"이고 nnn 은 …

1
회귀 분석의 비율, 즉 Kronmal에 대한 질문
최근 무작위로 탐색하는 질문으로 인해 몇 년 전에 회귀 모형의 비율 사용에 대해 경고하면서 교수 중 한 명이 직접 의견을 떠올리게되었습니다. 그래서 나는 이것에 대해 읽기 시작하여 결국 Kronmal 1993로 이어졌습니다. 나는 이것을 모델링하는 방법에 대한 그의 제안을 올바르게 해석하고 있는지 확인하고 싶습니다. : 종속 독립 측에서도 같은 분모 비율로 …


5
매우 많은 수의 데이터 포인트에서 값을 대치하는 방법은 무엇입니까?
데이터 세트가 매우 커서 약 5 %의 임의 값이 없습니다. 이 변수들은 서로 상관되어 있습니다. 다음 예제 R 데이터 세트는 더미 상관 데이터가있는 장난감 예제 일뿐입니다. set.seed(123) # matrix of X variable xmat <- matrix(sample(-1:1, 2000000, replace = TRUE), ncol = 10000) colnames(xmat) <- paste ("M", 1:10000, sep ="") rownames(xmat) …
12 r  random-forest  missing-data  data-imputation  multiple-imputation  large-data  definition  moving-window  self-study  categorical-data  econometrics  standard-error  regression-coefficients  normal-distribution  pdf  lognormal  regression  python  scikit-learn  interpolation  r  self-study  poisson-distribution  chi-squared  matlab  matrix  r  modeling  multinomial  mlogit  choice  monte-carlo  indicator-function  r  aic  garch  likelihood  r  regression  repeated-measures  simulation  multilevel-analysis  chi-squared  expected-value  multinomial  yates-correction  classification  regression  self-study  repeated-measures  references  residuals  confidence-interval  bootstrap  normality-assumption  resampling  entropy  cauchy  clustering  k-means  r  clustering  categorical-data  continuous-data  r  hypothesis-testing  nonparametric  probability  bayesian  pdf  distributions  exponential  repeated-measures  random-effects-model  non-independent  regression  error  regression-to-the-mean  correlation  group-differences  post-hoc  neural-networks  r  time-series  t-test  p-value  normalization  probability  moments  mgf  time-series  model  seasonality  r  anova  generalized-linear-model  proportion  percentage  nonparametric  ranks  weighted-regression  variogram  classification  neural-networks  fuzzy  variance  dimensionality-reduction  confidence-interval  proportion  z-test  r  self-study  pdf 


1
성향 점수 가중치에서 치료 가중치의 역 확률 (IPTW)에 대한 직관적 인 설명?
성향 점수 사용하여 가중치를 계산하는 메커니즘을 이해합니다 . 그리고 회귀 분석에서 가중치를 적용하고 가중치가 치료 및 대조군 집단 집단에서 공변량의 효과를 "조절"하거나 결과 변수와 연관을 해제시킨다.p(xi)p(xi)p(x_i)wi,j=treatwi,j=control=1p(xi)=11−p(xi)wi,j=treat=1p(xi)wi,j=control=11−p(xi)\begin{align} w_{i, j={\rm treat}} &= \frac{1}{p(x_i)} \\[5pt] w_{i, j={\rm control}} &= \frac{1}{1-p(x_i)} \end{align} 그러나 직감 수준에서 가중치가 어떻게 달성되는지, 왜 방정식이 그대로 구성되는지 이해하지 못합니다.

3
버그, JAGS의 가중 일반화 회귀
에서 R우리가 할 수있는 "이전에 무게"는 glm바이어 회귀 가중치 매개 변수입니다. 예를 들면 다음과 같습니다. glm.D93 <- glm(counts ~ outcome + treatment, family = poisson(), weights=w) JAGS또는 BUGS모델 에서 어떻게이 작업을 수행 할 수 있습니까? 나는 이것에 대해 논의한 논문을 찾았지만 그 중 어느 것도 예를 제공하지 않았다. 나는 주로 …

1
가중 최소 제곱 가중치 정의 : R lm 함수 대.
아무도 왜 매트릭스 연산으로 R가중치가 가장 작은 제곱 과 수동 솔루션 에서 다른 결과를 얻고 있는지 말해 줄 수 있습니까? 특히 수동으로 해결하려고합니다. W A x = W bWAx=Wb\mathbf W \mathbf A\mathbf x=\mathbf W \mathbf b, 어디 여W\mathbf W 가중치의 대각선 행렬입니다. ㅏA\mathbf A 데이터 매트릭스입니다. 비b\mathbf b 반응 벡터입니다. …

2
로지스틱 회귀 분석에서 치우친 데이터 집합에 가중치 추가
입력 변수를 이진 출력 변수에 맞추기 위해 표준 버전의 로지스틱 회귀를 사용하고 있습니다. 그러나 내 문제에서는 음수 출력 (0)이 양수 출력 (1s)보다 훨씬 큽니다. 비율은 20 : 1입니다. 따라서 분류자를 훈련시킬 때 양의 출력 가능성을 강력하게 제안하는 기능조차도 해당 매개 변수에 대해 매우 낮은 (매우 음수) 값을 갖는 것으로 보입니다. …
당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.