«degrees-of-freedom» 태그된 질문

"자유도"라는 용어는 자유롭게 변경할 수있는 통계의 최종 계산에서 값의 수를 설명하는 데 사용됩니다. "유효 자유도"에도 사용합니다.

11
자유도를 이해하는 방법?
에서 위키 백과 , 통계의 자유도의 세 가지 해석이있다 : 통계에서 자유도는 통계 의 최종 계산 에서 자유롭게 변할 수있는 값의 수입니다 . 통계 매개 변수의 추정치는 다른 양의 정보 또는 데이터를 기반으로 할 수 있습니다. 모수의 추정치에 들어가는 독립적 인 정보 의 수를 자유도 (df)라고합니다. 일반적으로 모수 추정치의 자유도는 …

2
Hosmer-Lemeshow 테스트에서 의 자유도
로지스틱 회귀 모형의 적합도 (GOF)에 대한 Hosmer-Lemeshow 검정 (HLT) 의 검정 통계량 은 다음과 같이 정의됩니다. 그런 다음 샘플은 deciles, 로 분할되며 , decile 당 다음 수량을 계산합니다.d=10d=10d=10D1,D2,…,DdD1,D2,…,DdD_1, D_2, \dots , D_{d} O1d=∑i∈DdyiO1d=∑i∈DdyiO_{1d}=\displaystyle \sum_{i \in D_d} y_i , 즉 decile 에서 관찰 된 긍정적 인 사례 수 ;DdDdD_d O0d=∑i∈Dd(1−yi)O0d=∑i∈Dd(1−yi)O_{0d}=\displaystyle \sum_{i …

1
자유도는 정수가 아닌 숫자 일 수 있습니까?
GAM을 사용할 때 잔여 DF는 (코드의 마지막 줄). 그게 무슨 뜻이야? GAM 예제를 넘어 서면 일반적으로 자유도는 정수가 아닌 숫자 일 수 있습니까?26.626.626.6 > library(gam) > summary(gam(mpg~lo(wt),data=mtcars)) Call: gam(formula = mpg ~ lo(wt), data = mtcars) Deviance Residuals: Min 1Q Median 3Q Max -4.1470 -1.6217 -0.8971 1.2445 6.0516 (Dispersion Parameter …
27 r  degrees-of-freedom  gam  machine-learning  pca  lasso  probability  self-study  bootstrap  expected-value  regression  machine-learning  linear-model  probability  simulation  random-generation  machine-learning  distributions  svm  libsvm  classification  pca  multivariate-analysis  feature-selection  archaeology  r  regression  dataset  simulation  r  regression  time-series  forecasting  predictive-models  r  mean  sem  lavaan  machine-learning  regularization  regression  conv-neural-network  convolution  classification  deep-learning  conv-neural-network  regression  categorical-data  econometrics  r  confirmatory-factor  scale-invariance  self-study  unbiased-estimator  mse  regression  residuals  sampling  random-variable  sample  probability  random-variable  convergence  r  survival  weibull  references  autocorrelation  hypothesis-testing  distributions  correlation  regression  statistical-significance  regression-coefficients  univariate  categorical-data  chi-squared  regression  machine-learning  multiple-regression  categorical-data  linear-model  pca  factor-analysis  factor-rotation  classification  scikit-learn  logistic  p-value  regression  panel-data  multilevel-analysis  variance  bootstrap  bias  probability  r  distributions  interquartile  time-series  hypothesis-testing  normal-distribution  normality-assumption  kurtosis  arima  panel-data  stata  clustered-standard-errors  machine-learning  optimization  lasso  multivariate-analysis  ancova  machine-learning  cross-validation 


2
혼합 효과 모델을 어떻게 비교하고 검증해야합니까?
(선형) 혼합 효과 모델은 일반적으로 서로 어떻게 비교됩니까? 가능성 비율 테스트를 사용할 수 있지만 한 모델이 다른 모델의 '서브셋'이 아닌 경우 작동하지 않습니다. 모델 df의 추정은 항상 간단합니까? 고정 효과 수 + 분산 성분 수 추정? 랜덤 효과 추정값을 무시합니까? 유효성 검사는 어떻습니까? 내 첫 번째 생각은 교차 검증이지만 데이터 …

4
PCA 공간에 새로운 벡터를 투영하는 방법?
주성분 분석 (PCA)을 수행 한 후 PCA 공간에 새 벡터를 투영하려고합니다 (즉, PCA 좌표계에서 해당 좌표를 찾습니다). 를 사용하여 R 언어로 PCA를 계산했습니다 prcomp. 이제 내 벡터에 PCA 회전 행렬을 곱할 수 있어야합니다. 이 매트릭스의 주요 구성 요소를 행 또는 열로 배열해야합니까?
21 r  pca  r  variance  heteroscedasticity  misspecification  distributions  time-series  data-visualization  modeling  histogram  kolmogorov-smirnov  negative-binomial  likelihood-ratio  econometrics  panel-data  categorical-data  scales  survey  distributions  pdf  histogram  correlation  algorithms  r  gpu  parallel-computing  approximation  mean  median  references  sample-size  normality-assumption  central-limit-theorem  rule-of-thumb  confidence-interval  estimation  mixed-model  psychometrics  random-effects-model  hypothesis-testing  sample-size  dataset  large-data  regression  standard-deviation  variance  approximation  hypothesis-testing  variance  central-limit-theorem  kernel-trick  kernel-smoothing  error  sampling  hypothesis-testing  normality-assumption  philosophical  confidence-interval  modeling  model-selection  experiment-design  hypothesis-testing  statistical-significance  power  asymptotics  information-retrieval  anova  multiple-comparisons  ancova  classification  clustering  factor-analysis  psychometrics  r  sampling  expectation-maximization  markov-process  r  data-visualization  correlation  regression  statistical-significance  degrees-of-freedom  experiment-design  r  regression  curve-fitting  change-point  loess  machine-learning  classification  self-study  monte-carlo  markov-process  references  mathematical-statistics  data-visualization  python  cart  boosting  regression  classification  robust  cart  survey  binomial  psychometrics  likert  psychology  asymptotics  multinomial 

2
2-t- 분포의 차이 분포는 무엇입니까
... 그리고 왜 ? 가정 , 평균 독립적 인 랜덤 변수이다 및 분산 각각이. 기본 통계 책에 따르면 의 분포 에는 다음과 같은 속성이 있습니다.X 2 μ 1 , μ 2 σ 2 1 , σ 2 2 X 1 − X 2X1X1X_1X2X2X_2μ1,μ2μ1,μ2\mu_1,\mu_2σ21,σ22σ12,σ22\sigma^2_1,\sigma^2_2X1−X2X1−X2X_1-X_2 E(X1−X2)=μ1−μ2E(X1−X2)=μ1−μ2E(X_1-X_2)=\mu_1-\mu_2 Var(X1−X2)=σ21+σ22Var(X1−X2)=σ12+σ22Var(X_1-X_2)=\sigma^2_1 +\sigma^2_2 이제 , X_2 는 …

4
신경망에서“자유도”란 무엇을 의미합니까?
주교의 책 "패턴 분류 및 기계 학습"에서 신경망의 맥락에서 정규화하는 기술을 설명합니다. 그러나 훈련 과정에서 모델의 복잡성과 함께 자유도가 증가한다는 단락을 이해하지 못합니다. 관련 인용문은 다음과 같습니다. 네트워크의 효과적인 복잡성을 제어하는 ​​방법으로 정규화의 대안은 조기 중지 절차입니다. 비선형 네트워크 모델의 학습은 일련의 학습 데이터와 관련하여 정의 된 오류 함수의 반복 …

2
회귀에 대한 자연 큐빅 스플라인 정의
Hastie et al.의 "통계 학습 데이터 마이닝, 추론 및 예측의 요소"책에서 스플라인에 대해 배우고 있습니다. 145 페이지에서 자연 입방 스플라인이 경계 매듭 너머에 선형이라는 것을 알았습니다. 있습니다 매듭, ξ 1 , ξ 2 , . . . 스플라인의 ξ K 및 다음은이 스플라인의 스플라인에 대한 것입니다.KKKξ1,ξ2,...ξKξ1,ξ2,...ξK\xi_1, \xi_2, ... \xi_K 질문 …

2
동일하지 않은 분산으로 t 검정에서 정수가 아닌 자유도에 대한 설명
SPSS t- 검정 절차 보고서는 2 개의 독립 평균을 비교할 때 2 개의 분석을 수행합니다. 하나의 분석은 동일한 분산을 가정하고 다른 분석은 동일한 분산을 가정하지 않았습니다. 등분 산을 가정 할 때 자유도 (df)는 항상 정수 값 (및 n-2)입니다. 등분 산이 가정되지 않을 때의 df는 정수가 아니며 (예 : 11.467) n-2 …

2
Welch t-test의 자유도보고
동일하지 않은 분산에 대한 Welch t- 검정 (Welch-Satterthwaite 또는 Welch-Aspin이라고도 함)은 일반적으로 정수 가 아닌 자유도를 갖습니다 . 테스트 결과를보고 할 때 이러한 자유도를 어떻게 인용해야합니까? 다양한 소스 *에 따르면 "표준 t 테이블을 컨설팅하기 전에 가장 가까운 정수로 내림하기 위해 기존의 것입니다."- 보수적 라운딩이 방향으로 의미가 ** 일부 오래된 통계 …

1
능선 회귀의 AIC : 자유도 대 매개 변수 수
능선 회귀 모델의 AICc를 계산하고 싶습니다. 문제는 매개 변수의 수입니다. 선형 회귀 분석의 경우 대부분의 사람들은 모수의 개수가 추정 계수의 수에 시그마 (오류의 분산)를 더한 값과 같다고 제안합니다. 능선 회귀에 관해서는 모자 행렬의 흔적-자유도 (df)가 단순히 AIC 수식의 매개 변수 수 (예 : here 또는 here ) 로 사용된다는 것을 …


1
LASSO의 자유도에 대한 직감
Zou et al. "올가미의"자유도 " (2007)에 따르면, 0이 아닌 계수의 수는 올가미의 자유도에 대한 편견이없고 일관된 추정치 인 것으로 나타났습니다. 나에게는 약간의 직관이 아닌 것 같습니다. 회귀 모형이 있다고 가정합니다 (변수가 0 평균 인 경우). y=βx+ε.y=βx+ε.y=\beta x + \varepsilon. 의 무제한 OLS 추정값 이 라고 가정합니다 . 패널티 강도가 매우 …

3
및 잔류 이탈 자유도를 사용하여 로지스틱 회귀 계수 테스트
요약 : 표준 정규 분포가 아닌 로지스틱 회귀 계수의 테스트에 분포 (잔류 편차를 기반으로 한 자유도)를 사용하도록 지원하는 통계 이론이 있습니까?ttt 얼마 전에 SAS PROC GLIMMIX의 로지스틱 회귀 모델을 피팅 할 때 기본 설정에서 로지스틱 회귀 계수가 표준 정규 분포가 아닌 분포를 사용하여 테스트됨을 발견했습니다 . 즉, GLIMMIX는 비율이 ( …

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.