«linear-model» 태그된 질문

한정된 수의 매개 변수에서 선형 인 함수에 의해 임의의 변수가 하나 이상의 임의의 변수와 관련된 모델을 나타냅니다.

4
(왜) 과적 합 된 모델이 큰 계수를 갖는 경향이 있습니까?
변수에 대한 계수가 클수록 모델이 해당 차원에서 "스윙"할 수있는 능력이 커지고 잡음에 대한 기회가 증가한다고 생각합니다. 모델의 분산과 큰 계수 사이의 관계에 대한 합리적인 감각을 가지고 있다고 생각하지만 왜 과적 합 모델에서 발생 하는지에 대한 감각은 없습니다 . 이들이 과적 합의 증상이며 계수 수축이 모형의 분산을 줄이는 기술이라고 말하는 것이 …

3
R은 lm의 결 측값을 어떻게 처리합니까?
행렬 A의 각 열에 대해 벡터 B를 회귀하고 싶습니다. 결측 데이터가 없으면 사소한 일이지만 행렬 A에 결측 값이 포함되어 있으면 A에 대한 내 회귀는 모든 행이 포함되도록 제한됩니다. 값이 존재합니다 (기본 na.omit 동작). 누락 된 데이터가없는 열에 대해 잘못된 결과가 생성됩니다. 행렬 A의 개별 열에 대해 열 행렬 B를 회귀시킬 …

2
선형 회귀 모델의 계수를 찾으려면 경사 하강이 필요합니까?
Coursera 자료를 사용하여 기계 학습을 배우려고했습니다 . 이 강의에서 Andrew Ng는 기울기 하강 알고리즘을 사용하여 오차 함수 (비용 함수)를 최소화 할 선형 회귀 모델의 계수를 찾습니다. 선형 회귀의 경우 그라디언트 디센트가 필요합니까? 오차 함수를 분석적으로 차별화하고 계수를 풀기 위해 0으로 설정할 수 있습니다. 맞습니까?

5
다중 선형 회귀 분석을 위해 최소 제곱 추정기를 도출하는 방법은 무엇입니까?
간단한 선형 회귀 분석법 에서 최소 제곱 추정량 같은 당신이 알 필요가 없다는 추정하는β 1 = Σ ( X I - ˉ X ) ( Y I - ˉ Y )y=β0+β1xy=β0+β1xy=\beta_0+\beta_1xβ 0 β 1β^1=∑(xi−x¯)(yi−y¯)∑(xi−x¯)2β^1=∑(xi−x¯)(yi−y¯)∑(xi−x¯)2\hat\beta_1=\frac{\sum(x_i-\bar x)(y_i-\bar y)}{\sum(x_i-\bar x)^2}β^0β^0\hat\beta_0β^1β^1\hat\beta_1 내가 가진 가정 내가 파생 어떻게, 추정하지 않고 ? 아니면 불가능합니까?β 1 β …

5
머신 러닝에서 계층 적 / 중첩 된 데이터를 처리하는 방법
예를 들어 내 문제를 설명하겠습니다. {나이, 성별, 국가, 지역, 도시}와 같은 속성이 주어진 개인의 소득을 예측한다고 가정합니다. 당신은 이와 같은 훈련 데이터 세트를 가지고 있습니다 train <- data.frame(CountryID=c(1,1,1,1, 2,2,2,2, 3,3,3,3), RegionID=c(1,1,1,2, 3,3,4,4, 5,5,5,5), CityID=c(1,1,2,3, 4,5,6,6, 7,7,7,8), Age=c(23,48,62,63, 25,41,45,19, 37,41,31,50), Gender=factor(c("M","F","M","F", "M","F","M","F", "F","F","F","M")), Income=c(31,42,71,65, 50,51,101,38, 47,50,55,23)) train CountryID RegionID CityID Age …
29 regression  machine-learning  multilevel-analysis  correlation  dataset  spatial  paired-comparisons  cross-correlation  clustering  aic  bic  dependent-variable  k-means  mean  standard-error  measurement-error  errors-in-variables  regression  multiple-regression  pca  linear-model  dimensionality-reduction  machine-learning  neural-networks  deep-learning  conv-neural-network  computer-vision  clustering  spss  r  weighted-data  wilcoxon-signed-rank  bayesian  hierarchical-bayesian  bugs  stan  distributions  categorical-data  variance  ecology  r  survival  regression  r-squared  descriptive-statistics  cross-section  maximum-likelihood  factor-analysis  likert  r  multiple-imputation  propensity-scores  distributions  t-test  logit  probit  z-test  confidence-interval  poisson-distribution  deep-learning  conv-neural-network  residual-networks  r  survey  wilcoxon-mann-whitney  ranking  kruskal-wallis  bias  loss-functions  frequentist  decision-theory  risk  machine-learning  distributions  normal-distribution  multivariate-analysis  inference  dataset  factor-analysis  survey  multilevel-analysis  clinical-trials 

1
OLS 모델의 계수가 (nk) 자유도의 t- 분포를 따르는 지 증명
배경 회귀 모형에 계수 가있는 정규 최소 제곱 모형이 있다고 가정합니다 . kkky=Xβ+ϵy=Xβ+ϵ\mathbf{y}=\mathbf{X}\mathbf{\beta} + \mathbf{\epsilon} 여기서 이다 계수들의 벡터는, 은 IS 설계 행렬 에 의해 정의 된ββ\mathbf{\beta}(k×1)(k×1)(k\times1)XX\mathbf{X} X=⎛⎝⎜⎜⎜⎜⎜⎜11⋮1x11x21xn1x12…⋱………x1(k−1)⋮⋮xn(k−1)⎞⎠⎟⎟⎟⎟⎟⎟X=(1x11x12…x1(k−1)1x21…⋮⋮⋱⋮1xn1……xn(k−1))\mathbf{X} = \begin{pmatrix} 1 & x_{11} & x_{12} & \dots & x_{1\;(k-1)} \\ 1 & x_{21} & \dots & & \vdots \\ \vdots …

1
자유도는 정수가 아닌 숫자 일 수 있습니까?
GAM을 사용할 때 잔여 DF는 (코드의 마지막 줄). 그게 무슨 뜻이야? GAM 예제를 넘어 서면 일반적으로 자유도는 정수가 아닌 숫자 일 수 있습니까?26.626.626.6 > library(gam) > summary(gam(mpg~lo(wt),data=mtcars)) Call: gam(formula = mpg ~ lo(wt), data = mtcars) Deviance Residuals: Min 1Q Median 3Q Max -4.1470 -1.6217 -0.8971 1.2445 6.0516 (Dispersion Parameter …
27 r  degrees-of-freedom  gam  machine-learning  pca  lasso  probability  self-study  bootstrap  expected-value  regression  machine-learning  linear-model  probability  simulation  random-generation  machine-learning  distributions  svm  libsvm  classification  pca  multivariate-analysis  feature-selection  archaeology  r  regression  dataset  simulation  r  regression  time-series  forecasting  predictive-models  r  mean  sem  lavaan  machine-learning  regularization  regression  conv-neural-network  convolution  classification  deep-learning  conv-neural-network  regression  categorical-data  econometrics  r  confirmatory-factor  scale-invariance  self-study  unbiased-estimator  mse  regression  residuals  sampling  random-variable  sample  probability  random-variable  convergence  r  survival  weibull  references  autocorrelation  hypothesis-testing  distributions  correlation  regression  statistical-significance  regression-coefficients  univariate  categorical-data  chi-squared  regression  machine-learning  multiple-regression  categorical-data  linear-model  pca  factor-analysis  factor-rotation  classification  scikit-learn  logistic  p-value  regression  panel-data  multilevel-analysis  variance  bootstrap  bias  probability  r  distributions  interquartile  time-series  hypothesis-testing  normal-distribution  normality-assumption  kurtosis  arima  panel-data  stata  clustered-standard-errors  machine-learning  optimization  lasso  multivariate-analysis  ancova  machine-learning  cross-validation 

7
행렬 열 사이의 선형 의존성 테스트
결정 요인이 0 인 보안 수익의 상관 관계 행렬이 있습니다. (이는 샘플 상관 행렬과 해당 공분산 행렬이 이론적으로 양의 명확한 값이어야하기 때문에 약간 놀라운 일입니다.) 내 가설은 적어도 하나의 보안이 다른 유가 증권에 선형 적으로 의존한다는 것입니다. R에 선형 의존성을 위해 각 열의 행렬을 순차적으로 테스트하는 함수가 있습니까? 예를 들어, …

2
일반 선형 모형과 일반 선형 모형 (식별 링크 기능이 있는가?)
이것은 첫 번째 게시물이므로 일부 표준을 따르지 않으면 쉽게 받아 들일 수 있습니다. 내 질문을 검색했는데 아무 것도 나타나지 않았습니다. 내 질문은 주로 일반 선형 모델링 (GLM)과 일반 선형 모델링 (GZLM)의 실제 차이점과 관련이 있습니다. 제 경우에는 공변량으로 몇 가지 연속 변수가 있고 GZLM에 비해 ANCOVA에서 몇 가지 요소가 있습니다. …

2
베이지안 올가미 및 일반 올가미
lasso에 대해 다른 구현 소프트웨어를 사용할 수 있습니다 . 다른 포럼에서 베이지안 접근 방식과 잦은 접근 방식에 대해 많이 논의했습니다. 내 질문은 올가미에 매우 구체적 입니다. 베이 시안 올가미와 일반 올가미의 차이점 또는 장점은 무엇입니까 ? 다음은 패키지 구현의 두 가지 예입니다. # just example data set.seed(1233) X <- scale(matrix(rnorm(30),ncol=3))[,] …

2
최소 제곱 법 회귀 단계별 선형 대수 계산
R의 선형 혼합 모델에 대한 질문에 대한 전편으로 초보자 / 중급 통계 애호가를위한 참고 자료로 공유하기 위해, 나는 "수동"계산에 관련된 단계를 독립적 인 "Q & A- 스타일"로 게시하기로 결정했습니다. 간단한 선형 회귀의 계수 및 예측 값. 예는 R 내장 데이터 세트를 사용하며 mtcars, 독립 변수 역할을하는 차량이 소비하는 갤런 당 …

3
동일하지 않은 분산을 사용한 회귀 모델링
잔차 분산이 설명 변수에 명확하게 의존하는 선형 모델 (lm)을 피팅하고 싶습니다. 이 작업을 수행하는 방법은 감마 패밀리와 함께 glm을 사용하여 분산을 모델링 한 다음 lm 함수의 가중치에 역수를 넣는 것입니다 (예 : http://nitro.biosci.arizona.edu/r/chapter31 .pdf ) 궁금했다 : 이것이 유일한 기술입니까? 어떤 다른 접근법이 관련되어 있습니까? 이 유형의 모델링과 관련된 R …

1
선형 모형으로 일반적인 통계 검정
(업데이트 : 나는 이것에 대해 더 깊이 빠져들고 결과를 여기에 게시했습니다 ) 명명 된 통계 테스트 목록은 엄청납니다. 많은 일반적인 테스트는 간단한 선형 모델의 추론에 의존합니다. 예를 들어 1- 표본 t- 테스트는 y = β + ε입니다. 이는 null 모델 y = μ + ε 에 대해 테스트됩니다. 즉, β …

5
선형 모형의 가정 및 잔차가 정규 분포가 아닌 경우 수행 할 작업
선형 회귀의 가정이 무엇인지 조금 혼란 스럽습니다. 지금까지 나는 여부를 확인했다. 모든 설명 변수는 응답 변수와 선형으로 상관됩니다. (이 경우였다) 설명 변수 사이에 공선 성이있었습니다. (공동성이 거의 없었습니다). 내 모델의 데이터 포인트의 Cook 거리가 1 미만입니다 (이 경우 모든 거리가 0.4 미만이므로 영향 지점이 없음). 잔차는 정규 분포입니다. (이것이 아닐 …

1
R에서 선형 모델의 새로운 입력 값을 어떻게 예측할 수 있습니까?
잠김 . 이 질문과 주제는 주제가 다르지만 역사적 의미가 있기 때문에이 질문과 답변은 잠겨 있습니다. 현재 새로운 답변이나 상호 작용을받지 않습니다. R에서 선형 모델을 만들었습니다 mod = lm(train_y ~ train_x). X 목록을 전달하고 예측 / 예상 / 예측 된 Y를 얻고 싶습니다. 나는을 보았지만 predict()다른 것을위한 것이라고 생각하거나 그것을 사용하는 …

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.