«spss» 태그된 질문

SPSS는 통계 소프트웨어 패키지입니다. (a) SPSS를 질문의 중요한 부분 또는 예상 답변으로 포함하고 (b) SPSS를 사용하는 방법에 관한 것이 아닌 주제별 질문에이 태그를 사용하십시오.

25
통계 워크 벤치로서의 파이썬
많은 사람들이 통계 요구에 Excel 또는 다른 스프레드 시트, SPSS, Stata 또는 R과 같은 기본 도구를 사용합니다. 매우 특별한 요구를 위해 특정 패키지로 전환 할 수 있지만 간단한 스프레드 시트 또는 일반 통계 패키지 또는 통계 프로그래밍 환경을 사용하여 많은 작업을 수행 할 수 있습니다. 저는 항상 파이썬을 프로그래밍 언어로 …
355 r  spss  stata  python 

3
예 : 이진 결과에 glmnet을 사용하는 LASSO 회귀
관심있는 결과가 이분법 인 LASSO Regressionglmnet 과 함께 사용하기 시작했습니다 . 아래에 작은 모의 데이터 프레임을 만들었습니다. age <- c(4, 8, 7, 12, 6, 9, 10, 14, 7) gender <- c(1, 0, 1, 1, 1, 0, 1, 0, 0) bmi_p <- c(0.86, 0.45, 0.99, 0.84, 0.85, 0.67, 0.91, 0.29, 0.88) …
77 r  self-study  lasso  regression  interpretation  anova  statistical-significance  survey  conditional-probability  independence  naive-bayes  graphical-model  r  time-series  forecasting  arima  r  forecasting  exponential-smoothing  bootstrap  outliers  r  regression  poisson-distribution  zero-inflation  genetic-algorithms  machine-learning  feature-selection  cart  categorical-data  interpretation  descriptive-statistics  variance  multivariate-analysis  covariance-matrix  r  data-visualization  generalized-linear-model  binomial  proportion  pca  matlab  svd  time-series  correlation  spss  arima  chi-squared  curve-fitting  text-mining  zipf  probability  categorical-data  distance  group-differences  bhattacharyya  regression  variance  mean  data-visualization  variance  clustering  r  standard-error  association-measure  somers-d  normal-distribution  integral  numerical-integration  bayesian  clustering  python  pymc  nonparametric-bayes  machine-learning  svm  kernel-trick  hyperparameter  poisson-distribution  mean  continuous-data  univariate  missing-data  dag  python  likelihood  dirichlet-distribution  r  anova  hypothesis-testing  statistical-significance  p-value  rating  data-imputation  censoring  threshold 

3
R 제곱은 언제 음수입니까?
내 이해는 가 의 제곱이므로 음수가 될 수 없다는 것을 알고 있습니다. 그러나 SPSS에서 단일 독립 변수와 종속 변수를 사용하여 간단한 선형 회귀를 실행했습니다. 내 SPSS 출력은 대해 음수 값을 제공합니다 . R에서 직접 손으로 계산한다면 는 양수입니다. SPSS가 이것을 부정으로 계산하기 위해 무엇을 했습니까?R 2 R 2아르 자형2아르 자형2R^2아르 …

8
PCA 다음에 회전 (varimax 등)이 여전히 PCA입니까?
나는 내 경험에 R.에서 SPSS에서 (PCA를 사용하여) 몇 가지 조사를 재현하려 한 principal() 기능 패키지는 psych듯했으나, 유일한 기능이었다 (또는 내 기억이 바로 내를 제공하는 경우에 죽은) 출력에 맞게. SPSS에서와 동일한 결과를 얻으려면 parameter를 사용해야했습니다 principal(..., rotate = "varimax"). 나는 논문이 PCA를 어떻게 수행했는지에 대해 이야기하는 것을 보았지만 SPSS의 출력과 회전 …


3
로그 변환 예측 변수 및 / 또는 응답의 해석
종속 변수, 종속 변수 및 독립 변수 또는 독립 변수 만 로그 변환인지 해석에 차이가 있는지 궁금합니다. 의 경우를 고려 log(DV) = Intercept + B1*IV + Error IV를 백분율 증가로 해석 할 수 있지만 log(DV) = Intercept + B1*log(IV) + Error 또는 내가있을 때 DV = Intercept + B1*log(IV) + …
46 regression  data-transformation  interpretation  regression-coefficients  logarithm  r  dataset  stata  hypothesis-testing  contingency-tables  hypothesis-testing  statistical-significance  standard-deviation  unbiased-estimator  t-distribution  r  functional-data-analysis  maximum-likelihood  bootstrap  regression  change-point  regression  sas  hypothesis-testing  bayesian  randomness  predictive-models  nonparametric  terminology  parametric  correlation  effect-size  loess  mean  pdf  quantile-function  bioinformatics  regression  terminology  r-squared  pdf  maximum  multivariate-analysis  references  data-visualization  r  pca  r  mixed-model  lme4-nlme  distributions  probability  bayesian  prior  anova  chi-squared  binomial  generalized-linear-model  anova  repeated-measures  t-test  post-hoc  clustering  variance  probability  hypothesis-testing  references  binomial  profile-likelihood  self-study  excel  data-transformation  skewness  distributions  statistical-significance  econometrics  spatial  r  regression  anova  spss  linear-model 

3
로지스틱 회귀 95 % 신뢰 구간을 수동으로 계산하는 것과 R에서 confint () 함수를 사용하는 것 사이에 차이가있는 이유는 무엇입니까?
사랑하는 여러분, 제가 설명 할 수없는 이상한 것을 발견했습니다. 요약 : 로지스틱 회귀 모델에서 신뢰 구간을 계산하는 수동 방법과 R 함수 confint()는 다른 결과를 제공합니다. Hosmer & Lemeshow의 Applied Logistic Regression (2 판)을 진행했습니다. 세 번째 장에는 승산 비와 95 % 신뢰 구간을 계산하는 예가 있습니다. R을 사용하면 모델을 쉽게 …
34 r  regression  logistic  confidence-interval  profile-likelihood  correlation  mcmc  error  mixture  measurement  data-augmentation  r  logistic  goodness-of-fit  r  time-series  exponential  descriptive-statistics  average  expected-value  data-visualization  anova  teaching  hypothesis-testing  multivariate-analysis  r  r  mixed-model  clustering  categorical-data  unsupervised-learning  r  logistic  anova  binomial  estimation  variance  expected-value  r  r  anova  mixed-model  multiple-comparisons  repeated-measures  project-management  r  poisson-distribution  control-chart  project-management  regression  residuals  r  distributions  data-visualization  r  unbiased-estimator  kurtosis  expected-value  regression  spss  meta-analysis  r  censoring  regression  classification  data-mining  mixture 

5
머신 러닝에서 계층 적 / 중첩 된 데이터를 처리하는 방법
예를 들어 내 문제를 설명하겠습니다. {나이, 성별, 국가, 지역, 도시}와 같은 속성이 주어진 개인의 소득을 예측한다고 가정합니다. 당신은 이와 같은 훈련 데이터 세트를 가지고 있습니다 train <- data.frame(CountryID=c(1,1,1,1, 2,2,2,2, 3,3,3,3), RegionID=c(1,1,1,2, 3,3,4,4, 5,5,5,5), CityID=c(1,1,2,3, 4,5,6,6, 7,7,7,8), Age=c(23,48,62,63, 25,41,45,19, 37,41,31,50), Gender=factor(c("M","F","M","F", "M","F","M","F", "F","F","F","M")), Income=c(31,42,71,65, 50,51,101,38, 47,50,55,23)) train CountryID RegionID CityID Age …
29 regression  machine-learning  multilevel-analysis  correlation  dataset  spatial  paired-comparisons  cross-correlation  clustering  aic  bic  dependent-variable  k-means  mean  standard-error  measurement-error  errors-in-variables  regression  multiple-regression  pca  linear-model  dimensionality-reduction  machine-learning  neural-networks  deep-learning  conv-neural-network  computer-vision  clustering  spss  r  weighted-data  wilcoxon-signed-rank  bayesian  hierarchical-bayesian  bugs  stan  distributions  categorical-data  variance  ecology  r  survival  regression  r-squared  descriptive-statistics  cross-section  maximum-likelihood  factor-analysis  likert  r  multiple-imputation  propensity-scores  distributions  t-test  logit  probit  z-test  confidence-interval  poisson-distribution  deep-learning  conv-neural-network  residual-networks  r  survey  wilcoxon-mann-whitney  ranking  kruskal-wallis  bias  loss-functions  frequentist  decision-theory  risk  machine-learning  distributions  normal-distribution  multivariate-analysis  inference  dataset  factor-analysis  survey  multilevel-analysis  clinical-trials 

1
요인 분석에서 최상의 요인 추출 방법
SPSS는 여러 가지 요인 추출 방법을 제공합니다. 주요 구성 요소 (요인 분석이 아님) 비가 중 최소 제곱 일반화 된 최소 제곱 최대 가능성 주축 알파 팩토링 이미지 팩토링 요인 분석 (주요 성분 분석, PCA)이 아닌 첫 번째 방법을 무시합니다.이 중 어떤 방법이 가장 적합합니까? 다른 방법의 상대적인 장점은 무엇입니까? 그리고 …


4
2x2보다 큰 우발 상황 테이블에서 Fisher의 정확한 테스트
피셔의 정확한 테스트를 2x2 인 비상 대표에만 적용하도록 배웠습니다. 질문 : Fisher 자신도이 테스트를 2x2보다 큰 테이블에서 사용하도록 구상 했습니까? ( 노인이 차에 차 를 넣었 는지, 차에 차 를 넣었 는지 여부를 알 수있을 때 시험을 고안하는 이야기를 알고 있습니다. ) Stata를 사용하면 Fisher의 정확한 테스트를 모든 우발 상황 …

1
lmer 모델의 효과 반복 계산
방금 혼합 효과 모델링을 통해 측정의 반복성 (일명 신뢰성, 일명 클래스 내 상관 관계)을 계산하는 방법을 설명하는 이 문서를 보았습니다. R 코드는 다음과 같습니다. #fit the model fit = lmer(dv~(1|unit),data=my_data) #obtain the variance estimates vc = VarCorr(fit) residual_var = attr(vc,'sc')^2 intercept_var = attr(vc$id,'stddev')[1]^2 #compute the unadjusted repeatability R = intercept_var/(intercept_var+residual_var) …
28 mixed-model  reliability  intraclass-correlation  repeatability  spss  factor-analysis  survey  modeling  cross-validation  error  curve-fitting  mediation  correlation  clustering  sampling  machine-learning  probability  classification  metric  r  project-management  optimization  svm  python  dataset  quality-control  checking  clustering  distributions  anova  factor-analysis  exponential  poisson-distribution  generalized-linear-model  deviance  machine-learning  k-nearest-neighbour  r  hypothesis-testing  t-test  r  variance  levenes-test  bayesian  software  bayesian-network  regression  repeated-measures  least-squares  change-scores  variance  chi-squared  variance  nonlinear-regression  regression-coefficients  multiple-comparisons  p-value  r  statistical-significance  excel  sampling  sample  r  distributions  interpretation  goodness-of-fit  normality-assumption  probability  self-study  distributions  references  theory  time-series  clustering  econometrics  binomial  hypothesis-testing  variance  t-test  paired-comparisons  statistical-significance  ab-test  r  references  hypothesis-testing  t-test  normality-assumption  wilcoxon-mann-whitney  central-limit-theorem  t-test  data-visualization  interactive-visualization  goodness-of-fit 

4
이항, 음성 이항 및 포아송 회귀의 차이점
이항, 음 이항 및 포아송 회귀의 차이점과 이러한 회귀가 가장 적합한 상황에 대한 정보를 찾고 있습니다. SPSS에서 수행 할 수있는 테스트 중 어떤 상황이 내 상황에 가장 적합한 지 알려주는 테스트가 있습니까? 또한 회귀 부분에서 볼 수있는 것과 같은 옵션이 없으므로 SPSS에서 포아송 또는 음 이항을 어떻게 실행합니까? 유용한 링크가 …

2
CHAID vs CRT (또는 CART)
약 20 개의 예측 변수가있는 데이터 세트 (몇 가지 범주로 범주화 된)에서 SPSS 를 사용하여 의사 결정 트리 분류를 실행하고 있습니다. CHAID (Chi-squared Automatic Interaction Detection)와 CRT / CART (Classification and Regression Trees)는 다른 트리를 제공합니다. 누구나 CHAID와 CRT의 상대적인 장점을 설명 할 수 있습니까? 한 방법을 다른 방법으로 사용하면 …
23 spss  cart 

2
시계열을 클러스터링하는 방법?
클러스터 분석에 대한 질문이 있습니다. 5 년 동안 전력 사용량에 따라 클러스터링해야하는 3000 개의 회사가 있습니다. 각 회사는 5 년 동안 1 시간마다 값을 갖습니다. 일부 회사에서 일정 기간 동안 동일한 사용 전력 패턴을 갖고 있는지 확인하고 싶습니다. 결과는 전력 사용량을 매일 예측하는 데 사용해야합니다. SPSS에서 시계열을 클러스터링하는 방법에 대한 …

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.