«python» 태그된 질문

파이썬은 기계 학습에 일반적으로 사용되는 프로그래밍 언어입니다. (a) 'Python'이 질문의 중요한 부분 또는 예상 답변으로 포함되어 있고 (b) 'Python'사용법에 대해 * 일부 *가 아닌 * on-topic * 질문에이 태그를 사용하십시오.


2
로지스틱 회귀 : Scikit Learn 및 Statsmodels
이 두 라이브러리의 로지스틱 회귀 출력에서 ​​다른 결과를 얻는 이유를 이해하려고합니다. 나는 idre UCLA에서 데이터 세트 사용하고 자습서를 예측, admit기반 gre, gpa그리고 rank. rank는 범주 형 변수로 취급되므로 먼저 rank_1삭제 된 더미 변수로 변환됩니다 . 절편 열도 추가됩니다. df = pd.read_csv("https://stats.idre.ucla.edu/stat/data/binary.csv") y, X = dmatrices('admit ~ gre + gpa + …

3
PCA를 능가하기 위해 Tensorflow에서 자동 인코더 구축
신경망으로 데이터의 차원을 줄이는 데있어 Hinton과 Salakhutdinov는 과학 2006 은 딥 오토 인코더를 사용하여 비선형 PCA를 제안했습니다. Tensorflow를 사용하여 PCA 자동 인코더를 빌드하고 훈련하려고 시도했지만 선형 PCA보다 더 나은 결과를 얻을 수 없었습니다. 자동 인코더를 효율적으로 훈련시킬 수있는 방법은 무엇입니까? (@amoeba의 나중에 편집 :이 질문의 원래 버전에는 올바르게 작동하지 않는 …

2
libsvm 데이터 형식 [닫힘]
지원 벡터 분류를 위해 libsvm ( http://www.csie.ntu.edu.tw/~cjlin/libsvm/ ) 도구를 사용하고 있습니다. 그러나 입력 데이터의 형식이 혼란 스럽습니다. 읽어보기에서 : 교육 및 테스트 데이터 파일의 형식은 다음과 같습니다. <label> <index1>:<value1> <index2>:<value2> ... . . . 각 줄은 인스턴스를 포함하며 '\ n'문자로 끝납니다. 분류의 <label>경우 클래스 레이블을 나타내는 정수입니다 (다중 클래스 지원). …

7
검증 정확도가 왜 변동합니까?
MRI 데이터를 사용하여 암에 대한 반응을 예측하는 4 계층 CNN이 있습니다. ReLU 활성화를 사용하여 비선형 성을 도입합니다. 열차 정확도와 손실은 각각 단조 증가하고 감소합니다. 그러나 테스트 정확도가 크게 변동하기 시작합니다. 학습 속도를 변경하려고 시도하고 레이어 수를 줄였습니다. 그러나 변동을 멈추지 않습니다. 나는이 답변을 읽고 그 답변의 지시를 따르려고했지만 다시 운이 …


1
sklearn의 분류 보고서에서 숫자는 무엇을 의미합니까?
sklearn의 sklearn.metrics.classification_report 문서에서 가져온 예가 아래에 있습니다. 내가 이해하지 못하는 것은 클래스가 예측 변수라고 생각되는 각 클래스에 대해 f1 점수, 정밀도 및 리콜 값이있는 이유입니다. f1 점수는 모델의 전체 정확도를 나타냅니다. 또한 지원란에서 무엇을 알려줍니까? 나는 그것에 관한 정보를 찾을 수 없었다. print(classification_report(y_true, y_pred, target_names=target_names)) precision recall f1-score support class …

1
lmer 모델의 효과 반복 계산
방금 혼합 효과 모델링을 통해 측정의 반복성 (일명 신뢰성, 일명 클래스 내 상관 관계)을 계산하는 방법을 설명하는 이 문서를 보았습니다. R 코드는 다음과 같습니다. #fit the model fit = lmer(dv~(1|unit),data=my_data) #obtain the variance estimates vc = VarCorr(fit) residual_var = attr(vc,'sc')^2 intercept_var = attr(vc$id,'stddev')[1]^2 #compute the unadjusted repeatability R = intercept_var/(intercept_var+residual_var) …
28 mixed-model  reliability  intraclass-correlation  repeatability  spss  factor-analysis  survey  modeling  cross-validation  error  curve-fitting  mediation  correlation  clustering  sampling  machine-learning  probability  classification  metric  r  project-management  optimization  svm  python  dataset  quality-control  checking  clustering  distributions  anova  factor-analysis  exponential  poisson-distribution  generalized-linear-model  deviance  machine-learning  k-nearest-neighbour  r  hypothesis-testing  t-test  r  variance  levenes-test  bayesian  software  bayesian-network  regression  repeated-measures  least-squares  change-scores  variance  chi-squared  variance  nonlinear-regression  regression-coefficients  multiple-comparisons  p-value  r  statistical-significance  excel  sampling  sample  r  distributions  interpretation  goodness-of-fit  normality-assumption  probability  self-study  distributions  references  theory  time-series  clustering  econometrics  binomial  hypothesis-testing  variance  t-test  paired-comparisons  statistical-significance  ab-test  r  references  hypothesis-testing  t-test  normality-assumption  wilcoxon-mann-whitney  central-limit-theorem  t-test  data-visualization  interactive-visualization  goodness-of-fit 

2
Python의 scikit-learn LDA가 올바르게 작동하지 않는 이유는 무엇이며 SVD를 통해 LDA를 어떻게 계산합니까?
scikit-learn차원 축소를 위해 기계 학습 라이브러리 (Python) 의 선형 판별 분석 (LDA)을 사용 하고 있었으며 결과에 대해 약간 궁금했습니다. LDA가 무엇을하고 있는지 궁금해서 scikit-learn결과가 예를 들어 수동 접근이나 R에서 수행 된 LDA와 다르게 보일 수 있습니다. 기본적으로 가장 중요한 scikit-plot것은 상관 관계가 있어야하는 두 변수 간의 상관 관계를 보여줍니다. 테스트를 …

5
변경점 분석을위한 Python 모듈
시계열에서 변경점 분석을 수행하는 Python 모듈을 찾고 있습니다. 여러 가지 알고리즘이 있으며 각 알고리즘을 수동으로 롤링하지 않고도 일부 알고리즘의 효능을 탐색하고 싶습니다. 이상적으로는 bcp (Bayesian Change Point) 또는 R의 strucchange 패키지 와 같은 일부 모듈을 원합니다. Scipy 에서 일부를 찾을 것으로 예상했지만 아무것도 만들 수 없었습니다. 다음 시설에 시설이없는 것이 …

1
케 라스, SGD 학습률은 어떻게 작동합니까?
설명서 http://keras.io/optimizers/ 를 보면 SGD에 부패에 대한 매개 변수가 있습니다. 이것이 시간이 지남에 따라 학습 속도가 감소한다는 것을 알고 있습니다. 그러나 정확히 어떻게 작동하는지 알 수 없습니다. lr = lr * (1 - decay) 지수 등의 학습률을 곱한 값 입니까? 또한 모델에서 사용중인 학습 속도를 어떻게 확인할 수 있습니까? model.optimizer.lr.get_value()몇 …

2
Scikit-learn의 평균 절대 백분율 오차 (MAPE) [닫기]
닫은. 이 질문은 주제에 맞지 않습니다 . 현재 답변을받지 않습니다. 이 질문을 개선하고 싶습니까? 교차 검증에 대한 주제가 되도록 질문을 업데이트하십시오 . 휴일 2 년 전 . Python과 scikit-learn을 사용하여 예측의 평균 절대 백분율 오차 (MAPE)를 어떻게 계산할 수 있습니까? 에서 워드 프로세서 , 우리는 회귀 만이 4 개 미터 …

5
사인파를 예측하는 데 신경망을 개선하려면 어떻게해야합니까?
여기, 보라 : 당신은 정확히 학습 데이터의 끝을 볼 수 있습니다. 훈련 데이터는 에서 로갑니다 .−1−1-1111 나는 tanh 활성화와 함께 Keras와 1-100-100-2 밀도 네트워크를 사용했습니다. p와 q의 두 값 p에서 q의 결과를 계산합니다. 이렇게하면 1 값보다 작은 값만 사용하여 모든 크기의 숫자를 얻을 수 있습니다. 나는 여전히이 분야의 초보자이므로 참고하십시오.

2
numpy 및 sklearn의 PCA는 다른 결과를 생성합니다
내가 뭔가를 오해하고 있습니까? 이것은 내 코드입니다 sklearn을 사용하여 import numpy as np import matplotlib.pyplot as plt from mpl_toolkits.mplot3d import Axes3D from sklearn import decomposition from sklearn import datasets from sklearn.preprocessing import StandardScaler pca = decomposition.PCA(n_components=3) x = np.array([ [0.387,4878, 5.42], [0.723,12104,5.25], [1,12756,5.52], [1.524,6787,3.94], ]) pca.fit_transform(x) 산출: array([[ -4.25324997e+03, -8.41288672e-01, …

4
PCA 공간에 새로운 벡터를 투영하는 방법?
주성분 분석 (PCA)을 수행 한 후 PCA 공간에 새 벡터를 투영하려고합니다 (즉, PCA 좌표계에서 해당 좌표를 찾습니다). 를 사용하여 R 언어로 PCA를 계산했습니다 prcomp. 이제 내 벡터에 PCA 회전 행렬을 곱할 수 있어야합니다. 이 매트릭스의 주요 구성 요소를 행 또는 열로 배열해야합니까?
21 r  pca  r  variance  heteroscedasticity  misspecification  distributions  time-series  data-visualization  modeling  histogram  kolmogorov-smirnov  negative-binomial  likelihood-ratio  econometrics  panel-data  categorical-data  scales  survey  distributions  pdf  histogram  correlation  algorithms  r  gpu  parallel-computing  approximation  mean  median  references  sample-size  normality-assumption  central-limit-theorem  rule-of-thumb  confidence-interval  estimation  mixed-model  psychometrics  random-effects-model  hypothesis-testing  sample-size  dataset  large-data  regression  standard-deviation  variance  approximation  hypothesis-testing  variance  central-limit-theorem  kernel-trick  kernel-smoothing  error  sampling  hypothesis-testing  normality-assumption  philosophical  confidence-interval  modeling  model-selection  experiment-design  hypothesis-testing  statistical-significance  power  asymptotics  information-retrieval  anova  multiple-comparisons  ancova  classification  clustering  factor-analysis  psychometrics  r  sampling  expectation-maximization  markov-process  r  data-visualization  correlation  regression  statistical-significance  degrees-of-freedom  experiment-design  r  regression  curve-fitting  change-point  loess  machine-learning  classification  self-study  monte-carlo  markov-process  references  mathematical-statistics  data-visualization  python  cart  boosting  regression  classification  robust  cart  survey  binomial  psychometrics  likert  psychology  asymptotics  multinomial 

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.