«overfitting» 태그된 질문

5
seaborn 히트 맵을 더 크게 만들기
corr()원본 df 에서 df를 만듭니다 . corr()DF는 70 X 70에서 나와는 히트 맵을 시각화하는 것은 불가능합니다 ... sns.heatmap(df). 를 표시하려고 corr = df.corr()하면 테이블이 화면에 맞지 않으며 모든 상관 관계를 볼 수 있습니다. df크기에 관계없이 전체를 인쇄 하거나 히트 맵의 크기를 제어하는 ​​방법입니까?
17 visualization  pandas  plotting  machine-learning  neural-network  svm  decision-trees  svm  efficiency  python  linear-regression  machine-learning  nlp  topic-model  lda  named-entity-recognition  naive-bayes-classifier  association-rules  fuzzy-logic  kaggle  deep-learning  tensorflow  inception  classification  feature-selection  feature-engineering  machine-learning  scikit-learn  tensorflow  keras  encoding  nlp  text-mining  nlp  rnn  python  neural-network  feature-extraction  machine-learning  predictive-modeling  python  r  linear-regression  clustering  r  ggplot2  neural-network  neural-network  training  python  neural-network  deep-learning  rnn  predictive-modeling  databases  sql  programming  distribution  dataset  cross-validation  neural-network  deep-learning  rnn  machine-learning  machine-learning  python  deep-learning  data-mining  tensorflow  visualization  tools  sql  embeddings  orange  feature-extraction  unsupervised-learning  gan  machine-learning  python  data-mining  pandas  machine-learning  data-mining  bigdata  apache-spark  apache-hadoop  deep-learning  python  convnet  keras  aggregation  clustering  k-means  r  random-forest  decision-trees  reference-request  visualization  data  pandas  plotting  neural-network  keras  rnn  theano  deep-learning  tensorflow  inception  predictive-modeling  deep-learning  regression  sentiment-analysis  nlp  encoding  deep-learning  python  scikit-learn  lda  convnet  keras  predictive-modeling  regression  overfitting  regression  svm  prediction  machine-learning  similarity  word2vec  information-retrieval  word-embeddings  neural-network  deep-learning  rnn 

2
유효성 검사 손실이 계속 떨어지더라도 과적 합이 발생할 수 있습니까?
나는 Keras에 컨볼 루션 + LSTM 모델을 가지고 있는데, 이것과 비슷한 (참조 1), 나는 Kaggle 콘테스트에 사용하고 있습니다. 아키텍처는 아래와 같습니다. 20 % 검증 분할로 50 에포크에 대해 레이블이 지정된 11000 샘플 세트 (두 클래스, 초기 유병률은 ~ 9 : 1이므로 1에서 약 1/1 비율로 업 샘플링했습니다)에 대해 학습했습니다. 한동안 …

4
모델이 과적 합을 시작한 것을 아는 방법은 무엇입니까?
다음 발췌문이 내 질문이 무엇인지에 대한 통찰력을 제공하기를 바랍니다. 이들은 http://neuralnetworksanddeeplearning.com/chap3.html 에서 온 것입니다. 학습은 점차 느려집니다. 마지막으로, 약 280 년경에 분류 정확도는 거의 개선되지 않습니다. 후기 신기원은 신기원 280에서 정확도 값 근처에서 작은 확률 론적 변동을 볼뿐입니다. 이전 데이터와 대조적으로 훈련 데이터와 관련된 비용이 계속해서 하락합니다. 우리가 그 비용을 …

2
표본 외 데이터 과적 합에 대해 100 % 모델 정확도가 있습니까?
cognitiveclass.ai에서 R 과정에 대한 기계 학습을 마쳤으며 randomforests를 실험하기 시작했습니다. R의 "randomForest"라이브러리를 사용하여 모델을 만들었습니다.이 모델은 좋거나 나쁜 두 클래스로 분류됩니다. 모델이 과적 합되면 자체 훈련 세트의 데이터에서는 잘 수행되지만 샘플에서 벗어난 데이터에서는 제대로 수행되지 않습니다. 내 모델을 훈련하고 테스트하기 위해 전체 데이터 세트를 섞어서 훈련 용 70 %와 테스트 …
당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.