«unsupervised-learning» 태그된 질문

1
xgboost가 GradientBoostingClassifier를 sklearn보다 훨씬 빠른 이유는 무엇입니까?
100 개의 숫자 기능을 가진 50k 개 이상의 그라디언트 부스팅 모델을 훈련하려고합니다. XGBClassifier동안 내 컴퓨터 43 초 이내에 핸들 (500) 나무, GradientBoostingClassifier핸들 10 나무 (!) 일분 2 초 :( 내가 귀찮게하지 않았다에서 그것은 시간이 걸릴 것으로 500 그루의 나무를 성장하려고합니다. 나는 같은 사용하고 있습니다 learning_rate및 max_depth설정 아래를 참조하십시오. XGBoost를 훨씬 …
29 scikit-learn  xgboost  gbm  data-mining  classification  data-cleaning  machine-learning  reinforcement-learning  data-mining  bigdata  dataset  nlp  language-model  stanford-nlp  machine-learning  neural-network  deep-learning  randomized-algorithms  machine-learning  beginner  career  xgboost  loss-function  neural-network  software-recommendation  naive-bayes-classifier  classification  scikit-learn  feature-selection  r  random-forest  cross-validation  data-mining  python  scikit-learn  random-forest  churn  python  clustering  k-means  machine-learning  nlp  sentiment-analysis  machine-learning  programming  python  scikit-learn  nltk  gensim  visualization  data  csv  neural-network  deep-learning  descriptive-statistics  machine-learning  supervised-learning  text-mining  orange  data  parameter-estimation  python  pandas  scraping  r  clustering  k-means  unsupervised-learning 


5
seaborn 히트 맵을 더 크게 만들기
corr()원본 df 에서 df를 만듭니다 . corr()DF는 70 X 70에서 나와는 히트 맵을 시각화하는 것은 불가능합니다 ... sns.heatmap(df). 를 표시하려고 corr = df.corr()하면 테이블이 화면에 맞지 않으며 모든 상관 관계를 볼 수 있습니다. df크기에 관계없이 전체를 인쇄 하거나 히트 맵의 크기를 제어하는 ​​방법입니까?
17 visualization  pandas  plotting  machine-learning  neural-network  svm  decision-trees  svm  efficiency  python  linear-regression  machine-learning  nlp  topic-model  lda  named-entity-recognition  naive-bayes-classifier  association-rules  fuzzy-logic  kaggle  deep-learning  tensorflow  inception  classification  feature-selection  feature-engineering  machine-learning  scikit-learn  tensorflow  keras  encoding  nlp  text-mining  nlp  rnn  python  neural-network  feature-extraction  machine-learning  predictive-modeling  python  r  linear-regression  clustering  r  ggplot2  neural-network  neural-network  training  python  neural-network  deep-learning  rnn  predictive-modeling  databases  sql  programming  distribution  dataset  cross-validation  neural-network  deep-learning  rnn  machine-learning  machine-learning  python  deep-learning  data-mining  tensorflow  visualization  tools  sql  embeddings  orange  feature-extraction  unsupervised-learning  gan  machine-learning  python  data-mining  pandas  machine-learning  data-mining  bigdata  apache-spark  apache-hadoop  deep-learning  python  convnet  keras  aggregation  clustering  k-means  r  random-forest  decision-trees  reference-request  visualization  data  pandas  plotting  neural-network  keras  rnn  theano  deep-learning  tensorflow  inception  predictive-modeling  deep-learning  regression  sentiment-analysis  nlp  encoding  deep-learning  python  scikit-learn  lda  convnet  keras  predictive-modeling  regression  overfitting  regression  svm  prediction  machine-learning  similarity  word2vec  information-retrieval  word-embeddings  neural-network  deep-learning  rnn 

2
Support Vector Machine에 적합한 학습 문제는 무엇입니까?
서포트 벡터 머신을 사용하여 특정 학습 문제를 해결할 수 있음을 나타내는 특징 또는 특성은 무엇입니까? 다시 말해서, 학습 문제를 볼 때 신경망이나 의사 결정 트리 또는 그 밖의 어떤 것보다 "오, 나는 이것을 위해 반드시 SVM을 사용해야한다"고하는 것은 무엇입니까?

3
RBM (제한된 볼츠만 기계)의 직관
코스 라에서 Geoff Hinton의 신경망 과정을 밟았고 제한된 boltzmann 기계 를 소개했지만 RBM 의 직관을 이해하지 못했습니다. 이 기계에서 에너지를 계산해야하는 이유는 무엇입니까? 이 기계에서 확률의 사용은 무엇입니까? 나는 또한이 비디오를 보았다 . 비디오에서 그는 계산 단계 전에 확률과 에너지 방정식을 작성했지만 어디에서나 사용하지 않는 것으로 보입니다. 위의 내용에 덧붙여서 …

4
보이지 않는 단어를 식별하고 이미 훈련 된 데이터와 연관시키기 위해 word2vec를 사용하는 방법
나는 word2vec gensim 모델을 작업하고 있었고 정말 흥미 롭습니다. 모델을 확인할 때 알 수없는 / 보이지 않는 단어가 훈련 된 모델에서 유사한 용어를 얻을 수있는 방법을 찾는 데 흥미가 있습니다. 이게 가능해? word2vec를 조정할 수 있습니까? 또는 훈련 말뭉치에는 내가 비슷한 것을 찾고 싶은 모든 단어가 있어야합니다.

3
이미지에서 감독되지 않은 기능 추출에 GAN을 사용하는 방법은 무엇입니까?
두 네트워크 (생성 및 차별적)가 서로 경쟁하는 동안 GAN의 작동 방식을 이해했습니다. 나는 MNIST 데이터 세트와 유사한 자필 숫자를 성공적으로 생성하는 DCGAN (컨볼 루션 판별 기 및 디볼 루션 생성기가있는 GAN)을 만들었습니다. 이미지에서 기능을 추출하기위한 GAN의 애플리케이션에 대해 많이 읽었습니다. 훈련 된 GAN 모델 (MNIST 데이터 세트)을 사용하여 MNIST 필기 …

2
CNN을 자동 인코더로 훈련시키는 것이 합리적입니까?
EEG 데이터를 분석하는 작업을하며 결국 분류해야합니다. 그러나, 기록을위한 라벨을 얻는 것은 다소 비싸서, 상당히 많은 양의 라벨링되지 않은 데이터를 더 잘 활용하기 위해 감독되지 않은 접근법을 고려하게되었습니다. 이것은 자연스럽게 쌓인 자동 엔코더를 고려하게하는 좋은 아이디어입니다. 그러나 어떤 종류의 필터링은 일반적으로 EEG에 매우 유용한 접근법이며, 고려 된 에포크 (epoch)는 전체적으로가 아니라 …
당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.