«rnn» 태그된 질문

RNN (Recurrent Neural Network)은 단위 간의 연결이 방향성주기를 형성하는 인공 신경망의 한 종류입니다.

5
ARIMA vs LSTM을 사용한 시계열 예측
내가 다루고있는 문제는 시계열 값을 예측하는 것입니다. 한 번에 하나의 시계열을보고 있으며 입력 데이터의 15 %를 기준으로 미래 값을 예측하고 싶습니다. 지금까지 나는 두 가지 모델을 보았습니다. LSTM (장기 단기 기억, 반복 신경망의 클래스) 아리마 나는 둘 다 시도하고 그들에 대한 기사를 읽었습니다. 이제 두 가지를 비교하는 방법에 대해 더 …

2
Keras에서 다른 길이의 예제를 사용하여 RNN 교육
RNN에 대해 배우려고 노력 중이며 Keras를 사용하고 있습니다. 바닐라 RNN 및 LSTM 레이어의 기본 전제를 ​​이해하고 있지만 교육을위한 특정 기술 요점을 이해하는 데 어려움을 겪고 있습니다. 에서 keras 문서 , 그것은 RNN 층에 입력이 모양이 있어야합니다 말한다 (batch_size, timesteps, input_dim). 이것은 모든 훈련 예제가 고정 된 시퀀스 길이, 즉timesteps . …
60 python  keras  rnn  training 

3
LSTM 모델의 매개 변수 수
단일 스택 LSTM에는 몇 개의 매개 변수가 있습니까? 파라미터 수는 필요한 훈련 예의 수에 하한을 부과 하고 훈련 시간에도 영향을 미칩니다. 따라서 매개 변수의 수를 아는 것은 LSTM을 사용한 모델 훈련에 유용합니다.

1
논문 : Layer Normalization, Recurrent Batch Normalization (2016), Batch Normalized RNN (2015)의 차이점은 무엇입니까?
최근에는 레이어 정규화 용지가 있습니다. Keras 에도 구현되어 있습니다 . 그러나 Recurrent Batch Normalization (Cooijmans, 2016) 및 Batch Normalized Recurrent Neural Networks (Laurent, 2015) 라는 제목의 논문이 있습니다 . 이 세 가지의 차이점은 무엇입니까? 이해가 안되는 관련 작업 섹션이 있습니다. 배치 정규화는 이전에 반복적 인 신경망으로 확장되었다 [Laurent et al., …

4
“LSTM 셀의 단위 수”의 의미는 무엇입니까?
Tensorflow 코드에서 : Tensorflow. RnnCell. num_units: int, The number of units in the LSTM cell. 이것이 무엇을 의미하는지 이해할 수 없습니다. LSTM 셀의 단위는 무엇입니까? 입력, 출력 및 게이트를 잊습니까? 이것은 "Deep LSTM에 대한 반복 투영 레이어의 단위 수"를 의미합니다. 그렇다면 왜 이것을 "LSTM 셀의 유닛 수"라고합니까? LSTM 셀이란 무엇이고 …

5
seaborn 히트 맵을 더 크게 만들기
corr()원본 df 에서 df를 만듭니다 . corr()DF는 70 X 70에서 나와는 히트 맵을 시각화하는 것은 불가능합니다 ... sns.heatmap(df). 를 표시하려고 corr = df.corr()하면 테이블이 화면에 맞지 않으며 모든 상관 관계를 볼 수 있습니다. df크기에 관계없이 전체를 인쇄 하거나 히트 맵의 크기를 제어하는 ​​방법입니까?
17 visualization  pandas  plotting  machine-learning  neural-network  svm  decision-trees  svm  efficiency  python  linear-regression  machine-learning  nlp  topic-model  lda  named-entity-recognition  naive-bayes-classifier  association-rules  fuzzy-logic  kaggle  deep-learning  tensorflow  inception  classification  feature-selection  feature-engineering  machine-learning  scikit-learn  tensorflow  keras  encoding  nlp  text-mining  nlp  rnn  python  neural-network  feature-extraction  machine-learning  predictive-modeling  python  r  linear-regression  clustering  r  ggplot2  neural-network  neural-network  training  python  neural-network  deep-learning  rnn  predictive-modeling  databases  sql  programming  distribution  dataset  cross-validation  neural-network  deep-learning  rnn  machine-learning  machine-learning  python  deep-learning  data-mining  tensorflow  visualization  tools  sql  embeddings  orange  feature-extraction  unsupervised-learning  gan  machine-learning  python  data-mining  pandas  machine-learning  data-mining  bigdata  apache-spark  apache-hadoop  deep-learning  python  convnet  keras  aggregation  clustering  k-means  r  random-forest  decision-trees  reference-request  visualization  data  pandas  plotting  neural-network  keras  rnn  theano  deep-learning  tensorflow  inception  predictive-modeling  deep-learning  regression  sentiment-analysis  nlp  encoding  deep-learning  python  scikit-learn  lda  convnet  keras  predictive-modeling  regression  overfitting  regression  svm  prediction  machine-learning  similarity  word2vec  information-retrieval  word-embeddings  neural-network  deep-learning  rnn 

3
단어 기반 및 문자 기반 텍스트 생성 RNN의 차이점은 무엇입니까?
Recurrent Neural Networks로 텍스트 생성에 대해 읽는 동안 실제로 단어를 말하지 않고 문자별로 단어 를 생성 하고 문자별로 문자 를 생성하기 위해 일부 예가 구현되었음을 알았습니다 . 그래서, 텍스트를 예측 RNN 모델 사이의 차이가 무엇 단어 당 기준 및 텍스트 예측 사람 당 문자 근거는? 단어 기반 RNN이 더 큰 …

1
다중 시계열을 사용하는 RNN
각 시리즈의 유형에 따라 훈련하기 위해 시계열을 입력으로 사용하여 신경망을 만들려고합니다. RNN을 사용하면 입력을 배치로 나누고 시계열의 모든 지점을 개별 뉴런으로 사용하여 결국 네트워크를 훈련시킬 수 있다는 것을 읽었습니다. 그래도 내가하려고하는 것은 다중 시계열을 입력으로 사용하는 것입니다. 예를 들어 두 개의 센서에서 입력을받을 수 있습니다. (그래서 두 시계열), 나는 최종 …
14 time-series  rnn 

1
RNN (Recurrent Neural Network)에서 계층을 잊어 버림-
forget 레이어에서 RNN의 각 변수의 크기를 알아 내려고 노력하고 있지만 올바른 길을 가고 있는지 확실하지 않습니다. 다음 그림과 방정식은 Colah의 블로그 게시물 "LSTM 네트워크 이해"에 있습니다 . 어디: 는 크기 m의 입력 * 1 벡터엑스티xtx_tm ※ 1m∗1m*1 은 크기 n 의 숨겨진 상태입니다. * 1 벡터ht - 1ht−1h_{t-1}n ※ 1n∗1n*1 …

2
Keras에서 "일대 다"및 "다 대다"시퀀스 예측을 구현하는 방법은 무엇입니까?
일대 다 (예 : 단일 이미지의 분류) 및 다 대다 (예 : 이미지 시퀀스의 분류) 서열 라벨링에 대한 Keras 코딩 차이를 해석하는 데 어려움을 겪고 있습니다. 두 가지 다른 종류의 코드가 자주 보입니다. 유형 1은 TimeDistributed가 다음과 같이 적용되지 않은 곳입니다. model=Sequential() model.add(Convolution2D(nb_filters, kernel_size[0], kernel_size[1], border_mode="valid", input_shape=[1, 56,14])) model.add(Activation("relu")) model.add(Convolution2D(nb_filters, …
13 keras  rnn  lstm  sequence 

1
다차원 및 다변량 시계열 예측 (RNN / LSTM) Keras
Keras (또는 TensorFlow)를 사용하여 다차원 및 다변량 시계열 예측 을 만들기 위해 데이터를 표현하고 형성하는 방법을 이해하려고 노력 했지만 많은 블로그 게시물 / 자습서 / 문서를 읽은 후에도 여전히 명확하지 않습니다. 올바른 모양 (대부분의 예는 약간 적음) 내 데이터 세트 : 여러 도시 온도, 자동차 교통량, 습도에 대한 정보가 있습니다. …
12 python  keras  rnn  lstm 

1
몇 개의 LSTM 셀을 사용해야합니까?
사용해야하는 최소, 최대 및 "합리적인"양의 LSTM 셀과 관련된 경험 법칙 (또는 실제 규칙)이 있습니까? 특히 TensorFlow 및 속성의 BasicLSTMCell 과 관련이 num_units있습니다. 분류 문제가 다음과 같이 정의되었다고 가정하십시오. t - number of time steps n - length of input vector in each time step m - length of output vector …
12 rnn  machine-learning  r  predictive-modeling  random-forest  python  language-model  sentiment-analysis  encoding  machine-learning  deep-learning  neural-network  dataset  caffe  classification  xgboost  multiclass-classification  unbalanced-classes  time-series  descriptive-statistics  python  r  clustering  machine-learning  python  deep-learning  tensorflow  machine-learning  python  predictive-modeling  probability  scikit-learn  svm  machine-learning  python  classification  gradient-descent  regression  research  python  neural-network  deep-learning  convnet  keras  python  tensorflow  machine-learning  deep-learning  tensorflow  python  r  bigdata  visualization  rstudio  pandas  pyspark  dataset  time-series  multilabel-classification  machine-learning  neural-network  ensemble-modeling  kaggle  machine-learning  linear-regression  cnn  convnet  machine-learning  tensorflow  association-rules  machine-learning  predictive-modeling  training  model-selection  neural-network  keras  deep-learning  deep-learning  convnet  image-classification  predictive-modeling  prediction  machine-learning  python  classification  predictive-modeling  scikit-learn  machine-learning  python  random-forest  sampling  training  recommender-system  books  python  neural-network  nlp  deep-learning  tensorflow  python  matlab  information-retrieval  search  search-engine  deep-learning  convnet  keras  machine-learning  python  cross-validation  sampling  machine-learning 

3
파이썬에 적합한 기본 언어 모델이 있습니까?
응용 프로그램을 프로토 타이핑하고 있으며 생성 된 일부 문장의 난이도를 계산하려면 언어 모델이 필요합니다. 파이썬에서 쉽게 사용할 수있는 훈련 된 언어 모델이 있습니까? 간단한 것 model = LanguageModel('en') p1 = model.perplexity('This is a well constructed sentence') p2 = model.perplexity('Bunny lamp robert junior pancake') assert p1 < p2 일부 프레임 워크를 …
11 python  nlp  language-model  r  statistics  linear-regression  machine-learning  classification  random-forest  xgboost  python  sampling  data-mining  orange  predictive-modeling  recommender-system  statistics  dimensionality-reduction  pca  machine-learning  python  deep-learning  keras  reinforcement-learning  neural-network  image-classification  r  dplyr  deep-learning  keras  tensorflow  lstm  dropout  machine-learning  sampling  categorical-data  data-imputation  machine-learning  deep-learning  machine-learning-model  dropout  deep-network  pandas  data-cleaning  data-science-model  aggregation  python  neural-network  reinforcement-learning  policy-gradients  r  dataframe  dataset  statistics  prediction  forecasting  r  k-means  python  scikit-learn  labels  python  orange  cloud-computing  machine-learning  neural-network  deep-learning  rnn  recurrent-neural-net  logistic-regression  missing-data  deep-learning  autoencoder  apache-hadoop  time-series  data  preprocessing  classification  predictive-modeling  time-series  machine-learning  python  feature-selection  autoencoder  deep-learning  keras  tensorflow  lstm  word-embeddings  predictive-modeling  prediction  machine-learning-model  machine-learning  classification  binary  theory  machine-learning  neural-network  time-series  lstm  rnn  neural-network  deep-learning  keras  tensorflow  convnet  computer-vision 

2
LSTM의 어느 계층에 대한 드롭 아웃?
LSTM드롭 아웃과 함께 멀티 레이어 를 사용하는 경우 출력 Dense 레이어뿐만 아니라 모든 숨겨진 레이어에 드롭 아웃을 배치하는 것이 좋습니다? Hinton의 논문 (드롭 아웃을 제안한)에서 그는 밀집된 레이어에만 드롭 아웃을 넣었지만 숨겨진 내부 레이어는 컨볼 루션이기 때문입니다. 분명히 특정 모델을 테스트 할 수 있지만 이에 대한 합의가 있는지 궁금합니다.


당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.