2-3 백만 개의 기사로 큰 LSTM 네트워크를 훈련하려고하고 메모리 오류로 어려움을 겪고 있습니다 (AWS EC2 g2x2large 사용).
한 가지 해결책은을 줄이는 것 batch_size
입니다. 그러나이 매개 변수가 메모리 효율성 문제와 관련이 있는지 또는 결과에 영향을 미치는지 확실하지 않습니다. 사실, 나는 또한 batch_size
예제에서 사용되는 것이 보통 2의 거듭 제곱이라는 것을 알았습니다.
내 네트워크가 훈련하는 데 시간이 더 걸리더라도 신경 쓰지 않지만 batch_size
예측을 줄이면 예측 품질이 저하 되는지 알고 싶습니다 .
감사.