저는 80 차원의 word2vec와 같은 표현을 사용하여 128 개의 숨겨진 단위를 가진 단일 계층 LSTM을 사용하여 감정 예측에 대한 15000 트윗을 모델링하고 있습니다. 1 에포크 후 하강 정확도 (임의의 = 38 %로 38 %)를 얻습니다. 훈련 정확도가 높아질수록 검증 정확도가 떨어지기 시작합니다.
따라서 정규화 방법을 생각하고 있습니다. 숨겨진 단위 수를 줄이고 싶지 않습니다 (128은 이미 조금 낮습니다). 저는 현재 50 %의 확률로 드롭 아웃을 사용하지만, 아마도 증가 할 수 있습니다. 최적화 프로그램은 Keras에 대한 기본 매개 변수 ( http://keras.io/optimizers/#adam ) 가있는 Adam입니다 .
내 데이터 세트에서이 모델의 과적 합을 줄이는 효과적인 방법은 무엇입니까?
나는 똑같은 문제가 있습니다. 마지막으로 LSTM을 어떻게 정규화 했습니까? 내 LSTM의 검증 정확도는 41 %입니다. 내 입력 모양은 (200)이고 64 단위의 1 LSTM 레이어와 0.4 드롭 아웃의 2 개의 고밀도 레이어가 있습니다.
—
Nirvan Anjirbag