신경망을 사용한 모델링에 익숙하지 않지만 관찰 된 데이터에 잘 맞는 모든 사용 가능한 데이터 포인트로 신경망을 구축 할 수있었습니다. 신경망은 nnet 패키지로 R에서 수행되었습니다.
require(nnet)
##33.8 is the highest value
mynnet.fit <- nnet(DOC/33.80 ~ ., data = MyData, size = 6, decay = 0.1, maxit = 1000)
mynnet.predict <- predict(mynnet.fit)*33.80
mean((mynnet.predict - MyData$DOC)^2) ## mean squared error was 16.5
내가 분석하는 데이터는 다음과 같습니다. 여기서 DOC는 모델링해야 할 변수입니다 (약 17,000 개의 관측치가 있음).
Q GW_level Temp t_sum DOC
1 0.045 0.070 12.50 0.2 11.17
2 0.046 0.070 12.61 0.4 11.09
3 0.046 0.068 12.66 2.8 11.16
4 0.047 0.050 12.66 0.4 11.28
5 0.049 0.050 12.55 0.6 11.45
6 0.050 0.048 12.45 0.4 11.48
이제 모델이 데이터 포인트의 70 %로 훈련되고 나머지 30 %의 데이터 포인트로 검증되어야한다는 것을 읽었습니다. 어떻게해야합니까? 어떤 기능을 사용해야합니까?
캐럿 패키지의 기차 기능을 사용하여 크기 및 붕괴에 대한 매개 변수를 계산했습니다.
require(caret)
my.grid <- expand.grid(.decay = c(0.5, 0.1), .size = c(5, 6, 7))
mynnetfit <- train(DOC/33.80 ~ ., data = MyData, method = "nnet", maxit = 100, tuneGrid = my.grid, trace = f)
다른 웹 사이트 / 게시물에 대한 직접적인 도움이나 링크는 대단히 감사합니다.