scipy.optimize.minimize (Conjugate gradient) 최적화 기능을 사용하여 파이썬에서 인공 신경망을 만들었습니다.
그라디언트 확인을 구현하고 모든 것을 다시 확인했으며 올바르게 작동하는지 확신합니다.
나는 그것을 몇 번 실행했고 '최적화가 성공적으로 종료되었습니다'에 도달했지만 숨겨진 레이어 수를 늘리면 성공적으로 종료 된 후 가설 비용이 증가합니다 (다른 모든 항목은 동일하게 유지됨).
직관적으로 데이터를 더 잘 맞출 수있는 더 복잡한 가설을 생성 할 수 있기 때문에 숨겨진 레이어 수를 늘릴 때 비용이 감소하는 것처럼 느껴지지만, 그렇지 않은 것 같습니다.
여기서 무슨 일이 일어나고 있는지, 신경망을 잘못 구현했는지 이해하고 싶습니까?