1 활성화 기능을 혼합하면 어떻게됩니까? ReLU, S 자형 또는 탄탄\tanh. 활성화 기능을 혼합하면 어떻게됩니까? 최근 Google에서 (x * sigmoid) Swish 활성화 기능을 개발했습니다. 활성화 기능을 변경하여 XOR 문제와 같은 작은 신경망 문제에서 정확도를 높일 수 있습니까? 10 neural-networks machine-learning activation-function relu sigmoid