답변:
"활성화 된"이라는 용어는 활성화 기능에 대한 입력이 특정 임계 값보다 큰 경우에만 값 (0 제외)을 출력하는 활성화 기능에 대해 이야기 할 때 주로 사용됩니다.
특히 ReLU를 논의 할 때 "활성화 된"이라는 용어가 사용될 수 있습니다. ReLU는 출력이 0보다 클 때 "활성화"되며, 입력이 0보다 클 때도 활성화됩니다.
sigmoid와 같은 다른 활성화 함수는 항상 0보다 큰 값을 반환하며 특별한 임계 값을 갖지 않습니다. 따라서 "활성화 된"이라는 용어는 여기서 덜 의미가 있습니다.
비록 우리가 그들에 대해 거의 알지 못하지만, 뇌의 뉴런은 또한 일종의 "활성화 트레스 홀드 (activation treshold)"를 가진 활성화 기능과 유사한 것을 가지고있는 것 같습니다.