«vc-dimension» 태그된 질문

7
VC 차원이 좋지 않더라도 딥 러닝이 과장되는 이유는 무엇입니까?
Vapnik-Chervonenkis (VC) - 차원 신경망 수식 내지 에 와, 최악의 경우에, 엣지의 수이고 노드 수입니다. 일반화를 강력하게 보장하는 데 필요한 교육 샘플 수는 VC 치수와 선형입니다.오 ( E)O(E)O(E)오 ( E2)O(E2)O(E^2)오 ( E2V2)O(E2V2)O(E^2V^2)이자형EEVVV 즉, 성공적인 딥 러닝 모델의 경우와 같이 수십억 개의 에지가있는 네트워크의 경우 훈련 데이터 세트에 가장 좋은 경우 …

1
신경망의 VC 치수를 효율적으로 계산하거나 근사화
내 목표는 입력 및 출력으로 설명 한 다음 문제를 해결하는 것입니다. 입력: 방향성 비순환 그래프 (directed acyclic graph) 와 노드 소스 및 싱크 ( ).지지G미디엄미디엄mn엔n111m > n ≥1m>n≥1m > n \geq 1 산출: VC 차원 토폴로지 뉴럴 네트워크 (또는 그 근사치) .지지G 자세한 내용 : 각 노드 는 S 자형 …
당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.