«vc-dimension» 태그된 질문

1
의사 결정 트리의 VC 차원은 무엇입니까?
k가 2 차원으로 분할 된 의사 결정 트리 의 VC 차원 은 무엇입니까 ? 모델이 CART이고 허용되는 분할이 축과 평행하다고 가정 해 봅시다. 따라서 한 번의 분할 에 대해 삼각형으로 3 개의 점을 정렬 한 다음 점의 레이블을 지정하면 완벽한 예측을 얻을 수 있습니다 (예 : 산산조각이 난 점) 그러나 …

2
신경망의 복잡성을 측정하기위한 VC 차원의 대안은 무엇입니까?
신경망의 복잡성을 측정하는 몇 가지 기본 방법을 살펴 보았습니다. 순진하고 비공식적 : 뉴런, 숨겨진 뉴런, 레이어 또는 숨겨진 레이어의 수를 계산합니다. VC 차원 (Eduardo D. Sontag [1998] "신경망의 VC 차원"[ pdf ].) T C 0 d 와 등가에 의한TC0dTCd0TC^0_d 코스 그레인 및 점근 적 계산 복잡도 측정 . 다른 대안이 …

1
VC 차원은 딥 러닝에 대해 무엇을 알려줍니까?
기본 기계 학습에서는 다음과 같은 "엄지 손가락 규칙"을 배웁니다. a) 데이터의 크기는 가설 세트의 VC 차원 크기의 10 배 이상이어야합니다. b) N 개의 연결을 갖는 신경망은 약 N의 VC 치수를 갖는다. 따라서 딥 러닝 신경망이 수백만 단위라고 말하면 이것이 수십억 개의 데이터 포인트를 가져야한다는 의미입니까? 이것에 대해 좀 밝힐 수 …

2
회귀 모형의 VC 차원
강의 시리즈 Learning from Data 에서 교수는 VC 차원이 주어진 모델이 산산이 부서 질 수있는 지점의 모델 복잡성을 측정한다고 언급합니다. 따라서 분류 기가 k 점을 효과적으로 산산조각 할 수있는 경우 N 점 중 VC 차원 측정 값이 K가 될 수있는 분류 모델에 완벽하게 작동합니다. 그러나 회귀 모형에 대한 VC 차원을 …

3
VC 치수가 중요한 이유
Wikipedia 는 다음과 같이 말합니다. VC 차원은 알고리즘이 산산조각 낼 수있는 가장 큰 점 집합의 카디널리티입니다. 예를 들어 선형 분류기는 카디널리티 n + 1을 갖습니다. 내 질문은 왜 우리가 관심을 갖는가? 선형 분류를 수행하는 대부분의 데이터 세트는 매우 큰 경향이 있으며 많은 점이 포함됩니다.

1
SVM의 일반화 범위
Support Vector Machines의 일반화 능력에 대한 이론적 결과에 관심이 있습니다. 예를 들어 분류 오류 확률 및 이러한 시스템의 Vapnik-Chervonenkis (VC) 치수 등이 있습니다. 그러나 문헌을 통해 읽은 결과, 유사한 반복 결과가 특히 주어진 범위를 유지하는 데 필요한 기술적 조건과 관련하여 저자마다 약간 씩 다른 경향이 있다는 인상을 받았습니다. 내가 SVM …

2
신경망의 VC 치수 계산
나는와 시그 모이 뉴런의 일부 고정이 아닌 재발 (DAG) 토폴로지 (노드와 가장자리의 고정 세트하지만, 학습 알고리즘은 가장자리에 무게를 다를 수 있음)이있는 경우 단지에서 문자열을 할 수있는 입력 뉴런 { - 1 , 1 } n 을 입력으로하여 하나의 출력으로 이어집니다 (실제 값은 0에서 멀어지고 특정 고정 임계 값 인 경우 …

1
k- 최근 접 이웃의 VC 치수
k가 사용 된 트레이닝 포인트의 수와 동일한 경우 k- 최근 접 이웃 알고리즘의 VC- 차원은 무엇입니까? 컨텍스트 : 이 질문은 제가 수강하는 과정에서 요청되었으며 거기에 주어진 답은 0입니다. 그러나 이것이 왜 그런지 이해하지 못합니다. 내 직감은 VC 차원이 1이어야한다는 것입니다. 모든 모델이 첫 번째 모델에 따라 한 클래스에 속하고 다른 …

3
직사각형의 VC 치수
Ethem Alpaydın의 "기계 학습 입문"이라는 책은 축 정렬 사각형의 VC 치수가 4라고 설명합니다. 그러나 사각형이 어떻게 양의 음과 음의 교호를 번갈아 가면서 네 개의 공선 점 집합을 산산조각 낼 수 있습니까? 누군가 직사각형의 VC 치수를 설명하고 증명할 수 있습니까?
당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.