이 질문을 다시 읽은 후 다음과 같은 경계를 낼 수 있습니다.
비1 − δ
E [ E( h ) ] ≤ E^( h ) + B 로그1δ2 M−−−−−√
미디엄1 − δ
미디엄E [ E( h ) ]이자형^( h )
보고하지 마십시오 단지 그들은 단지 점 추정치이기 때문에 교차 유효성 검사 오류도 검사 오류가, 사람들은 일반적으로 의미가 있습니다.
기록을위한 오래된 포스트 :
나는 당신의 질문을 완전히 이해했는지 확신 할 수 없지만 그것을 찌를 것입니다.
먼저, 예측 간격이 일부 분포 가정을 만들기 때문에 모델 선택에 대한 예측 간격을 어떻게 정의할지 잘 모르겠습니다. 대신 집중 불균형을 도출 할 수 있는데, 이는 확률에 따른 분산으로 랜덤 변수를 본질적으로 묶습니다. 농도 불평등은 부스팅에 대한 고급 이론을 포함하여 기계 학습을 통해 사용됩니다. 이 경우 경험적 오류 (테스트 세트의 오류)와 약간의 복잡성 항 및 분산과 관련된 항으로 일반화 오류 (일반적으로 오류, 표시되지 않은 점)를 바인딩하려고합니다.
이제는 매우 일반적인 교차 유효성 검사에 대한 오해를 풀어야합니다. 교차 검증은 고정 표본 크기에 대한 모형의 예상 오차에 대한 편견없는 추정치 만 제공합니다. 이것에 대한 증거는 오직 하나의 프로토콜을 떠나는 경우에만 작동합니다. 차이에 관한 정보를 제공하지 않기 때문에 이것은 실제로 상당히 약합니다. 반면에 교차 검증은 이론적으로 가장 좋은 솔루션 인 구조적 위험 최소화 솔루션에 가까운 모델을 반환합니다. 부록에서 증거를 찾을 수 있습니다 : http://www.cns.nyu.edu/~rabadi/resources/scat-150519.pdf
그렇다면 일반화 경계를 도출하는 방법은 무엇입니까? (일반화 범위는 기본적으로 특정 모델의 일반화 오류에 대한 예측 간격임을 기억하십시오). 음,이 경계는 알고리즘에 따라 다릅니다. 불행히도 머신 러닝 (부스팅 포함)에서 일반적으로 사용되는 모든 알고리즘에 대한 경계를 정하는 교과서가 하나뿐입니다. 이 책은 Mohri, Rostamizadeh 및 Talwalkar의 기계 학습 기초 (2012)입니다. 자료를 다루는 강의 슬라이드는 Mohri의 웹 페이지에서 찾을 수 있습니다 : http://www.cs.nyu.edu/~mohri/ml14/
통계 학습의 요소는 중요하고 다소 유용한 책이지만 매우 엄격하지는 않으며 알고리즘에 관한 많은 중요한 기술적 세부 사항을 생략하고 모든 종류의 일반화 경계를 완전히 생략합니다. 기계 학습의 기초는 기계 학습을위한 가장 포괄적 인 책입니다 (현장에서 최고로 쓰여진 내용을 이해하는 것이 좋습니다). 그러나 교과서는 고급이므로 기술적 인 세부 사항 만주의하십시오.
부스팅에 대한 일반화 범위는 다음과 같습니다 (증거 포함) : http://www.cs.nyu.edu/~mohri/mls/lecture_6.pdf
나는 이것이 당신의 질문에 대답하기에 충분한 포인터가되기를 바랍니다. 예비 토론은 물론 필요한 모든 세부 사항을 검토하는 데 약 50 페이지가 필요하기 때문에 완전한 답변을 제공하는 데 주저합니다 ...
행운을 빕니다!