«machine-learning» 태그된 질문

기계 학습, 특히 알고리즘 학습 이론, PAC 학습 및 베이지안 추론을 포함한 전산 학습 이론에 대한 이론적 질문


3
VC 차원 경계를 학습하는 적절한 PAC
VC 치수 d 를 갖는 개념 클래스 대해, O ( d) 를 얻기에 충분 하다는 것이 잘 알려져있다.CC\mathcal{C}dddO(dεlog1ε)O(dεlog⁡1ε)O\left(\frac{d}{\varepsilon}\log\frac{1}{\varepsilon}\right)PAC에 ε )레이블이 붙은 예는배운다CC\mathcal{C}. PAC 학습 알고리즘 (이러한 많은 샘플을 사용하는)이 올바른지 또는 부적절한 지 확실하지 않습니까? Anthony와 Biggs뿐만 아니라 Kearns와 Vazirani의 교과서에는 PAC 학습 알고리즘이 부적절한 것처럼 보입니다 (즉, 출력 가설이있지 …

2
전산 학습 이론 입문
최근에 적절한 수의 CoLT 논문을 읽었습니다. 비록 개별 논문들에 대해 투쟁하지는 않지만 (적어도 다른 이론 논문들과 투쟁하는 것보다 많지는 않지만), 전체적으로 그 분야에 대한 폭 넓은 이해가 있다고 생각하지는 않습니다. 대학원 수준에서 CoLT를 소개하기위한 표준 텍스트, 설문 조사 또는 강의 노트가 있습니까? 나는 기본 이론 A 배경을 가지고 있지만 기계 …

3
통계 학습 이론의 최근 발전을위한 자료 / 책
저는 VC-Dimension의 이론에 대해 잘 알고 있지만 통계 학습 이론의 최근 (최근 10 년) 발전을보고 있습니다. 정리, 유사 치수, 지방 산란 치수, 포장 번호, Rademacher 구성 및 내가 모르는 기타 결과 / 도구. 웹 사이트, 설문 조사, 기사 모음 또는 무엇보다도 이러한 주제를 다루는 책이 있습니까? 또는 사람들이 축 정렬 …

1
불가지론 PAC 샘플링 하한
이것은 잘 알려진 클래식 PAC이 학습을 위해 예제의 오차 한계 acheive 위해 필요한 ε WHP, 여기서 D는 개념 클래스의 VC-치수이다.Ω ( 일/ ε)Ω(d/ε)\Omega(d/\varepsilon)εε\varepsilonddd 있다는 것이 알려져 예는 무관 경우 필요한가?Ω(d/ε2)Ω(d/ε2)\Omega(d/\varepsilon^2)

1
어떤 머신 러닝 분류 기가 가장 병렬화 가능합니까?
어떤 머신 러닝 분류 기가 가장 병렬화 가능합니까? 분류 문제가 어렵고 시간이 제한되어 있지만 괜찮은 수준의 컴퓨터 LAN을 사용한다면 어떤 분류기를 사용 하시겠습니까? 손에 그것은 다음과 같이 스택에 대해 알고있는 일부 표준 분류 자처럼 보입니다. 그러나 완전히 잘못 될 수 있습니다. 랜덤 포레스트 (Random Forests)-각 머신이 모든 데이터를 보유 할 …

5
온라인 학습 이해에 대한 좋은 참고 자료는 무엇입니까?
특히, 운영 중에 각자의 신념 네트워크 (또는 이와 동등한)를 업데이트 할 수있는 기계 학습 시스템에 대해 배울 수있는 자료를 요청합니다. 나는 그것들을 북마크에 넣지 못했지만 몇 개를 뛰어 넘었습니다. 상상할 수 있듯이 인터넷에서 검색하는 것은 다소 어려운 주제입니다.

5
신경망을 사용하여 알고리즘을 고안 할 수 있습니까?
보드 게임에서 신경망의 새롭고 새로운 성공을 거둔 후, 우리가 설정 한 다음 목표는 Starcraft에서 인간을 때리는 것보다 더 유용한 것일 수 있습니다. 더 정확하게는 신경망을 훈련하여 고전적인 알고리즘 문제를 해결할 수 있습니까? 예를 들어 네트워크는 가중 가장자리와 두 개의 정점 와 지정된 입력 그래프 를 얻을 수 있으며 가능한 한 …

2
임의의 숲에 대한 이론적 결과?
랜덤 포레스트는 실무자들 사이에서 가장 효과적인 분류 기술 중 하나로 명성을 얻고 있습니다. 그러나 우리는 학습 이론 문헌에서 그것들을 많이 만나지 않습니다. 이 이론을 깊이 탐구하고 싶다면 어디에서 시작해야할까요?

1
R ^ d에서 Voronoi 세포의 VC 치수는?
포인트 가 있다고 가정하십시오 . 이들은 Voronoi 다이어그램을 유도합니다. 각 포인트에 레이블을 할당하면 에 이진 함수가 유도 됩니다. 질문 : 일부 가능한 모든 이진 함수의 VC 치수는 무엇입니까?케이케이k아르 자형디아르 자형디\mathbb{R}^d케이케이k±±\pm아르 자형디아르 자형디\mathbb{R}^d케이케이k 포인트와 이러한 포인트의 일부 표시?

1
(서명 된) 오류를 이용한 학습
B a c k g r o u n d––––––––––––––Background_\underline{\bf Background} 2005 년에 Regev [1]은 오류와 학습 패리티의 일반화 인 LWE (Learning with Errors) 문제를 도입했습니다. 특정 매개 변수 선택에 대한이 문제의 경도에 대한 가정은 격자 기반 암호화 분야에서 다수의 포스트 퀀텀 암호 시스템에 대한 보안 증명의 기초가되었습니다. LWE의 "정식"버전이 …

2
3 차원 구면의 VC 치수
다음 세트 시스템의 VC 치수를 찾고 있습니다. 우주 유= {피1,피2, ... ,피미디엄}유={피1,피2,…,피미디엄}U=\{p_1,p_2,\ldots,p_m\}되도록 . 집합 시스템 각 집합 은 구에 해당하므로 해당 구에 포함 된 경우에만 집합 에 의 요소가 포함됩니다. 에서 .유⊆아르 자형삼유⊆아르 자형삼U\subseteq \mathbb{R}^3아르 자형아르 자형\mathcal{R}에스∈ R에스∈아르 자형S\in \mathcal{R}아르 자형삼아르 자형삼\mathbb{R}^3에스에스S유유U아르 자형삼아르 자형삼\mathbb{R}^3 내가 이미 알고있는 세부 사항. VC …

2
진정한 PAC 학습이 가능한 공식 언어 군이 있습니까?
나는 구체적으로 n 비트나 의사 결정 목록 또는 {0,1} ^ n에 포함 된 다른 "간단한"언어를 결합하지 않고 임의로 긴 문자열을 허용하는 언어 군을 의미합니다. 나는 "논리 이론적"언어와는 달리 "자율 이론적"정규 언어에 대해 묻고있다. 관련 복잡성 파라미터 n은 최소 수용 DFA의 크기입니다. 간결하게 말하면, 효율적으로 PAC를 배울 수있는 것으로 알려진 흥미로운 …
당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.