«lg.learning» 태그된 질문

기계 학습 및 학습 이론 : PAC 학습, 알고리즘 학습 이론 및 베이지안 추론 및 그래픽 모델의 계산 측면.

1
잔류 유한 상태 오토마타 최소화
잔여 유한 상태 오토마타 ([DLT02]에 정의 된 RFSA)는 DFA와 공통점이있는 NFA입니다. 특히 모든 정규 언어에 대해 표준 최소 크기의 RFSA가 항상 있으며 RFSA의 각 주에서 인식되는 언어는 DFA에서와 마찬가지로 잔류입니다. 그러나, 최소의 DFA 상태는 모든 잔차와 함께 약탈을 형성하지만, 정식 RFSA 상태는 주요 잔차와 함께 약화된다; 이들 중 기하 급수적으로는 …

1
DFA에 대한 동등성 쿼리 비용
이 질문 에서 영감을 얻어 다음에 대해 궁금합니다. 주어진 DFA가 주어진 정규 표현식과 동일한 언어를 허용하는지 확인하는 최악의 경우는 무엇입니까? 이것이 알려져 있습니까? 이 문제가 P에 있기를 바랍니다. 둘 다 크기의 알고리즘 다항식이 있기를 바랍니다.


5
비 차원 데이터에 대한 클러스터링 알고리즘
수천 점의 데이터 세트와 두 점 사이의 거리를 측정하는 수단이 있지만 데이터 점에는 차원이 없습니다. 이 데이터 세트에서 클러스터 센터를 찾는 알고리즘을 원합니다. 데이터에 차원이 없기 때문에 클러스터 센터는 여러 데이터 포인트와 공차로 구성 될 수 있으며 클러스터 내 멤버쉽은 데이터 포인트와 클러스터 센터의 모든 데이터 포인트까지의 거리 평균에 의해 …

2
SQ- 러닝의 계산 쿼리 복잡성
PAC 학습의 경우, 계산되지 않은 학습자에 의한 정보 이론 학습에 필요한 샘플 복잡성과 다항식에 필요한 샘플 복잡성 사이에 다항식 갭이 존재하는 자연스러운 개념 클래스 (예 : 의사 결정 목록의 하위 집합)가 있습니다. 시간 학습자. (예 : http://portal.acm.org/citation.cfm?id=267489&dl=GUIDE 또는 http://portal.acm.org/citation.cfm?id=301437 참조 ) 이러한 결과는 특정 예에서 비밀을 인코딩하는 데 의존하는 것처럼 …

1
을 감안할 때
juntas를 배우는 것과 비슷한 맛의 문제가 있습니다. 입력 : 멤버십 oracle, 즉 x 를 지정한 oracle로 표시되는 함수 은 f ( x )를 반환합니다 .에프: { 0 , 1 }엔→ { − 1 , 1 }에프:{0,1}엔→{−1,1}f: \{0,1\}^n \rightarrow \{-1,1\}엑스엑스x에프( x )에프(엑스)f(x) 목표 : 하위 큐브를 찾기 에스에스S 의를 { 0 …

1
LWE (Noisy Parity) 하한 / 경도 결과
일부 배경 : LWE (Learning with Errors) 문제에 대한 "알려지지 않은"하한 (또는 경도 결과) 및 링 위의 오류를 사용한 학습과 같은 일반화를 찾는 데 관심이 있습니다. 구체적인 정의 등을 보려면 다음과 같이 Regev의 훌륭한 설문 조사를 참조하십시오 . http://www.cims.nyu.edu/~regev/papers/lwesurvey.pdf (R) LWE 스타일 가정의 표준 유형은 (아마도, 양자) 감소를 통해 (아마도, …

1
멤버십 쿼리 및 반례 모델에서 학습을위한 하한
Dana Angluin ( 1987 ; pdf )은 멤버십 쿼리와 이론 쿼리 (제안 된 함수에 대한 예)로 학습 모델을 정의합니다. 최소한 DFA로 표시되는 일반 언어 것을 취미 쇼 상태들이 함께 (제안 기능 DFAS을 어디) 다항식 시간에 학습 가능하다 최대 멤버십 쿼리와 이론 쿼리 ( 튜터가 제공하는 가장 큰 반대 예의 크기입니다). …

2
시끄럽지 않은 PAC의 패리티 외에 SQ에는없는 가설 클래스가 있습니까?
Angluin and Laird ('88) 는 모델 "임의 분류 잡음이있는 PAC"(또는 잡음이있는 PAC)에서 무작위로 손상된 데이터로 학습을 공식화했습니다 . 이 모델은 비슷 학습 PAC 확률로 독립적으로 임의로 손상 (대칭)되어 학습자에게 주어진 실시 예의 레이블 제외 .η&lt;1/2η&lt;1/2\eta < 1/2 잡음이 많은 PAC 모델에서 학습 가능한 것을 특성화하기 위해 Kearns ('93) 는 학습을위한 …

2
분리 가능한 데이터에 대한 K- 평균 이외의 클러스터링 공식화
실제 데이터는 때때로 자연스러운 수의 클러스터를 갖습니다 (일부 매직 k보다 적은 수의 클러스터로 클러스터하려고하면 클러스터링 비용이 크게 증가합니다). 오늘 저는 Adam Meyerson 박사의 강의에 참석했으며 이러한 유형의 데이터를 "분리 가능한 데이터"라고했습니다. K- 평균 이외의 데이터에서 자연 분리 성을 활용하는 클러스터링 알고리즘 (근사 또는 휴리스틱)을 사용할 수있는 일부 클러스터링 공식화는 무엇입니까?

3
"타치 턴"오라클을 통한 학습
내 질문은 약간 일반적인 것이므로 그것을 정당화하는 멋진 이야기를 만들고 있습니다. 현실적이지 않다면 나와 함께 참 아라 ;-) 이야기 대기업의 컴퓨터 보안 부서 책임자 인 X 씨는 약간 편집증 적입니다. 그는 신원이나 정보 도용의 위험을 최소화하기 위해 모든 직원이 한 달에 한 번 암호를 변경해야합니다. 또한 그는 직원들이 안전한 암호를 …


3
VC 차원 경계를 학습하는 적절한 PAC
VC 치수 d 를 갖는 개념 클래스 대해, O ( d) 를 얻기에 충분 하다는 것이 잘 알려져있다.CC\mathcal{C}dddO(dεlog1ε)O(dεlog⁡1ε)O\left(\frac{d}{\varepsilon}\log\frac{1}{\varepsilon}\right)PAC에 ε )레이블이 붙은 예는배운다CC\mathcal{C}. PAC 학습 알고리즘 (이러한 많은 샘플을 사용하는)이 올바른지 또는 부적절한 지 확실하지 않습니까? Anthony와 Biggs뿐만 아니라 Kearns와 Vazirani의 교과서에는 PAC 학습 알고리즘이 부적절한 것처럼 보입니다 (즉, 출력 가설이있지 …

1
패리티 학습 질문
비트 집합에 함수 클래스를 정의 해 봅시다 . 서로 "합리적으로"다른 두 분포 를 수정합니다 (원하는 경우 변동 거리는 적어도 또는 이와 유사한 ).p , q ϵ엔nnp , qp,qp, qϵϵ\epsilon 이제이 클래스의 각 함수 는 인덱스 집합으로 정의되며 다음과 같이 평가됩니다. 선택한 비트의 패리티가 0이면 에서 임의 샘플을 반환하고, 그렇지 않으면 …

2
전산 학습 이론 입문
최근에 적절한 수의 CoLT 논문을 읽었습니다. 비록 개별 논문들에 대해 투쟁하지는 않지만 (적어도 다른 이론 논문들과 투쟁하는 것보다 많지는 않지만), 전체적으로 그 분야에 대한 폭 넓은 이해가 있다고 생각하지는 않습니다. 대학원 수준에서 CoLT를 소개하기위한 표준 텍스트, 설문 조사 또는 강의 노트가 있습니까? 나는 기본 이론 A 배경을 가지고 있지만 기계 …

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.