«machine-learning» 태그된 질문

기계 학습, 특히 알고리즘 학습 이론, PAC 학습 및 베이지안 추론을 포함한 전산 학습 이론에 대한 이론적 질문

2
평면에서 삼각형 학습
나는 학생들에게 ± 1로 표시된 R 2 의 포인트 모음과 일치하는 삼각형을 찾는 문제를 배정했습니다 . ( T 에 모든 양의 점과 음의 점이 모두 없는 경우 삼각형 T 는 레이블이 지정된 샘플과 일치 합니다 . 가정에 따라 샘플에는 최소한 하나의 일관된 삼각형이 허용됩니다).미디엄mmR2R2\mathbb{R}^2±1±1\pm1TTTTTT 그들이 (또는 I) 할 수있는 최선은 …


3
통계 쿼리 모델 알고리즘?
교차 검증 된 Q & A 로이 질문 을했지만 통계보다 CS와 관련이있는 것 같습니다. 당신이 날은 개별 관찰 자체가 고용 IE가 아닌 데이터 세트의 통계적 특성을 배울 기계 학습 알고리즘의 예 줄 수 통계 쿼리 모델을 ?


1
참조 요청 : 하위 모듈 최소화 및 모노톤 부울 함수
배경 : 기계 학습에서 종종 높은 차원 확률 밀도 함수를 나타 내기 위해 그래픽 모델 을 사용합니다. 밀도가 1에 통합되는 (제한) 제약 조건을 무시하면 정규화되지 않은 그래프 구조 에너지 함수를 얻게 됩니다 . 그래프 G = ( V , E ) 에 정의 된 에너지 함수 가 있다고 가정 합니다. …


5
머신 러닝이 소수를 인식하지 못하는 이유는 무엇입니까?
n, V_n의 정수로 구성된 벡터 표현이 있다고 가정 해보십시오. 이 벡터는 기계 학습 알고리즘에 대한 입력입니다. 첫 번째 질문 : 어떤 유형의 표현에 대해 신경망 또는 다른 벡터 대 비트 ML 매핑을 사용하여 n의 원시성 / 복합성을 배울 수 있습니다. 이것은 순전히 이론적입니다. 신경망의 크기는 제한이 없습니다. 다음과 같이 우선 …

3
SVD보다 Johnson-Lindenstrauss lemma를 언제 사용해야합니까?
Johnson-Lindenstrauss의 정리는 고차원 공간의 점들을 저 차원의 점들로 나타낼 수있게합니다. 가장 적합한 저 차원 공간을 찾을 때 표준 기법은 특이 값 분해를 찾은 다음 가장 큰 특이 값으로 생성 된 부분 공간을 취하는 것입니다. SVD에 Johnson-Lindenstrauss를 사용하는 것이 언제 중요합니까?

5
비 차원 데이터에 대한 클러스터링 알고리즘
수천 점의 데이터 세트와 두 점 사이의 거리를 측정하는 수단이 있지만 데이터 점에는 차원이 없습니다. 이 데이터 세트에서 클러스터 센터를 찾는 알고리즘을 원합니다. 데이터에 차원이 없기 때문에 클러스터 센터는 여러 데이터 포인트와 공차로 구성 될 수 있으며 클러스터 내 멤버쉽은 데이터 포인트와 클러스터 센터의 모든 데이터 포인트까지의 거리 평균에 의해 …

2
SQ- 러닝의 계산 쿼리 복잡성
PAC 학습의 경우, 계산되지 않은 학습자에 의한 정보 이론 학습에 필요한 샘플 복잡성과 다항식에 필요한 샘플 복잡성 사이에 다항식 갭이 존재하는 자연스러운 개념 클래스 (예 : 의사 결정 목록의 하위 집합)가 있습니다. 시간 학습자. (예 : http://portal.acm.org/citation.cfm?id=267489&dl=GUIDE 또는 http://portal.acm.org/citation.cfm?id=301437 참조 ) 이러한 결과는 특정 예에서 비밀을 인코딩하는 데 의존하는 것처럼 …

1
을 감안할 때
juntas를 배우는 것과 비슷한 맛의 문제가 있습니다. 입력 : 멤버십 oracle, 즉 x 를 지정한 oracle로 표시되는 함수 은 f ( x )를 반환합니다 .에프: { 0 , 1 }엔→ { − 1 , 1 }에프:{0,1}엔→{−1,1}f: \{0,1\}^n \rightarrow \{-1,1\}엑스엑스x에프( x )에프(엑스)f(x) 목표 : 하위 큐브를 찾기 에스에스S 의를 { 0 …

1
데이터베이스 집계는 어떻게 monoid를 형성합니까?
에 cs.stackexchange 나는에 대해 질문 algebird 가 추상 대수학 패키지를 필요한 이유에 대한 추측, GitHub의에 스칼라 라이브러리. github 페이지에는 몇 가지 단서가 있습니다. Bloom 필터, HyperLogLog 및 CountMinSketch와 같은 흥미로운 근사 알고리즘을위한 Monoids 구현. 이를 통해 숫자처럼 복잡한 작업을 생각하고 hadoop 또는 온라인에 추가하여 강력한 통계 및 분석을 생성 할 …

1
LWE (Noisy Parity) 하한 / 경도 결과
일부 배경 : LWE (Learning with Errors) 문제에 대한 "알려지지 않은"하한 (또는 경도 결과) 및 링 위의 오류를 사용한 학습과 같은 일반화를 찾는 데 관심이 있습니다. 구체적인 정의 등을 보려면 다음과 같이 Regev의 훌륭한 설문 조사를 참조하십시오 . http://www.cims.nyu.edu/~regev/papers/lwesurvey.pdf (R) LWE 스타일 가정의 표준 유형은 (아마도, 양자) 감소를 통해 (아마도, …

1
멤버십 쿼리 및 반례 모델에서 학습을위한 하한
Dana Angluin ( 1987 ; pdf )은 멤버십 쿼리와 이론 쿼리 (제안 된 함수에 대한 예)로 학습 모델을 정의합니다. 최소한 DFA로 표시되는 일반 언어 것을 취미 쇼 상태들이 함께 (제안 기능 DFAS을 어디) 다항식 시간에 학습 가능하다 최대 멤버십 쿼리와 이론 쿼리 ( 튜터가 제공하는 가장 큰 반대 예의 크기입니다). …

5
다차원 공간에서 함수의 절대 최소 (최대)를 검색하기위한 경사 하강 기반 기술이 있습니까?
주어진 함수의 로컬 최소 (최대)를 찾을 수있는 그라디언트 하강 알고리즘에 익숙합니다. 함수가 여러 국소 극한을 갖는 절대 최소값 (최대)을 찾을 수있는 경사 하강의 수정이 있습니까? 절대 극한을 찾기위한 국소 극한을 찾을 수있는 알고리즘을 향상시키는 일반적인 기술이 있습니까?

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.