«machine-learning» 태그된 질문

데이터에서 패턴을 자동으로 발견하고이를 기반으로 올바른 결정을 내리는 컴퓨터 알고리즘에 대한 질문입니다.

2
결정을 설명하는 텍스트 분류기
짧은 문장을위한 텍스트 분류기를 만들고 있습니다. 사용자에게 "입력 한 텍스트의 범주는 C입니다"라고 말하는 것 외에도이 결정을 내린 이유를 간단하고 이해하기 쉽게 설명하고 싶습니다. 예를 들어, 나는 사용자에게 "나는 당신의 문장을 복잡한 3 계층 신경망에 넣었고 이것이 최고의 점수를 얻은 답"이라고 말하고 싶지 않습니다. "훈련 데이터에 나타나는 X, Y 및 Z와 …

1
구체화 유형 추론
직장에서 나는 동적 언어에 대한 몇 가지 유형 정보를 유추하는 임무를 맡았습니다. 다음 let과 같이 일련의 명령문을 중첩 된 표현식 으로 다시 작성합니다 . return x; Z => x var x; Z => let x = undefined in Z x = y; Z => let x = y in Z …
11 programming-languages  logic  type-theory  type-inference  machine-learning  data-mining  clustering  order-theory  reference-request  information-theory  entropy  algorithms  algorithm-analysis  space-complexity  lower-bounds  formal-languages  computability  formal-grammars  context-free  parsing  complexity-theory  time-complexity  terminology  turing-machines  nondeterminism  programming-languages  semantics  operational-semantics  complexity-theory  time-complexity  complexity-theory  reference-request  turing-machines  machine-models  simulation  graphs  probability-theory  data-structures  terminology  distributed-systems  hash-tables  history  terminology  programming-languages  meta-programming  terminology  formal-grammars  compilers  algorithms  search-algorithms  formal-languages  regular-languages  complexity-theory  satisfiability  sat-solvers  factoring  algorithms  randomized-algorithms  streaming-algorithm  in-place  algorithms  numerical-analysis  regular-languages  automata  finite-automata  regular-expressions  algorithms  data-structures  efficiency  coding-theory  algorithms  graph-theory  reference-request  education  books  formal-languages  context-free  proof-techniques  algorithms  graph-theory  greedy-algorithms  matroids  complexity-theory  graph-theory  np-complete  intuition  complexity-theory  np-complete  traveling-salesman  algorithms  graphs  probabilistic-algorithms  weighted-graphs  data-structures  time-complexity  priority-queues  computability  turing-machines  automata  pushdown-automata  algorithms  graphs  binary-trees  algorithms  algorithm-analysis  spanning-trees  terminology  asymptotics  landau-notation  algorithms  graph-theory  network-flow  terminology  computability  undecidability  rice-theorem  algorithms  data-structures  computational-geometry 

2
고차원 피쳐 공간에서 K- 가장 가까운 이웃과 같은 비모수 적 방법
k-Nearest-Neighbour 의 주요 아이디어는 k 가장 가까운 포인트 를 고려하고 다수결로 데이터의 분류를 결정합니다. 그렇다면, 위치에 민감한 해싱 과 같은 방법이 가장 가까운 이웃을 효율적으로 찾을 수 있기 때문에 더 높은 차원의 데이터에 문제가 없어야합니다 .kkk 또한 베이지안 네트워크를 통한 기능 선택으로 데이터의 차원을 줄이고 학습을 더 쉽게 할 수 …

2
주어진 문자열을 수락하고 다른 주어진 문자열을 거부하는 가장 작은 DFA
주어 두 세트는 문자 위에 문자열 우리 (DFA) 작은 결정 성 유한 상태 오토 마톤을 계산할 수 M 이되도록 \ SUBSETEQ의 L (M) 와 L (M) \ SUBSETEQ \ 시그마 ^ * \ setminus의 B를 ?A,BA,BA,BΣΣ\SigmaMMMA⊆L(M)A⊆L(M)A \subseteq L(M)L(M)⊆Σ∗∖BL(M)⊆Σ∗∖BL(M) \subseteq \Sigma^*\setminus B 즉, AAA 는 일련의 긍정적 인 예를 나타냅니다. A의 …


1
나이브 베이 즈 구현
Laplacian smoothing을 사용하여 텍스트 분류를위한 Naive Bayes 알고리즘을 구현하고 있습니다. 내가 가진 문제는 많은 작은 분수를 곱하기 때문에 확률이 0에 가까워진다는 것입니다. 따라서 확률은 결국 0이됩니다. 문서와 훈련 세트 내에 여러 단어가 있기 때문입니다. 이로 인해 텍스트를 분류 할 수 없습니다. 이 문제를 해결할 수있는 방법이 있습니까? 구현에 문제가 있습니까?

4
NP 문제 해결을위한 인공 신경 네트워크 진화
최근에 Google Research 블로그에서 신경망에 대한 흥미로운 블로그 항목을 읽었습니다. 기본적으로 그들은 이미지 인식과 같은 다양한 문제를 해결하기 위해이 신경망을 사용합니다. 그들은 축삭의 무게를 "진화"시키기 위해 유전자 알고리즘을 사용합니다. 기본적으로 내 생각은 다음과 같습니다. 숫자를 인식하는 프로그램을 작성해야한다면 시작하는 방법을 모를 것입니다. 신경망이 진화하기 위해 올바른 맥락을 만들어 내 신경망은 …

2
SVM 분류에 어떤 분류 기가 더 정확한가요?
SVM 분류를 배우고 있는데 문제가 있습니다. 이 딜레마에 대한 용어가 있는지 확실하지 않습니다. 건강한 사람 (성별)과 간암 환자 (성별)를 고려하여 환자를 SVM으로 분류한다고 가정합니다. 건강한 사람 샘플을 클래스 1로, 암 환자를 클래스 2로 레이블링하면 이진 SVM을 훈련시키고 분류기 1을 얻어 새로운 환자를 예측할 수 있습니다. 이제 다른 시나리오를 상상해보십시오. 먼저 …

2
에뮬레이터 입력 최적화 문제를 어떻게 분류하고 어떤 알고리즘으로 접근해야합니까?
질문의 성격으로 인해 많은 배경 정보를 포함해야합니다 (왜냐하면 질문의 범위를 좁히는가?). 다음과 같이 요약 할 수 있습니다. 매우 큰 조합 검색 공간에서 지역 최적을 찾는 방법은 무엇입니까? 배경 툴 지원 슈퍼 플레이 커뮤니티에서는 비용을 최소화하기 위해 비디오 게임 콘솔 또는 에뮬레이터에 특수 제작 된 (실시간으로 생성되지 않은) 입력을 제공하려고합니다 (보통 …

1
의사 랜덤 시퀀스 예측
면책 조항 : 나는 생물 학자이므로 그러한 조잡한 용어로 표현 된 기본 질문에 대해 유감스럽게 생각합니다. 여기 또는 DS / SC에서이 질문을해야할지 확실하지 않지만 CS가 3 개 중 가장 큽니다. (내가 게시 한 후 Cross-Validated가 더 좋은 곳 일 수는 있지만 아쉽습니다.) 바이너리 결정을 내리는 에이전트가 있다고 상상해보십시오. 그리고 각 …

1
분쟁 중심 조항 학습 역 추적 설명
wikipedia 페이지 에서 CDCL 알고리즘에 대해 잘 설명하고 있습니다 (사진은 Princeton의 Sharad Malik이 만든 슬라이드에서 가져온 것 같습니다). 그러나 모든 역 추적 방법을 설명 할 때는 "적절한 시점까지"라고 말합니다. MiniSAT는 또한 CDCL 알고리즘의 변형을 사용하므로이 논문을 읽었습니다.. 그들이 말하는 것처럼 배운 조항이 단위 조항이 될 때까지 역 추적해야한다는 것입니다. 그것은 …

1
역 전파 알고리즘의 운동량 용어는 어떻게 작동합니까?
운동량 항과 함께 역 전파 알고리즘을 사용하여 신경망의 가중치를 업데이트 할 때 학습 속도도 운동량 항에 적용되어야합니까? 운동량 사용에 대해 찾을 수있는 대부분의 정보는 다음과 같은 방정식을 갖습니다. W′i=Wi−αΔWi+μΔWi−1Wi′=Wi−αΔWi+μΔWi−1W_{i}' = W_{i} - \alpha \Delta W_i + \mu \Delta W_{i-1} 어디 αα\alpha 학습률이며 μμ\mu 운동량 항입니다. 만약에 μμ\mu 용어가 αα\alpha 다음 …

3
신경망을위한 커널 트릭
신경망과 SVM에 대해 배웠습니다. 내가 읽은 튜토리얼은 SVM의 커널 화가 얼마나 중요한지 강조했습니다. 커널 함수가 없으면 SVM은 선형 분류 기일뿐입니다. 커널 화를 통해 SVM은 비선형 기능을 통합하여보다 강력한 분류기를 만들 수 있습니다. 신경망에 커널 화를 적용 할 수있는 것처럼 보이지만 신경망에 대한 자습서 중 어느 것도 이것을 언급하지 않았습니다. 사람들은 …

1
신경망의 가중치가 임의의 숫자로 초기화되는 이유는 무엇입니까?
신경망 초기 가중치가 난수로 초기화되는 이유는 무엇입니까? 나는 이것이 "대칭을 깨뜨리기"위해 수행되는 곳을 읽었고 이것은 신경망을 더 빨리 배우게한다. 대칭을 깨 뜨리면 어떻게 더 빨리 배울 수 있습니까? 가중치를 0으로 초기화하지 않는 것이 더 좋을까요? 그렇게하면 가중치가 (긍정적이든 부정적이든) 값을 더 빨리 찾을 수 있습니까? 초기화시 가중치가 최적의 값에 가까워지기를 …

2
PAC 학습 이전에 있었던 일
기계 학습 / AI에 대한 사전 지식이없는 초보자로 PAC 학습 (계산 학습 이론)을 조사하고 있습니다. 역사적 관점에서 주로 모델을 조사하고 있습니다. 이를 위해 가장 중요한 것은 물론 모델을 기반으로 한 결과입니다. 이 결과를 문서화하기에 충분한 논문이 있습니다. 그러나 나는 또한 PAC 모델의 개념과 함께 Valiant가 어디서 왔는지에 대한 역사적 맥락을 …

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.