«machine-learning» 태그된 질문

기계 학습 알고리즘은 훈련 데이터의 모델을 구축합니다. "기계 학습"이라는 용어는 모호하게 정의됩니다. 여기에는 통계 학습, 강화 학습, 비지도 학습 등이 포함됩니다. 항상 더 구체적인 태그를 추가하십시오.

3
선형 분리 성 테스트
높은 차원에서 2 클래스 데이터 세트의 선형 분리 성을 테스트하는 방법이 있습니까? 내 특징 벡터의 길이는 40입니다. 나는 항상 로지스틱 회귀 실험을 수행하고 두 클래스가 선형으로 분리 가능한지 여부를 결정하기 위해 적중률과 허위 경보 비율을 결정할 수 있지만 이미 표준 절차가 있는지 아는 것이 좋습니다.

1
임의의 숲 나무에 가지 치기가 필요하지 않은 이유는 무엇입니까?
Breiman은 나무가 가지 치기없이 자라고 있다고 말합니다. 왜? 무작위 숲의 나무가 가지 치지 않는 확실한 이유가 있어야한다고 말하고 싶습니다. 반면에 과도한 피팅을 피하기 위해 단일 의사 결정 트리를 제거하는 것이 매우 중요합니다. 이런 이유로 읽을 수있는 문헌이 있습니까? 물론 나무는 서로 연관되어 있지 않을 수 있지만 여전히 적합치가 높아질 수 …

1
libsvm“최대 반복 횟수에 도달”경고 및 교차 유효성 검사
C-SVC 모드에서 2 차 다항식 커널로 libsvm을 사용하고 있으며 여러 SVM을 훈련시켜야합니다. 각 트레이닝 세트에는 10 개의 기능과 5000 개의 벡터가 있습니다. 훈련하는 동안 훈련하는 대부분의 SVM에 대해이 경고가 표시됩니다. WARNING: reaching max number of iterations optimization finished, #iter = 10000000 누군가이 경고가 의미하는 바를 설명하고 어떻게 피할 수 있습니까? …

2
AdaBoost가 과적 합하는 경향이 적습니까?
나는 AdaBoost (또는 다른 부스팅 기술)가 다른 학습 방법에 비해 과적 합하기 쉬운 지 아닌지에 대한 다양한 (겉보기에) 모순되는 진술을 읽었습니다. 둘 중 하나를 믿을만한 충분한 이유가 있습니까? 그것이 의존한다면, 그것은 무엇에 달려 있습니까? AdaBoost가 과적 합하는 경향이 적은 이유는 무엇입니까?

3
“커널 트릭”을 선형 방법에 적용 하시겠습니까?
커널 트릭은 여러 기계 학습 모델 (예에 사용되는 SVM ). 그것은 1964 년에 "패턴 인식 학습의 잠재적 기능 방법의 이론적 기초"논문에서 처음 소개되었다. 위키 백과 정의에 따르면 원래의 비선형 관측치를보다 높은 차원의 공간으로 매핑함으로써 선형 비 분류 알고리즘을 사용하여 비선형 문제를 해결하는 방법; 이렇게하면 새 공간의 선형 분류가 원래 공간의 …


5
기능 엔지니어링이 작동하는 이유는 무엇입니까?
최근 ML 문제에 대한 더 나은 솔루션을 찾는 방법 중 하나는 기능을 만드는 것입니다. 예를 들어 두 기능을 합산하면됩니다. 예를 들어, 우리는 어떤 종류의 영웅의 "공격"과 "방어"의 두 가지 기능을 가지고 있습니다. 그런 다음 "공격"과 "방어"의 합인 "total"이라는 추가 기능을 만듭니다. 이제 이상하게 보이는 것은 터프한 "공격"과 "방어"조차도 "총"과 거의 …

1
머신 러닝 알고리즘에서 누락 된 데이터와 희소 데이터의 차이점
희소 데이터와 누락 된 데이터의 주요 차이점은 무엇입니까? 기계 학습에 어떤 영향을 미칩니 까? 보다 구체적으로, 희소 데이터와 누락 된 데이터가 분류 알고리즘 및 회귀 (예측 숫자) 유형의 알고리즘에 미치는 영향. 누락 된 데이터의 백분율이 중요하고 누락 된 데이터가 포함 된 행을 삭제할 수없는 상황에 대해 이야기하고 있습니다.

2
편차-분산 트레이드 오프 파생 이해
난의 편향 - 분산 트레이드 오프의 제 판독하고 통계적 학습 요소 되도록 상기 데이터 모델에서 발생하자 I은 29 페이지의 식 의심이 여기서 무작위 예상 값이 이고 분산 입니다. 모델의 예상 오차 값을 여기서 는 학습자 의 에 대한 예측입니다 . 책에 따르면 오류는 Y=f(x)+ϵY=f(x)+ϵ Y = f(x)+\epsilonϵϵ\epsilonϵ^=E[ϵ]=0ϵ^=E[ϵ]=0\hat{\epsilon} = E[\epsilon]=0E[(ϵ−ϵ^)2]=E[ϵ2]=σ2E[(ϵ−ϵ^)2]=E[ϵ2]=σ2E[(\epsilon - …

2
LSTM에 가장 적합한 최적화 방법은 무엇입니까?
나는 theano를 사용하여 LSTM을 실험 해 왔으며 LSTM에 가장 적합한 최적화 방법 (SGD, Adagrad, Adadelta, RMSprop, Adam 등)이 궁금하십니까? 이 주제에 관한 연구 논문이 있습니까? 또한 대답은 LSTM을 사용하는 응용 프로그램 유형에 따라 달라 집니까? 그렇다면 텍스트 분류를 위해 LSTM을 사용하고 있습니다 (텍스트는 먼저 단어 벡터로 변환됩니다). 마지막으로, RNN에 대한 …

2
캐럿 학습 기능은 알파 및 람다 모두에 대해 glmnet 교차 검증 기능을 수행합니까?
R caret패키지 가 모델 alpha과 모델 모두 에 lambda대해 교차 검증 glmnet됩니까? 이 코드를 실행하면 eGrid <- expand.grid(.alpha = (1:10) * 0.1, .lambda = (1:10) * 0.1) Control <- trainControl(method = "repeatedcv",repeats = 3,verboseIter =TRUE) netFit <- train(x =train_features, y = y_train, method = "glmnet", tuneGrid = eGrid, trControl = …


5
딥 러닝 : 어떤 변수가 중요한지 어떻게 알 수 있습니까?
신경망 용어 (y = Weight * x + bias)와 관련하여 어떤 변수가 다른 변수보다 더 중요한지 어떻게 알 수 있습니까? 10 개의 입력, 20 개의 노드가있는 1 개의 숨겨진 레이어 및 1 개의 노드가있는 1 개의 출력 레이어가있는 신경망이 있습니다. 어떤 입력 변수가 다른 변수보다 더 영향력이 있는지 아는 방법을 …

3
유전자 알고리즘은 언제 최적화에 적합한가?
유전자 알고리즘은 최적화 방법의 한 형태입니다. 확률 적 구배 하강과 그 파생물은 함수 최적화를위한 최선의 선택이지만 종종 유전자 알고리즘이 여전히 사용됩니다. 예를 들어, NASA의 ST5 우주선의 안테나 는 유전자 알고리즘으로 만들어졌습니다. 유전자 최적화 방법이 더 일반적인 경사 하강 방법보다 더 나은 선택은 언제입니까?

3
RNN / LSTM 네트워크의 가중치가 시간이 지남에 따라 공유되는 이유는 무엇입니까?
최근에 LSTM에 관심을 갖게되었으며 시간이 지남에 따라 가중치가 공유된다는 사실에 놀랐습니다. 시간이 지남에 따라 가중치를 공유하면 입력 시간 시퀀스가 ​​가변 길이가 될 수 있습니다. 공유 가중치를 사용하면 훈련 할 매개 변수가 훨씬 적습니다. 내 이해에서 LSTM을 다른 학습 방법과 비교하는 이유는 데이터에 배우고 싶은 시간적 / 순차적 구조 / 의존성이 …

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.