«statistical-learning» 태그된 질문

기계 학습 알고리즘은 훈련 데이터의 모델을 구축합니다. "기계 학습"이라는 용어는 모호하게 정의되어 있습니다. 여기에는 통계 학습, 강화 학습, 비지도 학습 등이 포함됩니다. 항상 특정 태그를 추가합니다.


2
릿지 회귀가 왜“리지”라고 불리는가, 왜 필요하며,
릿지 회귀 계수 추정치 β R은 을 최소화 값인β^아르 자형β^R\hat{\beta}^R RSS + λ ∑j = 1피β2제이.RSS+λ∑j=1pβj2. \text{RSS} + \lambda \sum_{j=1}^p\beta_j^2. 내 질문은 : 경우 , 우리는 표현이 위의 일반적인 RSS로 줄일 것을 알 수있다. 만약 λ → ∞ 라면 ? 계수의 동작에 대한 교과서 설명을 이해하지 못합니다.λ = 0λ=0\lambda = …

3
감독 클러스터링 또는 분류?
두 번째 질문은 웹에서 어딘가에서 "감독 클러스터링"에 대해 이야기하고 있다는 것을 알았습니다. 클러스터링은 감독되지 않았으므로 "감독 클러스터링"의 의미는 무엇입니까? "분류"와 관련하여 차이점은 무엇입니까? 그것에 대해 이야기하는 많은 링크가 있습니다. http://www.cs.uh.edu/docs/cosc/technical-reports/2005/05_10.pdf http://books.nips.cc/papers/files/nips23/NIPS2010_0427.pdf http://engr.case.edu/ray_soumya/mlrg/supervised_clustering_finley_joachims_icml05.pdf http://www.public.asu.edu/~kvanlehn/Stringent/PDF/05CICL_UP_DB_PWJ_KVL.pdf http://www.machinelearning.org/proceedings/icml2007/papers/366.pdf http://www.cs.cornell.edu/~tomf/publications/supervised_kmeans-08.pdf http://jmlr.csail.mit.edu/papers/volume6/daume05a/daume05a.pdf 등 ...

3
데이터 블렌딩이란 무엇입니까?
이 용어는 메소드 관련 스레드 에서 자주 나타납니다 . 되어 혼합 데이터 마이닝 및 통계 학습의 특정 방법을? Google에서 관련 결과를 얻을 수 없습니다. 블렌딩은 많은 모델의 결과를 혼합하여 더 나은 결과를 가져온 것 같습니다. 그것에 대해 더 잘 아는 데 도움이되는 자료가 있습니까?

1
다른 토폴로지에서 다른 추정기의 수렴 동작에 대해 논의해야하는 이유는 무엇입니까?
다른 기능 공간에서 추정의 수렴에 대해 이야기하는 대수 기하학 및 통계 학습 이론 책의 첫 번째 장 에서 베이지안 추정은 슈바르츠 분포 토폴로지에 해당하고 최대 가능성 추정은 정상 토폴로지에 해당한다고 언급합니다. (7 페이지) : 예를 들어, sup-norm, -norm, 엘피엘피L^pHilbert space 의 약한 토폴로지 엘2엘2L^2, Schwartz 배포 토폴로지 등이 있습니다. 수렴 …

2
변수 벡터가 어떻게 초평면을 나타낼 수 있습니까?
통계 학습의 요소를 읽고 12 페이지 (섹션 2.3)에서 선형 모델은 다음과 같이 표기됩니다. Yˆ=XTβˆY^=XTβ^\widehat{Y} = X^{T} \widehat{\beta} ... 여기서 는 예측 변수 / 독립 변수 / 입력의 열 벡터의 전치입니다. (이전에는 "모든 벡터가 열 벡터로 가정된다"고 말 했으므로 를 행 벡터로 만들고 를 열 벡터로 만들지 않겠습니까?) X T βXTXTX^{T}XTXTX^{T}βˆβ^\widehat{\beta} …

1
푸 아송 분포의 데이터에 대한 로지스틱 회귀
일부 기계 학습 노트에서 일부 차별적 분류 방법, 특히 로지스틱 회귀 분석에 대해 이야기합니다. 여기서 y는 클래스 레이블 (0 또는 1)이고 x는 데이터입니다. 만약 및 X는 | y는 1 \ SIM \ mathrm {} 포아송 (λ_1) = 다음 P (Y | X)를 물류 것이다.x|y=0∼Poisson(λ0)x|y=0∼Poisson(λ0)x|y = 0 \sim \mathrm{Poisson}(λ_0)x|y=1∼Poisson(λ1)x|y=1∼Poisson(λ1)x|y = 1 …

1
2 클래스 모델을 멀티 클래스 문제로 확장
Adaboost에 대한 이 백서는 2 클래스 모델을 K 클래스 문제로 확장하기위한 몇 가지 제안과 코드 (17 페이지)를 제공합니다. 다른 2 클래스 모델을 쉽게 연결하고 결과를 비교할 수 있도록이 코드를 일반화하고 싶습니다. 대부분의 분류 모델에는 수식 인터페이스와 predict방법이 있으므로이 중 일부는 비교적 쉽습니다. 불행히도 2 클래스 모델에서 클래스 확률을 추출하는 표준 …

1
정보 기하학의 설명
이 질문은 Amari 의 곡선 형 지수 패밀리 곡률 및 정보 손실의 차등 형상에 관한 것 입니다. 텍스트는 다음과 같습니다. 하자 수 좌표계 함께 확률 분포의 차원 매니 , 으로 가정합니다 ...에스엔= { pθ}Sn={pθ}S^n=\{p_{\theta}\}엔엔nθ = ( θ1, … , θ엔)θ=(θ1,…,θ엔)\theta=(\theta_1,\dots,\theta_n)피θ( x ) > 0피θ(엑스)>0p_{\theta}(x)>0 우리는 모든 점 간주있다 의 함수 …

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.