«discriminant-analysis» 태그된 질문

선형 판별 분석 (LDA)은 차원 축소 및 분류 방법입니다. 클래스 분리가 가장 강한 저 차원 부분 공간을 찾아 분류를 수행하는 데 사용합니다. 이차 DA (QDA)에도이 태그를 사용하십시오.

1
감독 차원 축소
15K 레이블이 지정된 샘플 (10 그룹)로 구성된 데이터 세트가 있습니다. 레이블의 지식을 고려하여 차원 축소를 2 차원으로 적용하고 싶습니다. PCA와 같은 "표준"감독되지 않은 차원 축소 기법을 사용할 때 산점도는 알려진 레이블과 관련이없는 것 같습니다. 찾고있는 이름이 있습니까? 솔루션에 대한 몇 가지 참조를 읽고 싶습니다.

2
그룹을 분리하는 PCA 구성 요소 선택
PCA를 사용하여 다변량 데이터를 진단하는 데 자주 사용했습니다 (수십만 개의 변수와 수십 또는 수백 개의 샘플이있는 omics 데이터). 데이터는 종종 일부 그룹을 정의하는 몇 가지 범주 형 독립 변수를 사용한 실험에서 나온 것이므로 관심 그룹 사이의 분리를 나타내는 요소를 찾기 전에 종종 몇 가지 구성 요소를 거쳐야합니다. 나는 그러한 차별적 …

1
LDA의 대수. 변수 및 선형 판별 분석의 피셔 식별 능력
분명히, Fisher 분석은 클래스 간 분산을 최소화하면서 동시에 클래스 간 분리를 최대화하는 것을 목표로합니다. 변수의 판별력에 대한 유용한 측정 값은 대각선 양 됩니다.비나는 내가/ W나는 내가Bii/WiiB_{ii}/W_{ii} http://root.cern.ch/root/htmldoc/TMVA__MethodFisher.html p x p사이 ( B )와 클래스 내 ( W ) 행렬 의 크기 ( ) 는 입력 변수의 수에 의해 주어진다는 것을 …


2
Fisher 기준 가중치를 계산하는 방법은 무엇입니까?
패턴 인식과 기계 학습을 공부하고 있는데 다음 질문에 부딪 쳤습니다. 동일한 사전 등급 확률 클래스 분류 문제를 고려하십시오.P(D1)=P(D2)=12P(D1)=P(D2)=12P(D_1)=P(D_2)= \frac{1}{2} 그리고 각 클래스에서 인스턴스의 분포는 p(x|D1)=N([00],[2001]),p(x|D1)=N([00],[2001]), p(x|D_1)= {\cal N} \left( \begin{bmatrix} 0 \\0 \end{bmatrix}, \begin{bmatrix} 2 & 0 \\ 0 & 1 \end{bmatrix} \right), p(x|D2)=N([44],[1001]).p(x|D2)=N([44],[1001]). p(x|D_2)= {\cal N} \left( \begin{bmatrix} 4 …


2
분류 문제에서 클래스 분리 성 측정
선형 판별 학습자에서 클래스 분리 성을 측정하는 좋은 예는 Fisher의 선형 판별 비율입니다. 기능 세트가 대상 변수 사이에 클래스를 잘 분리 할 수 ​​있는지 판별하기위한 다른 유용한 지표가 있습니까? 특히, 대상 클래스 분리를 ​​최대화하기위한 우수한 다변량 입력 속성을 찾는 데 관심이 있으며, 비선형 / 비모수 적 측정을 통해 분리 성이 …

3
선형 판별 분석 (LDA)의 스케일링 값을 사용하여 선형 판별에 설명 변수를 그릴 수 있습니까?
주성분 분석을 통해 얻은 Biplot 값을 사용하여 각 주성분을 구성하는 설명 변수를 탐색 할 수 있습니다. 선형 판별 분석에서도 가능합니까? 제공된 데이터는 "Edgar Anderson의 홍채 데이터"( http://en.wikipedia.org/wiki/Iris_flower_data_set )입니다. 홍채 데이터 는 다음과 같습니다 . id SLength SWidth PLength PWidth species 1 5.1 3.5 1.4 .2 setosa 2 4.9 3.0 1.4 …

3
분류에서 LDA 대신 PCA를 언제 사용 하시겠습니까?
원리 성분 분석과 다중 판별 분석 (선형 판별 분석)의 차이점에 대한 이 기사 를 읽고 있으며 MDA / LDA가 아닌 PCA를 왜 사용해야하는지 이해하려고 노력하고 있습니다. 설명은 다음과 같이 요약됩니다. PCA에서 대략적으로 말하면 데이터가 가장 널리 퍼져있는 곳 (PCA가 전체 데이터 세트를 하나의 클래스로 취급하기 때문에 클래스 내에서)이 최대 편차를 …

1
선형 판별 분석에 대한 베이지안 및 피셔의 접근 방식
LDA를 수행하는 두 가지 접근 방식, 베이지안 접근 방법 및 피셔 접근 방법을 알고 있습니다. 데이터 가 있다고 가정합니다 . 여기서 는 차원 예측 변수이고 는 클래스 의 종속 변수입니다 .(x,y)(x,y)(x,y)xxxpppyyyKKK 하여 베이지안 접근 , 우리는 후방 계산 , 그리고 책에서 가 Gaussian 이라고 가정 하면 번째 클래스에 대한 판별 …

1
Kurtosis에 의해 생성 된 이상치 처리
누군가가 Kurtosis에 대한 정보로 나를 도울 수 있는지 궁금합니다 (즉, 데이터를 줄이기 위해 데이터를 변환하는 방법이 있습니까?) 많은 수의 사례와 변수가있는 설문지 데이터 세트가 있습니다. 내 변수 중 일부에 대해 데이터는 많은 참가자가 변수에 대해 정확히 동일한 점수를 주었다는 사실에서 파생 된 상당히 높은 첨도 값 (즉, 렙 토쿠 르틱 …

1
군집 분석 후 판별 분석
k-means와 같은 군집 알고리즘의 결과에 대해 판별 분석 (DA)을 사용하는 근거는 무엇입니까 (필수적으로 정신 장애의 임상 적 서브 타이핑). 클래스 간 (클래스 내) 관성의 최대화 (각각 최소화)를 지원하므로 클러스터 생성 중에 사용 된 변수에 대한 그룹 차이를 테스트하는 것은 일반적으로 권장되지 않습니다. 따라서 개인을 더 낮은 차원의 계승 공간에 포함시키고 …

1
선형, 2 차 및 피셔의 판별 분석에 대한 출처의 의견 불일치
판별 분석을 공부하고 있지만 여러 가지 다른 설명을 조정하는 데 어려움을 겪고 있습니다. 나는 전에 (이것으로 보이는) 수준의 불일치에 직면 한 적이 없기 때문에 뭔가 빠진 것이 틀림 없다고 생각합니다. 그러나이 웹 사이트의 판별 분석에 대한 질문의 수는 그 복잡성을 입증하는 것으로 보입니다. 여러 클래스의 LDA 및 QDA 저의 주요 …

1
전처리 단계로 LDA를 사용할 때 기능 표준화
다중 등급 선형 판별 분석 (또는 다중 판별 분석이라고도 함)을 차원 축소 (또는 PCA를 통한 차원 축소 후 변환)에 사용하는 경우 일반적으로 "Z- 점수 정규화"(또는 표준화) 완전히 다른 스케일로 측정 되더라도 기능이 필요하지 않습니까? LDA에 이미 표준화 된 유클리드 거리를 암시하는 Mahalanobis 거리와 유사한 용어가 포함되어 있기 때문에? 따라서 꼭 …

3
LDA 대 퍼셉트론
LDA가 다른지도 학습 기술 내에서 어떻게 '적합'하는지 느끼려고 노력하고 있습니다. LDA에 대한 LDA-esque 게시물을 이미 읽었습니다. 나는 이미 퍼셉트론에 익숙하지만 지금은 LDA를 배우고 있습니다. LDA는지도 학습 알고리즘 제품군에 어떻게 적합합니까? 다른 방법에 비해 단점은 무엇이며 더 잘 사용할 수있는 방법은 무엇입니까? 예를 들어 퍼셉트론을 사용할 수있을 때 왜 LDA를 사용합니까?

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.