«algorithms» 태그된 질문

일련의 문제에 대한 해결책을 찾는 것과 관련된 계산 단계의 명확한 목록.

1
다변량 가우스 분포에서 값 생성
I는 현재의 시뮬레이션 값을 시도하고 NNN 차원 랜덤 변수 XXX 의 평균 벡터 다변량 정규 분포를 갖는 μ=(μ1,...,μN)Tμ=(μ1,...,μN)T\mu = (\mu_1,...,\mu_N)^T 및 공분산 행렬 SSS . 역 CDF 방법과 유사한 절차를 사용하고 싶습니다. 먼저 NNN 차원의 균일 랜덤 변수 생성 한 UUU다음이 분포의 역 CDF에 연결하여 값 X 를 생성 하고 …

1
선형 가우스 칼만 필터에 대한 LogLikelihood 모수 추정
n 차원 상태 벡터에 대한 선형 가우스 상태 공간 분석을 위해 칼만 필터링 (여러 칼만 유형 필터 [Information Filter et al.] 사용)을 수행 할 수있는 코드를 작성했습니다. 필터가 훌륭하게 작동하고 좋은 결과를 얻었습니다. 그러나 로그 우도 추정을 통한 매개 변수 추정은 혼란 스럽습니다. 나는 통계학자가 아니라 물리학 자이기 때문에 친절하세요. …

1
LDA의 대수. 변수 및 선형 판별 분석의 피셔 식별 능력
분명히, Fisher 분석은 클래스 간 분산을 최소화하면서 동시에 클래스 간 분리를 최대화하는 것을 목표로합니다. 변수의 판별력에 대한 유용한 측정 값은 대각선 양 됩니다.비나는 내가/ W나는 내가Bii/WiiB_{ii}/W_{ii} http://root.cern.ch/root/htmldoc/TMVA__MethodFisher.html p x p사이 ( B )와 클래스 내 ( W ) 행렬 의 크기 ( ) 는 입력 변수의 수에 의해 주어진다는 것을 …

1
올가미에 대한 LARS 대 좌표 하강
L1 정규 선형 회귀 피팅에 LARS [1] 사용과 좌표 하강 사용의 장단점은 무엇입니까? 나는 주로 퍼포먼스 측면에 관심이있다 (내 문제는 N수십만에서 p20 이하인 경향이있다 ). 그러나 다른 통찰력도 인정 될 것이다. 편집 : 내가 질문을 게시 한 후 chl은 Friedman 등의 논문 [2]에 좌표 하강이 다른 방법보다 상당히 빠른 것으로 …



5
자동화 된 기계 학습은 꿈입니까?
머신 러닝을 발견하면 다음과 같은 흥미로운 기술이 나타납니다. 자동 같은 기법 튜닝 알고리즘 grid search, 동일한 "유형"의 서로 다른 알고리즘을 조합하여보다 정확한 결과를 얻을 수 있습니다 boosting. 서로 다른 알고리즘 (동일한 유형의 알고리즘은 아님)의 조합을 통해보다 정확한 결과를 얻을 수 있습니다 stacking. 아마 더 많은 것을 여전히 발견해야 할 것입니다 …



1
가중 샘플에 대한 Quantile 정의
Quantile을 계산하려는 가중치 샘플이 있습니다. 1 가중치가 동일한 경우 (= 1이든 아니든) 결과는 scipy.stats.scoreatpercentile()R 과 동일 quantile(...,type=7)합니다. 간단한 방법 중 하나는 주어진 가중치를 사용하여 샘플을 "곱셈"하는 것입니다. 이는 중량이 1보다 큰 영역에서 국부적으로 "평평한"ecdf를 효과적으로 제공하는데, 이는 샘플이 실제로 서브 샘플링 일 때 직관적으로 잘못된 접근법처럼 보입니다. 특히, 가중치가 모두 …

2
랜덤 포레스트는 예측 편견을 나타 냅니까?
왜 또는 왜 그렇지 않을지에 대한 추론이 있지만 이것은 간단한 질문이라고 생각합니다. 내가 묻는 이유는 내가 최근에 자체 RF 구현을 작성했으며 그것이 잘 수행하더라도 예상 한 것만 큼 성능이 좋지 않다는 것입니다 ( Kaggle 사진 품질 예측 경쟁 데이터 세트, 우승 점수 및 일부 어떤 기술이 사용되었는지에 관한 후속 정보). …

4
알파 및 베타가 큰 베타 분포의 값을 (숫자 적으로) 근사 적으로 계산하는 방법
큰 정수 알파, 베타에 대한 베타 분포 값을 계산하는 수치 적으로 안정적인 방법이 있습니까 (예 : alpha, beta> 1000000)? 실제로, 어떻게 든 문제를 쉽게 만들 수 있다면 모드 주위에 99 % 신뢰 구간 만 있으면됩니다. 추가 : 죄송합니다. 제 질문은 생각했던대로 명확하게 언급되지 않았습니다. 내가하고 싶은 것은 이것입니다 : 컨베이어 …

3
매우 작은 세트의 이상치 탐지
12 개의 샘플 광도 값이 주어지면 주로 안정적인 광원의 밝기 값을 최대한 정확하게 얻어야합니다. 센서가 불완전하고 빛이 때때로 "깜박 거리며"밝거나 어두워 지므로 무시할 수 있습니다. 따라서 이상치 탐지가 필요합니다. 나는 다양한 접근 방식을 읽었으며 어떤 접근 방식을 결정할 수 없습니다. 특이 치의 수는 미리 알려져 있지 않으며 종종 0입니다. 플리커는 …


3
VC 치수가 중요한 이유
Wikipedia 는 다음과 같이 말합니다. VC 차원은 알고리즘이 산산조각 낼 수있는 가장 큰 점 집합의 카디널리티입니다. 예를 들어 선형 분류기는 카디널리티 n + 1을 갖습니다. 내 질문은 왜 우리가 관심을 갖는가? 선형 분류를 수행하는 대부분의 데이터 세트는 매우 큰 경향이 있으며 많은 점이 포함됩니다.

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.