통계 및 빅 데이터

통계, 기계 학습, 데이터 분석, 데이터 마이닝 및 데이터 시각화에 관심있는 사람들을위한 Q & A

2
때 "단위 분산"능형 회귀 추정기의 한계
에 단위 제곱합 (즉, 단위 분산) 이 있어야한다는 추가 제약 조건으로 능선 회귀를 고려하십시오 . 필요한 경우 에는 단위 제곱의 합도 있다고 가정 할 수 있습니다. y를y^y^\hat{\mathbf y}yy\mathbf y β^∗λ=argmin{∥y−Xβ∥2+λ∥β∥2}s.t.∥Xβ∥2=1.β^λ∗=arg⁡min{‖y−Xβ‖2+λ‖β‖2}s.t.‖Xβ‖2=1.\hat{\boldsymbol\beta}_\lambda^* = \arg\min\Big\{\|\mathbf y - \mathbf X \boldsymbol \beta\|^2+\lambda\|\boldsymbol\beta\|^2\Big\} \:\:\text{s.t.}\:\: \|\mathbf X \boldsymbol\beta\|^2=1. \ lambda \ to \ infty 일 때 …

4
기술 통계량을보고하는 요점은 무엇입니까?
로지스틱 회귀를 사용하여 데이터를 분석했지만 보고서에 기술 통계 부분이 있어야합니다. 나는 솔직히 이것의 요점을 보지 못했고 누군가 왜 그것이 필요한지 설명 할 수 있기를 바랐습니다. 예를 들어, 독립적 인 연속 변수 중 하나의 히스토그램을 플로팅하고 정규성을 보이거나 왜이 값이 보고서에 어떤 값을 추가 할 것인가를 보여주는 경우? 내 데이터는 취업에 …

1
일반화 된 선형 모델 (GLM)의 잠재 변수 해석
짧은 버전 : 로지스틱 회귀 및 프로 빗 회귀는 관측하기 전에 일정한 임계 값에 따라 이산화되는 연속 잠재 변수를 포함하는 것으로 해석 될 수 있음을 알고 있습니다. 포아송 회귀에 대해 유사한 잠재 변수 해석이 가능한가? 불연속 결과가 두 개 이상일 때 이항 회귀 (예 : 로짓 또는 프로 빗)는 어떻습니까? …

1
t-SNE 대 MDS
최근 t-SNE ( t-Distributed Stochastic Neighbor Embedding ) 에 대한 질문을 읽고 MDS ( Multidimensional Scaling )에 대한 질문도 방문했습니다 . 그것들은 종종 유사하게 사용되므로 여기에 별도로 (또는 PCA 와 비교하여 ) 둘 다에 많은 질문이 있음을 보는 것이 좋습니다 . 요컨대 t-SNE와 MDS의 차이점은 무엇입니까? 예. 그들이 탐구하는 데이터 …

7
누군가 독립과 무작위의 차이점을 설명하는 데 도움이 될 수 있습니까?
통계에서 독립 및 무작위는 동일한 특성을 설명합니까? 그들 사이의 차이점은 무엇입니까? 우리는 종종 "두 개의 독립적 인 랜덤 변수"또는 "무작위 샘플링"과 같은 설명을 접하게됩니다. 나는 그들 사이의 정확한 차이점이 무엇인지 궁금합니다. 누군가 이것을 설명하고 몇 가지 예를 들어 줄 수 있습니까? 예를 들어 비 독립적이지만 무작위적인 프로세스?

4
머신 러닝 또는 딥 러닝 알고리즘을 사용하여 MCMC 기술의 샘플링 프로세스를 "향상"할 수 있습니까?
MCMC (Markov chain Monte Carlo) 방법에 대한 약간의 지식을 바탕으로 샘플링이 앞에서 언급 한 기술의 중요한 부분임을 이해합니다. 가장 일반적으로 사용되는 샘플링 방법은 Hamiltonian과 Metropolis입니다. 보다 효율적인 MCMC 샘플러를 구성하기 위해 머신 러닝 또는 딥 러닝을 활용할 수있는 방법이 있습니까?


2
연속적인 독립 변수 / 기능을 언제 이산 / 빈화해야합니까?
언제 독립 변수 / 기능을 이산 / 빈화해야하고 언제 안됩니까? 질문에 대답하려는 나의 시도 : 비닝은 정보를 잃을 것이기 때문에 일반적으로 비닝해서는 안됩니다. 비닝은 실제로 모형의 자유도를 증가 시키므로 비닝 후에 초과 피팅을 유발할 수 있습니다. "높은 바이어스"모델이있는 경우 비닝이 나쁘지는 않지만 "높은 분산"모델이있는 경우 비닝을 피해야합니다. 사용중인 모델에 따라 …

2
제한된 Boltzmann 기계 : 기계 학습에 어떻게 사용됩니까?
배경: 예, RBM (Restricted Boltzmann Machine)을 사용하여 신경망의 가중치를 시작할 수 있습니다. 또한 "신속한 계층"방식으로 심층 네트워크를 구축 (즉, 최상위 계층에서 번째 계층 을 학습 한 다음 의 상단 층 번째 번째 층 헹군 반복 ...)( N - 1 ) , N + 1 , Nnnn(n−1)(n−1)(n-1)n+1n+1n+1nnn . RBM 사용 방법에 …

5
과적 합 :은 총알이 없습니까?
올바른 교차 검증 및 모델 선택 절차를 따를 때에도 모델 복잡성, 기간에 제한을 두지 않는 한 모델을 충분히 검색 하지 않으면 과적 합 이 발생 한다는 것을 이해 합니다. 더욱이 사람들은 종종 그들이 제공 할 수있는 보호를 약화시키는 데이터로부터 모델 복잡성에 대한 처벌을 배우려고 시도합니다. 내 질문은 : 위의 진술에 …

4
상관 관계의 기본 가정과 유의성 회귀 기울기 검정의 차이
내 질문은 다른 질문 에 대한 의견에서 @whuber와의 토론에서 자랐습니다 . 구체적으로 @whuber의 의견은 다음과 같습니다. 놀랍게도 한 가지 이유는 상관 관계 테스트와 회귀 기울기 테스트의 기본 가정이 다르기 때문에 상관 관계와 기울기가 실제로 같은 것을 측정한다는 것을 이해하더라도 p- 값이 동일한 이유는 무엇입니까? 이것은 과 가 수치 적으로 같아야하는 …

1
상자와 수염이 같은 Anscombe와 유사한 데이터 세트 (평균 / 표준 / 중앙 / MAD / 최소 / 최대)
편집 :이 질문이 팽창함에 따라 요약 : 동일한 혼합 통계 (평균, 중간, 중간 범위 및 관련 분산 및 회귀)로 다른 의미 있고 해석 가능한 데이터 집합 찾기 Anscombe 중주 (참조 ? 고차원 데이터를 시각화 목적 ) 네의 유명한 예는 - (네에서 동일한 한계 평균 / 표준 편차, 데이터 집합 4 …

3
커널 화 된 SVM에 Gradient Descent가 가능합니까 (그렇다면 사람들이 왜 Quadratic Programming을 사용 하는가)?
사람들이 커널 화 된 SVM을 다룰 때 왜 이차 프로그래밍 기술 (예 : SMO)을 사용합니까? 그라데이션 하강에 어떤 문제가 있습니까? 커널과 함께 사용하는 것이 불가능합니까, 아니면 너무 느립니다 (그리고 왜?). 좀 더 자세한 내용은 다음과 같습니다. SVM을 조금 더 이해하려고 노력하면서 Gradient Descent를 사용하여 다음 비용 함수를 사용하여 선형 SVM …

2
신경망 강화
최근에 나는 adaboost, gradient boost와 같은 boosting algorithm을 배우고 있었고 가장 많이 사용되는 약한 학습자가 나무라는 사실을 알고 있습니다. 신경망을 기본 학습자로 사용하기위한 최근의 성공적인 사례 (논문 또는 기사를 의미 함)가 있는지 알고 싶습니다.


당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.