통계 및 빅 데이터

통계, 기계 학습, 데이터 분석, 데이터 마이닝 및 데이터 시각화에 관심있는 사람들을위한 Q & A

4
스킵 레이어 연결을 가진 신경망
신경망과의 회귀에 관심이 있습니다. 숨겨진 노드 + 스킵 레이어 연결이없는 신경망은 선형 모델입니다. 같은 신경망이지만 숨겨진 노드는 어떻습니까? 스킵 레이어 연결의 역할이 무엇인지 궁금합니다. 직관적으로, 스킵 레이어 연결을 포함하면 최종 모델은 선형 모델 + 일부 비선형 부품의 합입니다. 신경망에 스킵 레이어 연결을 추가 할 때 장점이나 단점이 있습니까?

3
감마 분포와 정규 분포의 관계
나는 최근에 평균이 0 인 정규 랜덤 변수의 제곱에 대한 pdf를 도출해야한다는 것을 알았습니다. 어떤 이유로 든, 나는 사전에 분산을 표준화하지 않기로 선택했습니다. 내가 이것을 올바르게했다면이 pdf는 다음과 같습니다. N2(x;σ2)=1σ2π−−√x−−√e−x2σ2N2(x;σ2)=1σ2πxe−x2σ2 N^2(x; \sigma^2) = \frac{1}{\sigma \sqrt{2 \pi} \sqrt{x}} e^{\frac{-x}{2\sigma^2}} 나는 이것이 실제로 감마 분포의 매개 변수라는 것을 알았습니다. N2(x;σ2)=Gamma(x;12,2σ2)N2(x;σ2)=Gamma⁡(x;12,2σ2) N^2(x; \sigma^2) …

5
랜덤 효과와 고정 효과의 수학적 차이점은 무엇입니까?
인터넷에서 무작위 및 고정 효과의 해석과 관련하여 많은 것을 발견했습니다. 그러나 다음과 같은 소스를 찾을 수 없었습니다. 랜덤 효과와 고정 효과의 수학적 차이점은 무엇입니까? 그것은 모델의 수학적 공식과 매개 변수가 추정되는 방식을 의미합니다.

4
ARIMA 모델을 피팅하기 전에 시계열을 로그 변환하는시기
이전에 예측 프로 를 사용 하여 일 변량 시계열을 예측했지만 워크 플로를 R로 전환하고 있습니다. R에 대한 예측 패키지에는 유용한 기능이 많이 포함되어 있지만 자동으로 실행하기 전에 데이터 변환이 필요하지 않습니다. .arima (). 경우에 따라 예측 전문가는 예측을 수행하기 전에 변환 데이터를 로그하기로 결정하지만 아직 이유를 찾지 못했습니다. 그래서 내 …

5
일련의 동전 모양으로 머리와 꼬리 패턴을 치는 데 걸린 시간
TED 에서 Peter Donnelly의 이야기에서 영감을 받아 일련의 동전 던지기에 특정 패턴이 나타나는 데 걸리는 시간에 대해 이야기합니다. 나는 R에서 다음 스크립트를 만들었습니다. 이 패턴 중 하나에 도달하기까지 평균 시간 (예 : 동전 던지기 횟수)을 계산합니다. coin <- c('h','t') hit <- function(seq) { miss <- TRUE fail <- 3 trp …

2
변형 자동 인코더에서 KLD 손실 대 재구성 손실을 가중시키는 방법
VAE에서 보았던 거의 모든 코드 예제에서 손실 함수는 다음과 같이 정의됩니다 (이것은 텐서 흐름 코드이지만 테 아노, 토치 등에서도 비슷합니다. 또한 convnet 용이지만 너무 관련이 없습니다. , 합계가 인수되는 축에만 영향을 미칩니다) : # latent space loss. KL divergence between latent space distribution and unit gaussian, for each batch. # …

4
불균형 데이터 세트에 대해 xgboost에서 scale_pos_weight의 올바른 사용법은 무엇입니까?
매우 불균형 한 데이터 집합이 있습니다. 튜닝 조언 을 따르고 사용 scale_pos_weight하려고하지만 어떻게 튜닝 해야하는지 잘 모르겠습니다. 나는 그것을 볼 수 있습니다 RegLossObj.GetGradient: if (info.labels[i] == 1.0f) w *= param_.scale_pos_weight 양성 샘플의 기울기가 더 영향을 미칩니다. 그러나 xgboost paper 에 따르면 그라디언트 통계는 항상 특정 트리의 특정 노드 인스턴스 내에서 …

1
오래된 책의 통계표가 의도적으로 잘못 되었습니까?
오래 전에 (컴퓨터 이전의) 책에서, 표절을 막기 위해 부록에 표시된 이론적 Quantile의 마지막 숫자가 정확하지 않다는 것을 기억합니다 (다른 책에 표가 있으면 마지막 숫자가 당신의 숫자와 동일하다면, 그 저자는 당신의 표를 표절 했어야합니다). 이 이야기의 출처 또는 언급에 대한 링크를 찾으려고 노력하고 있지만 몇 시간 동안 검색을 할 수 없었습니다.

5
과적 합 모델이 반드시 쓸모 없는가?
모델이 훈련 데이터의 정확도는 100 %이지만 테스트 데이터의 정확도는 70 %라고 가정합니다. 이 모델에 대해 다음과 같은 주장이 사실입니까? 이것이 과적 합 된 모델이라는 것은 명백합니다. 과적 합을 줄임으로써 테스트 정확도를 향상시킬 수 있습니다. 그러나이 모델은 테스트 데이터에 적합한 정확도를 갖기 때문에 여전히 유용한 모델이 될 수 있습니다.

2
베이지안 방법이 과적 합하지 않는 것이 사실입니까?
베이지안 방법이 과적 합하지 않는 것이 사실입니까? (이 주장을하는 논문과 튜토리얼을 보았습니다) 예를 들어, 가우시안 프로세스를 MNIST (손으로 쓴 숫자 분류)에 적용하지만 단일 샘플 만 표시하는 경우 해당 단일 샘플과 다른 입력에 대해 이전 분포로 되돌 리지만 차이는 크지 않습니까?

2
Quantile (역 CDF) 기능을 이해하도록 도와주세요.
Quantile 함수에 대해 읽고 있지만 명확하지 않습니다. 아래에 제공된 것보다 더 직관적 인 설명을 제공 할 수 있습니까? cdf 는 단조 증가하는 함수이므로 역수를 갖는다. 이것을 나타내겠습니다 . 하면 의 CDF이다 다음 값이다 되도록 ; 이것을 의 Quantile 이라고합니다 . 값 오른쪽 왼쪽의 확률 질량의 절반 반으로 분포의 중앙값이다. 값은 …


5
Fisher의 "더 많은 데이터를 얻을 수있는"접근 방식은 언제 합리적입니까?
인용 gung의 위대한 대답 의심되는 바에 따르면, 한 연구원은 한 번 피의자에게 '무의미한'결과를 제시하여 자신이해야 할 일을 물었고 피셔는 '더 많은 데이터를 얻으십시오'라고 말했다. Neyman-Pearson의 관점에서 볼 때 이것은 명백한 해킹이지만 Fisher의 더 많은 데이터 접근 방식이 적합한 유스 케이스가 있습니까?ppp

8
머신 러닝에 대한 원리적이고 수학적인 이론을 갖는 것이 왜 그렇게 중요한가?
궁금한 점이 있는데, 이론적 / 이론적 기계 학습을하는 것이 왜 그렇게 중요한가? 인간으로서 개인적 관점에서, 나는 왜 머신 러닝이 중요한지를 이해할 수 있습니다. 인간은 자신이하는 일을 이해하는 것을 좋아합니다. 이론의 관점에서 수학은 재미있다 사물의 디자인을 안내하는 원칙이있을 경우 무작위 추측, 이상한 시행 착오에 소요되는 시간이 줄어 듭니다. 우리가 신경망이 실제로 …

1
분류와 회귀를 결합한 알고리즘이 있습니까?
분류와 회귀를 동시에 수행 할 수있는 알고리즘이 있는지 궁금합니다. 예를 들어 알고리즘이 분류자를 배우게하고 각 레이블 내 에서 동시에 연속적인 목표를 배우도록하겠습니다. 따라서 각 학습 예에 대해 범주 레이블 과 연속 값이 있습니다. 먼저 분류자를 훈련시킨 다음 각 레이블 내에서 회귀자를 훈련시킬 수 있지만 두 가지를 모두 수행 할 수있는 …

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.