«intuition» 태그된 질문

통계에 대한 개념적 또는 비 수학적 이해를 추구하는 질문.

2
Kolmogorov–Smirnov 검정 : 표본 크기가 증가함에 따라 p- 값 및 ks 검정 통계량 감소
표본 크기가 증가함에 따라 p- 값과 ks- 검정 통계가 감소하는 이유는 무엇입니까? 이 Python 코드를 예로 들어 보겠습니다. import numpy as np from scipy.stats import norm, ks_2samp np.random.seed(0) for n in [10, 100, 1000, 10000, 100000, 1000000]: x = norm(0, 4).rvs(n) y = norm(0, 4.1).rvs(n) print ks_2samp(x, y) 결과는 다음과 …

1
군집 검증에 대한 정보 변형 (VI) 지표의 직관은 무엇입니까?
나와 같은 비 통계학 자의 VI경우 Marina Melia " 클러스터링 비교-정보 기반 거리 "(2007 년 저널)에 의해 관련 논문을 읽은 후에도 메트릭 (정보 변형) 아이디어를 포착하기가 매우 어렵습니다 . 사실, 많은 클러스터링 용어에 익숙하지 않습니다. 아래는 MWE이며 사용되는 다른 메트릭에서 출력이 무엇을 의미하는지 알고 싶습니다. R에 동일한 순서로 두 개의 …

3
변동 계수에 대한 직감 및 용도
현재 Coursera.org의 운영 관리 소개 과정에 참석하고 있습니다. 코스의 어느 시점에서 교수는 운영 시간의 변화를 다루기 시작했습니다. 그가 사용하는 측정 값 은 표준 편차와 평균의 비율 인 변동 계수입니다 . 씨V= σμ씨V=σμc_v = \frac{\sigma}{\mu} 이 측정이 왜 사용됩니까? 표준 편차를 사용하는 것 외에 CV를 사용할 경우의 장단점은 무엇입니까 ? 이 …

2
오디오 분류를위한 컨볼 루션 깊은 믿음 네트워크를 이해하는 방법?
"에서 계층 적 표현의 확장 성 자율 학습을위한 길쌈 깊은 믿음 네트워크 Lee 등으로". al. ( PDF ) Convolutional DBN이 제안되었습니다. 또한이 방법은 이미지 분류에 대해 평가됩니다. 작은 모서리와 가장자리 등과 같은 자연스러운 로컬 이미지 기능이 있으므로 논리적으로 들립니다. " Convolutional Deep Faith Networks를 이용한 오디오 분류를위한 비 감독 기능 …

1
R / mgcv : te () 및 ti () 텐서 제품이 다른 표면을 생성하는 이유는 무엇입니까?
mgcv에 대한 패키지는 R텐서 제품의 상호 작용을 피팅에 대한 두 가지 기능이 있습니다 : te()와 ti(). 나는 둘 사이의 기본 노동 분열을 이해한다 (비선형 상호 작용에 적합하고이 상호 작용을 주요 효과와 상호 작용으로 분해). 내가 이해할 수없는 것은 왜 te(x1, x2)와 ti(x1) + ti(x2) + ti(x1, x2)(약간) 다른 결과가 발생할 …
11 r  gam  mgcv  conditional-probability  mixed-model  references  bayesian  estimation  conditional-probability  machine-learning  optimization  gradient-descent  r  hypothesis-testing  wilcoxon-mann-whitney  time-series  bayesian  inference  change-point  time-series  anova  repeated-measures  statistical-significance  bayesian  contingency-tables  regression  prediction  quantiles  classification  auc  k-means  scikit-learn  regression  spatial  circular-statistics  t-test  effect-size  cohens-d  r  cross-validation  feature-selection  caret  machine-learning  modeling  python  optimization  frequentist  correlation  sample-size  normalization  group-differences  heteroscedasticity  independence  generalized-least-squares  lme4-nlme  references  mcmc  metropolis-hastings  optimization  r  logistic  feature-selection  separation  clustering  k-means  normal-distribution  gaussian-mixture  kullback-leibler  java  spark-mllib  data-visualization  categorical-data  barplot  hypothesis-testing  statistical-significance  chi-squared  type-i-and-ii-errors  pca  scikit-learn  conditional-expectation  statistical-significance  meta-analysis  intuition  r  time-series  multivariate-analysis  garch  machine-learning  classification  data-mining  missing-data  cart  regression  cross-validation  matrix-decomposition  categorical-data  repeated-measures  chi-squared  assumptions  contingency-tables  prediction  binary-data  trend  test-for-trend  matrix-inverse  anova  categorical-data  regression-coefficients  standard-error  r  distributions  exponential  interarrival-time  copula  log-likelihood  time-series  forecasting  prediction-interval  mean  standard-error  meta-analysis  meta-regression  network-meta-analysis  systematic-review  normal-distribution  multiple-regression  generalized-linear-model  poisson-distribution  poisson-regression  r  sas  cohens-kappa 

2
LSTM (Long Short Term Memory) 반복 신경망의 직관은 무엇입니까?
RNN (Recurrent Neural Network)의 기본 개념은 분명합니다. 나는 다음과 같은 방식으로 이해합니다 : 우리는 일련의 관측치 ( o⃗ 1,o⃗ 2,…,o⃗ no→1,o→2,…,o→n\vec o_1, \vec o_2, \dots, \vec o_n ) (즉, 다변량 시계열)가 있습니다. 각 단일 관측치 o⃗ io→i\vec o_i 는 NNN 차원 숫자 형 벡터입니다. RNN 모델 내에서 다음 관측치 o⃗ …

3
뒤에 직관
선형 회귀 분석에서 닫힌 형태의 w는 다음과 같이 쓸 수 있습니다. w^=(XTX)−1XTyw^=(XTX)−1XTy\hat{w}=(X^TX)^{-1}X^Ty 이 방정식에서 의 역할을 직관적으로 설명 할 수 있습니까?(XTX)−1(XTX)−1(X^TX)^{-1}


1
성향 점수 가중치에서 치료 가중치의 역 확률 (IPTW)에 대한 직관적 인 설명?
성향 점수 사용하여 가중치를 계산하는 메커니즘을 이해합니다 . 그리고 회귀 분석에서 가중치를 적용하고 가중치가 치료 및 대조군 집단 집단에서 공변량의 효과를 "조절"하거나 결과 변수와 연관을 해제시킨다.p(xi)p(xi)p(x_i)wi,j=treatwi,j=control=1p(xi)=11−p(xi)wi,j=treat=1p(xi)wi,j=control=11−p(xi)\begin{align} w_{i, j={\rm treat}} &= \frac{1}{p(x_i)} \\[5pt] w_{i, j={\rm control}} &= \frac{1}{1-p(x_i)} \end{align} 그러나 직감 수준에서 가중치가 어떻게 달성되는지, 왜 방정식이 그대로 구성되는지 이해하지 못합니다.

2
두 샘플에 대한 쿨백-라이 블러 발산
두 샘플에 대해 Kullback-Leibler Divergence의 수치 추정을 구현하려고했습니다. 구현을 디버그하려면 두 정규 분포 엔( 0 , 1 )엔(0,1)\mathcal N (0,1) 및 에서 샘플을 가져옵니다 .엔( 1 , 2 )엔(1,2)\mathcal N (1,2) 간단한 추정을 위해 두 개의 히스토그램을 생성하고 수치 적으로 근사치를 근사하려고했습니다. 히스토그램 중 하나의 빈이 0 인 히스토그램의 해당 …

1
문제 세트에서 나는이 "레마"를 증명했다. 그 결과는 나에게는 직관적이지 않다. ZZZ 는 검열 모형의 표준 정규 분포입니다. 공식적으로 Z∗∼Norm(0,σ2)Z∗∼Norm(0,σ2)Z^* \sim Norm(0, \sigma^2) 이고 Z=max(Z∗,c)Z=max(Z∗,c)Z = max(Z^*, c) 입니다. 그런 다음 E[Z|Z>c]=∫∞cziϕ(zi)dzi=12π−−√∫∞cziexp(−12z2i)dzi=12π−−√exp(−12c2) (Integration by substitution)=ϕ(c)E[Z|Z>c]=∫c∞ziϕ(zi)dzi=12π∫c∞ziexp(−12zi2)dzi=12πexp(−12c2) (Integration by substitution)=ϕ(c)\begin{align} E[Z|Z>c] &= \int_c^\infty z_i \phi({z_i})\mathrm{d}z_i \\ &= \frac{1}{\sqrt{2\pi}}\int_c^\infty z_i \exp\!\bigg(\frac{-1}{2}z_i^2\bigg)\mathrm{d}z_i \\ &= \frac{1}{\sqrt{2\pi}} …

2
가장 작은 공분산 행렬을 찾기위한 적절한 측정
교과서에서 그들은 양의 공분산 행렬을 비교하기 위해 양의 정한도 (반 양성의 유한도)를 사용합니다. 가 pd이면 가 보다 작다 는 아이디어 입니다. 그러나 나는이 관계의 직감을 얻는 데 어려움을 겪고 있습니까?A−BA−BA-BBBBAAA 비슷한 스레드가 있습니다 : /math/239166/what-is-the-intuition-for-using-definiteness-to-compare-matrices 행렬을 비교하기 위해 유한성을 사용하는 직관은 무엇입니까? 대답은 훌륭하지만 실제로 직관을 다루지는 않습니다. 다음은 혼란스러운 …

3
주어진 n에 대한 비율의 표준 오차가 0.5에 대해 가장 큰 이유는 무엇입니까?
비율의 표준 오차는 해당 비율이 0.5 일 때 주어진 N에 대해 될 수있는 최대 값이되고, 비율이 0.5에서 멀어 질수록 작아집니다. 비율의 표준 오차에 대한 방정식을 볼 때 이것이 왜 그런지 알 수 있지만 더 이상 설명 할 수는 없습니다. 공식의 수학적 특성을 넘어서는 설명이 있습니까? 그렇다면 왜 0 또는 1에 …

1
logloss에 대한 직관적 인 설명
몇몇 kaggle 경쟁에서 점수는 "logloss"에 기초합니다. 분류 오류와 관련이 있습니다. 여기에 기술적 답변이 있지만 직관적 인 답변을 찾고 있습니다. 나는 Mahalanobis 거리에 대한 이 질문 에 대한 답변을 정말로 좋아 했지만 PCA는 logloss가 아닙니다. 분류 소프트웨어가 제공하는 가치를 사용할 수 있지만 실제로 이해하지는 못합니다. 우리는 왜 true / false positive …

3
중앙 한계 정리 및 파레토 분포
누군가 파레토 분포와 중앙 한계 정리 사이의 관계에 대한 간단한 설명을 제공 할 수 있습니까 (예 : 적용됩니까? 왜 / 왜 안됩니까?)? 다음 진술을 이해하려고합니다. "중앙 한계 정리는 모든 분포에서 작동하지 않습니다. 이것은 하나의 은밀한 사실 때문입니다. 표본 평균이 존재하는 경우 기본 분포의 평균 주위에 군집되어 있습니다. 그러나 분포가 의미가없는 …

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.