«dirichlet-distribution» 태그된 질문

Dirichlet 분포는 일 변량 베타 분포의 일반화 인 다변량 분포 계열을 나타냅니다.

3
예 : 이진 결과에 glmnet을 사용하는 LASSO 회귀
관심있는 결과가 이분법 인 LASSO Regressionglmnet 과 함께 사용하기 시작했습니다 . 아래에 작은 모의 데이터 프레임을 만들었습니다. age <- c(4, 8, 7, 12, 6, 9, 10, 14, 7) gender <- c(1, 0, 1, 1, 1, 0, 1, 0, 0) bmi_p <- c(0.86, 0.45, 0.99, 0.84, 0.85, 0.67, 0.91, 0.29, 0.88) …
77 r  self-study  lasso  regression  interpretation  anova  statistical-significance  survey  conditional-probability  independence  naive-bayes  graphical-model  r  time-series  forecasting  arima  r  forecasting  exponential-smoothing  bootstrap  outliers  r  regression  poisson-distribution  zero-inflation  genetic-algorithms  machine-learning  feature-selection  cart  categorical-data  interpretation  descriptive-statistics  variance  multivariate-analysis  covariance-matrix  r  data-visualization  generalized-linear-model  binomial  proportion  pca  matlab  svd  time-series  correlation  spss  arima  chi-squared  curve-fitting  text-mining  zipf  probability  categorical-data  distance  group-differences  bhattacharyya  regression  variance  mean  data-visualization  variance  clustering  r  standard-error  association-measure  somers-d  normal-distribution  integral  numerical-integration  bayesian  clustering  python  pymc  nonparametric-bayes  machine-learning  svm  kernel-trick  hyperparameter  poisson-distribution  mean  continuous-data  univariate  missing-data  dag  python  likelihood  dirichlet-distribution  r  anova  hypothesis-testing  statistical-significance  p-value  rating  data-imputation  censoring  threshold 


2
Dirichlet 분포의 알파는 정확히 무엇입니까?
저는 베이지안 통계를 처음 접했 을 때 알고리즘의 백엔드에서 Dirichlet 프로세스를 사용 하는 수정 된 상관 측정 SparCC 를 발견했습니다. 실제로 무슨 일이 일어나고 있는지 이해하기 위해 단계별로 알고리즘을 시도했지만 alphaDirichlet 분포에서 벡터 매개 변수가 무엇을하는지 그리고 벡터 매개 변수가 어떻게 정규화되는지 확실 하지 않습니다 alpha. 구현은 https://docs.scipy.org/doc/numpy/reference/generated/numpy.random.dirichlet.html 을 Python사용하고 …

2
Dirichlet 배포판에서 그리기
차원 벡터 모수 갖는 Dirichlet 분포가 있다고 가정 해 봅시다 . 이 분포에서 표본 ( K- 차원 벡터)을 어떻게 그릴 수 있습니까? (아마도) 간단한 설명이 필요합니다.→ α = [ α 1 , α 2 , … . . , α K ] KKKKα⃗ =[α1,α2,...,αK]α→=[α1,α2,...,αK]\vec\alpha = [\alpha_1, \alpha_2,...,\alpha_K]KKK

1
다항식 (1 / n,…, 1 / n)을 이산화 Dirichlet (1, .., 1)으로 특성화 할 수 있습니까?
따라서이 질문은 약간 지저분하지만 화려한 그래프를 포함시켜 그 내용을 보완합니다! 먼저 배경과 질문. 배경 개 범주에 대해 동일한 probailites를 가진 차원 다항 분포 를 가지고 있다고 가정 해 봅시다 . 하자 정규화 계수 (BE 하다 분포가) :nnnnnnπ=(π1,…,πn)π=(π1,…,πn)\pi = (\pi_1, \ldots, \pi_n)ccc (c1,…,cn)∼Multinomial(1/n,…,1/n)πi=cin(c1,…,cn)∼Multinomial(1/n,…,1/n)πi=cin(c_1, \ldots, c_n) \sim \text{Multinomial}(1/n, \ldots, 1/n) \\ \pi_i …


1
감마 분포를 이용한 디 리클 렛 분포 구성
하자 X1,…,Xk+1X1,…,Xk+1X_1,\dots,X_{k+1} 각 파라미터를 갖는 감마 분포 갖는 상호 독립적 랜덤 변수 일 αi,i=1,2,…,k+1αi,i=1,2,…,k+1\alpha_i,i=1,2,\dots,k+1 것을 보여 는Dirichlet(α1,α2,…,αk;αk+Yi=XiX1+⋯+Xk+1,i=1,…,kYi=XiX1+⋯+Xk+1,i=1,…,kY_i=\frac{X_i}{X_1+\cdots+X_{k+1}},i=1,\dots,kDirichlet(α1,α2,…,αk;αk+1)Dirichlet(α1,α2,…,αk;αk+1)\text{Dirichlet}(\alpha_1,\alpha_2,\dots,\alpha_k;\alpha_{k+1}) ( X 1 , … , X k + 1 ) = e − ∑ k + 1 i = 1 x i x α 1 − 1 1 … x α k …

1
잠재 된 디리클레 할당을 사용하기위한 입력 매개 변수
주제 모델링 (Latent Dirichlet Allocation)을 사용할 때 주제 수는 사용자가 지정해야하는 입력 매개 변수입니다. Dirichlet 프로세스가 샘플링해야하는 후보 토픽 세트를 제공해야한다고 생각합니까? 이해가 정확합니까? 실제로 이런 종류의 후보 주제 세트를 설정하는 방법은 무엇입니까?

3
왜 베이지안 다항식 Naive Bayes 분류기를 사용하지 않는 이유는 무엇입니까?
따라서 (감독되지 않은) 텍스트 모델링에서 Latent Dirichlet Allocation (LDA)은 베이지안 버전의 확률 적 잠재 성 의미 분석 (PLSA)입니다. 기본적으로 LDA = PLSA + Dirichlet는 매개 변수보다 우선합니다. LDA는 이제 참조 알고리즘이며 다양한 패키지로 구현되는 반면 PLSA는 더 이상 사용해서는 안됩니다. 그러나 (감독 된) 텍스트 분류에서 다항식 Naive Bayes 분류기에 대해 …

1
수정 된 Dirichlet 배포의 예상 값은 얼마입니까? (통합 문제)
동일한 척도 모수의 감마 변수를 사용하여 Dirichlet 분포를 사용하여 임의 변수를 쉽게 생성 할 수 있습니다. 만약: Xi∼Gamma(αi,β)Xi∼Gamma(αi,β) X_i \sim \text{Gamma}(\alpha_i, \beta) 그때: (X1∑jXj,…,Xn∑jXj)∼Dirichlet(α1,…,αn)(X1∑jXj,…,Xn∑jXj)∼Dirichlet(α1,…,αn) \left(\frac{X_1}{\sum_j X_j},\; \ldots\; , \frac{X_n}{\sum_j X_j}\right) \sim \text{Dirichlet}(\alpha_1,\;\ldots\;,\alpha_n) 문제 스케일 파라미터가 같지 않으면 어떻게됩니까? Xi∼Gamma(αi,βi)Xi∼Gamma(αi,βi) X_i \sim \text{Gamma}(\alpha_i, \beta_i) 그렇다면이 변수의 분포는 무엇입니까? (X1∑jXj,…,Xn∑jXj)∼?(X1∑jXj,…,Xn∑jXj)∼? \left(\frac{X_1}{\sum_j X_j},\; …

2
라플라스 스무딩 및 디 리클 렛 이전
온 위키 문서 라플라스 평활화 (또는 첨가제 평)의 특징이되는 볼 베이지안 점에서, 이는 사전에 모수 를 갖는 대칭 Dirichlet 분포를 사용하여 사후 분포의 예상 값에 해당합니다 .αα\alpha 나는 그것이 실제로 어떻게 사실인지 의아해합니다. 누군가 그 두 가지가 어떻게 동등한 지 이해하도록 도울 수 있습니까? 감사!

1
디리클레 후부
Dirichlet 사후 분포에 대한 질문이 있습니다. 다항식 우도 함수를 고려할 때, 는 이며 는 관측치 의 횟수 입니다.Dir(αi+Ni)Dir(αi+Ni)Dir({\alpha_i + N_i})NiNiN_iithithi^{th} 주어진 고정 데이터 대해 를 줄이기 시작하면 어떻게됩니까 ? 후자의 형태로부터, 어느 시점 이후에 s는 후부에 영향을 미치지 않을 것으로 보인다 . 그러나 우리가 매우 작게 만들 때 확률 질량이 …

3
농도 매개 변수에 대한 초 우선 분포를 갖는 다항식 디 리틀 렛 모델
가능한 한 일반적인 문제를 설명하려고 노력할 것입니다. 모수 확률 벡터 세타를 사용하여 관측치를 범주 분포 로 모델링하고 있습니다. 그런 다음 매개 변수 벡터 theta는 매개 변수를 사용 하여 Dirichlet 사전 분포를 따르는 것으로 가정합니다 .α1,α2,…,αkα1,α2,…,αk\alpha_1,\alpha_2,\ldots,\alpha_k 그런 다음 매개 변수 대해 hyperprior 분포를 부과 할 수 있습니까? categorical 및 dirichlet 분포와 …

2
AlphaZero 용지의 디리클레 노이즈의 목적
DeepMind의 AlphaGo Zero 및 AlphaZero 논문에서는 Monte Carlo Tree Search의 루트 노드 (보드 상태)의 사전 동작 확률에 Dirichlet 노이즈를 추가하는 방법에 대해 설명합니다 . 루트 노드 의 사전 확률에 Dirichlet 노이즈를 추가하여 추가 탐색을 수행합니다 . 특히 . 여기서 및 ; 이 소음으로 인해 모든 이동이 시도 될 수 있지만 …

1
임의 측정을 통해 통합한다는 것은 무엇을 의미합니까?
현재 Dirichlet 프로세스 랜덤 효과 모델을보고 있는데 모델 사양은 다음과 같습니다. 여기서 는 스케일 매개 변수입니다. 및 베이스 척도이다. 이 백서에서 나중에 과 같은 기본 측정 값 함수를 통합하는 것이 좋습니다.Dirichlet 프로세스의 기본 측정 값은 cdf입니까, 아니면 PDF입니까? 기본 측정 값이 가우스 인 경우 어떻게됩니까?와이나는ψ나는지=엑스나는β+ψ나는+ϵ나는∼ G~ D P( α ,지0)yi=Xiβ+ψi+ϵiψi∼GG∼DP(α,G0) …

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.