«information-theory» 태그된 질문

통신에 사용되는 것인지 또는 추상적 의미로 정의 된 것인지에 관계없이 채널의 정보 전달 용량을 결정하는 데 사용되는 수학 / 통계의 분기. 엔트로피는 정보 이론가들이 랜덤 변수 예측과 관련된 불확실성을 정량화 할 수있는 수단 중 하나입니다.

3
"교차 엔트로피"의 정의와 기원
출처를 언급하지 않고 Wikipedia 는 불연속 분포 와 의 교차 엔트로피를 다음 과 같이 정의합니다 .피피P큐큐Q H×( P; Q )= − ∑엑스p ( x )로그큐( x ) .H×(피;큐)=−∑엑스피(엑스)로그⁡큐(엑스).\begin{align} \mathrm{H}^{\times}(P; Q) &= -\sum_x p(x)\, \log q(x). \end{align} 이 수량을 처음 사용하기 시작한 사람은 누구입니까? 그리고 누가이 용어를 발명 했습니까? 나는 보았다 …

4
전형적인 세트 컨셉
길이의 순서 : 나는 전형적인 세트의 개념은 꽤 직관적이라고 생각 nnn 전형적인 설정에 속하는 것 ( N ) ε 나오는 순서의 확률이 높았다합니다. 따라서 A ( n ) ϵ 일 가능성이있는 모든 시퀀스입니다 . (나는 그것을 정 성적으로 이해하려고하기 때문에 엔트로피와 관련된 공식적인 정의를 피하고 있습니다.)A(n)ϵAϵ(n)A_\epsilon ^{(n)}A(n)ϵAϵ(n)A_\epsilon ^{(n)} 그러나 일반적으로 …

1
상호 엔트로피 란 무엇인가
이 질문 은 수식의 관점에서 교차 엔트로피의 정량적 정의를 제공합니다. 위키피디아는보다 명쾌한 정의를 찾고 있습니다. 정보 이론에서, 두 확률 분포 사이의 교차 엔트로피 는 "진정한"분포 p가 아니라 주어진 확률 분포 q에 기초하여 코딩 방식이 사용되는 경우, 가능성 세트로부터 이벤트를 식별하는데 필요한 평균 비트 수를 측정한다 . 나는 이것을 이해하는데 어려움을 …

1
차동 엔트로피를 해석하는 방법?
나는 최근 에 이산 확률 분포의 엔트로피에 관한 이 기사를 읽었다 . 사용 하는 단어의 확률 분포를 고려하여 인코딩이 최적 일 때 메시지를 인코딩하는 데 필요한 예상 숫자 비트 (적어도 엔트로피 정의에서 를 사용하는 경우)로 엔트로피를 생각하는 좋은 방법을 설명합니다 .log2log2\log_2 그러나 여기 와 같은 연속 사례로 확장 할 때 …

3
가우스 혼합의 사용을 정당화하는 참고 문헌
가우시안 혼합 모델 (GMMs)은 분석적으로나 실제적으로 작업하기가 간단하고 너무 복잡하지 않은 일부 이국적인 분포를 모델링 할 수 있기 때문에 매력적입니다. 일반적으로 명확하지 않은 몇 가지 분석 속성이 있습니다. 특히: SnSnS_n 이 nnn 성분을 가진 모든 가우시안 혼합물의 클래스 라고 가정하십시오 . 실수에 대한 지속적인 분포 에 대해 , 우리는 이 …



2
중요도 샘플링으로 생성 된 Monte Carlo 추정치 결과
지난 1 년 동안 중요도 샘플링을 상당히 밀접하게 진행해 왔으며 도움을 받기를 희망하는 몇 가지 개방형 질문이 있습니다. 중요도 샘플링 체계에 대한 나의 실제 경험은 때때로 환상적인 저 분산 및 저 바이어스 추정을 생성 할 수 있다는 것입니다. 그러나 표본 분산이 적지 만 치우침이 매우 높은 오류 예측이 더 자주 …


1
상호 정보를 사용하여 연속 변수와 범주 변수 간의 상관 관계 추정
제목에 관해서는 연속 변수와 범주 변수 사이의 "상관 관계"( "B를 알고있을 때 A에 대해 얼마나 많이 알고 있는지"로 정의)를 추정하기 위해 MI 이후에 MI 이후에 상호 정보를 사용하는 것이 좋습니다. 잠시 후에이 문제에 대한 의견을 말씀 드리지만 , 유용한 정보가 포함 된 CrossValidated에 대한이 다른 질문 / 답변 을 읽어 …

1
차동 엔트로피
가우스 RV의 차동 엔트로피는 입니다. 이것은 표준 편차 인 에 의존합니다 .σ로그2( σ2 π이자형−−−√)log2⁡(σ2πe)\log_2(\sigma \sqrt{2\pi e})σσ\sigma 랜덤 변수를 정규화하면 단위 분산을 가지므로 차분 엔트로피가 떨어집니다. 나에게 이것은 정규화 상수의 Kolmogorov 복잡성이 엔트로피의 감소에 비해 매우 작아야하기 때문에 반 직관적입니다. 이 랜덤 변수에 의해 생성 된 임의의 데이터 세트를 복구하기 위해 …

2
다른 AIC 정의
Wikipedia에서 Akaike 's Information Criterion (AIC)의 정의는 로 정의되며, 여기서 k 는 매개 변수의 수이고 log L 은 모형의 로그 우도입니다.I씨= 2 k - 2 로그엘AIC=2k−2log⁡L AIC = 2k -2 \log L 케이kk로그엘log⁡L\log L 그러나, 저명한 대학 상태에서 우리의 경제학 노트 그 I C = 로그 ( σ 2 ) …

1
피셔 정보 결정자
(나는 math.se에 비슷한 질문을 게시했습니다 .) 정보 지오메트리에서 Fisher 정보 매트릭스의 결정 요인은 통계적 매니 폴드의 자연스러운 체적 형태이므로 멋진 기하학적 해석이 가능합니다. 예를 들어, 제프리스의 정의에 나타난 사실은 (재호) 기하 적 속성 인 재 파라미터 화에 따른 차이와 관련이있다. 그러나 통계 에서 그 결정 요인은 무엇 입니까? 의미있는 것을 …

1
R-자유도에서 PROC Mixed과 lme / lmer의 차이점
참고 :이 질문은 법적 이유로 인해 이전 질문을 삭제해야했기 때문에 다시 게시되었습니다. SAS의 PROC MIXED를 R lme의 nlme패키지 기능과 비교하는 동안 다소 혼란스러운 차이점을 발견했습니다. 구체적으로는, 다른 시험에서 자유도간에 상이 PROC MIXED하고 lme, 그리고 왜 생각해. 다음 데이터 세트에서 시작하십시오 (아래 제공된 R 코드). ind : 측정 대상을 나타내는 계수 …
12 r  mixed-model  sas  degrees-of-freedom  pdf  unbiased-estimator  distance-functions  functional-data-analysis  hellinger  time-series  outliers  c++  relative-risk  absolute-risk  rare-events  regression  t-test  multiple-regression  survival  teaching  multiple-regression  regression  self-study  t-distribution  machine-learning  recommender-system  self-study  binomial  standard-deviation  data-visualization  r  predictive-models  pearson-r  spearman-rho  r  regression  modeling  r  categorical-data  data-visualization  ggplot2  many-categories  machine-learning  cross-validation  weka  microarray  variance  sampling  monte-carlo  regression  cross-validation  model-selection  feature-selection  elastic-net  distance-functions  information-theory  r  regression  mixed-model  random-effects-model  fixed-effects-model  dataset  data-mining 


당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.