«approximation» 태그된 질문

분포, 함수 또는 기타 수학적 물체에 대한 근사치. 어떤 것을 근사한다는 것은 어떤 점에서는 더 단순하지만 정확한 것은 아닌 어떤 표현을 찾는 것을 의미합니다.


3
포아송 분포에 대한 정규 근사
Wikipedia에서는 다음 과 같이 말합니다. 충분히 큰 λλλ 값 (예 : λ>1000λ>1000λ>1000 )의 경우 평균 λλλ 및 분산 λλλ (표준 편차 λ−−√λ\sqrt{\lambda} ) 의 정규 분포 는 포아송 분포에 대한 근사치입니다. 경우 λλλ 약 10보다 큰 적절한 연속성 보정, 즉, 실행되는 경우, 정규 분포는 양호한 근사치 인 P(X≤x),P(X≤x),P(X ≤ x), …

1
Fisher의 정확한 테스트 및 초기 하 분포
피셔의 정확한 테스트를 더 잘 이해하고 싶기 때문에 f와 m이 남성과 여성에 해당하고 n과 y가 "소다 소비"에 해당하는 다음 장난감 예제를 고안했습니다. > soda_gender f m n 0 5 y 5 0 분명히 이것은 과감한 단순화이지만 컨텍스트가 방해되는 것을 원하지 않았습니다. 여기서 나는 남자들이 음료수를 마시지 않고 여자들은 음료수를 마시고 …

1
GLM 매개 변수에 대한 추론을 위해 자유도 보정을 사용해야합니까?
이 질문은 Martijn의 답변 에서 영감을 얻었습니다 . 이항 또는 포아송 모델과 같은 하나의 매개 변수 패밀리에 대해 GLM을 적합하고 그것이 완전 유사성 절차라고 가정합니다 (quasipoisson과 반대). 그런 다음 분산은 평균의 함수입니다. 이항식 : 및 Poisson var [ X ] = E [ X ] .var[X]=E[X]E[1−X]var[X]=E[X]E[1−X]\text{var}[X] = E[X]E[1-X]var[X]=E[X]var[X]=E[X]\text{var}[X] = E[X] …

1
근사
나는 우연히 다음과 같은 가진 기사 (경제학)를 읽었습니다 .로그( E( X) )log⁡(E(X))\log(E(X)) ,로그( E( X) ) ≈ E( 로그( X) ) + 0.5 v a r ( 로그( X) )log⁡(E(X))≈E(log⁡(X))+0.5var(log⁡(X))\log(E(X)) \approx E(\log(X))+0.5 \mathrm{var}(\log(X)) X가 log-normal (내가 아는)이라면 저자는 정확하다고 말합니다. 내가 모르는 것은이 근사치를 도출하는 방법입니다. 나는 2 차 테일러 …

3
근사
무엇에 근접하는 가장 좋은 방법 주어진 두 개의 정수가 당신은 평균 알고 , 분산 , 비대칭 과 초과 첨도 이산 분포의 그리고 및 형태의 (0이 아닌) 측정 값 에서 정상적인 근사값이 적절하지 않다는 것이 합니까?m , n μ σ 2 γ 1 γ 2 X γ 1 γ 2피r [ …


2
테일러 계열 근사치가 (전체) 기능에 대한 기대치에 언제 수렴됩니까?
일부 일 변량 랜덤 변수 와 전체 함수 대해 형식을 예상하십시오 (즉, 수렴 간격은 전체 실제 선입니다).E(f(X))E(f(X))E(f(X))XXXf(⋅)f(⋅)f(\cdot) 대한 모멘트 생성 기능이 있으므로 정수 모멘트를 쉽게 계산할 수 있습니다. 주위에 Taylor 계열을 사용한 다음 일련의 중심 모멘트 ( 와 관련하여 기대치를 적용합니다. = f (\ mu) + \ sum_ {n = …


2
데이터에 대한 ROC 곡선 계산
그래서, 나는 16 개의 시험을 가지고 있는데, 여기에서 Hamming Distance를 사용하여 생체 특성으로부터 사람을 인증하려고합니다. 임계 값이 3.5로 설정되었습니다. 내 데이터는 다음과 같으며 1 번 시험 만 참 긍정입니다. Trial Hamming Distance 1 0.34 2 0.37 3 0.34 4 0.29 5 0.55 6 0.47 7 0.47 8 0.32 9 0.39 …
9 mathematical-statistics  roc  classification  cross-validation  pac-learning  r  anova  survival  hazard  machine-learning  data-mining  hypothesis-testing  regression  random-variable  non-independent  normal-distribution  approximation  central-limit-theorem  interpolation  splines  distributions  kernel-smoothing  r  data-visualization  ggplot2  distributions  binomial  random-variable  poisson-distribution  simulation  kalman-filter  regression  lasso  regularization  lme4-nlme  model-selection  aic  r  mcmc  dlm  particle-filter  r  panel-data  multilevel-analysis  model-selection  entropy  graphical-model  r  distributions  quantiles  qq-plot  svm  matlab  regression  lasso  regularization  entropy  inference  r  distributions  dataset  algorithms  matrix-decomposition  regression  modeling  interaction  regularization  expected-value  exponential  gamma-distribution  mcmc  gibbs  probability  self-study  normality-assumption  naive-bayes  bayes-optimal-classifier  standard-deviation  classification  optimization  control-chart  engineering-statistics  regression  lasso  regularization  regression  references  lasso  regularization  elastic-net  r  distributions  aggregation  clustering  algorithms  regression  correlation  modeling  distributions  time-series  standard-deviation  goodness-of-fit  hypothesis-testing  statistical-significance  sample  binary-data  estimation  random-variable  interpolation  distributions  probability  chi-squared  predictor  outliers  regression  modeling  interaction 
당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.