«kalman-filter» 태그된 질문

칼만 필터는 상태 공간 모델에서 미지 상태의 평균 벡터 및 분산-공분산 행렬을 추정하기위한 알고리즘입니다.

3
시변 바이어스로 바이어스 코인을 모델링하는 방법은 무엇입니까?
편향 동전 모델에는 일반적으로 하나의 매개 변수 있습니다. 일련의 추첨에서 를 추정하는 한 가지 방법 은 베타 사전을 사용하고 이항 우도를 갖는 사후 분포를 계산하는 것입니다.θ=P(Head|θ)θ=P(Head|θ)\theta = P(\text{Head} | \theta)θθ\theta 내 설정에서 이상한 물리적 프로세스로 인해 동전 속성이 천천히 변경되고 는 시간 의 함수가됩니다 . 내 데이터는 일련의 정렬 된 …

2
칼만 필터의 파라미터를 추정하는 방법
이전 질문에서 비 가우시안 경험적 데이터에 분포를 맞추는 방법에 대해 물었습니다. 데이터가 Gaussian이고 Kalman 필터를 먼저 적용한다고 가정 할 수 있다고 오프라인에서 나에게 제안되었습니다. 그런 다음 오류에 따라 더 멋진 것을 개발할 가치가 있는지 결정하십시오. 말이 되네요 따라서 훌륭한 시계열 데이터 세트 를 사용하여 칼만 필터를 실행하려면 몇 가지 변수 …

1
ARIMA vs Kalman 필터-관련성
칼만 필터에 대해 읽기 시작했을 때 ARIMA 모델의 특별한 경우라고 생각했습니다 (즉, ARIMA (0,1,1)). 그러나 실제로 상황이 더 복잡해 보입니다. 우선, ARIMA는 예측에 사용될 수 있고 Kalman 필터는 필터링에 사용됩니다. 그러나 그들은 밀접한 관련이 있습니까? 질문 : ARIMA와 Kalman 필터의 관계는 무엇입니까? 하나는 다른 것을 사용하고 있습니까? 하나의 특별한 경우입니까?

1
칼만 필터와 스무딩 스플라인
Q : 스플라인 스무딩 대신 상태 공간 모델링 및 칼만 필터링을 사용하는 것이 어떤 데이터에 적합합니까? 둘 사이에 동등한 관계가 있습니까? 이 방법들이 어떻게 어울리는 지에 대한 높은 수준의 이해를 얻으려고합니다. Johnstone의 새로운 가우시안 추정 : 시퀀스 및 다중 해상도 모델을 살펴 보았습니다 . 상태 공간 모델과 칼만 필터링에 대한 …

1
선형 동적 시스템과 관련된 혼란
나는 Bishop의이 책인 Pattern Recognition and Machine Learning을 읽고있었습니다. 나는 선형 역학 시스템의 파생과 관련하여 혼란을 겪었습니다. LDS에서는 잠재 변수가 연속적이라고 가정합니다. Z가 잠재 변수를 나타내고 X가 관측 변수를 나타내는 경우 p (지엔|지n - 1) = N(지엔| ㅏ지n - 1, τ)p(zn|zn−1)=N(zn|Azn−1,τ)p(z_n|z_{n-1}) = N(z_n|Az_{n-1},\tau) p (엑스엔|지엔) = N(엑스엔, C지엔, Σ )p(xn|zn)=N(xn,Czn,Σ)p(x_n|z_n) …

1
관찰 된 이벤트와 예상 된 이벤트를 비교하는 방법은 무엇입니까?
4 가지 가능한 이벤트의 주파수 샘플이 하나 있다고 가정합니다. Event1 - 5 E2 - 1 E3 - 0 E4 - 12 내 이벤트의 예상 확률이 있습니다. p1 - 0.2 p2 - 0.1 p3 - 0.1 p4 - 0.6 내 네 가지 사건의 관측 빈도의 합으로 (18) 사건의 예상 빈도를 올바르게 …
9 r  statistical-significance  chi-squared  multivariate-analysis  exponential  joint-distribution  statistical-significance  self-study  standard-deviation  probability  normal-distribution  spss  interpretation  assumptions  cox-model  reporting  cox-model  statistical-significance  reliability  method-comparison  classification  boosting  ensemble  adaboost  confidence-interval  cross-validation  prediction  prediction-interval  regression  machine-learning  svm  regularization  regression  sampling  survey  probit  matlab  feature-selection  information-theory  mutual-information  time-series  forecasting  simulation  classification  boosting  ensemble  adaboost  normal-distribution  multivariate-analysis  covariance  gini  clustering  text-mining  distance-functions  information-retrieval  similarities  regression  logistic  stata  group-differences  r  anova  confidence-interval  repeated-measures  r  logistic  lme4-nlme  inference  fiducial  kalman-filter  classification  discriminant-analysis  linear-algebra  computing  statistical-significance  time-series  panel-data  missing-data  uncertainty  probability  multivariate-analysis  r  classification  spss  k-means  discriminant-analysis  poisson-distribution  average  r  random-forest  importance  probability  conditional-probability  distributions  standard-deviation  time-series  machine-learning  online  forecasting  r  pca  dataset  data-visualization  bayes  distributions  mathematical-statistics  degrees-of-freedom 

2
데이터에 대한 ROC 곡선 계산
그래서, 나는 16 개의 시험을 가지고 있는데, 여기에서 Hamming Distance를 사용하여 생체 특성으로부터 사람을 인증하려고합니다. 임계 값이 3.5로 설정되었습니다. 내 데이터는 다음과 같으며 1 번 시험 만 참 긍정입니다. Trial Hamming Distance 1 0.34 2 0.37 3 0.34 4 0.29 5 0.55 6 0.47 7 0.47 8 0.32 9 0.39 …
9 mathematical-statistics  roc  classification  cross-validation  pac-learning  r  anova  survival  hazard  machine-learning  data-mining  hypothesis-testing  regression  random-variable  non-independent  normal-distribution  approximation  central-limit-theorem  interpolation  splines  distributions  kernel-smoothing  r  data-visualization  ggplot2  distributions  binomial  random-variable  poisson-distribution  simulation  kalman-filter  regression  lasso  regularization  lme4-nlme  model-selection  aic  r  mcmc  dlm  particle-filter  r  panel-data  multilevel-analysis  model-selection  entropy  graphical-model  r  distributions  quantiles  qq-plot  svm  matlab  regression  lasso  regularization  entropy  inference  r  distributions  dataset  algorithms  matrix-decomposition  regression  modeling  interaction  regularization  expected-value  exponential  gamma-distribution  mcmc  gibbs  probability  self-study  normality-assumption  naive-bayes  bayes-optimal-classifier  standard-deviation  classification  optimization  control-chart  engineering-statistics  regression  lasso  regularization  regression  references  lasso  regularization  elastic-net  r  distributions  aggregation  clustering  algorithms  regression  correlation  modeling  distributions  time-series  standard-deviation  goodness-of-fit  hypothesis-testing  statistical-significance  sample  binary-data  estimation  random-variable  interpolation  distributions  probability  chi-squared  predictor  outliers  regression  modeling  interaction 
당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.