«decision-theory» 태그된 질문

27
잠자는 숲속의 미녀 역설
그 상황 일부 연구원들은 당신을 잠들게하려고합니다. 공정한 동전의 비밀 던지기에 따라, 그들은 당신을 한 번 (머리) 또는 두 번 (꼬리) 잠깐 깨 웁니다. 깨어 난 후에, 그들은 당신을 깨우는 것을 잊게하는 약으로 다시 잠들게 할 것입니다. 당신이 깨어 때, 어느 정도를해야합니다 당신은 동전 던지기의 결과가 머리라고 생각? (좋아, 아마도 당신은이 …

7
얼마를 지불합니까? 실용적인 문제
이것은 가정 문제가 아니라 회사가 직면 한 실제 문제입니다. 매우 최근 (2 일 전) 우리는 딜러에게 10000 개의 제품 라벨 제조를 주문했습니다. 딜러는 독립적 인 사람입니다. 그는 외부에서 제조 된 라벨을 받고 회사는 딜러에게 지불합니다. 각 라벨의 가격은 회사에 정확히 1 달러입니다. 어제 딜러에게는 라벨이 붙어 있지만 라벨은 각각 100 …

5
머신 러닝에서 계층 적 / 중첩 된 데이터를 처리하는 방법
예를 들어 내 문제를 설명하겠습니다. {나이, 성별, 국가, 지역, 도시}와 같은 속성이 주어진 개인의 소득을 예측한다고 가정합니다. 당신은 이와 같은 훈련 데이터 세트를 가지고 있습니다 train <- data.frame(CountryID=c(1,1,1,1, 2,2,2,2, 3,3,3,3), RegionID=c(1,1,1,2, 3,3,4,4, 5,5,5,5), CityID=c(1,1,2,3, 4,5,6,6, 7,7,7,8), Age=c(23,48,62,63, 25,41,45,19, 37,41,31,50), Gender=factor(c("M","F","M","F", "M","F","M","F", "F","F","F","M")), Income=c(31,42,71,65, 50,51,101,38, 47,50,55,23)) train CountryID RegionID CityID Age …
29 regression  machine-learning  multilevel-analysis  correlation  dataset  spatial  paired-comparisons  cross-correlation  clustering  aic  bic  dependent-variable  k-means  mean  standard-error  measurement-error  errors-in-variables  regression  multiple-regression  pca  linear-model  dimensionality-reduction  machine-learning  neural-networks  deep-learning  conv-neural-network  computer-vision  clustering  spss  r  weighted-data  wilcoxon-signed-rank  bayesian  hierarchical-bayesian  bugs  stan  distributions  categorical-data  variance  ecology  r  survival  regression  r-squared  descriptive-statistics  cross-section  maximum-likelihood  factor-analysis  likert  r  multiple-imputation  propensity-scores  distributions  t-test  logit  probit  z-test  confidence-interval  poisson-distribution  deep-learning  conv-neural-network  residual-networks  r  survey  wilcoxon-mann-whitney  ranking  kruskal-wallis  bias  loss-functions  frequentist  decision-theory  risk  machine-learning  distributions  normal-distribution  multivariate-analysis  inference  dataset  factor-analysis  survey  multilevel-analysis  clinical-trials 


2
베이지안 신뢰할 수있는 구간 절차에 대한 의사 결정 이론적 근거는 무엇입니까?
(내가 왜 이것을 썼는지 보려면 이 질문에 대한 내 답변 아래의 주석을 확인하십시오 .) 유형 III 오류 및 통계적 결정 이론 잘못된 질문에 대한 정답을 제공하는 것을 유형 III 오류라고도합니다. 통계적 의사 결정 이론은 불확실한 의사 결정의 공식화입니다. 유형 III 오류를 피할 수있는 개념적 프레임 워크를 제공합니다. 프레임 워크의 핵심 …

4
베이지안과 잦은 포인트 추정기는 어떤 조건에서 일치합니까?
사전 설정이 평평하면 ML (자주 주의자-최대 우도) 및 MAP (Bayesian-최대 사후 계산) 추정기가 일치합니다. 그러나 더 일반적으로, 나는 일부 손실 함수의 최적화 프로그램으로 도출 된 포인트 추정기에 대해 이야기하고 있습니다. 즉 x^(.)=argminE(L(X−x^(y))|y) (Bayesian) x^(.)=argminE(L(X−x^(y))|y) (Bayesian) \hat x(\,. ) = \text{argmin} \; \mathbb{E} \left( L(X-\hat x(y)) \; | \; y \right) …

2
동전 뒤집기, 의사 결정 프로세스 및 정보 가치
다음과 같은 설정을 상상해보십시오. 동전 2 개, 공정한 것으로 보장 되는 동전 A , 공정하거나 아닐 수도있는 동전 B가 있습니다. 당신은 100 코인 플립을하도록 요청 받았으며, 당신의 목표는 헤드 수 를 최대화하는 것입니다 . 코인 B에 대한 당신의 이전 정보는 동전이 3 번 뒤집히고 1 헤드를 산출했다는 것입니다. 결정 규칙이 …

1
엄격한 폰 노이만 불평등의 예
하자 추정기의 베이 즈 위험 나타낸다 종래에 대해 \ 파이 ,하자 \ 파이는 상기 파라미터 공간의 모든 전과 세트 나타낸다 \ 쎄타 및하자 \ 델타 들의 세트를 나타낸다 모든 (아마도 무작위 화 된) 결정 규칙.r(π,δ)r(π,δ)r(\pi, \delta)δδ\deltaππ\piΠΠ\PiΘΘ\ThetaΔΔ\Delta John von Neumann의 최소 최대 불평등에 대한 통계적 해석은 supπ∈Πinfδ∈Δr(π,δ)≤infδ∈Δsupπ∈Πr(π,δ),supπ∈Πinfδ∈Δr(π,δ)≤infδ∈Δsupπ∈Πr(π,δ), \sup_{\pi\in\Pi} \inf_{\delta\in\Delta} r(\pi, \delta) …

2
충분한 통계는 무엇입니까?
충분한 통계를 이해하는 데 어려움이 있습니까? 하자 충분한 통계합니다.T=ΣxiT=ΣxiT=\Sigma x_i 경우 확률 1로, 어떤 기능에 대한 , 그것은 전체 충분한 통계치이다.E[g(T)]=0E[g(T)]=0E[g(T)]=0ggg 그러나 이것이 무엇을 의미합니까? 유니폼과 Bernoulli (페이지 6 http://amath.colorado.edu/courses/4520/2011fall/HandOuts/umvue.pdf )의 예를 보았지만 직관적이지 않으므로 통합을 보는 것이 더 혼란스러워졌습니다. 누군가 간단하고 직관적 인 방법으로 설명 할 수 있습니까?

1
헤어 드레서의 수수께끼
저의 미용사 인 스테이시는 항상 행복한 표정을 짓지 만 종종 그녀의 시간 관리에 스트레스를받습니다. 오늘 Stacey는 나의 약속에 대해 기한이 지났고 매우 사과했습니다. 내 이발을받는 동안 나는 그녀의 표준 약속이 얼마나 오래 걸리나요? (깨끗한 라운드 번호에 대한 고객의 선호가 잠시 무시 될 수있는 경우). 고려해야 할 사항은 매우 늦은 고객이 …

2
퍼셉트론에 대한 결정 경계 플롯
퍼셉트론 알고리즘의 결정 경계를 플롯하려고하는데 실제로 몇 가지 사항에 대해 혼란스러워합니다. 내 입력 인스턴스는 이며 기본적으로 2D 입력 인스턴스 ( x 1 및 x 2 ) 및 이진 클래스 대상 값 ( y ) [1 또는 0]입니다.[(x1,x2),y][(x1,x2),y][(x_{1},x_{2}), y]x1x1x_{1}x2x2x_{2}yyy 내 가중치 벡터는 입니다.[w1,w2][w1,w2][w_{1}, w_{2}] 이제 추가 바이어스 매개 변수 을 통합해야 …

3
MAP은 대한 솔루션입니다
내가 건너 온 이 슬라이드 온라인 교육 과정 중 하나 (슬라이드 # 16 & # 17). 강사는 최대 후방 추정치 (MAP)가 실제로 솔루션 인 방법을 설명하려고했습니다 . 여기서 는 참 매개 변수.L(θ)=I[θ≠θ∗]L(θ)=I[θ≠θ∗]L(\theta) = \mathcal{I}[\theta \ne \theta^{*}]θ∗θ∗\theta^{*} 누군가 이것이 어떻게 진행되는지 설명해 주시겠습니까? 편집 : 링크가 끊어 질 경우 슬라이드를 추가했습니다.

3
교정을 측정하기위한 최상의 메트릭을 어떻게 선택합니까?
테스트 중심 개발을 프로그래밍하고 수행합니다. 코드를 변경 한 후 테스트를 실행합니다. 때때로 그들은 성공하고 때로는 실패합니다. 테스트를 실행하기 전에 테스트가 성공할 것이라는 신뢰를 위해 0.01에서 0.99 사이의 숫자를 기록합니다. 테스트의 성공 여부를 예측하는 데있어 개선되고 있는지 알고 싶습니다. 테스트가 월요일 또는 금요일에 성공할지 예측하는 것이 더 나은지 여부를 추적 할 …

2
Durbin-Watson을 제외하고 어떤 가설 테스트로 결정적이지 않은 결과를 얻을 수 있습니까?
더빈 - 왓슨 통계량은 그것을 거부하거나 (제로 자기 상관이 경우) 귀무 가설을 기각 할 실패하거나 가능하지 않은 결정적 영역에 놓여있다. "결정적이지 않은"결과를 얻을 수있는 다른 통계 테스트는 무엇입니까? 이 테스트 세트가 바이너리 "거부"/ "거부 실패"결정을 내릴 수없는 이유에 대한 일반적인 설명이 있습니까 (손을 흔들며하는 것이 좋습니까)? 후자의 질문에 대한 답변의 …

1
가중 제곱 바이어스와 분산의 합을 최소화하는 추정기는 의사 결정 이론에 어떻게 적합합니까?
알았어요. 제 원래의 메시지는 응답을 이끌어 내지 못했습니다. 질문을 다르게하겠습니다. 나는 결정 이론적 관점에서 추정에 대한 나의 이해를 설명하는 것으로 시작할 것이다. 나는 공식적인 훈련이 없으며 어떤 식 으로든 내 생각에 결함이 있다고해도 놀라지 않을 것입니다. 손실 함수 가 있다고 가정 합니다. 예상되는 손실은 (자주적인) 위험입니다.L(θ,θ^(x))L(θ,θ^(x))L(\theta,\hat\theta(x)) R(θ,θ^(x))=∫L(θ,θ^(x))L(θ,θ^(x))dx,R(θ,θ^(x))=∫L(θ,θ^(x))L(θ,θ^(x))dx,R(\theta,\hat\theta(x))=\int L(\theta,\hat\theta(x))\mathcal{L}(\theta,\hat\theta(x))dx, 여기서 는 …

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.