«conditional-probability» 태그된 질문

다른 이벤트 B가 발생하거나 발생한 것으로 알려진 경우 이벤트 A가 발생할 확률입니다. 일반적으로 P (A | B)로 표시됩니다.

4
엣지 케이스의 정밀도 및 리콜에 대한 올바른 값은 무엇입니까?
정밀도는 다음과 같이 정의됩니다. p = true positives / (true positives + false positives) 로, 즉를 정확 true positives하고 false positives, 정밀도가 한 접근 방식 0? 리콜에 대한 동일한 질문 : r = true positives / (true positives + false negatives) 현재이 값을 계산 해야하는 통계 테스트를 구현 중이며 때로는 …
20 precision-recall  data-visualization  logarithm  references  r  networks  data-visualization  standard-deviation  probability  binomial  negative-binomial  r  categorical-data  aggregation  plyr  survival  python  regression  r  t-test  bayesian  logistic  data-transformation  confidence-interval  t-test  interpretation  distributions  data-visualization  pca  genetics  r  finance  maximum  probability  standard-deviation  probability  r  information-theory  references  computational-statistics  computing  references  engineering-statistics  t-test  hypothesis-testing  independence  definition  r  censoring  negative-binomial  poisson-distribution  variance  mixed-model  correlation  intraclass-correlation  aggregation  interpretation  effect-size  hypothesis-testing  goodness-of-fit  normality-assumption  small-sample  distributions  regression  normality-assumption  t-test  anova  confidence-interval  z-statistic  finance  hypothesis-testing  mean  model-selection  information-geometry  bayesian  frequentist  terminology  type-i-and-ii-errors  cross-validation  smoothing  splines  data-transformation  normality-assumption  variance-stabilizing  r  spss  stata  python  correlation  logistic  logit  link-function  regression  predictor  pca  factor-analysis  r  bayesian  maximum-likelihood  mcmc  conditional-probability  statistical-significance  chi-squared  proportion  estimation  error  shrinkage  application  steins-phenomenon 

3
베이 즈 정리에서 정규화 요소가 필요한 이유는 무엇입니까?
베이 즈 정리 P(model|data)=P(model)×P(data|model)P(data)P(model|data)=P(model)×P(data|model)P(data) P(\textrm{model}|\textrm{data}) = \frac{P(\textrm{model}) \times P(\textrm{data}|\textrm{model})}{P(\textrm{data})} 이건 다 괜찮아 그러나 나는 어딘가를 읽었습니다. 기본적으로 P (data)는 정규화 상수, 즉 사후 밀도를 하나로 통합하는 상수입니다. 우리는 0≤P(model)≤10≤P(model)≤10 \leq P(\textrm{model}) \leq 1 및 임을 알고 0≤P(data|model)≤10≤P(data|model)≤1 0 \leq P(\textrm{data}|\textrm{model}) \leq 1있습니다. 따라서 P(model)×P(data|model)P(model)×P(data|model)P(\textrm{model}) \times P(\textrm{data}|\textrm{model}) 0과 1 사이 여야합니다. …

3
대수의 조건부 기대에 대한 직감
하자 랜덤 변수 주어진 확률 공간 될 와 -algebra 우리는 조건부 기대 값 인 새로운 임의의 변수 을 구성 할 수 있습니다.( Ω , F , μ ) (Ω,F,μ)(\Omega,\mathscr{F},\mu)ξ : Ω → Rξ:Ω→R\xi:\Omega \to \mathbb{R} σ σ\sigmaG ⊆ FG⊆F\mathscr{G}\subseteq \mathscr{F} E [ ξ | G ]E[ξ|G]E[\xi|\mathscr{G}] 대한 생각의 직관은 정확히 …

4
최상의 예측 변수로서 조건부 기대 증명 문제
증명에 문제가 있습니다 E(Y|X)∈argming(X)E[(Y−g(X))2]E(Y|X)∈arg⁡ming(X)E[(Y−g(X))2]E(Y|X) \in \arg \min_{g(X)} E\Big[\big(Y - g(X)\big)^2\Big] 이는 기대와 조건부 기대에 대한 더 깊은 오해를 드러 낼 가능성이 높습니다. 내가 아는 증거는 다음과 같습니다 (이 증거의 다른 버전은 여기 에서 찾을 수 있습니다 ) ===argming(X)E[(Y−g(x))2]argming(X)E[(Y−E(Y|X)+E(Y|X)−g(X))2]argming(x)E[(Y−E(Y|X))2+2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]argming(x)E[2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]arg⁡ming(X)E[(Y−g(x))2]=arg⁡ming(X)E[(Y−E(Y|X)+E(Y|X)−g(X))2]=arg⁡ming(x)E[(Y−E(Y|X))2+2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]=arg⁡ming(x)E[2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]\begin{align*} &\arg \min_{g(X)} E\Big[\big(Y - g(x)\big)^2\Big]\\ = &\arg \min_{g(X)} E \Big[ \big(Y - …


3
사후 확률이> 1 일 수 있습니까?
베이 즈 공식에서 : 피( x | a ) = P( a | x ) P( x )피( a )P(x|a)=P(a|x)P(x)P(a)P(x|a) = \frac{P(a|x) P(x)}{P(a)} 후방 확률 가 1을 초과 할 수 있습니까?피( x | a )P(x|a)P(x|a) 예를 들어 , , . 그러나 나는 이것이 확실하지 않습니다. 왜냐하면 확률이 1보다 크다는 것은 …

1
주어진 MLE로 무작위 샘플 시뮬레이션
고정 합을 갖는 조건부 샘플을 시뮬레이션하는 질문에 대한이 Cross Validated 질문 은 George Casella 가 저에게 설정 한 문제를 상기 시켰습니다 . 파라 메트릭 모델 와이 모델의 iid 샘플 인 이 주어지면 의 MLE은 주어진 값에 대해 iid 샘플을 시뮬레이션하는 일반적인 방법이 있습니까 (X_1, \ ldots, X_n) MLE \ hat …

1
Borel의 역설을 정신적으로 어떻게 다루어야합니까?
나는 Borel의 역설과 조건부 확률을 다루는 다른 "역설"을 정신적으로 다루는 방법에 약간 불안감을 느낀다. 잘 모르는 사람은 이 링크를 참조하십시오 . 이 시점까지의 나의 정신적 반응은 아무도 그것에 대해 이야기하는 것 같지 않기 때문에 그것을 무시하는 것이었지만, 나는 이것을 교정해야한다고 생각합니다. 우리는이 역설이 존재한다는 것을 알고 있지만 실제로는 (예를 들어 …


4
왜 P (A, B | C) / P (B | C) = P (A | B, C)입니까?
내가 이해P(A∩B)/P(B)=P(A|B)P(A∩B)/P(B)=P(A|B)P(A\cap B)/P(B) = P(A|B) . 조건은 A와 B의 교차점을 B의 전체 영역으로 나눈 것입니다. 그러나 왜 P(A∩B|C)/P(B|C)=P(A|B∩C)P(A∩B|C)/P(B|C)=P(A|B∩C)P(A\cap B|C)/P(B|C) = P(A|B \cap C) 인가? 직감을 줄 수 있습니까? 그것은해야하지 : P(A∩B∩C)/P(B,C)=P(A|B∩C)P(A∩B∩C)/P(B,C)=P(A|B∩C)P(A\cap B \cap C)/P(B,C) = P(A|B \cap C) ?

4
조건부 확률에 대한 직관을 개발하는 방법?
iTunes와 YouTube에서 찾을 수있는 Harvard의 Statistics 110 : Probability 과정 의 비디오 강의 에서이 문제 가 발생 했습니다. 여기에 요약하려고했습니다. 표준 데크에서 무작위로 2 장의 카드를받습니다. 우리가 하나 이상의 에이스를 가졌을 때 두 카드가 에이스 일 확률은 얼마입니까? P(both aces|have ace)=P(both aces,have ace)P(have ace)P(both aces|have ace)=P(both aces,have ace)P(have ace) P(both\ …

3
만약
질문 경우 X1,⋯,Xn∼N(μ,1)X1,⋯,Xn∼N(μ,1)X_1,\cdots,X_n \sim \mathcal{N}(\mu, 1) IID 후 계산되어 E(X1∣T)E(X1∣T)\mathbb{E}\left( X_1 \mid T \right) 여기서는 T=∑iXiT=∑iXiT = \sum_i X_i . 시도 : 아래가 올바른지 확인하십시오. ∑iE(Xi∣T)=E(∑iXi∣T)=T.∑iE(Xi∣T)=E(∑iXi∣T)=T.\begin{align} \sum_i \mathbb{E}\left( X_i \mid T \right) = \mathbb{E}\left( \sum_i X_i \mid T \right) = T . \end{align} 와 같은 조건부 기대 값의 합을합시다 . …

6
더 중요한 통계 : '모든 여성의 90 %가 살아 남았다'또는 '생존 한 모든 사람들의 90 %가 여자였다'?
타이타닉의 다음 진술을 고려하십시오. 가정 1 : 배에는 남자와 여자 만 있었다 가정 2 : 많은 남성과 여성이 있었다 성명서 1 : 모든 여성의 90 %가 생존 성명서 2 : 생존 한 모든 사람들의 90 %가 여성이었습니다. 첫 번째는 여자를 구하는 것이 우선 순위가 높았 음을 나타냅니다 (남자를 구했는지 여부에 …

1
여러 조건을 가진 베이 즈 정리
이 방정식이 어떻게 도출되었는지 이해할 수 없습니다. P(I|M1∩M2)≤P(I)P(I′)⋅P(M1|I)P(M2|I)P(M1|I′)P(M2|I′)P(I|M1∩M2)≤P(I)P(I′)⋅P(M1|I)P(M2|I)P(M1|I′)P(M2|I′)P(I|M_{1}\cap M_{2}) \leq \frac{P(I)}{P(I')}\cdot \frac{P(M_{1}|I)P(M_{2}|I)}{P(M_{1}|I')P(M_{2}|I')} 이 방정식은 OJ Simpson의 사례가 문제로 제시된 논문 "확률에 의한 시험"에서 발췌 한 것입니다. 피고는 이중 살인 혐의로 재판을 받고 있으며 그에 대한 두 가지 증거가 도입되었습니다. M1M1M_{1} 은 피고의 피가 범죄 현장에서 발견 된 한 방울의 피와 …


당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.