«probability» 태그된 질문

확률은 특정 이벤트가 발생할 가능성에 대한 정량적 설명을 제공합니다.

1
의 Quantile에 대한 닫힌 형태 표현
두 개의 랜덤 변수가 있습니다. 여기서 U ( 0 ,αi∼iid U(0,1),i=1,2αi∼iid U(0,1),i=1,2\alpha_i\sim \text{iid }U(0,1),\;\;i=1,2 은 균일 한 0-1 분포입니다.U(0,1)U(0,1)U(0,1) 그런 다음 프로세스가 생성됩니다. P(x)=α1sin(x)+α2cos(x),x∈(0,2π)P(x)=α1sin⁡(x)+α2cos⁡(x),x∈(0,2π)P(x)=\alpha_1\sin(x)+\alpha_2\cos(x), \;\;\;x\in (0,2\pi) 지금,가 폐쇄 된 형태의 발현이인지 궁금 의 이론적 인 75 %의 분위수 P ( X ) 주어진 대한 X ∈ ( 0 , 2 …

5
자율 학습을위한 확률 이론서
확률 분포 함수 및 누적 분포 함수와 같은 확률 이론의 중요한 개념을 설명하는 좋은 책이 있습니까? John Rice의 "수학 통계 및 데이터 분석"과 같은 책은 간단한 순열 개념으로 시작한 다음 갑자기 (2 장에서) 실제 분석, 다중 및 표면 적분에 대한 지식을 가정하고 CDF 및 PDF와 3 차원 그림으로 설명합니다. 하나는 …

1
확률 밀도 함수의 변수 변화의 유도?
책 패턴 인식 및 기계 학습 (공식 1.27)에서 피와이( y) = p엑스( x ) ∣∣∣디엑스디와이∣∣∣= p엑스( g( y) ) | 지'( y) |피와이(와이)=피엑스(엑스)|디엑스디와이|=피엑스(지(와이))|지'(와이)|p_y(y)=p_x(x) \left | \frac{d x}{d y} \right |=p_x(g(y)) | g'(y) | 여기서 , 는 변수의 변경과 관련하여 해당하는 pdf입니다 .x = g( y)엑스=지(와이)x=g(y)피엑스( x )피엑스(엑스)p_x(x)피와이( y)피와이(와이)p_y(y) 이 책은 …

4
왜 P (A, B | C) / P (B | C) = P (A | B, C)입니까?
내가 이해P(A∩B)/P(B)=P(A|B)P(A∩B)/P(B)=P(A|B)P(A\cap B)/P(B) = P(A|B) . 조건은 A와 B의 교차점을 B의 전체 영역으로 나눈 것입니다. 그러나 왜 P(A∩B|C)/P(B|C)=P(A|B∩C)P(A∩B|C)/P(B|C)=P(A|B∩C)P(A\cap B|C)/P(B|C) = P(A|B \cap C) 인가? 직감을 줄 수 있습니까? 그것은해야하지 : P(A∩B∩C)/P(B,C)=P(A|B∩C)P(A∩B∩C)/P(B,C)=P(A|B∩C)P(A\cap B \cap C)/P(B,C) = P(A|B \cap C) ?

2
신뢰 구간 해석
참고 : 중복 된 경우 사전에 사과드립니다. 검색에서 비슷한 q를 찾지 못했습니다. 우리가 진정한 매개 변수 p를 가지고 있다고 가정 해보십시오. 신뢰 구간 C (X)는 p의 95 %를 포함하는 RV입니다. 이제 X를 관찰하고 C (X)를 계산한다고 가정하자. 일반적인 대답은 "p를 포함하거나 포함하지 않기"때문에 "p를 포함 할 확률이 95 %"인 것으로 …

2
표기법 및 이유 :
이것들은 단지 문체 적 표기법 (이탤릭체인지 비 이탤릭체인지)이거나이 표기법의 의미에 실질적인 차이가 있습니까? 이 질문에서 고려해야 할 " 확률 "을 의미하는 다른 표기법 이 있습니까?

2
한계 분포 / 마진 확률이 왜“마진”으로 설명 되는가?
한계는 일반적으로 작은 효과, 더 큰 시스템의 외부에있는 것을 말합니다. 그것은 "마진 적"이라고 묘사 된 것의 중요성을 감소시키는 경향이 있습니다. 그렇다면 랜덤 변수의 하위 집합 확률에 어떻게 적용됩니까? 단어의 의미로 인해 단어가 수학에서 위험한 제안이 될 수 있다고 가정 할 때 여기에 반드시 답이있는 것은 아니라는 것을 알고 있지만 때로는 …

5
왜 ?
나는 그것을 생각 P(A|B)=P(A|B,C)∗P(C)+P(A|B,¬C)∗P(¬C)P(A|B)=P(A|B,C)∗P(C)+P(A|B,¬C)∗P(¬C)P(A|B) = P(A | B,C) * P(C) + P(A|B,\neg C) * P(\neg C) 정확하지만 P(A|B)=P(A|B,C)+P(A|B,¬C)P(A|B)=P(A|B,C)+P(A|B,¬C)P(A|B) = P(A | B,C) + P(A|B,\neg C) 부정확하다. 그러나 나는 나중에 대해 "직관"을 얻었습니다. 즉, 두 경우 (C 또는 C가 아닌)를 분할하여 확률 P (A | B)를 고려합니다. 이 직관이 왜 틀린가?

2
사건이“결국 일어난다”는 것은 무엇을 의미 하는가?
초기 상태 를 사용하여 정수 에서 1 차원 랜덤 워크를 고려하십시오 .ZZ\mathbb{Z}x∈Zx∈Zx\in\mathbb{Z} Sn=x+∑i=1nξiSn=x+∑i=1nξi\begin{equation} S_n=x+\sum^n_{i=1}\xi_i \end{equation} 여기서 증가 값 는 IID이므로 입니다.ξiξi\xi_i피{ ξ나는=1}=P{ξi=−1}=12P{ξi=1}=P{ξi=−1}=12P\{\xi_i=1\}=P\{\xi_i=-1\}=\frac{1}{2} 그것을 증명할 수 있습니다 (1) Px{Sn reaches +1 eventually}=1Px{Sn reaches +1 eventually}=1\begin{equation} P^x{\{S_n \text{ reaches +1 eventually}\}} = 1 \end{equation} 아래 첨자는 초기 위치를 나타냅니다. 하자 상태로 제 …

4
반복 횟수가 증가함에 따라 그라디언트 부스팅 기계 정확도가 감소합니다.
caretR 의 패키지를 통해 그라디언트 부스팅 머신 알고리즘을 실험하고 있습니다 . 소규모 대학 입학 데이터 세트를 사용하여 다음 코드를 실행했습니다. library(caret) ### Load admissions dataset. ### mydata <- read.csv("http://www.ats.ucla.edu/stat/data/binary.csv") ### Create yes/no levels for admission. ### mydata$admit_factor[mydata$admit==0] <- "no" mydata$admit_factor[mydata$admit==1] <- "yes" ### Gradient boosting machine algorithm. ### set.seed(123) fitControl …
15 machine-learning  caret  boosting  gbm  hypothesis-testing  t-test  panel-data  psychometrics  intraclass-correlation  generalized-linear-model  categorical-data  binomial  model  intercept  causality  cross-correlation  distributions  ranks  p-value  z-test  sign-test  time-series  references  terminology  cross-correlation  definition  probability  distributions  beta-distribution  inverse-gamma  missing-data  paired-comparisons  paired-data  clustered-standard-errors  cluster-sample  time-series  arima  logistic  binary-data  odds-ratio  medicine  hypothesis-testing  wilcoxon-mann-whitney  unsupervised-learning  hierarchical-clustering  neural-networks  train  clustering  k-means  regression  ordinal-data  change-scores  machine-learning  experiment-design  roc  precision-recall  auc  stata  multilevel-analysis  regression  fitting  nonlinear  jmp  r  data-visualization  gam  gamm4  r  lme4-nlme  many-categories  regression  causality  instrumental-variables  endogeneity  controlling-for-a-variable 

1
통계 알고리즘 개발자 후보에 대한 좋은 인터뷰 질문은 무엇입니까?
통계 / 기계 학습 / 데이터 마이닝 컨텍스트에서 알고리즘 개발자 / 연구원의 위치에 대해 사람들을 인터뷰하고 있습니다. 나는 기본 이론에 대한 후보의 친숙성, 이해 및 유동성, 예를 들어 기대 및 분산의 기본 특성, 일부 공통 분포 등을 결정하기 위해 질문을 찾고 있습니다. 나의 현재 이동-에 대한 질문은 : "알 수없는 …


2
PAC 학습 이론은 무엇을 의미합니까?
나는 기계 학습에 새로운 사람입니다. 저는 기계 학습 (Stanford University) 과정을 공부하고 있는데이 이론의 의미와 그 유용성이 무엇인지 이해하지 못했습니다. 누군가 나를 위해이 이론을 자세히 설명 할 수 있는지 궁금합니다. 이 이론은이 방정식을 기반으로합니다.

1
교체없이 그릴 때 예상되는 뚜렷한 색상 수
개의 다른 색 의 개의 공을 포함하는 항아리를 고려하십시오. 는 개의 공 중 색상 의 공의 비율입니다 ( ). 나는 대체 하지 않고 항아리에서 공을 그리고 그려진 공 중 다른 색상 의 숫자 를 봅니다 . 분포 의 적절한 특성에 따라 의 함수로 의 기대치는 무엇입니까 ?NNNPPPpipip_iiiiNNN∑ipi=1∑ipi=1\sum_i p_i = 1γ …

4
조건부 확률에 대한 직관을 개발하는 방법?
iTunes와 YouTube에서 찾을 수있는 Harvard의 Statistics 110 : Probability 과정 의 비디오 강의 에서이 문제 가 발생 했습니다. 여기에 요약하려고했습니다. 표준 데크에서 무작위로 2 장의 카드를받습니다. 우리가 하나 이상의 에이스를 가졌을 때 두 카드가 에이스 일 확률은 얼마입니까? P(both aces|have ace)=P(both aces,have ace)P(have ace)P(both aces|have ace)=P(both aces,have ace)P(have ace) P(both\ …

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.