«probability» 태그된 질문

확률은 특정 이벤트가 발생할 가능성에 대한 정량적 설명을 제공합니다.

4
병렬 저항의 변화
저항 세트 R이 있고 모든 평균이 평균 μ 및 분산 σ로 분포되어 있다고 가정합니다. 다음과 같은 레이아웃의 회로 부분을 고려하십시오. (r) || (r + r) || (r + r + r). 각 부품의 등가 저항은 r, 2r 및 3r입니다. 각 섹션의 분산은 σ2σ2σ^2 , 2σ22σ22σ^2 , 3σ23σ23σ^2 입니다. 전체 회로의 …

1
R 선형 회귀 범주 형 변수 "숨김"값
이것은 여러 번 나온 예제 일뿐이므로 샘플 데이터가 없습니다. R에서 선형 회귀 모델 실행 : a.lm = lm(Y ~ x1 + x2) x1연속 변수입니다. x2범주 형이며 "낮음", "중간"및 "높음"의 세 가지 값이 있습니다. 그러나 R이 제공하는 출력은 다음과 같습니다. summary(a.lm) Estimate Std. Error t value Pr(>|t|) (Intercept) 0.521 0.20 1.446 …
10 r  regression  categorical-data  regression-coefficients  categorical-encoding  machine-learning  random-forest  anova  spss  r  self-study  bootstrap  monte-carlo  r  multiple-regression  partitioning  neural-networks  normalization  machine-learning  svm  kernel-trick  self-study  survival  cox-model  repeated-measures  survey  likert  correlation  variance  sampling  meta-analysis  anova  independence  sample  assumptions  bayesian  covariance  r  regression  time-series  mathematical-statistics  graphical-model  machine-learning  linear-model  kernel-trick  linear-algebra  self-study  moments  function  correlation  spss  probability  confidence-interval  sampling  mean  population  r  generalized-linear-model  prediction  offset  data-visualization  clustering  sas  cart  binning  sas  logistic  causality  regression  self-study  standard-error  r  distributions  r  regression  time-series  multiple-regression  python  chi-squared  independence  sample  clustering  data-mining  rapidminer  probability  stochastic-processes  clustering  binary-data  dimensionality-reduction  svd  correspondence-analysis  data-visualization  excel  c#  hypothesis-testing  econometrics  survey  rating  composite  regression  least-squares  mcmc  markov-process  kullback-leibler  convergence  predictive-models  r  regression  anova  confidence-interval  survival  cox-model  hazard  normal-distribution  autoregressive  mixed-model  r  mixed-model  sas  hypothesis-testing  mediation  interaction 

1
시퀀스 감소 증명 (많은 pt를 플로팅하여 지원)
지난 달에 SE에 게시 한 많은 질문은이 특정 문제를 해결하는 데 도움이되는 목표였습니다. 모든 질문에 대답했지만 여전히 해결책을 찾지 못했습니다. 그래서 직접 해결하려고하는 문제를 물어봐야한다고 생각했습니다. 하자 . 여기서 , , (정수)이며 모든 은 .엑스엔∼에프엔Xn∼FnX_n \sim F_n에프엔= ( 1 − ( 1 −에프n - 1)씨)씨Fn=(1−(1−Fn−1)c)cF_n = (1-(1-F_{n-1})^c)^c에프0= xF0=xF_0 = xc …

13
'B에 A가 주어질 가능성이 높으면'A에 B가 주어 졌을 가능성이 더 높습니다
나는 더 분명한 직관을 얻으려고 노력하고 있습니다. AAA 만든다 BBB 그때보다 BBB 만든다 AAA 더 가능성이 ""즉 허락하다 n(S)n(S)n(S) 공간의 크기를 나타냅니다 AAA 과 BBB 그렇다면 청구: P(B|A)>P(B)P(B|A)>P(B)P(B|A)>P(B) 그래서 n(AB)/n(A)>n(B)/n(S)n(AB)/n(A)>n(B)/n(S)n(AB)/n(A) > n(B)/n(S) 그래서 N ( B ) / N ( B ) > N ( ) / N ( S)n(AB)/n(B)>n(A)/n(S)n(AB)/n(B) …

1
동전이 공정한지 확인
친구로부터 다음과 같은 질문을 받았습니다. 나는 그녀를 도울 수 없었지만 누군가 나에게 설명 할 수 있기를 바랍니다. 비슷한 예를 찾을 수 없습니다. 도움과 설명을 주셔서 감사합니다. Q : 100 번의 코인 던지기 실험 결과는 0 = "Tail"및 1 = "Head"로 기록됩니다. 출력 x는 0과 길이 100의 1입니다. x에서 1-0-0을 얻는 …


1
무 검정 다변량 법선의 평균과 분산은 무엇입니까?
하자 BE에 . 의 평균 및 공분산 행렬은 무엇입니까 (최대 계산 된 요소 별)?Z∼N(μ,Σ)Z∼N(μ,Σ)Z \sim \mathcal N(\mu, \Sigma)RdRd\mathbb R^dZ+=max(0,Z)Z+=max(0,Z)Z_+ = \max(0, Z) 예를 들어 딥 네트워크 내에서 ReLU 활성화 기능을 사용하고 CLT를 통해 주어진 레이어에 대한 입력이 거의 정상이라고 가정하면 출력 분포입니다. (많은 사람들이 전에 이것을 계산했다고 확신하지만, 합리적으로 읽을 …

3
더 높은 것, 또는
저는 확률 테스트를 받았는데이 질문에 실제로 답할 수 없었습니다. 방금 다음과 같이 물었습니다. " 는 임의의 변수 0 이므로 올바른 불평등을 사용하여 E (X ^ 2) ^ 3 또는 E (X ^ 3) ^ 2 보다 높거나 같은 것을 증명하십시오 .XXXXXX ⩾⩾\geqslant 000E(X2)3E(X2)3E(X^2)^3E(X3)2E(X3)2E(X^3)^2 내가 생각할 수있는 유일한 것은 Jensen의 불평등이지만 …

2
독립 제곱 균일 랜덤 변수의 합의 제곱근의 기대
하자 BE 독립적이고 identicallly 분산 표준 균일 한 확률 변수를.X1,…,Xn∼U(0,1)X1,…,Xn∼U(0,1)X_1,\dots,X_n \sim U(0,1) Let Yn=∑inX2iI seek: E[Yn−−√]Let Yn=∑inXi2I seek: E[Yn]\text{Let }\quad Y_n=\sum_i^nX_i^2 \quad \quad \text{I seek: } \quad \mathbb{E}\big[\sqrt{Y_n } \big] 대한 기대 는 쉽습니다.YnY엔Y_n E[X2]E[Yn]=∫10y2y√=13=E[∑inX2i]=∑inE[X2i]=n3이자형[엑스2]=∫01와이2와이=1삼이자형[와이엔]=이자형[∑나는엔엑스나는2]=∑나는엔이자형[엑스나는2]=엔삼\begin{align} \mathbb{E}\left[X^2\right] &=\int_0^1\frac{y}{2\sqrt{y}}=\frac{1}{3}\\ \mathbb{E}\left[Y_n\right] &=\mathbb{E}\left[\sum_i^nX_i^2\right] = \sum_i^n\mathbb{E}\left[X_i^2\right]=\frac{n}{3} \end{align} 이제 지루한 부분입니다. LOTUS를 적용하려면 의 pdf가 필요합니다 …


2
1 % 미만의 물체에 결함이있을 확률이 95 % 인 경우 얼마나 많은 샘플이 필요합니까?
내 XML 사이트 맵이 다음보다 적은지 확인해야합니다. 1 %1%1\%쓰레기 (깨진 링크). URL 목록은 수십만 개에 달하며 URL을 1 대 1로 모두 테스트하는 것이 가능하더라도 여러 가지 이유로하지는 않을 것입니다. 1 - Saved bandwidth 2 - Faster traffic for real clients 3 - Less noise in visitor statistics (because my test …

1
에서 는 독립적 이라는 결론을 내릴 수 있습니까 ?
글쎄, 우리는 예를 들어 https://en.wikipedia.org/wiki/Subindependence 를 참조 하여 흥미로운 반례를 볼 수는 없습니다 . 그러나 실제 질문은 : 독립을 따르도록 조건을 강화할 방법이 있습니까? 예를 들어, g_1, \ dotsc, g_n 함수 집합 이 지1, ... ,지엔g1,…,gng_1, \dotsc, g_n 그래서 모든 i, j에 대해 \ E g_i (X) g_j (Y) = …

2
이 iid Bernoulli 변수의이 랜덤 합의 확률 분포는 무엇입니까?
동일하게 분포되지 않은 임의의 수의 변수 합계의 확률 분포를 찾으려고합니다. 예를 들면 다음과 같습니다. John은 고객 서비스 콜센터에서 일합니다. 문제가있는 전화를 받고 해결하려고합니다. 그가 해결할 수없는 사람들을 상사에게 전달합니다. 그가 하루에받는 전화 수는 평균을 가진 포아송 분포를 따른다고 가정 해 봅시다.μμ\mu. 각 문제의 어려움은 아주 간단한 것들 (그가 확실히 다룰 …

1
상호 배타적이지 않은 카테고리를 분류 할 수있는 딥 러닝 모델
예 : 직업 설명에 "영국의 Java Senior Engineer"문장이 있습니다. 나는 2 개 종류로 예측하는 깊은 학습 모델을 사용하려면 : English 와 IT jobs. 기존 분류 모델을 사용하는 경우 softmax마지막 레이어에서 함수가있는 레이블 하나만 예측할 수 있습니다 . 따라서 두 모델 신경망을 사용하여 두 범주 모두에서 "예"/ "아니오"를 예측할 수 있지만 …
9 machine-learning  deep-learning  natural-language  tensorflow  sampling  distance  non-independent  application  regression  machine-learning  logistic  mixed-model  control-group  crossover  r  multivariate-analysis  ecology  procrustes-analysis  vegan  regression  hypothesis-testing  interpretation  chi-squared  bootstrap  r  bioinformatics  bayesian  exponential  beta-distribution  bernoulli-distribution  conjugate-prior  distributions  bayesian  prior  beta-distribution  covariance  naive-bayes  smoothing  laplace-smoothing  distributions  data-visualization  regression  probit  penalized  estimation  unbiased-estimator  fisher-information  unbalanced-classes  bayesian  model-selection  aic  multiple-regression  cross-validation  regression-coefficients  nonlinear-regression  standardization  naive-bayes  trend  machine-learning  clustering  unsupervised-learning  wilcoxon-mann-whitney  z-score  econometrics  generalized-moments  method-of-moments  machine-learning  conv-neural-network  image-processing  ocr  machine-learning  neural-networks  conv-neural-network  tensorflow  r  logistic  scoring-rules  probability  self-study  pdf  cdf  classification  svm  resampling  forecasting  rms  volatility-forecasting  diebold-mariano  neural-networks  prediction-interval  uncertainty 

2
Markov, Chebyshev 부등식이 엄격한 랜덤 변수
Markov 또는 Chebyshev 부등식이 엄격한 임의 변수를 작성하는 데 관심이 있습니다. 간단한 예는 다음과 같은 임의 변수입니다. P(X=1)=P(X=−1)=0.5P(X=1)=P(X=−1)=0.5P(X=1)=P(X=-1) = 0.5 입니다. 평균은 0이고 분산은 1이고 입니다. 이 랜덤 변수 체비 쇼프는 단단합니다 (평등하게 유지합니다).P(|X|≥1)=1P(|X|≥1)=1P(|X| \ge 1) = 1 P(|X|≥1)≤Var(X)12=1P(|X|≥1)≤Var(X)12=1P(|X|\ge 1) \le \frac{\text{Var}(X)}{1^2} = 1 Markov와 Chebyshev가 꽉 찬 더 흥미로운 …

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.