«likelihood» 태그된 질문

임의의 변수가 주어짐 X매개 변수화 된 분포 에서 발생하는 가능성은 의 함수로 관측 된 데이터의 확률로 정의됩니다F(X;θ)θ:L(θ)=P(θ;X=x)

5
가능성 원칙이 * 실제로 * 중요한 예입니까?
비례 가능성을 갖는 두 개의 서로 다른 방어 테스트가 p- 값이 아주 큰 차수이지만 대안에 대한 검정력이 유사한 경우와 같이 하나가 현저하게 다른 (그리고 똑같이 방어 가능한) 추론으로 이어질 수있는 예가 있습니까? 내가 본 모든 예제는 이항식과 음의 이항식을 비교하는 매우 바보입니다. 첫 번째의 p- 값은 7 %이고 두 번째 …

2
우도 원칙이 잦은 확률과 충돌하면 그 중 하나를 버립니까?
최근에 여기 에 게시 된 의견 에서 한 의견 자는 Larry Wasserman 이 블로그를 가리키며이 기사는 빈번한 추론이 우연의 원칙과 충돌한다고 지적합니다. 우도 원칙은 단순히 유사한 우도 함수를 생성하는 실험에서도 유사한 추론이 이루어져야한다고 말합니다. 이 질문의 두 부분 : 빈번한 추론의 어떤 부분, 풍미 또는 학교가 구체적으로 가능성 원칙을 위반합니까? …


5
“우연성은 비례의 배수 상수까지만 정의된다”는 것은 실제로 무엇을 의미 하는가?
저자가 최대 가능성 추정에 대한 토론에서 베이 즈 정리에 이르는 논문을 읽고 있습니다. 우연한 예로, 이항 분포로 시작합니다. p ( x | n , θ ) = ( n엑스) θ엑스( 1 − θ )n - xp(x|n,θ)=(nx)θx(1−θ)n−xp(x|n,\theta) = \binom{n}{x}\theta^x(1-\theta)^{n-x} 그런 다음 양쪽에 기록하십시오 ℓ ( θ | x , n ) …

4
로그 우도 대 우도를 사용하는 이론적 동기
통계와 확률 이론에서 로그 우도의 유비쿼터스 (그리고 아마도 일반적으로 로그 확률)를 더 깊이 이해하려고합니다. 로그 확률은 모든 곳에서 나타납니다. 우리는 일반적으로 분석을 위해 로그 가능성으로 작업합니다 (예 : 최대화), Fisher 정보는 로그 가능성의 2 차 미분으로 정의되며 엔트로피는 예상 로그 확률입니다. Kullback-Liebler 분기에는 로그 확률이 ​​포함되며, 예상 차이는 예상 로그 …

4
일반적으로 정보가 없거나 주관적인 사전을 사용할 때 베이지안 체계가 어떻게 해석에 더 좋습니까?
베이지안 프레임 워크는 해석에서 (자주주의에 비해) 큰 장점을 가지고 있다고 종종 주장되는데, 이는 데이터에서 주어진 매개 변수의 확률 을 대신 대신 계산하기 때문 입니다. 빈번한 틀. 여태까지는 그런대로 잘됐다.p ( x | θ )p ( θ | x )p(θ|x)p(\theta|x)p ( x | θ )p(x|θ)p(x|\theta) 그러나 전체 방정식은 다음을 기반으로합니다. p …

1
가능성 원칙에 대한 질문
나는 현재 가능성 원칙을 이해하려고 노력하고 있으며 솔직히 이해하지 못한다. 따라서 나는 기본적인 질문 일지라도 모든 질문을 목록으로 작성합니다. 이 원칙의 맥락에서 "모든 정보"문구는 정확히 무엇을 의미합니까? ( 샘플의 모든 정보에서와 같이 가능성 함수에 포함되어 있습니다.) 이 원리는 라는 매우 확실한 사실과 연결되어 있습니까? 원칙적으로 "우도"는 와 같은 것 입니까?p(x|y)∝p(y|x)p(x)p(x|y)∝p(y|x)p(x)p(x|y)\propto …

2
모델의 AIC와 로그 변환 된 버전 비교
내 질문의 본질은 다음과 같습니다. 하자 평균과 다변량 정규 확률 변수 일 및 공분산 행렬 . 하자 , 즉 Z_i = \ 로그 (Y_i), I \에서 \ {1 \ ldots 단락을 n \} . 어떻게 모델 적합의 AIC는의 관찰 실현에 비교합니까 Y 의 관찰 실현에 모델에 맞는 대 Z ? …

2
다루기 어려운 가능성을 가진 정말 간단한 모델의 예는 무엇입니까?
대략적인 베이지안 계산 은 기본적으로 확률 모델이 적합하지 않은 모델에 적합하도록하는 멋진 기법입니다 (예 : 모수를 수정하면 모델에서 샘플링 할 수 있지만 수치, 알고리즘 또는 분석적 으로 가능성을 계산할 수는 없음 ). 청중에 대략적인 베이지안 계산 (ABC)을 도입하면 정말 간단하지만 여전히 다소 흥미로운 몇 가지 예제 모델을 사용하는 것이 좋다 …

3
일 변량 지수 혹 프로세스의 MLE 찾기
단 변량 지수 혹 프로세스는 다음과 같은 이벤트 도달률을 갖는 자체 자극 포인트 프로세스입니다. λ(t)=μ+∑ti&lt;tαe−β(t−ti)λ(t)=μ+∑ti&lt;tαe−β(t−ti) \lambda(t) = \mu + \sum\limits_{t_i<t}{\alpha e^{-\beta(t-t_i)}} 여기서, 은 이벤트 도착 시간입니다.t1,..tnt1,..tn t_1,..t_n 로그 우도 함수는 −tnμ+αβ∑(e−β(tn−ti)−1)+∑i&lt;jln(μ+αe−β(tj−ti))−tnμ+αβ∑(e−β(tn−ti)−1)+∑i&lt;jln⁡(μ+αe−β(tj−ti)) - t_n \mu + \frac{\alpha}{\beta} \sum{( e^{-\beta(t_n-t_i)}-1 )} + \sum\limits_{i<j}{\ln(\mu+\alpha e^{-\beta(t_j-t_i)})} 재귀 적으로 계산할 수 있습니다. −tnμ+αβ∑(e−β(tn−ti)−1)+∑ln(μ+αR(i))−tnμ+αβ∑(e−β(tn−ti)−1)+∑ln⁡(μ+αR(i)) - t_n …

2
우리 빈번 주의자들은 정말로 암묵적이거나 알지 못하는 베이지안인가?
주어진 추론 문제에 대해, 베이지안 접근 방식은 대개 형태와 결과가 Fequentist 접근 방식과 다르다는 것을 알고 있습니다. 상용 주의자들 (보통 저를 포함)은 종종 그들의 방법이 이전을 필요로하지 않기 때문에 "심사 주도"보다 "데이터 주도"라고 지적합니다. 물론, 베이지안은 비 정보적인 선행을 지적 할 수도 있고, 실용적이라면 실제로는 매우 확산 된 선행을 사용할 …

2
전압계 이야기에서 잦은 주의자는 무엇입니까?
전압계 이야기와 그 변형에 대한 잦은주의는 무엇입니까? 그 가설은 나중에 가상의 사건이 가정 된대로 이루어질 수 없다는 것을 알게되면 가상 사건에 호소하는 통계 분석을 수정해야한다는 것이다. 위키 백과에 이야기의 버전은 아래와 같습니다. 엔지니어는 전자 튜브의 임의 샘플을 추출하여 전압을 측정합니다. 측정 범위는 75 ~ 99V입니다. 통계학자는 표본 평균과 실제 평균에 …

1
베이지안이 될 가능성 원칙을 준수해야합니까?
이 질문은 다음과 같은 질문에서 비롯된 것입니다 : 언제 (때로는) 빈번한 접근이 베이 시안보다 실질적으로 더 낫습니까? 내가 그 질문에 대한 해결책에 게시 할 때, 내 의견으로는, 당신이 빈번한 사람이라면 종종 빈번한 방법이 그것을 위반하기 때문에 가능성 원칙 을 믿거 나 준수 할 필요가 없습니다 . 그러나 이것은 일반적으로 적절한 …

1
선형 가우스 칼만 필터에 대한 LogLikelihood 모수 추정
n 차원 상태 벡터에 대한 선형 가우스 상태 공간 분석을 위해 칼만 필터링 (여러 칼만 유형 필터 [Information Filter et al.] 사용)을 수행 할 수있는 코드를 작성했습니다. 필터가 훌륭하게 작동하고 좋은 결과를 얻었습니다. 그러나 로그 우도 추정을 통한 매개 변수 추정은 혼란 스럽습니다. 나는 통계학자가 아니라 물리학 자이기 때문에 친절하세요. …

2
이 분산 측정 오류가있는 AR (1) 프로세스
1. 문제 변수 측정 값이 있는데 ytyty_t, 여기서 MCMC를 통해 얻은 t=1,2,..,nt=1,2,..,nt=1,2,..,n분포 를 갖는 n , nfyt(yt)fyt(yt)f_{y_t}(y_t) 을 단순화하기 위해 평균 μtμt\mu_t 및 분산 가우스라고 가정 σ2tσt2\sigma_t^2합니다. g(t)g(t)g(t) 와 같은 관측에 대한 물리적 모델이 있지만 잔차 rt=μt−g(t)rt=μt−g(t)r_t = \mu_t-g(t) 는 상관 관계가있는 것으로 보입니다. 특히, 나는 AR(1)AR(1)AR(1) 프로세스가 상관 관계를 …

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.