추정기와 추정값의 관계는 무엇입니까?
추정기와 추정값의 관계는 무엇입니까?
답변:
EL Lehmann은 그의 고전적인 포인트 추정 이론 에서 pp 1-2에서이 질문에 대답합니다.
관측치는 이제 알려진 클래스에 속하는 공동 확률 분포 를 따르는 것으로 가정되는 임의의 변수에 의해 취해진 값으로 가정됩니다 .
... 그 생각 ... 우리가 지금 시점 추정에 전문하자 [분포의 규정 클래스] 정의 된 실수 기능이며, 우리의 가치를 알고 싶으면 g을 어떤에서의 실제 분포 [ 효과, θ ]. 불행히도, θ 및 따라서 g ( θ ) 는 알려져 있지 않다. 그러나, 데이터의 추정치 얻을 수있다 g ( θ ) , 하나 개의 희망에 가까운 것이라고 값 g ( θ를 ) .
즉, 추정기 는 특정 문제가 생성 할 수있는 가능한 데이터 세트에 대한 숫자 ( 추정값 )를 나타내는 명확한 수학적 절차입니다 . 이 숫자는 데이터 생성 프로세스의 명확한 수치 적 특성 ( ) 을 나타 내기위한 것입니다 . 우리는 이것을 "estimand"라고 부를 수 있습니다.
추 정부 자체는 하지 확률 변수 : 그냥 수학 함수이다. 그러나 생성되는 추정치는 자체가 임의 변수로 모델링 된 데이터를 기반으로합니다. 이것은하게 추정 확률 변수로하고 (데이터에 따른 것으로 생각) 특정 예측 을위한 특정 데이터 집합 그 확률 변수를 실현하게된다.
하나의 (종래의) 정규 최소 제곱 공식에서, 데이터는 순서 쌍 됩니다. 는 X 난 (이들은 예를 들면, 투여 약물의 양이 될 수있다)을 실험에 의해 결정되었다. 각 Y I (예를 들어 약물에 대한 반응은) 일반 인 확률 분포로부터 알 수 있지만, 평균 올 가정 μ I 및 공통 분산 σ 2 . 또한, 평균은 공식 μ i = β 0을 통해 x i 와 관련이 있다고 가정합니다 . 이 세 가지 매개 변수 σ , β 0 및 β 1 은 x i의 값에 대한 y i 의 기본 분포를 결정합니다. 따라서해당 분포의모든특성은 ( σ , β 0 , β 1 ) 의 함수로 생각할 수 있습니다. 이러한 특성의 예는 절편 β 0 , 기울기 β 1 , cos 값 ( σ + β또는x=2값의 평균(이 공식에 따라)은β0+2β1이어야합니다.
이 OLS 문맥에서, 비 예제 추정기의이 값에 맞춰 절차 것이다 경우, X는 2로 동일하게 설정 하였다 이것은 하지 의 값 때문에 추정기 Y가 인 랜덤 (방법으로 완전히 분리 데이터의 임의성) : 분포와 관련되어 있지만 분포의 (정확한 수치) 속성이 아닙니다. (방금 보았 듯이 β 0 + 2 β 1 과 동일한 x = 2에 대한 y 의 기대치 를 추정 할 수 있습니다.)
Lehmann의 공식에서 거의 모든 공식은 거의 모든 특성을 평가할 수 있습니다. 추정기와 추정치 사이에는 고유 한 수학적 연결이 없습니다. 그러나 추정량이 추정치에 합리적으로 근접 할 가능성을 미리 평가할 수 있습니다. 이를 수행하는 방법과이를 활용하는 방법은 추정 이론의 주제입니다.
간단히 말해 추정기는 함수이고 추정치는 관측 된 샘플을 요약 한 값입니다.
추정기는 매개 변수 추정에 임의의 샘플을 매핑하는 기능입니다 :
참고 추정기 그N확률 변수X1,X2,. . . ,X, n은임의의 변수이다 Θ . 예를 들어 추정기는 표본 평균입니다. ¯ X =1
It might be helpful to illustrate whuber's answer in the context of a linear regression model. Let's say you have some bivariate data and you use Ordinary Least Squares to come up with the following model:
Y = 6X + 1
At this point, you can take any value of X, plug it into the model and predict the outcome, Y. In this sense, you might think of the individual components of the generic form of the model (mX + B) as estimators. The sample data (which you presumably plugged into the generic model to calculate the specific values for m and B above) provided a basis on which you could come up with estimates for m and B respectively.
Consistent with @whuber's points in our thread below, whatever values of Y a particular set of estimators generate you for are, in the context of linear regression, thought of as predicted values.
(edited -- a few times -- to reflect the comments below)
Suppose you received some data, and you had some observed variable called theta. Now your data can be from a distribution of data, for this distribution, there is a corresponding value of theta that you infer which is a random variable. You can use the MAP or mean for calculating the estimate of this random variable whenever the distribution of your data changes. So the random variable theta is known as an estimate, a single value of the unobserved variable for a particular type of data.
While estimator is your data, which is also a random variable. For different types of distributions you have different types of data and thus you have a different estimate and thus this corresponding random variable is called the estimator.