Problema:
Un ocular micrométrico está adaptado a un microscopio para medir partes de una célula. Los errores de medida siguen una distribución N(0, σ). Demuestre que en una muestra de tamaño 2, el estadístico... $U=\frac{1}{3}X_{1}^{2}+\frac{2}{3}X_{2}^{2}$ ...es insesgado del parámetro σ2.
Sabemos que un estimador es un estadístico de una muestra aleatoria.
Sabemos que es insesgado cuando su sesgo es nulo.
Ver: ¿Qué es un estimador y qué significa el sesgo?
Si nos dice que demuestre, es porque es verdad que es insesgado.
Y nosotros tenemos que comprobarlo.
Procederemos a calcular la esperanza del estimador, para comprobar si es verdad que esta es igual al parámetro σ2.
$$E(U)=E(\frac{1}{3}X_{1}^{2})+E(\frac{2}{3}X_{2}^{2})$$
La esperanza tiene propiedad de linealidad, por lo que podemos sacar las constantes.
$$E(U)=\frac{1}{3}E(X_{1}^{2})+\frac{2}{3}E(X_{2}^{2})$$
Ahora, ¿qué podemos hacer?
Las constantes son constantes y no podemos tocarlas más.
Pero podemos darnos cuenta de una cosa.
Sabemos que: La varianza de una variable aleatoria es igual a la esperanza de la variable al cuadrado menos el cuadrado de la esperanza de dicha variable.
Para el caso de la variable aleatoria X1:
$$Var(X_{1})=E(X_{1}^{2})-(E(X_{1})^{2}$$
Y sabemos también, por el enunciado:
Muestras con distribución N(0, σ) [Normal de media cero y desviación típica σ].
Por lo que cada variable tendrá:
- Var(X1) es igual al cuadrado de la desviación típica, es decir, σ2.
- E(X1) es igual a la media, es decir, 0.
Por lo que mirando en nuestra expresión anterior, tenemos que:
$$\sigma ^{2}=E(X_{1}^{2})-0$$
De modo que:
$$E(X_{1}^{2})=\sigma ^{2}$$
Esto podemos sustituirlo en el cálculo de la esperanza del estimador:
$$E(U)=\frac{1}{3}\sigma ^{2}+\frac{2}{3}\sigma ^{2}$$
Como un tercio y dos tercios suman una unidad, tenemos que:
$$E(U)=\sigma ^{2}$$
Que demuestra que la esperanza del estimador es equivalente al parámetro a estimar, por lo que el sesgo es nulo.
Y así hemos demostrado el asunto.
Espera, ¿por qué sabes que es nulo el sesgo?
Porque se define el sesgo como la diferencia entre la esperanza del estimador y el parámetro a estimar.
Son iguales, pues no hay diferencia entre ellos.
Más problemas
Aprende los conceptos haciendo el curso de probabilidad.