Estimadores imparciales y sesgados

Uno de los objetivos de las estadísticas inferenciales es estimar parámetros poblacionales desconocidos. Esta estimación se realiza construyendo intervalos de confianza a partir de muestras estadísticas. Una pregunta es: "¿Qué tan bueno de un estimador tenemos?" En otras palabras, "¿Cuán preciso es nuestro proceso estadístico, a largo plazo, de estimar nuestro parámetro de población? Una forma de determinar el valor de un estimador es considerar si es imparcial. Este análisis requiere que encontremos el valor esperado de nuestra estadística.

Parámetros y Estadísticas

Comenzamos considerando parámetros y estadísticas. Consideramos variables aleatorias de un tipo conocido de distribución, pero con un parámetro desconocido en esta distribución. Este parámetro hecho parte de una población, o podría ser parte de una función de densidad de probabilidad. También tenemos una función de nuestras variables aleatorias, y esto se llama estadística. La estadística (X1, X2,… , Xnorte) estima el parámetro T, y por eso lo llamamos estimador de T.

Estimadores imparciales y sesgados

Ahora definimos estimadores imparciales y sesgados. Queremos que nuestro estimador coincida con nuestro parámetro a largo plazo. En un lenguaje más preciso, queremos que el valor esperado de nuestra estadística sea igual al parámetro. Si este es el caso, entonces decimos que nuestra estadística es un estimador imparcial del parámetro.

Si un estimador no es un estimador imparcial, entonces es un estimador sesgado. Aunque un estimador sesgado no tiene una buena alineación de su valor esperado con su parámetro, hay muchos casos prácticos en los que un estimador sesgado puede ser útil. Uno de esos casos es cuando se usa un intervalo de confianza más cuatro para construir un intervalo de confianza para una proporción de la población.

Ejemplo de medias

Para ver cómo funciona esta idea, examinaremos un ejemplo relacionado con la media. La estadística

(X1 + X2 +... + Xnorte)/norte

se conoce como la media muestral. Suponemos que las variables aleatorias son una muestra aleatoria de la misma distribución con media μ. Esto significa que el valor esperado de cada variable aleatoria es μ.

Cuando calculamos el valor esperado de nuestra estadística, vemos lo siguiente:

EX1 + X2 +... + Xnorte) / n] = (E [X1] + E [X2] +… + E [Xnorte]) / n = (nE [X1]) / n = E [X1] = μ.

Dado que el valor esperado de la estadística coincide con el parámetro que estimó, esto significa que la media de la muestra es un estimador imparcial de la media de la población.