1. ELECTRÓNICA Y TELECOMUNICACIONES
ESTADÍSTICA Y PROBABILIDAD
CAPÍTULO 7
Estimación
PROFESIONAL EN FORMACIÓN:
Wilson Arturo Torres Ayala
DOCENTE:
Ing. Luis Patricio Puchaicela Huaca
PARALELO:
C
LOJA-ECUADOR
2007-2008
2. RESUMEN
En este capítulo se estudiará las estimaciones, que son un método para poder aproximar
o estimar el valor numérico de los parámetros pertinentes. Se analizarán tres tipos de
estimadores puntuales: estimadores insesgados, estimadores obtenidos con el método de
momentos y estimadores obtenidos con el método de máxima verosimilitud.
MARCO TEÓRICO
ESTIMACIÓN PUNTUAL
Una de las estadísticas usadas para aproximar o estimar un parámetro poblacional θ se
llama estimador puntual de θ y se denota como θ . El valor numérico de esta
ˆ
estadística cuando se evalúa para una muestra dada se denomina estimación puntual de
θ . Hay diferencia entre los términos estimador y estimación. El estimador es la
estadística usada para generar la estimación, es decir, una variable aleatoria, mientras
que la estimación es un número.
Propiedades recomendables en un estimador puntual
-Que θ sea insesgado para θ .
ˆ
-Que θ tenga varianza pequeña para muestras grandes.
ˆ
Definición de insesgado. Un estimador θ es un estimador insesgado de un parámetro
ˆ
θ si y solo si E[ θ ] = θ .
ˆ
Insesgado significa centrado en el punto adecuado, donde el punto adecuado es el
parámetro que se estima.
Teorema 1. Sea X 1 , X 2 , X 3 ,…, X n una muestra aleatoria de tamaño n de una
distribución con media µ . La media de la muestra, X , es un estimador insesgado de µ
Es usual que los estudios estadísticos no se repitan un ay otra vez para promediar las
estimaciones obtenidas. A fin de tener cierta garantía de que la estimación tenga valor
cercano a θ , el parámetro que es estima, no solo debe estar exento de sesgo, sino que
también ha tener varianza pequeña con muestras grandes.
Teorema 2. Sea X la X la media muestral basada en una muestra aleatoria de tamaño n
de una distribución con media µ y varianza σ2 . Entonces:
Var X = σ
2
n
En la definición anterior note que σ2 es una constante, entonces la varianza de X
disminuye conforme aumenta el tamaño muestral n, y puede ser tan pequeño como se
desee, si se selecciona un valor de n suficientemente grande.
Definición de error estándar de la media. Sea X la media muestral basada en una
muestra de tamaño n y seleccionada de una distribución con desviación estándar σ . La
desviación estándar de X está dada por σ / n y se llama error estándar de la media.
3. Teorema 3. Sea S 2 la varianza muestral basada en una muestra aleatoria de tamaño n
de una distribución con media µ y varianza σ2 . S 2 es un estimador insesgado de σ2 .
EL MÉTODO DE MOMENTOS Y EL MÉTODO DE MÁXIMA
VEROSIMILITUD
Método de momentos
Los términos de la forma E [ X k ] (k=1, 2,3,...) se llaman k-ésimos mometos de X. Puesto
que la esperanza es un promedio teórico, la lógica implica que los momentos de X
pueden estimarse mediante un promedio aritmético. En otras palabras, un estimador
k
M k de E[ X ] basado en una muestra aleatoria de tamaño n es:
n k
Mk = ∑ Xi
i =1 n
El método de momentos aprovecha el hacho de que en muchos casos los momentos de
X pueden expresarse como función de θ , el parámetro que es pretende estimar. Es
frecuente que pueda obtenerse un estimador razonable de θ al sustituir los momentos
teóricos con sus estimadores y despejar θ en la ecuación resultante.
ˆ
Estimadores de máxima verosimilitud
Este método es más complejo que el de momentos. Supongamos que se tiene una
muestra aleatoria x1 , x 2 , x3 ,… x n . El método de máxima verosimilitud selecciona en
cierto sentido, de todos los posibles valores de θ , el que tenga mayor probabilidad de
haber producido esas observaciones
Pasos del método de máxima verosimilitud para estimar θ
-Obtener una muestra aleatoria x1 , x 2 , x3 ,… x n de la distribución de una variable
aleatoria X con densidad f y parámetro θ.
-Definir una función L(θ) con:
n
L(θ) = ∏ f ( xi )
i =1
Esta fórmula se llama función de verosimilitud de la muestra.
-Encontrar la expresión de θ que maximice la función de verosimilitud. Ello puede
hacerse directamente o al maximizar ln L(θ).
-Sustituir θ por θ para obtener una expresión del estimador de máxima verosimilitud de
ˆ
θ.
-Encontrar el valor observado de dicho estimador para una muestra dada.
El procedimiento de máxima verosimilitud es aplicable cunado la densidad de X se
caracteriza por dos parámetros a calcularse la media ( µ ) y la varianza ( σ2 ).
FUNCIONES DE VARIABLES ALEATORIAS: DISTRIBUCIÓN DE X
Existe una desventaja de la estimación puntual, que en muchos de los casos los
estimadores usados son lógicos. Para obtener una estimación exacta hay que utilizar el
método de estimación por intervalos o de intervalos de confianza, que trata acerca de un
intervalo aleatorio, cuyos puntos extremos L1 y L 2 son estadísticas. Esta estimación se
4. usa para determinar un intervalo numérico basado en una muestra. Al expandirse de un
punto a un intervalo, se deja poco espacio para los errores y, con ello, se puede informar
sobre la confianza, basada en la teoría de probabilidad, que se tiene en la estimación.
Esta técnica depende del resultado que se presenta en el siguiente teorema:
Sean X y Y variables aleatorias con funciones generadoras de momentos m X (t ) y
mY (t ) , respectivamente. Si m X (t ) = mY (t ) para todos los valores de t en un intervalo
abierto alrededor del 0, entonces X y Y tienen la misma distribución.
Muchas estadísticas usadas en el análisis de datos implican sumar un conjunto de
variables aleatorias. El siguiente teorema ayuda a determinar la distribución de tales
estadísticas.
Sea X 1 y X 2 variables aleatorias independientes con funciones generadoras de
momentos m x (t ) y m x (t ) , respectivamente. Sea Y = X 1 + X 2 . La función generadora
1 2
de momentos de Y está dada por:
mY (t ) = m x1 (t ) m x2 (t )
El teorema anterior puede adaptarse para realizar la suma de tres o más variables
aleatorias. En otras palabras, puede afirmarse que la función generadora de momentos
de la suma de un número finito de variables aleatorias independientes es el producto de
las funciones generadoras de momentos de las variables individuales
Distribución de X
Sin duda alguna una de las estadísticas más útiles es la media muestral ( X ), Pero ¿Qué
tipo de distribución tiene X ? El teorema siguiente ayuda a quitarnos esta inquietud.
Sea X una variable aleatoria con función generadora de momentos m X (t ) . Sea
Y = α + β X la función generadora de momentos de Y es:
mY (t ) = e m x (β t )
αt
El teorema que a continuación se presenta, garantiza que al realizar el muestreo de una
distribución normal, la variable aleatoria X también tenga distribución normal.
Sea X 1 , X 2 ,…, X n una muestra aleatoria de tamaño n, de una distribución normal con
media µ y varianza σ2 . Entonces, X tiene distribución normal, con media µ y
varianza σ2 /n.
ESTIAMCIÓN POR INTERVALOS Y EL TEOREMA DEL LÍMITE CENTRAL
Intervalo de confianza. El intervalo de confianza 100(1- α ) % de un parámetro θ por
un intervalo aleatorio [ L1 , L 2 ] tal que:
P [ L1 ≤ θ ≤ L2] = 1 − α sin importar cuál sea el valor de θ.
Intervalo de confianza para la media: varianza conocida
5. Intervalo de confianza de 100(1-α) % para µ cuando se conoce σ2 . Sea X 1 , X 2 ,
X 3 ,…, X n una muestra aleatoria de tamaño n de una distribución normal, con media µ
y varianza σ2 . El intervalo de confianza 100 (1-α) % para µ está dado por:
X ± zα / 2 σ / n
Este intervalo de confianza solo puede utilizarse cunado se conoce la desviación
estándar poblacional, σ
Varios son los aspectos que se debe notar en la fórmula anterior. Primero, que todo
intervalo de confianza de µ está centrado en x la estimación puntual insesgada de µ.
Segundo que la amplitud del intervalo de confianza depende de tres factores, a saber, la
confianza que interese, magnitud de la variabilidad de X y tamaño muestral n. La
confianza requerida determina el valor del punto usado. Cuanta mayor confianza se
precise, tanto más alto dicho valor. Se puede afirmar que tal amplitud, referente a µ, es
directamente proporcional a σ y a la confianza necesaria, así como inversamente
proporcional al tamaño muestral.
Teorema del límite central
Sea X 1 , X 2 ,…, X n una muestra aleatoria de tamaño n, de una distribución con media
µ y varianza σ2 . Entonces, para n grande, X es aproximadamente normal, con media µ
y varianza σ2 / n . Además, para n grande la variable aleatoria ( X − µ ) /( σ / n ) es
aproximadamente normal estándar.
El teorema del límite central es importante por dos razones. La primera, que permite
elaborar inferencias sobre la media de una distribución basada en muestras
relativamente grandes, sin tener que preocuparse mucho por el muestreo que se obtenga
de una distribución normal o no. La segunda, que posibilita justificar analíticamente las
aproximaciones normales de la distribución binomial.
CONCLUSIONES
-Los estimadores insesgados son aquellos cuyo valor medio es igual al parámetro que
estiman.
-Los estimadores del método de momentos se obtienen al darse cuenta de que los
parámetros que caracterizan a una distribución suelen ser funciones de los k-ésimos
momentos de la distribución.
-Los estimadores de máxima verosimilitud se determinan seleccionando el valor del
parámetro θ con el que se maximiza la función de verosimilitud. Es decir que se
selecciona de todos los valores posibles de θ el que tiene mayor probabilidad de haber
generado los datos observados.
-El teorema de límite central permite elaborar inferencias sobre la media de cualquier
distribución si se tienen muestras relativamente grandes.