1. REPÚBLICA BOLIVARIANA DE VENEZUELA
LA UNIVERSIDAD DEL ZULIA
FACULTAD DE INGENIERÍA
POSTGRADO DE INGENIERÍA
TOPICOS DE PROBABILIDADES Y ESTADÍSTICA
Inferencia Estadística
Estimación de Parámetros-Pruebas de Hipótesis
REALIZADO POR:
Ing. Shalimar Monasterio
C.I.: 17.183.843
2. Es fácil encontrar defectos pero
encontrar cualidades es para los
espíritus superiores que son
capaces de inspirar a todos para el
éxito
3. Inferencia Estadística INTRODUCCIÓN
Estadístico
Parámetro
•Calcular los parámetros de la distribución de medias o proporciones
muestrales de tamaño n, extraídas de una población de media y varianza
conocidas.
OBJETIVOS
•Estimar la media o la proporción de una población a partir de la media o
proporción muestral.
•Utilizar distintos tamaños muestrales para controlar la confianza y el error
admitido.
•Contrastar los resultados obtenidos a partir de muestras.
•Visualizar gráficamente, mediante las respectivas curvas normales, las
estimaciones realizadas.
4. Inferencia Estadística ESTIMACIÓN DE PARÁMETROS
1.1.- Definición 1:
Estimador Insesgado: Sea un estimador puntual de un parámetro . Entonces es un
estimador insesgado de si de lo contrario se dice que es sesgado. En
palabras, un estimador insesgado es aquel cuya media o valor esperado de la distribución de
las de las estimaciones es igual al parámetro estimado.
1.2.- Definición 2 "Sesgo":
El sesgo B (Bias) de un estimador puntual está dado por
1.3.- Definición 3:
El Cuadrado Medio del Error ó Error cuadrático medio de un estimador puntual se define
como el valor esperado de . Lo denotaremos por
Demostración
5. Inferencia Estadística ESTIMACIÓN DE PARÁMETROS
Ejemplo: Tabla 1: Estimadores Insesgados
a) Demuestre que es un estimador sesgado de y calcule su sesgo.
Solución:
a)
6. Inferencia Estadística Comparación de Estimadores Puntuales
1.5.1.- Definición 1
El Estimador Insesgado con mínima varianza de un parámetro es el estimador que
tiene la varianza más pequeña de entre todos los estimadores insesgados.
1.5.2.- Definición 2
Estimador Eficiente: Si se consideran todos los estimadores insesgados posibles de algún
parámetro aquel con la varianza más pequeña recibe el nombre de estimador m'as
eficiente de Básicamente, al comparar la eficiencia relativa entre dos estimadores y
se presenta la siguiente razón:
7. Inferencia Estadística Comparación de Estimadores Puntuales
Ejemplo
Suponga que y son estimadores insesgados del parámetro Se sabe que
y
¿ Cuál estimador es "Mejor"y en qué sentido lo es?.
Ejemplo:
Solución.
Datos: ( Insesgados ). Cuando se realiza el cociente de la eficiencia
relativa, se tiene:
E.R.
Por tanto, el estimador es "mejor" en el sentido de ser más eficiente que el estimador
8. Inferencia Estadística Criterios para estimados
1.6.1.- Definición 1:
Sea X una variable aleatoria con una distribución de probabilidades que depende de un
parámetro desconocido . Sea X1, …, Xn una muestra de X y sean x1, …, xn los valores
muestrales correspondientes. Si g(X1,…,Xn) es una función de la muestra que se usará para
estimar nos referimos a g como un estimador de . El valor que toma g, es decir g(X1,…,Xn),
se conoce como un estimado de y habitualmente se escribe como
1.6.2.- Definición 2:
Sea un estimado del parámetro desconocido asociado con la distribución de la variable
aleatoria X. Entonces, es un estimador insesgado para si para toda
9. Inferencia Estadística Criterios para estimados
1.6.3.- Definición 3:
Sea un estimado insesgado de . Decimos que es un estimado insesgado de varianza
mínima de si para todos los estimados tales que , tenemos para
cualquier Es decir, entre todos los estimados insesgados de , tiene la varianza más
pequeña.
1.6.4.- Definición 4:
Sea un estimado (con base en una muestra X1,…, Xn) del parámetro . Se dice que es
un estimado consistente de , si
para toda
O equivalente, si
para toda
10. Inferencia Estadística Criterios para estimados
1.6.5.- Teorema 1:
Sea un estimado de con base en una muestra de tamaño n. Sí , y si
Demostración
, entonces es un estimado consistente de
1.6.6.- Definición 5:
Se dice que es el mejor estimado lineal insesgado de si:
a)
b) Es decir, es una función lineal de la muestra.
c) donde es cualquier otro estimado de que
satisface las relaciones a) y b) anteriores.
1.6.7.- Teorema 2:
Sea X una variable aleatoria con esperanza finita y varianza . Sea el promedio
muestral obtenido en una muestra de tamaño n. Por lo tanto, es un estimado insesgado y
consistente de
11. Inferencia Estadística Propiedades de los estimadores
Insesgado o no
viciado
Consistente
Estimadores de Máxima Verosimilitud
1.8.1.- Definición 1:
El estimado de máxima verosimilitud de , digamos , con base en una muestra aleatoria
X1,…, Xn, es el valor de que maximiza a considerando como una función de
para una muestra dada X1,…,Xn, donde L está definida por la siguiente ecuación:
12. Inferencia Estadística Propiedades de los estimadores de Máxima
Verosimilitud
a) El estimado ML puede ser sesgado. Muy a menudo tal sesgo puede
evitarse multiplicando por una constante apropiada.
b) En condiciones muy generales, los estimados ML son consistentes. Es
decir si los tamaños de muestra en los cuales se basan es grande, el
estimado ML estará cercano al valor del parámetro que se estima.
c) Los estimados ML poseen la notable propiedad de invarianza.
Supóngase que es el estimado ML de . Entonces puede
demostrarse que el estimado ML de es . Es decir, si el
estadístico A toma sus medidas en y el estadístico B mide en
pies y el estimado ML de A es , entonces el de B sería . Esta
propiedad no la tienen los estimados insesgados.
13. Inferencia Estadística Propiedad asintótica de los estimadores de Máxima Verosimilitud
Si es un estimado ML para el parámetro , definido sobre una muestra aleatoria X1,…, Xn de
una variable aleatoria X, entonces para n suficientemente grande, la variable aleatori a tiene
aproximadamente la distribución
Método de Mínimos Cuadrados
1.11.1.- Definición 1:
Supóngase que se tiene , donde , son constantes (desconocidas) y X
(conocida). Sea (x1,Y1),…, (xn,Yn) una muestra aleatoria de Y. Los estimados de mínimos
cuadrados de los parámetros y son los valores y que minimizan
14. Inferencia Estadística Coeficiente de Correlación
El coeficiente de correlación muestral está definido como sigue:
Se nota que para propósitos de cálculo es más fácil evaluar r como se presenta a
continuación:
15. Inferencia Estadística Estimación por Intervalo de Confianza
Considerar
Lo anterior se interpreta de la siguiente manera: es igual a la probabilidad que el
intervalo aleatorio contenga a , donde el valor de z se halla en tablas
denotado como .
16. Inferencia Estadística Estimación por Intervalo de Confianza
La longitud L del intervalo de confianza antes considerado puede escribirse como
Así, L es una constante. Además, resolviendo la ecuación anterior para n da:
Por lo tanto, podemos determinar n (para de modod que el intervalo de
confianza tenga una longitud prefijada.
17. Inferencia Estadística Distribución t de Student
Esta dada por:
para -
Y se denomina distribución t con v grados de libertad.
Corolario
Sean X1, X2, ….., Xn variables aleatorias independientes que son todas normales con media y
desviación estándar . Sea
n
xi
x1 x2 x3 .... xn 1 xn i 1
X
n n , y
Entonces la variable alaetoria tiene una distribución t con v = n-1 grados de libertad.
18. Inferencia Estadística Prueba de Hipótesis: Metodología
•Enunciar la hipótesis .
Metodología
•Elegir un nivel de significación α y construir la zona de aceptación. A
la zona de rechazo la llamaremos región crítica, y su área es el nivel de
significación.
•Verificar la hipótesis extrayendo una muestra cuyo tamaño se ha
decidido en el paso anterior y obteniendo de ella el correspondiente
estadístico (media o proporción).
•Decidir. Si el valor calculado en la muestra cae dentro de la zona de
aceptación se acepta la hipótesis y si no se rechaza.
19. Inferencia Estadística Prueba de Hipótesis: Posibles errores
Ho verdadera Ho falsa
Decisión incorrecta
DECISIÓN:Mantener Ho Decisión correcta
Error de tipo II
Decisión incorrecta
DECISIÓN:Rechazar Ho Decisión correcta
Error de tipo I
a = p(rechazar H0|H0 cierta)
b = p(aceptar H0|H0 falsa)
Potencia =1-b = p(rechazar H0|H0 falsa)
Detalles a tener en cuenta:
1.- a y b están inversamente relacionadas.
2 .- Sólo pueden disminuirse las dos, aumentando n.
20. Inferencia Estadística Prueba de Hipótesis: Posibles errores
4.1.1.- Definición 1:
La función de operación característica (función OC) de la Dócima anterior está definida
como
Es decir, es la probabilidad de aceptar Ho considerada como una función de .
La función de potencia definida por
Luego . Usaremos la función OC para describir propiedades de la dócima
aunque esto se podría hacer fácilmente mediante la función de potencia.
21. Inferencia Estadística Prueba de Hipótesis: Distribución Normal
con Varianza Conocida
Las siguientes propiedades de se establecen fácilmente:
a)
b)
c) para todo (luego L una función estrictamente decreciente de
d) para y, por tanto, la gráfica tiene un punto de inflexión.
e) El aumento de n hace que la curva tenga más pendiente.
22. Inferencia Estadística Prueba de Hipótesis: Distribución Normal
con Varianza Conocida
Caso 1: Si se da n y especificamos el nivel de significancia de la prueba (es decir, la probabilidad
de un error del tipo I) con algún valor , podemos obtener el valor de C al resolver la siguiente
ecuación
Definiendo K en la relación , podemos escribir lo anterior como
Donde puede obtenerse de la tabla de distribución normal. Entonces, rechazamos Ho si
23. Inferencia Estadística Prueba de Hipótesis: Distribución Normal
con Varianza Conocida
Caso 2: Si se va a determinar n y C, debemos especificar dos puntos sobre la gráfica de la curva
OC: 1- , el nivel de significación y , la probabilidad de un error tipo II para
. Luego se debe resolver las ecuaciones siguientes para n y C:
Es tas ecua ciones pueden resol verse pa ra C y n como se indi có anteriormente. Se obtiene
Donde y ya se han definido.
24. Inferencia Estadística Prueba de Hipótesis: Prueba de Bondad
de Ajuste
Se desea probar la hipótesis Ho: pi=pio, i=1,2,…k donde pio es un valor específico. La prueba
sería:
Rechazar Ho siempre que
Donde C es una cons tante que se va a determina r.
4.3.1.- Teorema 3:
Si n es sufi cientemente grande, y si pi =pi o, la distri bución de tiene en forma aproximada la
distribución x-cuadrada con (k-1) grados de libertad.
Demostración
25. Inferencia Estadística Prueba de Hipótesis: Respecto a la Media
de una Población
Caso 1.
Tamaño de muestra grande. Supongamos la situación, donde una compañía de servicios
públicos desea estimar el consumo promedio de energía eléctrica para una población
determinada de clientes. Supongamos que la compañía tiene la sospecha de que el consumo
de energía eléctrica se encuentra relativamente aproximado a 2000 kilowatios-hora; y quiere
comprobar la veracidad de esta suposición.
Para este caso específico, estamos ante el problema de probar las hipótesis:
26. Inferencia Estadística Prueba de Hipótesis: Respecto a la Media
de una Población
Caso 2.
Los datos provienen de una distribución normal con varianza poblacional conocida. Si
consideramos de nuevo los datos del ejemplo 5, se quiere estimar la conductividad térmica
promedio a 100 grados Farenheit y una potencia de entrada de 550 W y desviación estándar
poblacional conocida 0.30 Btu/hr-ft-grados Farenheit. Vamos a considerar el caso de que los
investigadores quisieran comprobar que esta conductividad térmica promedio es mayor de 40
Btu/hr-ft-grados Farenheit, a partir de los datos de la muestra de tamaño 10 obtenida.
Por lo tanto, las hipótesis nula y alterna podrían plantearse como sigue:
27. Inferencia Estadística Prueba de Hipótesis: Respecto a la Media
de una Población
Caso 3.
Los datos provienen de una distribución normal pero con varianza poblacional desconocida.
Considerando los datos del ejemplo 6, supongamos que la longitud promedio de una piraña es
28 cm., puede considerarse que el río que se encuentra bajo estudio está contaminado?
Las hipótesis a considerar en este caso corresponden a:
(El río no está contaminado)
(El río si lo está)
28. Prueba de Hipótesis: Estimación de la Varianza
Inferencia Estadística de una Población
Sea una muestra aleatoria de una distribución normal con parámetros y
Entonces la variable aleatoria:
Para construir un intervalo de confianza para , nótese que:
La anterior expresión se puede expresar como:
Con el anterior intervalo se puede también probar la hipótesis nula versus
la alternativa , donde se rechaza la hipótesis nula si el valor cae fuera de
este intervalo de confianza. Además, para probar esta hipótesis se puede hacer uso también
del estadístico:
el cual rechaza si o si .
29. Inferencia Estadística Prueba de Hipótesis: Estimación de la diferencia
entre las medias de dos poblaciones
Caso 1: Muestras independientes y Varianzas Conocidas
Con el anterior intervalo se puede también probar la hipótesis nula
versus la alternativa , donde se rechaza la hipótesis nula si el valor
cae fuera de este intervalo de confianza. Además, para probar esta hipótesis se puede hacer
uso del estadístico:
el cual rechaza si
30. Inferencia Estadística Prueba de Hipótesis: Estimación de la diferencia
entre las medias de dos poblaciones
Caso 2: Muestras independientes y Varianzas Desconocidas pero iguales
Con el anterior intervalo se puede también probar la hipótesis nula
versus la alternativa , donde se rechaza la hipótesis nula si el valor
cae fuera de este intervalo de confianza. Además, para probar esta hipótesis se puede hacer
uso del estadístico:
el cual rechaza si
=
31. Inferencia Estadística Prueba de Hipótesis: Estimación de la diferencia
entre las medias de dos poblaciones
Caso 3: Muestras pareadas
Con el anterior intervalo se puede también probar la hipótesis nula
versus la alternativa , donde se
rechaza la hipótesis nula si el valor cae fuera de este intervalo de confianza. Además, para
probar esta hipótesis se puede hacer uso del estadístico:
el cual rechaza si
32. Inferencia Estadística Prueba de Hipótesis: Estimación de la diferencia
entre las medias de dos poblaciones
Caso 5: Inferencia sobre el cociente de varianzas
Supóngase que se tiene interés en dos poblacionales normales independientes, donde las
medias y varianzas de la población, y , son desconocidas. Se desea probar la
hipótesis sobre la igualdad de las dos varianzas, , por ejemplo. Supóngase
que para ello se tienen disponibles dos muestras aleatorias; una de tamaño tomada de la
población 1, y otra de tamaño provenientes de la población 2, y sean y las varianzas
muestrales. Para probar la hipótesis bilateral
Recuerde que:
Además, la cola inferior de una F se calcula mediante
33. CONCLUSIÓN
La Inferencia Estadística es la técnica mediante la cual se puede
llegar a conclusiones o generalizaciones acerca de parámetros de
una población basándose en el estadístico de una muestra de
población, cubriendo de esta manera su objetivo principal de
extraer las conclusiones útiles sobre la totalidad de todas las
observaciones posibles basándose en la información recolectada.
Como se mencionó en el trabajo se puede hablar dentro de la
inferencia de los procesos de estimación y contraste Hipótesis
que permitan no rechazar o rechazar una hipótesis previamente
emitida, sobre el valor de un parámetro desconocido de la
población, permitiendo en la investigación que se desarrollen y
apliquen la validez estadística y aumentando la factibilidad de
ejecución de la misma por reducir tiempos y costos.