Este documento trata sobre la distribución muestral y de estimación en estadística. Explica que la distribución muestral permite calcular la probabilidad de que una muestra se acerque al parámetro de la población y estimar el error para un tamaño de muestra dado. También describe métodos de estimación puntual y por intervalos para estimar parámetros poblacionales como la media, proporción y desviación típica.
1. República Bolivariana de Venezuela
Instituto Universitario Politécnico Santiago Mariño
Escuela de Ingeniería Industrial
Sede Barcelona
Distribución muestral y de estimación
Estadística II (S1)
Profesor: Pedro Beltrán
Estudiante:
Leonardo Otamendy
CI: 25.389.766
2. Introducción
No es raro leer en un periódico frases como: “Una encuesta reciente de 1500 americanos elegidos aleatoriamente
pone de manifiesto que el 60 por ciento de la población total de USA esta obesa, con un margen de error de 2 por
ciento”. Quizás el lector se habrá preguntado acerca del significado de estos términos. Por ejemplo. ¿Qué significa
exactamente con un margen de error de 2 por ciento? Y también, ¿Cómo es posible que, a partir de una muestra de
solamente 1500 adultos, se pueda obtener la proporción de personas adultas que están a obesas en un país con mas
de 150 millones de adultos?
La distribución muestral es lo que resulta de considerar todas las muestras posibles que pueden ser tomadas de
una población. Su estudio permite calcular la probabilidad que se tiene, dada una sola muestra, de acercarse al
parámetro de la población. Mediante la distribución muestral se puede estimar el error para un tamaño de muestra
dado. La distribución de muestreo de una estadística es la distribución de esa estadística, considerada como
una variable aleatoria, cuando se deriva de una muestra aleatoria de tamaño n. Se puede considerar como la
distribución de la estadística para todas las muestras posibles de la misma población de un tamaño de muestra dado.
La distribución del muestreo depende de la distribución subyacente de la población, la estadística que se considera, el
procedimiento de muestreo empleado y el tamaño de muestra utilizado. A menudo existe un considerable interés en si
la distribución muestral puede aproximarse mediante una distribución asintótica, que corresponde al caso límite ya
que el número de muestras aleatorias de tamaño finito, tomadas de una población infinita y utilizadas para producir la
distribución, tiende a infinito. , o cuando se toma una "muestra" del mismo tamaño infinito de esa misma población.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
13.
14.
15.
16.
17.
18.
19.
20.
21. Distribución T de Student
Las distribuciones t de Student fueron descubiertas por William S. Gosset (1876-1937) en 1908
cuando trabajaba para la compañía de cervezas Guinness en Dublín (Irlanda). No pudo publicar sus
descubrimientos usando su propio nombre porque Guinness había prohibido a sus empleados que
publicaran información confidencial. Gosset firmó sus publicaciones usando el nombre de "Student".
Gosset tenía buena relación con Karl Pearson que había sido su maestro. Necesitaba una distribución
que pudiera usar cuando el tamaño de la muestra fuera pequeño y la varianza desconocida y tenía que
ser estimada a partir de los datos. Las distribuciones t se usan para tener en cuenta la incertidumbre
añadida que resulta por esta estimación. Fisher comprendió la importancia de los trabajos de Gosset
para muestras pequeñas.
Si el tamaño de la muestra es n entonces decimos que la distribución t tiene n-1 grados de libertad.
Hay una distribución t diferente para cada tamaño de la muestra. Estas distribuciones son una familia
de distribuciones de probabilidad continuas. Las curvas de densidad son simétricas y con forma de
campana como la distribución normal estándar. Sus medias son 0 y sus varianzas son mayores que 1
(tienen colas más pesadas). Las colas de las distribuciones t disminuyen más lentamente que las colas
de la distribución normal. Si los grados de libertad son mayores más próxima a 1 es la varianza y la
función de densidad es más parecida a la densidad normal.
22. Cuando n es mayor que 30, la diferencia entre la normal y la distribución t de Student no suele ser muy
importante. En la imagen podemos ver varios ejemplos de funciones de distribución acumulada.
En Probabilidades en Distribuciones t-Student puedes ver una comparación más precisa entre las distribuciones
t-Student y la normal estándar.
23. Estimación puntual
Una estimación es puntual cuando se usa un solo valor extraído de la muestra para estimar el parámetro
desconocido de la población. Al valor usado se le llama estimador.
•La media de la población se puede estimar puntualmente mediante la media de la muestra:
•La proporción de la población se puede estimar puntualmente mediante la proporción de la muestra:
•La desviación típica de la población se puede estimar puntualmente mediante la desviación típica de la
muestra, aunque hay mejores estimadores.
Estimación por intervalos
A veces es conveniente obtener unos límites entre los cuales se encuentre el parámetro con un cierto nivel
de confianza, en este caso hablamos de estimación por intervalos
24. Métodos de Estimación
MÉTODO POR ANALOGÍA. Consiste en aplicar la misma expresión formal del parámetro poblacional a la
muestra , generalmente , estos estimadores son de cómoda operatividad, pero en ocasiones presentan
sesgos y no resultan eficientes . Son recomendables , para muestras de tamaño grande al cumplir por ello
propiedades asintóticas de consistencia.
METODO DE LOS MOMENTOS. Consiste en tomar como estimadores de los momentos de la población a
los momentos de la muestra . Podríamos decir que es un caso particular del método de analogía. En términos
operativos consiste en resolver el sistema de equivalencias entre unos adecuados momentos empíricos
(muéstrales) y teóricos(poblacionales).
ESTIMADORES MAXIMO-VEROSIMILES. La verosimilitud consiste en otorgar a un estimador/estimación
una determinada "credibilidad" una mayor apariencia de ser el cierto valor(estimación) o el cierto camino para
conseguirlo (estimador). En términos probabilísticos podríamos hablar de que la verosimilitud es la
probabilidad de que ocurra o se dé una determinada muestra si es cierta la estimación que hemos efectuado
o el estimador que hemos planteado. Evidentemente , la máxima verosimilitud , será aquel estimador o
estimación que nos arroja mayor credibilidad .
25. Bibliografía
ALEA, V. et al. (1999) Estadística Aplicada a les Ciències Econòmiques i Socials. Barcelona: Edicions McGraw-Hill EUB.
CANAVOS, G. (1988) Probabilidad y Estadística. Aplicaciones y Métodos. México: McGraw-Hill.
DURA PEIRó, J. M. y LóPEZ CUñAT, J.M. (1992) Fundamentos de Estadística. Estadística Descriptiva y Modelos
Probabilísticos para la Inferencia. Madrid: Ariel Editorial.
ESCUDER, R. y SANTIAGO, J. (1995) Estadística aplicada. Economía y Ciencias Sociales. Valencia: Tirant lo Blanch.
FERNáNDEZ CUESTA, C., y FUENTES GARCíA, F. (1995) Curso de Estadística Descriptiva. Teoría y Práctica. Madrid:
Ariel.
FREEDMAN, D., et al. (1991) Estadística. Barcelona: A.Bosch Ed.
FREEDMAN, D., et al. (1991) Estadística. Barcelona: A.Bosch Ed.
FREIXA, M., et al. (1992) Análisis exploratorio de datos: Nuevas técnicas estadísticas. Barcelona: PPU.
GUJARATI, D. (1997) Econometría Básica. Bogotá: McGraw-Hill.
KMENTA, J (1980) Elementos de Econometría. Barcelona: Vicens Universidad.
MARTíN PLIEGO, F. (1994) Introducción a la Estadística Económica y Empresarial. (Teoría y Práctica) Madrid: AC.
MARTíN PLIEGO, F. y RUIZ-MAYA, L. (1995) Estadística I: Probabilidad. Madrid: AC.
MARTíN PLIEGO, F. y RUIZ-MAYA, L. (1995) Estadística II: Inferencia. Madrid: AC.
MARTíN-GUZMáN, P. y MARTíN PLIEGO, F. (1985) Curso Básico de Estadística Económica. Madrid: AC.
MENDENHALL, W., et al. (1994) Estadística Matemática con Aplicaciones. México: Grupo Editorial Iberoamérica.