SlideShare una empresa de Scribd logo
1 de 5
Descargar para leer sin conexión
ELECTRÓNICA Y TELECOMUNICACIONES


   ESTADÍSTICA Y PROBABILIDAD


              CAPÍTULO 7
               Estimación

   PROFESIONAL EN FORMACIÓN:
      Wilson Arturo Torres Ayala


                DOCENTE:
    Ing. Luis Patricio Puchaicela Huaca


              PARALELO:
                  C



            LOJA-ECUADOR



                2007-2008
RESUMEN
En este capítulo se estudiará las estimaciones, que son un método para poder aproximar
o estimar el valor numérico de los parámetros pertinentes. Se analizarán tres tipos de
estimadores puntuales: estimadores insesgados, estimadores obtenidos con el método de
momentos y estimadores obtenidos con el método de máxima verosimilitud.

MARCO TEÓRICO
ESTIMACIÓN PUNTUAL
Una de las estadísticas usadas para aproximar o estimar un parámetro poblacional θ se
llama estimador puntual de θ y se denota como θ . El valor numérico de esta
                                                       ˆ
estadística cuando se evalúa para una muestra dada se denomina estimación puntual de
 θ . Hay diferencia entre los términos estimador y estimación. El estimador es la
estadística usada para generar la estimación, es decir, una variable aleatoria, mientras
que la estimación es un número.

Propiedades recomendables en un estimador puntual
-Que θ sea insesgado para θ .
     ˆ
-Que θ tenga varianza pequeña para muestras grandes.
     ˆ

Definición de insesgado. Un estimador θ es un estimador insesgado de un parámetro
                                       ˆ
θ si y solo si E[ θ ] = θ .
                  ˆ
Insesgado significa centrado en el punto adecuado, donde el punto adecuado es el
parámetro que se estima.

Teorema 1. Sea X 1 , X 2 , X 3 ,…, X n una muestra aleatoria de tamaño n de una
distribución con media µ . La media de la muestra, X , es un estimador insesgado de µ

Es usual que los estudios estadísticos no se repitan un ay otra vez para promediar las
estimaciones obtenidas. A fin de tener cierta garantía de que la estimación tenga valor
cercano a θ , el parámetro que es estima, no solo debe estar exento de sesgo, sino que
también ha tener varianza pequeña con muestras grandes.

Teorema 2. Sea X la X la media muestral basada en una muestra aleatoria de tamaño n
de una distribución con media µ y varianza σ2 . Entonces:

                                     Var X = σ
                                                2


                                             n

En la definición anterior note que σ2 es una constante, entonces la varianza de X
disminuye conforme aumenta el tamaño muestral n, y puede ser tan pequeño como se
desee, si se selecciona un valor de n suficientemente grande.

Definición de error estándar de la media. Sea X la media muestral basada en una
muestra de tamaño n y seleccionada de una distribución con desviación estándar σ . La
desviación estándar de X está dada por σ / n y se llama error estándar de la media.
Teorema 3. Sea S 2 la varianza muestral basada en una muestra aleatoria de tamaño n
de una distribución con media µ y varianza σ2 . S 2 es un estimador insesgado de σ2 .

EL MÉTODO DE               MOMENTOS            Y    EL   MÉTODO        DE    MÁXIMA
VEROSIMILITUD

Método de momentos
Los términos de la forma E [ X k ] (k=1, 2,3,...) se llaman k-ésimos mometos de X. Puesto
que la esperanza es un promedio teórico, la lógica implica que los momentos de X
pueden estimarse mediante un promedio aritmético. En otras palabras, un estimador
            k
M k de E[ X ] basado en una muestra aleatoria de tamaño n es:
                                                  n    k

                                        Mk  = ∑ Xi
                                                i =1 n


El método de momentos aprovecha el hacho de que en muchos casos los momentos de
X pueden expresarse como función de θ , el parámetro que es pretende estimar. Es
frecuente que pueda obtenerse un estimador razonable de θ al sustituir los momentos
teóricos con sus estimadores y despejar θ en la ecuación resultante.
                                        ˆ

Estimadores de máxima verosimilitud
Este método es más complejo que el de momentos. Supongamos que se tiene una
muestra aleatoria x1 , x 2 , x3 ,… x n . El método de máxima verosimilitud selecciona en
cierto sentido, de todos los posibles valores de θ , el que tenga mayor probabilidad de
haber producido esas observaciones

Pasos del método de máxima verosimilitud para estimar θ
-Obtener una muestra aleatoria x1 , x 2 , x3 ,… x n de la distribución de una variable
aleatoria X con densidad f y parámetro θ.
-Definir una función L(θ) con:
                                              n
                                     L(θ) = ∏ f ( xi )
                                             i =1
Esta fórmula se llama función de verosimilitud de la muestra.
-Encontrar la expresión de θ que maximice la función de verosimilitud. Ello puede
hacerse directamente o al maximizar ln L(θ).
-Sustituir θ por θ para obtener una expresión del estimador de máxima verosimilitud de
                 ˆ
θ.
-Encontrar el valor observado de dicho estimador para una muestra dada.

El procedimiento de máxima verosimilitud es aplicable cunado la densidad de X se
caracteriza por dos parámetros a calcularse la media ( µ ) y la varianza ( σ2 ).

FUNCIONES DE VARIABLES ALEATORIAS: DISTRIBUCIÓN DE X

Existe una desventaja de la estimación puntual, que en muchos de los casos los
estimadores usados son lógicos. Para obtener una estimación exacta hay que utilizar el
método de estimación por intervalos o de intervalos de confianza, que trata acerca de un
intervalo aleatorio, cuyos puntos extremos L1 y L 2 son estadísticas. Esta estimación se
usa para determinar un intervalo numérico basado en una muestra. Al expandirse de un
punto a un intervalo, se deja poco espacio para los errores y, con ello, se puede informar
sobre la confianza, basada en la teoría de probabilidad, que se tiene en la estimación.
Esta técnica depende del resultado que se presenta en el siguiente teorema:

Sean X y Y variables aleatorias con funciones generadoras de momentos m X (t ) y
mY (t ) , respectivamente. Si m X (t ) = mY (t ) para todos los valores de t en un intervalo
abierto alrededor del 0, entonces X y Y tienen la misma distribución.

Muchas estadísticas usadas en el análisis de datos implican sumar un conjunto de
variables aleatorias. El siguiente teorema ayuda a determinar la distribución de tales
estadísticas.

Sea X 1 y X 2 variables aleatorias independientes con funciones generadoras de
momentos m x (t ) y m x (t ) , respectivamente. Sea Y = X 1 + X 2 . La función generadora
            1          2
de momentos de Y está dada por:
                                  mY (t ) = m x1 (t ) m x2 (t )

El teorema anterior puede adaptarse para realizar la suma de tres o más variables
aleatorias. En otras palabras, puede afirmarse que la función generadora de momentos
de la suma de un número finito de variables aleatorias independientes es el producto de
las funciones generadoras de momentos de las variables individuales

Distribución de X
Sin duda alguna una de las estadísticas más útiles es la media muestral ( X ), Pero ¿Qué
tipo de distribución tiene X ? El teorema siguiente ayuda a quitarnos esta inquietud.

Sea X una variable aleatoria con función generadora de momentos m X (t ) . Sea
Y = α + β X la función generadora de momentos de Y es:
                                  mY (t ) = e m x (β t )
                                             αt



El teorema que a continuación se presenta, garantiza que al realizar el muestreo de una
distribución normal, la variable aleatoria X también tenga distribución normal.

Sea X 1 , X 2 ,…, X n una muestra aleatoria de tamaño n, de una distribución normal con
media µ y varianza σ2 . Entonces, X tiene distribución normal, con media µ y
varianza σ2 /n.

ESTIAMCIÓN POR INTERVALOS Y EL TEOREMA DEL LÍMITE CENTRAL

Intervalo de confianza. El intervalo de confianza 100(1- α ) % de un parámetro θ por
un intervalo aleatorio [ L1 , L 2 ] tal que:
                P [ L1 ≤ θ ≤ L2] = 1 − α sin importar cuál sea el valor de θ.

Intervalo de confianza para la media: varianza conocida
Intervalo de confianza de 100(1-α) % para µ cuando se conoce σ2 . Sea X 1 , X 2 ,
 X 3 ,…, X n una muestra aleatoria de tamaño n de una distribución normal, con media µ
y varianza σ2 . El intervalo de confianza 100 (1-α) % para µ está dado por:
                                      X ± zα / 2 σ / n
Este intervalo de confianza solo puede utilizarse cunado se conoce la desviación
estándar poblacional, σ
Varios son los aspectos que se debe notar en la fórmula anterior. Primero, que todo
intervalo de confianza de µ está centrado en x la estimación puntual insesgada de µ.
Segundo que la amplitud del intervalo de confianza depende de tres factores, a saber, la
confianza que interese, magnitud de la variabilidad de X y tamaño muestral n. La
confianza requerida determina el valor del punto usado. Cuanta mayor confianza se
precise, tanto más alto dicho valor. Se puede afirmar que tal amplitud, referente a µ, es
directamente proporcional a σ y a la confianza necesaria, así como inversamente
proporcional al tamaño muestral.

Teorema del límite central
Sea X 1 , X 2 ,…, X n una muestra aleatoria de tamaño n, de una distribución con media
µ y varianza σ2 . Entonces, para n grande, X es aproximadamente normal, con media µ
y varianza σ2 / n . Además, para n grande la variable aleatoria ( X − µ ) /( σ / n ) es
aproximadamente normal estándar.

El teorema del límite central es importante por dos razones. La primera, que permite
elaborar inferencias sobre la media de una distribución basada en muestras
relativamente grandes, sin tener que preocuparse mucho por el muestreo que se obtenga
de una distribución normal o no. La segunda, que posibilita justificar analíticamente las
aproximaciones normales de la distribución binomial.

CONCLUSIONES
-Los estimadores insesgados son aquellos cuyo valor medio es igual al parámetro que
estiman.
-Los estimadores del método de momentos se obtienen al darse cuenta de que los
parámetros que caracterizan a una distribución suelen ser funciones de los k-ésimos
momentos de la distribución.
-Los estimadores de máxima verosimilitud se determinan seleccionando el valor del
parámetro θ con el que se maximiza la función de verosimilitud. Es decir que se
selecciona de todos los valores posibles de θ el que tiene mayor probabilidad de haber
generado los datos observados.
-El teorema de límite central permite elaborar inferencias sobre la media de cualquier
distribución si se tienen muestras relativamente grandes.

Más contenido relacionado

La actualidad más candente

Estimación e intervalos de confianza
Estimación e intervalos de confianzaEstimación e intervalos de confianza
Estimación e intervalos de confianzaYhunary Solano
 
Estimación de parametro su31
Estimación de parametro su31Estimación de parametro su31
Estimación de parametro su31Instruccional
 
Intervalos de confianza-1
Intervalos de confianza-1Intervalos de confianza-1
Intervalos de confianza-1Hector Funes
 
Distribución muestral (3)
Distribución muestral (3)Distribución muestral (3)
Distribución muestral (3)Luz Hernández
 
Estimación de parámetros
Estimación de parámetrosEstimación de parámetros
Estimación de parámetrosGudalupe Valdez
 
Teorema de limite central
Teorema de limite centralTeorema de limite central
Teorema de limite centralDouglas Rosales
 
Inferencia estadistica
Inferencia estadisticaInferencia estadistica
Inferencia estadisticanatorabet
 
distribuciones muestrales
distribuciones muestralesdistribuciones muestrales
distribuciones muestralesJtonymattey
 
Alexis (estimación estadística)
Alexis (estimación estadística)Alexis (estimación estadística)
Alexis (estimación estadística)Alexis Rodriguez
 
Distribuciones Muestrales y Estimación de los Parámetros de una Población
Distribuciones Muestrales y Estimación de los Parámetros de una PoblaciónDistribuciones Muestrales y Estimación de los Parámetros de una Población
Distribuciones Muestrales y Estimación de los Parámetros de una Poblaciónjosegonzalez1606
 
Intervalo de confianza
Intervalo de confianzaIntervalo de confianza
Intervalo de confianzalaura ochoa
 
Estadistica MI-23
Estadistica MI-23Estadistica MI-23
Estadistica MI-23knoshie
 
prueba de hipótesis e intervalo de confianza
prueba de hipótesis e intervalo de confianzaprueba de hipótesis e intervalo de confianza
prueba de hipótesis e intervalo de confianzaKariina Buendia
 

La actualidad más candente (20)

Estimación e intervalos de confianza
Estimación e intervalos de confianzaEstimación e intervalos de confianza
Estimación e intervalos de confianza
 
Estimación de parametro su31
Estimación de parametro su31Estimación de parametro su31
Estimación de parametro su31
 
La estimación
La estimaciónLa estimación
La estimación
 
Mapa mental
Mapa mentalMapa mental
Mapa mental
 
Intervalos de confianza-1
Intervalos de confianza-1Intervalos de confianza-1
Intervalos de confianza-1
 
Pruebas de hipótesis e inferencia estadística
Pruebas de hipótesis e inferencia estadísticaPruebas de hipótesis e inferencia estadística
Pruebas de hipótesis e inferencia estadística
 
Distribución muestral (3)
Distribución muestral (3)Distribución muestral (3)
Distribución muestral (3)
 
Muestra 2020
Muestra 2020Muestra 2020
Muestra 2020
 
Estimación de parámetros
Estimación de parámetrosEstimación de parámetros
Estimación de parámetros
 
Teorema de limite central
Teorema de limite centralTeorema de limite central
Teorema de limite central
 
Unidad 5 Inferencia estadística
Unidad 5 Inferencia estadísticaUnidad 5 Inferencia estadística
Unidad 5 Inferencia estadística
 
Inferencia estadistica
Inferencia estadisticaInferencia estadistica
Inferencia estadistica
 
distribuciones muestrales
distribuciones muestralesdistribuciones muestrales
distribuciones muestrales
 
Alexis (estimación estadística)
Alexis (estimación estadística)Alexis (estimación estadística)
Alexis (estimación estadística)
 
Distribuciones Muestrales y Estimación de los Parámetros de una Población
Distribuciones Muestrales y Estimación de los Parámetros de una PoblaciónDistribuciones Muestrales y Estimación de los Parámetros de una Población
Distribuciones Muestrales y Estimación de los Parámetros de una Población
 
EstimacióN Y Prueba De HipóTesis
EstimacióN Y Prueba De HipóTesisEstimacióN Y Prueba De HipóTesis
EstimacióN Y Prueba De HipóTesis
 
Intervalo de confianza
Intervalo de confianzaIntervalo de confianza
Intervalo de confianza
 
Estadistica MI-23
Estadistica MI-23Estadistica MI-23
Estadistica MI-23
 
prueba de hipótesis e intervalo de confianza
prueba de hipótesis e intervalo de confianzaprueba de hipótesis e intervalo de confianza
prueba de hipótesis e intervalo de confianza
 
tipos de prueba de hipotesis
tipos de prueba de hipotesis tipos de prueba de hipotesis
tipos de prueba de hipotesis
 

Similar a ENSAYO 7 (20)

5)Estimación de parámetros.pptx
5)Estimación de parámetros.pptx5)Estimación de parámetros.pptx
5)Estimación de parámetros.pptx
 
Estadística aplicada ing civil
Estadística aplicada ing civilEstadística aplicada ing civil
Estadística aplicada ing civil
 
Estimacion
EstimacionEstimacion
Estimacion
 
Guia 3.estimadores estimación de una media
Guia 3.estimadores estimación de una mediaGuia 3.estimadores estimación de una media
Guia 3.estimadores estimación de una media
 
Estimadores
EstimadoresEstimadores
Estimadores
 
Estimacionpuntual1
Estimacionpuntual1Estimacionpuntual1
Estimacionpuntual1
 
Estimadores
EstimadoresEstimadores
Estimadores
 
Incertidumbre
IncertidumbreIncertidumbre
Incertidumbre
 
Estimación de parámetros
Estimación de parámetrosEstimación de parámetros
Estimación de parámetros
 
Estadistica
EstadisticaEstadistica
Estadistica
 
Estadistica
EstadisticaEstadistica
Estadistica
 
Doc medidas
Doc medidasDoc medidas
Doc medidas
 
Estad quimestimacionintconfianza
Estad quimestimacionintconfianzaEstad quimestimacionintconfianza
Estad quimestimacionintconfianza
 
Maxima verosimilitud
Maxima verosimilitudMaxima verosimilitud
Maxima verosimilitud
 
Estimacion de Parámetro.pdf
Estimacion de Parámetro.pdfEstimacion de Parámetro.pdf
Estimacion de Parámetro.pdf
 
Estimacion de intervalos 1
Estimacion de intervalos 1 Estimacion de intervalos 1
Estimacion de intervalos 1
 
Estimacion de intervalos 1 poblacion- 04-06-2019
Estimacion de intervalos 1 poblacion- 04-06-2019Estimacion de intervalos 1 poblacion- 04-06-2019
Estimacion de intervalos 1 poblacion- 04-06-2019
 
Clase04 estadistica descriptiva
Clase04   estadistica descriptivaClase04   estadistica descriptiva
Clase04 estadistica descriptiva
 
Estadistica III Unidad 2.pptx
Estadistica III Unidad 2.pptxEstadistica III Unidad 2.pptx
Estadistica III Unidad 2.pptx
 
Estimación estadística
Estimación estadísticaEstimación estadística
Estimación estadística
 

Más de will_son

ENSAYO CAPITULO 9
ENSAYO CAPITULO 9ENSAYO CAPITULO 9
ENSAYO CAPITULO 9will_son
 
Proyecto de Estadística y Probabilidad
Proyecto de Estadística y ProbabilidadProyecto de Estadística y Probabilidad
Proyecto de Estadística y Probabilidadwill_son
 
6to. Ensayo
6to. Ensayo6to. Ensayo
6to. Ensayowill_son
 
5to. ENSAYO
5to. ENSAYO5to. ENSAYO
5to. ENSAYOwill_son
 
4to. Ensayo
4to. Ensayo4to. Ensayo
4to. Ensayowill_son
 
3er ENSAYO
3er ENSAYO3er ENSAYO
3er ENSAYOwill_son
 
2do ENSAYO
2do ENSAYO2do ENSAYO
2do ENSAYOwill_son
 

Más de will_son (8)

ENSAYO 10
ENSAYO 10ENSAYO 10
ENSAYO 10
 
ENSAYO CAPITULO 9
ENSAYO CAPITULO 9ENSAYO CAPITULO 9
ENSAYO CAPITULO 9
 
Proyecto de Estadística y Probabilidad
Proyecto de Estadística y ProbabilidadProyecto de Estadística y Probabilidad
Proyecto de Estadística y Probabilidad
 
6to. Ensayo
6to. Ensayo6to. Ensayo
6to. Ensayo
 
5to. ENSAYO
5to. ENSAYO5to. ENSAYO
5to. ENSAYO
 
4to. Ensayo
4to. Ensayo4to. Ensayo
4to. Ensayo
 
3er ENSAYO
3er ENSAYO3er ENSAYO
3er ENSAYO
 
2do ENSAYO
2do ENSAYO2do ENSAYO
2do ENSAYO
 

ENSAYO 7

  • 1. ELECTRÓNICA Y TELECOMUNICACIONES ESTADÍSTICA Y PROBABILIDAD CAPÍTULO 7 Estimación PROFESIONAL EN FORMACIÓN: Wilson Arturo Torres Ayala DOCENTE: Ing. Luis Patricio Puchaicela Huaca PARALELO: C LOJA-ECUADOR 2007-2008
  • 2. RESUMEN En este capítulo se estudiará las estimaciones, que son un método para poder aproximar o estimar el valor numérico de los parámetros pertinentes. Se analizarán tres tipos de estimadores puntuales: estimadores insesgados, estimadores obtenidos con el método de momentos y estimadores obtenidos con el método de máxima verosimilitud. MARCO TEÓRICO ESTIMACIÓN PUNTUAL Una de las estadísticas usadas para aproximar o estimar un parámetro poblacional θ se llama estimador puntual de θ y se denota como θ . El valor numérico de esta ˆ estadística cuando se evalúa para una muestra dada se denomina estimación puntual de θ . Hay diferencia entre los términos estimador y estimación. El estimador es la estadística usada para generar la estimación, es decir, una variable aleatoria, mientras que la estimación es un número. Propiedades recomendables en un estimador puntual -Que θ sea insesgado para θ . ˆ -Que θ tenga varianza pequeña para muestras grandes. ˆ Definición de insesgado. Un estimador θ es un estimador insesgado de un parámetro ˆ θ si y solo si E[ θ ] = θ . ˆ Insesgado significa centrado en el punto adecuado, donde el punto adecuado es el parámetro que se estima. Teorema 1. Sea X 1 , X 2 , X 3 ,…, X n una muestra aleatoria de tamaño n de una distribución con media µ . La media de la muestra, X , es un estimador insesgado de µ Es usual que los estudios estadísticos no se repitan un ay otra vez para promediar las estimaciones obtenidas. A fin de tener cierta garantía de que la estimación tenga valor cercano a θ , el parámetro que es estima, no solo debe estar exento de sesgo, sino que también ha tener varianza pequeña con muestras grandes. Teorema 2. Sea X la X la media muestral basada en una muestra aleatoria de tamaño n de una distribución con media µ y varianza σ2 . Entonces: Var X = σ 2 n En la definición anterior note que σ2 es una constante, entonces la varianza de X disminuye conforme aumenta el tamaño muestral n, y puede ser tan pequeño como se desee, si se selecciona un valor de n suficientemente grande. Definición de error estándar de la media. Sea X la media muestral basada en una muestra de tamaño n y seleccionada de una distribución con desviación estándar σ . La desviación estándar de X está dada por σ / n y se llama error estándar de la media.
  • 3. Teorema 3. Sea S 2 la varianza muestral basada en una muestra aleatoria de tamaño n de una distribución con media µ y varianza σ2 . S 2 es un estimador insesgado de σ2 . EL MÉTODO DE MOMENTOS Y EL MÉTODO DE MÁXIMA VEROSIMILITUD Método de momentos Los términos de la forma E [ X k ] (k=1, 2,3,...) se llaman k-ésimos mometos de X. Puesto que la esperanza es un promedio teórico, la lógica implica que los momentos de X pueden estimarse mediante un promedio aritmético. En otras palabras, un estimador k M k de E[ X ] basado en una muestra aleatoria de tamaño n es: n k Mk = ∑ Xi i =1 n El método de momentos aprovecha el hacho de que en muchos casos los momentos de X pueden expresarse como función de θ , el parámetro que es pretende estimar. Es frecuente que pueda obtenerse un estimador razonable de θ al sustituir los momentos teóricos con sus estimadores y despejar θ en la ecuación resultante. ˆ Estimadores de máxima verosimilitud Este método es más complejo que el de momentos. Supongamos que se tiene una muestra aleatoria x1 , x 2 , x3 ,… x n . El método de máxima verosimilitud selecciona en cierto sentido, de todos los posibles valores de θ , el que tenga mayor probabilidad de haber producido esas observaciones Pasos del método de máxima verosimilitud para estimar θ -Obtener una muestra aleatoria x1 , x 2 , x3 ,… x n de la distribución de una variable aleatoria X con densidad f y parámetro θ. -Definir una función L(θ) con: n L(θ) = ∏ f ( xi ) i =1 Esta fórmula se llama función de verosimilitud de la muestra. -Encontrar la expresión de θ que maximice la función de verosimilitud. Ello puede hacerse directamente o al maximizar ln L(θ). -Sustituir θ por θ para obtener una expresión del estimador de máxima verosimilitud de ˆ θ. -Encontrar el valor observado de dicho estimador para una muestra dada. El procedimiento de máxima verosimilitud es aplicable cunado la densidad de X se caracteriza por dos parámetros a calcularse la media ( µ ) y la varianza ( σ2 ). FUNCIONES DE VARIABLES ALEATORIAS: DISTRIBUCIÓN DE X Existe una desventaja de la estimación puntual, que en muchos de los casos los estimadores usados son lógicos. Para obtener una estimación exacta hay que utilizar el método de estimación por intervalos o de intervalos de confianza, que trata acerca de un intervalo aleatorio, cuyos puntos extremos L1 y L 2 son estadísticas. Esta estimación se
  • 4. usa para determinar un intervalo numérico basado en una muestra. Al expandirse de un punto a un intervalo, se deja poco espacio para los errores y, con ello, se puede informar sobre la confianza, basada en la teoría de probabilidad, que se tiene en la estimación. Esta técnica depende del resultado que se presenta en el siguiente teorema: Sean X y Y variables aleatorias con funciones generadoras de momentos m X (t ) y mY (t ) , respectivamente. Si m X (t ) = mY (t ) para todos los valores de t en un intervalo abierto alrededor del 0, entonces X y Y tienen la misma distribución. Muchas estadísticas usadas en el análisis de datos implican sumar un conjunto de variables aleatorias. El siguiente teorema ayuda a determinar la distribución de tales estadísticas. Sea X 1 y X 2 variables aleatorias independientes con funciones generadoras de momentos m x (t ) y m x (t ) , respectivamente. Sea Y = X 1 + X 2 . La función generadora 1 2 de momentos de Y está dada por: mY (t ) = m x1 (t ) m x2 (t ) El teorema anterior puede adaptarse para realizar la suma de tres o más variables aleatorias. En otras palabras, puede afirmarse que la función generadora de momentos de la suma de un número finito de variables aleatorias independientes es el producto de las funciones generadoras de momentos de las variables individuales Distribución de X Sin duda alguna una de las estadísticas más útiles es la media muestral ( X ), Pero ¿Qué tipo de distribución tiene X ? El teorema siguiente ayuda a quitarnos esta inquietud. Sea X una variable aleatoria con función generadora de momentos m X (t ) . Sea Y = α + β X la función generadora de momentos de Y es: mY (t ) = e m x (β t ) αt El teorema que a continuación se presenta, garantiza que al realizar el muestreo de una distribución normal, la variable aleatoria X también tenga distribución normal. Sea X 1 , X 2 ,…, X n una muestra aleatoria de tamaño n, de una distribución normal con media µ y varianza σ2 . Entonces, X tiene distribución normal, con media µ y varianza σ2 /n. ESTIAMCIÓN POR INTERVALOS Y EL TEOREMA DEL LÍMITE CENTRAL Intervalo de confianza. El intervalo de confianza 100(1- α ) % de un parámetro θ por un intervalo aleatorio [ L1 , L 2 ] tal que: P [ L1 ≤ θ ≤ L2] = 1 − α sin importar cuál sea el valor de θ. Intervalo de confianza para la media: varianza conocida
  • 5. Intervalo de confianza de 100(1-α) % para µ cuando se conoce σ2 . Sea X 1 , X 2 , X 3 ,…, X n una muestra aleatoria de tamaño n de una distribución normal, con media µ y varianza σ2 . El intervalo de confianza 100 (1-α) % para µ está dado por: X ± zα / 2 σ / n Este intervalo de confianza solo puede utilizarse cunado se conoce la desviación estándar poblacional, σ Varios son los aspectos que se debe notar en la fórmula anterior. Primero, que todo intervalo de confianza de µ está centrado en x la estimación puntual insesgada de µ. Segundo que la amplitud del intervalo de confianza depende de tres factores, a saber, la confianza que interese, magnitud de la variabilidad de X y tamaño muestral n. La confianza requerida determina el valor del punto usado. Cuanta mayor confianza se precise, tanto más alto dicho valor. Se puede afirmar que tal amplitud, referente a µ, es directamente proporcional a σ y a la confianza necesaria, así como inversamente proporcional al tamaño muestral. Teorema del límite central Sea X 1 , X 2 ,…, X n una muestra aleatoria de tamaño n, de una distribución con media µ y varianza σ2 . Entonces, para n grande, X es aproximadamente normal, con media µ y varianza σ2 / n . Además, para n grande la variable aleatoria ( X − µ ) /( σ / n ) es aproximadamente normal estándar. El teorema del límite central es importante por dos razones. La primera, que permite elaborar inferencias sobre la media de una distribución basada en muestras relativamente grandes, sin tener que preocuparse mucho por el muestreo que se obtenga de una distribución normal o no. La segunda, que posibilita justificar analíticamente las aproximaciones normales de la distribución binomial. CONCLUSIONES -Los estimadores insesgados son aquellos cuyo valor medio es igual al parámetro que estiman. -Los estimadores del método de momentos se obtienen al darse cuenta de que los parámetros que caracterizan a una distribución suelen ser funciones de los k-ésimos momentos de la distribución. -Los estimadores de máxima verosimilitud se determinan seleccionando el valor del parámetro θ con el que se maximiza la función de verosimilitud. Es decir que se selecciona de todos los valores posibles de θ el que tiene mayor probabilidad de haber generado los datos observados. -El teorema de límite central permite elaborar inferencias sobre la media de cualquier distribución si se tienen muestras relativamente grandes.