Yhunary Solano
 Se le llama estimación a una muestra
aleatoria que se toma de una población a
través de la cual queremos calcular la
apr...
 Es cuando se usa un solo valor extraído de la muestra
para estimar el parámetro desconocido de la
población.
 Al valor ...
 La media de la población se puede estimar puntualmente
mediante la media de la muestra:
 La proporción de la población ...
 Consiste en la obtención de un intervalo
dentro del cual estará el valor del parámetro
estimado con una cierta probabili...
 Intervalo de confianza:
El intervalo de confianza es una expresión del tipo [θ1,
θ2] o θ1 ≤ θ ≤ θ2, donde θ es el paráme...
 Error de la estimación:
Es una medida de su precisión que se corresponde con
la amplitud del intervalo de confianza. Cua...
 Valor α:
También llamado nivel de significación. Es la
probabilidad (en tanto por uno) de fallar en
nuestra estimación, ...
 Método por analogía.
Consiste en aplicar la misma expresión formal del
parámetro poblacional a la muestra ,
generalmente...
Ejemplo :
 Conocemos que la media poblacional de una
determinada variable x depende de un parámetro
K que es el que realm...
 Estimadores maximo-verosimiles.
La verosimilitud consiste en otorgar a
un estimador/estimación una determinada "credibil...
 En una situación formal tendríamos :
Un estimador máximo-verosímil es el que se
obtiene maximizando la función de
verosi...
 Que es la función de probabilidad (densidad o
cuantía) que asigna la probabilidad de que se
obtenga una muestra dependie...
 Si el muestreo es simple:
 Por ser independientes cada una de las realizaciones
muéstrales.
El estimador que maximice
...
 Si lo planteado fuera Estimador Máximo -
Verosímil de varios parámetros:
 Las expresiones serían. .
 Debido a que la función de verosimilitud es a fin de cuentas
una función de probabilidad ,será una función definida no
n...
Próxima SlideShare
Cargando en…5
×

Estimación e intervalos de confianza

605 visualizaciones

Publicado el

0 comentarios
1 recomendación
Estadísticas
Notas
  • Sé el primero en comentar

Sin descargas
Visualizaciones
Visualizaciones totales
605
En SlideShare
0
De insertados
0
Número de insertados
2
Acciones
Compartido
0
Descargas
13
Comentarios
0
Recomendaciones
1
Insertados 0
No insertados

No hay notas en la diapositiva.

Estimación e intervalos de confianza

  1. 1. Yhunary Solano
  2. 2.  Se le llama estimación a una muestra aleatoria que se toma de una población a través de la cual queremos calcular la aproximación a los parámetros que queremos estimar y desconocemos. A dicha aproximación le denominamos estimación.
  3. 3.  Es cuando se usa un solo valor extraído de la muestra para estimar el parámetro desconocido de la población.  Al valor usado se le llama estimador.  Es un número que se utiliza para aproximar el verdadero valor de dicho parámetro.  A fin de realizar tal estimación, tomaremos una muestra de la población y calcularemos el parámetro muestral asociado.  El valor de este parámetro muestral será la estimación puntual del parámetro buscado.
  4. 4.  La media de la población se puede estimar puntualmente mediante la media de la muestra:  La proporción de la población se puede estimar puntualmente mediante la proporción de la muestra:  La desviación típica de la población se puede estimar puntualmente mediante la desviación típica de la muestra, aunque hay mejores estimadores: S=σ
  5. 5.  Consiste en la obtención de un intervalo dentro del cual estará el valor del parámetro estimado con una cierta probabilidad. En la estimación por intervalos se usan los siguientes conceptos
  6. 6.  Intervalo de confianza: El intervalo de confianza es una expresión del tipo [θ1, θ2] o θ1 ≤ θ ≤ θ2, donde θ es el parámetro a estimar. Este intervalo contiene al parámetro estimado con una determinada certeza o nivel de confianza. Pero a veces puede cambiar este intervalo cuando la muestra no garantiza un axioma o un equivalente circunstancial.  Variabilidad del Parámetro: Si no se conoce, puede obtenerse una aproximación en los datos aportados por la literatura científica o en un estudio piloto. También hay métodos para calcular el tamaño de la muestra que prescinden de este aspecto. Habitualmente se usa como medida de esta variabilidad la desviación típica poblacional y se denota σ.
  7. 7.  Error de la estimación: Es una medida de su precisión que se corresponde con la amplitud del intervalo de confianza. Cuanta más precisión se desee en la estimación de un parámetro, más estrecho deberá ser el intervalo de confianza y, si se quiere mantener o disminuir el error, más ocurrencias deberán incluirse en la muestra estudiada. En caso de no incluir nuevas observaciones para la muestra, más error se comete al aumentar la precisión. Se suele llamar E, según la fórmula E = θ2 - θ1.  Límite de Confianza: Es la probabilidad de que el verdadero valor del parámetro estimado en la población se sitúe en el intervalo de confianza obtenido. El nivel de confianza se denota por (1-α), aunque habitualmente suele expresarse con un porcentaje ((1-α)·100%). Es habitual tomar como nivel de confianza un 95% o un 99%, que se corresponden con valores α de 0,05 y 0,01 respectivamente.
  8. 8.  Valor α: También llamado nivel de significación. Es la probabilidad (en tanto por uno) de fallar en nuestra estimación, esto es, la diferencia entre la certeza (1) y el nivel de confianza (1-α). Por ejemplo, en una estimación con un nivel de confianza del 95%, el valor α es (100-95)/100 = 0,05  Valor crítico: Se representa por Zα/2. Es el valor de la abscisa en una determinada distribución que deja a su derecha un área igual a α/2, siendo 1-α el nivel de confianza. Normalmente los valores críticos están tabulados o pueden calcularse en función de la distribución de la población.
  9. 9.  Método por analogía. Consiste en aplicar la misma expresión formal del parámetro poblacional a la muestra , generalmente , estos estimadores son de cómoda operatividad , pero en ocasiones presentan sesgos y no resultan eficientes. Son recomendables, para muestras de tamaño grande al cumplir por ello propiedades asintóticas de consistencia.  Método de los momentos. Consiste en tomar como estimadores de los momentos de la población a los momentos de la muestra . Podríamos decir que es un caso particular del método de analogía. En términos operativos consiste en resolver el sistema de equivalencias entre unos adecuados momentos empíricos(muestrales) y teóricos(poblacionales).
  10. 10. Ejemplo :  Conocemos que la media poblacional de una determinada variable x depende de un parámetro K que es el que realmente queremos conocer (estimar). Así:  Por el método de los momentos tendríamos que:  De donde:
  11. 11.  Estimadores maximo-verosimiles. La verosimilitud consiste en otorgar a un estimador/estimación una determinada "credibilidad" una mayor apariencia de ser el cierto valor(estimación) o el cierto camino para conseguirlo(estimador). En términos probabilísticos podríamos hablar de que la verosimilitud es la probabilidad de que ocurra o se dé una determinada muestra si es cierta la estimación que hemos efectuado o el estimador que hemos planteado. Evidentemente , la máxima verosimilitud , será aquel estimador o estimación que nos arroja mayor credibilidad.
  12. 12.  En una situación formal tendríamos : Un estimador máximo-verosímil es el que se obtiene maximizando la función de verosimilitud (likelihood) de la muestra:
  13. 13.  Que es la función de probabilidad (densidad o cuantía) que asigna la probabilidad de que se obtenga una muestra dependiendo del (o de los)parámetro(s) " " pero considerada como función de .  Si la distribución de la población es tal que su densidad depende de uno o más parámetros , la probabilidad (densidad) de cad realización muestral xi (con i=1,2,..,n) será: y, a partir de aquí podremos obtener la función de verosimilitud de la muestra:
  14. 14.  Si el muestreo es simple:  Por ser independientes cada una de las realizaciones muéstrales. El estimador que maximice  Será el estimador máximo-verosímil (E.M.V.) Y será aquel valor/expresión para el que se verifique la derivada :
  15. 15.  Si lo planteado fuera Estimador Máximo - Verosímil de varios parámetros:  Las expresiones serían. .
  16. 16.  Debido a que la función de verosimilitud es a fin de cuentas una función de probabilidad ,será una función definida no negativa y por lo tanto alcanzará su máximo en los mismos puntos que su logaritmo.  Por esta razón suele maximizarse  En lugar de la propia función de verosimilitud . Suele hacerse esto en todos aquellos casos en los que la función de verosimilitud depende de funciones exponenciales.

×