2. Se le llama estimación a una muestra
aleatoria que se toma de una población a
través de la cual queremos calcular la
aproximación a los parámetros que queremos
estimar y desconocemos. A dicha
aproximación le denominamos estimación.
3. Es cuando se usa un solo valor extraído de la muestra
para estimar el parámetro desconocido de la
población.
Al valor usado se le llama estimador.
Es un número que se utiliza para aproximar el
verdadero valor de dicho parámetro.
A fin de realizar tal estimación, tomaremos una
muestra de la población y calcularemos el parámetro
muestral asociado.
El valor de este parámetro muestral será la
estimación puntual del parámetro buscado.
4. La media de la población se puede estimar puntualmente
mediante la media de la muestra:
La proporción de la población se puede estimar
puntualmente mediante la proporción de la muestra:
La desviación típica de la población se puede estimar
puntualmente mediante la desviación típica de la muestra,
aunque hay mejores estimadores:
S=σ
5. Consiste en la obtención de un intervalo
dentro del cual estará el valor del parámetro
estimado con una cierta probabilidad. En la
estimación por intervalos se usan los
siguientes conceptos
6. Intervalo de confianza:
El intervalo de confianza es una expresión del tipo [θ1,
θ2] o θ1 ≤ θ ≤ θ2, donde θ es el parámetro a estimar.
Este intervalo contiene al parámetro estimado con
una determinada certeza o nivel de confianza. Pero a
veces puede cambiar este intervalo cuando la
muestra no garantiza un axioma o un equivalente
circunstancial.
Variabilidad del Parámetro:
Si no se conoce, puede obtenerse una aproximación en
los datos aportados por la literatura científica o en
un estudio piloto. También hay métodos para calcular
el tamaño de la muestra que prescinden de este
aspecto. Habitualmente se usa como medida de esta
variabilidad la desviación típica poblacional y se
denota σ.
7. Error de la estimación:
Es una medida de su precisión que se corresponde con
la amplitud del intervalo de confianza. Cuanta más
precisión se desee en la estimación de un parámetro,
más estrecho deberá ser el intervalo de confianza y,
si se quiere mantener o disminuir el error, más
ocurrencias deberán incluirse en la muestra
estudiada. En caso de no incluir nuevas observaciones
para la muestra, más error se comete al aumentar la
precisión. Se suele llamar E, según la fórmula E = θ2 -
θ1.
Límite de Confianza:
Es la probabilidad de que el verdadero valor del
parámetro estimado en la población se sitúe en el
intervalo de confianza obtenido. El nivel de confianza
se denota por (1-α), aunque habitualmente suele
expresarse con un porcentaje ((1-α)·100%). Es
habitual tomar como nivel de confianza un 95% o un
99%, que se corresponden con valores α de 0,05 y
0,01 respectivamente.
8. Valor α:
También llamado nivel de significación. Es la
probabilidad (en tanto por uno) de fallar en
nuestra estimación, esto es, la diferencia entre
la certeza (1) y el nivel de confianza (1-α). Por
ejemplo, en una estimación con un nivel de
confianza del 95%, el valor α es (100-95)/100 =
0,05
Valor crítico:
Se representa por Zα/2. Es el valor de la abscisa en
una determinada distribución que deja a su
derecha un área igual a α/2, siendo 1-α el nivel
de confianza. Normalmente los valores críticos
están tabulados o pueden calcularse en función
de la distribución de la población.
9. Método por analogía.
Consiste en aplicar la misma expresión formal del
parámetro poblacional a la muestra ,
generalmente , estos estimadores son de cómoda
operatividad , pero en ocasiones
presentan sesgos y no resultan eficientes. Son
recomendables, para muestras de tamaño grande
al cumplir por ello propiedades asintóticas
de consistencia.
Método de los momentos.
Consiste en tomar como estimadores de los
momentos de la población a los momentos de la
muestra . Podríamos decir que es un caso
particular del método de analogía. En términos
operativos consiste en resolver el sistema de
equivalencias entre unos adecuados momentos
empíricos(muestrales) y teóricos(poblacionales).
10. Ejemplo :
Conocemos que la media poblacional de una
determinada variable x depende de un parámetro
K que es el que realmente queremos conocer
(estimar).
Así:
Por el método de los momentos tendríamos que:
De donde:
11. Estimadores maximo-verosimiles.
La verosimilitud consiste en otorgar a
un estimador/estimación una determinada "credibilidad"
una mayor apariencia de ser el cierto valor(estimación) o
el cierto camino para conseguirlo(estimador).
En términos probabilísticos podríamos hablar de que la
verosimilitud es la probabilidad de que ocurra o se dé una
determinada muestra si es cierta la estimación que hemos
efectuado o el estimador que hemos planteado.
Evidentemente , la máxima verosimilitud , será aquel
estimador o estimación que nos arroja mayor credibilidad.
12. En una situación formal tendríamos :
Un estimador máximo-verosímil es el que se
obtiene maximizando la función de
verosimilitud (likelihood) de la muestra:
13. Que es la función de probabilidad (densidad o
cuantía) que asigna la probabilidad de que se
obtenga una muestra dependiendo del (o de
los)parámetro(s) " " pero considerada como
función de .
Si la distribución de la población es tal que su
densidad depende de uno o más parámetros , la
probabilidad (densidad) de cad realización
muestral xi (con i=1,2,..,n) será: y, a partir de
aquí podremos obtener la función de verosimilitud
de la muestra:
14. Si el muestreo es simple:
Por ser independientes cada una de las realizaciones
muéstrales.
El estimador que maximice
Será el estimador máximo-verosímil (E.M.V.) Y será
aquel valor/expresión para el que se verifique la
derivada :
15. Si lo planteado fuera Estimador Máximo -
Verosímil de varios parámetros:
Las expresiones serían. .
16. Debido a que la función de verosimilitud es a fin de cuentas
una función de probabilidad ,será una función definida no
negativa y por lo tanto alcanzará su máximo en los mismos
puntos que su logaritmo.
Por esta razón suele maximizarse
En lugar de la propia función de verosimilitud . Suele
hacerse esto en todos aquellos casos en los que la función
de verosimilitud depende de funciones exponenciales.