1. UNIVERSIDAD FERMIN TORO
VICE RECTORADO ACADEMICO
DECANATO DE FACULTAD CIENCIAS ECONOMICAS Y SOCIALES
ESCUELA DE RELACIONES INDUSTRIALES
CABUDARE. EDO. LARA
Estimación
Estudiante: Luismar Freitez
C.I: V-26.007.499
2. Una estimación estadística es un proceso mediante el que establecemos que
valor debe tener un parámetro según deducciones que realizamos. Su finalidad es
proporcionarnos las herramientas necesarias para poder determinar buenas
aproximaciones (a los que llamaremos estimaciones) a aquellos valores desconocidos
en la población (a los que técnicamente se les denomina parámetros) y que estamos
interesados en conocer.
Estimación puntual de parámetros: Un estimador puntual de θ es una
función θ de los datos x1,...,xn que aproxima el valor de θ. Cuando se da el
valor del estimador θ, hay que dar también una estimación del error que se
comete al aproximar el valor del parámetro θ mediante θ.
Estimación por intervalos de confianza: Si T1 y T2 son dos valores,
obtenidos a partir de los datos x1,...,xn y tales que P(T1≤θ≤T2) =1−α entonces
[T1, T2] es un intervalo de confianza para θ con un nivel de confianza de 1−α.
Intuitivamente, T1, T2 son dos valores tales que el 100(1−α)% de las veces
que repitamos el experimento en esa población, el valor desconocido de θ
estará entre estos dos valores. El nivel de confianza 1−α es un valor entre 0 y
1 que debe estar próximo a 1(0.90, 0.95, 0.99, . . . ). De ello resulta que el
valor deαes próximo a 0 (0.1, 0.05, 0.01,. . .).
Estimación de la media: Sea x1,...,xn una Muestra Aleatoria Simple de una
variable N (μ,σ).
Estimación de una proporción: En caracteres cualitativos el parámetro de
interés es la proporción p de individuos dela población que presentan cada
modalidad del carácter. La variable que modeliza estas situaciones será
dicotómica o de Bernoulli con probabilidad de éxito p. Para modelizar esta
situación consideraremos x1,...,xn una Muestra Aleatoria Simple de una
variable con distribución de Bernoulli de parámetro p.
3. Propiedades para que un estimador puntual sea un buen estimador: Un
estimador es insesgado cuando la media de su distribución muestral asociada
coincide con la media de la población. Esto ocurre, por ejemplo, con el
estimador x ya que µ x = µ y con estimador p´ ya que µ p′ = P En caso
contrario , se dice que es estimador sesgado