1. REPÚBLICA BOLIVARIANA DE VENEZUELA
INSTITUTO UNIVERSITARIO POLITÉCNICO
“SANTIAGO MARIÑO”
SEDE BARCELONA
INGENIERÍA INDUSTRIAL
Estadística II
Autor:
José Mattey
C.I: 26. 706.783
sección: S7
Barcelona., marzo 2019
Profesor: Pedro Beltrán
2. Muestrear es una forma de evaluar la calidad de un producto, la opinión de los
consumidores, la eficacia de un medicamento o de un tratamiento. Muestra es una parte de la
población. Población es el total de resultados de un experimento.
En esta investigación tiene como objetivo dar a conocer que esta distribución es
frecuentemente utilizada en las aplicaciones estadísticas, lo que es muy importante.
Su propio nombre indica su extendida utilización, justificada por las frecuencia o
normalidad con la que las ciertos fenómenos tienden a parecerse en su comportamiento esta
distribución.
Muchas variables aleatorias continuas presentan una función de densidad cuya gráfica
tiene forma de campana.
En otras ocasiones, al considerar distribuciones binomiales, tipo B(n,p), para un
mismo valor de p y de valores de n cada vez mayores, se ve que sus polígonos de
frecuencias se aproximan a una forma en forma de campana.
En resumen, la importancia de la distribución normal se debe principalmente a que hay
muchas variables asociadas a fenómenos naturales que siguen el modelo de la normal.
3. La distribución muestral es lo que resulta de considerar todas
las muestras posibles que pueden ser tomadas de una población. Su estudio
permite calcular la probabilidad que se tiene, dada una sola muestra, de acercarse
al parámetro de la población. Mediante la distribución muestral se puede estimar el
error para un tamaño de muestra dado
Si conocemos la distribución muestral podemos hacer inferencia. Las
distribuciones muestrales adoptan diferentes formas según las estadísticas
investigadas y las características de la población estudiada.
4. Si tenemos una muestra aleatoria de una población N (m, s), se Sabe que fsp de la
media muestral es también normal con media m y varianza s2/n, esto es exacto para
poblaciones normales y aproximado ( aproximación con n>30) para poblaciones
cualesquiera; es decir 𝜎/ 𝑛, es el error típico, o error estándar de la media.
No hay tablas para cualquier normal, sólo para la normal m=0 y s=1 (la llamada z);
pero haciendo la transformación (llamada tipificación), una normal de media m y
desviación s se transforma en una z.
z =
𝑥 − 𝜇
𝜎 𝑛
5. Llamando za al valor de una variable normal tipificada que deja a su derecha un
área bajo la curva de a, es decir, que la probabilidad que la variable sea mayor que ese
valor es a(estos son los valores que ofrece la tabla de la normal).
Podremos construir intervalos de la forma: 𝑧1−𝑎/2 <
𝑥−𝑢
𝜎 𝑛
< 𝑧 𝑎/2
Para los que la probabilidad es 1 - a.
6. Suponga que se tienen dos poblaciones distintas, la primera con media µ1 y desviación
estándar 𝜎 1, y la segunda con media µ2 y desviación estándar 𝜎 2. Más aún, se elige una muestra
aleatoria de tamaño n1 de la primera población y una muestra independiente aleatoria de tamaño
n2 de la segunda población; se calcula la media muestral para cada muestra y la diferencia entre
dichas medias. La colección de todas esas diferencias se llama distribución muestral de las
diferencias entre medias o la distribución muestral del estadístico 𝑥1 − 𝑥2
Población 1 Población 2
Distribución muestral
de diferencia de
medias
Muestra
1
Muestra
K
Muestra
3
Muestra
2
Muestra
1
Muestra
K
Muestra
3
Muestra
2
𝑥11 − 𝑥21
𝑥12 − 𝑥22
𝑥1k − 𝑥2k
𝑥13 − 𝑥23
𝑥11
𝑥12
𝑥13
𝑥1k
𝑥21
𝑥23
𝑥22
𝑥2k
7. Muchas aplicaciones involucran poblaciones de datos cualitativos que deben compararse
utilizando proporciones o porcentajes. A continuación, se citan algunos ejemplos:
Educación. - ¿Es mayor la proporción de los estudiantes que aprueban matemáticas
que las de los que aprueban inglés?
Medicina. - ¿Es menor el porcentaje de los usuarios del medicamento A que presentan
una reacción adversa que el de los usuarios del fármaco B que también presentan una
reacción de ese tipo?
Administración. - ¿Hay diferencia entre los porcentajes de hombres y mujeres en
posiciones gerenciales?
Ingeniería. - ¿Existe diferencia entre la proporción de artículos defectuosos que genera
la máquina A los que genera la máquina B?
8. Muestra
1
Muestra
K
Muestra
3
Muestra
2
Muestra
1
Muestra
K
Muestra
3
Muestra
2
𝑝11 − 𝑝21
𝑝12
𝑝13
𝑝1k
𝑝23
𝑝22
𝑝2k
Cuando el muestreo procede de dos poblaciones binomiales y se trabaja con dos
proporciones muestrales, las distribución muestral de diferencia de porción es
aproximadamente normal para tamaños de muestra grande (n1p1 5, n1q1 5, n2p2 5 y
n2q2 5) entonces p1 t p2 tienen distribuciones muestrales aproximadamente normal.
Población 1 Población 2
Distribución muestral
de diferencia de
proporciones
𝑝12 − 𝑝22
𝑝13 − 𝑝23
𝑝1𝑘 − 𝑝2k
𝑝11 𝑝11
9. Cuando se estudió a la distribución muestral de proporciones se comprobó que:
𝑃 = 𝜇 𝑝 y que 𝜎 𝑃 =
Re
𝑛
por lo que no es difícil deducir que, 𝜇 𝑝1- 𝜇 𝑝2= 𝑃1-𝑃2 y que,
𝜎 𝑝1−𝑝2=
𝑃1𝑞1
𝑛1
+
𝑃2𝑞2
𝑛2
La fórmula que se utilizará para el calculo de probabilidad del estadístico de
diferencia de proporciones es:
𝑧 =
𝑝1 − 𝑝2 − 𝑃1 − 𝑃2
𝑝1 𝑞
𝑛1
+
𝑝2 𝑞2
𝑛2
10. Consiste en la estimación del valor del parámetro mediante un sólo valor, obtenido de una fórmula
determinada. Por ejemplo, si se pretende estimar la talla media de un determinado grupo de
individuos, puede extraerse una muestra y ofrecer como estimación puntual la talla media de los
individuos. Lo más importante de un estimador, es que sea un estimador eficiente. Es decir, que sea
insesgado(ausencia de sesgos) y estable en el muestreo o eficiente (varianza mínima) Estimación
puntual. Sea X una variable poblacional con distribución Fθ , siendo θ desconocido. El problema de
estimación puntual consiste en, seleccionada una muestra X1, ..., Xn, encontrar el estadístico T(X1, ...,
Xn) que mejor estime el parámetro θ. Una vez observada o realizada la muestra, con valores x1, ...,
xn, se obtiene la estimación puntual de θ, T(x1, ..., xn) = ˆ θ .
La estimación se divide en tres grandes bloques, cada uno de los cuales tiene distintos
métodos que se usan en función de las características y propósitos del estudio:
• Estimación puntual:
Método de los momentos;
Método de la máxima verosimilitud;
Método de los mínimos cuadrados;
• Estimación por intervalos.
• Estimación bayesiana.
11. Vemos a continuación dos métodos para obtener la estimación puntual de un parámetro: método
de los momentos y método de máxima verosimilitud. Método de los momentos: consiste en igualar
momentos poblacionales a momentos muestrales. Deberemos tener tantas igualdades como
parámetros a estimar. Momento poblacional de orden r αr = E(Xr) Momento muestral de orden r ar =
Xn i=1 Xr i n
Método de máxima verosimilitud: consiste en tomar como valor del parámetro aquel que
maximice la probabilidad de que ocurra la muestra observada. Si X1, ..., Xn es una muestra
seleccionada de una población con distribución Fθ o densidad fθ(x), la probabilidad de que ocurra una
realización x1, ..., xn viene dada por: Lθ(x1, ..., xn) = Yn i=1 fθ(xi).
A Lθ(x1, ..., xn) se le llama función de verosimilitud.(credibilidad de la muestra observada).
Buscamos entonces el valor de θ que maximice la función de verosimilud, y al valor obtenido se le
llama estimación por máxima verosimilitud de θ. Nota: si la variable X es discreta, en lugar de fθ(xi )
consideramos la función masa de probabilidad pθ(xi).
Ejemplo 7.1: Sea X → N(µ, σ), con µ desconocido. Seleccionada una m.a.s. X1, ..., Xn, con
realización x1, ..., xn, estimamos el parámetro µ por ambos métodos. Según el método de los
momentos: E(X) = Xn i=1 Xi n = − X, y al ser µ = E(X) se obtiene que ˆ µ = − x. Por el método de
máxima verosimilitud: Lµ(x1, ..., xn) = Yn i=1 fµ(xi ) = = Yn i=1 1 √ 2πσ e −(xi−µ) 2 2σ
Estimación por Intervalos de confianza 109 y maximizamos en µ tal función; en este caso resulta
más fácil maximizar su logaritmo: lnLµ(x1, ..., xn) = − 1 2σ 2 Xn i=1 (xi − µ) 2 − n ln( √ 2πσ) ∂ ∂µ
lnLµ(x1, ..., xn) = 1 σ 2 Xn i=1 (xi − µ) = n − x − nµ σ 2 = 0 ⇐⇒ ˆ µ = −
12. Consiste en la obtención de un intervalo dentro del cual estará el valor del parámetro estimado
con una cierta probabilidad. En la estimación por intervalos se usan los siguientes conceptos:
Intervalo de confianza: es una expresión del tipo [θ1, θ2] ó θ1 ≤ θ ≤ θ2, donde θ es el
parámetro a estimar. Este intervalo contiene al parámetro estimado con un determinado nivel de
confianza. Pero a veces puede cambiar este intervalo cuando la muestra no garantiza un
axioma o un equivalente circunstancial.
Variabilidad del parámetro: Si no se conoce, puede obtenerse una aproximación en los
datos aportados por la literatura científica o en un estudio piloto. También hay métodos para
calcular el tamaño de la muestra que prescinden de este aspecto. Habitualmente se usa como
medida de esta variabilidad la desviación típica poblacional y se denota σ.
Error de la estimación: Es una medida de su precisión que se corresponde con la amplitud
del intervalo de confianza. Cuanta más precisión se desee en la estimación de un parámetro,
más estrecho deberá ser el intervalo de confianza y, si se quiere mantener o disminuir el error,
más observaciones deberán incluirse en la muestra estudiada. En caso de no incluir nuevas
observaciones para la muestra, más error se comete al aumentar la precisión. Se suele
llamar E, según la fórmula E = (θ2 - θ1)/2.
13. Limite de confianza: Es la probabilidad de que el verdadero valor del parámetro estimado en la
población se sitúe en el intervalo de confianza obtenido. El nivel de confianza se denota por (1-
α), aunque habitualmente suele expresarse con un porcentaje ((1-α)·100%). Es habitual tomar
como nivel de confianza un 95% o un 99%, que se corresponden con valores α de 0,05 y 0,01
respectivamente.
Valor a: También llamado nivel de significación. Es la probabilidad (en tanto por uno) de fallar en
nuestra estimación, esto es, la diferencia entre la certeza (1) y el nivel de confianza (1-α). Por
ejemplo, en una estimación con un nivel de confianza del 95%, el valor α es (100-95)/100 = 0,05
Valor critico: Se representa por Zα/2. Es el valor de la abscisa en una determinada distribución
que deja a su derecha un área igual a α/2, siendo 1-α el nivel de confianza. Normalmente los
valores críticos están tabulados o pueden calcularse en función de la distribución de la población.
Por ejemplo, para una distribución normal, de media 0 y desviación típica 1, el valor crítico para α
= 0,1 se calcularía del siguiente modo: se busca en la tabla de la distribución ese valor (o el más
aproximado), bajo la columna "Área"; se observa que se corresponde con -1,28. Entonces Zα/2 =
1,64. Si la media o desviación típica de la distribución normal no coinciden con las de la tabla, se
puede realizar el cambio de variable t =(X-μ)/σ para su cálculo.
14. Confianza para la media poblacional con muestras grandes:
Sea 𝑥1 ⋅ … 𝑥 𝑛 una muestra aleatoria grande (n>30) de una población con media µ y
desviación estándar 𝜎, por lo que la media es aproximadamente normal. Entonces un
intervalo de confianza de 100(1-a)% para µ es 𝑥𝑧 𝑎/2 𝜎 𝑥
Confianza para la media poblacional con muestras pequeñas: sea 𝑥1 ⋅ … 𝑥 𝑛 una muestra
aleatoria normal con media µ. Entonces un intervalo de confianza de nivel 100(1-a)% para µ
es 𝑥 ± 𝑡 𝑛−1, 𝑎/2
S
𝑛
15. En estadística y probabilidad se llama distribución normal, distribución de Gauss, distribución
gaussiana o distribución de Laplace-Gauss, a una de las distribución de probabilidad de variable
continua que con más frecuencia aparece en estadística y en la teoría de probabilidades.
La grafica de su función de densidad tiene una forma acampanada y es simétrica respecto de
un determinado parámetros estadísticos. Esta curva se conoce como campana de gauss y es el
gráfico de una función gaussiana.
La importancia de esta distribución radica en que permite modelar numerosos fenómenos
naturales, sociales y psicológicos. Mientras que los mecanismos que subyacen a gran parte de este
tipo de fenómenos son desconocidos, por la enorme cantidad de variables incontrolables que en
ellos intervienen, el uso del modelo normal puede justificarse asumiendo que cada observación se
obtiene como la suma de unas pocas causas independientes.
La distribución normal fue reconocida por primera vez por el francés Abraham de Moivre (1667-
1754). Posteriormente, Carl Friedrich Gauss (1777-1855) elaboró desarrollos más profundos y
formuló la ecuación de la curva; de ahí que también se le conozca, más comúnmente, como la
"campana de Gauss"
16. Se dice que la v.a continua X es una v.a. normal con parámetros µ y σ ² si su función de
densidad es:
𝑓 𝑥 =
1
𝜎 2𝜋
ⅇ
𝑥−𝜇 2
2𝜎2
Se denota X~ N(µ,σ²) y se dice X se distribuye normal con parámetros µ.
Una distribución normal de media μ y desviación típica σ se designa por N(μ, σ). Su gráfica es
la campana de Gauss:
17. La función de distribución de la distribución normal está definida como sigue:
ɸ𝜇, 𝜎2 𝑥
=
−∞
𝑥
𝜑𝜇𝜎2
𝑢 ⅆ𝑢
=
1
𝜎 2𝜋 −∞
𝑥
ⅇ −
(𝑢−𝜇)2
2𝜎2 𝑑𝑢, 𝑥 ∈ ℝ
donde:
• 𝜇 es la media (también puede ser la mediana, la moda o el valor esperado, según
aplique)
• 𝜎 es la desviación estándar
• 𝜎2
es la varianza
• 𝜑representa la función de densidad de probabilidad
También podemos definir la normal a través de la función de densidad:
𝜙𝜇, 𝜎2 𝑥 =
1
𝜎 2
𝜖 −
𝑥 − 𝜇 2
2𝜎2 , 𝑥 ∈ ℝ
18. La función de distribución normal estándar es un caso especial de la función donde 𝜇 = 0 y 𝜎 = 1
ɸ(x)= ɸ0,1 𝑥 =
1
2𝜋 −∞
𝑥
𝑒 −
𝑢2
2
𝑑𝑢, 𝑥 ∈ ℝ
Esta función de distribución puede expresarse en términos de una función
especial llamada función error de la siguiente forma:
ɸ 𝑥 =
1
2
1 + ⅇ𝑟𝑓
𝑥
2
, 𝑥 ∈ ℝ
y la propia función de distribución puede, por consiguiente, expresarse así:
ɸ𝜇, 𝜎2
(x) =
1
2
1 + ⅇ𝑟𝑓
𝑥
2
, 𝑥 ∈ ℝ
19. Para grandes valores de x la función de distribución de la normal estándar, ɸ (x) es muy próxima a
1 y ɸ (-x) = 1 - ɸ (x) esta muy cerca de 0. los limites elementales:
𝑥
1 + 𝑥2
𝜑 𝑥 < 1 − ɸ 𝑥 <
𝜑 𝑥
𝑥
, x > 0,
en términos de la densidad 𝜑 son útiles.
Usando el cambio de variable v = 𝑢2
/2, el limite superior se obtiene de la siguiente manera:
1 − ɸ 𝑥 =
𝑥
∞
𝜑 u ⅆ𝑢
<
𝑥
∞
𝑢
𝑥
𝜑 𝑢 ⅆ𝑢 =
𝑥2/2
∞
e−𝑣
𝑥 2𝜋
=
e−𝑣
𝑥 2𝜋 𝑥2/2
∞
=
𝜑 𝑥
𝑥
.
20. De forma similar, usando 𝜑 u =-𝑢 𝜑 u y la regla del cociente,
1 +
1
𝑥2 1 − ɸ 𝑥 = 1 +
1
𝑥2
𝑥
∞
𝜑 𝑢 ⅆ𝑢
=
𝑥
∞
1 +
1
𝑥2 𝜑 𝑢 ⅆ𝑢
>
𝑥
∞
1 +
1
𝑢2 𝜑 𝑢 ⅆ𝑢 =
𝜑 𝑢
𝑢 𝑥
∞
=
𝜑 𝑥
𝑥
.
Resolviendo para 1- ɸ(x), proporciona el limite inferior.
21. Función generatriz de momentos
La función generatriz de momentos se define como la esperanzada de e(tX). Para una
distribución normal, la función generatriz de momentos es:
𝑀 𝑥 𝜏 = 𝐸 ⅇ+𝑥 =
−∞
∞
1
𝜎 2𝜋
ⅇ
−
𝑥−𝜇
2𝜎2
2
ⅇt𝑥 ⅆ𝑥 = ⅇ 𝑢t+
𝜎2 𝑡2
2
como puede comprobarse al completar e cuadro en el exponente.
Función característica
La función características se define como la esperanza de eitX, donde i es la unidad imaginaria.
De este modo, la función característica se obtiene reemplazando t por it en la función generatriz de
momentos. Para una distribución normal, la función característica es:
χx 𝑡; 𝜇, 𝜎 = 𝑀 × ⅈt = 𝐸 ⅇi𝑇𝑥
−∞
∞
1
𝜎 2𝜋
ⅇ
−
𝑥−𝜇 2
2𝜎2
ⅇi𝑡𝑥 ⅆ𝑥
= ⅇi𝑢𝑡 −
𝜎2 + 𝑡2
2
22. En probabilidad y estadística, la distribución t (de student) es una distribución de probabilidad que
surge del problema de estimar la media de una población normalmente distribuida cuando el tamaño
de la muestra es pequeña.
Aparece de manera natural al realizar la prueba t de student para la determinación de las diferencias
entre dos varianzas muestrales y para la construcción del intervalo de confianza para la diferencia
entre las partes de dos poblaciones cuando se desconoce la desviación típica de una población y esta
debe ser estimada a partir de los datos de una muestra.
Fue desarrollada por William Sealy Gosset , bajo el seudónimo student.
La distribución t de student es la distribución de probabilidad del cociente
𝑇 =
𝑧
𝑉 𝑣
= 2
𝑣
𝑉
23. Donde:
• Z es una variable aleatoria distribuida según una normal típica 8 de media nula y varianza 1).
• V es una variable continua que sigue una distribución 𝑥2
con v grados de libertad
• Z y V son independientes
Si μ es una constante no nula, el cociente
𝑧+𝜇
𝑉 𝑣
, es una variable aleatoria que sigue la distribución t de
Student no central con parámetro de no centralidad μ.
24. Supongamos que X1,..., Xn son variables aleatorias independientes distribuidas normalmente, con
media μ y varianza σ2. Sea la media muestral ∶
𝑥 𝑛 =
𝑥1 + ⋯ + 𝑥 𝑛
n
Entonces sigue una distribución normal de la media 0 y varianza 1.
𝑧 =
𝑥 𝑛−𝜇
𝜎 𝑛
Sin embargo, dado que la desviación estándar no siempre es conocida, Gosset estudio un
cociente relacionado, 𝑇 =
𝑥 𝑛−𝜇
𝑆 𝑛 𝑛
,
𝑠 𝑥
2
=
1
𝑛 − 1
𝑖=1
𝑛
𝑥1 − 𝑥 2
Es la cuasi varianza muestral y demostró que la función de densidad de t es:
𝑓 𝑡 =
𝛤 𝑣 + 1 2
𝑣𝛱𝛤 𝑣 2
1 + t2
𝑣
−(𝑣+1)/2
Donde v es igual a n-1.
25. El procedimiento para el cálculo del intervalo de confianza basado en la t de Student consiste en
estimar la desviación típica de los datos S y calcular el error estándar de la media: 𝑥 =
𝑠
𝑛
, siendo
entonces el intervalo de confianza para la media: 𝑥 = ±𝑡 𝑎,2𝑛−1
5
𝑛
.
Es el resultado el que se utiliza en el test de Student: puesto que la diferencia de las medias de
muestras de dos distribuciones normales se distribuye también normalmente, la distribución t puede
usarse para examinar si una diferencia puede razonablemente suponerse igual a cero.
Para efectos prácticos el valor esperado y la varianza son:
E(t(n))= 0 y Var (t(n-1))= n/(n-2) par n> 2
26. La distribución t puede generalizarse a 3 parámetros, introduciendo un parámetro locacional µ
y otro de escala 𝜎. El resultado es una distribución t de Student no estandarizada cuya densidad
esta definida por:
𝑝 𝑥 𝑣, 𝑢, 𝜎 =
𝛤
𝑟 + 1
2
𝛤
𝑣
2
𝜋𝑣𝜎
1 +
1
𝑣
𝑥 − 𝜇
𝜎
2 −
𝑣+1
2
Equivalentemente, puede escribirse en términos de 𝜎2
(correspondientemente a la varianza en
vez de a la desviación estándar):
𝑝 𝑥 𝑣, 𝜇, 𝜎2
=
𝛤
𝑣 + 1
2
𝛤
𝑣
2
𝛱𝑣𝑜2
1 +
1
𝑣
𝑥 − 𝜇
𝜎
2 −
𝑣+1
2
Otras propiedades de esta versión de la distribución t son:
𝐸 𝑥 = 𝜇, para 𝑣>1 ,
Var 𝑥 = 𝜎2 𝑣
𝑣−2
, para >2,
Moda 𝑥 = 𝜇
27. El tamaño de la muestra se le conoce como aquel número determinado de sujetos o
cosas que componen la muestra extraída de una población, necesarios para que los datos
obtenidos sean representativos de la población.
Estimar un parámetro determinado con el nivel de confianza deseado.
Detectar una determinada diferencia, si realmente existe, entre los grupos de estudio con
un mínimo de garantía.
Reducir costes o aumentar la rapidez del estudio.
Por ejemplo, en un estudio de investigación epidemiológico determinación de un tamaño
adecuado de la muestra tendría como objetivo su factibilidad. Así:
Si el número de sujetos es insuficiente habría que modificar los criterios de selección,
solicitar la colaboración de otros centros o ampliar el período de reclutamiento. Los estudios
con tamaños muestrales insuficientes, no son capaces de detectar diferencias entre grupos,
llegando a la conclusión errónea de que no existe tal diferencia.
Si el número de sujetos es excesivo, el estudio se encarece desde el punto de vista
económico y humano. Además es poco ético al someter a más individuos a una intervención
que puede ser menos eficaz o incluso perjudicial.
28. El tamaño de una muestra es el número de individuos que contiene.
Una fórmula muy extendida que orienta sobre el cálculo del tamaño de la muestra para
datos globales es la siguiente
𝑛 =
𝑧 𝑎
2 𝑁𝑝𝑞
ⅇ2 𝑁 − 1 + 𝑍 𝑞
2
𝑝𝑞
N: es el tamaño de la población o universo (número total de posibles encuestados).
Zα: es una constante que depende del nivel de confianza que asignemos. El nivel de
confianza indica la probabilidad de que los resultados de nuestra investigación sean ciertos: un
95,5 % de confianza es lo mismo que decir que nos podemos equivocar con una probabilidad del
4,5%. Los valores de Zα se obtienen de la tabla de la distribución normal estándar N(0,1).
Los valores de Zα más utilizados y sus niveles de confianza son:
29. Para esta presentación aprendimos la aplicación y manejo de las Distribuciones de
Probabilidades más comunes, la distribución normal, la de Poisson y la t de Student y
proporciones.
El muestreo Estadístico resulta beneficioso para implementarlo en la realización de un
estudio, debido a que mediante este se pueden obtener probabilidades bajas o altas a través
de determinados beneficios que estas técnicas ofrecen. En los diferentes tipos de muestreo
existen no probabilística en los cuales se deben establecer diferencia en el momento de
realizar nuestras investigaciones por tanto que en el no probabilística no toda la población
forma parte de la muestra y en el probabilística todos los individuos tienen probabilidad
positiva de formar parte de la muestra.