2. INDICE
2.1 Estadística descriptiva
2.1.1. Medidas de tendencia central
2.2.2. Medidas de dispersión o variabilidad
2.2.3. Histograma y tabla de frecuencias
2.2 Probabilidad
2.2.1 Conceptos de probabilidad
2.2.2 Distribuciones discretas
2.2.3 Distribución normal
2.2.4 Verificación de normalidad
4. La estadística descriptiva es una rama de la
estadística que se centra en la recopilación,
organización, resumen y presentación de datos de
manera que se pueda comprender fácilmente.
Su objetivo principal es describir las características
principales de un conjunto de datos,
proporcionando medidas que resumen las
propiedades importantes de los datos.
2.1 Estadística descriptiva
5. Las medidas de tendencia central son estadísticas que
proporcionan un valor representativo o central de un
conjunto de datos. Las tres medidas de tendencia central
más comunes son la media, la mediana y la moda:
2.1.1 Medidas de Tendencia
Central
6.
7. 1. Media: La media es el promedio aritmético de un
conjunto de datos. Se calcula sumando todos los
valores y dividiendo el resultado por el número total de
observaciones. La fórmula matemática para la media (x)
se expresa como:
8.
9.
10. 2. Mediana: La mediana es el valor que se
encuentra en el centro de un conjunto de datos
ordenado.
Para calcular la mediana, los datos deben estar
ordenados de manera ascendente o descendente. Si
hay un número impar de observaciones, la mediana
es el valor en la posición central.
Si hay un número par de observaciones, la mediana
es el promedio de los dos valores centrales.
12. 3. Moda: La moda es el valor que ocurre con mayor
frecuencia en un conjunto de datos.
Puede haber una moda (unimodal) si un solo valor es
el más frecuente, o múltiples modas (multimodal)
Si hay más de un valor que se repite con la misma
frecuencia máxima.
13.
14. Estas medidas de tendencia central proporcionan una
descripción resumida de la ubicación típica de los
datos.
La elección de la medida adecuada depende de la
naturaleza de los datos y el propósito del análisis.
La media es sensible a valores atípicos, mientras que
la mediana es más resistente a ellos.
La moda es útil para identificar valores frecuentes, pero
no es tan informativa en conjuntos de datos donde
todos o muchos valores son únicos.
Es importante seleccionar la medida de tendencia
central que mejor se adapte a la distribución de los
datos y a los objetivos del análisis estadístico.
En Síntesis:
15. 2.2.2 Medidas de dispersión o
variabilidad
Las medidas de dispersión o variabilidad en
estadística describen la extensión o distribución de
un conjunto de datos.
Estas medidas indican cuánto se desvían los valores
individuales del centro de la distribución.
Algunas de las medidas de dispersión más comunes
son:
16. 1. Rango: El rango es la diferencia entre el valor
máximo y el valor mínimo en un conjunto de datos.
Es una medida simple de dispersión que proporciona
información sobre la amplitud total de los datos.
Rango = Valor Máximo−Valor Mínimo
2. Desviación media absoluta (MAD): La desviación
media absoluta mide el promedio de las distancias
absolutas entre cada valor y la media del conjunto
de datos. Se calcula mediante la siguiente fórmula:
17. donde n es el número de observaciones, xi es cada valor
individual y X es la media.
3. Varianza: La varianza es la media de los cuadrados de
las desviaciones individuales con respecto a la media.
Puedes encontrar dos versiones de la varianza: la
varianza poblacional y la varianza muestral. La
diferencia principal radica en el denominador (si es n o
n−1).
Se expresa mediante la siguiente fórmula:
18.
19. 4. Desviación estándar: La desviación estándar es
simplemente la raíz cuadrada de la varianza.
Proporciona una medida de dispersión en las mismas
unidades que los datos originales y es más
interpretable que la varianza.
20. Estas medidas de dispersión son esenciales para
comprender la variabilidad de los datos.
Mientras que la varianza y la desviación estándar son
más sensibles a los valores atípicos, la desviación
media absoluta y el rango son más robustos en ese
sentido.
La elección de la medida de dispersión adecuada
depende de la naturaleza de los datos y los objetivos
del análisis.
En resúmen:
33. 2.2.3. Histogramas y Tablas de frecuencias
Un histograma y una tabla de frecuencias son
herramientas utilizadas en estadísticas para
organizar y presentar datos de manera visual y
tabular. Ambos son útiles para entender la
distribución de un conjunto de datos
Tabla de Frecuencias:
Una tabla de frecuencias es una forma
organizada de presentar datos que muestra la
frecuencia de cada valor en un conjunto de
datos. Aquí hay un ejemplo de cómo se vería una
tabla de frecuencias:
34. Valor Frecuencia
10 3
15 7
20 5
25 2
TABLA DE FRECUENCIAS
En este ejemplo, la columna
"Valor" representa los
diferentes valores presentes en
el conjunto de datos, y la
columna "Frecuencia" muestra
cuántas veces aparece cada
valor.
Histograma:
Un histograma es un gráfico de
barras que muestra la
distribución de un conjunto de
datos. Se utiliza para
representar la frecuencia de
cada valor o rango de valores
en un conjunto de datos
continuo. Aquí hay un ejemplo
de cómo se vería un histograma
35. En este histograma, el eje horizontal representa los
diferentes rangos de valores, y el eje vertical
representa la frecuencia de esos rangos. Cada barra en
el histograma representa la frecuencia de un rango
específico de valores.
Para crear un histograma, sigue estos pasos:
1. Selecciona un rango para tus datos (por ejemplo, 0-10,
10-20, etc.).
2. Cuenta cuántas observaciones caen en cada rango.
3. Dibuja una barra para cada rango, donde la altura de la
barra representa la frecuencia.
Tanto la tabla de frecuencias como el histograma son útiles
para visualizar y entender la distribución de datos, lo que
puede ayudar en el análisis estadístico y la toma de
decisiones.
36.
37.
38.
39. 2.2. Probabilidad
2.2.1. Conceptos de Probabilidad
La probabilidad es una rama de las matemáticas que
se ocupa de medir la certeza o posibilidad de que
ocurra un evento. Aquí tienes algunos conceptos clave
relacionados con la probabilidad
1.Espacio Muestral (S): Es el conjunto de todos los
posibles resultados de un experimento aleatorio.
Cada elemento del espacio muestral se llama punto
muestral.
2.Evento (E): Es un subconjunto del espacio
muestral, es decir, un conjunto de posibles
resultados. Un evento puede consistir en un solo punto
muestral o en varios.
40. 3. Regla de la Suma (o Regla de la Adición): Si A y B
son dos eventos mutuamente excluyentes (no
pueden ocurrir al mismo tiempo), entonces la
probabilidad de que ocurra A o B es la suma de las
probabilidades individuales: P(A o B) = P(A) + P(B).
4. Probabilidad Condicional: La probabilidad de que
ocurra un evento A dado que ha ocurrido otro
evento B se denota como P(A|B) y se calcula como el
cociente de la probabilidad conjunta de A y B dividida
por la probabilidad de B: P(A|B) = P(A y B) / P(B).
5. Independencia de Eventos: Dos eventos A y B son
independientes si la ocurrencia (o no ocurrencia) de
uno no afecta la probabilidad del otro. En términos
matemáticos, P(A y B) = P(A) * P(B).
41. 6. Regla del Producto: Para dos eventos A y B
cualesquiera, la probabilidad de que ambos eventos
ocurran es el producto de sus probabilidades
individuales: P(A y B) = P(A) * P(B|A).
7. Complemento de un Evento: El complemento de un
evento A, denotado como A', es el conjunto de todos
los resultados en el espacio muestral que no
pertenecen a A. La probabilidad del complemento es
P(A') = 1 - P(A).
8. Variable Aleatoria: Es una función que asigna un
valor numérico a cada resultado en el espacio
muestral. Puede ser discreta (como contar el número de
caras en el lanzamiento de un dado) o continua (como
medir la altura de una persona).
42. 9. Independencia de Eventos: Dos eventos A y B son
independientes si la ocurrencia (o no ocurrencia) de
uno no afecta la probabilidad del otro. En términos
matemáticos, P(A y B) = P(A) * P(B).
Estos conceptos son fundamentales para
comprender y trabajar con la teoría de la
probabilidad,
Tiene aplicaciones en diversos campos, como la
estadística, la teoría de juegos, la toma de
decisiones y la inteligencia artificial.
43. 2.2.2. Distribuciones Discretas
En estadísticas y teoría de probabilidad, las
distribuciones discretas modelan variables
aleatorias que toman valores individuales y aislados.
Algunas distribuciones discretas comunes:
44.
45. Estas distribuciones discretas son fundamentales en
estadísticas y tienen aplicaciones en diversos campos
como la biología, la ingeniería, la economía y la ciencia
de la computación, entre otros. Cada una se utiliza para
modelar situaciones específicas en las que se presentan
variables aleatorias discretas.
46. 2.2.3. Distribución Normal
La distribución normal,
también conocida como la
distribución de Gauss o
campana de Gauss, es una
de las distribuciones
estadísticas más importantes
en la teoría de probabilidad y
estadísticas.
Es una distribución continua
que se caracteriza por su
forma de campana simétrica
alrededor de su media y está
completamente definida por
dos parámetros: la media (μ)
y la desviación estándar (σ).
47. La función de densidad de probabilidad (pdf) de una
distribución normal está dada por la fórmula:
donde:
x es la variable aleatoria.
μ es la media de la distribución.
σ es la desviación estándar.
La distribución normal es completamente simétrica
alrededor de su media, lo que significa que la mitad de
la distribución está a cada lado de la media. La curva
de la distribución normal se extiende hacia infinito en
ambas direcciones, pero a medida que te alejas de la
media, la probabilidad de observar valores disminuye
rápidamente.
48. La distribución normal es
fundamental en
estadísticas y se utiliza en
numerosos campos,
desde la física y la
ingeniería hasta la
biología y las ciencias
sociales. Esto se debe en
parte al teorema del límite
central, que establece que
la suma o el promedio de
un gran número de
variables aleatorias
independientes e
idénticamente distribuidas,
49. independientemente de su distribución original, seguirá
una distribución normal a medida que el tamaño de la
muestra aumenta
Muchos métodos estadísticos y pruebas de hipótesis
asumen que los datos siguen una distribución normal, lo
que justifica la importancia de esta distribución en la
teoría estadística.
La verificación de la normalidad de un conjunto de datos
es fundamental antes de aplicar ciertos métodos
estadísticos que asumen una distribución normal.
Aquí hay algunas técnicas comunes para verificar la
normalidad:
2.2.4. Verificación de Normalidad
50. 1.Histogramas:
Visualmente inspeccionar un histograma de los
datos puede proporcionar una indicación inicial de la
forma de la distribución. Una distribución normal tendrá
una forma de campana.
2.Gráfico de Probabilidad Normal (Q-Q plot):
Un gráfico Q-Q compara los cuantiles observados de
los datos con los cuantiles teóricos de una
distribución normal. Si los puntos en el gráfico están
aproximadamente en una línea recta, esto sugiere que
los datos se ajustan a una distribución normal
51. 3. Estadísticas descriptivas:
Calcular estadísticas descriptivas como la asimetría y
la curtosis puede ofrecer indicios sobre la forma de la
distribución. En una distribución normal, la asimetría es
cercana a cero y la curtosis es cercana a 3.
Es importante señalar que ninguna de estas técnicas es
definitiva, y a veces es necesario utilizar múltiples
métodos para obtener una evaluación más completa.
En conjuntos de datos grandes, las pruebas de
normalidad pueden ser sensibles y detectar desviaciones
de la normalidad que pueden no tener un impacto
práctico significativo.
En tales casos, la interpretación y el juicio también son
importantes
En Síntesis:
52.
53. EVALUACIÓN PARCIAL UNIDAD N° 2
CONTROL DE CALIDAD
FECHA: 09/03/2024
1) Defina y explique Medidas de Tendencia Central
2) Cuáles son las medidas de Dispersión o Variabilidad
3) Explique cuales son las Tablas de frecuencia y para
que sirven
4) Explique o dé un ejemplo de lo que es una la
Mediana
Pregunta opcional:
¿Explique lo que es el Rango?