portafolio final manco 2 1816827 portafolio de evidencias
Primera actividad-estadistica-ii
1. Republica Bolivariana de Venezuela.
Ministerio del Poder Popular para la Educación Universitaria.
I.U.P “Santiago Mariño”.
Sede – Barcelona.
Estadística II.
Alumna:
María Jiménez
C.I: 26.237.474
Profesor:
Pedro Beltran
Barcelona, Abril de 2019
2.
La estadística es el estudio de los modos de recolectar y
analizar datos con el fin de establecer conclusiones
acerca del medio del cual se han obtenido los datos. En
esta presentación hablaremos sobre los distintos
métodos a utilizar para hacer mas efectivo el correcto
estudio de dicha ciencia.
Introducción
3.
Una variable aleatoria es una función que asigna un
valor, usualmente numérico, al resultado de
un experimento aleatorio.
Por ejemplo, los posibles resultados de tirar un dado
dos veces: (1, 1), (1, 2), etc. o un número real (p.e., la
temperatura máxima medida a lo largo del día en una
ciudad concreta).
Variables aleatorias
4.
Los valores posibles de una variable aleatoria pueden
representar los posibles resultados de un experimento aún
no realizado, o los posibles valores de una cantidad cuyo
valor actualmente existente es incierto (p.e., como resultado
de medición incompleta o imprecisa). Intuitivamente, una
variable aleatoria puede tomarse como una cantidad cuyo
valor no es fijo pero puede tomar diferentes valores;
una distribución de probabilidad se usa para describir la
probabilidad de que se den los diferentes valores. En
términos formales una variable aleatoria es una función
definida sobre un espacio de probabilidad.
Variables aleatorias
5.
Las variables aleatorias suelen tomar valores reales,
pero se pueden considerar valores aleatorios como
valores lógicos, funciones o cualquier tipo de elementos
(de un espacio medible).
El término elemento aleatorio se utiliza para englobar
todo ese tipo de conceptos relacionados.
Un concepto relacionado es el de proceso estocástico,
un conjunto de variables aleatorias ordenadas
(habitualmente por orden o tiempo).
Variables aleatorias
6.
Se denomina variable aleatoria discreta aquella que
sólo puede tomar un número finito de valores dentro
de un intervalo. Por ejemplo, el número de
componentes de una manada de lobos, puede ser 4 ó
5 ó 6 individuos pero nunca 5,75 ó 5,87. Otros
ejemplos de variable discreta serían el número de
pollos de gorrión que llegan a volar del nido o el sexo
de los componentes de un grupo familiar de
babuinos.
Variables aleatorias
discretas
7.
Ejemplo:
Obtener la función de probabilidad de la variable
"número de caras obtenidas al lanzar tres monedas“
Antes que nada, vamos al construir el espacio muestral
del experimento lanzar tres monedas. Éste sería:
E = {(c,c,c); (c,x,c); (x,c,c); (c,c,x); (c,x,x,); (x,c,x); (x,x,c);
(x,x,x)}
Si definimos X = nº de caras obtenidas, vemos que los
posibles valores son: 0, 1, 2 y 3; y la función de
probabilidad será:
Variables aleatorias
discretas
8.
Variables aleatorias
discretas
Como puedes observar en los dos ejemplos, la suma de todas las
probabilidades tiene que ser 1, pues estaríamos considerando el espacio
muestral completo.
9.
La ventaja de trabajar con variables aleatorias es que
podemos hacer cálculos que adquieren significado sobre el
comportamiento de la variable. En una variable aleatoria,
podemos calcular todos los parámetros que habíamos visto
en la estadística unidimensional: media, varianza moda,
mediana, percentiles, desviaciones, etc., aunque nosotros
vamos a centrarnos en las dos primeras, la media y la
varianza, (bueno o la desviación típica que era la raíz de la
varianza si recuerdas)
Parámetros de una variable
aleatoria
10.
Media:
La media de una variable aleatoria se llama esperanza
matemática, se representa por E(X) o por µ y viene a darnos
el "valor esperado" de la variable al realizar el experimento
aleatorio.
Varianza:
El significado es el mismo que en la estadística. Aporta una
medida sobre la dispersión de los valores de X. Para
calcularla usamos una de las dos fórmulas, aunque es más
aconsejable la segunda:
Parámetros de una variable
aleatoria
11. Puede tomar un valor fijo dentro de un intervalo determinado. Y
siempre entre dos valores observables va a existir un tercer valor
intermedio que también podría tomar la variable continua. Una
variable continua toma valores a lo largo de un continuo, esto es, en
todo un intervalo de valores.
Un atributo esencial de una variable continua es que, a diferencia de
una variable discreta, nunca puede ser medida con exactitud; el valor
observado depende en gran medida de la precisión de los instrumentos
de medición. Con una variable continua hay inevitablemente un error
de medida. Como ejemplo, la estatura de una persona (1.72m, 1.719m,
1.7186m....). Otro ejemplo, puede ser el tiempo que toma un atleta en
recorrer 100 metros planos, ya que este tiempo puede tomar valores
como 9,623 segundos; 10,456485 segundos; 12,456412 segundos; es
decir, un intervalo de valores.
Variables aleatorias
continuas
12.
Si X es una variable aleatoria, entonces para cualquier
número real x0, existe la probabilidad del
evento (X toma cualquier valor menor o igual a x0).
La probabilidad que depende de la elección de x0 es la
probabilidad acumulada hasta x0 que es la función
distribución o distribución acumulada y se denota
por F(x0).
F(x0) =
Función de distribución de
probabilidades acumuladas
13.
Ejemplo:
Encuentre los valores de la función distribución
acumulada F(X) de la variable aleatoria X descrita en el
ejemplo
Función de distribución de
probabilidades acumuladas
X f(X) F(X)
2 1/36 1/36
3 2/36 3/36
4 3/36 6/36
5 4/36 10/36
6 5/36 15/36
14.
7 6/36 21/36
8 5/36 26/36
9 4/36 30/36
10 3/36 33/36
11 2/36 35/36
12 1/36 36/36
Función de distribución de
probabilidades acumuladas
Obsérvese que F(X=5) = f(X=2) + f(X=3) + f(X=4) + f(X=5) =
La gráfica de la función distribución acumulada de una
variable discreta es siempre una gráfica escalonada.
15.
La esperanza matemática o valor esperado de una
variable aleatoria discreta es la suma del producto de la
probabilidad de cada suceso por el valor de dicho
suceso.
Los nombres de esperanza matemática y valor
esperado tienen su origen en los juegos de azar y hacen
referencia a la ganancia promedio esperada por un
jugador cuando hace un gran número de apuestas.
Si la esperanza matemática es cero, E(x) = 0,
el juego es equitativo, es decir, no existe ventaja ni para
el jugador ni para la banca.
Esperanza Matemática
16.
Ejemplo
Si una persona compra una papeleta en una rifa, en la
que puede ganar de 5.000 € ó un segundo premio de
2000 € con probabilidades de: 0.001 y 0.003.
¿Cuál sería el precio justo a pagar por la papeleta?
E(x) = 5000 · 0.001 + 2000 · 0.003 = 11 €
Esperanza Matemática
17.
La varianza mide la dispersión dentro de un conjunto
de datos. Si el valor de la varianza es pequeño, significa
que los valores del conjunto están bastante agrupados.
Si por el contrario, el resultado de la varianza es mayor,
quiere decir que los elementos dentro del conjunto que
se analiza están dispersos.
La varianza se representa con la letra griega Sigma (σ)
elevada al cuadrado, o sea (σ²)
Varianza
18.
Una cuestión que se podría plantear, y con razón, sería la
diferencia entre varianza y desviación típica. En realidad,
vienen a medir lo mismo. La varianza es la desviación
típica elevada al cuadrado. O al revés, la desviación típica
es la raíz cuadrada de la varianza.
La desviación típica se hace para poder trabajar en las
unidades de medida iniciales. Claro que, como es normal,
uno puede preguntarse, ¿de qué sirve tener como concepto
la varianza? Bien, aunque la interpretación del valor que
arroja no nos da demasiada información, su cálculo es
necesario para obtener el valor de otros parámetros.
¿Qué diferencia existe entre la
varianza y la desviación típica?
19.
La desviación estándar (o desviación típica) es una medida
de dispersión para variables de razón (ratio o cociente) y de
intervalo, de gran utilidad en la estadística descriptiva. Es
una medida (cuadrática) de lo que se apartan los datos de
su media, y por tanto, se mide en las mismas unidades que
la variable.
Para conocer con detalle un conjunto de datos, no basta con
conocer las medidas de tendencia central, sino que
necesitamos conocer también la desviación que representan
los datos en su distribución, con objeto de tener una visión
de los mismos más acorde con la realidad a la hora de
describirlos e interpretarlos para la toma de decisiones.
Desviación estándar
20.
Aunque ambas son medidas de dispersión y sus definiciones son
similares, existen varios aspectos que nos ayudarán a distinguir la
varianza de la desviación estándar.
Es importante destacar que la desviación típica mide la dispersión de
un conjunto de datos, mientras que la varianza mide la variabilidad
de esta dispersión.
A continuación le enumeramos tres formas rápidas para identificar
cuando estamos en presencia de uno u otro indicador. La varianza
se mide en unidades al cuadrado y por tanto su resultado
siempre tendrá valor positivo.
El valor mínimo que alcanza la varianza es = 0 La varianza no es
más que la desviación típica elevada al cuadrado, y por tanto, la
desviación típica se resume como la raíz cuadrada de la varianza.
¿Cómo distinguir la varianza
de la desviación estándar?
21.
Se define la función generadora de momentos o función
generatriz Фx(t) de una variable aleatoria X como la
esperanza de e elevado al producto t∙x, donde t puede
ser cualquier número real siempre y cuando la función
obtenida sea derivable.
Dependiendo del carácter de la función (discreta o
continua) la función generatriz se obtendrán por medio
de un sumatorio o de una integral:
Función generadora de
momentos
22.
El nombre de la función se debe a la estrecha relación que
existe entre ella y los momentos de la variable aleatoria X.
Ya que los momentos de orden n pueden ser obtenidos
haciendo la derivada n-ésima de la función y sustituyendo
el valor de t=0, tal como se enuncia en el siguiente teorema:
Teorema: Dada una variable aleatoria X, de la cual
podemos calcular su función generatriz, Фx(t), entonces se
cumple que
Función generadora de
momentos
23.
Ecuación de Bernoulli. El principio de Bernoulli, también denominado
ecuación de Bernoulli o Trinomio de Bernoulli, describe el comportamiento de
un fluido moviéndose a lo largo de una línea de corriente. Fue expuesto
por Daniel Bernoulli en su obra Hidrodinámica (1738) y expresa que en un
fluido ideal (sin viscosidad ni rozamiento) en régimen de circulación por un
conducto cerrado, la energía que posee el fluido permanece constante a lo largo
de su recorrido. La energía de un fluido en cualquier momento consta de tres
componentes:
Cinética: es la energía debida a la velocidad que posea el fluido.
Potencial gravitacional: es la energía debido a la altitud que un fluido
posea.
Energía de flujo: es la energía que un fluido contiene debido a la presión
que posee.
Discretas de probabilidad
Bernoulli
24.
Es una distribución de probabilidad discreta que describe
el número de éxitos al realizar n experimentos
independientes entre sí, acerca de una variable aleatoria.
Existen una gran diversidad de experimentos o sucesos que
pueden ser caracterizados bajo esta distribución de
probabilidad. Imaginemos el lanzamiento de una moneda
en el que definimos el suceso “sacar cara” como el éxito. Si
lanzamos 5 veces la moneda y contamos los éxitos (sacar
cara) que obtenemos, nuestra distribución de
probabilidades se ajustaría a una distribución binomial.
Binomial
25.
Esta distribución es un caso especial de la Binomial, ya que se desea
que ocurra un éxito por primera y única vez en el último ensayo que se
realiza del experimento, para obtener la fórmula de esta distribución,
haremos uso de un ejemplo.
Es cualquiera de las dos distribuciones de probabilidad discretas
siguientes:
La distribución de probabilidad del número X del ensayo de
Bernoulli necesaria para obtener un éxito, contenido en el conjunto { 1,
2, 3,...} o
La distribución de probabilidad del número Y = X − 1 de fallos antes
del primer éxito, contenido en el conjunto { 0, 1, 2, 3,... }.
Geométrica
26.
Puede definirse como una generalización del modelo
Geométrico o de Pascal. Así, dado un suceso A y su
complementario Ac, cuando X representa el número de
veces que se da Ac(ausencias, fallos, etc.) hasta que se
produce r veces el suceso A, en una serie de
repeticiones de la experiencia aleatoria en condiciones
independientes, decimos que X sigue la distribución
Binomial negativa. Nótese que, cuando r = 1, tenemos
exactamente el modelo geométrico.
Binomial negativa
27.
En teoría de probabilidad, la distribución multinomial es una
generalización de la Distribución Binomial. En una distribución
multinomial, el análogo a la distribución de Bernoulli es la
distribución categórica, donde cada suceso concluye en únicamente
un resultado de un número finito K de los posibles, con
probabilidades
tal que...
(Pi≥0 para i entre 1 y K y ∑k
i=1 Pi=1); y con n sucesos
independientes.
Entonces sea la variable aleatoria, que indica el número de veces
que se ha dado el resultado i sobre los n sucesos. El vector
x=(x1,...,xk) sigue una distribución multinomial con parámetros n y
p, donde p=(p1,..., pk).
Multinomial
28.
En teoría de probabilidad y estadística, la distribución de
Poisson es una distribución de probabilidad discreta que
expresa, a partir de una frecuencia de ocurrencia media, la
probabilidad de que ocurra un determinado número de
eventos durante cierto período de tiempo. Concretamente,
se especializa en la probabilidad de ocurrencia de sucesos
con probabilidades muy pequeñas, o sucesos "raros".
Poissson
29.
Es una distribución discreta que modela el número de
eventos en una muestra de tamaño fijo cuando usted
conoce el número total de elementos en la población de la
cual proviene la muestra. Cada elemento de la muestra
tiene dos resultados posibles (es un evento o un no evento).
Las muestras no tienen reemplazo, por lo que cada
elemento de la muestra es diferente. Cuando se elige un
elemento de la población, no se puede volver a elegir. Por
lo tanto, la probabilidad de que un elemento sea
seleccionado aumenta con cada ensayo, presuponiendo que
aún no haya sido seleccionado.
Hipergeometrica
30.
En teoría de probabilidad y estadística, la distribución
uniforme continua es una familia de distribuciones de
probabilidad para variables aleatorias continuas, tales
que para cada miembro de la familia, todos
los intervalos de igual longitud en la distribución en su
rango son igualmente probables. El dominio está
definido por dos parámetros, ay b, que son sus valores
mínimo y máximo.
Continuas de probabilidades
uniforme
31.
Mientras que la distribución de Poisson describe las llegadas por
unidad de tiempo, la distribución exponencial estudia el tiempo
entre cada una de estas llegadas. Si las llegadas son de Poisson el
tiempo entre estas llegadas es exponencial.
Mientras que la distribución de Poisson es discreta la
distribución exponencial es continua porque el tiempo entre
llegadas no tiene que ser un número entero. Esta distribución se
utiliza mucho para describir el tiempo entre eventos.
Más específicamente la variable aleatoria que representa al
tiempo necesario para servir a la llegada.
Exponencial
32.
Es una distribución de probabilidad continua adecuada
para modelizar el comportamiento de variables
aleatorias con asimetría positiva y/o los experimentos
en donde está involucrado el tiempo.
Este modelo es una generalización del modelo
Exponencial ya que, en ocasiones, se utiliza para
modelar variables que describen el tiempo hasta que se
produce p veces un determinado suceso.
Gamma
33.
La distribución beta es una distribución continua definida
por dos parámetros de forma. La distribución puede
adoptar diferentes formas dependiendo de los valores de
los dos parámetros.
La distribución beta es posible para una variable aleatoria
continua que toma valores en el intervalo [0,1], lo que la
hace muy apropiada para modelar proporciones. En la
inferencia bayesiana, por ejemplo, es muy utilizada como
distribución a priori cuando las observaciones tienen una
distribución binomial.
Beta
34.
Es una distribución de probabilidad continua.
Recibe su nombre de Waloddi Weibull, que la describió
detalladamente en 1951, aunque fue descubierta
inicialmente por Fréchet (1927) y aplicada por primera
vez por Rosin y Rammler (1933) para describir la
distribución de los tamaños de determinadas partículas.
Weibull
35.
En los distintos tipos de métodos que encontramos
disponibles a lo largo de esta presentación podemos
apreciar los principales y más conocidos, que son
utilizados por los usuarios y las personas con el fin de
resolver enigmas sobre estadística en general
Desde la varianza hasta las distribuciones de diferentes
tipos (discretas de probabilidad y continuas de
probabilidad) hemos aprendido conceptos básicos y
algunos ejemplos al respecto.
Conclusión