Este documento presenta una introducción a las variables aleatorias discretas y continuas. Explica conceptos clave como espacio muestral, modelo de probabilidad, función de distribución, esperanza matemática y varianza. También define variables aleatorias discretas y continuas, y describe procesos de Bernoulli y cómo calcular la esperanza matemática, varianza y desviación estándar.
1. República Bolivariana de Venezuela
Instituto Universitario Politécnico Santiago Mariño
Escuela de Ingeniería Industrial
Sede Barcelona
Variables aleatorias discretas y continuas
Estadística II (S1)
Profesor: Pedro Beltrán
Estudiante:
Leonardo Otamendy
CI: 25.389.766
2. Introducción
Al definir un experimento hay que fijar sus condiciones de experimentación, de forma que si obtenemos un nuevo
dato manteniendo constantes dichas condiciones, estaremos repitiendo el mismo experimento. Cuando las condiciones
de experimentación no engloban a todos los factores que influyen en la variable de interés, las repeticiones del
experimento podrán dar lugar a valores diferentes. Esta posible variabilidad en el resultado es debida a la influencia de
esos factores que no mantenemos constantes. Por contra, el resultado de un experimento determinista es una
constante, y por tanto perfectamente predecible. Llamaremos variable aleatoria al resultado de un experimento
aleatorio. Por ejemplo, el resultado de lanzar un dado es una variable aleatoria, o el resultado de medir el tiempo que un
ordenador tarda en acceder a una red, etc. Según esta definición, una variable aleatoria no tendrá, en general, siempre
el mismo valor. Depende de cómo influya el azar en cada una de las repeticiones del experimento. Para que una
variable aleatoria esté bien definida, necesitamos conocer dos elementos fundamentales:
•El espacio muestral, que consiste en la unión de todos los sucesos elementales; es decir, de todos los resultados
observables posibles.
•Una regla de asignación de probabilidades para los distintos sucesos en que estemos interesados. A esta regla de
asignación se le suele denominar modelo de probabilidad.
3. Por ejemplo, el resultado de lanzar una moneda es una variable aleatoria; su espacio muestral es {cara,cruz}, y el
modelo de probabilidad que establece la probabilidad de cada uno de esos dos resultados es P(cara)=P(cruz)=0.5. Una
variable aleatoria es pues algo abstracto, matemático. Al valor observado de una variable aleatoria al ejecutar el
experimento se le llama realización. Por ejemplo, si lanzamos una moneda cinco veces obtendremos cinco realizaciones
de la variable aleatoria. Por ejemplo, podríamos haber obtenido (cara, cara, cruz, cara, cruz, cara). Es importante notar
que la proporción observada de cada resultado en una muestra concreta de resultados no tiene por qué coincidir con la
probabilidad de cada uno de ellos, pues la probabilidad es la frecuencia relativa si se repite el experimento
indefinidamente.
Se denomina población de valores de una variable aleatoria al conjunto de realizaciones que se obtendrían de repetir el
experimento todas las veces posibles. Se puede decir entonces que las características de la población son las de la
variable aleatoria que la genera. En este tema aprenderemos a manejar los modelos de probabilidad que describen los
posibles resultados de una variable aleatoria, asignando probabilidades a los difererentes sucesos que nos interesen. En
este tema trataremos los modelos de probabilidad a nivel muy general, analizando sus características generales y viendo
cómo extraer información (probabilidades) de ellos. En el tema siguiente, mostraremos un pequeño catálogo de modelos
de probabilidad que se utilizan con mucha frecuencia en el campo de la ingeniería. En temas posteriores, aprenderemos a
seleccionar, a partir del análisis de un conjunto de datos, un modelo de probabilidad concreto que ayude a describir un
problema real. Las variables aleatorias que estudiaremos en este tema serán cuantitativas, y las clasificaremos en
discretas o continuas.
4. Variables aleatorias
Variables aleatorias discretas
Diremos que una variable aleatoria es discreta si su recorrido es finito o infinito numerable. Generalmente, este
tipo de variables van asociadas a experimentos en los cuales se cuenta el número de veces que se ha presentado
un suceso o donde el resultado es una puntuación concreta.
Variables aleatorias continuas
Son aquellas en las que la función de distribución es una función continua. Generalmente, se corresponden
con variables asociadas a experimentos en los cuales la variable medida puede tomar cualquier valor en un
intervalo; mediciones biométricas, por ejemplo. Un caso particular dentro de las variables aleatorias continuas y al
cual pertenecen todos los ejemplos usualmente utilizados, son las denominadas variables aleatorias
absolutamente continuas.
5. Función de distribución (acumulada)
La función de distribución (acumulada) de una variable aleatoria X, evaluada en x, es la probabilidad de
que X tome un valor menor o igual que x. La palabra 'acumulada' es redundante y se puede omitir. F (x) = P (X ≤ x)
En el caso de que la distribución sea continua (como en las distribuciones normales) es el área bajo la función de
densidad (la 'campana' que, a veces, llamamos 'campana de Gauss') desde menos infinito hasta x. La zona
señalada en azul en la curva representa la probabilidad de que X sea menor o igual que x.
La esperanza matemática de una variable aleatoria X es el número que expresa el valor medio del fenómeno
que representa dicha variable
La esperanza matemática, también llamada valor esperado, es igual al sumatorio de las probabilidades de que
exista un suceso aleatorio, multiplicado por el valor del suceso aleatorio. O, dicho de otra forma, el valor medio de un
conjunto de datos. Teniendo en cuenta, eso sí, que el término esperanza matemática está acuñado por la teoría de
la probabilidad. Mientras que en matemáticas, se denomina media matemática al valor promedio de un suceso que
ha ocurrido. En distribuciones discretas con la misma probabilidad en cada suceso la media aritmética es igual que
la esperanza matemática.
6. Esperanza matemática: ejemplo.
Vamos a ver un ejemplo sencillo para entenderlo. Imaginemos una moneda. Dos caras, cara y cruz.
¿Cual sería la esperanza matemática (valor esperado) de que salga cara? La esperanza matemática se
calcularía como la probabilidad de que, tirando la moneda un número muy muy grande de veces, salga
cara. Dado que la moneda solo puede caer en una de esas dos posiciones y ambas tienen la misma
probabilidad de salir, diremos que la esperanza matemática de que salga cara es una de cada dos, o lo que
es lo mismo, el 50% de las veces.
Vamos a hacer una prueba y vamos a tirar una moneda 10 veces. Supongamos que la moneda es perfecta:
Tirada 1: C. Tirada 2: X. Tirada 3: X. Tirada 4: C. Tirada 5: X.
Tirada 6: C. Tirada 7: C. Tirada 8: C. Tirada 9: X. Tirada 10: X.
¿Cuantas veces ha salido cara (contamos las C)? 5 veces ¿Cuantas veces ha salido cruz (contamos las
X)? 5 veces. La probabilidad de que salga cara será de 5/10=0,5 o en porcentaje del 50%. Una vez ha
ocurrido ese suceso podemos calcular la media matemática del número de veces que ha ocurrido cada
suceso. El lado cara ha salido una de cada dos veces, es decir, un 50% de las veces. La media coincide
con la esperanza matemática.
7. Cálculo de la esperanza matemática
La esperanza matemática se calcula utilizando la probabilidad de cada suceso. Dónde x es el valor del suceso,
P la probabilidad de que ocurra, i el periodo en el que se da dicho suceso y N el número total de periodos u
observaciones. No siempre la probabilidad de que ocurra un suceso es la misma, como con las monedas. Existen
infinidad de casos en que un suceso tiene más probabilidad de salir que otro. Por eso utilizamos en la fórmula la P.
Además, al calcular número matemáticos debemos multiplicar por el valor del suceso.
¿Para qué se utiliza la esperanza matemática?
La esperanza matemática se utiliza en todas aquellas disciplinas en las que la presencia de sucesos probabilísticos
es inherente a las mismas. Disciplinas tales como, la estadística teórica, la física cuántica, la econometría, la biología o
los mercados financieros. Una gran cantidad de procesos y sucesos que ocurren en el mundo son inexactos. Un
ejemplo claro y fácil de entender, es el de la bolsa de valores.
En la bolsa de valores, todo se calcula en base a valores esperados. ¿Por qué valores esperados? Porque es lo
que esperamos que suceda, pero no podemos confirmarlo. Todo se basa en probabilidades, no en certezas. Si el valor
esperado o esperanza matemática de la rentabilidad de un activo es de un 10% anual, querrá decir que según la
información que tenemos del pasado, lo más probable es que la rentabilidad vuelva a ser de un 10%. Si solo tenemos
en cuenta, claro está, la esperanza matemática como método para tomar nuestras decisiones de inversión.
8. Dentro de las teorías sobre mercados financieros, muchas utilizan este concepto de esperanza matemática.
Entre esas teorías se encuentra la que desarrolló Markowitz sobre las carteras eficientes. En números,
simplificando mucho, supongamos que las rentabilidades de un activo financiero son las siguientes:
Año 1 12%
Año 2 6%
Año 3 15%
Año 4 12%
El valor esperado sería el sumatorio de las rentabilidades multiplicadas por su probabilidad de suceder. La
probabilidad de que “suceda” cada rentabilidad es de 0,25. Tenemos cuatro observaciones, cuatro años. Todos los
años tienen la misma probabilidad de repetirse.
Esperanza = ( 12 x 0,25 ) + ( 6 x 0,25 ) + ( 15 x 0,25 ) + ( 12 x 0,25 ) = 3 + 1,5 + 3,75 + 3 = 11,25%
Teniendo en cuenta esta información, diremos que la esperanza de la rentabilidad del activo, es del 11,25%.
La varianza es una medida de dispersión que representa la variabilidad de una serie de datos respecto a
su media. Formalmente se calcula como la suma de las residuos al cuadrado divididos entre el total de
observaciones.
También se puede calcular como la desviación típica al cuadrado. Dicho sea de paso, entendemos como residuo
a la diferencia entre el valor de una variable en un momento y el valor medio de toda la variable.
9. Fórmula para calcular la varianza
La unidad de medida de la varianza será siempre la unidad de medida correspondiente a los datos pero elevada al
cuadrado. La varianza siempre es mayor o igual que cero. Al elevarse los residuos al cuadrado es matemáticamente
imposible que la varianza salga negativa. Y de esa forma no puede ser menor que cero.
O lo que es lo mismo:
¿Por qué se elevan al cuadrado los residuos?
La razón por la que los residuos se elevan al cuadrado se sencilla. Si no se elevasen al cuadrado, la suma de residuos
sería cero. Es una propiedad de los residuos. Así pues para evitarlo, tal como ocurre con la desviación típica se elevan al
cuadrado. El resultado es la unidad de medida en la que se miden los datos pero elevada al cuadrado. Por ejemplo, si
tuviésemos datos sobre los salarios de un conjunto de personas en euros, el dato que arroja la varianza sería en euros
cuadrados. Para que tenga sentido la interpretación calcularíamos la desviación típica y pasaríamos el dato a euros.
Desviación -> (2-3) = -1. Desviación -> (4-3) = 1. Desviación -> (2-3) = -1.
Desviación -> (4-3) = 1. Desviación -> (2-3) = -1. Desviación -> (4-3) = 1.
Si sumamos todas las desviaciones el resultado es cero.
10. ¿Qué diferencia existe entre la varianza y la desviación típica?
Una cuestión que se podría plantear, y con razón, sería la diferencia entre varianza y desviación típica. En
realidad, vienen a medir lo mismo. La varianza es la desviación típica elevada al cuadrado. O al revés, la
desviación típica es la raíz cuadrada de la varianza.
La desviación típica se hace para poder trabajar en las unidades de medida iníciales. Claro que, como es
normal, uno puede preguntarse, ¿de qué sirve tener como concepto la varianza? Bien, aunque la interpretación
del valor que arroja no nos da demasiada información, su cálculo es necesario para obtener el valor de otros
parámetros.
Para calcular la covarianza necesitamos la varianza y no la desviación típica, para calcular algunas matrices
econométricas se utiliza la varianza y no la desviación típica. Es una cuestión de comodidad a la hora de trabajar
con los datos en según qué cálculos. Es una cuestión de comodidad a la hora de trabajar con los datos en según
qué cálculos. Ejemplo de cálculo de la varianza
Vamos a acuñar una serie de datos sobre salarios. Tenemos cinco personas, cada uno con un salario diferente:
Juan: 1.500 euros. Pepe: 1.200 euros. José: 1.700 euros. Miguel: 1.300 euros. Mateo: 1.800 euros
La media del salario, la cual necesitamos para nuestro cálculo, es de ((1.500 + 1.200 + 1.700 + 1.300 + 1.800) /5)
1.500 euros. Dado que la fórmula de la varianza en su forma desglosada se formula como sigue:
11. Obtendremos que se deba calcular tal que:
El resultado es de 52.000 euros al cuadrado. Es importante recordar que siempre que calculamos la varianza
tenemos las unidades de medida al cuadrado. Para pasarlo a euros, en este caso tendríamos que realizar
la desviación típica. El resultado aproximado sería de 228 euros. Esto quiere decir que, en media, la diferencia entre
los salarios de las distintas personas será de 228 euros.
12. ¿Qué es la desviación estándar?
La desviación estándar es la medida de dispersión más común, que indica qué tan dispersos
están los datos con respecto a la media. Mientras mayor sea la desviación estándar, mayor será
la dispersión de los datos.
El símbolo σ (sigma) se utiliza frecuentemente para representar la desviación estándar de una
población, mientras que s se utiliza para representar la desviación estándar de una muestra. La
variación que es aleatoria o natural de un proceso se conoce comúnmente como ruido.
La desviación estándar se puede utilizar para establecer un valor de referencia para estimar la
variación general de un proceso.
13. Proceso de Bernoulli
Es un experimento que puede arrojar 2 resultados posibles. A uno de los resultados se lo denomina
arbitrariamente “éxito” y al otro “fracaso”. El experimento de Bernoulli lleva asociada una probabilidad (la
probabilidad de éxito).
Ejemplo:
Si voy a tirar un dado y lo que voy a observar es si sale o no un 5, entonces esto puede ser visto como un
experimento de Bernoulli constituido asi:
Éxito: que salga 5.
Fracaso: que no salga 5.
Probabilidad de éxito: p = 1/6
Probabilidad de fracaso: q = 1-p = 5/6
14. Distribución Binomial
Distribución Binomial de probabilidades. En estadística , la distribución binomiales una distribución de
probabilidad discreta que indica el número de éxitos al realizar una secuencia de n ensayos independientes entre
sí, con una probabilidad fija (p) de ocurrencia del éxito entre esos ensayos.
Para que una variable aleatoria se considere que sigue una distribución binomial, tiene que cumplir las
siguientes propiedades: En cada ensayo, experimento o prueba solo son posibles dos resultados (éxito o fracaso).
La probabilidad del éxito ha de ser constante. Esta se representa mediante la letra p.
Distribución geométrica
En teoría de probabilidad y estadística, la distribución geométrica es cualquiera de las dos distribuciones de
probabilidad discretas siguientes:
la distribución de probabilidad del número X del ensayo de Bernoulli necesaria para obtener un éxito, contenido en
el conjunto { 1, 2, 3,...} o
la distribución de probabilidad del número Y = X − 1 de fallos antes del primer éxito, contenido en el conjunto { 0,
1, 2, 3,... }.
15. Distribución multinomial
En teoría de probabilidad, la distribución multinomial es una generalización de la distribución binomial.
La distribución binomial es la probabilidad de un número de éxitos en N sucesos de Bernoulli independientes,
con la misma probabilidad de éxito en cada suceso. En una distribución multinomial, el análogo a la distribución de
Bernoulli es la distribución categórica, donde cada suceso concluye en únicamente un resultado de un número
finito K .
Ejemplo de distribución multinomial: a esas elecciones se presentaron 4 partidos políticos: el POPO obtuvo
un 40% de los votos, el JEJE el 30%, el MUMU el 20% y el LALA el 10% restante. ¿Cuál es la probabilidad de que
al elegir 5 ciudadanos al azar, 3 hayan votado al POPO, 1 al MUMU y 1 al LALA?
La distribución multinomial sigue el siguiente modelo:
16. Donde:
X1 = x1: indica que el suceso X1 aparezca x1 veces (en el ejemplo, que el partido POPO lo hayan votado 3
personas)
n: indica el número de veces que se ha repetido el suceso (en el ejemplo, 5 veces)
n!: es factorial de n (en el ejemplo: 5 * 4 * 3 * 2 * 1)
p1: es la probabilidad del suceso X1 (en el ejemplo, el 40%)
Luego: P= 0,0256
Es decir, que la probabilidad de que las 5 personas elegidas hayan votado de esta manera es tan sólo del 2,56%
Nota: 0! es igual a 1, y cualquier número elevado a 0 es también igual a 1
17. DISTRIBUCION BINOMIAL NEGATIVA
En estadística la distribución binomial negativa es una distribución de probabilidad discreta que incluye a
la distribución de Pascal.
El número de experimentos de Bernoulli de parámetro θ independientes realizados hasta la consecución
del k-ésimo éxito es una variable aleatoria que tiene una distribución binomial negativa con parámetros k y θ.
La distribución geométrica es el caso concreto de la binomial negativa cuando k = 1.
La distribución de Poisson
Es una distribución de probabilidad discreta que se aplica a las ocurrencias de algún suceso durante un
intervalo determinado. Nuestra variable aleatoria x representará el número de ocurrencias de un suceso en un
intervalo determinado, el cual podrá ser tiempo, distancia, área, volumen o alguna otra unidad similar o
derivada de éstas.
La probabilidad de nuestra variable aleatoria X viene dada por la siguiente expresión:
18. La distribución de Poisson debe de cumplir los siguientes requisitos:
•La variable discreta es el número de ocurrencias de un suceso durante un intervalo (esto es la propia definición que
hemos dado anteriormente).
•Las ocurrencias deben ser aleatorias y no contener ningún vicio que favorezca unas ocurrencias en favor de otras.
•Las ocurrencias deben estar uniformemente distribuidas dentro del intervalo que se emplee.
¿Cuándo se usa la Distribución de Poisson?
La distribución de Poisson es particularmente importante ya que tiene muchos casos de uso. Podemos poner como
ejemplos de uso: la disminución de una muestra radioactiva, la llegada de pasajeros de un aeropuerto o estación de
trenes o autobuses, los usuarios que se conectan a una web determinada por hora (es un caso particularmente
interesante que usa Googlee en sus métricas predictivas de visitantes únicos a una web).
Como caso realmente interesante cabe mencionar que la distribución de poisson fue utilizada para determinar si
durante la segunda guerra mundial los alemanes al bombardear Londres desde Calais (Francia) con los protomisiles
V1 y V2 apuntaban o simplemente disparaban al azar. Era un hecho realmente importante determinar ese punto pues
si los objetivos alcanzados con estos primitivos misiles eran los blancos que los alemanes habían seleccionado,
implicaba que éstos disponían de una tecnología balística muy superior a la sospechada. En las vídeoclases haré un
ejercicio muy similar a dicho problema para ver un caso de utilidad que ha sido real.
19. La distribución Uniforme
Es el modelo (absolutamente) continuo más simple. Corresponde al caso de una variable
aleatoria que sólo puede tomar valores comprendidos entre dos extremos a y b, de manera que
todos los intervalos de una misma longitud (dentro de (a, b)) tienen la misma probabilidad. También
puede expresarse como el modelo probabilístico correspondiente a tomar un número al azar dentro
de un intervalo (a, b).
De la anterior definición se desprende que la función de densidad debe tomar el mismo valor
para todos los puntos dentro del intervalo (a, b) (y cero fuera del intervalo). Es decir,
20. Distribución exponencial
Mientras que la distribución de Poisson describe las llegadas por unidad de tiempo, la distribución exponencial
estudia el tiempo entre cada una de estas llegadas. Si las llegadas son de Poisson el tiempo entre estas llegadas
es exponencial. Mientras que la distribución de Poisson es discreta la distribución exponencial es continua porque
el tiempo entre llegadas no tiene que ser un número entero. Esta distribución se utiliza mucho para describir el
tiempo entre eventos. Más específicamente la variable aleatoria que representa al tiempo necesario para servir a la
llegada.
Ejemplos típicos de esta situación son el tiempo que un medico dedica a una exploración, el tiempo de servir
una medicina en una farmacia, o el tiempo de atender a una urgencia.
El uso de la distribución exponencial supone que los tiempos de servicio son aleatorios, es decir, que un tiempo de
servicio determinado no depende de otro servicio realizado anteriormente ni de la posible cola que pueda estar
formándose. Otra característica de este tipo de distribución es que no tienen "edad" o en otras palabras, "memoria".
Por ejemplo. Supongamos que el tiempo de atención de un paciente en una sala quirúrgica sigue una distribución
exponencial. Si el paciente ya lleva 5 horas siendo operado, la probabilidad de que esté una hora más es la misma
que si hubiera estado 2 horas, o 10 horas o las que sea. Esto es debido a que la distribución exponencial supone
que los tiempos de servicio tienen una gran variabilidad. A lo mejor el próximo paciente operado tarda 1 hora
porque su cirugía era mucho más simple que la anterior.
23. La distribución beta
Es posible para una variable aleatoria continua que toma valores en el intervalo [0,1], lo que la hace muy apropiada para
modelar proporciones. En la inferencia bayesiana, por ejemplo, es muy utilizada como distribución a priori cuando las
observaciones tienen una distribución binomial. Uno de los principales recursos de esta distribución es el ajuste a una gran
variedad de distribuciones empíricas, pues adopta formas muy diversas dependiendo de cuáles sean los valores de los
parámetros de forma αα y ββ, mediante los que viene definida la distribución.
Origen de la distribución
Su origen en un trabajo de Ballestero en 1973, relacionado con un método utilizado en la Teoría General de Valoración,
denominado, por Ballestero y Caballer (1982), método de las dos distribuciones beta. Este método se ha extendido a otros
tipos de distribuciones, tales como la triangular y uniforme, Romero (1977), a la distribución trapezoidal (Herrerías, García,
Cruz y Herrerías (2000)), y a la distribución trapezoidal CPR Callejón, Pérez, Ramos (1996) utilizada por García,
Evangelista y Gómez (1999).
Esta subfamilia puede emplearse, con ventajas evidentes, en el método PERT para ajustar la distribución básica, debido
a que es triparamétrica y amplía el marco de subfamilias de distribuciones beta usadas en el método PERT, junto con las
de varianza constante y mesocúrticas, introducidas por Herrerías, Pérez, Callejón y Herrerías (1999).
24. Aplicaciones en el campo de la ingeniería
Los gerentes de proyectos utilizan por lo general un método llamado PERT (Program Evoluation and
Review Technique) para coordinar las diversas actividades que conforman un gran proyecto (Una
aplicación exitosa fue la construcción de la nave espacial Apolo). Una suposición estándar en el análisis
PERT, es que el tiempo necesario para completar cualquier actividad particular, una vez que se haya
iniciado, tiene una distribución Beta con A= tiempo optimista (Si todo va bien) y B= Tiempo pesimista (Si
todo sale mal).
La distribución beta estándar se utiliza por lo común para modelar la variación en la proporción o
porcentaje de una cantidad que se presenta en muestras diferentes, tales como la proporción de horas
que duerme un individuo o la proporción de cierto elemento de un compuesto químico.
Relaciones con otras distribuciones. Un caso particular de la distribución beta es la distribución uniforme
en (0,1), que corresponde a una distribución beta de parámetros =1 y =1, denotada Beta(1,1).
Para la distribución uniforme sobre (0,1), la media y la varianza son:
25. La distribución de Weibull
Se trata de un modelo continuo asociado a variables del tipo tiempo de vida, tiempo hasta que un mecanismo falla,
etc. La función de densidad de este modelo viene dada por:
que, como vemos, depende de dos parámetros: α > 0 y β > 0, donde α es un parámetro de escala y β es un parámetro
de forma (lo que proporciona una gran flexibilidad a este modelo).
La función de distribución se obtiene por la integración de la función de densidad y vale:
26. Propiedades de la distribución Weibull
Si tomamos β = 1 tenemos una distribución Exponencial.
Su esperanza vale:
Su varianza vale:
donde Γ(x) representa la función Gamma de Euler definida anteriormente.
27. La distribución normal estándar, o tipificada o reducida, es aquella que tiene por media el valor cero, μ = 0, y
por desviación típica la unidad, σ =1.
Su función de densidad es:
Su gráfica es:
La probabilidad de la variable X dependerá del área del recinto sombreado en la figura. Y para calcularla
utilizaremos una tabla.
Tipificación de la variable
Para poder utilizar la tabla tenemos que transformar la variable X que sigue una distribución N(μ, σ) en
otra variable Z que siga una distribución N(0, 1).
28. Conclusión
Una distribución de frecuencia es una tabla de resumen en la que los datos se disponen en agrupamientos o
categorías convenientemente establecidas de clases ordenadas numéricamente.
En esta forma las características más importantes de los datos se aproximan muy fácilmente, compensando así el hecho
de que cuando los datos se agrupan de ese modo, la información inicial referente a las observaciones individuales de
que antes se disponía se pierde a través del proceso de agrupamiento o condensación.
La principal ventaja de usar una de estas tablas de resumen es que las principales características de los datos se hacen
evidentes inmediatamente para el lector.
La principal desventaja de tal tabla de resumen es que no podemos saber como se distribuyen los valores individuales
dentro de un intervalo de clase particular sin tener acceso a los datos originales. El punto medio de la clase, sin embargo,
es el valor usado para representar todos los datos resumidos en un intervalo particular.
El punto medio de una clase (o marca de clase) es el punto a la mitad de los límites de cada clase y es representativo de
los datos de esa clase.
La probabilidad es la posibilidad u oportunidad de que suceda un evento particular. La probabilidad involucrada es una
porción o fracción cuyo valor varía entre cero y uno exclusivamente. Observamos un evento que no tiene posibilidad de
ocurrir (es decir, el evento nulo), tiene una probabilidad de cero, mientras que un evento que seguramente ocurrirá (es
decir, el evento cierto), tiene una probabilidad de uno.
29. La regla mas evidente para las probabilidades es que deben variar en valor de 0 a 1. Un evento imposible
tiene una probabilidad cero de ocurrir, y un evento cierto tiene una probabilidad uno de ocurrir. La probabilidad
simple se refiere a la probabilidad de ocurrencia de un evento simple.
Una distribución de probabilidad para una variable aleatoria discreta es un listado mutuamente excluyente de
todos los resultados posibles para esa variable aleatoria, tal que una probabilidad particular de ocurrencia esté
asociada con cada resultado.
30. Bibliografía
Artículo de George Marsaglia Evaluating the Normal Distribution.
Artículo de Saul Stahl The Evolution of the Normal Distribution (Mathematics Magazine, vol. 79, (2006), pp. 96-
113. From Mathematical Association of America).
Sangaku S.L. (2019) La distribución binomial o de Bernoulli. sangakoo.com. Recuperado
de https://www.sangakoo.com/es/temas/la-distribucion-binomial-o-de-bernoulli
DEVORE,Jay L.Probabilidad y estadistica para la ingenieria y ciencias. En: la distrbucíon beta. 5 edicíon. California
Polytechnic State University. P. 179-181. ISBN 970-686-067-3.
EL BARQUERO AQUERONTEBLOG. R: Distribución beta [en línea]. [citado el 18 de marzo del 2016]. Disponible
en: http://unbarquero.blogspot.com.co/2009/05/r-distribucion-beta.html.
Sintaxis para la inclusión de fórmulas matemáticas en los foros [en linea].[citado el 17 de marzo del 2016]. disponible
en: http://rinconmatematico.com/instructivolatex/formulas.htm.
WACKERLY, Dennis D; MENDENHALL, William y SHEAFFER, Richard. Estadística matemática para con
aplicaciones. En: 4.7 Distribucion de probabilidad beta. Thomson. 6 edicíon. P. 182-185. ISBN 970-686-194-7.