CFRD simplified sequence for Mazar Hydroelectric Project
Generación de variables aleatorias
1.
2.
3. Las variables aleatorias son aquellas que tiene un
comportamiento probabilístico en la realidad. Por ejemplo, el
número de clientes que llegan cada hora a un banco depende
del momento del día, del día de la semana y de otros factores.
4. La generación de variables
aleatorias o estocásticas significa
la obtención de variables que
siguen una distribución de
probabilidad determinada.
Requiere de dos etapas:
Generar números aleatorios
distribuidos uniformemente
(R)
Generar con R y con las
distribuciones de
probabilidad las variables
aleatorias o estocásticas.
5. La generación de estadísticas simuladas, o sea de los valores de las
variables aleatorias, tienen una naturaleza enteramente numérica y debe
soportarse por números aleatorios, generados por algún método
6. Una secuencia de números aleatorios R1, R2,... debe tener dos
importantes propiedades estadísticas: uniformidad e independencia.
Cada número aleatorio Ri es una muestra independiente tomada de una
distribución continua uniforme entre cero y uno. Esto es, la función de
densidad de probabilidad es:
7. Si el intervalo (0, 1) es dividido en
n clases, o sub-intervalos de
longitudes iguales, el número
esperado de observaciones en
cada intervalo es N/n, donde N es
el número total de observaciones. La probabilidad de observar un
valor en un intervalo en
particular es independiente de
los valores previamente
observados.
8. Entidad que puede tomar un valor cualesquiera
durante la duración de un proceso dado.
Discreta
Continua
independiente
9. Una variable aleatoria discreta puede tomar valores numéricos
específicos, como el resultado de lanzar un dado, o la cantidad de
dólares en una cuenta bancaria elegida al azar. Las variables aleatorias
discretas sólo pueden tomar un número finito de muchos valores y se les
llama variables aleatorias finitas.
10. Existen diversos métodos para generar variables
aleatorias discretas:
1. Transformada Inversa
2. De aceptación-rechazo, o método de rechazo.
3. De composición.
4. Métodos mejorados según la distribución.
11. Una variable aleatoria X es discreta, si solamente puede tomar un
conjunto numerable de valores.
Ejemplos: El número de libros en una biblioteca, el número de
habitantes en una población, la cantidad de dinero que una persona trae
en su bolsillo, el número de aves en un gallinero, el número de
admisiones diarias a un hospital, el número de accidentes
automovilísticos en una carretera durante un año, etc.
12. Es aquella que se encuentra dentro de un intervalo comprendido
entre dos valores cualesquiera; ésta puede asumir infinito número
de valores y éstos se pueden medir.
13. Existen varios métodos para
generar variables aleatorias
siendo los más importantes:
transformada inversa, convolución
y aceptación-rechazo. Mediante
estos métodos es posible generar
variables aleatorias discretas
(binomial, poisson, etc.) y
continuas (uniforme, exponencial,
normal, etc.).
14. El método de aceptación y rechazo no es un
método directo y puede ser útil cuando alguno de
los métodos directos no es eficiente debido a que
no sea posible conocer la función de distribución
como es el caso de la distribución normal.
15. Consiste en generar un valor de la variable
aleatoria e inmediatamente probar que dicho valor
simulado proviene de la distribución de
probabilidad que se está analizando.
16. Generar dos números uniformes U(0,1)
llamados U1 y U2.
Determinar el valor de la variable aleatoria X
de acuerdo a la siguiente relación lineal de
U1:
Evaluar la función de probabilidad en X =
a+(b-a)U1.
Determinar si la siguiente desigualdad se
cumple:
Se utiliza a X = a+(b-a)U1 si la respuesta es
afirmativa como un valor simulado de la
variable aleatoria. De lo contrario, es
necesario regresar nuevamente al paso 1
tantas veces como sea necesario.
17. El método consiste en:
Definir la función de Densidad f(x) que
representa la variable a modelar.
Calcular la función acumulada f(x).
Despejar la variable aleatoria x y obtener la
función acumulada inversa f(x)-1.
Generar las variables aleatorias x, sustituyendo
valores con números pdeudoaleatorios ri ~U
(0,1) en la función acumulada inversa.
EJEMPLO:
18. El método de convolución asume que
existen Y1, Y2,…, Ym variables
aleatorias, tal que la suma de todas
ellas tiene la misma distribución que
X, entonces se calcula:
1. Genere Y1, Y2, …, Ym variables
aleatorias IID cada una con función
de distribución G.
2. Aplique X = Y1 + Y2 +… Ym.
19. La distribución de probabilidad de la suma de dos o más variables
aleatorias independientes es llamada la convolución de las distribuciones
de las variables originales. El método de convolución es entonces la suma
de dos o más variables aleatorias para obtener una variable aleatoria con
la distribución de probabilidad deseada. Puede ser usada para obtener
variables con distribuciones Erlang y binomiales.
20. La suma de un gran número de variables de determinada
distribución tiene una distribución normal. Este hecho es usado
para generar variables normales a partir de la suma de
números U (0,1) adecuados.
Una variable Pascal es la suma de m geométricas.
La suma de dos uniformes tiene una densidad triangular.
21. Una variable Erlang-k es la suma de k exponenciales.
Una variable Binomial de parámetros n y p es la
suma de n variable Bernoulli con probabilidad de
éxito p.
La chi-cuadrado con v grados de libertad es la suma
de cuadrados de v normales N (0,1).
22. Mediante este método la distribución de probabilidad F(x) se expresa
como una mezcla de varias distribuciones de probabilidad F(x)
seleccionadas adecuadamente.
El procedimiento para la selección de las F(x) se basa en el objetivo se
minimizar el tiempo de computación requerido para la generación de
valores de la variable aleatoria analizada.
23. 1. Dividir la distribución de
probabilidad original en sub-áreas, tal
como se muestra en la figura
2. Definir la distribución de
probabilidad para cada sub-
área.
24. 3.- Expresar la distribución de
probabilidad original en la forma
siguiente:
F(x)=A1F1(x) + A2F2(x) +…
AnFn(x) y ∑Ai = 1
4.- Obtener la distribución
acumulada de las áreas:
25. 5. Generar dos números uniformes R1, R2
6. Seleccionar la distribución de
probabilidad F(x) con la cual se va
simular el valor de x. La selección de esta
distribución se obtiene al aplicar el
método de la transformada inversa, en la
cuel el eje Y está representado por la
distribución acumulada de las areas, y el
eje X por las distribuciones F(x). Para
esta selección se utiliza el numero
uniforme R1.
7. Utilizar el numero uniforme R2 para
simular por el método de la transformada
inversa o algún otro procedimiento especial,
números al azar que sigan la distribución de
probabilidad F(x) seleccionada en el paso
anterior.
26. Existen algunas distribuciones como la distribucion
erlang, la distribucion normal, etc., cuya simulacion
a través del metodo de la transformada inversa
sería demasiado compliacado. Para estas y algunas
otras distribuciones, es posible utilizar algunas de
sus propiedades para facilicitar y agilizar el proceso
de generación de numeros al azar.
27. Muchas variables aleatorias discretas corresponden a conteos de
objetos con una característica, relativamente rara, dentro de un conjunto
grande de objetos: átomos de un isótopo, moléculas de un elemento
químico, bacterias, virus, individuos que poseen un gen especial... Con
frecuencia se emplea una ley de Poisson como modelo para estos
conteos. Una variable aleatorio sigue una ley de Poisson de parámetro
si ella toma sus valores en y si para todo :
28. Es una distribución de probabilidad discreta que mide el número de éxitos
en una secuencia de n ensayos de Bernoulli independientes entre sí, con
una probabilidad fija p de ocurrencia del éxito entre los ensayos. Un
experimento de Bernoulli se caracteriza por ser dicotómico, esto es, sólo
son posibles dos resultados. A uno de estos se denomina éxito y tiene una
probabilidad de ocurrencia p y al otro, fracaso, con una probabilidad q = 1
- p.
29. En la distribución binomial el anterior experimento se repite n veces, de
forma independiente, y se trata de calcular la probabilidad de un
determinado número de éxitos. Para n = 1, la binomial se convierte, de
hecho, en una distribución de Bernoulli.
30. En la construcción del modelo de simulación es importante
decidir si un conjunto de datos se ajusta apropiadamente a
una distribución específica de probabilidad. Al probar
la bondad del ajuste de un conjunto de datos, se comparan
las frecuencias observadas FO realmente en cada
categoría o intervalo de clase con las frecuencias
esperadas teóricamente FE.
31. Es una rama de la estadística las pruebas y modelos estadísticos cuya
distribución subyacente no se ajuste a los llamados criterios
paramétricos. Las pruebas paramétricas no asumen ningún parámetro
de distribución de las variables muéstrales. Las pruebas paramétricas
asumen los parámetros de las variable (media y varianza) y un tipo de
distribución normal.
32. Es la prueba estadística de elección
cuando la prueba de Chi-cuadrada no
puede ser empleada por tamaño
muestral insufiente.
33. Se basa en la hipótesis nula (Ho) de que no hay diferencias
significativas entre la distribución muestral y la teoría.
Mientras que la hipótesis alternativa (H1), siempre se
enuncia como que los datos no siguen la distribución
supuesta.
34. Esta definido como la sumatoria de
los residuos expresados en términos
de las frecuencias esperadas para
cada una de las clases.
Interpretación. Cuanto mayor sea el
valor de , menos verosímil es que la
hipótesis Ho sea correcto.
Si = 0. La frecuencia teórica y
observada concuerda exactamente.
Si > 0. Mientras mayor es la
diferencia mayor es la discrepancia.
En la practica: si Ho = 0 no existe
diferencia significativa es la
distribución de la frecuencia
observada y la distribución teórica
específicamente los mismos
parámetros.