2. LizethVargas Vera
1
Actividad 1
Unidad 3
Cadena de Markov
Definición Una cadena de Markov es una sucesión de ensayos similares u
observaciones en la cual cada ensayo tiene el mismo número finito de
resultados posibles y en donde la probabilidad de cada resultado para un
ensayo dado depende sólo del resultado del ensayo inmediatamente
precedente y no de cualquier resultado previo.
Propiedad de Markov: Dada una secuencia de variables aleatorias
𝑋1, 𝑋2, 𝑋3, …., tales que el valor de 𝑋 𝑛 es el estado del proceso en el tiempo
n. Si la distribución de probabilidad condicional de 𝑋𝑛 + 1 en estados
pasados es una función de 𝑋𝑛 por sí sola, entonces:
𝑃( 𝑋 𝑛+1= 𝑥 𝑛+1, 𝑋 𝑛 = 𝑥 𝑛, 𝑋 𝑛−1= 𝑥 𝑛−1 … 𝑋2 = 𝑥2, 𝑋1 = 𝑥1)
= 𝑃(𝑋 𝑛+1 = 𝑥 𝑛+1 /𝑋 𝑛 = 𝑥 𝑛 )
Donde 𝑥 𝑖 es el estado del proceso en el instante 𝑖.
Proceso de Poisson:
Sea una variable aleatoria que representa el número de eventos
aleatorios independientes que ocurren con igual rapidez en un intervalo de
medida. Se tiene entonces que la función de probabilidad de esta variable,
se expresa por:
Donde es parámetro de tendencia central de la distribución y representa
el número promedio ó cantidad esperada de ocurrencias (éxitos) del evento
aleatorio por unidad de medida ó por muestra; y Número
de ocurrencias específicas para el cual se desea conocer la probabilidad
respectiva. Según sea el valor de de , se define toda una familia de
probabilidades de Poisson. La probabilidad de que una variable aleatoria de
3. LizethVargas Vera
2
Poisson sea menor ó igual a un valor de se halla por la función de
distribución acumulativa, planteada entonces como:
Características de la distribución de Poisson
Valor Esperado: , el cual debe ser conocido.
Varianza:
Forma ó sesgo: Hacia la derecha ó con sesgo positivo y que se va perdiendo
a medida que crece. Veamos una gráfica de funciones de probabilidad
para diferentes valores de
Se puede calcular un coeficiente de asimetría mediante la expresión
Es de observar que mientras en una distribución binomial: en
Poisson se puede dar que
Alternativa: Si se da la probabilidad de tener, de manera
exacta, ocurrencias en un intervalo veces mayor que el de referencia
en la medición entonces la distribución de probabilidades de Y número de
éxitos en la nueva unidad de referencia viene dada por
dónde Promedio de ocurrencias por intervalo ó unidad de medida
considerada en X y Número de intervalos ó unidades de medida
especificados.
y
4. LizethVargas Vera
3
Movimiento Browniano
Establecemos un modelo plano del movimiento de partículas entre
colisiones mediante dos hipótesis: describiendo el movimiento de
una partícula entre dos puntos en coordenadas polares (r, q), el
radio del desplazamiento es una variable aleatoria con distribución
normal y el ángulo es una variable aleatoria con distribución
uniforme entre [0,2p].
La descripción podemos hacerla trazando las trayectorias o
relacionando las coordenadas de cada punto con el tiempo t, de
manera que, para un movimiento plano, obtendríamos una
superficie. Y para un movimiento de las partículas sobre R,
tendríamos una curva (t, f(t)), es decir, una serie temporal.
Consideremos un modelo del movimiento de una partícula sobre
una recta con las siguientes condiciones:
1.- La partícula parte del origen t=0;
2.- En cada paso discreto de tiempo h, la partícula se
desplaza aleatoriamente una longitud L o -L, con
probabilidad 0.5 en cada caso.
Representamos con X(t) la función aleatoria asociada que mide la posición
de la partícula en cada instante:
Cada es una variable aleatoria con la siguiente distribución de
probabilidad:
independientemente de las etapas previas.
Así, X(t) es la suma de una sucesión de variables aleatorias
independientes e igualmente distribuidas:
5. LizethVargas Vera
4
Si normalizamos tomando L=h1/2, ahora las variables tales que = 1
o = -1, en cada caso con p=1/2.
Teniendo en cuenta el Teorema del Límite Central, para valores pequeños
de h, X(t) es aproximadamente normal con media 0 y varianza t:
Es importante observar que la varianza resulta proporcional a t, tiempo
transcurrido desde el inicio del movimiento.
En particular, para t y h fijos y n suficientemente grande, es
aproximadamente normal (0, h) y los
incrementos y son variables aleatorias
independientes.
El movimiento browniano se define como el proceso aleatorio límite que se
encuentra cuando n crece indefinidamente.
Simulación de un movimiento browniano.
Empezaremos por la definición de una martingala. Por simplicidad,
supondremos que una martingala es una cadena de Markov, aunque en
realidad no es necesario que lo sea.
Sea 𝑋0, 𝑋1 , 𝑋2, … una cadena de Markov. La cadena de Markov es una
martingala si para todo 𝑛 = 0,1, 2, …, tenemos que 𝐸 = ( 𝑋 𝑛+1 − 𝑋 𝑛| 𝑋 𝑛) = 0.
6. LizethVargas Vera
5
Es decir, en promedio el valor de la cadena no varía, sin importar cuál sea
el valor 𝑋 𝑛 en un momento dado.
Los tres son un tipo de Proceso estocásticos, por lo que son martingalas.
Ya que una martingala es una clase de procesos fundamental para la
teoría moderna de la probabilidad.
www.wikipedia.org
www.cimat.edu