El documento describe el proceso de Poisson, que es el proceso estocástico puntual más importante. Tiene un rol equivalente a la distribución normal para variables aleatorias continuas. El proceso de Poisson es estacionario, independiente en todos los instantes de tiempo y simple. Representa de manera efectiva muchos procesos de la vida real donde hay muchos factores aleatorios involucrados.
Este documento presenta diferentes métodos de proyección como mínimos cuadrados, subjetivos y causales. Explica que los mínimos cuadrados intentan encontrar la función que mejor se ajusta a los datos históricos minimizando el error cuadrático. También describe la forma general de la ecuación de regresión lineal y cómo calcular la pendiente y el punto de intersección con el eje Y usando estos métodos.
Este documento describe diferentes pruebas estadísticas para evaluar la independencia y aleatoriedad de números pseudoaleatorios, incluyendo pruebas de autocorrelación, huecos o distancia, y póquer. La prueba de autocorrelación analiza patrones dentro de una señal desplazada en el tiempo. La prueba de huecos compara el tamaño de los espacios entre números que caen dentro de un intervalo específico. La prueba de póquer clasifica grupos de 5 dígitos y compara las frecuencias observadas con las esper
Este documento describe los procesos de renovación, que son procesos estocásticos donde los tiempos entre eventos sucesivos son variables aleatorias independientes e idénticamente distribuidas. Explica conceptos clave como las distribuciones de tiempo entre llegadas, la suma de tiempos hasta un punto dado, y cómo el teorema del límite central puede usarse para aproximar la distribución de dicha suma como una normal. También introduce procesos de renovación-recompensa, donde se recibe una ganancia en cada renovación.
Este documento introduce las cadenas de Markov, que son procesos estocásticos en los que la probabilidad del próximo estado depende únicamente del estado actual. Se define la matriz de transición, que codifica las probabilidades de cambio entre estados. El documento explica cómo calcular la probabilidad de los estados futuros usando potencias sucesivas de la matriz de transición.
La mayoría de los problemas en el documento involucran calcular probabilidades usando diferentes distribuciones de probabilidad como la binomial, Poisson, hipergeométrica y exponencial. Algunos problemas piden calcular la probabilidad de que ciertos eventos ocurran dado los parámetros de cada distribución, mientras que otros proveen datos estadísticos y piden calcular valores esperados y varianzas.
Presentación metodos numericos (metodo rigido y metodo multipasos)Eleazar Merida
1) El documento describe métodos numéricos para resolver ecuaciones diferenciales ordinarias (EDO) rígidas. 2) Los métodos de Gear son métodos implícitos multipasos que son adecuados para resolver sistemas de EDO rígidos. 3) El software asociado incluye Frame3DD, Ebes y JMetal, que permiten el análisis y optimización de estructuras de barras 2D y 3D.
Este documento presenta tres problemas relacionados con la teoría de la información:
1) Demostrar que la entropía de la fuente producto de dos fuentes es menor o igual a la suma de las entropías individuales.
2) Encontrar todos los árboles de códigos compactos ternarios posibles para una fuente de 7 símbolos y calcular su eficiencia.
3) Calcular la entropía de la fuente afín asociada a una fuente de Markov de segundo orden dada.
Este documento presenta diferentes métodos de proyección como mínimos cuadrados, subjetivos y causales. Explica que los mínimos cuadrados intentan encontrar la función que mejor se ajusta a los datos históricos minimizando el error cuadrático. También describe la forma general de la ecuación de regresión lineal y cómo calcular la pendiente y el punto de intersección con el eje Y usando estos métodos.
Este documento describe diferentes pruebas estadísticas para evaluar la independencia y aleatoriedad de números pseudoaleatorios, incluyendo pruebas de autocorrelación, huecos o distancia, y póquer. La prueba de autocorrelación analiza patrones dentro de una señal desplazada en el tiempo. La prueba de huecos compara el tamaño de los espacios entre números que caen dentro de un intervalo específico. La prueba de póquer clasifica grupos de 5 dígitos y compara las frecuencias observadas con las esper
Este documento describe los procesos de renovación, que son procesos estocásticos donde los tiempos entre eventos sucesivos son variables aleatorias independientes e idénticamente distribuidas. Explica conceptos clave como las distribuciones de tiempo entre llegadas, la suma de tiempos hasta un punto dado, y cómo el teorema del límite central puede usarse para aproximar la distribución de dicha suma como una normal. También introduce procesos de renovación-recompensa, donde se recibe una ganancia en cada renovación.
Este documento introduce las cadenas de Markov, que son procesos estocásticos en los que la probabilidad del próximo estado depende únicamente del estado actual. Se define la matriz de transición, que codifica las probabilidades de cambio entre estados. El documento explica cómo calcular la probabilidad de los estados futuros usando potencias sucesivas de la matriz de transición.
La mayoría de los problemas en el documento involucran calcular probabilidades usando diferentes distribuciones de probabilidad como la binomial, Poisson, hipergeométrica y exponencial. Algunos problemas piden calcular la probabilidad de que ciertos eventos ocurran dado los parámetros de cada distribución, mientras que otros proveen datos estadísticos y piden calcular valores esperados y varianzas.
Presentación metodos numericos (metodo rigido y metodo multipasos)Eleazar Merida
1) El documento describe métodos numéricos para resolver ecuaciones diferenciales ordinarias (EDO) rígidas. 2) Los métodos de Gear son métodos implícitos multipasos que son adecuados para resolver sistemas de EDO rígidos. 3) El software asociado incluye Frame3DD, Ebes y JMetal, que permiten el análisis y optimización de estructuras de barras 2D y 3D.
Este documento presenta tres problemas relacionados con la teoría de la información:
1) Demostrar que la entropía de la fuente producto de dos fuentes es menor o igual a la suma de las entropías individuales.
2) Encontrar todos los árboles de códigos compactos ternarios posibles para una fuente de 7 símbolos y calcular su eficiencia.
3) Calcular la entropía de la fuente afín asociada a una fuente de Markov de segundo orden dada.
El documento describe el polinomio de interpolación de Lagrange. Explica que este método permite encontrar un polinomio de grado n que interpola n+1 puntos de datos. El polinomio se expresa como una suma de funciones parciales de Lagrange multiplicadas por los valores de la función en cada punto. El documento incluye un ejemplo completo de cómo encontrar el polinomio cúbico de Lagrange para un conjunto de 4 puntos de datos y estimar el valor de la función en un punto dado usando este polinomio.
Este documento presenta cuatro preguntas sobre modelado de cadenas de Markov de tiempo discreto. La primera pregunta describe un modelo para estimar la dinámica de vida de ovas de salmón. La segunda pregunta modela un juego entre dos jugadores con monedas. La tercera pregunta modela la reproducción de glóbulos rojos y blancos. La cuarta pregunta modela los estados de alerta ambiental en Santiago debido a la contaminación vehicular.
El documento contiene la solución a 5 ejercicios de probabilidad y estadística. El primer ejercicio calcula la probabilidad de que entre 9 clientes, exactamente 5, al menos 6 o a lo sumo 3 elijan un producto por su marca. El segundo calcula la probabilidad de que en una hora de baja demanda en un parqueadero ingresen 5, 9 o menos de 8 vehículos. El tercero calcula la probabilidad de que al disparar 4 proyectiles de un lote de 10, todos exploten, al menos 2 no exploten o al menos
Las matrices se utilizan ampliamente en gráficos 3D, sistemas de ecuaciones y operaciones algebraicas. Las cadenas de Markov y las matrices de transición representan procesos estocásticos y se usan para modelar el comportamiento de los consumidores entre marcas. El wronskiano identifica si funciones son linealmente independientes para ecuaciones diferenciales.
El documento presenta una introducción a las ecuaciones diferenciales y al método de Runge-Kutta para resolverlas numéricamente. Explica que las ecuaciones diferenciales se utilizan para modelar fenómenos físicos y que el método de Runge-Kutta es una mejora del método de Euler para aproximar soluciones. Luego, describe los pasos del método de Runge-Kutta de cuarto orden y provee ejemplos de su implementación en Matlab para resolver ecuaciones diferenciales de segundo y tercer orden.
Matlab integración numérica, método del trapecioTensor
Este documento describe el método numérico del trapecio para aproximar integrales definidas en Matlab. Explica que cuando una función no tiene una primitiva analítica, se debe usar un método numérico como el trapecio. Luego detalla los pasos del algoritmo del trapecio, incluyendo dividir el intervalo en subintervalos y sumar las áreas de los trapecios formados. Finalmente, muestra código Matlab que implementa este método para aproximar la integral de una función.
El documento describe el procedimiento para probar una hipótesis estadística en 4 pasos: 1) establecer las hipótesis nula y alternativa, 2) determinar el criterio de contraste, 3) calcular el estadístico de prueba, y 4) tomar una decisión y conclusión sobre si se rechaza o no la hipótesis nula. Explica conceptos como nivel de significancia, error tipo I y II, distribución normal y t de Student, valores críticos y zonas de decisión. También incluye fórmulas empleadas
Este documento presenta las fórmulas clave del sistema de cola M/M/1, incluyendo la fórmula para el factor de utilización, las probabilidades de que no haya unidades o que haya n unidades en el sistema, el número promedio de unidades en cola y en el sistema, los tiempos promedio que una unidad pasa en cola y en el sistema, y la probabilidad de que una unidad tenga que esperar por servicio.
Este documento describe el algoritmo lineal congruencial, el cual genera números pseudoaleatorios mediante una ecuación recursiva. Explica que para lograr el máximo periodo de vida N, los parámetros X0, a, c, y m deben cumplir ciertas condiciones como m=2g, a=1+4k, c primo con m, y g entero. Incluye ejemplos para ilustrar cómo funciona el algoritmo y cómo violar una de las condiciones, como usar un a distinto de 1+4k, reduce el periodo de vida a menos de m
Este documento describe las medidas estadísticas clave para distribuciones discretas, incluida la distribución binomial. Define la función de densidad, los momentos, la moda, la función característica y cómo se usan para calcular medidas como la media, la varianza, la simetría y la curtosis. Luego se centra en la distribución binomial, definiendo sus funciones básicas y cómo calcular sus momentos e incluso las medidas de funciones de la variable aleatoria.
Este documento describe la prueba de medias, una prueba estadística utilizada para validar que un conjunto de números pseudoaleatorios cumple con la propiedad de uniformidad. La prueba compara el promedio de los números del conjunto con el valor esperado de 0.5 usando límites de aceptación basados en la desviación estándar. Si el promedio cae dentro de los límites, no se puede rechazar la hipótesis de que el conjunto tiene un valor esperado de 0.5.
Soluciones factibles y soluciones básicas factiblesLupita Rodríguez
Este documento presenta conceptos básicos de programación lineal como variables de holgura y exceso para convertir restricciones en igualdades, la forma estándar, la forma matricial, variables básicas y no básicas, la forma base, soluciones básicas y básicas factibles, y variables de entrada y salida. Explica estos conceptos con ejemplos numéricos para ilustrarlos.
Este documento contiene las respuestas a varias preguntas sobre cadenas de Markov, caminatas aleatorias y procesos de Poisson. En la primera pregunta, se clasifican los estados de una cadena de Markov en recurrentes absorbentes y transitorios. En la segunda, se calcula la matriz de transición de una caminata aleatoria y su distribución estacionaria. La tercera pregunta trata sobre procesos de Poisson para modelar la llegada de clientes a una tienda.
Este documento describe las ecuaciones diferenciales de grado superior, donde la derivada de la función solución está en forma paramétrica como y'=f(x,y). Explica que la solución de este tipo de ecuaciones se da en forma de X=f(p) y Y=g(p), y clasifica las ecuaciones diferenciales en dos casos: Caso I, donde la ecuación tiene la forma Y=f(y') y se resuelve mediante sustitución y derivación; y Caso II, donde la ecuación tiene la forma x=f(y') y se res
Este documento explica los conceptos básicos de las pruebas de hipótesis, incluyendo la definición de hipótesis nula y alternativa, los niveles de significancia, y los errores tipo I y II. Detalla los pasos para realizar pruebas de hipótesis para una muestra, incluyendo pruebas para la media, proporciones, y si la muestra es grande o pequeña. Proporciona ejemplos numéricos para ilustrar cada tipo de prueba.
El documento explica la serie de Taylor, que permite aproximar funciones mediante polinomios. La serie de Taylor representa el comportamiento exacto de una función en las cercanías de un punto, mediante una serie infinita de potencias de la distancia a ese punto. Al truncar la serie se obtiene un polinomio de aproximación, cuya precisión depende de cuán cercano esté al valor real de la función.
Este documento explica los métodos para hallar la transformada inversa de Laplace, incluyendo el método de fracciones parciales. También presenta ejemplos de cómo aplicar este método para calcular transformadas inversas, como hallar la transformada inversa de una función con polos complejos. Además, introduce teoremas como los de traslación y convolución utilizados para calcular transformadas.
El documento presenta el método gráfico para resolver problemas de programación lineal con dos variables. Explica cómo graficar las restricciones y función objetivo, y encontrar la solución óptima evaluando la función objetivo en las esquinas del área factible o usando la función objetivo para determinar la esquina que la optimiza. Presenta ejemplos de problemas con una solución única, múltiples soluciones, soluciones indeterminadas y sin solución.
Este documento describe el método de mínimos cuadrados para analizar series de tiempo y predecir tendencias. Explica cómo usar esta técnica estadística para encontrar la ecuación de tendencia lineal que mejor se ajusta a un conjunto de datos de ventas anuales. Aplica este método a un ejemplo real de datos de ventas de 1995 a 2010 para una empresa, predecir las ventas de 2011 y crear un gráfico de la tendencia.
Ejercicios de distribucion binomial y de poison: STAT FIT DE PROMODELlucysan
Este documento presenta 4 ejercicios que involucran distribuciones binomiales y de Poisson. El primer ejercicio calcula la probabilidad de que 10 acciones aumenten de valor dado que el 70% generalmente lo hacen. El segundo calcula la probabilidad de que más de 10 personas realicen transacciones en una hora dada una tasa promedio de 5 personas por hora. El tercer ejercicio calcula la probabilidad de obtener 2 caras en 6 tiradas de una moneda. Y el cuarto calcula la probabilidad de que 2 de 10 herramientas sean defectuosas dado un 10% de
La distribución de Poisson describe la probabilidad de que ocurran un número determinado de eventos en un intervalo de tiempo, cuando la frecuencia promedio de ocurrencia de los eventos es conocida. La función de masa de Poisson depende del número de ocurrencias k y del parámetro λ, que representa la frecuencia promedio de eventos. La distribución de Poisson es útil para predecir la probabilidad de sucesos como el número de clientes que llegan a un banco o fallas en una tubería, cuando los eventos son independientes y ocurren a una tasa constante en
La distribución exponencial es una de las más utilizadas en fiabilidad debido a su simplicidad y al hecho de que proporciona un modelo con tasa de fallo constante. Representa la etapa de vida útil de un dispositivo donde la tasa de fallo permanece aproximadamente constante. Se caracteriza por una función de densidad de probabilidad con un parámetro λ y se puede utilizar para modelar el tiempo de espera entre sucesos.
El documento describe el polinomio de interpolación de Lagrange. Explica que este método permite encontrar un polinomio de grado n que interpola n+1 puntos de datos. El polinomio se expresa como una suma de funciones parciales de Lagrange multiplicadas por los valores de la función en cada punto. El documento incluye un ejemplo completo de cómo encontrar el polinomio cúbico de Lagrange para un conjunto de 4 puntos de datos y estimar el valor de la función en un punto dado usando este polinomio.
Este documento presenta cuatro preguntas sobre modelado de cadenas de Markov de tiempo discreto. La primera pregunta describe un modelo para estimar la dinámica de vida de ovas de salmón. La segunda pregunta modela un juego entre dos jugadores con monedas. La tercera pregunta modela la reproducción de glóbulos rojos y blancos. La cuarta pregunta modela los estados de alerta ambiental en Santiago debido a la contaminación vehicular.
El documento contiene la solución a 5 ejercicios de probabilidad y estadística. El primer ejercicio calcula la probabilidad de que entre 9 clientes, exactamente 5, al menos 6 o a lo sumo 3 elijan un producto por su marca. El segundo calcula la probabilidad de que en una hora de baja demanda en un parqueadero ingresen 5, 9 o menos de 8 vehículos. El tercero calcula la probabilidad de que al disparar 4 proyectiles de un lote de 10, todos exploten, al menos 2 no exploten o al menos
Las matrices se utilizan ampliamente en gráficos 3D, sistemas de ecuaciones y operaciones algebraicas. Las cadenas de Markov y las matrices de transición representan procesos estocásticos y se usan para modelar el comportamiento de los consumidores entre marcas. El wronskiano identifica si funciones son linealmente independientes para ecuaciones diferenciales.
El documento presenta una introducción a las ecuaciones diferenciales y al método de Runge-Kutta para resolverlas numéricamente. Explica que las ecuaciones diferenciales se utilizan para modelar fenómenos físicos y que el método de Runge-Kutta es una mejora del método de Euler para aproximar soluciones. Luego, describe los pasos del método de Runge-Kutta de cuarto orden y provee ejemplos de su implementación en Matlab para resolver ecuaciones diferenciales de segundo y tercer orden.
Matlab integración numérica, método del trapecioTensor
Este documento describe el método numérico del trapecio para aproximar integrales definidas en Matlab. Explica que cuando una función no tiene una primitiva analítica, se debe usar un método numérico como el trapecio. Luego detalla los pasos del algoritmo del trapecio, incluyendo dividir el intervalo en subintervalos y sumar las áreas de los trapecios formados. Finalmente, muestra código Matlab que implementa este método para aproximar la integral de una función.
El documento describe el procedimiento para probar una hipótesis estadística en 4 pasos: 1) establecer las hipótesis nula y alternativa, 2) determinar el criterio de contraste, 3) calcular el estadístico de prueba, y 4) tomar una decisión y conclusión sobre si se rechaza o no la hipótesis nula. Explica conceptos como nivel de significancia, error tipo I y II, distribución normal y t de Student, valores críticos y zonas de decisión. También incluye fórmulas empleadas
Este documento presenta las fórmulas clave del sistema de cola M/M/1, incluyendo la fórmula para el factor de utilización, las probabilidades de que no haya unidades o que haya n unidades en el sistema, el número promedio de unidades en cola y en el sistema, los tiempos promedio que una unidad pasa en cola y en el sistema, y la probabilidad de que una unidad tenga que esperar por servicio.
Este documento describe el algoritmo lineal congruencial, el cual genera números pseudoaleatorios mediante una ecuación recursiva. Explica que para lograr el máximo periodo de vida N, los parámetros X0, a, c, y m deben cumplir ciertas condiciones como m=2g, a=1+4k, c primo con m, y g entero. Incluye ejemplos para ilustrar cómo funciona el algoritmo y cómo violar una de las condiciones, como usar un a distinto de 1+4k, reduce el periodo de vida a menos de m
Este documento describe las medidas estadísticas clave para distribuciones discretas, incluida la distribución binomial. Define la función de densidad, los momentos, la moda, la función característica y cómo se usan para calcular medidas como la media, la varianza, la simetría y la curtosis. Luego se centra en la distribución binomial, definiendo sus funciones básicas y cómo calcular sus momentos e incluso las medidas de funciones de la variable aleatoria.
Este documento describe la prueba de medias, una prueba estadística utilizada para validar que un conjunto de números pseudoaleatorios cumple con la propiedad de uniformidad. La prueba compara el promedio de los números del conjunto con el valor esperado de 0.5 usando límites de aceptación basados en la desviación estándar. Si el promedio cae dentro de los límites, no se puede rechazar la hipótesis de que el conjunto tiene un valor esperado de 0.5.
Soluciones factibles y soluciones básicas factiblesLupita Rodríguez
Este documento presenta conceptos básicos de programación lineal como variables de holgura y exceso para convertir restricciones en igualdades, la forma estándar, la forma matricial, variables básicas y no básicas, la forma base, soluciones básicas y básicas factibles, y variables de entrada y salida. Explica estos conceptos con ejemplos numéricos para ilustrarlos.
Este documento contiene las respuestas a varias preguntas sobre cadenas de Markov, caminatas aleatorias y procesos de Poisson. En la primera pregunta, se clasifican los estados de una cadena de Markov en recurrentes absorbentes y transitorios. En la segunda, se calcula la matriz de transición de una caminata aleatoria y su distribución estacionaria. La tercera pregunta trata sobre procesos de Poisson para modelar la llegada de clientes a una tienda.
Este documento describe las ecuaciones diferenciales de grado superior, donde la derivada de la función solución está en forma paramétrica como y'=f(x,y). Explica que la solución de este tipo de ecuaciones se da en forma de X=f(p) y Y=g(p), y clasifica las ecuaciones diferenciales en dos casos: Caso I, donde la ecuación tiene la forma Y=f(y') y se resuelve mediante sustitución y derivación; y Caso II, donde la ecuación tiene la forma x=f(y') y se res
Este documento explica los conceptos básicos de las pruebas de hipótesis, incluyendo la definición de hipótesis nula y alternativa, los niveles de significancia, y los errores tipo I y II. Detalla los pasos para realizar pruebas de hipótesis para una muestra, incluyendo pruebas para la media, proporciones, y si la muestra es grande o pequeña. Proporciona ejemplos numéricos para ilustrar cada tipo de prueba.
El documento explica la serie de Taylor, que permite aproximar funciones mediante polinomios. La serie de Taylor representa el comportamiento exacto de una función en las cercanías de un punto, mediante una serie infinita de potencias de la distancia a ese punto. Al truncar la serie se obtiene un polinomio de aproximación, cuya precisión depende de cuán cercano esté al valor real de la función.
Este documento explica los métodos para hallar la transformada inversa de Laplace, incluyendo el método de fracciones parciales. También presenta ejemplos de cómo aplicar este método para calcular transformadas inversas, como hallar la transformada inversa de una función con polos complejos. Además, introduce teoremas como los de traslación y convolución utilizados para calcular transformadas.
El documento presenta el método gráfico para resolver problemas de programación lineal con dos variables. Explica cómo graficar las restricciones y función objetivo, y encontrar la solución óptima evaluando la función objetivo en las esquinas del área factible o usando la función objetivo para determinar la esquina que la optimiza. Presenta ejemplos de problemas con una solución única, múltiples soluciones, soluciones indeterminadas y sin solución.
Este documento describe el método de mínimos cuadrados para analizar series de tiempo y predecir tendencias. Explica cómo usar esta técnica estadística para encontrar la ecuación de tendencia lineal que mejor se ajusta a un conjunto de datos de ventas anuales. Aplica este método a un ejemplo real de datos de ventas de 1995 a 2010 para una empresa, predecir las ventas de 2011 y crear un gráfico de la tendencia.
Ejercicios de distribucion binomial y de poison: STAT FIT DE PROMODELlucysan
Este documento presenta 4 ejercicios que involucran distribuciones binomiales y de Poisson. El primer ejercicio calcula la probabilidad de que 10 acciones aumenten de valor dado que el 70% generalmente lo hacen. El segundo calcula la probabilidad de que más de 10 personas realicen transacciones en una hora dada una tasa promedio de 5 personas por hora. El tercer ejercicio calcula la probabilidad de obtener 2 caras en 6 tiradas de una moneda. Y el cuarto calcula la probabilidad de que 2 de 10 herramientas sean defectuosas dado un 10% de
La distribución de Poisson describe la probabilidad de que ocurran un número determinado de eventos en un intervalo de tiempo, cuando la frecuencia promedio de ocurrencia de los eventos es conocida. La función de masa de Poisson depende del número de ocurrencias k y del parámetro λ, que representa la frecuencia promedio de eventos. La distribución de Poisson es útil para predecir la probabilidad de sucesos como el número de clientes que llegan a un banco o fallas en una tubería, cuando los eventos son independientes y ocurren a una tasa constante en
La distribución exponencial es una de las más utilizadas en fiabilidad debido a su simplicidad y al hecho de que proporciona un modelo con tasa de fallo constante. Representa la etapa de vida útil de un dispositivo donde la tasa de fallo permanece aproximadamente constante. Se caracteriza por una función de densidad de probabilidad con un parámetro λ y se puede utilizar para modelar el tiempo de espera entre sucesos.
La distribución de Poisson describe la probabilidad de que ocurran un número determinado de eventos en un intervalo de tiempo, cuando la frecuencia media de ocurrencia es conocida. La función de masa de Poisson depende del número de ocurrencias k y del parámetro λ, que representa la frecuencia media esperada. Tanto la media como la varianza de una variable aleatoria de Poisson son iguales a λ.
La distribución de Poisson describe la probabilidad de que ocurran un número determinado de eventos aleatorios en un intervalo de tiempo o espacio, cuando la tasa promedio de ocurrencia de eventos es conocida. La función de probabilidad de Poisson depende de un parámetro λ que representa la tasa promedio de ocurrencia. Tanto la media como la varianza de una variable aleatoria de Poisson son iguales a λ. La distribución de Poisson se aplica a muchos procesos naturales donde los eventos ocurren con una tasa constante.
La distribución de Poisson describe la probabilidad de que ocurran ciertos números de eventos en intervalos de tiempo o espacio, cuando dichos eventos ocurren con una tasa media conocida e independientemente unos de otros. La distribución normal (o Gauss) modela muchos fenómenos naturales y se caracteriza por una curva en forma de campana. La distribución t de Student surge al estimar la media de una población normal con muestras pequeñas.
Distribuciones Contínuas Especiales: Investigación On-line
Para esta actividad, cada participante deberá realizar una investigacion documental sobre la naturaleza y los campos de aplicación en el ámbito de la Ingeniería de cada una de las siguientes distribuciones de probabilidad de tipo continuo:
a) Distribución Gamma. b) Distribución Exponencial. c) Distribución Erlang d) Distribución Weibull
El trabajo debe ser subido al servidor usando el editor de textos, con un minimo de 600 y un máximo de 1000 palabras. La fecha tope de entrega se fija para la medianoche del domingo 28/01/18. Esta evaluacion tiene un valor de 10 ptos. y es de carácter individual.Para pegar textos en el editor desde otras aplicaciones como Word, usar la combinacion de teclas Ctrl+v. De esta manera evitan que la pagina les registre time-out a la hora de guardar.
Este documento describe diferentes distribuciones de probabilidad continua, incluyendo la distribución Gamma, Exponencial, Erlang y Weibull. Define cada distribución, incluyendo sus funciones de densidad, media, varianza y aplicaciones. También incluye ejemplos y ejercicios para cada distribución.
La distribución de Poisson es una distribución de probabilidad discreta que modela el número de eventos que ocurren en un intervalo de tiempo o espacio cuando dichos eventos son aleatorios e independientes. Se aplica a fenómenos como el número de autos que pasan por un punto, errores ortográficos en una página, o llamadas telefónicas por minuto. La distribución depende de un parámetro λ que representa la tasa promedio de ocurrencia de eventos.
Este documento define y explica conceptos estadísticos como cadenas de Markov, procesos de Poisson y movimiento browniano. Las cadenas de Markov describen sucesiones de ensayos donde la probabilidad de cada resultado depende solo del resultado anterior. Los procesos de Poisson modelan el número de eventos aleatorios que ocurren a una tasa constante. El movimiento browniano describe el movimiento aleatorio de partículas y su varianza es proporcional al tiempo transcurrido.
Este documento presenta diferentes distribuciones de probabilidad como la binomial, Bernoulli, Gamma, Poisson, normal y T de Student. Explica las características de cada distribución y provee ejemplos para ilustrar su aplicación. También incluye notas sobre los conceptos estadísticos de regularidad y cuantificación de probabilidades para fenómenos aleatorios.
El documento describe diferentes tipos de distribuciones de probabilidad, incluyendo distribuciones continuas como la normal y exponencial, así como la distribución de Student. Explica que las distribuciones de probabilidad describen la probabilidad de posibles valores de variables aleatorias y que pueden ser continuas o discretas. También proporciona ejemplos y propiedades clave de cada distribución.
Este documento discute cuatro distribuciones de probabilidad continuas comunes (normal, binomial, exponencial y gamma) y sus propiedades. Explica que la distribución normal se utiliza con frecuencia debido a que muchas variables naturales la siguen. También describe las distribuciones binomial, exponencial y gamma, y sus usos. Concluye que analizar la distribución de datos es importante para describir el comportamiento de variables aleatorias continuas.
Tema1 josselyn arias funciones d probabilidadJosselyn Arias
Este documento describe diferentes tipos de distribuciones de probabilidad, incluyendo distribuciones discretas y continuas. Explica que una variable aleatoria discreta puede tomar valores específicos mientras que una continua puede tomar cualquier valor dentro de un rango. También describe distribuciones comunes como la binomial, Poisson, exponencial y normal, y proporciona ejemplos de cómo se pueden aplicar a diferentes situaciones.
El documento resume varias distribuciones de probabilidad importantes como la distribución de Bernoulli, la distribución binomial, la distribución de Poisson, la distribución normal, la distribución gamma y la distribución t-student. Para cada distribución, se define brevemente y se proporciona un ejemplo ilustrativo. El documento explica cuándo es apropiado usar cada distribución y cómo modelar diferentes tipos de fenómenos aleatorios.
Este documento describe el procesamiento digital de señales sísmicas utilizando el lenguaje de programación MATLAB. Se aplican técnicas como la transformada rápida de Fourier, filtrado, y transformada de Hilbert para calcular automáticamente los parámetros de las señales sísmicas como la fase P, fase S, periodo y amplitud. Se propone diseñar una interfaz gráfica en MATLAB para facilitar la lectura y visualización de señales sísmicas.
Las distribuciones Bernoulli, binomial y de Poisson describen el número de éxitos o eventos que ocurren. La distribución normal describe variables continuas simétricas. La distribución gamma modela variables continuas con asimetría positiva. La distribución t se usa para estimar medias cuando las desviaciones estándar se desconocen.
Simeón Dennis Poisson fue un matemático francés que desarrolló la distribución de Poisson en el siglo XIX. La distribución de Poisson describe procesos aleatorios donde los eventos ocurren con una tasa constante y son independientes entre sí, como las llamadas telefónicas que recibe un negocio en un día. Se utiliza comúnmente cuando la probabilidad de un evento es baja pero el número total de posibles resultados es grande.
Este documento describe la distribución de Poisson. Explica que se usa para modelar el número de eventos aleatorios que ocurren en un período de tiempo o espacio fijo cuando los eventos ocurren con una tasa media conocida de forma independiente. Detalla las características clave de la distribución de Poisson como su función de probabilidad, esperanza y varianza. También proporciona ejemplos para ilustrar cómo se puede aplicar la distribución de Poisson para calcular probabilidades.
La distribución de Poisson describe la probabilidad de que ocurran un número de eventos en un período de tiempo si estos ocurren a una tasa promedio conocida e independientemente del tiempo transcurrido desde el último evento. Fue descubierta por Siméon-Denis Poisson en 1838. Un proceso de Poisson es un proceso estocástico donde los tiempos entre eventos son independientes e idénticamente distribuidos de forma exponencial, y el número de eventos en un intervalo de tiempo tiene una distribución de Poisson.
Este documento introduce los conceptos de procesos estocásticos y cadenas de Markov. Explica que los procesos estocásticos describen el comportamiento de variables aleatorias a lo largo del tiempo y que las cadenas de Markov son procesos estocásticos en los que el estado futuro depende solo del estado presente. Además, describe el proceso de Poisson, que modela sucesos aleatorios independientes en el tiempo, y explica cómo calcular la probabilidad de que un suceso ocurra n veces en un intervalo de tiempo dado. Finalmente, introduce conceptos
2. El proceso de Poisson
Es el proceso puntual más importante
Tiene un rol muy importante, equivalente al de la distribución
normal dentro de las distribuciones estadísticas.
Por el teorema del límite central, obtenemos una distribución
normal cuando sumamos variables aleatorias.
De manera similar, obtenemos la distribución exponencial
cuando superponemos procesos estocásticos puntuales.
La mayoría de los procesos puntuales son generalizaciones o
modificaciones del proceso de Poisson.
Este proceso da una muy buena descripción de muchos
procesos de la vida real.
Esto se debe a que el proceso de Poisson es el proceso más
aleatorio. Entre más complejo sea el proceso, será modelado
de manera más cercana por el proceso de Poisson.
3. Características del proceso de Poisson
El proceso de Poisson es,
Estacionario
Independiente en todos los instantes de tiempo
Simple
Las dos últimas características son fundamentales.
La primera característica no es indispensable. Podría existir un
proceso de Poisson que tenga intensidad dependiente en el
tiempo.
El proceso de Poisson puede representarse:
Por número: El número de eventos dentro de un intervalo de
longitud fija tiene una distribución de Poisson.
Por Intervalo: La distancia en tiempo Xi entre eventos consecutivos
es exponencialmente distribuida.
4. Definición
La distribución de probabilidad de la v.a. de Poisson X, que
representa el número de resultados que ocurren en un
intervalo dado o región específicos (t) y que se puede
representar como λt, es
Donde λ es el número promedio de resultados por unidad de
tiempo, distancia, área o volúmen.
( )
( )
!
t x
e t
f x
x
λ
λ−
=
tiempo
intervalo
Región
5. Relación con la distribución exponencial
La v.a. X que es igual a la distancia entre conteos
sucesivos de un proceso de Poisson con media λ>0 tiene
una distribución exponencial con parámetro λ. La
función de densidad de probabilidad de X es
Para
Ejemplo: intervalo temporal
( ) x
f x e λ
λ −
=
0 x≤ ≤ ∞
tiempo
r ocurrencias en t seg.
r es una v.a. de Poisson
x: tiempo entre ocurrencias
v.a. exponencial
6. Relación del proceso de Poisson con la
distribución Erlang
Como se mencionó antes, una v.a. de Erlang puede verse como la
suma de r v.a. exponenciales.
Distribución de ErlangDistribución
acumulada de
Poisson Probabilidad de supervivencia para una distribución
Erlang (complemento de la distribución acumulada)
tiempo
x1
(v.a. de Erlang)
x2 x3
Tiempo de r=3 ocurrencias
Inicio del conteo
7. Aplicaciones de las distribuciones
Distribución Aplicación
Exponencial Tiempos entre llegadas de llamadas,
cuando el tráfico es generado por seres
humanos
Erlang-k Tiempo que transcurrió para que llegaran
k llamadas
Poisson Número de llamadas en un sistema
telefónico
Trabajos en un sistema computacional
8. Ejemplo
Suponga que llegan llamadas a una central telefónica SPC
(Stored Program Controlled) de acuerdo con un Proceso
de Poisson. La central recolecta información
automáticamente por cada 1000 llamadas.
Los tiempos entre dos registros tendrán una distribución
Erlang-1000.
9. Ejemplo: Sistema satelital con Aloha
Ranurado
Consideremos un sistema de comunicaciones satelitales con una longitud de
paquetes constante, h.
El satélite está ubicado en una órbita geoestacionaria a 36.000 Km sobre el Ecuador,
por lo que el tiempo de ida y vuelta (round trip time) es 280ms.
El tiempo de la comunicación está dividido en ranuras de duración fija,
correspondiente a la longitud del paquete (h).
Una estación terrena individual transmite paquetes que están sincronizados con las
ranuras de tiempo.
En el satélite, todos los paquetes que se reciben durante una ranura de tiempo son
transmitidos en la siguiente ranura.
La transmisión de un paquete es correcta sólo si éste es el único paquete
transmitido durante la ranura de tiempo.
Si hay más paquetes transmitidos simultánemente, habrá una colisión y todos los
paquetes se perderán y deberán ser retransmitidos.
Todas las estaciones terrenas reciben todos los paquetes transmitidos por el
satélite. Así, pueden decidir si un paquete ha sido recibido correctamente.
Debido al tiempo de retardo, las estaciones terrenas transmiten paquetes
independientemente.
10. Ejemplo: Sistema satelital con Aloha
ranurado
Bajo estas condiciones se puede suponer un proceso de
llegadas de Poisson, con una tasa de llegadas λ.
Por tanto, el la probabilidad de que lleguen i paquetes en
una ranura de tiempo está dada por,
Por tanto, la probabilidad de que haya una transmisión
correcta sería la probabilidad de que sólo llegue un
paquete (no hay colisión). Esta se calcula como,
Que correspondería al porcentaje del tiempo que hay una
transmisión efectiva.
11. Ejemplo: Sistema satelital con Aloha
ranurado
Si quisieramos hallar el valor en que la función p(1) se
hace máxima, es decir, el máximo rendimiento que puede
obtener, debemos obtener el máximo cuando variamos el
producto λh:
Si reemplazamos el valor de λh calculado, obtendremos el
máximo rendimiento posible en la comunicación:
12. Comparación de Aloha ranurada con Aloha
Siguiendo un procedimiento
similar, se puede obtener el
rendimiento de Aloha simple
y se pueden comparar los
rendimientos máximos
obtenidos con las dos
estrategias de acceso al
medio.
Se observa que Aloha
ranurado puede alcanzar un
mayor rendimiento que
Aloha simple.
13. Relación con la distribución binomial
La probabilidad de una v.a con distribución binomial
tiene la forma:
Si n se incrementa y p se hace muy pequeña, de
manera que se mantenga siempre el producto
pn=kte=λ (este producto es la media), entonces
Por tanto, cuando n es muy grande, tiende a una
distribución de Poisson:
( ) (1 )x n xn
P X x p p
x
−
= = −
( ) 1
x n x
n
P X x
x n n
λ λ
−
= = −
lim ( )
!
x
n
e
P X x
x
λ
λ−
→∞ = =
14. Analogía de los procesos de Poisson y
Binomial
La distribución
exponencial es la
única distribución
contínua con falta
de memoria. Es la
base para construir
procesos de
Poisson.
La distribución
geométrica es la
única distribución
discreta con falta
de memoria. Es la
base para construir
procesos
Binomiales.
15. Propiedades del proceso de Poisson
El proceso de Poisson es el proceso más aleatorio que se
puede encontrar (proceso de máximo desorden).
El proceso de Poisson da una buena descripción de un
proceso físico cuando hay muchos factores diferentes
detrás de él.
Posee la propiedad PASTA: Poisson Arrivals See Time
Averages
16. Propiedad PASTA
Para el proceso de Poisson, la distribución de clientes en el
sistema que es vista por un cliente que llega es típica en el
sentido de que siempre se ve el valor medio de clientes en
cola en instantes de tiempo elegidos aleatoriamente.
Ejemplo:
Supónganse llegadas periódicas a un sistema cada 2 segundos. Cada
llegada es servida en 1 segundo y sale del sistema.
Claramente, cada cliente que llega ve el sistema vacío. Sin embargo,
el sistema está ocupado la mitad del tiempo y esto podría ser
observado por observaciones aleatorias.
17. Propiedad de Superposición (Teorema de
Palm)
Si se superponen varios procesos puntuales independientes, el
proceso total que da como resultado será localmente un
proceso de Poisson.
Término “Local”: Se consideran intervalos muy cortos y cada
proceso contribuye como máximo con un evento durante este
intervalo.
18. Propiedad de descomposición (Teorema de
Raikov)
Si se hace una descomposición aleatoria de un proceso
puntual en varios sub-procesos, los procesos individuales
convergen a un proceso de Poisson, siempre que la
probabilidad de que un evento pertenezca a el mismo
subproceso tienda a cero.
19. Traslación
Es el desplazamiento de los eventos individuales.
Cuando una traslación para cada evento es una variable
aleatoria, independiente de los otros eventos, un proceso
puntual arbitrario convergerá a un proceso de Poisson.
20. Generalizaciones del Proceso estacionario de
Poisson
El proceso de Poisson ha sido generalizado de varias
maneras.
Algunas son:
IPP: Interrupted Poisson Process
MMPP: Markov Modulated Poisson Processes
MAP: Markov Arrival Processes
21. IPP: Interrupted Poisson Process
Fue propuesto por Kuczura (1973) y es ampliamente
usado.
La aplicación original fue para el problema del sobreflujo:
Nodo I
Nodo
Alterno
Camino normal
Camino alterno
en caso de
congestión
tiempo
Proceso de Poisson
IPP: Proceso de Poisson Interrumpido: las
llegadas durante el estado ON tienen una
distribución de Poisson
22. Modelo del IPP
Kuczura modeló los intervalos on y off mediante
intervalos de tiempo con intensidades γ y ω
respectivamente.
Este modelo también sirve para modelar el tráfico de
paquetes generados por la voz (off: silencios; on: habla)
23. Modelo del IPP
Kuczura también demostró que esto corresponde
tiempos entre-llegadas distribuidos hiper-
exponencialmente.
Puede demostrarse que los parámetros están
relacionados así:
24. MMPP: Proceso de Poisson Modulado por
Markov
Es una generalización del proceso IPP.
IPP es un MMPP de dos estados (on/off)
Un proceso MMPP puede tener varios estados con
diferentes tasas
La utilidad del proceso MMPP puede utilizarse para
modelar tráfico autosimilar.
25. Tráfico Auto-similar
Trafico observado en una red Ethernet (autosimilar) (a) y trafico obtenido de
un procesó Poisson (no autosimilar) (b).
Fuente: Marco Aurelio Alzate Monroy, Introducción al trafico autosimilar en redes de
comunicaciones, Universidad Distrital Francisco José de Caldas, revista de ingenieríaVol
6 No. 2 año 2001
26. Proceso autosimilar
Un proceso estocástico x(t) es estadísticamente autosimilar
con parámetro H (0.5 ≤ H ≤ 1) si para todo real a >0, el
proceso x(at) tiene las mismas propiedades estadísticas que
x(t). Esta relación puede ser expresada por las siguientes tres
condiciones:
1. Media
2. Varianza
3. Auto correlación
[ ] }{
H
a
atxE
txE
)(
)( =
[ ] ( )[ ]
H
a
atxVar
txVar 2
)( =
H
x
x
a
asatR
stR 2
),(
),( =
27. Procesos Discretos Autosimilares
Una manera de ver la serie agregada de tiempo es verla
como una técnica para comprimir la escala de tiempo.
Podemos considerar como una mayor magnificación o
mayor resolución posible para esta serie de tiempo. El
proceso es el mismo proceso reducido en su
magnificación por un factor de 3. Promediando sobre
cada grupo de tres puntos perdemos el detalle fino
disponible a la mayor magnificación.
Podemos también ver cada punto en la serie como un
promedio de tiempo del proceso x para m muestras.
Si la estadística del proceso (media, varianza, correlación,
etc.) se conserva con la compresión, estamos tratando
con un proceso auto similar.
(2)
x
)3(
x
)(m
x
28. Procesos Discretos Autosimilares
Se dice que un proceso s es exactamente autosimilar con
parámetro β (0 < β < 1) si para todo m = 1, 2,... ,
tenemos:
Varianza
Autocorrelación
Nota:
{ } β
m
xVar
xVar m )()(
=
)()()( kRkR xmx =
)1(2 H−=β
29. Parámetro Hurst
El valor de H, conocido como el parámetro H, o el
parámetro de auto-símilaridad, es una medida clave de la
auto-similaridad. Más precisamente, H es una medida de
la persistencia de la dependencia de largo rango del
proceso estocástico.
Un valor de H = 0.5 indica ausencia de autosimilaridad.
Cuanto más cerca de 1 esté H, mayor el grado de
persistencia y de la dependencia de largo rango.
30. Generación de tráfico autosimilar utilizando
MMPP
Fuente. Jurado, E. Casilari,A. Reyes,A. Díaz-Estrella y F. Sandoval,
Modelado Markoviano deTráfico Agregado ATM, Dpto.Tecnología Electrónica,
E.T.S.I.Telecomunicación, Universidad de Málaga, 1999
31. Generación de tráfico autosimilar utilizando
MMPP
Otra forma es utilizar una variante denominada D-MMPP
El modelo d-MMPP (d procesos MMPP de dos estados, o dos
procesos IPP) combina la simplicidad de la conmutación
markoviana con la de la generación Poissoniana.
Este modelo es desarrollado como una aproximación del
trafico real de internet, el cual posee características
autosimilares.
32. Cálculo del parámetro Hurst
[ ]( ) [ ]( ) ( )mXVarXVar
m
logloglog β−=
[ ]( )m
xVarlog )log(m
)1(2 −H
[ ] [ ]
)1(2 H
XVarmXVar
m
−=
=
β
β
Un de las técnicas mas utilizadas es el diagrama varianza-tiempo. En
efecto, tomando la condición de autosimilaridad:
Obtenemos:
Tomando el logaritmo a cada lado de la ecuación obtenemos:
de manera que al graficar contra
obtenemos una curva cuya pendiente es
.
{ } β
m
xVar
xVar m )()(
=
33. Cálculo del parámetro Hurst
H=0.54965
Cuando se tiene una serie de tiempo suficientemente larga como para estimar con
suficientemente precisión de las series agregadas para un amplio rango de valores
m, se podrá construir una grafica. Si detectamos algún tipo de alineación con una
pendiente entre -1 y 0 (ó 0.5<H<1), podemos interpretarla como un fenómeno
autosimilar y la pendiente (obtenida Regresión con Mínimos Cuadrados) resulta de
la ecuación )1(2 −H