Abstract--- En este paper empezamos profundizando la importancia que tiene la probabilidad en el campo de la ingeniería, ya que la probabilidad nos ayuda a modelar experimentos que muchas veces dependen de una aleatoriedad, como parte teórica profundizamos en las formulas básicas de las leyes de la probabilidad que nos harán falta para el desarrollo del problema que será posteriormente descrito, después no enfocamos en encontrar una aplicación práctica del tema “las variables aleatorias y distribuciones de probabilidad”, pero esta aplicación guiada no solo a la teoría de la probabilidad, si no más bien enfocada a lo que es la ingeniería eléctrica, para ello entramos un poco en lo que es una línea de transmisión para en nuestro caso enviar una señal, que al sumarle una señal de ruido nos dará la señal de salida resultante; veremos lo útil que son las funciones de densidad de probabilidad que nos ayudarán a modelar una señal de ruido ya que en la vida real una señal puede estar descrita matemáticamente por una función periódica que nos dará una aproximación muy grande a lo que se pude encontrar n la realidad, habiendo visto esto se procederá a plantear un problema practico y luego a su desarrollo detallado.
BIENESTAR TOTAL - LA EXPERIENCIA DEL CLIENTE CON ATR
Variables aleatorias y distribuciones de probabilidad
1. 1
Variables Aleatorias y Distribuciones de
Probabilidad
Pedro Francisco Rodas Rivera, Autor
Ingeniería Eléctrica, Universidad Politécnica Salesiana
Cuenca, Ecuador
prodas@est.ups.edu.ec
Abstract—En este paper empezamos profundizando la impor- II. M ARCO TEÓRICO
tancia que tiene la probabilidad en el campo de la ingeniería,
ya que la probabilidad nos ayuda a modelar experimentos que A. Probabilidad
muchas veces dependen de una aleatoriedad, como parte teórica La forma más sencilla de describir a la probabilidad sería
profundizamos en las formulas básicas de las leyes de la proba- decir que es la posibilidad (dada en forma numérica) de que
bilidad que nos harán falta para el desarrollo del problema que
será posteriormente descrito, después no enfocamos en encontrar
ocurra un evento, a la vez que sabemos que esta posibilidad
una aplicación práctica del tema “las variables aleatorias y está comprendida entre 0 y 1, es decir que mientras menor sea
distribuciones de probabilidad”, pero esta aplicación guiada no la probabilidad de que un evento ocurra esta se aproximará
solo a la teoría de la probabilidad, si no más bien enfocada a a 0 y podemos darle el nombre de probabilidad de una
lo que es la ingeniería eléctrica, para ello entramos un poco imposibilidad cuando este valor sea 0; por otro lado mientras
en lo que es una línea de transmisión para en nuestro caso
enviar una señal, que al sumarle una señal de ruido nos dará la
mayor sea la probabilidad de que un evento ocurra esta será
señal de salida resultante; veremos lo útil que son las funciones más cercana a 1 y podemos darle el nombre de probabilidad
de densidad de probabilidad que nos ayudarán a modelar una de certeza cuando el valor de la probabilidad sea 1.
señal de ruido ya que en la vida real una señal puede estar
descrita matemáticamente por una función periódica que nos P (evento cierto) = 1
dará una aproximación muy grande a lo que se pude encontrar
n la realidad, habiendo visto esto se procederá a plantear un
problema practico y luego a su desarrollo detallado. P (evento imposible) = 0
Index Terms—probabilidad, eventos, experimento, espacio
muestral, posibilidades, variables aleatorias, discreta, continua,
∴ 0 ≤ P (Ei ) ≤ 1 (1)
distribuciones de probabilidad, función de distribución acumu-
lada, función de masa de probabilidad, función de densidad de donde Ei es algún evento cualquiera, ver [1].
probabilidad, múltiples variables aleatorias, función de transfer-
encia, señales, ruido
B. Experimento
Viene del proceso que produce un evento, y se lo denomina
I. I NTRODUCCIÓN
como toda acción bien definida que nos da un resultado único
Sin tener en cuenta la profesión que se haya elegido, bien definido, ver [1].
una cosa siempre será segura: en nuestra vida profesional
estaremos expuestos a la toma de decisiones, las cuales C. Espacio muestral
muchas veces tendremos que hacer sin saber con exactitud
Se lo puede definir como el conjunto de todas las posibles
las consecuencias de dichas decisiones, al utilizar la probabil-
medidas o resultados de un experimento y lo denotamos con
idad, la estadística y sus diferentes modelos podemos reducir
la letra S, ver [1].
enormemente la incertidumbre para dicha toma de decisiones.
Enfocándonos más en el área de la ingeniería, nos hacemos Ejemplo 1. Variabilidad de los elementos electrónicos
la pregunta por qué el ingeniero necesita estudiar las leyes
de la probabilidad y la estadística?, esto sin duda es por Considerando la variabilidad en los valores de los elementos
que la teoría de la probabilidad que antiguamente se utilizaba electrónicos de un circuito RC (filtro pasa bajos), como
solamente para encontrar las probabilidades en los juegos de se representa en la Figura 1. Suponiendo que los valores
azar, hoy en día a tenido un desarrollo mucho más extenso exactos de R y C no son perfectamente controlados por el
en el área matemática, de modelado y de análisis; por lo que fabricante, pero sabiendo que satisfacen [95 ≤ R ≤ 105] Ω y
podemos estar seguros de que ayudarnos en la teoría de la [300 ≤ C ≤ 340] µF .
probabilidad nos proporcionará una poderosa herramienta para Esto por lo tanto nos indica que el espacio muestral está
el rato de explicar, modelar, analizar y diseñar los diferentes comprendido entre los pares ordenados de los números reales
sistemas tecnológicos desarrollados por los ingenieros eléctri- (r, c) donde 95 ≤ r ≤ 105 y 300 ≤ c ≤ 340. Y
cos, electrónicos y de sistemas. simbólicamente escribimos al espacio muestral como:
2. 2
S = {95 ≤ r ≤ 105 y 300 ≤ c ≤ 340} 2) Variable aleatoria continua: Una variable aleatoria con-
tinua se encuentra comprendida en un rango de valores cua-
el cual está representado en la región rectangular, como se
lesquiera, pero estos pueden asumir un número infinito de
representa en la Figura 2.
valores que se pueden medir, ver [7].
Ejemplos:
• El peso en gramos de una moneda.
• Las dimensiones de un vehículo.
Figura 1. Filtro RC pasa bajos E. Distribuciones de probabilidad
La distribución de probabilidad nos muestra todos los val-
ores obtenidos como resultado del experimento y asigna un
valor de probabilidad a cada uno de los resultados, ver [2],
[8].
Ejemplo 3. Lanzamiento de una moneda
Figura 2. Espacio muestral para los posibles valores de R y C Supongamos que lanzamos una moneda no alterada al aire
dos veces, y estamos interesados en formular el número de
sellos que podríamos obtener del experimento de lanzar la
D. Variable aleatoria moneda dos veces.
Como sabemos que son solo dos lanzamientos los únicos
Es una variable cuyo valor es el resultado de un evento posibles resultados serían SS, SC, CC y CS; como sabemos
aleatorio, para la mayoría de aplicaciones tecnológicas, la que en cada lanzamiento hay un 50% de probabilidad de que
medición y observación de datos es expresada de forma salga cara y 50% de que salga sello entonces la probabilidad
numérica, a estas mediciones que tiene una variabilidad in- de cada una es 0.5, la tabla 2 ilustra los resultados y nos
definida cada vez que se repiten se las conoce como variable muestra la probabilidad obtenida para cada caso.
aleatoria; una variable aleatoria X es una función que asigna Ahora podemos empezar por anotar los resultados que no
un número real x a cada uno de sus valores en el espacio tengan ningún sello (el tercero), luego los resultados que
muestral de un experimento aleatorio, ver [2], [3], [4], [5], contengan solo un sello (segundo y cuarto), y por último el
[6]. resultado que obtuvo dos sellos (el primero), la tabla 3 nos
muestra estos valores y su respectiva probabilidad. Sabiendo
Ejemplo 2. Un juego de apuestas
que la tabla 3 no muestra el resultado real del experimento, si
Un jugador paga $1.50 para jugar el siguiente juego: Una no el resultado teórico del mismo.
moneda es lanzada hacia el aire tres veces y se cuenta el Tabla 2. Posibles resultados de lanzar una moneda dos veces
número de caras X. El jugador recibe $1 si X = 2 y $8
si X = 3, pero no recibe nada si sale cualquier otro caso. 1er lanz. 2do lanz. # de sellos en 2 lanz. Probabilidad
Ahora hagamos que Y sea el premio que el jugador recibe, si S S 2 0.5 × 0.5 = 0.25
Y es una función de la variable aleatoria X y sus resultados S C 1 0.5 × 0.5 = 0.25
pueden estar dados por el proceso de experimentos aleatorios C C 0 0.5 × 0.5 = 0.25
dados por el espacio muestral siguiente: C S 1 0.5 × 0.5 = 0.25
1.00
Tabla 1. Espacio muestral del ejemplo 2
Tabla 3. Distribución de probabilidad del número posible de sellos
ζ: CCC CCS CSC SCC CSS SCS SSC SSS
X (ζ) : 3 2 2 2 1 1 1 0 # de sellos lanzamientos P(S)
Y (ζ) : 8 1 1 1 0 0 0 0 0 (C, C) 0.25
de este experimento aleatorio podemos observar que Y es la 1 (S, C) + (C, S) 0.50
variable aleatoria y que esta toma los valores en el espacio 2 (S, S) 0.25
muestral de SY = {0, 1, 8}.
1) Variable aleatoria discreta: Una variable discreta pro-
porciona datos cuantitativos discretos (respuestas numéricas)
que resultan del proceso de conteo, ver [7].
Ejemplos:
• El número de caras en cinco lanzamientos de una mon-
eda.
Figura 3. Distribución de probabilidad del número de sellos obtenidos en dos
• El número de circuitos en una computadora. lanzamientos de una moneda no alterada
3. 3
1) Función de distribución acumulada (fda): La (fda) se G. Distribuciones de probabilidad para la variable aleatoria
diferencia de la (fmp) y de la (fdp) por que no está restringida continua
a variable aleatorias discretas o continuas sirve para todas las La distribución de probabilidad continua es aquella donde
variables aleatorias, esta está dada en términos del evento las variables pueden tomar valores continuos, es decir que
{X ≤ x}, si una F (x) cumple con la siguiente formula están determinados en un rango dado, como podemos observar
podemos decir que es una (fda), ver [9]: en la figura 5 que estamos tomando solo un segmento del área
bajo la curva desde un X1 hasta un Xn ya que esta puede ser
F (x) = P [X ≤ x] , para -∞ < x < ∞ (2) infinita, se las conoce más como funciones de densidad, ver
[10], [14].
Más adelante detallaremos la (fda) para cada una de las
variables aleatorias.
F. Distribuciones de probabilidad para la variable aleatoria
discreta
Figura 5. Representación gráfica de una función de distribución de probabil-
La distribución de probabilidad discreta es la que puede idad continua
tomar valores solo valores discretos, es decir un número A diferencia de las variables aleatorias discretas que se
limitado de valores, como se ve en la figura 4 la función toma representan de forma tabular, para las variables aleatorias
diferentes valores X1 X2 hasta Xn pero cada uno está dado continuas necesitamos representar a la probabilidad como el
por un número real, ver [10], [11]. área bajo la curva que está comprendida entre un intervalo,
como se observa en la figura 5, ya que para la mayoría de
los casos la función de densidad toman forma de curvas que
pueden ser comprendidas en un rango delimitado por un valor
de las ordenadas x = a y x = b.
1) Función de densidad de probabilidad (fdp): La función
de densidad de probabilidad de X, si existe está definida como
la derivada de la función FX (x), ver [15]:
Figura 4. Representación gráfica de una función de distribución de probabil- dFX (x)
idad discreta fX (x) = (7)
dx
1) Función de masa de probabilidad (fmp): También cono- La (fdp) es una forma alternativa mucho más eficiente y
cida como función de probabilidades o distribución de proba- útil de especificar la información contenida en una (fda), la
bilidad del conjunto de pares ordenados [x, f (x)], es cuando (fdp) representa la densidad de probabilidad en un punto x
una variable aleatoria discreta X toma varios valores x, está de manera que la probabilidad que tiene X en pequeños
definida en terminos del evento {X = x}, y si una función intervalos en las proximidades de x está en terminos del evento
f (x) cumple con las siguientes tres propiedades, que además {x < X ≤ x + h} y nos da como resultado:
nos sirven para el cálculo de la probabilidad podemos decir
que es una (fmp), ver [11], [12], [13]: P [x < X ≤ x + h]] = FX (x + h) − FX (x)
f (x) ≥ 0 (3) FX (x + h) − FX (x)
P [x < X ≤ x + h]] = h (8)
h
Si la (fda) tiene una derivada en x, entonces según h
decrese, tenemos, como se ve en la figura 6:
f (x) = 1 (4)
x
P [x < X ≤ x + h] fX (x) h (9)
Por lo tanto si fX (x) representa la “densidad” de proba-
P (X = x) = f (x) (5) bilidad en el punto x en el sentido en que X en pequeños
intervalos tiende a las proximidades de fX (x) h, la derivada
2) Función de distribución acumulada (fda): Partiendo de de una (fda) existirá cuando la parte positiva de la (fda) sea
la ecuación (2) vista anteriormente podemos ahora describir una función no decresiente de x, por lo tanto debe cumplir
una relación que esté ligada solo a las variables aleatorias con los siguiente:
discretas, ver [11]:
fX (x) ≥ 0, para todo x∈R (10)
F (x) = P (X ≤ x) = f (t) , para -∞ < x < ∞ (6) ∞
t≤x
fX (t) dt = 1 (11)
−∞
4. 4
La probabilidad comprendida en un intervalo definido está
dada por, como se muestra en la figura 7:
b
P (a ≤ X ≤ b) = fX (x) dx (12)
a
Figura 8. Probabilidad comprendida en el área bajo la curva
2) Función de distribución acumulada (fda): De igual
forma que para las variables aleatorias discretas si partimos de
la ecuación (2) vista anteriormente podemos ahora describir
una relación que esté ligada solo a las variables aleatorias
continas, ver [14]:
x
F (x) = P (X ≤ x) = f (t) dt, para -∞ < x < ∞
−∞
(13)
Ahora si deseamos encontrar la probabilidad en un intervalo
comprendido de la FX (x) con una x = a y una x = b,
Figura 6. La (fdp) especifica la probabilidad en un ancho de intervalo
infinitesimal tenemos:
P (a < X < b) = FX (b) − FX (a) (14)
H. Múltiples variables aleatorias
Para el caso de múltiples variables aleatorias tomaremos en
cuenta que habrán casos en los necesitemos tomar los datos
de dos o más variables aleatorias al mismo tiempo, tendremos
f (x, y) que tomará cualesquiera valor (x, y) en el rango
de la variable aleatoria X y Y . A esta función la podemos
denominar distribución de probabilidad conjunta (dpc) de X y
Y.
Figura 7. La probabilidad de un intervalo [a, b] es el área bajo la curva del De aquí, para el caso discreto tenemos:
intervalo de la (fdp)
f (x, y) = P (X = x, Y = x) (15)
Ejemplo 4. Ruteador de internet
Para mayor detalle de casos probabilísticos de múltiples
Un router de internet puede enviar paquetes de datos vía la variables ver Apéndice y revisar [16], [17], [18].
ruta 1 o la ruta 2. Los paquetes que se retrasan en cada ruta son
variables aleatorias independientes, por lo que la diferencia de III. F ORMULACIÓN DEL PROBLEMA
retraso entre la ruta 1 y la ruta 2, se la denota con X, la (fdp) En esta sección nos enfocamos en presentar un problema
de la variable aleatoria es f (x) = λ e−λ|x|
2
con bases en la ingeniería eléctrica, para de esta forma de-
Encontrar P (−3 ≤ X ≤ −2 o 0 ≤ X ≤ 3) mostrar la importancia de la probabilidad y la estadística en la
La probabilidad deseada puede ser escrita como: ingeniería. Para un correcto desarrollo de la problemática y una
buena resolución del mismo me he guiado en los modelados
P ({−3 ≤ X ≤ −2} ∪ {0 ≤ X ≤ 3}), como se observa en
matemáticos y probabilísticos, como se ve en [19].
la figura 8.
Como estos son eventos independientes, la probabilidad de A. Formulación de la hipótesis
la unión es la suma de sus probabilidades individuales, por lo
Idealmente los sistemas de transmisión tienen una función
que necesitamos calcular: Y (s)
de transferencia H (s) = X(s) = 1, donde X (s) = vin
P (−3 ≤ X ≤ −2) y P (0 ≤ X ≤ 3)
y Y (s) = vout , es decir que vin = vout otra vez esto es
Con lo que ahora procedemos a usar la ecuación (12) para idealmente, pero sabemos que en el mundo real esto no ocurre,
encontrar la probabilidad de las diferentes regiones: mayoritariamente por el ingreso de ruido no deseado a la línea
−2 −2
P (−3 ≤ X ≤ −2) = −3 λ e−λ|x| dx = λ −3 eλx dx =
2 2 de transmisión, por lo que ahora tendríamos la adición de una
e−2λ −e−3λ señal de ruido vnoise a la señal resultante en la salida, con lo
2
y que la nueva relación sería vin + vnoise = vout .
3 3
P (0 ≤ X ≤ 3) = 0 λ e−λ|x| dx = λ 0 eλx dx = 1−e
−3λ
Entonces con el siguiente experimento lo que queremos es
2 2 2
observar la respuesta en la salida dependiendo de una variable
Y para la probabilidad requerida sumamos ambos resulta-
aleatoria en el ingreso al sumarle una señal de ruido, que
dos:
−2λ
−2e−3λ para nuestro caso será una función dependiente de la señal
P ({−3 ≤ X ≤ −2} ∪ {0 ≤ X ≤ 3}) = 1+e 2 de ingreso, es decir con (fdp) conocida.
5. 5
B. Planteamiento del experimento P [B1 ] = p
El experimento consiste en un sistema de transmisión bi- y
naria es decir que tiene dos estados uno para el “0” y otro P [B0 ] = 1 − p
para el “1” si sabemos que la señal de ingreso es una variable
B. Resolución
aleatoria X y la señal de ruido es una función dependiente
de esta variable X, es decir la señal de ruido es f (X), como Haciendo uso de la ecuación (17) podemos simplificar y
para nuestro caso necesitamos una variable aleatoria continua encontrar que:
nos referimos a la tabla en [20]. Para escoger una variable FY = FY (x | B0 ) [B0 ] + FY (x | B1 ) [B1 ]
aleatoria continua adecuada para nuestra señal de ruido. donde
FY (x | B0 ) es el evento comprendido por {Y ≤ x | X = −v}
por lo que la probabilidad es:
C. Modelado
P [FY (x | B0 )] = P [Y ≤ x | X = −v]}
Después de revisar la tabla en [20]. Escogemos la variable y
aleatoria Gaussiana cuya (fdp) es: P [B0 ] = 1 − p
e
−(x−m)2/2σ 2 de igual forma tenemos que (x | B1 ) es elvento comprendido
fN (x) = √
2Πσ 2 por {Y ≤ x | X = v}
ya que su espacio muestral SX (−∞, ∞) y donde σ > 0 por lo que la probabilidad es:
y m son constantes, imponiendonos el valor de su espectativa P [FY (x | B1 )] = P [Y ≤ x | X = +v]
E (X) = m = 0. y
Resultandos en la (fdp) siguiente: P [B1 ] = p
haciendo uso de los resultados remplazamos en la original para
−x2/2σ 2
e√ tener:
fN (x) = 2Πσ 2
−∞<x<∞
FY (x) = P [Y ≤ x | X = −v] (1 − p) +
Podemos ahora plantearnos el sigueinte problema: P [Y ≤ x | X = +v] p
Ahora sabiendo que Y = X + N , tenemos:
Problema. Hagamos que un sistema de transmisión binaria
que el evento {Y < x | X = +v} es equivalente a
envíe un bit “0” al transmitir una señal de voltaje −v, y envíe
{v + N < x} que es igual a {N < x − v},
un bit “1” al transmitir una señal de voltaje +v. Durante el
y
envió, la señal es corrompida con ruido proveniente de una
que el evento {Y < x | X = −v} es equivalente a
señal conocida descrita por una función Gaussiana, la señal
{N < x + v}.
recibida esta dada por la función:
Por lo tanto haciendo uso de de la ecuación (19) tenemos
Y =X +N que las (fda) condicionales son:
FY (x | B0 ) = P [N ≤ x + v] = FN (x + v)
Que visualmente está representada en la figura 9, para su
y
mayor entendimeinto del comportamiento de la salida. FY (x | B1 ) = P [N ≤ x − v] = FN (x − v).
Donde Y = vout , X = vin y N es el ruido generado por Remplazando las anteriores en la principal tenemos que la
la función Gaussiana, N tiene una (fdp) fN (x). Si asumimos (fda) es:
que la probabilidad de P [“1”] = p = 1 − P [“0”]. A manera FY (x) = FN (x + v) (1 − p) + FN (x − v) p.
de saber como se desfasará la señal de salida dependiendo de Ahora aplicando la ecuación (7) a la (fda) podemos encon-
si la entrada fue un “0” o un “1”, necesitamos encontrar la trar la (fdp) de N :
(fdp) de la entrada Y . d
fy (x) = dx FY (x)
d d
= dx FN (x + v) (1 − p) + dx FN (x − v) p
= fN (x + v) (1 − p) + fN (x − v) p
La (fdp) de la variable aleatoria Gaussiana es:
−x2/2σ 2
fN (x) = e√2Πσ2
Figura 9. Diagrama de bloque de la señal recibida Las (fdp) condicionales son:
FY (x | B0 ) = fN (x + v)
IV. R ESOLUCIÓN DEL PROBLEMA y sustituyendo el valor de x −→ (x + v) en la (fdp)
A. Definición de eventos tenemos:
−(x+v)2/2σ 2
fN (x + v) = e √2Πσ2
Dados:
y
B0 =⇒que es el evento de que el sistema binario transmita
FY (x | B1 ) = fN (x − v)
un “0”
y ahora sustituyendo el valor de x −→ (x − v) en la (fdp)
y
tenemos:
B1 =⇒que es el evento de que el sistema binario transmita −(x−v)2/2σ 2
un “1”. fN (x − v) = e √2Πσ2 .
Podemos despejar la probabilidad para cada evento guiandonos Con lo que nos queda solo sustituir los valores resultantes
en las condiciones del problema de que P [“1”] = p = 1 − para obtener la señal recibida Y , que es:
−(x+v)2/2σ 2 −(x−v)2/2σ 2
e √ e √
P [“0”]: fY (x) = 2Πσ 2
(1 − p) + 2Πσ 2
p
6. 6
V. R ESULTADOS Función de densidad de probabilidad condicional
En esta sección nos dedicamos al a explicar el uso y los
resultados de la función de densidad obtenida anteriormente d
fX (x | C) = FX (x | C) (18)
para así llegar después a las conclusiones. dx
La función de densidad de la señal de ruido fN (x) puede
Función de distribución acumulativa condicional
ser graficada a fin de entender su comportamiento para ello
utilizamos el software matemático “Derive 6”, como se ve en
la figura 10, a partir de esto para entender lo que el problema P [{X ≤ x} ∩ C]
FX (x | C) = , si P [C] > 0 (19)
realizaba cuando se enviaba un +v o un −v graficamos las P [C]
funciones de densidad encontradas fN (x + v) y fN (x − v),
y podemos observar como se ve en la figura 11 que la señal Función de masa de probabilidad condicional
transmitida X desplaza el centro de masa de la función de
densidad de la señal de ruido.
P [{X = x} ∩ C]
pX (x | X) = , si P [C] > 0 (20)
P [C]
(fmp) conjunta entre dos variables aleatorias discretas
f (x, y) ≥ 0 para toda (x, y) (21)
f (x, y) = 1 (22)
x y
Figura 10. Grafica de la (fdp) de fN (x)
P (X = x, Y = y) = f (x, y) (23)
(fdp) conjunta entre dos variables aleatorias continuas
f (x, y) ≥ 0 para toda (x, y) (24)
∞ ∞
f (x, y) dx dy = 1 (25)
Figura 11. Grafica de las (fdp) de fN (x + v) y fN (x − v) −∞ −∞
VI. C ONCLUSIONES
P [(X, Y ) ∈ A] = f (x, y) dx dy (26)
Después de realizar el paper se puede concluir que la A
investigación dio lugar a un sinfín de aplicaciones de lo que
es la probabilidad y la estadística aplicadas explícitamente a la Distribución marginal de las variables discretas
ingeniería eléctrica en cuanto a que el tema tratado introduce
las variables aleatorias que son una herramienta esencial para g (x) = f (x, y) y h (y) = f (x, y) (27)
el modelado matemático, no solo en la ingeniería eléctrica, y x
si no guiada a cualquier carrera, además el problema nos
ayudó a entender lo útil de las densidades de probabilidad Distribución marginal de las variables continuas
y las distribuciones de probabilidad en general, a lo largo del
desarrollo del paper se trataron además algunos ejemplos muy ∞ ∞
útiles para entender los diferentes modelos probabilísticos, g (x) = f (x, y) dy y h (y) = f (x, y) dx (28)
−∞ −∞
con lo que personalmente el paper aporto mucha información
indispensable para entender un poco más este amplio tema.
Distribución condicional entre dos variables aleatorias
A PÉNDICE
Probabilidad de dos eventos complementarios f (x, y)
f (y | x) = , g (x) > 0 (29)
g (x)
P (A) + P (B) = 1 (16) f (x, y)
f (x | y) = , h (y) > 0 (30)
h (y)
Teorema de la probabilidad total
P [A] = P [A | B1 ] P [B1 ] + P [A | B2 ] P [B2 ] Independencia entre dos variables aleatorias
si y solo si f (x, y) = g (x) h (y) (31)
+ . . . + P [A | Bn ] P [Bn ] (17)
7. 7
R EFERENCES
[1] A. L. Webster, “Experimentos, resultaodos, y conjuntos,” in Estadística
aplicada a los negocios y a la economía, tercera ed. Colombia:
McGraw-Hill, 2000, ch. 4, pp. 76–77.
[2] ——, “Introducción,” in Estadística aplicada a los negocios y a la
economía, tercera ed. Colombia: McGraw-Hill, 2000, ch. 5, pp. 104–
106.
[3] R. I. Levin and D. S. Rubin, “Variables aleatorias,” in Estadística para
administradores, sexta ed. México: Prentice Hall, 1996, ch. 5, pp.
236–242.
[4] R. E. Walpole, R. H. Myers, S. L. Myers, and K. Ye, “Concepto
de variable aleatoria,” in Probabilidad y estadística para ingeniería y
ciencias, octava ed. México: Pearson Educación, 2007, ch. 3, pp. 77–
80.
[5] J. A. Gubner, “Introduction to discrete random variables,” in Probability
and Random Processes for Electrical and Computer Engineers, 1st ed.
Cambridge University Press, 2006, ch. 2, p. 63.
[6] A. Leon-Garcia, “The notion of a random variable,” in Probability,
Statistics, and Random Processes for Electrical Engineering, 3rd ed.
Prentice Hall, 2008, ch. 3, pp. 96–97.
[7] J. L. Hernández González, “Distribución de probabilidad
de variables aleatorias discretas,” Tlaxcala, Mexico, p. 1.
[Online]. Available: http://www.itapizaco.edu.mx/~joseluis/apuntes/
estadistica/distribucionesdiscretas.pdf
[8] R. I. Levin and D. S. Rubin, “Introducción a las distribuciones de
probabilidad,” in Estadística para administradores, sexta ed. México:
Prentice Hall, 1996, ch. 5, pp. 232–236.
[9] A. Leon-Garcia, “The cumulative distribution function,” in Probability,
Statistics, and Random Processes for Electrical Engineering, 3rd ed.
Prentice Hall, 2008, ch. 4, pp. 141–147.
[10] J. L. Hernández González, “Distribución de probabilidad
de variables aleatorias discretas,” Tlaxcala, Mexico, p. 2.
[Online]. Available: http://www.itapizaco.edu.mx/~joseluis/apuntes/
estadistica/distribucionesdiscretas.pdf
[11] R. E. Walpole, R. H. Myers, S. L. Myers, and K. Ye, “Distribuciones
discretas de probabilidad,” in Probabilidad y estadística para ingeniería
y ciencias, octava ed. México: Pearson Educación, 2007, ch. 3, pp.
80–84.
[12] J. A. Gubner, “Probability mass functions,” in Probability and Random
Processes for Electrical and Computer Engineers, 1st ed. Cambridge
University Press, 2006, ch. 2, pp. 67–68.
[13] A. Leon-Garcia, “Discrete random variables and probability mass func-
tion,” in Probability, Statistics, and Random Processes for Electrical
Engineering, 3rd ed. Prentice Hall, 2008, ch. 3, pp. 99–104.
[14] R. E. Walpole, R. H. Myers, S. L. Myers, and K. Ye, “Distribuciones
continuas de probabilidad,” in Probabilidad y estadística para ingeniería
y ciencias, octava ed. México: Pearson Educación, 2007, ch. 3, pp.
84–87.
[15] A. Leon-Garcia, “The probability density function,” in Probability,
Statistics, and Random Processes for Electrical Engineering, 3rd ed.
Prentice Hall, 2008, ch. 4, pp. 148–152.
[16] R. E. Walpole, R. H. Myers, S. L. Myers, and K. Ye, “Distribuciones
de probabilidad conjunta,” in Probabilidad y estadística para ingeniería
y ciencias, octava ed. México: Pearson Educación, 2007, ch. 3, pp.
91–100.
[17] J. A. Gubner, “Multiple random variables,” in Probability and Random
Processes for Electrical and Computer Engineers, 1st ed. Cambridge
University Press, 2006, ch. 2, pp. 70–80.
[18] A. Leon-Garcia, “Pairs of Random Variables,” in Probability, Statistics,
and Random Processes for Electrical Engineering, 3rd ed. Prentice
Hall, 2008, ch. 5, pp. 233–257.
[19] ——, “Mathematical models as tools in analysis and design - Probability
models,” in Probability, Statistics, and Random Processes for Electrical
Engineering, 3rd ed. Prentice Hall, 2008, ch. 1, pp. 2–5.
[20] ——, “Continuous random variables,” in Probability, Statistics, and
Random Processes for Electrical Engineering, 3rd ed. Prentice Hall,
2008, ch. 4, pp. 164–165.