SlideShare una empresa de Scribd logo
1 de 10
Probabilidad
Cuando piensas en probabilidad, ¿qué imágenes te vienen a la mente? Tal vez piense en
ejemplos relacionados con los juegos de azar, como la probabilidad de ganar la lotería o
conseguir un par con dos dados. Tal vez esté prediciendo el rendimiento de las acciones,
el resultado de una elección política o si su vuelo llegará a tiempo. Nuestro mundo está
lleno de incertidumbres que queremos medir.
Quizá esa sea la palabra en la que deberíamos centrarnos:incertidumbre. ¿Cómomedimos
algo de lo que no estamos seguros?
Al final, la probabilidad es el estudio teórico de medir la certeza de que ocurrirá un evento.
Es una disciplina fundamental para las estadísticas, las pruebas de hipótesis, el aprendizaje
automático y otros temas de este libro. Mucha gente da por sentada la probabilidad y asume
que la entiende. Sin embargo, es más matizado y complicado de lo que la mayoría de la
gente piensa. Si bien los teoremas y las ideas de probabilidad son matemáticamente
sólidos, se vuelve más complejo cuando introducimos datos y nos aventuramos en las
estadísticas. Cubriremos eso en el Capítulo 4 sobre estadística y prueba de hipótesis.
En este capítulo, discutiremos qué es la probabilidad. Luego cubriremos los conceptos
matemáticos de probabilidad, el teorema de Bayes, la distribución binomial y la distribución
beta.
comprensión de la probabilidad
La probabilidad es la fuerza con la que creemos que ocurrirá un evento, a menudo
expresada como un porcentaje. Aquí hay algunas preguntas que podrían garantizar una
probabilidad de respuesta:
 ¿Qué probabilidades hay de que salgan 7 caras en 10 lanzamientos de moneda
justos?
 ¿Cuáles son mis posibilidades de ganar una elección?
 ¿Se retrasará mi vuelo?
 ¿Qué tan seguro estoy de que un producto es defectuoso?
La forma más popular de expresar la probabilidad es como un porcentaje, como en "Hay un
70% de posibilidades de que mi vuelo llegue tarde". Llamaremos a esta probabilidad P( X
), donde X es el evento de interés. Sin embargo, a medida que trabaja con probabilidades,
es más probable que lo vea expresado como un decimal (en este caso, 0,70), que debe
estar entre 0,0 y 1,0:
P ( X ) =.70
La probabilidad es similar a la probabilidad, y es fácil confundirlos (muchos diccionarios
también lo hacen). Puede salirse con la suya usando "probabilidad" y "verosimilitud"
indistintamente en una conversación cotidiana. Sin embargo, debemos precisar estas
diferencias. La probabilidad se trata de cuantificar las predicciones de eventos que aún no
han sucedido, mientras que la probabilidad mide la frecuencia de los eventos que ya
ocurrieron. En estadísticas y aprendizaje automático, a menudo usamos la probabilidad (el
pasado) en forma de datos para predecir la probabilidad (el futuro).
Es importante tener en cuenta que la probabilidad de que ocurra un evento debe estar
estrictamente entre 0% y 100%, o 0.0 y 1.0. Lógicamente, esto significa que la probabilidad
de que un evento no suceda se calcula restando la probabilidad del evento de 1.0:
P ( X ) =.70
P ( not X ) = 1 -.70 =.30
Esta es otra distinción entre probabilidad y verosimilitud. Las probabilidades de todos los
posibles resultados mutuamente excluyentes para un evento (lo que significa que solo
puede ocurrir un resultado, no múltiples) deben sumar 1.0 o 100%. Las probabilidades, sin
embargo, no están sujetas a esta regla.
Alternativamente, la probabilidad se puede expresar como una probabilidad O ( X ) como
7:3, 7/3 o 2. 333 ¯ .
Para convertir una cuota O ( X ) en una probabilidad proporcional P( X ) , utilice esta
fórmula:
Entonces, si tengo una probabilidad de 7/3, puedo convertirla en una probabilidad
proporcional como esta:
Por el contrario, puede convertir una cuota en una probabilidad simplemente dividiendo la
probabilidad de que ocurra el evento por la probabilidad de que no ocurra:
¡LAS PROBABILIDADES SON ÚTILES!
Si bien muchas personas se sienten más cómodas expresando probabilidades como
porcentajes o proporciones, las cuotas pueden ser una herramienta útil. Si tengo una
probabilidad de 2.0, eso significa que siento que un evento tiene dos veces más
probabilidades de suceder que de no suceder. Eso puede ser más intuitivo para describir
una creencia que un porcentaje de 66. 666 %. Por esta razón, las cuotas son útiles para
cuantificar las creencias subjetivas, especialmente en un contexto de juego/apuestas.
Desempeña un papel en las estadísticas bayesianas (incluido el factor de Bayes), así como
en las regresiones logísticas con log-odds, que trataremos en el Capítulo 6.
Probabilidad Versus Estadística
A veces, las personas usan los términos probabilidad y estadística indistintamente y, si bien
es comprensible combinar las dos disciplinas, tienen distinciones. La probabilidad es
puramente teórica de la probabilidad de que suceda un evento y no requiere datos. La
estadística, por otro lado, no puede existir sin datos y los usa para descubrir probabilidades
y proporciona herramientas para describir datos.
Piense en predecir el resultado de tirar un 4 en un dado (ese es el singular de los dados).
Al abordar el problema con una mentalidad puramente probabilística, uno simplemente dice
que hay seis caras en un dado. Suponemos que cada lado tiene la misma probabilidad, por
lo que la probabilidad de obtener un 4 es 1/6, o 16,666 %.
Sin embargo, un estadístico celoso podría decir: “¡No! Necesitamos tirar el dado para
obtener datos. Si podemos sacar 30 tiradas o más, y cuantas más tiradas hagamos mejor,
solo entonces tendremos datos para determinar la probabilidad de sacar un 4”. Este
enfoque puede parecer tonto si asumimos que el dado es justo, pero ¿y si no lo es? Si ese
es el caso, recopilar datos es la única forma de descubrir la probabilidad de sacar un 4.
Hablaremos sobre la prueba de hipótesis en el Capítulo 3.
matemáticas de probabilidad
Cuando trabajamos con una sola probabilidad de un evento P ( X ), conocida como
probabilidad marginal, la idea es bastante sencilla, como se discutió anteriormente. Pero
cuando comenzamos a combinar probabilidades de diferentes eventos, se vuelve un poco
menos intuitivo.
Probabilidades conjuntas
Digamos que tienes una moneda justa y un dado de seis caras justo. Quiere encontrar la
probabilidad de sacar cara y sacar un 6 en la moneda y el dado, respectivamente. Estas
son dos probabilidades separadas de dos eventos separados, pero queremos encontrar la
probabilidad de que ambos eventos ocurran juntos. Esto se conoce como probabilidad
conjunta.
Piense en una probabilidad conjunta como un operador AND. Quiero encontrar la
probabilidad de sacar cara Y sacar un 6. Queremos que ambos eventos sucedan juntos,
entonces, ¿cómo calculamos esta probabilidad?
Hay dos lados en una moneda y seis lados en el dado, por lo que la probabilidad de cara
es 1/2 y la probabilidad de seis es 1/6. La probabilidad de que ocurran ambos eventos
(suponiendo que sean independientes, ¡más sobre esto más adelante!) es simplemente
multiplicar los dos juntos:
P(A AND B) = P(A) × P(B)
Bastante fácil, pero ¿por qué es este el caso? Se pueden descubrir muchas reglas de
probabilidad generando todas las combinaciones posibles de eventos, lo que proviene de
un área de matemáticas discretas conocida como permutaciones y combinaciones. Para
este caso, genere todos los resultados posibles entre la moneda y el dado, emparejando
cara (H) y cruz (T) con los números del 1 al 6. Tenga en cuenta que puse asteriscos "*"
alrededor del resultado de interés donde obtenemos cara y un 6:
H1 H2 H3 H4 H5 *H6* T1 T2 T3 T4 T5 T6
Observe que hay 12 resultados posibles al lanzar nuestra moneda y lanzar nuestro dado.
El único que nos interesa es "H6", obtener cara y 6. Entonces, debido a que solo hay un
resultado que satisface nuestra condición, y hay 12 resultados posibles, la probabilidad de
obtener cara y 6 es 1/12.
En lugar de generar todas las combinaciones posibles y contar las que nos interesen,
nuevamente podemos usar la multiplicación como un atajo para encontrar la probabilidad
conjunta. Esto se conoce como la regla del producto :
P(A AND B) = P(A) × P(B)
Unión de probabilidades
Discutimos las probabilidades conjuntas, que es la probabilidad de que dos o más eventos
ocurran simultáneamente. Pero, ¿qué pasa con la probabilidad de obtener el evento A o
B?Cuando tratamos con operaciones OR con probabilidades, esto se conoce como
probabilidad de unión.
Comencemos con eventos mutuamente excluyentes, que son eventos que no pueden
ocurrir simultáneamente. Por ejemplo, si tiro un dado, no puedo obtener simultáneamente
un 4 y un 6. Solo puedo obtener un resultado. Obtener la probabilidad de unión para estos
casos es fácil. Simplemente los sumo. Si quiero encontrar la probabilidad de obtener un 4
o un 6 en una tirada de dado, será 2/6 = 1/3:
Pero, ¿qué pasa con los eventos no mutuamenteexcluyentes, que son eventos que pueden
ocurrir simultáneamente? Volvamos al ejemplo del lanzamiento de la moneda y la tirada del
dado. ¿Cuál es la probabilidad de obtener cara O un 6? Antes de que tenga la tentación de
agregar esas probabilidades, generemos todos los resultados posibles nuevamente y
resaltemos los que nos interesan.:
*H1* *H2* *H3* *H4* *H5* *H6* T1 T2 T3 T4 T5 *T6*
Aquí estamos interesados en todos los resultados de cabeza, así como en los 6 resultados.
Si proporcionamos los 7 de los 12 resultados que nos interesan, 7/12, obtenemos una
probabilidad correcta de .58 333.
Pero, ¿qué sucede si sumamos las probabilidades de cara y 6 juntas? Obtenemos una
respuesta diferente (¡y equivocada!) de . 666:
¿Porqué es eso? Estudie las combinaciones de lanzamiento de moneda y resultados de
dado nuevamente y vea si puede encontrar algo sospechoso. ¡Observe que cuando
sumamos las probabilidades, contamos dos veces la probabilidad de obtener un 6 tanto en
"H6" como en "T6"! Si esto no está claro, intente encontrar la probabilidad de obtener cara
o una tirada de 1 a 5:
Obtenemos una probabilidad del 133,333%, lo que definitivamente no es correcto porque
la probabilidad no debe ser superior al 100 % o 1,0. El problema nuevamente es que
estamos contando dos veces los resultados.
Si reflexiona lo suficiente, puede darse cuenta de que la forma lógica de eliminar el conteo
doble en una probabilidad de unión es restar la probabilidad conjunta. Esto se conoce como
la regla de la suma de probabilidades y asegura que cada evento conjunto se cuente solo
una vez.:
P(A OR B) = P(A) + P(B) - P(A AND B)
P(A OR B) = P(A) + P(B) - P(A) × P(B)
Entonces, volviendo a nuestro ejemplo de calcular la probabilidad de obtener cara o 6,
debemos restar la probabilidad conjunta de obtener cara o 6 de la probabilidad de unión:
P(A OR B) = P(A) + P(B) - P(A) × P(B)
Tenga en cuenta que esta fórmula también se aplica a eventos mutuamente excluyentes.
Si los eventos son mutuamente excluyentes donde solo se permite un resultado A o B pero
no ambos, entonces la probabilidad conjunta P ( A Y B ) será 0 y, por lo tanto, se eliminará
de la fórmula. Entonces te queda simplemente sumar los eventos como lo hicimos antes.
En resumen, cuando tiene una probabilidad de unión entre dos o más eventos que no son
mutuamente excluyentes, asegúrese de restar la probabilidad conjunta para que no se
cuenten dos veces las probabilidades.
Probabilidad Condicional y Teorema de Bayes
Un tema de probabilidad que fácilmente confunde a las personas es el concepto de
probabilidad condicional, que es la probabilidad de que ocurra un evento A dado que ha
ocurrido un evento B. Normalmente se expresa como P (A DADO B) o P (A|B).
Digamos que un estudio afirma que el 85% de los pacientes con cáncerbeben café. ¿Cómo
reacciona ante esta afirmación? ¿Esto te alarma y te da ganas de abandonar tu bebida
matutina favorita? Primero definamos esto como una probabilidad condicional P(Coffeegiven
Cancer) or P(Coffee|Cancer) P ( Café dado Cáncer ) o P ( Café | Cáncer ). Esto representa
una probabilidad de que las personas tomen café dado que tienen cáncer.
Dentro de los Estados Unidos, comparemos esto con el porcentaje de personas
diagnosticadas con cáncer (0.5% según cancer.gov ) y el porcentaje de personas que
beben café (65% según statista.com ):
P(Coffee) = .65
P(Cancer) = .005
P(Coffee|Cancer) = .85
Hmmmm.. estudie estos números por un momento y pregúntese si el café es realmente el
problema aquí. Observe nuevamente que solo el 0.5% de la población tiene cáncer en un
momento dado. Sin embargo, el 65% de la población bebe café regularmente. Si el café
contribuye al cáncer, ¿no deberíamos tener cifras de cáncer mucho más altas que el 0,5
%? ¿No estaría más cerca del 65%?
Esto es lo engañoso de los números proporcionales. Pueden parecer significativos sin
ningún contexto dado, y los titulares de los medios ciertamente pueden explotar esto para
obtener clics: "Nuevo estudio revela que el 85% de los pacientes con cáncer beben café",
podría leerse. Por supuesto, esto es una tontería porque hemos tomado un atributo común
(beber café) y lo hemos asociado con uno poco común (tener cáncer).
La razón por la que las personas pueden confundirse tan fácilmente con las probabilidades
condicionales es porque la dirección de la condición importa, y las dos condiciones se
combinan como si fueran iguales. La “probabilidad de tener cáncer dado que es un bebedor
de café” es diferente de la “probabilidad de ser un bebedor de café dado que tiene cáncer”.
En pocas palabras: pocos bebedores de café tienen cáncer, pero muchos pacientes con
cáncer beben café.
Si estamos interesados en estudiar si el café contribuye al cáncer, realmente nos interesa
la primera probabilidad condicional: la probabilidad de que alguien tenga cáncer dado que
es un bebedor de café.
P(Coffee|Cancer) = .85¿
P(Cancer|Coffee) =?
Cómo cambiamos la condición? Hay una pequeña y poderosa fórmula llamada Teorema de
Bayes, y podemos usarla para cambiar las probabilidades condicionales:
Si conectamos la información que ya tenemos en esta fórmula, podemos resolver la
probabilidad de que alguien tenga cáncer dado que bebe café:
Si desea calcular esto en Python, consulte el Ejemplo 2-1.
Ejemplo 2-1. Usando el teorema de Bayes en Python
p_coffee_drinker = .65
p_cancer = .005
p_coffee_drinker_given_cancer = .85
p_cancer_given_coffee_drinker = p_coffee_drinker_given_cancer *
p_cancer / p_coffee_drinker
# prints 0.006538461538461539
print(p_cancer_given_coffee_drinker)¡
Entonces la probabilidad de que alguien tenga cáncer dado que es un bebedor de café es
solo del 0.65%! Este número es muy diferente de la probabilidad de que alguien sea un
bebedor de café dado que tiene cáncer, que es del 85 %. ¿Ahora ves por qué es importante
la dirección de la condición? El teorema de Bayes es útil por esta razón. También se puede
usar para encadenar varias probabilidades condicionales para seguir actualizando nuestras
creencias en función de nueva información.
¿QUÉ DEFINE AUN “BEBEDOR DE CAFÉ”?
Tenga en cuenta que podría haber tenido en cuenta otras variables aquí, en particular lo
que califica a alguien como "bebedor de café". Si alguien bebe café una vez al mes, a
diferencia de alguien que bebe café todos los días, ¿debo calificar a ambos por igual como
“bebedores de café”? ¿Qué pasa con la persona que comenzó a tomar café hace un mes
en comparación con alguien que tomó café durante 20 años? ¿Con qué frecuencia y
durante cuánto tiempo deben beber café las personas antes de alcanzar el umbral de ser
un "bebedor de café" en este estudio de cáncer?
Estas son preguntas importantes a considerar y muestran por qué los datos rara vez
cuentan la historia completa. Si alguien le da una hoja de cálculo de pacientes con una
simple bandera de "SÍ/NO" sobre si son bebedores de café, ¡ese umbral debe definirse! O
necesitamos una métrica más ponderada como “número de bebidas de café consumidas
en los últimos tres años”. Mantuve este experimento mental simple y no definí cómoalguien
califica como un "bebedor de café", pero tenga en cuenta que en el campo, siempre es una
buena idea tirar de los hilos de los datos. Discutiremos esto más en el Capítulo 3.
Si desea explorar la intuición detrás del Teorema de Bayes más profundamente, consulte
el Apéndice A. Por ahora, solo sé que nos ayuda a cambiar una probabilidad condicional.
A continuación, hablemos de cómo las probabilidades condicionales interactúan con las
operaciones conjuntas y de unión.
NAIVE BAYES
El teorema de Bayes juega un papel central en un algoritmo común de aprendizaje
automático llamado Naive Bayes. Joel Grus lo cubre en su libro Data Science from Scratch
(O'Reilly).
Probabilidades Condicionales Conjuntas y Uniones
Revisemos las probabilidades conjuntas y cómo interactúan con las probabilidades
condicionales. Quiero encontrar la probabilidad de que alguien beba café Y tenga cáncer.
¿Debo multiplicar P (Café) y P (Cáncer) ? ¿O debería usar P ( Coffee|Cancer ) en lugar
de P ( Coffee ) si está disponible? cual uso?
Option 1:
P(Coffee) × P(Cancer) = .65 × .005 = .00325
Option 2:
P(Coffee|Cancer) × P(Cancer) = .85 × .005 = .00425
Si ya hemos establecido que nuestra probabilidad se aplica solo a personas con cáncer,
¿no tiene sentido usar P (Café|Cáncer) en lugar de P (Café) ? Uno es más específico
y se aplica a una condición que ya se ha establecido. Entonces deberíamos usar P (
Coffee|Cancer ) ya que P ( Cancer ) ya es parte de nuestra probabilidad conjunta. Esto
quiere decir que la probabilidad de que alguien tenga cáncer y sea bebedor de café es del
0,425%:
P(Coffee and Cancer) = P(Coffee|Cancer) × P(Cancer) = .85 × .005 = .00425
Esta probabilidad conjunta también se aplica en la otra dirección. Puedo encontrar la
probabilidad de que alguien sea un bebedor de café y tenga cáncer al multiplicar P
(Cáncer|Café) y P (Café). Como puedes observar, llego a la misma respuesta:
P(Cancer|Coffee) × P(Coffee) = .0065 × .65 = .00425
Si no tuviéramos ninguna probabilidad condicional disponible, entonces lo mejor que
podemos hacer es multiplicar P ( Bebedor de café ) y P (Cáncer) como se muestra aquí:
P(Coffee Drinker) × P(Cancer) = .65 × .005 = .00325
Ahora piense en esto: si el evento A no tiene impacto en el evento B, ¿qué significa eso
para la probabilidad condicional P ( B | A )? Eso significa que P ( B | A ) = P ( B ), lo que
significa que la ocurrencia del evento A no hace ninguna diferencia en la probabilidad de
que ocurra el evento B. Por lo tanto, podemos actualizar nuestra fórmula de probabilidad
conjunta, independientemente de si los dos eventos son dependientes, para que sea:
P(A AND B) = P(B) × P(A|B)
Y finalmente hablemos de uniones y probabilidad condicional. Si quisiera calcular la
probabilidad de que ocurra A o B, pero A puede afectar la probabilidad de B, actualizamos
nuestra regla de suma de esta manera:
P(A OR B) = P(A) + P(B) - P(A|B) × P(B)
Como recordatorio, esto también se aplica a eventos mutuamente excluyentes. La regla de
la suma P ( A | B ) × P ( B ) arrojaría 0 si los eventos A y B no pueden ocurrir
simultáneamente.
Distribución binomial
En el resto de este capítulo, aprenderemos dos distribuciones de probabilidad: las
distribuciones binomial y beta. Si bien no los usaremos en el resto del libro, son
herramientas útiles en sí mismas y fundamentales para comprender cómo ocurren los
eventos después de una serie de pruebas. También serán una buena transición para
comprender las distribuciones de probabilidad que usaremos mucho en el Capítulo 3.
Exploremos un caso de uso que podría ocurrir en un escenario del mundo real.
Supongamos que está trabajando en un nuevo motor a reacción de turbina y realizó 10
pruebas. Los resultados arrojaron ocho éxitos y dos fracasos:
✓ ✓ ✓ ✓ ✓ ✘ ✓ ✘ ✓ ✓
Esperaba obtener una tasa de éxito del 90 %, pero según estos datos concluye que sus
pruebas fallaron con solo un 80 % de éxito. Cada prueba lleva mucho tiempo y es costosa,
por lo que decide que es hora de volver a la mesa de dibujo para rediseñar el diseño.
Sin embargo, uno de sus ingenieros insiste en que debería haber más pruebas. “La única
manera de saberlo con certeza es realizar más pruebas”, argumenta. “¿Qué pasa si más
pruebas arrojan un 90% o más de éxito? Después de todo, si lanzas una moneda 10 veces
y obtienes 8 caras, no significa que la moneda esté fijada en un 80 %”.
Consideras brevemente el argumento de la ingeniera y te das cuenta de que tiene razón.
Incluso un lanzamiento de moneda justo no siempre tendrá un resultado dividido por igual,
especialmente con solo 10 lanzamientos. Lo más probable es que obtenga cinco cabezas,
pero también puede obtener tres, cuatro, seis o siete cabezas. Incluso podría obtener 10
cabezas, aunque esto es extremadamente improbable. Entonces, ¿cómo se determina la
probabilidad de un 80 % de éxito asumiendo que la probabilidad subyacente es del 90 %?
Una herramienta que podría ser relevante aquí es la distribución binomial, que mide la
probabilidad de que se produzcan k éxitos en n intentos dada una probabilidad p.
Visualmente, una distribución binomial se parece a la Figura 2-1.
Aquí, vemos la probabilidad de éxitos k para cada barra de 10 intentos. Esta distribución
binomial supone una probabilidad p del 90 %, lo que significa que hay una probabilidad de
0,90 (o 90 %) de que se produzca el éxito. Si esto es cierto, eso significa que hay una
probabilidad de.1937 de que obtendríamos 8 éxitos de 10 intentos. La probabilidad de
obtener 1 éxito de 10 intentos es extremadamente improbable,.000000008999, por lo que
la barra ni siquiera es visible.
También podemos calcular la probabilidad de ocho o menos éxitos sumando barras para
ocho o menos éxitos. Esto nos daría una probabilidad de.2639 de ocho o menos éxitos.
Figura 2-1. Una distribución binomial
Entonces, ¿cómo implementamos la distribución binomial? Podemos hacerlo desde cero
con relativa facilidad (como se comparte en el Apéndice A ), o podemos usar bibliotecas
como SciPy. El ejemplo 2-2 muestra cómo usamos la función binom.pmf() de SciPy ( PMF
significa "función de masa de probabilidad") para imprimir las 11 probabilidades para
nuestra distribución binomial de 0 a 10 éxitos.
Ejemplo 2-2. Usando SciPy para la distribución binomial
fromscipy.stats importbinom
n = 10
p = 0.9
for k inrange(n + 1):
probability = binom.pmf(k, n, p)
print("{0} - {1}".format(k, probability))
# OUTPUT:
# 0 - 9.99999999999996e-11
# 1 - 8.999999999999996e-09
# 2 - 3.644999999999996e-07
# 3 - 8.748000000000003e-06
# 4 - 0.0001377809999999999
# 5 - 0.0014880347999999988
# 6 - 0.011160260999999996
# 7 - 0.05739562800000001
# 8 - 0.19371024449999993
# 9 - 0.38742048900000037
# 10 - 0.34867844010000004
Como puede ver, proporcionamos n como el número de intentos, p como la probabilidad de
éxito de cada intento y k como el número de éxitos para los que queremos buscar la
probabilidad. Iteramos cada número de éxitos x con la probabilidad correspondiente de que
veríamos muchos éxitos. Comopodemos ver en la salida, el número más probable de éxitos
es nueve.
Pero si sumamos laprobabilidad de ochoo menos éxitos, obtendríamos.2639. Estosignifica
que hay una probabilidad del 26,39 % de que veamos ocho éxitos o menos, incluso si la
tasa de éxito subyacente es del 90 %. Entonces, tal vez el ingeniero tenga razón: el 26,39%
de probabilidad no es nada y ciertamente es posible.
Sin embargo, hicimos una suposición aquí en nuestro modelo, que discutiremos a
continuación con la distribución beta.

Más contenido relacionado

Similar a Probabilidad en 40

Similar a Probabilidad en 40 (20)

Trabajo de probabilidad
Trabajo de probabilidadTrabajo de probabilidad
Trabajo de probabilidad
 
Clase 1
Clase 1Clase 1
Clase 1
 
La probabilidad en la vida cotidiana
La probabilidad en la vida cotidiana La probabilidad en la vida cotidiana
La probabilidad en la vida cotidiana
 
Unidad 1 probbilidad
Unidad 1 probbilidadUnidad 1 probbilidad
Unidad 1 probbilidad
 
P r o b a b i l i d a d
P r o b a b i l i d a dP r o b a b i l i d a d
P r o b a b i l i d a d
 
Cálculo de probabilidades
Cálculo de probabilidadesCálculo de probabilidades
Cálculo de probabilidades
 
Permu.pptx
Permu.pptxPermu.pptx
Permu.pptx
 
Teoria de la probabilidad ensayo
Teoria de la probabilidad ensayoTeoria de la probabilidad ensayo
Teoria de la probabilidad ensayo
 
Probabilidad
ProbabilidadProbabilidad
Probabilidad
 
Probabilidades unidad-1-1
Probabilidades unidad-1-1Probabilidades unidad-1-1
Probabilidades unidad-1-1
 
Unidad1 probabilidad
Unidad1 probabilidadUnidad1 probabilidad
Unidad1 probabilidad
 
PROBABILIDAD EL MAGICO NUMERO 7
PROBABILIDAD EL MAGICO NUMERO 7PROBABILIDAD EL MAGICO NUMERO 7
PROBABILIDAD EL MAGICO NUMERO 7
 
Variables aleatorias y sus distribuciones de Probabilidad.pptx
Variables aleatorias y sus distribuciones de Probabilidad.pptxVariables aleatorias y sus distribuciones de Probabilidad.pptx
Variables aleatorias y sus distribuciones de Probabilidad.pptx
 
Probabilidad
ProbabilidadProbabilidad
Probabilidad
 
13_Propiedades Probabilidad_2022.pdf
13_Propiedades Probabilidad_2022.pdf13_Propiedades Probabilidad_2022.pdf
13_Propiedades Probabilidad_2022.pdf
 
11 nov 3
11 nov 311 nov 3
11 nov 3
 
Conceptos basicos de probabilidad
Conceptos basicos de probabilidadConceptos basicos de probabilidad
Conceptos basicos de probabilidad
 
5642 Yhi Mm R
5642 Yhi Mm R5642 Yhi Mm R
5642 Yhi Mm R
 
Estadistica investigacion probabilidades
Estadistica investigacion probabilidadesEstadistica investigacion probabilidades
Estadistica investigacion probabilidades
 
PROBABILIDAD
PROBABILIDADPROBABILIDAD
PROBABILIDAD
 

Más de ssuserd2a0fa

SUMAS EN SYMPY.docx
SUMAS EN SYMPY.docxSUMAS EN SYMPY.docx
SUMAS EN SYMPY.docxssuserd2a0fa
 
Repaso de cálculo y matemáticas básicas.docx
Repaso de cálculo y matemáticas básicas.docxRepaso de cálculo y matemáticas básicas.docx
Repaso de cálculo y matemáticas básicas.docxssuserd2a0fa
 
python y estadistica.docx
python y estadistica.docxpython y estadistica.docx
python y estadistica.docxssuserd2a0fa
 
La regla de la cadena.docx
La regla de la cadena.docxLa regla de la cadena.docx
La regla de la cadena.docxssuserd2a0fa
 
EL PODER DE SYMPY.docx
EL PODER DE SYMPY.docxEL PODER DE SYMPY.docx
EL PODER DE SYMPY.docxssuserd2a0fa
 
SUMAS EN SYMPY.docx
SUMAS EN SYMPY.docxSUMAS EN SYMPY.docx
SUMAS EN SYMPY.docxssuserd2a0fa
 
Repaso de cálculo y matemáticas básicas.docx
Repaso de cálculo y matemáticas básicas.docxRepaso de cálculo y matemáticas básicas.docx
Repaso de cálculo y matemáticas básicas.docxssuserd2a0fa
 
La regla de la cadena.docx
La regla de la cadena.docxLa regla de la cadena.docx
La regla de la cadena.docxssuserd2a0fa
 
EL PODER DE SYMPY.docx
EL PODER DE SYMPY.docxEL PODER DE SYMPY.docx
EL PODER DE SYMPY.docxssuserd2a0fa
 

Más de ssuserd2a0fa (9)

SUMAS EN SYMPY.docx
SUMAS EN SYMPY.docxSUMAS EN SYMPY.docx
SUMAS EN SYMPY.docx
 
Repaso de cálculo y matemáticas básicas.docx
Repaso de cálculo y matemáticas básicas.docxRepaso de cálculo y matemáticas básicas.docx
Repaso de cálculo y matemáticas básicas.docx
 
python y estadistica.docx
python y estadistica.docxpython y estadistica.docx
python y estadistica.docx
 
La regla de la cadena.docx
La regla de la cadena.docxLa regla de la cadena.docx
La regla de la cadena.docx
 
EL PODER DE SYMPY.docx
EL PODER DE SYMPY.docxEL PODER DE SYMPY.docx
EL PODER DE SYMPY.docx
 
SUMAS EN SYMPY.docx
SUMAS EN SYMPY.docxSUMAS EN SYMPY.docx
SUMAS EN SYMPY.docx
 
Repaso de cálculo y matemáticas básicas.docx
Repaso de cálculo y matemáticas básicas.docxRepaso de cálculo y matemáticas básicas.docx
Repaso de cálculo y matemáticas básicas.docx
 
La regla de la cadena.docx
La regla de la cadena.docxLa regla de la cadena.docx
La regla de la cadena.docx
 
EL PODER DE SYMPY.docx
EL PODER DE SYMPY.docxEL PODER DE SYMPY.docx
EL PODER DE SYMPY.docx
 

Último

5. Célula animal y vegetal y sus diferencias.pptx
5. Célula animal y vegetal y sus diferencias.pptx5. Célula animal y vegetal y sus diferencias.pptx
5. Célula animal y vegetal y sus diferencias.pptxealva1
 
Fowler, Will. - Santa Anna, héroe o villano [2018].pdf
Fowler, Will. - Santa Anna, héroe o villano [2018].pdfFowler, Will. - Santa Anna, héroe o villano [2018].pdf
Fowler, Will. - Santa Anna, héroe o villano [2018].pdffrank0071
 
artropodos fusion 2024 clase universidad de chile
artropodos fusion 2024 clase universidad de chileartropodos fusion 2024 clase universidad de chile
artropodos fusion 2024 clase universidad de chilecatabarria8
 
LEY FEDERAL DE TRABAJO IPN MEDICINA OCUPACIONAL.pdf
LEY FEDERAL DE TRABAJO IPN MEDICINA OCUPACIONAL.pdfLEY FEDERAL DE TRABAJO IPN MEDICINA OCUPACIONAL.pdf
LEY FEDERAL DE TRABAJO IPN MEDICINA OCUPACIONAL.pdfrvillegasp16001
 
Testimonio-de-segunda-revolucion-industrial.pdf
Testimonio-de-segunda-revolucion-industrial.pdfTestimonio-de-segunda-revolucion-industrial.pdf
Testimonio-de-segunda-revolucion-industrial.pdfd71229811u
 
Guia de lepra.pdf-TRATAMIENTO- DIAGNOSTICO- SEGUIMIENTO
Guia de lepra.pdf-TRATAMIENTO- DIAGNOSTICO- SEGUIMIENTOGuia de lepra.pdf-TRATAMIENTO- DIAGNOSTICO- SEGUIMIENTO
Guia de lepra.pdf-TRATAMIENTO- DIAGNOSTICO- SEGUIMIENTOCarolinaTapias8
 
SEMIOLOGIA RESPIRATORIA, CLINICA BASICA .pdf
SEMIOLOGIA RESPIRATORIA, CLINICA BASICA .pdfSEMIOLOGIA RESPIRATORIA, CLINICA BASICA .pdf
SEMIOLOGIA RESPIRATORIA, CLINICA BASICA .pdfrvillegasp16001
 
Diapositiva sobre el conflicto de Israel - Palestina para nivel secundaria
Diapositiva sobre el conflicto de Israel - Palestina para nivel secundariaDiapositiva sobre el conflicto de Israel - Palestina para nivel secundaria
Diapositiva sobre el conflicto de Israel - Palestina para nivel secundariaAgustin535878
 
TERMODINAMICA UNIVERSIDAD NACIONAL DE INGENIERA
TERMODINAMICA UNIVERSIDAD NACIONAL DE INGENIERATERMODINAMICA UNIVERSIDAD NACIONAL DE INGENIERA
TERMODINAMICA UNIVERSIDAD NACIONAL DE INGENIERAdheznolbert
 
Documento Técnico Base del Inventario de Especies Vegetales Nativas del Estad...
Documento Técnico Base del Inventario de Especies Vegetales Nativas del Estad...Documento Técnico Base del Inventario de Especies Vegetales Nativas del Estad...
Documento Técnico Base del Inventario de Especies Vegetales Nativas del Estad...Juan Carlos Fonseca Mata
 
TEJIDOS HISTOLÓGICOS osteona, canal de haves.pptx
TEJIDOS HISTOLÓGICOS osteona, canal de haves.pptxTEJIDOS HISTOLÓGICOS osteona, canal de haves.pptx
TEJIDOS HISTOLÓGICOS osteona, canal de haves.pptxmorajoe2109
 
METODOS ANTICONCEPTIVOS UNIVERSIDAD SEÑOR DE SIPAN.pptx
METODOS ANTICONCEPTIVOS UNIVERSIDAD SEÑOR DE SIPAN.pptxMETODOS ANTICONCEPTIVOS UNIVERSIDAD SEÑOR DE SIPAN.pptx
METODOS ANTICONCEPTIVOS UNIVERSIDAD SEÑOR DE SIPAN.pptxlilianabarbozavasque
 
Campo_magnético_y_fuerzas_magnéticas.pdf
Campo_magnético_y_fuerzas_magnéticas.pdfCampo_magnético_y_fuerzas_magnéticas.pdf
Campo_magnético_y_fuerzas_magnéticas.pdfArturoDavilaObando
 
Carbohidratos, lipidos, acidos nucleicos, y principios del metabolismo.
Carbohidratos, lipidos, acidos nucleicos, y principios del metabolismo.Carbohidratos, lipidos, acidos nucleicos, y principios del metabolismo.
Carbohidratos, lipidos, acidos nucleicos, y principios del metabolismo.Ralvila5
 
HISTORIA NATURAL DE LA ENFEREMEDAD: SARAMPION
HISTORIA NATURAL DE LA ENFEREMEDAD: SARAMPIONHISTORIA NATURAL DE LA ENFEREMEDAD: SARAMPION
HISTORIA NATURAL DE LA ENFEREMEDAD: SARAMPIONAleMena14
 
Evangelismo los pasos para logar la sancion
Evangelismo los pasos para logar la sancionEvangelismo los pasos para logar la sancion
Evangelismo los pasos para logar la sancionniro13
 
Centro de masa, centro de gravedad y equilibrio.pptx
Centro de masa, centro de gravedad y equilibrio.pptxCentro de masa, centro de gravedad y equilibrio.pptx
Centro de masa, centro de gravedad y equilibrio.pptxErichManriqueCastill
 
FISIOLOGIA DEL APARATO REPRODUCTOR FEMENINO.pdf
FISIOLOGIA DEL APARATO REPRODUCTOR FEMENINO.pdfFISIOLOGIA DEL APARATO REPRODUCTOR FEMENINO.pdf
FISIOLOGIA DEL APARATO REPRODUCTOR FEMENINO.pdfOrlandoBruzual
 
TEMA 4 TEORIAS SOBRE EL ORIGEN DE LA VIDA.pdf
TEMA 4 TEORIAS SOBRE EL ORIGEN DE LA VIDA.pdfTEMA 4 TEORIAS SOBRE EL ORIGEN DE LA VIDA.pdf
TEMA 4 TEORIAS SOBRE EL ORIGEN DE LA VIDA.pdfrobertocarlosbaltaza
 
PIZARRO-parte4.pdf apuntes de física 3, electricidad y magnetismo
PIZARRO-parte4.pdf apuntes de física 3, electricidad y magnetismoPIZARRO-parte4.pdf apuntes de física 3, electricidad y magnetismo
PIZARRO-parte4.pdf apuntes de física 3, electricidad y magnetismoArturoDavilaObando
 

Último (20)

5. Célula animal y vegetal y sus diferencias.pptx
5. Célula animal y vegetal y sus diferencias.pptx5. Célula animal y vegetal y sus diferencias.pptx
5. Célula animal y vegetal y sus diferencias.pptx
 
Fowler, Will. - Santa Anna, héroe o villano [2018].pdf
Fowler, Will. - Santa Anna, héroe o villano [2018].pdfFowler, Will. - Santa Anna, héroe o villano [2018].pdf
Fowler, Will. - Santa Anna, héroe o villano [2018].pdf
 
artropodos fusion 2024 clase universidad de chile
artropodos fusion 2024 clase universidad de chileartropodos fusion 2024 clase universidad de chile
artropodos fusion 2024 clase universidad de chile
 
LEY FEDERAL DE TRABAJO IPN MEDICINA OCUPACIONAL.pdf
LEY FEDERAL DE TRABAJO IPN MEDICINA OCUPACIONAL.pdfLEY FEDERAL DE TRABAJO IPN MEDICINA OCUPACIONAL.pdf
LEY FEDERAL DE TRABAJO IPN MEDICINA OCUPACIONAL.pdf
 
Testimonio-de-segunda-revolucion-industrial.pdf
Testimonio-de-segunda-revolucion-industrial.pdfTestimonio-de-segunda-revolucion-industrial.pdf
Testimonio-de-segunda-revolucion-industrial.pdf
 
Guia de lepra.pdf-TRATAMIENTO- DIAGNOSTICO- SEGUIMIENTO
Guia de lepra.pdf-TRATAMIENTO- DIAGNOSTICO- SEGUIMIENTOGuia de lepra.pdf-TRATAMIENTO- DIAGNOSTICO- SEGUIMIENTO
Guia de lepra.pdf-TRATAMIENTO- DIAGNOSTICO- SEGUIMIENTO
 
SEMIOLOGIA RESPIRATORIA, CLINICA BASICA .pdf
SEMIOLOGIA RESPIRATORIA, CLINICA BASICA .pdfSEMIOLOGIA RESPIRATORIA, CLINICA BASICA .pdf
SEMIOLOGIA RESPIRATORIA, CLINICA BASICA .pdf
 
Diapositiva sobre el conflicto de Israel - Palestina para nivel secundaria
Diapositiva sobre el conflicto de Israel - Palestina para nivel secundariaDiapositiva sobre el conflicto de Israel - Palestina para nivel secundaria
Diapositiva sobre el conflicto de Israel - Palestina para nivel secundaria
 
TERMODINAMICA UNIVERSIDAD NACIONAL DE INGENIERA
TERMODINAMICA UNIVERSIDAD NACIONAL DE INGENIERATERMODINAMICA UNIVERSIDAD NACIONAL DE INGENIERA
TERMODINAMICA UNIVERSIDAD NACIONAL DE INGENIERA
 
Documento Técnico Base del Inventario de Especies Vegetales Nativas del Estad...
Documento Técnico Base del Inventario de Especies Vegetales Nativas del Estad...Documento Técnico Base del Inventario de Especies Vegetales Nativas del Estad...
Documento Técnico Base del Inventario de Especies Vegetales Nativas del Estad...
 
TEJIDOS HISTOLÓGICOS osteona, canal de haves.pptx
TEJIDOS HISTOLÓGICOS osteona, canal de haves.pptxTEJIDOS HISTOLÓGICOS osteona, canal de haves.pptx
TEJIDOS HISTOLÓGICOS osteona, canal de haves.pptx
 
METODOS ANTICONCEPTIVOS UNIVERSIDAD SEÑOR DE SIPAN.pptx
METODOS ANTICONCEPTIVOS UNIVERSIDAD SEÑOR DE SIPAN.pptxMETODOS ANTICONCEPTIVOS UNIVERSIDAD SEÑOR DE SIPAN.pptx
METODOS ANTICONCEPTIVOS UNIVERSIDAD SEÑOR DE SIPAN.pptx
 
Campo_magnético_y_fuerzas_magnéticas.pdf
Campo_magnético_y_fuerzas_magnéticas.pdfCampo_magnético_y_fuerzas_magnéticas.pdf
Campo_magnético_y_fuerzas_magnéticas.pdf
 
Carbohidratos, lipidos, acidos nucleicos, y principios del metabolismo.
Carbohidratos, lipidos, acidos nucleicos, y principios del metabolismo.Carbohidratos, lipidos, acidos nucleicos, y principios del metabolismo.
Carbohidratos, lipidos, acidos nucleicos, y principios del metabolismo.
 
HISTORIA NATURAL DE LA ENFEREMEDAD: SARAMPION
HISTORIA NATURAL DE LA ENFEREMEDAD: SARAMPIONHISTORIA NATURAL DE LA ENFEREMEDAD: SARAMPION
HISTORIA NATURAL DE LA ENFEREMEDAD: SARAMPION
 
Evangelismo los pasos para logar la sancion
Evangelismo los pasos para logar la sancionEvangelismo los pasos para logar la sancion
Evangelismo los pasos para logar la sancion
 
Centro de masa, centro de gravedad y equilibrio.pptx
Centro de masa, centro de gravedad y equilibrio.pptxCentro de masa, centro de gravedad y equilibrio.pptx
Centro de masa, centro de gravedad y equilibrio.pptx
 
FISIOLOGIA DEL APARATO REPRODUCTOR FEMENINO.pdf
FISIOLOGIA DEL APARATO REPRODUCTOR FEMENINO.pdfFISIOLOGIA DEL APARATO REPRODUCTOR FEMENINO.pdf
FISIOLOGIA DEL APARATO REPRODUCTOR FEMENINO.pdf
 
TEMA 4 TEORIAS SOBRE EL ORIGEN DE LA VIDA.pdf
TEMA 4 TEORIAS SOBRE EL ORIGEN DE LA VIDA.pdfTEMA 4 TEORIAS SOBRE EL ORIGEN DE LA VIDA.pdf
TEMA 4 TEORIAS SOBRE EL ORIGEN DE LA VIDA.pdf
 
PIZARRO-parte4.pdf apuntes de física 3, electricidad y magnetismo
PIZARRO-parte4.pdf apuntes de física 3, electricidad y magnetismoPIZARRO-parte4.pdf apuntes de física 3, electricidad y magnetismo
PIZARRO-parte4.pdf apuntes de física 3, electricidad y magnetismo
 

Probabilidad en 40

  • 1. Probabilidad Cuando piensas en probabilidad, ¿qué imágenes te vienen a la mente? Tal vez piense en ejemplos relacionados con los juegos de azar, como la probabilidad de ganar la lotería o conseguir un par con dos dados. Tal vez esté prediciendo el rendimiento de las acciones, el resultado de una elección política o si su vuelo llegará a tiempo. Nuestro mundo está lleno de incertidumbres que queremos medir. Quizá esa sea la palabra en la que deberíamos centrarnos:incertidumbre. ¿Cómomedimos algo de lo que no estamos seguros? Al final, la probabilidad es el estudio teórico de medir la certeza de que ocurrirá un evento. Es una disciplina fundamental para las estadísticas, las pruebas de hipótesis, el aprendizaje automático y otros temas de este libro. Mucha gente da por sentada la probabilidad y asume que la entiende. Sin embargo, es más matizado y complicado de lo que la mayoría de la gente piensa. Si bien los teoremas y las ideas de probabilidad son matemáticamente sólidos, se vuelve más complejo cuando introducimos datos y nos aventuramos en las estadísticas. Cubriremos eso en el Capítulo 4 sobre estadística y prueba de hipótesis. En este capítulo, discutiremos qué es la probabilidad. Luego cubriremos los conceptos matemáticos de probabilidad, el teorema de Bayes, la distribución binomial y la distribución beta. comprensión de la probabilidad La probabilidad es la fuerza con la que creemos que ocurrirá un evento, a menudo expresada como un porcentaje. Aquí hay algunas preguntas que podrían garantizar una probabilidad de respuesta:  ¿Qué probabilidades hay de que salgan 7 caras en 10 lanzamientos de moneda justos?  ¿Cuáles son mis posibilidades de ganar una elección?  ¿Se retrasará mi vuelo?  ¿Qué tan seguro estoy de que un producto es defectuoso? La forma más popular de expresar la probabilidad es como un porcentaje, como en "Hay un 70% de posibilidades de que mi vuelo llegue tarde". Llamaremos a esta probabilidad P( X ), donde X es el evento de interés. Sin embargo, a medida que trabaja con probabilidades, es más probable que lo vea expresado como un decimal (en este caso, 0,70), que debe estar entre 0,0 y 1,0: P ( X ) =.70 La probabilidad es similar a la probabilidad, y es fácil confundirlos (muchos diccionarios también lo hacen). Puede salirse con la suya usando "probabilidad" y "verosimilitud" indistintamente en una conversación cotidiana. Sin embargo, debemos precisar estas diferencias. La probabilidad se trata de cuantificar las predicciones de eventos que aún no han sucedido, mientras que la probabilidad mide la frecuencia de los eventos que ya ocurrieron. En estadísticas y aprendizaje automático, a menudo usamos la probabilidad (el pasado) en forma de datos para predecir la probabilidad (el futuro). Es importante tener en cuenta que la probabilidad de que ocurra un evento debe estar estrictamente entre 0% y 100%, o 0.0 y 1.0. Lógicamente, esto significa que la probabilidad de que un evento no suceda se calcula restando la probabilidad del evento de 1.0: P ( X ) =.70 P ( not X ) = 1 -.70 =.30 Esta es otra distinción entre probabilidad y verosimilitud. Las probabilidades de todos los posibles resultados mutuamente excluyentes para un evento (lo que significa que solo
  • 2. puede ocurrir un resultado, no múltiples) deben sumar 1.0 o 100%. Las probabilidades, sin embargo, no están sujetas a esta regla. Alternativamente, la probabilidad se puede expresar como una probabilidad O ( X ) como 7:3, 7/3 o 2. 333 ¯ . Para convertir una cuota O ( X ) en una probabilidad proporcional P( X ) , utilice esta fórmula: Entonces, si tengo una probabilidad de 7/3, puedo convertirla en una probabilidad proporcional como esta: Por el contrario, puede convertir una cuota en una probabilidad simplemente dividiendo la probabilidad de que ocurra el evento por la probabilidad de que no ocurra: ¡LAS PROBABILIDADES SON ÚTILES! Si bien muchas personas se sienten más cómodas expresando probabilidades como porcentajes o proporciones, las cuotas pueden ser una herramienta útil. Si tengo una probabilidad de 2.0, eso significa que siento que un evento tiene dos veces más probabilidades de suceder que de no suceder. Eso puede ser más intuitivo para describir una creencia que un porcentaje de 66. 666 %. Por esta razón, las cuotas son útiles para cuantificar las creencias subjetivas, especialmente en un contexto de juego/apuestas. Desempeña un papel en las estadísticas bayesianas (incluido el factor de Bayes), así como en las regresiones logísticas con log-odds, que trataremos en el Capítulo 6. Probabilidad Versus Estadística A veces, las personas usan los términos probabilidad y estadística indistintamente y, si bien es comprensible combinar las dos disciplinas, tienen distinciones. La probabilidad es puramente teórica de la probabilidad de que suceda un evento y no requiere datos. La estadística, por otro lado, no puede existir sin datos y los usa para descubrir probabilidades y proporciona herramientas para describir datos. Piense en predecir el resultado de tirar un 4 en un dado (ese es el singular de los dados). Al abordar el problema con una mentalidad puramente probabilística, uno simplemente dice
  • 3. que hay seis caras en un dado. Suponemos que cada lado tiene la misma probabilidad, por lo que la probabilidad de obtener un 4 es 1/6, o 16,666 %. Sin embargo, un estadístico celoso podría decir: “¡No! Necesitamos tirar el dado para obtener datos. Si podemos sacar 30 tiradas o más, y cuantas más tiradas hagamos mejor, solo entonces tendremos datos para determinar la probabilidad de sacar un 4”. Este enfoque puede parecer tonto si asumimos que el dado es justo, pero ¿y si no lo es? Si ese es el caso, recopilar datos es la única forma de descubrir la probabilidad de sacar un 4. Hablaremos sobre la prueba de hipótesis en el Capítulo 3. matemáticas de probabilidad Cuando trabajamos con una sola probabilidad de un evento P ( X ), conocida como probabilidad marginal, la idea es bastante sencilla, como se discutió anteriormente. Pero cuando comenzamos a combinar probabilidades de diferentes eventos, se vuelve un poco menos intuitivo. Probabilidades conjuntas Digamos que tienes una moneda justa y un dado de seis caras justo. Quiere encontrar la probabilidad de sacar cara y sacar un 6 en la moneda y el dado, respectivamente. Estas son dos probabilidades separadas de dos eventos separados, pero queremos encontrar la probabilidad de que ambos eventos ocurran juntos. Esto se conoce como probabilidad conjunta. Piense en una probabilidad conjunta como un operador AND. Quiero encontrar la probabilidad de sacar cara Y sacar un 6. Queremos que ambos eventos sucedan juntos, entonces, ¿cómo calculamos esta probabilidad? Hay dos lados en una moneda y seis lados en el dado, por lo que la probabilidad de cara es 1/2 y la probabilidad de seis es 1/6. La probabilidad de que ocurran ambos eventos (suponiendo que sean independientes, ¡más sobre esto más adelante!) es simplemente multiplicar los dos juntos: P(A AND B) = P(A) × P(B) Bastante fácil, pero ¿por qué es este el caso? Se pueden descubrir muchas reglas de probabilidad generando todas las combinaciones posibles de eventos, lo que proviene de un área de matemáticas discretas conocida como permutaciones y combinaciones. Para este caso, genere todos los resultados posibles entre la moneda y el dado, emparejando cara (H) y cruz (T) con los números del 1 al 6. Tenga en cuenta que puse asteriscos "*" alrededor del resultado de interés donde obtenemos cara y un 6: H1 H2 H3 H4 H5 *H6* T1 T2 T3 T4 T5 T6 Observe que hay 12 resultados posibles al lanzar nuestra moneda y lanzar nuestro dado. El único que nos interesa es "H6", obtener cara y 6. Entonces, debido a que solo hay un resultado que satisface nuestra condición, y hay 12 resultados posibles, la probabilidad de obtener cara y 6 es 1/12.
  • 4. En lugar de generar todas las combinaciones posibles y contar las que nos interesen, nuevamente podemos usar la multiplicación como un atajo para encontrar la probabilidad conjunta. Esto se conoce como la regla del producto : P(A AND B) = P(A) × P(B) Unión de probabilidades Discutimos las probabilidades conjuntas, que es la probabilidad de que dos o más eventos ocurran simultáneamente. Pero, ¿qué pasa con la probabilidad de obtener el evento A o B?Cuando tratamos con operaciones OR con probabilidades, esto se conoce como probabilidad de unión. Comencemos con eventos mutuamente excluyentes, que son eventos que no pueden ocurrir simultáneamente. Por ejemplo, si tiro un dado, no puedo obtener simultáneamente un 4 y un 6. Solo puedo obtener un resultado. Obtener la probabilidad de unión para estos casos es fácil. Simplemente los sumo. Si quiero encontrar la probabilidad de obtener un 4 o un 6 en una tirada de dado, será 2/6 = 1/3: Pero, ¿qué pasa con los eventos no mutuamenteexcluyentes, que son eventos que pueden ocurrir simultáneamente? Volvamos al ejemplo del lanzamiento de la moneda y la tirada del dado. ¿Cuál es la probabilidad de obtener cara O un 6? Antes de que tenga la tentación de agregar esas probabilidades, generemos todos los resultados posibles nuevamente y resaltemos los que nos interesan.: *H1* *H2* *H3* *H4* *H5* *H6* T1 T2 T3 T4 T5 *T6* Aquí estamos interesados en todos los resultados de cabeza, así como en los 6 resultados. Si proporcionamos los 7 de los 12 resultados que nos interesan, 7/12, obtenemos una probabilidad correcta de .58 333. Pero, ¿qué sucede si sumamos las probabilidades de cara y 6 juntas? Obtenemos una respuesta diferente (¡y equivocada!) de . 666: ¿Porqué es eso? Estudie las combinaciones de lanzamiento de moneda y resultados de dado nuevamente y vea si puede encontrar algo sospechoso. ¡Observe que cuando
  • 5. sumamos las probabilidades, contamos dos veces la probabilidad de obtener un 6 tanto en "H6" como en "T6"! Si esto no está claro, intente encontrar la probabilidad de obtener cara o una tirada de 1 a 5: Obtenemos una probabilidad del 133,333%, lo que definitivamente no es correcto porque la probabilidad no debe ser superior al 100 % o 1,0. El problema nuevamente es que estamos contando dos veces los resultados. Si reflexiona lo suficiente, puede darse cuenta de que la forma lógica de eliminar el conteo doble en una probabilidad de unión es restar la probabilidad conjunta. Esto se conoce como la regla de la suma de probabilidades y asegura que cada evento conjunto se cuente solo una vez.: P(A OR B) = P(A) + P(B) - P(A AND B) P(A OR B) = P(A) + P(B) - P(A) × P(B) Entonces, volviendo a nuestro ejemplo de calcular la probabilidad de obtener cara o 6, debemos restar la probabilidad conjunta de obtener cara o 6 de la probabilidad de unión: P(A OR B) = P(A) + P(B) - P(A) × P(B) Tenga en cuenta que esta fórmula también se aplica a eventos mutuamente excluyentes. Si los eventos son mutuamente excluyentes donde solo se permite un resultado A o B pero no ambos, entonces la probabilidad conjunta P ( A Y B ) será 0 y, por lo tanto, se eliminará de la fórmula. Entonces te queda simplemente sumar los eventos como lo hicimos antes. En resumen, cuando tiene una probabilidad de unión entre dos o más eventos que no son mutuamente excluyentes, asegúrese de restar la probabilidad conjunta para que no se cuenten dos veces las probabilidades. Probabilidad Condicional y Teorema de Bayes Un tema de probabilidad que fácilmente confunde a las personas es el concepto de probabilidad condicional, que es la probabilidad de que ocurra un evento A dado que ha ocurrido un evento B. Normalmente se expresa como P (A DADO B) o P (A|B). Digamos que un estudio afirma que el 85% de los pacientes con cáncerbeben café. ¿Cómo reacciona ante esta afirmación? ¿Esto te alarma y te da ganas de abandonar tu bebida matutina favorita? Primero definamos esto como una probabilidad condicional P(Coffeegiven Cancer) or P(Coffee|Cancer) P ( Café dado Cáncer ) o P ( Café | Cáncer ). Esto representa una probabilidad de que las personas tomen café dado que tienen cáncer.
  • 6. Dentro de los Estados Unidos, comparemos esto con el porcentaje de personas diagnosticadas con cáncer (0.5% según cancer.gov ) y el porcentaje de personas que beben café (65% según statista.com ): P(Coffee) = .65 P(Cancer) = .005 P(Coffee|Cancer) = .85 Hmmmm.. estudie estos números por un momento y pregúntese si el café es realmente el problema aquí. Observe nuevamente que solo el 0.5% de la población tiene cáncer en un momento dado. Sin embargo, el 65% de la población bebe café regularmente. Si el café contribuye al cáncer, ¿no deberíamos tener cifras de cáncer mucho más altas que el 0,5 %? ¿No estaría más cerca del 65%? Esto es lo engañoso de los números proporcionales. Pueden parecer significativos sin ningún contexto dado, y los titulares de los medios ciertamente pueden explotar esto para obtener clics: "Nuevo estudio revela que el 85% de los pacientes con cáncer beben café", podría leerse. Por supuesto, esto es una tontería porque hemos tomado un atributo común (beber café) y lo hemos asociado con uno poco común (tener cáncer). La razón por la que las personas pueden confundirse tan fácilmente con las probabilidades condicionales es porque la dirección de la condición importa, y las dos condiciones se combinan como si fueran iguales. La “probabilidad de tener cáncer dado que es un bebedor de café” es diferente de la “probabilidad de ser un bebedor de café dado que tiene cáncer”. En pocas palabras: pocos bebedores de café tienen cáncer, pero muchos pacientes con cáncer beben café. Si estamos interesados en estudiar si el café contribuye al cáncer, realmente nos interesa la primera probabilidad condicional: la probabilidad de que alguien tenga cáncer dado que es un bebedor de café. P(Coffee|Cancer) = .85¿ P(Cancer|Coffee) =? Cómo cambiamos la condición? Hay una pequeña y poderosa fórmula llamada Teorema de Bayes, y podemos usarla para cambiar las probabilidades condicionales: Si conectamos la información que ya tenemos en esta fórmula, podemos resolver la probabilidad de que alguien tenga cáncer dado que bebe café: Si desea calcular esto en Python, consulte el Ejemplo 2-1. Ejemplo 2-1. Usando el teorema de Bayes en Python
  • 7. p_coffee_drinker = .65 p_cancer = .005 p_coffee_drinker_given_cancer = .85 p_cancer_given_coffee_drinker = p_coffee_drinker_given_cancer * p_cancer / p_coffee_drinker # prints 0.006538461538461539 print(p_cancer_given_coffee_drinker)¡ Entonces la probabilidad de que alguien tenga cáncer dado que es un bebedor de café es solo del 0.65%! Este número es muy diferente de la probabilidad de que alguien sea un bebedor de café dado que tiene cáncer, que es del 85 %. ¿Ahora ves por qué es importante la dirección de la condición? El teorema de Bayes es útil por esta razón. También se puede usar para encadenar varias probabilidades condicionales para seguir actualizando nuestras creencias en función de nueva información. ¿QUÉ DEFINE AUN “BEBEDOR DE CAFÉ”? Tenga en cuenta que podría haber tenido en cuenta otras variables aquí, en particular lo que califica a alguien como "bebedor de café". Si alguien bebe café una vez al mes, a diferencia de alguien que bebe café todos los días, ¿debo calificar a ambos por igual como “bebedores de café”? ¿Qué pasa con la persona que comenzó a tomar café hace un mes en comparación con alguien que tomó café durante 20 años? ¿Con qué frecuencia y durante cuánto tiempo deben beber café las personas antes de alcanzar el umbral de ser un "bebedor de café" en este estudio de cáncer? Estas son preguntas importantes a considerar y muestran por qué los datos rara vez cuentan la historia completa. Si alguien le da una hoja de cálculo de pacientes con una simple bandera de "SÍ/NO" sobre si son bebedores de café, ¡ese umbral debe definirse! O necesitamos una métrica más ponderada como “número de bebidas de café consumidas en los últimos tres años”. Mantuve este experimento mental simple y no definí cómoalguien califica como un "bebedor de café", pero tenga en cuenta que en el campo, siempre es una buena idea tirar de los hilos de los datos. Discutiremos esto más en el Capítulo 3. Si desea explorar la intuición detrás del Teorema de Bayes más profundamente, consulte el Apéndice A. Por ahora, solo sé que nos ayuda a cambiar una probabilidad condicional. A continuación, hablemos de cómo las probabilidades condicionales interactúan con las operaciones conjuntas y de unión. NAIVE BAYES El teorema de Bayes juega un papel central en un algoritmo común de aprendizaje automático llamado Naive Bayes. Joel Grus lo cubre en su libro Data Science from Scratch (O'Reilly). Probabilidades Condicionales Conjuntas y Uniones Revisemos las probabilidades conjuntas y cómo interactúan con las probabilidades condicionales. Quiero encontrar la probabilidad de que alguien beba café Y tenga cáncer. ¿Debo multiplicar P (Café) y P (Cáncer) ? ¿O debería usar P ( Coffee|Cancer ) en lugar de P ( Coffee ) si está disponible? cual uso? Option 1: P(Coffee) × P(Cancer) = .65 × .005 = .00325 Option 2:
  • 8. P(Coffee|Cancer) × P(Cancer) = .85 × .005 = .00425 Si ya hemos establecido que nuestra probabilidad se aplica solo a personas con cáncer, ¿no tiene sentido usar P (Café|Cáncer) en lugar de P (Café) ? Uno es más específico y se aplica a una condición que ya se ha establecido. Entonces deberíamos usar P ( Coffee|Cancer ) ya que P ( Cancer ) ya es parte de nuestra probabilidad conjunta. Esto quiere decir que la probabilidad de que alguien tenga cáncer y sea bebedor de café es del 0,425%: P(Coffee and Cancer) = P(Coffee|Cancer) × P(Cancer) = .85 × .005 = .00425 Esta probabilidad conjunta también se aplica en la otra dirección. Puedo encontrar la probabilidad de que alguien sea un bebedor de café y tenga cáncer al multiplicar P (Cáncer|Café) y P (Café). Como puedes observar, llego a la misma respuesta: P(Cancer|Coffee) × P(Coffee) = .0065 × .65 = .00425 Si no tuviéramos ninguna probabilidad condicional disponible, entonces lo mejor que podemos hacer es multiplicar P ( Bebedor de café ) y P (Cáncer) como se muestra aquí: P(Coffee Drinker) × P(Cancer) = .65 × .005 = .00325 Ahora piense en esto: si el evento A no tiene impacto en el evento B, ¿qué significa eso para la probabilidad condicional P ( B | A )? Eso significa que P ( B | A ) = P ( B ), lo que significa que la ocurrencia del evento A no hace ninguna diferencia en la probabilidad de que ocurra el evento B. Por lo tanto, podemos actualizar nuestra fórmula de probabilidad conjunta, independientemente de si los dos eventos son dependientes, para que sea: P(A AND B) = P(B) × P(A|B) Y finalmente hablemos de uniones y probabilidad condicional. Si quisiera calcular la probabilidad de que ocurra A o B, pero A puede afectar la probabilidad de B, actualizamos nuestra regla de suma de esta manera: P(A OR B) = P(A) + P(B) - P(A|B) × P(B) Como recordatorio, esto también se aplica a eventos mutuamente excluyentes. La regla de la suma P ( A | B ) × P ( B ) arrojaría 0 si los eventos A y B no pueden ocurrir simultáneamente. Distribución binomial En el resto de este capítulo, aprenderemos dos distribuciones de probabilidad: las distribuciones binomial y beta. Si bien no los usaremos en el resto del libro, son herramientas útiles en sí mismas y fundamentales para comprender cómo ocurren los eventos después de una serie de pruebas. También serán una buena transición para comprender las distribuciones de probabilidad que usaremos mucho en el Capítulo 3. Exploremos un caso de uso que podría ocurrir en un escenario del mundo real. Supongamos que está trabajando en un nuevo motor a reacción de turbina y realizó 10 pruebas. Los resultados arrojaron ocho éxitos y dos fracasos: ✓ ✓ ✓ ✓ ✓ ✘ ✓ ✘ ✓ ✓ Esperaba obtener una tasa de éxito del 90 %, pero según estos datos concluye que sus pruebas fallaron con solo un 80 % de éxito. Cada prueba lleva mucho tiempo y es costosa, por lo que decide que es hora de volver a la mesa de dibujo para rediseñar el diseño.
  • 9. Sin embargo, uno de sus ingenieros insiste en que debería haber más pruebas. “La única manera de saberlo con certeza es realizar más pruebas”, argumenta. “¿Qué pasa si más pruebas arrojan un 90% o más de éxito? Después de todo, si lanzas una moneda 10 veces y obtienes 8 caras, no significa que la moneda esté fijada en un 80 %”. Consideras brevemente el argumento de la ingeniera y te das cuenta de que tiene razón. Incluso un lanzamiento de moneda justo no siempre tendrá un resultado dividido por igual, especialmente con solo 10 lanzamientos. Lo más probable es que obtenga cinco cabezas, pero también puede obtener tres, cuatro, seis o siete cabezas. Incluso podría obtener 10 cabezas, aunque esto es extremadamente improbable. Entonces, ¿cómo se determina la probabilidad de un 80 % de éxito asumiendo que la probabilidad subyacente es del 90 %? Una herramienta que podría ser relevante aquí es la distribución binomial, que mide la probabilidad de que se produzcan k éxitos en n intentos dada una probabilidad p. Visualmente, una distribución binomial se parece a la Figura 2-1. Aquí, vemos la probabilidad de éxitos k para cada barra de 10 intentos. Esta distribución binomial supone una probabilidad p del 90 %, lo que significa que hay una probabilidad de 0,90 (o 90 %) de que se produzca el éxito. Si esto es cierto, eso significa que hay una probabilidad de.1937 de que obtendríamos 8 éxitos de 10 intentos. La probabilidad de obtener 1 éxito de 10 intentos es extremadamente improbable,.000000008999, por lo que la barra ni siquiera es visible. También podemos calcular la probabilidad de ocho o menos éxitos sumando barras para ocho o menos éxitos. Esto nos daría una probabilidad de.2639 de ocho o menos éxitos. Figura 2-1. Una distribución binomial
  • 10. Entonces, ¿cómo implementamos la distribución binomial? Podemos hacerlo desde cero con relativa facilidad (como se comparte en el Apéndice A ), o podemos usar bibliotecas como SciPy. El ejemplo 2-2 muestra cómo usamos la función binom.pmf() de SciPy ( PMF significa "función de masa de probabilidad") para imprimir las 11 probabilidades para nuestra distribución binomial de 0 a 10 éxitos. Ejemplo 2-2. Usando SciPy para la distribución binomial fromscipy.stats importbinom n = 10 p = 0.9 for k inrange(n + 1): probability = binom.pmf(k, n, p) print("{0} - {1}".format(k, probability)) # OUTPUT: # 0 - 9.99999999999996e-11 # 1 - 8.999999999999996e-09 # 2 - 3.644999999999996e-07 # 3 - 8.748000000000003e-06 # 4 - 0.0001377809999999999 # 5 - 0.0014880347999999988 # 6 - 0.011160260999999996 # 7 - 0.05739562800000001 # 8 - 0.19371024449999993 # 9 - 0.38742048900000037 # 10 - 0.34867844010000004 Como puede ver, proporcionamos n como el número de intentos, p como la probabilidad de éxito de cada intento y k como el número de éxitos para los que queremos buscar la probabilidad. Iteramos cada número de éxitos x con la probabilidad correspondiente de que veríamos muchos éxitos. Comopodemos ver en la salida, el número más probable de éxitos es nueve. Pero si sumamos laprobabilidad de ochoo menos éxitos, obtendríamos.2639. Estosignifica que hay una probabilidad del 26,39 % de que veamos ocho éxitos o menos, incluso si la tasa de éxito subyacente es del 90 %. Entonces, tal vez el ingeniero tenga razón: el 26,39% de probabilidad no es nada y ciertamente es posible. Sin embargo, hicimos una suposición aquí en nuestro modelo, que discutiremos a continuación con la distribución beta.