1
Índice
Introducción ...............................................................................................................2
Conceptos Básicos de Probabilidad..............................................................................4
Probabilidad Clásica ...................................................................................................4
Axiomas de Probabilidad.............................................................................................6
Teoremas:..................................................................................................................7
Teorema 1 regla general de la adición.......................................................................7
Teorema 2: Regla de complementación ....................................................................8
Teorema de la multiplicación...................................................................................9
Probabilidad Condicional ..........................................................................................10
Conclusión ...............................................................................................................12
Bibliografía ..............................................................................................................13
2
Introducción
Tanto el científico como el ciudadano de a pie están sometidos a una permanente
recepción de informaciones, observaciones, que se pueden presentar bajo modos
muy dispares: los resultados de un experimento, percepciones sensoriales, datos
numéricos, hechos históricos, opiniones personales, etc.
Es, y ha sido siempre, una constante el que las personas hayan querido interpretar
sus observaciones, experiencias, para aprehender el mundo que les rodea. Y
siempre ha dirigido parte de sus esfuerzos a encontrar técnicas, métodos,
procedimientos, o como quiera que se les denomine, para poder interpretar sus
observaciones.
Un fenómeno determinista es aquel que, cuando se reproduce en la mismas
condiciones, podemos predecir con certeza cuál va a ser el resultado, la
observación que derivará. Por el contrario, el fenómeno aleatorio es el que en cada
manifestación, aunque se produzca bajo idénticas condiciones, el resultado no se
puede predecir con certeza, y sólo es conocido después de su realización.
Precisamente este tipo de fenómenos aleatorios son el objeto de la Estadística, y la
incertidumbre que implican hasta que se plasman en algunas observación o
resultado concreto, es la esencia de dichos fenómenos.
No obstante, y reconociendo la presencia de incertidumbre siempre que nos
enfrentamos a un fenómeno aleatorio, no es menos cierto que, en la mayoría de
los casos, podemos establecer de antemano todas las categorías potenciales en que
puede devenir, es decir, cuántas manifestaciones diferentes puede presentar. Estos
posibles resultados son denominados sucesos aleatorios o eventos; y como hemos
señalado constituyen las categorías potenciales del fenómeno, de forma que
alguno de esos sucesos, después de la realización del fenómeno, se transformará
en observación o resultado.
Para intentar acotar el grado de incertidumbre que producen los fenómenos
aleatorios siempre será útil estudiar sus posibles concreciones, es decir, los
diferentes sucesos que pueden producirse.
Pero una mayor reducción de nuestro nivel de incertidumbre no solo se logra con
la enumeración del conjunto de sucesos aleatorios que puedan manifestarse sino
3
asignando a cada suceso un indicador de las posibilidades que tiene de acontecer:
ese indicador no es otra cosa que los que denominamos probabilidad.
La teoría de probabilidad es un sistema matemático compuesto de términos
definidos e indefinidos y de un conjunto de suposiciones relativas a ellos. Es una
disciplina abstracta que usamos como modelo para hacer deducciones relativas a
eventos que posiblemente pueden suceder en una operación física real o
imaginaria.
La estadística implica procesos repetitivos. Se podría decir entonces, que en la
teoría de la probabilidad empezamos con leyes de azar supuestas que utilizamos
como modelo para guiarnos al predecir los resultados de ciertos experimentos, En
la estadística, examinamos los resultados de operaciones repetitivas y después
intentamos interpretarlos con la ayuda de las probabilidades estimadas.
4
Conceptos Básicos de Probabilidad
Experimento: Es cualquier proceso al azar que produce un resultado.
Resultado: Efectos obtenidos del experimento.
Espacio muestral: Es el conjunto de todos los posibles resultados de un
experimento estadístico, tiene relación con el conjunto universal de la teoría de
conjuntos. Se representa con la letra mayúscula S.
Evento: Es un subconjunto del espacio muestral que puede tener 1 ó más
elementos. Se denotan con letras mayúsculas similares a los subconjuntos de la
teoría de conjuntos.
Puntos muestrales: Es el número de posibles resultados que hay en un espacio
muestral.
Probabilidad Clásica
Durante la segunda mitad del siglo XVII se inician los primeros intentos
científicos de medir la probabilidad de un suceso (Pascal, Fermat, Huygens,
Bernoulli, Leibniz, etc.) pero es con Laplace en 1812 cuando, con su definición de
probabilidad conocida como clásica, comienza el definitivo arranque del Cálculo
de Probabilidades.
Laplace define la probabilidad de un suceso como el cociente entre el número de
casos favorables y el número total de casos, siempre que todos sean igualmente
posibles.
Ejemplo
La probabilidad de extraer un as de una baraja perfecta de cuarenta cartas se
calcula de la siguiente forma: el número de casos favorables es cuatro, us en la
baraja hay cuatros ases, y el número de casos posibles es cuarenta, las cuarentas
cartas que pueden extraerse, por lo cual la probabilidad de obtener un as es igual a
4/40 = 1/10.
De la definición clásica de la probabilidad se desprenden una serie de
propiedades:
5
 P(S) ≥ 0. La probabilidad se ha definido como el cociente del número de
casos favorables al suceso S y el número de casos posibles, por lo que el
cociente no puede ser negativo, y su límite inferior 0 se alcanza cuando el
número de casos favorables sea nulo.
 P(S) ≤ 1. El número de casos favorables nunca puede ser mayor que el
número total de casos, a lo sumo igual.
Ejemplo 1
Si el suceso es obtener cualquier número del 1 al 6, suceso cierto, el número
de casos favorables (6) coincide con el total (6) y su cociente es la unidad. Si,
por el contrario, el suceso consiste en que no salga ningún número del 1 al 6,
suceso imposible, su probabilidad es cero, pues en el espacio muestral no hay
ningún suceso que cumpla esta condición siendo, por tanto, el número de
casos favorables cero.
Ejemplo 2
Sea el experimento aleatorio consistente en arrojar un dado solamente una vez
y el suceso de interés obtener número par. En el experimento el espacio
muestral está integrado por los seis primeros números enteros, E= {1, 2, 3, 4,
5, 6}. El suceso concreto, que denominaremos S, es un suceso compuesto, S =
{número par} = {2, 4, 6}, es decir, obtenido siempre que al arrojar el dado el
número resultante sea 2 o 4 o 6. Planteando así el experimento, el número total
de casos que pueden darse es seis, {1, 2, 3, 4, 5, 6}, y el de favorables tres, {2,
4, 6}. Si suponemos que utilizamos un dado idea (por lo cual todos los
elementos del espacio muestral {1, 2, 3, 4, 5, 6} son igualmente posibles,
ninguno se manifiesta con más o menos intensidad que otros), la teoría clásica
define la probabilidad del suceso S, P(S), como el cociente del número de
casos favorables, tres, respecto al del número total de casos posibles, seis.
P(S) = P(número par) =
𝑁ú𝑚𝑒𝑟𝑜 𝑑𝑒 𝑐𝑎𝑠𝑜𝑠𝑓𝑎𝑣𝑜𝑟𝑎𝑏𝑙𝑒𝑠
𝑁ú𝑚𝑒𝑟𝑜 𝑡𝑜𝑡𝑎𝑙 𝑑𝑒 𝑐𝑎𝑠𝑜𝑠
=
3
6
=
1
2
= P(2) + P(4) + P(6)
El resultado 1/2 es la probabilidad buscada, indicando que de cada dos casos
uno puede ser número par. Es importantes tener presente que el resultado no
dice que siempre que se lance un dado dos veces una de ellas será
necesariamente número par, sino que debemos interpretar 1/2, en el sentido
que en una larga serie de tiradas aproximadamente la mitad de ellas será par o,
dicho de otro modo, que la probabilidad que en la tirada siguiente salga
número par es 1/2.
6
La probabilidad clásica supone que el número de casos totales (posibles) sea
finito, lo que implica otra limitación de su campo de aplicabilidad.
Otra situación para la cual la teoría clásica no tiene respuesta es, por ejemplo,
el cálculo de la probabilidad de que el niño nazca en el último instante del año
sea varón.
Todas las circunstancias expuestas, que limitan la utilización de la
probabilidad clásica en las ciencias empíricas, conducen a la exigencia de un
nuevo concepto de probabilidad que dé respuesta a las objeciones planteadas.
Axiomas de Probabilidad
Para el cálculo de probabilidades hay que tomar en cuenta los Axiomas y
Teoremas que a continuación se enumeran.
Sea S un espacio muestral y A un evento en S.
1) La probabilidad de que ocurra el espacio muestral S debe de ser 1.
P(S) = 1
La probabilidad del espacio muestral es exactamente 1.
2) La probabilidad de que ocurra un evento A cualquiera se encuentra entre
cero y uno.
0 > P(A) > 1
No es posible asignarle una probabilidad a un evento que sea negativo.
3) P(A∪B) = P(A) + P(B) Si A y B son eventos mutuamente excluyentes, es
decir P(A ∩ B ) = ∅.
Generalizando:
El axioma 3 dice que si dos eventos A y B son mutuamente excluyentes, entonces
la probabilidad de su unión es la suma de sus probabilidades individuales.
P(A1∩A2∩.........∩An) = p(A1) + p(A2) + .......+ p(An) =
∞
∑ P(Ai)
i=1
7
Sucesos mutuamente excluyentes o incompatibles son aquellos que no pueden
ocurrir al mismo tiempo, por ejemplo que una persona sea hombre y mujer al
mismo tiempo, que una persona tenga el grupo sanguíneo 0 y el B, que al tirar un
dado salga el número 5 y una cifra par al mismo tiempo, etc.
El primer Axioma indica que el máximo valor que puede tomar la probabilidad de
un suceso es 1, esto ocurre cuando el suceso es seguro.
El segundo axioma india que el mínimo valor que puede tomar la probabilidad es
cero, y por lo tanto no puede ser negativo.
El tercer axioma que desde un punto de vista formal debería haberse enunciado en
principio como una sucesión infinita de sucesos, por motivos didácticos y
teniendo en cuenta que los espacios muestrales que se utilizan en estadística
aplicada, en general, son finitos, se ha aplicado el axioma a espacios muestrales
finitos directamente. Si tenemos una sucesión y es una colección de infinita de
elementos excluyentes que no comparten nada entre ellos, se calcula como la
suma de probabilidades individuales.
Los axiomas tienen una serie de aplicaciones al cálculo de probabilidades que
pueden demostrarse de forma inmediata.
Teoremas:
Teorema 1 regla general de la adición
Si A y B son dos sucesos cualesquiera:
P(A ∪ B) = P(A) + P(B) – P(A ∩ B)
Este importante teorema es conocido con el nombre de regla general de adición
por su trascendencia en el cálculo de probabilidades.
Ejemplo
Si el experimento es lanzar un dado una vez, el espacio muestral es:
S = {1,2, 3, 4, 5, 6}
Si el evento A es caer un número par
A = {2, 4, 6}
Si el conjunto B es un número menor de 3
8
B = {1, 2}
¿Cuál será la probabilidad de que suceda alguno de estos dos eventos?
Primero identificamos que es lo que queremos, “la probabilidad de que sea par o
menor de tres”.
Es decir: P(A ∪ B)
Ya que identificamos lo que queremos ahora debemos saber lo que conocemos.
La probabilidad de A y la probabilidad de B es:
P(A) =
3
6
= 0.50 P(B) =
2
6
= 0.33
Para aplicar este teorema es necesario conocer la probabilidad de la intersección
de estos dos eventos si se quiere conocer la probabilidad de la unión, o de manera
inversa, conocer la probabilidad de la unión para calcular la probabilidad de la
intersección.
En este caso queremos saber la unión, entonces es necesario conocer la
intersección que es “número par y menor de 3”.
A ∩ B = {2} entonces P(A ∩ B) =
2
6
= 0.33
Si aplicamos la regla de adición:
P(A ∪ B) = P(A) + P(B) – P(A ∩ B)
P(A ∪ B)= 0.50 + 0.33 – 0.33 = 0.5
Dato: Las leyes de Morgan declaran que el complemento de la intersección de dos
sucesos es igual a la unión de cada complemento de cada suceso, y que el
complemento de la unión de dos sucesos es igual a la intersección del
complemento de esos sucesos.
A ∩ B = A U B
A U B = A ∩ B
Teorema 2: Regla de complementación
La probabilidad de que el complemento de un evento ocurra está dada por la
siguiente ecuación:
9
P(Ā) = 1 – P(A)
Ejemplo
En el experimento de “lanzar un dado y registrar que cara es la de arriba”, si el
suceso A = “es menor de tres”, entonces la probabilidad de Ā=”no sea menor de
tres” es:
P(A) = 2/6 = 0.33
P(Ā) = 1 - 0.33 = 0.67
Teorema 3 Regla de la multiplicación
Teniendo en cuenta:
P(A ∩ B) = P(A) P(B/A)
La expresión anterior tiene una gran importancia en el cálculo de probabilidades,
y es conocido como teorema de la multiplicación.
Ejemplo:
En un servicio de medicina interna el 40% de los pacientes ingresados es a causa
de enfermedades infecciosas. La probabilidad de que un paciente sea diabético
sabiendo que tiene una infección, es del 25%.
Calcular la probabilidad de que un paciente ingresado en un servicio de medicina
interna sea diabético y tenga una infección.
En este caso, el suceso A es tener un proceso infeccioso cuya probabilidad P(A) =
0.4 y el suceso B probabilidad de ser diabético, cuya probabilidad se desconoce,
sin embargo se conoce la probabilidad de ser diabético sabiendo que el paciente
padece de una infección P(B/A) = 0,25; aplicando el teorema de la multiplicación
se puede calcular la probabilidad pedida, que es la de la intersección P(A ∩ B). La
probabilidad de que un individuo ingresado en dicho servicio de medicina tenga
una infección y sea diabético según este teorema seria:
P(A ∩ B) = P(A) P(B/A) = 0,4 . 0,25 = 0,1
El 10% de los pacientes ingresados son diabéticos y tienen una infección.
10
Probabilidad Condicional
La probabilidad de que un evento B ocurra cuando se sabe que ya ocurrió algún
evento A se llama probabilidad condicional y se denota por P(B/A). El símbolo
P(B/A) por lo general se lee “la probabilidad de que ocurra B dado que ocurrió A”
o simplemente “La probabilidad de B, dado A”.
Ejemplo 1
Se realiza una encuesta de mercado a 1000 hogares, 250 de estos hogares
planearon comprar un equipo de televisión pantalla grande, y solo 200 hogares lo
compraron. Calcule la probabilidad condicional de que un hogar compre un
equipo de televisión pantalla grande.
En relación con el escenario de “Uso de estadística” que se refiere a la compra de
un equipo de televisión de pantalla grande, suponga que en cierto hogar se planea
comprar un equipo de televisión de pantalla grande. Ahora, ¿cuál es la
probabilidad de que en ese hogar se compre realmente el equipo de televisión? En
este ejemplo el objetivo es encontrar P(compra real │ Planea comprar). Aquí se le
proporciona la información de que el hogar planea comprar el equipo de televisión
de pantalla grande. Por lo tanto, el espacio muestral no consiste en todos los 1000
hogares de la encuesta. Consiste solo en aquellos que realmente compraron el
equipo de televisión de pantalla grande. De 250 de esos hogares, 200 compraron
realmente el equipo de televisión de pantalla grande. Por lo tanto, la probabilidad
de que en un hogar realmente se compre un equipo de televisión de pantalla
grande dado que lo planeó comprar es:
P(realmente compró │ planeó comprar) =
𝑃𝑙𝑎𝑛𝑒ó 𝑦 𝑟𝑒𝑎𝑙𝑚𝑒𝑛𝑡𝑒 𝑐𝑜𝑚𝑝𝑟ó
𝑃𝑙𝑎𝑛𝑒ó 𝑐𝑜𝑚𝑝𝑟𝑎𝑟
=
200
250
= 0.80
También es posible usar la ecuación para calcular el resultado:
P(B│A) =
𝑃( 𝐴 𝑦 𝐵)
𝑃(𝐴)
11
Donde:
Evento A = planeó comprar
Evento B = realmente compró
Entonces:
P(realmente compró │ Planeó comprar) =
200│1000
250│1000
=
200
250
= 0.80
Ejemplo 2
Se realizó una encuesta sobre hábitos de lectura que se resume por medio de la
tabla.
Calcular:
Le gusta leer No gusta leer Total
Hombre 40 20 60
Mujer 50 10 60
Total 90 30 120
a) La probabilidad de que si elegimos una persona al azar entre las 120 sea
mujer:
P(M) =
60
120
= 0.50
b) Cuál es la probabilidad de que una persona elegida al azar le guste leer y
sea mujer:
P(L ∩ M) =
50
120
= 0.42
c) Cuál es la probabilidad de que si elegimos una persona al azar le guste leer
dado que es una mujer:
P(L│M) =
𝑃( 𝐿∩𝑀)
𝑃( 𝑀)
=
0.42
0.50
= 0.84
Nota: La probabilidad de A dado B no representa lo mismo que B
dado A.
12
Conclusión
Parece evidente que la idea de probabilidad debe ser tan antigua como el hombre.
La idea “es muy probable que llueva mañana” la debía pensar y trasmitir el
hombre prehistórico.
Pero es recién en 1654 que comienza a desarrollarse el cálculo de probabilidades,
cuando Fermat (1601-1665) y Pascal (1623-1662) en 1654, en correspondencia no
publicada, comienzan a aplicar métodos matemáticos para resolver problemas de
juegos de azar con cartas y dados. Otros nombres destacados en el desarrollo del
cálculo de probabilidades son Jakob Bernoulli (1654-1705) (“Ars Conjectandi”,
publicado póstumo en 1713, que contiene la hoy llamada “ley de los grandes
números de Bernoulli”) y Abraham de Moivre (1667-1754) (“Doctrina de las
Chances, 1718). En el siglo siguiente se destaca Laplace (1749-1827) y su obra
“Teoría analítica de la probabilidad” (1812).
Después de un lento progreso, se acelera el desarrollo de la teoría de
probabilidades a mediados del siglo XIX. Tchebycheff (1821-1894) es el primero
de la escuela rusa que contribuyó mucho al desarrollo de la teoría de
probabilidades, con matemáticos como Markov (1856-1922) y Kolmogorov
(1903-1987)). Problemas de genética que se plantearon a fines del siglo XIX
(Galton) y el rápido desarrollo al comienzo del siglo XX en Física de las teorías
de movimiento browniano y mecánica estadística le dieron a la teoría de
probabilidades fuentes de nuevos problemas.
La definición que se usa actualmente de Probabilidad fue dada recién en 1933, por
Kolmogorov. Es una definición axiomática, similar a la definición de medida de la
teoría de la medida (teoría desarrollada en 1898 por Borel (1871-1956) y que sirve
de base a la teoría de integración de Lebesgue (1910)(1875-1941). Además de sus
aplicaciones a la genética, física, tecnología, etc., la teoría de probabilidades sirve
de base a la teoría de inferencia estadística, ya que en inferencia estadística se
mide la probabilidad de equivocarse al hacer una inferencia inductiva.
13
Bibliografía
 Elementosde Probabilidad y Estadística. Elmer B. Mode. Editorial Reverté. Año
1982.
 Fundamentosde Probabilidad.Fco.JavierMartín-Pliegoy Luis Ruiz-Maya Pérez.
2da Edición. Editorial Thomson. Año 2006.
 Probabilidad y estadística para ingenieros. Ronald E. Walpole, Raymond H
Myers, Sharon L. Myers. Sexta edición. Perarson Educación. Año 1998.
 Estadística para administración. Mark L. Berenson, David M. Levine, Imothy C.
Krehbiel. Mexico.
 Estadística aplicada a las ciencias de la salud. Rafael Álvarez Cáceres. Ediciones
Díaz de Santos. Año 2007.

Probabilidad

  • 1.
    1 Índice Introducción ...............................................................................................................2 Conceptos Básicosde Probabilidad..............................................................................4 Probabilidad Clásica ...................................................................................................4 Axiomas de Probabilidad.............................................................................................6 Teoremas:..................................................................................................................7 Teorema 1 regla general de la adición.......................................................................7 Teorema 2: Regla de complementación ....................................................................8 Teorema de la multiplicación...................................................................................9 Probabilidad Condicional ..........................................................................................10 Conclusión ...............................................................................................................12 Bibliografía ..............................................................................................................13
  • 2.
    2 Introducción Tanto el científicocomo el ciudadano de a pie están sometidos a una permanente recepción de informaciones, observaciones, que se pueden presentar bajo modos muy dispares: los resultados de un experimento, percepciones sensoriales, datos numéricos, hechos históricos, opiniones personales, etc. Es, y ha sido siempre, una constante el que las personas hayan querido interpretar sus observaciones, experiencias, para aprehender el mundo que les rodea. Y siempre ha dirigido parte de sus esfuerzos a encontrar técnicas, métodos, procedimientos, o como quiera que se les denomine, para poder interpretar sus observaciones. Un fenómeno determinista es aquel que, cuando se reproduce en la mismas condiciones, podemos predecir con certeza cuál va a ser el resultado, la observación que derivará. Por el contrario, el fenómeno aleatorio es el que en cada manifestación, aunque se produzca bajo idénticas condiciones, el resultado no se puede predecir con certeza, y sólo es conocido después de su realización. Precisamente este tipo de fenómenos aleatorios son el objeto de la Estadística, y la incertidumbre que implican hasta que se plasman en algunas observación o resultado concreto, es la esencia de dichos fenómenos. No obstante, y reconociendo la presencia de incertidumbre siempre que nos enfrentamos a un fenómeno aleatorio, no es menos cierto que, en la mayoría de los casos, podemos establecer de antemano todas las categorías potenciales en que puede devenir, es decir, cuántas manifestaciones diferentes puede presentar. Estos posibles resultados son denominados sucesos aleatorios o eventos; y como hemos señalado constituyen las categorías potenciales del fenómeno, de forma que alguno de esos sucesos, después de la realización del fenómeno, se transformará en observación o resultado. Para intentar acotar el grado de incertidumbre que producen los fenómenos aleatorios siempre será útil estudiar sus posibles concreciones, es decir, los diferentes sucesos que pueden producirse. Pero una mayor reducción de nuestro nivel de incertidumbre no solo se logra con la enumeración del conjunto de sucesos aleatorios que puedan manifestarse sino
  • 3.
    3 asignando a cadasuceso un indicador de las posibilidades que tiene de acontecer: ese indicador no es otra cosa que los que denominamos probabilidad. La teoría de probabilidad es un sistema matemático compuesto de términos definidos e indefinidos y de un conjunto de suposiciones relativas a ellos. Es una disciplina abstracta que usamos como modelo para hacer deducciones relativas a eventos que posiblemente pueden suceder en una operación física real o imaginaria. La estadística implica procesos repetitivos. Se podría decir entonces, que en la teoría de la probabilidad empezamos con leyes de azar supuestas que utilizamos como modelo para guiarnos al predecir los resultados de ciertos experimentos, En la estadística, examinamos los resultados de operaciones repetitivas y después intentamos interpretarlos con la ayuda de las probabilidades estimadas.
  • 4.
    4 Conceptos Básicos deProbabilidad Experimento: Es cualquier proceso al azar que produce un resultado. Resultado: Efectos obtenidos del experimento. Espacio muestral: Es el conjunto de todos los posibles resultados de un experimento estadístico, tiene relación con el conjunto universal de la teoría de conjuntos. Se representa con la letra mayúscula S. Evento: Es un subconjunto del espacio muestral que puede tener 1 ó más elementos. Se denotan con letras mayúsculas similares a los subconjuntos de la teoría de conjuntos. Puntos muestrales: Es el número de posibles resultados que hay en un espacio muestral. Probabilidad Clásica Durante la segunda mitad del siglo XVII se inician los primeros intentos científicos de medir la probabilidad de un suceso (Pascal, Fermat, Huygens, Bernoulli, Leibniz, etc.) pero es con Laplace en 1812 cuando, con su definición de probabilidad conocida como clásica, comienza el definitivo arranque del Cálculo de Probabilidades. Laplace define la probabilidad de un suceso como el cociente entre el número de casos favorables y el número total de casos, siempre que todos sean igualmente posibles. Ejemplo La probabilidad de extraer un as de una baraja perfecta de cuarenta cartas se calcula de la siguiente forma: el número de casos favorables es cuatro, us en la baraja hay cuatros ases, y el número de casos posibles es cuarenta, las cuarentas cartas que pueden extraerse, por lo cual la probabilidad de obtener un as es igual a 4/40 = 1/10. De la definición clásica de la probabilidad se desprenden una serie de propiedades:
  • 5.
    5  P(S) ≥0. La probabilidad se ha definido como el cociente del número de casos favorables al suceso S y el número de casos posibles, por lo que el cociente no puede ser negativo, y su límite inferior 0 se alcanza cuando el número de casos favorables sea nulo.  P(S) ≤ 1. El número de casos favorables nunca puede ser mayor que el número total de casos, a lo sumo igual. Ejemplo 1 Si el suceso es obtener cualquier número del 1 al 6, suceso cierto, el número de casos favorables (6) coincide con el total (6) y su cociente es la unidad. Si, por el contrario, el suceso consiste en que no salga ningún número del 1 al 6, suceso imposible, su probabilidad es cero, pues en el espacio muestral no hay ningún suceso que cumpla esta condición siendo, por tanto, el número de casos favorables cero. Ejemplo 2 Sea el experimento aleatorio consistente en arrojar un dado solamente una vez y el suceso de interés obtener número par. En el experimento el espacio muestral está integrado por los seis primeros números enteros, E= {1, 2, 3, 4, 5, 6}. El suceso concreto, que denominaremos S, es un suceso compuesto, S = {número par} = {2, 4, 6}, es decir, obtenido siempre que al arrojar el dado el número resultante sea 2 o 4 o 6. Planteando así el experimento, el número total de casos que pueden darse es seis, {1, 2, 3, 4, 5, 6}, y el de favorables tres, {2, 4, 6}. Si suponemos que utilizamos un dado idea (por lo cual todos los elementos del espacio muestral {1, 2, 3, 4, 5, 6} son igualmente posibles, ninguno se manifiesta con más o menos intensidad que otros), la teoría clásica define la probabilidad del suceso S, P(S), como el cociente del número de casos favorables, tres, respecto al del número total de casos posibles, seis. P(S) = P(número par) = 𝑁ú𝑚𝑒𝑟𝑜 𝑑𝑒 𝑐𝑎𝑠𝑜𝑠𝑓𝑎𝑣𝑜𝑟𝑎𝑏𝑙𝑒𝑠 𝑁ú𝑚𝑒𝑟𝑜 𝑡𝑜𝑡𝑎𝑙 𝑑𝑒 𝑐𝑎𝑠𝑜𝑠 = 3 6 = 1 2 = P(2) + P(4) + P(6) El resultado 1/2 es la probabilidad buscada, indicando que de cada dos casos uno puede ser número par. Es importantes tener presente que el resultado no dice que siempre que se lance un dado dos veces una de ellas será necesariamente número par, sino que debemos interpretar 1/2, en el sentido que en una larga serie de tiradas aproximadamente la mitad de ellas será par o, dicho de otro modo, que la probabilidad que en la tirada siguiente salga número par es 1/2.
  • 6.
    6 La probabilidad clásicasupone que el número de casos totales (posibles) sea finito, lo que implica otra limitación de su campo de aplicabilidad. Otra situación para la cual la teoría clásica no tiene respuesta es, por ejemplo, el cálculo de la probabilidad de que el niño nazca en el último instante del año sea varón. Todas las circunstancias expuestas, que limitan la utilización de la probabilidad clásica en las ciencias empíricas, conducen a la exigencia de un nuevo concepto de probabilidad que dé respuesta a las objeciones planteadas. Axiomas de Probabilidad Para el cálculo de probabilidades hay que tomar en cuenta los Axiomas y Teoremas que a continuación se enumeran. Sea S un espacio muestral y A un evento en S. 1) La probabilidad de que ocurra el espacio muestral S debe de ser 1. P(S) = 1 La probabilidad del espacio muestral es exactamente 1. 2) La probabilidad de que ocurra un evento A cualquiera se encuentra entre cero y uno. 0 > P(A) > 1 No es posible asignarle una probabilidad a un evento que sea negativo. 3) P(A∪B) = P(A) + P(B) Si A y B son eventos mutuamente excluyentes, es decir P(A ∩ B ) = ∅. Generalizando: El axioma 3 dice que si dos eventos A y B son mutuamente excluyentes, entonces la probabilidad de su unión es la suma de sus probabilidades individuales. P(A1∩A2∩.........∩An) = p(A1) + p(A2) + .......+ p(An) = ∞ ∑ P(Ai) i=1
  • 7.
    7 Sucesos mutuamente excluyenteso incompatibles son aquellos que no pueden ocurrir al mismo tiempo, por ejemplo que una persona sea hombre y mujer al mismo tiempo, que una persona tenga el grupo sanguíneo 0 y el B, que al tirar un dado salga el número 5 y una cifra par al mismo tiempo, etc. El primer Axioma indica que el máximo valor que puede tomar la probabilidad de un suceso es 1, esto ocurre cuando el suceso es seguro. El segundo axioma india que el mínimo valor que puede tomar la probabilidad es cero, y por lo tanto no puede ser negativo. El tercer axioma que desde un punto de vista formal debería haberse enunciado en principio como una sucesión infinita de sucesos, por motivos didácticos y teniendo en cuenta que los espacios muestrales que se utilizan en estadística aplicada, en general, son finitos, se ha aplicado el axioma a espacios muestrales finitos directamente. Si tenemos una sucesión y es una colección de infinita de elementos excluyentes que no comparten nada entre ellos, se calcula como la suma de probabilidades individuales. Los axiomas tienen una serie de aplicaciones al cálculo de probabilidades que pueden demostrarse de forma inmediata. Teoremas: Teorema 1 regla general de la adición Si A y B son dos sucesos cualesquiera: P(A ∪ B) = P(A) + P(B) – P(A ∩ B) Este importante teorema es conocido con el nombre de regla general de adición por su trascendencia en el cálculo de probabilidades. Ejemplo Si el experimento es lanzar un dado una vez, el espacio muestral es: S = {1,2, 3, 4, 5, 6} Si el evento A es caer un número par A = {2, 4, 6} Si el conjunto B es un número menor de 3
  • 8.
    8 B = {1,2} ¿Cuál será la probabilidad de que suceda alguno de estos dos eventos? Primero identificamos que es lo que queremos, “la probabilidad de que sea par o menor de tres”. Es decir: P(A ∪ B) Ya que identificamos lo que queremos ahora debemos saber lo que conocemos. La probabilidad de A y la probabilidad de B es: P(A) = 3 6 = 0.50 P(B) = 2 6 = 0.33 Para aplicar este teorema es necesario conocer la probabilidad de la intersección de estos dos eventos si se quiere conocer la probabilidad de la unión, o de manera inversa, conocer la probabilidad de la unión para calcular la probabilidad de la intersección. En este caso queremos saber la unión, entonces es necesario conocer la intersección que es “número par y menor de 3”. A ∩ B = {2} entonces P(A ∩ B) = 2 6 = 0.33 Si aplicamos la regla de adición: P(A ∪ B) = P(A) + P(B) – P(A ∩ B) P(A ∪ B)= 0.50 + 0.33 – 0.33 = 0.5 Dato: Las leyes de Morgan declaran que el complemento de la intersección de dos sucesos es igual a la unión de cada complemento de cada suceso, y que el complemento de la unión de dos sucesos es igual a la intersección del complemento de esos sucesos. A ∩ B = A U B A U B = A ∩ B Teorema 2: Regla de complementación La probabilidad de que el complemento de un evento ocurra está dada por la siguiente ecuación:
  • 9.
    9 P(Ā) = 1– P(A) Ejemplo En el experimento de “lanzar un dado y registrar que cara es la de arriba”, si el suceso A = “es menor de tres”, entonces la probabilidad de Ā=”no sea menor de tres” es: P(A) = 2/6 = 0.33 P(Ā) = 1 - 0.33 = 0.67 Teorema 3 Regla de la multiplicación Teniendo en cuenta: P(A ∩ B) = P(A) P(B/A) La expresión anterior tiene una gran importancia en el cálculo de probabilidades, y es conocido como teorema de la multiplicación. Ejemplo: En un servicio de medicina interna el 40% de los pacientes ingresados es a causa de enfermedades infecciosas. La probabilidad de que un paciente sea diabético sabiendo que tiene una infección, es del 25%. Calcular la probabilidad de que un paciente ingresado en un servicio de medicina interna sea diabético y tenga una infección. En este caso, el suceso A es tener un proceso infeccioso cuya probabilidad P(A) = 0.4 y el suceso B probabilidad de ser diabético, cuya probabilidad se desconoce, sin embargo se conoce la probabilidad de ser diabético sabiendo que el paciente padece de una infección P(B/A) = 0,25; aplicando el teorema de la multiplicación se puede calcular la probabilidad pedida, que es la de la intersección P(A ∩ B). La probabilidad de que un individuo ingresado en dicho servicio de medicina tenga una infección y sea diabético según este teorema seria: P(A ∩ B) = P(A) P(B/A) = 0,4 . 0,25 = 0,1 El 10% de los pacientes ingresados son diabéticos y tienen una infección.
  • 10.
    10 Probabilidad Condicional La probabilidadde que un evento B ocurra cuando se sabe que ya ocurrió algún evento A se llama probabilidad condicional y se denota por P(B/A). El símbolo P(B/A) por lo general se lee “la probabilidad de que ocurra B dado que ocurrió A” o simplemente “La probabilidad de B, dado A”. Ejemplo 1 Se realiza una encuesta de mercado a 1000 hogares, 250 de estos hogares planearon comprar un equipo de televisión pantalla grande, y solo 200 hogares lo compraron. Calcule la probabilidad condicional de que un hogar compre un equipo de televisión pantalla grande. En relación con el escenario de “Uso de estadística” que se refiere a la compra de un equipo de televisión de pantalla grande, suponga que en cierto hogar se planea comprar un equipo de televisión de pantalla grande. Ahora, ¿cuál es la probabilidad de que en ese hogar se compre realmente el equipo de televisión? En este ejemplo el objetivo es encontrar P(compra real │ Planea comprar). Aquí se le proporciona la información de que el hogar planea comprar el equipo de televisión de pantalla grande. Por lo tanto, el espacio muestral no consiste en todos los 1000 hogares de la encuesta. Consiste solo en aquellos que realmente compraron el equipo de televisión de pantalla grande. De 250 de esos hogares, 200 compraron realmente el equipo de televisión de pantalla grande. Por lo tanto, la probabilidad de que en un hogar realmente se compre un equipo de televisión de pantalla grande dado que lo planeó comprar es: P(realmente compró │ planeó comprar) = 𝑃𝑙𝑎𝑛𝑒ó 𝑦 𝑟𝑒𝑎𝑙𝑚𝑒𝑛𝑡𝑒 𝑐𝑜𝑚𝑝𝑟ó 𝑃𝑙𝑎𝑛𝑒ó 𝑐𝑜𝑚𝑝𝑟𝑎𝑟 = 200 250 = 0.80 También es posible usar la ecuación para calcular el resultado: P(B│A) = 𝑃( 𝐴 𝑦 𝐵) 𝑃(𝐴)
  • 11.
    11 Donde: Evento A =planeó comprar Evento B = realmente compró Entonces: P(realmente compró │ Planeó comprar) = 200│1000 250│1000 = 200 250 = 0.80 Ejemplo 2 Se realizó una encuesta sobre hábitos de lectura que se resume por medio de la tabla. Calcular: Le gusta leer No gusta leer Total Hombre 40 20 60 Mujer 50 10 60 Total 90 30 120 a) La probabilidad de que si elegimos una persona al azar entre las 120 sea mujer: P(M) = 60 120 = 0.50 b) Cuál es la probabilidad de que una persona elegida al azar le guste leer y sea mujer: P(L ∩ M) = 50 120 = 0.42 c) Cuál es la probabilidad de que si elegimos una persona al azar le guste leer dado que es una mujer: P(L│M) = 𝑃( 𝐿∩𝑀) 𝑃( 𝑀) = 0.42 0.50 = 0.84 Nota: La probabilidad de A dado B no representa lo mismo que B dado A.
  • 12.
    12 Conclusión Parece evidente quela idea de probabilidad debe ser tan antigua como el hombre. La idea “es muy probable que llueva mañana” la debía pensar y trasmitir el hombre prehistórico. Pero es recién en 1654 que comienza a desarrollarse el cálculo de probabilidades, cuando Fermat (1601-1665) y Pascal (1623-1662) en 1654, en correspondencia no publicada, comienzan a aplicar métodos matemáticos para resolver problemas de juegos de azar con cartas y dados. Otros nombres destacados en el desarrollo del cálculo de probabilidades son Jakob Bernoulli (1654-1705) (“Ars Conjectandi”, publicado póstumo en 1713, que contiene la hoy llamada “ley de los grandes números de Bernoulli”) y Abraham de Moivre (1667-1754) (“Doctrina de las Chances, 1718). En el siglo siguiente se destaca Laplace (1749-1827) y su obra “Teoría analítica de la probabilidad” (1812). Después de un lento progreso, se acelera el desarrollo de la teoría de probabilidades a mediados del siglo XIX. Tchebycheff (1821-1894) es el primero de la escuela rusa que contribuyó mucho al desarrollo de la teoría de probabilidades, con matemáticos como Markov (1856-1922) y Kolmogorov (1903-1987)). Problemas de genética que se plantearon a fines del siglo XIX (Galton) y el rápido desarrollo al comienzo del siglo XX en Física de las teorías de movimiento browniano y mecánica estadística le dieron a la teoría de probabilidades fuentes de nuevos problemas. La definición que se usa actualmente de Probabilidad fue dada recién en 1933, por Kolmogorov. Es una definición axiomática, similar a la definición de medida de la teoría de la medida (teoría desarrollada en 1898 por Borel (1871-1956) y que sirve de base a la teoría de integración de Lebesgue (1910)(1875-1941). Además de sus aplicaciones a la genética, física, tecnología, etc., la teoría de probabilidades sirve de base a la teoría de inferencia estadística, ya que en inferencia estadística se mide la probabilidad de equivocarse al hacer una inferencia inductiva.
  • 13.
    13 Bibliografía  Elementosde Probabilidady Estadística. Elmer B. Mode. Editorial Reverté. Año 1982.  Fundamentosde Probabilidad.Fco.JavierMartín-Pliegoy Luis Ruiz-Maya Pérez. 2da Edición. Editorial Thomson. Año 2006.  Probabilidad y estadística para ingenieros. Ronald E. Walpole, Raymond H Myers, Sharon L. Myers. Sexta edición. Perarson Educación. Año 1998.  Estadística para administración. Mark L. Berenson, David M. Levine, Imothy C. Krehbiel. Mexico.  Estadística aplicada a las ciencias de la salud. Rafael Álvarez Cáceres. Ediciones Díaz de Santos. Año 2007.