1. REPÚBLICA BOLIVARIANA DE VENEZUELA
MINISTERIO DEL PODER POPULAR PARA LA EDUCACIÓN
INSTITUTO UNIVERSITARIO POLITÉCNICO
“SANTIAGO MARIÑO”
CÁTEDRA: ESTADISTICA I
ENSAYO TEORÍA DE LA PROBABILIDAD
Tercer corte
PRESENTADO POR:
JOSE L. MOLINA C.I. 16.687.668.
SECCIÓN “S”, NOCTURNO.
PROFESOR DE ASIGNATURA: YANNY ATIA
2. CONTENIDO
INTRODUCCIÓN .......................................................................................................................................3
1. OBJETIVO. .........................................................................................................................................4
2. DEFINICIONES BÁSICAS...............................................................................................................4
3. RESEÑA DE LA PROBABILIDAD.................................................................................................4
4. DEFINICIÓN CLÁSICA DE PROBABILIDAD. .............................................................................6
4.1 Axiomas de probabilidad...........................................................................................................7
4.2 Axiomas de Kolmogórov. ..........................................................................................................7
5. DEFINICIONES: PROBABILIDAD CONDICIONAL, EVENTOS INDEPENDIENTES,
EVENTOS DEPENDIENTES, LEY DE PROBABILIDAD TOTAL Y TEOREMA DE BAYES. .....8
5.1 Probabilidad Condicional. .........................................................................................................8
5.2 Eventos Independientes..........................................................................................................10
5.3 Eventos Dependientes. ..........................................................................................................10
5.4 Ley de Probabilidad total.........................................................................................................11
5.5 Teorema de Bayes...................................................................................................................11
6. MUESTRAS DE POBLACIÓN, DEFINIR PERMUTACIONES Y COMBINACIONES Y SUS
APLICACIONES A LOS DIFERENTES EVENTOS. .........................................................................12
6.1 Población...................................................................................................................................12
6.2 Muestra......................................................................................................................................12
6.3 Permutaciones..........................................................................................................................12
6.4 Combinaciones.........................................................................................................................13
6.5 Aplicaciones..............................................................................................................................13
CONCLUSIÓN..........................................................................................................................................14
BIBLIOGRAFÍA........................................................................................................................................15
3. INTRODUCCIÓN
La probabilidad y la estadística son, sin duda, las ramas de las Matemáticas que están
en mayor auge en este siglo, y tienen una tremenda aplicabilidad en todos los aspectos
y ciencias, especialmente en las Ciencias Sociales, puesto que aquellas variables que
influyen en dichas ciencias, económicas, demográficas, suelen tener carácter aleatorio,
es decir, no son deterministas, y se fundamentan en predicciones a partir de datos
conocidos. Todo aquello que implique predicción nos lleva al terreno de la probabilidad.
La teoría de la probabilidad es una teoría matemática axiomatizada, sobre la cual existe
un amplio consenso, la formulación usual de la teoría de la probabilidad se hace en el
lenguaje de la teoría de conjuntos. El dominio de la teoría es un conjunto no vacío de
elementos cualesquiera, habitualmente simbolizado como Ω, la probabilidad es una
función que asigna números reales a los subconjuntos de Ω. El objeto de la teoría de
probabilidades es proporcionar un modelo matemático adecuado, aplicable a la
descripción e interpretación de los fenómenos aleatorios. La construcción del modelo se
basa en los siguientes conceptos: espacio muestral, evento o sucesos, espacio de la
probabilidad, eventos independientes, dependientes entre otros.
4. 1. OBJETIVO.
El objetivo de este ensayo es presentar el análisis y las definiciones requeridas para el
entendimiento lógico-practico de la “TEORÍA DE LA PROBABILIDAD”.
2. DEFINICIONES BÁSICAS.
La teoría de probabilidades se ocupa de asignar un cierto número a cada posible
resultado que pueda ocurrir en un experimento aleatorio, con el fin de cuantificar dichos
resultados y saber si un suceso es más probable que otro o relaciones parecidas. Con
este fin, introduciremos algunas definiciones.
Espacio Muestral: Es el conjunto de todos los resultados posibles de un
experimento aleatorio. El conjunto de todos los resultados posibles pueden ser
finito, infinito numerable o infinito no numerables. Espacio muestral Discreto y
continuo.
Eventos: Llamaremos evento o suceso aleatorio a cualquier subconjunto del
espacio muestral. El concepto de suceso es fundamental en probabilidad. Dicho
de forma simple, un suceso de un experimento aleatorio es cualquier cosa que se
nos ocurra afirmar sobre dicho experimento.
Relaciones entre eventos y familia de eventos:
AUB = “Suceso A o el Suceso B o ambos
AB) = “El suceso A y B “
AB = Ф “Son Sucesos excluyentes mutuamente, es decir no tienen elementos
comunes”
A = “El Suceso no A “
A – B = Todos los elementos de A siempre y cuando no estén en B
3. RESEÑA DE LA PROBABILIDAD.
La definición de probabilidad surge debido al deseo del ser humano por conocer con
certeza los eventos que sucederán en el futuro. Es por eso que a través de la historia se
han desarrollado diferentes enfoques para tener un concepto de la probabilidad y
determinar sus valores.
La idea de Probabilidad está íntimamente ligada a la idea de azar y nos ayuda a
comprender nuestras posibilidades de ganar un juego de azar o analizar las encuestas.
Pierre-Simon Laplace afirmó: "Es notable que una ciencia que comenzó con
consideraciones sobre juegos de azar haya llegado a ser el objeto más importante del
5. conocimiento humano". Comprender y estudiar el azar es indispensable, porque la
probabilidad es un soporte necesario para tomar decisiones en cualquier ámbito.
Según Amanda Dure, "Antes de la mitad del siglo XVII, el término 'probable' (en latín
probable) significaba aprobable, y se aplicaba en ese sentido, unívocamente, a la opinión
y a la acción. Una acción u opinión probable era una que las personas sensatas
emprenderían o mantendrían, en las circunstancias."
Aparte de algunas consideraciones elementales hechas por Girolamo Cardano en el siglo
XVI, la doctrina de las probabilidades data de la correspondencia de Pierre de Fermat y
Blaise Pascal (1654). Christiaan Huygens (1657) le dio el tratamiento científico conocido
más temprano al concepto. Ars Conjectandi (póstumo, 1713) de Jakob Bernoulli y
Doctrine of Chances (1718) de Abraham de Moivre trataron el tema como una rama de
las matemáticas. Véase El surgimiento de la probabilidad (The Emergence of Probability)
de Ian Hacking para una historia de los inicios del desarrollo del propio concepto de
probabilidad matemática.
La teoría de errores puede trazarse atrás en el tiempo hasta Opera Miscellanea
(póstumo, 1722) de Roger Cotes, pero una memoria preparada por Thomas Simpson en
1755 (impresa en 1756) aplicó por primera vez la teoría para la discusión de errores de
observación. La reimpresión (1757) de esta memoria expone los axiomas de que los
errores positivos y negativos son igualmente probables, y que hay ciertos límites
asignables dentro de los cuales se supone que caen todos los errores; se discuten los
errores continuos y se da una curva de la probabilidad.
Pierre-Simon Laplace (1774) hizo el primer intento para deducir una regla para la
combinación de observaciones a partir de los principios de la teoría de las probabilidades.
Representó la ley de la probabilidad de error con una curva y = phi(x), siendo x cualquier
error e y y su probabilidad, y expuso tres propiedades de esta curva:
1. es simétrica al eje y;
2. el eje x es una asíntota, siendo la probabilidad del error infty igual a 0;
3. la superficie cerrada es 1, haciendo cierta la existencia de un error.
Dedujo una fórmula para la media de tres observaciones. También obtuvo (1781) una
fórmula para la ley de facilidad de error (un término debido a Lagrange, 1774), pero una
que llevaba a ecuaciones inmanejables. Daniel Bernoulli (1778) introdujo el principio del
máximo producto de las probabilidades de un sistema de errores concurrentes.
El método de mínimos cuadrados se debe a Adrien-Marie Legendre (1805), que lo
introdujo en su Nouvelles méthodes pour la détermination des orbites des comètes
(Nuevos métodos para la determinación de las órbitas de los cometas). Ignorando la
contribución de Legendre, un escritor irlandés estadounidense, Robert Adrain, editor de
"The Analyst" (1808), dedujo por primera vez la ley de facilidad de error,
phi(x) = ce^{-h^2 x^2} siendo c y h constantes que dependen de la precisión de la
observación. Expuso dos demostraciones, siendo la segunda esencialmente la misma
de John Herschel (1850). Gauss expuso la primera demostración que parece que se
conoció en Europa (la tercera después de la de Adrain) en 1809. Demostraciones
adicionales se expusieron por Laplace (1810, 1812), Gauss (1823), James Ivory (1825,
6. 1826), Hagen (1837), Friedrich Bessel (1838), W. F. Donkin (1844, 1856) y Morgan
Crofton (1870). Otros personajes que contribuyeron fueron Ellis (1844), De Morgan
(1864), Glaisher (1872) y Giovanni Schiaparelli (1875). La fórmula de Peters (1856) para
r, el error probable de una única observación, es bien conocida.
En el siglo XIX, los autores de la teoría general incluían a Laplace, Sylvestre Lacroix
(1816), Littrow (1833), Adolphe Quetelet (1853), Richard Dedekind (1860), Helmert
(1872), Hermann Laurent (1873), Liagre, Didion, y Karl Pearson. Augustus De Morgan y
George Boole mejoraron la exposición de la teoría.
En 1933, el matemático soviético Andréi Kolmogórov propuso un sistema de axiomas
para la teoría de la probabilidad, basado en la teoría de conjuntos y en la teoría de la
medida, desarrollada pocos años antes por Lebesgue, Borel y Frechet entre otros.
Esta aproximación axiomática que generaliza el marco clásico de la probabilidad, la cual
obedece a la regla de cálculo de casos favorables sobre casos posibles, permitió la
rigorización de muchos argumentos ya utilizados, así como el estudio de problemas fuera
de los marcos clásicos. Actualmente, la teoría de la probabilidad encuentra aplicación en
las más variadas ramas del conocimiento, como puede ser la física (donde corresponde
mencionar el desarrollo de las difusiones y el movimiento Browniano), o las finanzas
(donde destaca el modelo de Black y Scholes para la valuación de acciones).
4. DEFINICIÓN CLÁSICA DE PROBABILIDAD.
La probabilidad es la característica de un evento, que existen razones para creer que
éste se realizará.
La probabilidad p de que suceda un evento S de un total de n casos posibles igualmente
probables es igual a la razón entre el número de ocurrencias h de dicho evento (casos
favorables) y el número total de casos posibles n.
La probabilidad es un número (valor) que varía entre 0 y 1. Cuando el evento es imposible
se dice que su probabilidad es 0, si el evento es cierto y siempre tiene que ocurrir su
probabilidad es 1.
La probabilidad de no ocurrencia de un evento está dada por q, donde:
Sabemos que p es la probabilidad de que ocurra un evento y q es la probabilidad de que
no ocurra, entonces p + q = 1
Simbólicamente el espacio de resultados, que normalmente se denota por Ω, es el
espacio que consiste en todos los resultados que son posibles. Los resultados, que se
denota por ω1,ω2, etcétera, son elementos del espacio Ω.
7. 4.1 Axiomas de probabilidad.
Los axiomas de probabilidad son las condiciones mínimas que deben verificarse para
que una función definida sobre un conjunto de sucesos determine consistentemente sus
probabilidades. Fueron formulados por Kolmogórov en 1933.
4.2 Axiomas de Kolmogórov.
Dado un conjunto de sucesos elementales, Ω, sobre el que se ha definida una σ-álgebra
(léase sigma-álgebra) σ de subconjuntos de Ω y una función P que asigna valores reales
a los miembros de σ, a los que denominamos "sucesos", se dice que P es una
probabilidad sobre (Ω,σ) si se cumplen los siguientes tres axiomas.
Primer axioma
La probabilidad de un suceso A es un número real mayor o igual que 0.
Segundo axioma
La probabilidad del total, Ω, es igual a 1, es decir,
Tercer axioma
Si A1, A2, …………son sucesos mutuamente excluyentes (incompatibles dos a dos,
disjuntos o de intersección vacía dos a dos), entonces:
Según este axioma se puede calcular la probabilidad de un suceso compuesto de varias
alternativas mutuamente excluyentes sumando las probabilidades de sus componentes.
En términos más formales, una probabilidad es una medida sobre una σ-álgebra de
subconjuntos del espacio muestral, siendo los subconjuntos miembros de la σ-álgebra
los sucesos y definida de tal manera que la medida del total sea 1. Tal medida, gracias
a su definición matemática, verifica igualmente los tres axiomas de Kolmogórov. A la
terna formada por el espacio muestral, la σ-álgebra y la función de probabilidad se la
denomina Espacio probabilístico, esto es, un "espacio de sucesos" (el espacio
muestral) en el que se han definido los posibles sucesos a considerar (la σ-álgebra) y la
probabilidad de cada suceso (la función de probabilidad).
Propiedades que se deducen de los axiomas
De los axiomas anteriores se deducen otras propiedades de la probabilidad:
1. donde el conjunto vacío representa en probabilidad el suceso
imposible
8. 2. Para cualquier suceso
3.
4. Si A ≤ B entonces
5.
Ejemplo:
Sea un experimento aleatorio cualquiera y definamos en S (espacio de sucesos)
la siguiente probabilidad:
p(A) = Número de elementos del conjunto A
Número total de elementos
Comprobemos que p es una probabilidad.
Para ello, comprobemos las tres propiedades:
a) Se ve que la probabilidad de cualquier suceso esta entre cero y uno, puesto
que cualquier conjunto que tenga elementos ya tendrá probabilidad positiva, y
el número de elementos de cualquier conjunto no puede ser mayor que el
número total de elementos existentes.
b) p(E) = 1, es evidente.
c) Tomemos dos sucesos A y B que no tengan elementos en común. Entonces:
p(A ∪ B) = Elementos que forman parte de A o de B =
Número total de elementos
Número de elementos de A + número de elementos de B = p(A) + p(B)
Número total de elementos
Puesto que si A y B no tienen elementos comunes, el número de elementos de la
unión es la suma de los elementos de cada conjunto por separado.
Por tanto se cumplen las 3 propiedades y p así definida es una probabilidad. Esta
será la definición de probabilidad que utilicemos a partir de ahora.
5. DEFINICIONES: PROBABILIDAD CONDICIONAL, EVENTOS
INDEPENDIENTES, EVENTOS DEPENDIENTES, LEY DE PROBABILIDAD
TOTAL Y TEOREMA DE BAYES.
5.1 Probabilidad Condicional.
Probabilidad condicionada es la probabilidad de que ocurra un evento A, sabiendo que
también sucede otro evento B. La probabilidad condicional se escribe P(A|B), y se lee
«la probabilidad de A dado B.
9. No tiene por qué haber una relación causal o temporal entre A y B. A puede preceder en
el tiempo a B, sucederlo o pueden ocurrir simultáneamente. A puede causar B, viceversa
o pueden no tener relación causal. Las relaciones causales o temporales son nociones
que no pertenecen al ámbito de la probabilidad. Pueden desempeñar un papel o no
dependiendo de la interpretación que se le dé a los eventos.
El condicionamiento de probabilidades puede lograrse aplicando el teorema de Bayes.
Definición
Dado un espacio de probabilidad (Ω, F, P) y dos eventos (o sucesos) con
P(B) > 0, la probabilidad condicional de A dado B está definida como:
Se puede interpretar como, tomando los mundos en los que B se cumple, la
fracción en los que también se cumple A.
Se puede interpretar como, tomando los mundos en los que B se cumple, la fracción en
los que también se cumple A.
Interpretación
Se puede interpretar como, tomando los mundos en los que B se cumple, la
fracción en los que también se cumple A.
Ejemplo:
Si el evento B es, por ejemplo, tener la gripe, y el evento A es tener dolor de cabeza,
sería la probabilidad de tener dolor de cabeza cuando se está enfermo de
gripe. Gráficamente, si se interpreta el espacio de la ilustración como el espacio de todos
los mundos posibles, A serían los mundos en los que se tiene dolor de cabeza y B el
espacio en el que se tiene gripe. La zona verde de la intersección representaría los
mundos en los que se tiene gripe y dolor de cabeza . En este caso
es decir, la probabilidad de que alguien tenga dolor de cabeza sabiendo que tiene gripe,
10. sería la proporción de mundos con gripe y dolor de cabeza (color verde) de todos los
mundos con gripe: El área verde dividida por el área de B. Como el área verde representa
y el área de B representa a P(B), formalmente se tiene que:
Propiedades
1.
2.
Es decir, si todos los que tienen gripe siempre tienen dolor de cabeza, entonces la
probabilidad de tener dolor de cabeza dado que tengo gripe es 1.
1.
Pero NO es cierto que
5.2 Eventos Independientes.
Dos sucesos aleatorios A y B son independientes si y sólo si:
O sea que si A y B son independientes, su probabilidad conjunta, ó P(A,B).
Puede ser expresada como el producto de las probabilidades individuales.
Equivalentemente:
En otras palabras, si A y B son independientes, la probabilidad condicional de A dado B
es simplemente la probabilidad de A y viceversa.
5.3 Eventos Dependientes.
Dos sucesos A y B son mutuamente excluyentes si y sólo sí =0.
Entonces, =0.
Además, si P(B) > 0 entonces es igual a 0.
11. 5.4 Ley de Probabilidad total.
Si A1, A2 y A3 son tres sucesos entonces:
P(A1 A2 A3) = P(A1)*P(A2/A1)*P(A3/A2 A1)
P(A1 A2 A3... An) = P(A1)*P(A2/A1)*P(A3/A2 A1)*P(An/A1 A2 ...An-1)
5.5 Teorema de Bayes.
Si B1,B2,…,Bn son eventos mutuamente excluyentes, de los cuales uno debe ocurrir, es
decir 1=P)(
n
i
iBP , entonces.
n
i
ii
jj
BAPBP
BAPBP
01
)
)/()(
)/((
=P(Bj/A) j=1,2…….,n
Ejemplo:
Dos clases de 2º de Bachillerato, una de 28 alumnos y otra de 35 alumnos hacen
conjuntamente un examen de Matemáticas. La probabilidad de aprobar de los alumnos
de la primera clase es de 0’68y los de la segunda del 0’73. Se toma un examen al azar
y resulta que está aprobado. ¿Cuál es la probabilidad de que sea de un alumno de la 1ª
clase?
Sea A1= “el examen es de un alumno de la primera clase”
A2= “el examen es de un alumno de la segunda clase”
B= “el examen está aprobado”
Nos piden P(A1/B).
Hagamos antes que nada un diagrama de árbol:
Diagrama de árbol para el problema del examen
Por el teorema de Bayes:
)/(*)()/(*)(
)/(*)(
=/B)P(A
2211
11
1
ABPAPABPAP
ABPAP
Sustituyendo:
12. 427,0
708,0
302,0
73,0*
63
35
68,0*
63
28
68,0*
63
28
=/B)P(A1
P(A1) es la probabilidad “a priori”, es decir , antes de realizar el experimento y careciendo
de información.
En este caso 444,0
63
28
=)P(A1
P(A1/B) es la probabilidad “a posteriori”, después de realizarlo y conocer más
información. En este caso p(A1/B) = 0,427 (es algo menor).
6. MUESTRAS DE POBLACIÓN, DEFINIR PERMUTACIONES Y COMBINACIONES
Y SUS APLICACIONES A LOS DIFERENTES EVENTOS.
6.1 Población.
Una población es conjunto de elementos que tiene características comunes, al menos
una. Por ejemplo, una población es el grupo de estudiantes de un país.
En el caso particular de la estadística la población constituye el objeto de estudio, es
decir, la población es el conjunto de individuos o entes que constituyen el objeto de
estudio sobre el que se desea predecir un comportamiento a partir del estudio.
6.2 Muestra.
Una muestra es un subconjuntos de datos tomados de la población, cuya finalidad es la
de realizar inferencias acerca de la población a partir del comportamiento de sus
elementos. Es claro que si la muestra es un subconjunto de la población entonces la
muestra tendrá un número menor de elementos. La naturaleza de la muestra radica en
la optimización de los recursos, por ejemplo, si deseamos hacer un estudio acerca de las
lecturas que a los estudiantes de Michoacán les gusta leer, el estudio implicaría
considerar a los estudiantes de lugares remotos, resultando difícil desde el punto de vista
económico, sin embargo la estadística plantea métodos mediante los cuales con una
elección adecuada del tamaño de muestra podemos predecir a partir de una muestra las
preferencias que tienen los estudiantes acerca del tipo de lectura.
Para el muestreo Existen dos métodos para seleccionar muestras de poblaciones; el
muestreo no aleatorio o de juicio y el muestreo aleatorio o de probabilidad. En este último
todos los elementos de la población tienen la oportunidad de ser escogidos en la muestra.
Una muestra seleccionada por muestreo de juicio se basa en la experiencia de alguien
con la población. Algunas veces una muestra de juicio se usa como guía o muestra
tentativa para decidir como tomar una muestra aleatoria más adelante. Las muestras de
juicio evitan el análisis estadístico necesario para hacer muestras de probabilidad.
6.3 Permutaciones.
Las permutaciones son las distintas formas en que se pueden ordenar los n elementos
de un conjunto.
En general, hay n! permutaciones en las que colocar n elementos en orden.
13. El número de permutaciones de n elementos se denota Pn. Las permutaciones son un
caso particular de las variaciones Pn = Vn,n = n! cuando el número de elementos del
conjunto de objetos es igual al de cada uno de los conjuntos ordenados.
La fórmula del número de permutaciones empieza como n!, pero termina con (n – k + 1)
en lugar de 1. Necesitamos eliminar los factores de (n – k) a 1 del producto. ¡Podemos
hacer eso dividiendo entre (n – k)! Entonces, para las combinaciones, dividimos el
resultado entre k • (k – 1) • … • 2 • 1, o k. Usando Factoriales Cuando escogemos k de n
objetos, podemos usar las siguientes fórmulas: Número de permutaciones = Número de
combinaciones = Muchas calculadoras tienen la tecla o el comando factorial (¡). Para
encontrar el número de permutaciones de escoger 20 de 24 objetos, teclear 24! ÷ 4! Es
más rápido y fácil que 24 • 23 • 23 • 21 • 20 • 19 • 18 • 17 • 16 • 15 • 14 • 13 • 12 • 11 • 10
• 9 • 8 • 7 • 6 • 5. (Aunque, si sólo se hacen 4 elecciones, sería más fácil teclear 24 • 23
• 22 • 21.) Probemos estas fórmulas en un problema. Primero, usaremos el Principio
Fundamental de Conteo. Ahora aplicaremos estas fórmulas en ciertos ejemplos para
detonar cual es el cambio que produce al usar de una manera adecuada las fórmulas
para llegar a un resultado más factible y directo.
6.4 Combinaciones.
Las combinaciones son agrupaciones de objetos en las que no importa su orden.
En general, el número de combinaciones de n elementos tomados de k en k se escribe
Cn,k, y su valor está dado por la siguiente fórmula:
)!(!
!
=C ,
kn,
knk
n
P
V
k
kn
6.5 Aplicaciones.
Se utiliza para el desarrollo del binomio de Newton; en la teoría de la probabilidad y en
estadística (para calcular el número de casos posibles de un sistema). También tiene
importantes aplicaciones en el diseño y funcionamiento de ordenadores o computadoras,
así como en las ciencias físicas y sociales. De hecho, la teoría combinatoria es de gran
utilidad en todas aquellas áreas en donde tengan relevancia las distintas maneras de
agrupar un número finito de elementos.
14. CONCLUSIÓN
Al momento de preparar este ensayo nos disponíamos a analizar los puntos de
información más importantes del tema para poder dar una respuesta o conclusión a la
teoría de probabilidades. Los factores y posibles soluciones que nos encontramos al
momento de buscar la información detallada nos dan los resultados esperados,
igualmente debemos tomar los puntos clave para poder dar una respuesta a los ejemplos
a resolver es por eso que la mayoría de los problemas nos dan un espacio muestral o un
resultado ya esperado en una determinada posición y poder dar un valor a ese ejemplo
por lo cual cave analizar cada paso a realizar para obtener un resultado más específico
por lo cual se plantean teorías y ecuación que nos ayudan a dar las respuestas a ellos
de una manera más rápida y clara.
La teoría de la probabilidad nos da un enfoque de prevención, ya que mediante su
aplicación podemos tomar en cuenta las variables de un posible evento al momento de
un diseño, fabricación o construcción de algún equipo, fármaco, edificio, industria, entre
otros.