SlideShare una empresa de Scribd logo
REPÚBLICA BOLIVARIANA DE VENEZUELA
MINISTERIO DEL PODER POPULAR PARA LA EDUCACIÓN
INSTITUTO UNIVERSITARIO POLITÉCNICO
“SANTIAGO MARIÑO”
CÁTEDRA: ESTADISTICA I
ENSAYO TEORÍA DE LA PROBABILIDAD
Tercer corte
PRESENTADO POR:
JOSE L. MOLINA C.I. 16.687.668.
SECCIÓN “S”, NOCTURNO.
PROFESOR DE ASIGNATURA: YANNY ATIA
CONTENIDO
INTRODUCCIÓN .......................................................................................................................................3
1. OBJETIVO. .........................................................................................................................................4
2. DEFINICIONES BÁSICAS...............................................................................................................4
3. RESEÑA DE LA PROBABILIDAD.................................................................................................4
4. DEFINICIÓN CLÁSICA DE PROBABILIDAD. .............................................................................6
4.1 Axiomas de probabilidad...........................................................................................................7
4.2 Axiomas de Kolmogórov. ..........................................................................................................7
5. DEFINICIONES: PROBABILIDAD CONDICIONAL, EVENTOS INDEPENDIENTES,
EVENTOS DEPENDIENTES, LEY DE PROBABILIDAD TOTAL Y TEOREMA DE BAYES. .....8
5.1 Probabilidad Condicional. .........................................................................................................8
5.2 Eventos Independientes..........................................................................................................10
5.3 Eventos Dependientes. ..........................................................................................................10
5.4 Ley de Probabilidad total.........................................................................................................11
5.5 Teorema de Bayes...................................................................................................................11
6. MUESTRAS DE POBLACIÓN, DEFINIR PERMUTACIONES Y COMBINACIONES Y SUS
APLICACIONES A LOS DIFERENTES EVENTOS. .........................................................................12
6.1 Población...................................................................................................................................12
6.2 Muestra......................................................................................................................................12
6.3 Permutaciones..........................................................................................................................12
6.4 Combinaciones.........................................................................................................................13
6.5 Aplicaciones..............................................................................................................................13
CONCLUSIÓN..........................................................................................................................................14
BIBLIOGRAFÍA........................................................................................................................................15
INTRODUCCIÓN
La probabilidad y la estadística son, sin duda, las ramas de las Matemáticas que están
en mayor auge en este siglo, y tienen una tremenda aplicabilidad en todos los aspectos
y ciencias, especialmente en las Ciencias Sociales, puesto que aquellas variables que
influyen en dichas ciencias, económicas, demográficas, suelen tener carácter aleatorio,
es decir, no son deterministas, y se fundamentan en predicciones a partir de datos
conocidos. Todo aquello que implique predicción nos lleva al terreno de la probabilidad.
La teoría de la probabilidad es una teoría matemática axiomatizada, sobre la cual existe
un amplio consenso, la formulación usual de la teoría de la probabilidad se hace en el
lenguaje de la teoría de conjuntos. El dominio de la teoría es un conjunto no vacío de
elementos cualesquiera, habitualmente simbolizado como Ω, la probabilidad es una
función que asigna números reales a los subconjuntos de Ω. El objeto de la teoría de
probabilidades es proporcionar un modelo matemático adecuado, aplicable a la
descripción e interpretación de los fenómenos aleatorios. La construcción del modelo se
basa en los siguientes conceptos: espacio muestral, evento o sucesos, espacio de la
probabilidad, eventos independientes, dependientes entre otros.
1. OBJETIVO.
El objetivo de este ensayo es presentar el análisis y las definiciones requeridas para el
entendimiento lógico-practico de la “TEORÍA DE LA PROBABILIDAD”.
2. DEFINICIONES BÁSICAS.
La teoría de probabilidades se ocupa de asignar un cierto número a cada posible
resultado que pueda ocurrir en un experimento aleatorio, con el fin de cuantificar dichos
resultados y saber si un suceso es más probable que otro o relaciones parecidas. Con
este fin, introduciremos algunas definiciones.
 Espacio Muestral: Es el conjunto de todos los resultados posibles de un
experimento aleatorio. El conjunto de todos los resultados posibles pueden ser
finito, infinito numerable o infinito no numerables. Espacio muestral Discreto y
continuo.
 Eventos: Llamaremos evento o suceso aleatorio a cualquier subconjunto del
espacio muestral. El concepto de suceso es fundamental en probabilidad. Dicho
de forma simple, un suceso de un experimento aleatorio es cualquier cosa que se
nos ocurra afirmar sobre dicho experimento.
Relaciones entre eventos y familia de eventos:
AUB = “Suceso A o el Suceso B o ambos
AB) = “El suceso A y B “
AB = Ф “Son Sucesos excluyentes mutuamente, es decir no tienen elementos
comunes”
A = “El Suceso no A “
A – B = Todos los elementos de A siempre y cuando no estén en B
3. RESEÑA DE LA PROBABILIDAD.
La definición de probabilidad surge debido al deseo del ser humano por conocer con
certeza los eventos que sucederán en el futuro. Es por eso que a través de la historia se
han desarrollado diferentes enfoques para tener un concepto de la probabilidad y
determinar sus valores.
La idea de Probabilidad está íntimamente ligada a la idea de azar y nos ayuda a
comprender nuestras posibilidades de ganar un juego de azar o analizar las encuestas.
Pierre-Simon Laplace afirmó: "Es notable que una ciencia que comenzó con
consideraciones sobre juegos de azar haya llegado a ser el objeto más importante del
conocimiento humano". Comprender y estudiar el azar es indispensable, porque la
probabilidad es un soporte necesario para tomar decisiones en cualquier ámbito.
Según Amanda Dure, "Antes de la mitad del siglo XVII, el término 'probable' (en latín
probable) significaba aprobable, y se aplicaba en ese sentido, unívocamente, a la opinión
y a la acción. Una acción u opinión probable era una que las personas sensatas
emprenderían o mantendrían, en las circunstancias."
Aparte de algunas consideraciones elementales hechas por Girolamo Cardano en el siglo
XVI, la doctrina de las probabilidades data de la correspondencia de Pierre de Fermat y
Blaise Pascal (1654). Christiaan Huygens (1657) le dio el tratamiento científico conocido
más temprano al concepto. Ars Conjectandi (póstumo, 1713) de Jakob Bernoulli y
Doctrine of Chances (1718) de Abraham de Moivre trataron el tema como una rama de
las matemáticas. Véase El surgimiento de la probabilidad (The Emergence of Probability)
de Ian Hacking para una historia de los inicios del desarrollo del propio concepto de
probabilidad matemática.
La teoría de errores puede trazarse atrás en el tiempo hasta Opera Miscellanea
(póstumo, 1722) de Roger Cotes, pero una memoria preparada por Thomas Simpson en
1755 (impresa en 1756) aplicó por primera vez la teoría para la discusión de errores de
observación. La reimpresión (1757) de esta memoria expone los axiomas de que los
errores positivos y negativos son igualmente probables, y que hay ciertos límites
asignables dentro de los cuales se supone que caen todos los errores; se discuten los
errores continuos y se da una curva de la probabilidad.
Pierre-Simon Laplace (1774) hizo el primer intento para deducir una regla para la
combinación de observaciones a partir de los principios de la teoría de las probabilidades.
Representó la ley de la probabilidad de error con una curva y = phi(x), siendo x cualquier
error e y y su probabilidad, y expuso tres propiedades de esta curva:
1. es simétrica al eje y;
2. el eje x es una asíntota, siendo la probabilidad del error infty igual a 0;
3. la superficie cerrada es 1, haciendo cierta la existencia de un error.
Dedujo una fórmula para la media de tres observaciones. También obtuvo (1781) una
fórmula para la ley de facilidad de error (un término debido a Lagrange, 1774), pero una
que llevaba a ecuaciones inmanejables. Daniel Bernoulli (1778) introdujo el principio del
máximo producto de las probabilidades de un sistema de errores concurrentes.
El método de mínimos cuadrados se debe a Adrien-Marie Legendre (1805), que lo
introdujo en su Nouvelles méthodes pour la détermination des orbites des comètes
(Nuevos métodos para la determinación de las órbitas de los cometas). Ignorando la
contribución de Legendre, un escritor irlandés estadounidense, Robert Adrain, editor de
"The Analyst" (1808), dedujo por primera vez la ley de facilidad de error,
phi(x) = ce^{-h^2 x^2} siendo c y h constantes que dependen de la precisión de la
observación. Expuso dos demostraciones, siendo la segunda esencialmente la misma
de John Herschel (1850). Gauss expuso la primera demostración que parece que se
conoció en Europa (la tercera después de la de Adrain) en 1809. Demostraciones
adicionales se expusieron por Laplace (1810, 1812), Gauss (1823), James Ivory (1825,
1826), Hagen (1837), Friedrich Bessel (1838), W. F. Donkin (1844, 1856) y Morgan
Crofton (1870). Otros personajes que contribuyeron fueron Ellis (1844), De Morgan
(1864), Glaisher (1872) y Giovanni Schiaparelli (1875). La fórmula de Peters (1856) para
r, el error probable de una única observación, es bien conocida.
En el siglo XIX, los autores de la teoría general incluían a Laplace, Sylvestre Lacroix
(1816), Littrow (1833), Adolphe Quetelet (1853), Richard Dedekind (1860), Helmert
(1872), Hermann Laurent (1873), Liagre, Didion, y Karl Pearson. Augustus De Morgan y
George Boole mejoraron la exposición de la teoría.
En 1933, el matemático soviético Andréi Kolmogórov propuso un sistema de axiomas
para la teoría de la probabilidad, basado en la teoría de conjuntos y en la teoría de la
medida, desarrollada pocos años antes por Lebesgue, Borel y Frechet entre otros.
Esta aproximación axiomática que generaliza el marco clásico de la probabilidad, la cual
obedece a la regla de cálculo de casos favorables sobre casos posibles, permitió la
rigorización de muchos argumentos ya utilizados, así como el estudio de problemas fuera
de los marcos clásicos. Actualmente, la teoría de la probabilidad encuentra aplicación en
las más variadas ramas del conocimiento, como puede ser la física (donde corresponde
mencionar el desarrollo de las difusiones y el movimiento Browniano), o las finanzas
(donde destaca el modelo de Black y Scholes para la valuación de acciones).
4. DEFINICIÓN CLÁSICA DE PROBABILIDAD.
La probabilidad es la característica de un evento, que existen razones para creer que
éste se realizará.
La probabilidad p de que suceda un evento S de un total de n casos posibles igualmente
probables es igual a la razón entre el número de ocurrencias h de dicho evento (casos
favorables) y el número total de casos posibles n.
La probabilidad es un número (valor) que varía entre 0 y 1. Cuando el evento es imposible
se dice que su probabilidad es 0, si el evento es cierto y siempre tiene que ocurrir su
probabilidad es 1.
La probabilidad de no ocurrencia de un evento está dada por q, donde:
Sabemos que p es la probabilidad de que ocurra un evento y q es la probabilidad de que
no ocurra, entonces p + q = 1
Simbólicamente el espacio de resultados, que normalmente se denota por Ω, es el
espacio que consiste en todos los resultados que son posibles. Los resultados, que se
denota por ω1,ω2, etcétera, son elementos del espacio Ω.
4.1 Axiomas de probabilidad.
Los axiomas de probabilidad son las condiciones mínimas que deben verificarse para
que una función definida sobre un conjunto de sucesos determine consistentemente sus
probabilidades. Fueron formulados por Kolmogórov en 1933.
4.2 Axiomas de Kolmogórov.
Dado un conjunto de sucesos elementales, Ω, sobre el que se ha definida una σ-álgebra
(léase sigma-álgebra) σ de subconjuntos de Ω y una función P que asigna valores reales
a los miembros de σ, a los que denominamos "sucesos", se dice que P es una
probabilidad sobre (Ω,σ) si se cumplen los siguientes tres axiomas.
Primer axioma
La probabilidad de un suceso A es un número real mayor o igual que 0.
Segundo axioma
La probabilidad del total, Ω, es igual a 1, es decir,
Tercer axioma
Si A1, A2, …………son sucesos mutuamente excluyentes (incompatibles dos a dos,
disjuntos o de intersección vacía dos a dos), entonces:
Según este axioma se puede calcular la probabilidad de un suceso compuesto de varias
alternativas mutuamente excluyentes sumando las probabilidades de sus componentes.
En términos más formales, una probabilidad es una medida sobre una σ-álgebra de
subconjuntos del espacio muestral, siendo los subconjuntos miembros de la σ-álgebra
los sucesos y definida de tal manera que la medida del total sea 1. Tal medida, gracias
a su definición matemática, verifica igualmente los tres axiomas de Kolmogórov. A la
terna formada por el espacio muestral, la σ-álgebra y la función de probabilidad se la
denomina Espacio probabilístico, esto es, un "espacio de sucesos" (el espacio
muestral) en el que se han definido los posibles sucesos a considerar (la σ-álgebra) y la
probabilidad de cada suceso (la función de probabilidad).
Propiedades que se deducen de los axiomas
De los axiomas anteriores se deducen otras propiedades de la probabilidad:
1. donde el conjunto vacío representa en probabilidad el suceso
imposible
2. Para cualquier suceso
3.
4. Si A ≤ B entonces
5.
Ejemplo:
Sea un experimento aleatorio cualquiera y definamos en S (espacio de sucesos)
la siguiente probabilidad:
p(A) = Número de elementos del conjunto A
Número total de elementos
Comprobemos que p es una probabilidad.
Para ello, comprobemos las tres propiedades:
a) Se ve que la probabilidad de cualquier suceso esta entre cero y uno, puesto
que cualquier conjunto que tenga elementos ya tendrá probabilidad positiva, y
el número de elementos de cualquier conjunto no puede ser mayor que el
número total de elementos existentes.
b) p(E) = 1, es evidente.
c) Tomemos dos sucesos A y B que no tengan elementos en común. Entonces:
p(A ∪ B) = Elementos que forman parte de A o de B =
Número total de elementos
Número de elementos de A + número de elementos de B = p(A) + p(B)
Número total de elementos
Puesto que si A y B no tienen elementos comunes, el número de elementos de la
unión es la suma de los elementos de cada conjunto por separado.
Por tanto se cumplen las 3 propiedades y p así definida es una probabilidad. Esta
será la definición de probabilidad que utilicemos a partir de ahora.
5. DEFINICIONES: PROBABILIDAD CONDICIONAL, EVENTOS
INDEPENDIENTES, EVENTOS DEPENDIENTES, LEY DE PROBABILIDAD
TOTAL Y TEOREMA DE BAYES.
5.1 Probabilidad Condicional.
Probabilidad condicionada es la probabilidad de que ocurra un evento A, sabiendo que
también sucede otro evento B. La probabilidad condicional se escribe P(A|B), y se lee
«la probabilidad de A dado B.
No tiene por qué haber una relación causal o temporal entre A y B. A puede preceder en
el tiempo a B, sucederlo o pueden ocurrir simultáneamente. A puede causar B, viceversa
o pueden no tener relación causal. Las relaciones causales o temporales son nociones
que no pertenecen al ámbito de la probabilidad. Pueden desempeñar un papel o no
dependiendo de la interpretación que se le dé a los eventos.
El condicionamiento de probabilidades puede lograrse aplicando el teorema de Bayes.
Definición
Dado un espacio de probabilidad (Ω, F, P) y dos eventos (o sucesos) con
P(B) > 0, la probabilidad condicional de A dado B está definida como:
Se puede interpretar como, tomando los mundos en los que B se cumple, la
fracción en los que también se cumple A.
Se puede interpretar como, tomando los mundos en los que B se cumple, la fracción en
los que también se cumple A.
Interpretación
Se puede interpretar como, tomando los mundos en los que B se cumple, la
fracción en los que también se cumple A.
Ejemplo:
Si el evento B es, por ejemplo, tener la gripe, y el evento A es tener dolor de cabeza,
sería la probabilidad de tener dolor de cabeza cuando se está enfermo de
gripe. Gráficamente, si se interpreta el espacio de la ilustración como el espacio de todos
los mundos posibles, A serían los mundos en los que se tiene dolor de cabeza y B el
espacio en el que se tiene gripe. La zona verde de la intersección representaría los
mundos en los que se tiene gripe y dolor de cabeza . En este caso
es decir, la probabilidad de que alguien tenga dolor de cabeza sabiendo que tiene gripe,
sería la proporción de mundos con gripe y dolor de cabeza (color verde) de todos los
mundos con gripe: El área verde dividida por el área de B. Como el área verde representa
y el área de B representa a P(B), formalmente se tiene que:
Propiedades
1.
2.
Es decir, si todos los que tienen gripe siempre tienen dolor de cabeza, entonces la
probabilidad de tener dolor de cabeza dado que tengo gripe es 1.
1.
Pero NO es cierto que
5.2 Eventos Independientes.
Dos sucesos aleatorios A y B son independientes si y sólo si:
O sea que si A y B son independientes, su probabilidad conjunta, ó P(A,B).
Puede ser expresada como el producto de las probabilidades individuales.
Equivalentemente:
En otras palabras, si A y B son independientes, la probabilidad condicional de A dado B
es simplemente la probabilidad de A y viceversa.
5.3 Eventos Dependientes.
Dos sucesos A y B son mutuamente excluyentes si y sólo sí =0.
Entonces, =0.
Además, si P(B) > 0 entonces es igual a 0.
5.4 Ley de Probabilidad total.
Si A1, A2 y A3 son tres sucesos entonces:
P(A1 A2 A3) = P(A1)*P(A2/A1)*P(A3/A2 A1)
P(A1 A2 A3... An) = P(A1)*P(A2/A1)*P(A3/A2 A1)*P(An/A1 A2 ...An-1)
5.5 Teorema de Bayes.
Si B1,B2,…,Bn son eventos mutuamente excluyentes, de los cuales uno debe ocurrir, es
decir 1=P)(
n
i
iBP , entonces.

n
i
ii
jj
BAPBP
BAPBP
01
)
)/()(
)/((
=P(Bj/A) j=1,2…….,n
Ejemplo:
Dos clases de 2º de Bachillerato, una de 28 alumnos y otra de 35 alumnos hacen
conjuntamente un examen de Matemáticas. La probabilidad de aprobar de los alumnos
de la primera clase es de 0’68y los de la segunda del 0’73. Se toma un examen al azar
y resulta que está aprobado. ¿Cuál es la probabilidad de que sea de un alumno de la 1ª
clase?
Sea A1= “el examen es de un alumno de la primera clase”
A2= “el examen es de un alumno de la segunda clase”
B= “el examen está aprobado”
Nos piden P(A1/B).
Hagamos antes que nada un diagrama de árbol:
Diagrama de árbol para el problema del examen
Por el teorema de Bayes:
)/(*)()/(*)(
)/(*)(
=/B)P(A
2211
11
1
ABPAPABPAP
ABPAP

Sustituyendo:
427,0
708,0
302,0
73,0*
63
35
68,0*
63
28
68,0*
63
28
=/B)P(A1 

P(A1) es la probabilidad “a priori”, es decir , antes de realizar el experimento y careciendo
de información.
En este caso 444,0
63
28
=)P(A1 
P(A1/B) es la probabilidad “a posteriori”, después de realizarlo y conocer más
información. En este caso p(A1/B) = 0,427 (es algo menor).
6. MUESTRAS DE POBLACIÓN, DEFINIR PERMUTACIONES Y COMBINACIONES
Y SUS APLICACIONES A LOS DIFERENTES EVENTOS.
6.1 Población.
Una población es conjunto de elementos que tiene características comunes, al menos
una. Por ejemplo, una población es el grupo de estudiantes de un país.
En el caso particular de la estadística la población constituye el objeto de estudio, es
decir, la población es el conjunto de individuos o entes que constituyen el objeto de
estudio sobre el que se desea predecir un comportamiento a partir del estudio.
6.2 Muestra.
Una muestra es un subconjuntos de datos tomados de la población, cuya finalidad es la
de realizar inferencias acerca de la población a partir del comportamiento de sus
elementos. Es claro que si la muestra es un subconjunto de la población entonces la
muestra tendrá un número menor de elementos. La naturaleza de la muestra radica en
la optimización de los recursos, por ejemplo, si deseamos hacer un estudio acerca de las
lecturas que a los estudiantes de Michoacán les gusta leer, el estudio implicaría
considerar a los estudiantes de lugares remotos, resultando difícil desde el punto de vista
económico, sin embargo la estadística plantea métodos mediante los cuales con una
elección adecuada del tamaño de muestra podemos predecir a partir de una muestra las
preferencias que tienen los estudiantes acerca del tipo de lectura.
Para el muestreo Existen dos métodos para seleccionar muestras de poblaciones; el
muestreo no aleatorio o de juicio y el muestreo aleatorio o de probabilidad. En este último
todos los elementos de la población tienen la oportunidad de ser escogidos en la muestra.
Una muestra seleccionada por muestreo de juicio se basa en la experiencia de alguien
con la población. Algunas veces una muestra de juicio se usa como guía o muestra
tentativa para decidir como tomar una muestra aleatoria más adelante. Las muestras de
juicio evitan el análisis estadístico necesario para hacer muestras de probabilidad.
6.3 Permutaciones.
Las permutaciones son las distintas formas en que se pueden ordenar los n elementos
de un conjunto.
En general, hay n! permutaciones en las que colocar n elementos en orden.
El número de permutaciones de n elementos se denota Pn. Las permutaciones son un
caso particular de las variaciones Pn = Vn,n = n! cuando el número de elementos del
conjunto de objetos es igual al de cada uno de los conjuntos ordenados.
La fórmula del número de permutaciones empieza como n!, pero termina con (n – k + 1)
en lugar de 1. Necesitamos eliminar los factores de (n – k) a 1 del producto. ¡Podemos
hacer eso dividiendo entre (n – k)! Entonces, para las combinaciones, dividimos el
resultado entre k • (k – 1) • … • 2 • 1, o k. Usando Factoriales Cuando escogemos k de n
objetos, podemos usar las siguientes fórmulas: Número de permutaciones = Número de
combinaciones = Muchas calculadoras tienen la tecla o el comando factorial (¡). Para
encontrar el número de permutaciones de escoger 20 de 24 objetos, teclear 24! ÷ 4! Es
más rápido y fácil que 24 • 23 • 23 • 21 • 20 • 19 • 18 • 17 • 16 • 15 • 14 • 13 • 12 • 11 • 10
• 9 • 8 • 7 • 6 • 5. (Aunque, si sólo se hacen 4 elecciones, sería más fácil teclear 24 • 23
• 22 • 21.) Probemos estas fórmulas en un problema. Primero, usaremos el Principio
Fundamental de Conteo. Ahora aplicaremos estas fórmulas en ciertos ejemplos para
detonar cual es el cambio que produce al usar de una manera adecuada las fórmulas
para llegar a un resultado más factible y directo.
6.4 Combinaciones.
Las combinaciones son agrupaciones de objetos en las que no importa su orden.
En general, el número de combinaciones de n elementos tomados de k en k se escribe
Cn,k, y su valor está dado por la siguiente fórmula:
)!(!
!
=C ,
kn,
knk
n
P
V
k
kn


6.5 Aplicaciones.
Se utiliza para el desarrollo del binomio de Newton; en la teoría de la probabilidad y en
estadística (para calcular el número de casos posibles de un sistema). También tiene
importantes aplicaciones en el diseño y funcionamiento de ordenadores o computadoras,
así como en las ciencias físicas y sociales. De hecho, la teoría combinatoria es de gran
utilidad en todas aquellas áreas en donde tengan relevancia las distintas maneras de
agrupar un número finito de elementos.
CONCLUSIÓN
Al momento de preparar este ensayo nos disponíamos a analizar los puntos de
información más importantes del tema para poder dar una respuesta o conclusión a la
teoría de probabilidades. Los factores y posibles soluciones que nos encontramos al
momento de buscar la información detallada nos dan los resultados esperados,
igualmente debemos tomar los puntos clave para poder dar una respuesta a los ejemplos
a resolver es por eso que la mayoría de los problemas nos dan un espacio muestral o un
resultado ya esperado en una determinada posición y poder dar un valor a ese ejemplo
por lo cual cave analizar cada paso a realizar para obtener un resultado más específico
por lo cual se plantean teorías y ecuación que nos ayudan a dar las respuestas a ellos
de una manera más rápida y clara.
La teoría de la probabilidad nos da un enfoque de prevención, ya que mediante su
aplicación podemos tomar en cuenta las variables de un posible evento al momento de
un diseño, fabricación o construcción de algún equipo, fármaco, edificio, industria, entre
otros.
BIBLIOGRAFÍA
http://es.wikipedia.org/wiki/http://www.montereyinstitute.org
http://es.wikipedia.org/wiki/Probabilidad_condicionada
http://eadsaia.uft.edu.ve/psm/file.php/1868/Teoria_de_la_Probabilidad.pdf
http://ocw.unican.es/ensenanzas-tecnicas/teoria-de-la-comunicacion/material-de-clase-
2/TC_Tema_1.pdf

Más contenido relacionado

La actualidad más candente

Laboratorio de trabajo y energia (2)
Laboratorio de trabajo y energia (2)Laboratorio de trabajo y energia (2)
Laboratorio de trabajo y energia (2)
Christian Marin
 
Cap 6 elasticidad 156-168
Cap 6 elasticidad 156-168Cap 6 elasticidad 156-168
Cap 6 elasticidad 156-168
Manuel Mendoza
 
Ecuaciones diferenciales
Ecuaciones diferencialesEcuaciones diferenciales
Ecuaciones diferenciales
jack_corvil
 

La actualidad más candente (20)

Equilibrio rotacional
Equilibrio rotacionalEquilibrio rotacional
Equilibrio rotacional
 
Movimiento armónico simple
Movimiento armónico simpleMovimiento armónico simple
Movimiento armónico simple
 
Principios de la conservacion de la energia mecanica
Principios de la conservacion de la energia mecanicaPrincipios de la conservacion de la energia mecanica
Principios de la conservacion de la energia mecanica
 
Factores de inercia
Factores de inerciaFactores de inercia
Factores de inercia
 
Dinámica rotacional
Dinámica rotacionalDinámica rotacional
Dinámica rotacional
 
Ley cero de la termodinámica
Ley cero de la termodinámicaLey cero de la termodinámica
Ley cero de la termodinámica
 
Laboratorio de trabajo y energia (2)
Laboratorio de trabajo y energia (2)Laboratorio de trabajo y energia (2)
Laboratorio de trabajo y energia (2)
 
Trabajo Y Energia
Trabajo Y EnergiaTrabajo Y Energia
Trabajo Y Energia
 
Movimiento circula uniforme ( mcu )
Movimiento circula uniforme ( mcu )Movimiento circula uniforme ( mcu )
Movimiento circula uniforme ( mcu )
 
Proyecto dinamica trabajo y energia
Proyecto dinamica trabajo y energiaProyecto dinamica trabajo y energia
Proyecto dinamica trabajo y energia
 
Cap 6 elasticidad 156-168
Cap 6 elasticidad 156-168Cap 6 elasticidad 156-168
Cap 6 elasticidad 156-168
 
Semana 4 dinámica circular
Semana 4 dinámica circularSemana 4 dinámica circular
Semana 4 dinámica circular
 
fisica
fisicafisica
fisica
 
Ecuaciones diferenciales
Ecuaciones diferencialesEcuaciones diferenciales
Ecuaciones diferenciales
 
ENERGIA CINETICA
ENERGIA CINETICAENERGIA CINETICA
ENERGIA CINETICA
 
Movimiento semiparabolico
Movimiento semiparabolicoMovimiento semiparabolico
Movimiento semiparabolico
 
Medición de la aceleración de la gravedad
Medición de la aceleración de la gravedadMedición de la aceleración de la gravedad
Medición de la aceleración de la gravedad
 
Dinamica del movimiento rotacional
Dinamica del movimiento rotacionalDinamica del movimiento rotacional
Dinamica del movimiento rotacional
 
Informe 1 final momentum
Informe 1 final   momentumInforme 1 final   momentum
Informe 1 final momentum
 
Primeras interpretaciones del movimiento
Primeras interpretaciones  del movimientoPrimeras interpretaciones  del movimiento
Primeras interpretaciones del movimiento
 

Similar a Teoria de la probabilidad

Estadistica tercer corte.......................
Estadistica tercer corte.......................Estadistica tercer corte.......................
Estadistica tercer corte.......................
norenelson
 
Ensayo DE TEORIA DE PROBABILIDAD
Ensayo DE TEORIA DE PROBABILIDADEnsayo DE TEORIA DE PROBABILIDAD
Ensayo DE TEORIA DE PROBABILIDAD
adrianalonzo
 
Historia de la probabilidad
Historia de la probabilidadHistoria de la probabilidad
Historia de la probabilidad
nievescuevas
 
Historia De La Probabilidad
Historia De La ProbabilidadHistoria De La Probabilidad
Historia De La Probabilidad
gueste76de1
 
Historia De La Probabilidad
Historia De La ProbabilidadHistoria De La Probabilidad
Historia De La Probabilidad
gueste76de1
 
Historia De La Probabilidad
Historia De La ProbabilidadHistoria De La Probabilidad
Historia De La Probabilidad
gueste76de1
 
Historia De Las Probabilidades
Historia De Las ProbabilidadesHistoria De Las Probabilidades
Historia De Las Probabilidades
AnnaBolika
 
Proceso histórico del desarrollo de la teoría probabilística
Proceso histórico del desarrollo de la teoría probabilísticaProceso histórico del desarrollo de la teoría probabilística
Proceso histórico del desarrollo de la teoría probabilística
isabel agudelo
 

Similar a Teoria de la probabilidad (20)

Teoria de la Probabilidad
Teoria de la ProbabilidadTeoria de la Probabilidad
Teoria de la Probabilidad
 
Estadistica tercer corte.......................
Estadistica tercer corte.......................Estadistica tercer corte.......................
Estadistica tercer corte.......................
 
Teoria de la probabilidad estadistica
Teoria de la probabilidad estadisticaTeoria de la probabilidad estadistica
Teoria de la probabilidad estadistica
 
Ensayo de teoria de probabilidad estadistica
Ensayo de teoria de probabilidad estadisticaEnsayo de teoria de probabilidad estadistica
Ensayo de teoria de probabilidad estadistica
 
Ensayo DE TEORIA DE PROBABILIDAD
Ensayo DE TEORIA DE PROBABILIDADEnsayo DE TEORIA DE PROBABILIDAD
Ensayo DE TEORIA DE PROBABILIDAD
 
Ensayo de la teoria de la probabilidad yarisnet suarez
Ensayo de la teoria de la probabilidad yarisnet suarez Ensayo de la teoria de la probabilidad yarisnet suarez
Ensayo de la teoria de la probabilidad yarisnet suarez
 
Historia de la probabilidad
Historia de la probabilidadHistoria de la probabilidad
Historia de la probabilidad
 
Probabilidad
ProbabilidadProbabilidad
Probabilidad
 
TEORIA DE LA PROBABILIDAD. AUTOR: ELI ANGULO
TEORIA DE LA PROBABILIDAD. AUTOR: ELI ANGULOTEORIA DE LA PROBABILIDAD. AUTOR: ELI ANGULO
TEORIA DE LA PROBABILIDAD. AUTOR: ELI ANGULO
 
Probabilidad y-distribucion
Probabilidad y-distribucionProbabilidad y-distribucion
Probabilidad y-distribucion
 
Historia De La Probabilidad
Historia De La ProbabilidadHistoria De La Probabilidad
Historia De La Probabilidad
 
Historia De La Probabilidad
Historia De La ProbabilidadHistoria De La Probabilidad
Historia De La Probabilidad
 
Historia De La Probabilidad
Historia De La ProbabilidadHistoria De La Probabilidad
Historia De La Probabilidad
 
Historia De Las Probabilidades
Historia De Las ProbabilidadesHistoria De Las Probabilidades
Historia De Las Probabilidades
 
Historia De Las Probabilidades
Historia De Las ProbabilidadesHistoria De Las Probabilidades
Historia De Las Probabilidades
 
Davidddd
DaviddddDavidddd
Davidddd
 
Ensayo de lateroria de la probabilidad
Ensayo de lateroria de la probabilidadEnsayo de lateroria de la probabilidad
Ensayo de lateroria de la probabilidad
 
Probabilidad
ProbabilidadProbabilidad
Probabilidad
 
tema1.pdf
tema1.pdftema1.pdf
tema1.pdf
 
Proceso histórico del desarrollo de la teoría probabilística
Proceso histórico del desarrollo de la teoría probabilísticaProceso histórico del desarrollo de la teoría probabilística
Proceso histórico del desarrollo de la teoría probabilística
 

Último

diagnostico final (1). analisis - encuestas
diagnostico final (1). analisis - encuestasdiagnostico final (1). analisis - encuestas
diagnostico final (1). analisis - encuestas
ansomora123
 
evalaución de reforzamiento de cuarto de secundaria de la competencia lee
evalaución de reforzamiento de cuarto de secundaria de la competencia leeevalaución de reforzamiento de cuarto de secundaria de la competencia lee
evalaución de reforzamiento de cuarto de secundaria de la competencia lee
MaribelGaitanRamosRa
 

Último (20)

Fase 2, Pensamiento variacional y trigonometrico
Fase 2, Pensamiento variacional y trigonometricoFase 2, Pensamiento variacional y trigonometrico
Fase 2, Pensamiento variacional y trigonometrico
 
1º GRADO CONCLUSIONES DESCRIPTIVAS PRIMARIA.docx
1º GRADO CONCLUSIONES DESCRIPTIVAS  PRIMARIA.docx1º GRADO CONCLUSIONES DESCRIPTIVAS  PRIMARIA.docx
1º GRADO CONCLUSIONES DESCRIPTIVAS PRIMARIA.docx
 
Cerebelo Anatomía y fisiología Clase presencial
Cerebelo Anatomía y fisiología Clase presencialCerebelo Anatomía y fisiología Clase presencial
Cerebelo Anatomía y fisiología Clase presencial
 
Proceso de gestión de obras - Aquí tu Remodelación
Proceso de gestión de obras - Aquí tu RemodelaciónProceso de gestión de obras - Aquí tu Remodelación
Proceso de gestión de obras - Aquí tu Remodelación
 
PLAN DE TRABAJO CONCURSO NACIONAL CREA Y EMPRENDE.docx
PLAN DE TRABAJO CONCURSO NACIONAL CREA Y EMPRENDE.docxPLAN DE TRABAJO CONCURSO NACIONAL CREA Y EMPRENDE.docx
PLAN DE TRABAJO CONCURSO NACIONAL CREA Y EMPRENDE.docx
 
El fundamento del gobierno de Dios. Lec. 09. docx
El fundamento del gobierno de Dios. Lec. 09. docxEl fundamento del gobierno de Dios. Lec. 09. docx
El fundamento del gobierno de Dios. Lec. 09. docx
 
3.Conectores uno_Enfermería_EspAcademico
3.Conectores uno_Enfermería_EspAcademico3.Conectores uno_Enfermería_EspAcademico
3.Conectores uno_Enfermería_EspAcademico
 
diagnostico final (1). analisis - encuestas
diagnostico final (1). analisis - encuestasdiagnostico final (1). analisis - encuestas
diagnostico final (1). analisis - encuestas
 
corpus-christi-sesion-de-aprendizaje.pdf
corpus-christi-sesion-de-aprendizaje.pdfcorpus-christi-sesion-de-aprendizaje.pdf
corpus-christi-sesion-de-aprendizaje.pdf
 
Portafolio de servicios Centro de Educación Continua EPN
Portafolio de servicios Centro de Educación Continua EPNPortafolio de servicios Centro de Educación Continua EPN
Portafolio de servicios Centro de Educación Continua EPN
 
evalaución de reforzamiento de cuarto de secundaria de la competencia lee
evalaución de reforzamiento de cuarto de secundaria de la competencia leeevalaución de reforzamiento de cuarto de secundaria de la competencia lee
evalaución de reforzamiento de cuarto de secundaria de la competencia lee
 
Material-de-Apoyo-Escuela-Sabatica-02-2-2024.pptx.ppt
Material-de-Apoyo-Escuela-Sabatica-02-2-2024.pptx.pptMaterial-de-Apoyo-Escuela-Sabatica-02-2-2024.pptx.ppt
Material-de-Apoyo-Escuela-Sabatica-02-2-2024.pptx.ppt
 
Lección 1: Los complementos del Verbo ...
Lección 1: Los complementos del Verbo ...Lección 1: Los complementos del Verbo ...
Lección 1: Los complementos del Verbo ...
 
Proyecto integrador Vereda Cujacal Centro.pptx
Proyecto integrador Vereda Cujacal Centro.pptxProyecto integrador Vereda Cujacal Centro.pptx
Proyecto integrador Vereda Cujacal Centro.pptx
 
Evaluación de los Factores Internos de la Organización
Evaluación de los Factores Internos de la OrganizaciónEvaluación de los Factores Internos de la Organización
Evaluación de los Factores Internos de la Organización
 
Presentación Pedagoía medieval para exposición en clases
Presentación Pedagoía medieval para exposición en clasesPresentación Pedagoía medieval para exposición en clases
Presentación Pedagoía medieval para exposición en clases
 
Presentación Revistas y Periódicos Digitales
Presentación Revistas y Periódicos DigitalesPresentación Revistas y Periódicos Digitales
Presentación Revistas y Periódicos Digitales
 
Sesión: El fundamento del gobierno de Dios.pdf
Sesión: El fundamento del gobierno de Dios.pdfSesión: El fundamento del gobierno de Dios.pdf
Sesión: El fundamento del gobierno de Dios.pdf
 
Creación WEB. Ideas clave para crear un sitio web
Creación WEB. Ideas clave para crear un sitio webCreación WEB. Ideas clave para crear un sitio web
Creación WEB. Ideas clave para crear un sitio web
 
Diagnostico del corregimiento de Junin del municipio de Barbacoas
Diagnostico del corregimiento de Junin del municipio de BarbacoasDiagnostico del corregimiento de Junin del municipio de Barbacoas
Diagnostico del corregimiento de Junin del municipio de Barbacoas
 

Teoria de la probabilidad

  • 1. REPÚBLICA BOLIVARIANA DE VENEZUELA MINISTERIO DEL PODER POPULAR PARA LA EDUCACIÓN INSTITUTO UNIVERSITARIO POLITÉCNICO “SANTIAGO MARIÑO” CÁTEDRA: ESTADISTICA I ENSAYO TEORÍA DE LA PROBABILIDAD Tercer corte PRESENTADO POR: JOSE L. MOLINA C.I. 16.687.668. SECCIÓN “S”, NOCTURNO. PROFESOR DE ASIGNATURA: YANNY ATIA
  • 2. CONTENIDO INTRODUCCIÓN .......................................................................................................................................3 1. OBJETIVO. .........................................................................................................................................4 2. DEFINICIONES BÁSICAS...............................................................................................................4 3. RESEÑA DE LA PROBABILIDAD.................................................................................................4 4. DEFINICIÓN CLÁSICA DE PROBABILIDAD. .............................................................................6 4.1 Axiomas de probabilidad...........................................................................................................7 4.2 Axiomas de Kolmogórov. ..........................................................................................................7 5. DEFINICIONES: PROBABILIDAD CONDICIONAL, EVENTOS INDEPENDIENTES, EVENTOS DEPENDIENTES, LEY DE PROBABILIDAD TOTAL Y TEOREMA DE BAYES. .....8 5.1 Probabilidad Condicional. .........................................................................................................8 5.2 Eventos Independientes..........................................................................................................10 5.3 Eventos Dependientes. ..........................................................................................................10 5.4 Ley de Probabilidad total.........................................................................................................11 5.5 Teorema de Bayes...................................................................................................................11 6. MUESTRAS DE POBLACIÓN, DEFINIR PERMUTACIONES Y COMBINACIONES Y SUS APLICACIONES A LOS DIFERENTES EVENTOS. .........................................................................12 6.1 Población...................................................................................................................................12 6.2 Muestra......................................................................................................................................12 6.3 Permutaciones..........................................................................................................................12 6.4 Combinaciones.........................................................................................................................13 6.5 Aplicaciones..............................................................................................................................13 CONCLUSIÓN..........................................................................................................................................14 BIBLIOGRAFÍA........................................................................................................................................15
  • 3. INTRODUCCIÓN La probabilidad y la estadística son, sin duda, las ramas de las Matemáticas que están en mayor auge en este siglo, y tienen una tremenda aplicabilidad en todos los aspectos y ciencias, especialmente en las Ciencias Sociales, puesto que aquellas variables que influyen en dichas ciencias, económicas, demográficas, suelen tener carácter aleatorio, es decir, no son deterministas, y se fundamentan en predicciones a partir de datos conocidos. Todo aquello que implique predicción nos lleva al terreno de la probabilidad. La teoría de la probabilidad es una teoría matemática axiomatizada, sobre la cual existe un amplio consenso, la formulación usual de la teoría de la probabilidad se hace en el lenguaje de la teoría de conjuntos. El dominio de la teoría es un conjunto no vacío de elementos cualesquiera, habitualmente simbolizado como Ω, la probabilidad es una función que asigna números reales a los subconjuntos de Ω. El objeto de la teoría de probabilidades es proporcionar un modelo matemático adecuado, aplicable a la descripción e interpretación de los fenómenos aleatorios. La construcción del modelo se basa en los siguientes conceptos: espacio muestral, evento o sucesos, espacio de la probabilidad, eventos independientes, dependientes entre otros.
  • 4. 1. OBJETIVO. El objetivo de este ensayo es presentar el análisis y las definiciones requeridas para el entendimiento lógico-practico de la “TEORÍA DE LA PROBABILIDAD”. 2. DEFINICIONES BÁSICAS. La teoría de probabilidades se ocupa de asignar un cierto número a cada posible resultado que pueda ocurrir en un experimento aleatorio, con el fin de cuantificar dichos resultados y saber si un suceso es más probable que otro o relaciones parecidas. Con este fin, introduciremos algunas definiciones.  Espacio Muestral: Es el conjunto de todos los resultados posibles de un experimento aleatorio. El conjunto de todos los resultados posibles pueden ser finito, infinito numerable o infinito no numerables. Espacio muestral Discreto y continuo.  Eventos: Llamaremos evento o suceso aleatorio a cualquier subconjunto del espacio muestral. El concepto de suceso es fundamental en probabilidad. Dicho de forma simple, un suceso de un experimento aleatorio es cualquier cosa que se nos ocurra afirmar sobre dicho experimento. Relaciones entre eventos y familia de eventos: AUB = “Suceso A o el Suceso B o ambos AB) = “El suceso A y B “ AB = Ф “Son Sucesos excluyentes mutuamente, es decir no tienen elementos comunes” A = “El Suceso no A “ A – B = Todos los elementos de A siempre y cuando no estén en B 3. RESEÑA DE LA PROBABILIDAD. La definición de probabilidad surge debido al deseo del ser humano por conocer con certeza los eventos que sucederán en el futuro. Es por eso que a través de la historia se han desarrollado diferentes enfoques para tener un concepto de la probabilidad y determinar sus valores. La idea de Probabilidad está íntimamente ligada a la idea de azar y nos ayuda a comprender nuestras posibilidades de ganar un juego de azar o analizar las encuestas. Pierre-Simon Laplace afirmó: "Es notable que una ciencia que comenzó con consideraciones sobre juegos de azar haya llegado a ser el objeto más importante del
  • 5. conocimiento humano". Comprender y estudiar el azar es indispensable, porque la probabilidad es un soporte necesario para tomar decisiones en cualquier ámbito. Según Amanda Dure, "Antes de la mitad del siglo XVII, el término 'probable' (en latín probable) significaba aprobable, y se aplicaba en ese sentido, unívocamente, a la opinión y a la acción. Una acción u opinión probable era una que las personas sensatas emprenderían o mantendrían, en las circunstancias." Aparte de algunas consideraciones elementales hechas por Girolamo Cardano en el siglo XVI, la doctrina de las probabilidades data de la correspondencia de Pierre de Fermat y Blaise Pascal (1654). Christiaan Huygens (1657) le dio el tratamiento científico conocido más temprano al concepto. Ars Conjectandi (póstumo, 1713) de Jakob Bernoulli y Doctrine of Chances (1718) de Abraham de Moivre trataron el tema como una rama de las matemáticas. Véase El surgimiento de la probabilidad (The Emergence of Probability) de Ian Hacking para una historia de los inicios del desarrollo del propio concepto de probabilidad matemática. La teoría de errores puede trazarse atrás en el tiempo hasta Opera Miscellanea (póstumo, 1722) de Roger Cotes, pero una memoria preparada por Thomas Simpson en 1755 (impresa en 1756) aplicó por primera vez la teoría para la discusión de errores de observación. La reimpresión (1757) de esta memoria expone los axiomas de que los errores positivos y negativos son igualmente probables, y que hay ciertos límites asignables dentro de los cuales se supone que caen todos los errores; se discuten los errores continuos y se da una curva de la probabilidad. Pierre-Simon Laplace (1774) hizo el primer intento para deducir una regla para la combinación de observaciones a partir de los principios de la teoría de las probabilidades. Representó la ley de la probabilidad de error con una curva y = phi(x), siendo x cualquier error e y y su probabilidad, y expuso tres propiedades de esta curva: 1. es simétrica al eje y; 2. el eje x es una asíntota, siendo la probabilidad del error infty igual a 0; 3. la superficie cerrada es 1, haciendo cierta la existencia de un error. Dedujo una fórmula para la media de tres observaciones. También obtuvo (1781) una fórmula para la ley de facilidad de error (un término debido a Lagrange, 1774), pero una que llevaba a ecuaciones inmanejables. Daniel Bernoulli (1778) introdujo el principio del máximo producto de las probabilidades de un sistema de errores concurrentes. El método de mínimos cuadrados se debe a Adrien-Marie Legendre (1805), que lo introdujo en su Nouvelles méthodes pour la détermination des orbites des comètes (Nuevos métodos para la determinación de las órbitas de los cometas). Ignorando la contribución de Legendre, un escritor irlandés estadounidense, Robert Adrain, editor de "The Analyst" (1808), dedujo por primera vez la ley de facilidad de error, phi(x) = ce^{-h^2 x^2} siendo c y h constantes que dependen de la precisión de la observación. Expuso dos demostraciones, siendo la segunda esencialmente la misma de John Herschel (1850). Gauss expuso la primera demostración que parece que se conoció en Europa (la tercera después de la de Adrain) en 1809. Demostraciones adicionales se expusieron por Laplace (1810, 1812), Gauss (1823), James Ivory (1825,
  • 6. 1826), Hagen (1837), Friedrich Bessel (1838), W. F. Donkin (1844, 1856) y Morgan Crofton (1870). Otros personajes que contribuyeron fueron Ellis (1844), De Morgan (1864), Glaisher (1872) y Giovanni Schiaparelli (1875). La fórmula de Peters (1856) para r, el error probable de una única observación, es bien conocida. En el siglo XIX, los autores de la teoría general incluían a Laplace, Sylvestre Lacroix (1816), Littrow (1833), Adolphe Quetelet (1853), Richard Dedekind (1860), Helmert (1872), Hermann Laurent (1873), Liagre, Didion, y Karl Pearson. Augustus De Morgan y George Boole mejoraron la exposición de la teoría. En 1933, el matemático soviético Andréi Kolmogórov propuso un sistema de axiomas para la teoría de la probabilidad, basado en la teoría de conjuntos y en la teoría de la medida, desarrollada pocos años antes por Lebesgue, Borel y Frechet entre otros. Esta aproximación axiomática que generaliza el marco clásico de la probabilidad, la cual obedece a la regla de cálculo de casos favorables sobre casos posibles, permitió la rigorización de muchos argumentos ya utilizados, así como el estudio de problemas fuera de los marcos clásicos. Actualmente, la teoría de la probabilidad encuentra aplicación en las más variadas ramas del conocimiento, como puede ser la física (donde corresponde mencionar el desarrollo de las difusiones y el movimiento Browniano), o las finanzas (donde destaca el modelo de Black y Scholes para la valuación de acciones). 4. DEFINICIÓN CLÁSICA DE PROBABILIDAD. La probabilidad es la característica de un evento, que existen razones para creer que éste se realizará. La probabilidad p de que suceda un evento S de un total de n casos posibles igualmente probables es igual a la razón entre el número de ocurrencias h de dicho evento (casos favorables) y el número total de casos posibles n. La probabilidad es un número (valor) que varía entre 0 y 1. Cuando el evento es imposible se dice que su probabilidad es 0, si el evento es cierto y siempre tiene que ocurrir su probabilidad es 1. La probabilidad de no ocurrencia de un evento está dada por q, donde: Sabemos que p es la probabilidad de que ocurra un evento y q es la probabilidad de que no ocurra, entonces p + q = 1 Simbólicamente el espacio de resultados, que normalmente se denota por Ω, es el espacio que consiste en todos los resultados que son posibles. Los resultados, que se denota por ω1,ω2, etcétera, son elementos del espacio Ω.
  • 7. 4.1 Axiomas de probabilidad. Los axiomas de probabilidad son las condiciones mínimas que deben verificarse para que una función definida sobre un conjunto de sucesos determine consistentemente sus probabilidades. Fueron formulados por Kolmogórov en 1933. 4.2 Axiomas de Kolmogórov. Dado un conjunto de sucesos elementales, Ω, sobre el que se ha definida una σ-álgebra (léase sigma-álgebra) σ de subconjuntos de Ω y una función P que asigna valores reales a los miembros de σ, a los que denominamos "sucesos", se dice que P es una probabilidad sobre (Ω,σ) si se cumplen los siguientes tres axiomas. Primer axioma La probabilidad de un suceso A es un número real mayor o igual que 0. Segundo axioma La probabilidad del total, Ω, es igual a 1, es decir, Tercer axioma Si A1, A2, …………son sucesos mutuamente excluyentes (incompatibles dos a dos, disjuntos o de intersección vacía dos a dos), entonces: Según este axioma se puede calcular la probabilidad de un suceso compuesto de varias alternativas mutuamente excluyentes sumando las probabilidades de sus componentes. En términos más formales, una probabilidad es una medida sobre una σ-álgebra de subconjuntos del espacio muestral, siendo los subconjuntos miembros de la σ-álgebra los sucesos y definida de tal manera que la medida del total sea 1. Tal medida, gracias a su definición matemática, verifica igualmente los tres axiomas de Kolmogórov. A la terna formada por el espacio muestral, la σ-álgebra y la función de probabilidad se la denomina Espacio probabilístico, esto es, un "espacio de sucesos" (el espacio muestral) en el que se han definido los posibles sucesos a considerar (la σ-álgebra) y la probabilidad de cada suceso (la función de probabilidad). Propiedades que se deducen de los axiomas De los axiomas anteriores se deducen otras propiedades de la probabilidad: 1. donde el conjunto vacío representa en probabilidad el suceso imposible
  • 8. 2. Para cualquier suceso 3. 4. Si A ≤ B entonces 5. Ejemplo: Sea un experimento aleatorio cualquiera y definamos en S (espacio de sucesos) la siguiente probabilidad: p(A) = Número de elementos del conjunto A Número total de elementos Comprobemos que p es una probabilidad. Para ello, comprobemos las tres propiedades: a) Se ve que la probabilidad de cualquier suceso esta entre cero y uno, puesto que cualquier conjunto que tenga elementos ya tendrá probabilidad positiva, y el número de elementos de cualquier conjunto no puede ser mayor que el número total de elementos existentes. b) p(E) = 1, es evidente. c) Tomemos dos sucesos A y B que no tengan elementos en común. Entonces: p(A ∪ B) = Elementos que forman parte de A o de B = Número total de elementos Número de elementos de A + número de elementos de B = p(A) + p(B) Número total de elementos Puesto que si A y B no tienen elementos comunes, el número de elementos de la unión es la suma de los elementos de cada conjunto por separado. Por tanto se cumplen las 3 propiedades y p así definida es una probabilidad. Esta será la definición de probabilidad que utilicemos a partir de ahora. 5. DEFINICIONES: PROBABILIDAD CONDICIONAL, EVENTOS INDEPENDIENTES, EVENTOS DEPENDIENTES, LEY DE PROBABILIDAD TOTAL Y TEOREMA DE BAYES. 5.1 Probabilidad Condicional. Probabilidad condicionada es la probabilidad de que ocurra un evento A, sabiendo que también sucede otro evento B. La probabilidad condicional se escribe P(A|B), y se lee «la probabilidad de A dado B.
  • 9. No tiene por qué haber una relación causal o temporal entre A y B. A puede preceder en el tiempo a B, sucederlo o pueden ocurrir simultáneamente. A puede causar B, viceversa o pueden no tener relación causal. Las relaciones causales o temporales son nociones que no pertenecen al ámbito de la probabilidad. Pueden desempeñar un papel o no dependiendo de la interpretación que se le dé a los eventos. El condicionamiento de probabilidades puede lograrse aplicando el teorema de Bayes. Definición Dado un espacio de probabilidad (Ω, F, P) y dos eventos (o sucesos) con P(B) > 0, la probabilidad condicional de A dado B está definida como: Se puede interpretar como, tomando los mundos en los que B se cumple, la fracción en los que también se cumple A. Se puede interpretar como, tomando los mundos en los que B se cumple, la fracción en los que también se cumple A. Interpretación Se puede interpretar como, tomando los mundos en los que B se cumple, la fracción en los que también se cumple A. Ejemplo: Si el evento B es, por ejemplo, tener la gripe, y el evento A es tener dolor de cabeza, sería la probabilidad de tener dolor de cabeza cuando se está enfermo de gripe. Gráficamente, si se interpreta el espacio de la ilustración como el espacio de todos los mundos posibles, A serían los mundos en los que se tiene dolor de cabeza y B el espacio en el que se tiene gripe. La zona verde de la intersección representaría los mundos en los que se tiene gripe y dolor de cabeza . En este caso es decir, la probabilidad de que alguien tenga dolor de cabeza sabiendo que tiene gripe,
  • 10. sería la proporción de mundos con gripe y dolor de cabeza (color verde) de todos los mundos con gripe: El área verde dividida por el área de B. Como el área verde representa y el área de B representa a P(B), formalmente se tiene que: Propiedades 1. 2. Es decir, si todos los que tienen gripe siempre tienen dolor de cabeza, entonces la probabilidad de tener dolor de cabeza dado que tengo gripe es 1. 1. Pero NO es cierto que 5.2 Eventos Independientes. Dos sucesos aleatorios A y B son independientes si y sólo si: O sea que si A y B son independientes, su probabilidad conjunta, ó P(A,B). Puede ser expresada como el producto de las probabilidades individuales. Equivalentemente: En otras palabras, si A y B son independientes, la probabilidad condicional de A dado B es simplemente la probabilidad de A y viceversa. 5.3 Eventos Dependientes. Dos sucesos A y B son mutuamente excluyentes si y sólo sí =0. Entonces, =0. Además, si P(B) > 0 entonces es igual a 0.
  • 11. 5.4 Ley de Probabilidad total. Si A1, A2 y A3 son tres sucesos entonces: P(A1 A2 A3) = P(A1)*P(A2/A1)*P(A3/A2 A1) P(A1 A2 A3... An) = P(A1)*P(A2/A1)*P(A3/A2 A1)*P(An/A1 A2 ...An-1) 5.5 Teorema de Bayes. Si B1,B2,…,Bn son eventos mutuamente excluyentes, de los cuales uno debe ocurrir, es decir 1=P)( n i iBP , entonces.  n i ii jj BAPBP BAPBP 01 ) )/()( )/(( =P(Bj/A) j=1,2…….,n Ejemplo: Dos clases de 2º de Bachillerato, una de 28 alumnos y otra de 35 alumnos hacen conjuntamente un examen de Matemáticas. La probabilidad de aprobar de los alumnos de la primera clase es de 0’68y los de la segunda del 0’73. Se toma un examen al azar y resulta que está aprobado. ¿Cuál es la probabilidad de que sea de un alumno de la 1ª clase? Sea A1= “el examen es de un alumno de la primera clase” A2= “el examen es de un alumno de la segunda clase” B= “el examen está aprobado” Nos piden P(A1/B). Hagamos antes que nada un diagrama de árbol: Diagrama de árbol para el problema del examen Por el teorema de Bayes: )/(*)()/(*)( )/(*)( =/B)P(A 2211 11 1 ABPAPABPAP ABPAP  Sustituyendo:
  • 12. 427,0 708,0 302,0 73,0* 63 35 68,0* 63 28 68,0* 63 28 =/B)P(A1   P(A1) es la probabilidad “a priori”, es decir , antes de realizar el experimento y careciendo de información. En este caso 444,0 63 28 =)P(A1  P(A1/B) es la probabilidad “a posteriori”, después de realizarlo y conocer más información. En este caso p(A1/B) = 0,427 (es algo menor). 6. MUESTRAS DE POBLACIÓN, DEFINIR PERMUTACIONES Y COMBINACIONES Y SUS APLICACIONES A LOS DIFERENTES EVENTOS. 6.1 Población. Una población es conjunto de elementos que tiene características comunes, al menos una. Por ejemplo, una población es el grupo de estudiantes de un país. En el caso particular de la estadística la población constituye el objeto de estudio, es decir, la población es el conjunto de individuos o entes que constituyen el objeto de estudio sobre el que se desea predecir un comportamiento a partir del estudio. 6.2 Muestra. Una muestra es un subconjuntos de datos tomados de la población, cuya finalidad es la de realizar inferencias acerca de la población a partir del comportamiento de sus elementos. Es claro que si la muestra es un subconjunto de la población entonces la muestra tendrá un número menor de elementos. La naturaleza de la muestra radica en la optimización de los recursos, por ejemplo, si deseamos hacer un estudio acerca de las lecturas que a los estudiantes de Michoacán les gusta leer, el estudio implicaría considerar a los estudiantes de lugares remotos, resultando difícil desde el punto de vista económico, sin embargo la estadística plantea métodos mediante los cuales con una elección adecuada del tamaño de muestra podemos predecir a partir de una muestra las preferencias que tienen los estudiantes acerca del tipo de lectura. Para el muestreo Existen dos métodos para seleccionar muestras de poblaciones; el muestreo no aleatorio o de juicio y el muestreo aleatorio o de probabilidad. En este último todos los elementos de la población tienen la oportunidad de ser escogidos en la muestra. Una muestra seleccionada por muestreo de juicio se basa en la experiencia de alguien con la población. Algunas veces una muestra de juicio se usa como guía o muestra tentativa para decidir como tomar una muestra aleatoria más adelante. Las muestras de juicio evitan el análisis estadístico necesario para hacer muestras de probabilidad. 6.3 Permutaciones. Las permutaciones son las distintas formas en que se pueden ordenar los n elementos de un conjunto. En general, hay n! permutaciones en las que colocar n elementos en orden.
  • 13. El número de permutaciones de n elementos se denota Pn. Las permutaciones son un caso particular de las variaciones Pn = Vn,n = n! cuando el número de elementos del conjunto de objetos es igual al de cada uno de los conjuntos ordenados. La fórmula del número de permutaciones empieza como n!, pero termina con (n – k + 1) en lugar de 1. Necesitamos eliminar los factores de (n – k) a 1 del producto. ¡Podemos hacer eso dividiendo entre (n – k)! Entonces, para las combinaciones, dividimos el resultado entre k • (k – 1) • … • 2 • 1, o k. Usando Factoriales Cuando escogemos k de n objetos, podemos usar las siguientes fórmulas: Número de permutaciones = Número de combinaciones = Muchas calculadoras tienen la tecla o el comando factorial (¡). Para encontrar el número de permutaciones de escoger 20 de 24 objetos, teclear 24! ÷ 4! Es más rápido y fácil que 24 • 23 • 23 • 21 • 20 • 19 • 18 • 17 • 16 • 15 • 14 • 13 • 12 • 11 • 10 • 9 • 8 • 7 • 6 • 5. (Aunque, si sólo se hacen 4 elecciones, sería más fácil teclear 24 • 23 • 22 • 21.) Probemos estas fórmulas en un problema. Primero, usaremos el Principio Fundamental de Conteo. Ahora aplicaremos estas fórmulas en ciertos ejemplos para detonar cual es el cambio que produce al usar de una manera adecuada las fórmulas para llegar a un resultado más factible y directo. 6.4 Combinaciones. Las combinaciones son agrupaciones de objetos en las que no importa su orden. En general, el número de combinaciones de n elementos tomados de k en k se escribe Cn,k, y su valor está dado por la siguiente fórmula: )!(! ! =C , kn, knk n P V k kn   6.5 Aplicaciones. Se utiliza para el desarrollo del binomio de Newton; en la teoría de la probabilidad y en estadística (para calcular el número de casos posibles de un sistema). También tiene importantes aplicaciones en el diseño y funcionamiento de ordenadores o computadoras, así como en las ciencias físicas y sociales. De hecho, la teoría combinatoria es de gran utilidad en todas aquellas áreas en donde tengan relevancia las distintas maneras de agrupar un número finito de elementos.
  • 14. CONCLUSIÓN Al momento de preparar este ensayo nos disponíamos a analizar los puntos de información más importantes del tema para poder dar una respuesta o conclusión a la teoría de probabilidades. Los factores y posibles soluciones que nos encontramos al momento de buscar la información detallada nos dan los resultados esperados, igualmente debemos tomar los puntos clave para poder dar una respuesta a los ejemplos a resolver es por eso que la mayoría de los problemas nos dan un espacio muestral o un resultado ya esperado en una determinada posición y poder dar un valor a ese ejemplo por lo cual cave analizar cada paso a realizar para obtener un resultado más específico por lo cual se plantean teorías y ecuación que nos ayudan a dar las respuestas a ellos de una manera más rápida y clara. La teoría de la probabilidad nos da un enfoque de prevención, ya que mediante su aplicación podemos tomar en cuenta las variables de un posible evento al momento de un diseño, fabricación o construcción de algún equipo, fármaco, edificio, industria, entre otros.