SlideShare una empresa de Scribd logo
1 de 29
Descargar para leer sin conexión
REPUBLICA BOLIVARIANA DE VENEZUELA
MINISTERIO DEL PODER POPULAR PARA LA EDUCACION SUPERIOR
INSTITUTO UNIVERSITARIO POLITECNICO
SANTIAGO MARIÑO
MARACIBO, EDO. ZULIA
CATEDRA: ESTADISTICA I
TEORIA DE LA PROBABILIDAD
REALIZADO POR:
ANGULO ANGULO, ELI JOSE
C.I. 20.686.001
CARRERA: ING. ELECTRICA (43)
CONTENIDO
INTRODUCCION
-LA PROBABILIDAD
-CRONOLOGIA DE LOS AVANCES DE LA PROBABILIDAD
-DEFINICION DE PROBABILIDAD TEORIA DE LA PROBABILIDAD
-ENFOQUES DE LA TEORIA DE LA PROBABILIDAD
-METODOS PARA CALCULAR LA PROBABILIDAD
-APLICACIONES DE LA PROBABILIDAD
-EL VALOR DE LA PROBABILIDAD
-DISTRIBUCION DE LA PROBABILIDAD
-EJEMPLOS DE LA TEORIA DE PROBABILIDAD
-DEFINIR LOS CONCEPTOS DE ESPACIO MUESTRAL, EVENTOS,
RELACIONES ENTRE EVENTOS Y FAMILIA DE EVENTOS.
CONCLUSION
BIBLIOGRAFIA
INTRODUCCION
La probabilidad mide la frecuencia con la que se obtiene un resultado al llevar a cabo un
experimento aleatorio, del que se conocen todos los resultados posibles, bajo condiciones
suficientemente estables. La teoría de la probabilidad se usa extensamente en áreas
como la estadística, la física, la matemática, la ciencia y la filosofía para sacar
conclusiones sobre la probabilidad de sucesos potenciales y la mecánica subyacente de
sistemas complejos.
La teoría de la probabilidad es la parte de las matemáticas que estudia los fenómenos
aleatorios. Estos deben contraponerse a los fenómenos determinanticos, los cuales son
resultados únicos y/o previsibles de experimentos realizados bajo las mismas condiciones
determinadas. Los fenómenos aleatorios, por el contrario, son aquellos que se obtienen
como resultado de experimentos realizados, otra vez, bajo las mismas condiciones
determinadas pero como resultado posible poseen un conjunto de alternativas, por
ejemplo, el lanzamiento de un dado o de un dardo.
Los procesos reales que se modelizan como procesos aleatorios pueden no serlo
realmente; cómo tirar una moneda o un dado no son procesos de aleación en sentido
estricto, ya que no se reproducen exactamente las mismas condiciones iníciales que lo
determinan, sino sólo unas pocas. En los procesos reales que se modelizan mediante
distribuciones de probabilidad corresponden a modelos complejos donde no se conocen
todos los parámetros que intervienen; ésta es una de las razones por las cuales la
estadística, que busca determinar estos parámetros, no se reduce inmediatamente a la
teoría de la probabilidad en sí.
En 1933, el matemático soviético Andréi Kolmogórov propuso un sistema de axiomas para
la teoría de la probabilidad, basado en la teoría de conjuntos y en la teoría de la medida,
desarrollada pocos años antes por Lebesgue, Borel y Frechet entre otros.
Esta aproximación axiomática que generaliza el marco clásico de la probabilidad, la cual
obedece a la regla de cálculo de casos favorables sobre casos posibles, permitió la
rigorización de muchos argumentos ya utilizados, así como el estudio de problemas fuera
de los marcos clásicos. Actualmente, la teoría de la probabilidad encuentra aplicación en
las más variadas ramas del conocimiento, como puede ser la física, o las finanzas.
LA PROBABILIDAD
La probabilidad es la característica de un evento, que existen razones para creer
que éste se realizará.
La probabilidad p de que suceda un evento S de un total de n casos posibles
igualmente probables es igual a la razón entre el número de ocurrencias h de
dicho evento (casos favorables) y el número total de casos posibles n.
La probabilidad es un número (valor) que varía entre 0 y 1. Cuando el evento es
imposible se dice que su probabilidad es 0, si el evento es cierto y siempre tiene
que ocurrir su probabilidad es 1.
La probabilidad de no ocurrencia de un evento está dada por q, donde:
Sabemos que p es la probabilidad de que ocurra un evento y q es la probabilidad
de que no ocurra, entonces p + q = 1. Simbólicamente el espacio de resultados,
que normalmente se denota por Ω, es el espacio que consiste en todos los
resultados que son posibles. Los resultados, que se denota por ω1, ω2, etc. son
elementos del espacio Ω.
CRONOLOGIA DE LOS AVANCES DE LA PROBABILIDAD
1657-- Christiaan Huygens le dio el tratamiento científico conocido más temprano
al concepto.
1713-- Ars Conjectandi, de Jakob Bernoulli y Doctrine of Chances de Abraham de
Moivre trataron el tema como una rama de las matemáticas.
1722-- La teoría de errores puede trazarse atrás en el tiempo hasta Opera
Miscellanea de Roger Cotes.
1755--Thomas Simpson preparo una memoria impresa en 1756 donde aplicó por
primera vez la teoría para la discusión de errores de observación
1757-- La reimpresión de esta memoria expone los axiomas de que los errores
positivos y negativos son igualmente probables, y que hay ciertos límites
asignables dentro de los cuales se supone que caen todos los errores; se discuten
los errores continuos y se da una curva de la probabilidad.
1774--Pierre-Simon Laplace hizo el primer intento para deducir una regla para la
combinación de observaciones a partir de los principios de la teoría de las
probabilidades. Representó la ley de la probabilidad de error con una curva y =
φ(x), siendo x cualquier error e y y su probabilidad, y expuso tres propiedades de
esta curva:
1. es simétrica al eje y;
2. el eje x es una asíntota, siendo la probabilidad del error igual a 0;
3. la superficie cerrada es 1, haciendo cierta la existencia de un error.
1778--Daniel Bernoulli introdujo el principio del máximo producto de las
probabilidades de un sistema deerrores concurrentes.
1781-- Se obtuvo una fórmula para la ley de facilidad de error (un término debido a
Lagrange, 1774), pero una que llevaba a ecuaciones inmanejables.
1805--El método de mínimos cuadrados se debe a Adrien-Marie Legendre, que lo
introdujo en su Nouvelles méthodes pour la détermination des orbites des comètes
(Nuevos métodos para la determinación de las órbitas de los cometas).
1808--Ignorando la contribución de Legendre, un escritor irlandés estadounidense,
Robert Adrain, editor de "The Analyst" , dedujo por primera vez la ley de facilidad
de error, Siendo c y h constantes que dependen de la precisión de la observación.
Expuso dos demostraciones, siendo la segunda esencialmente la misma de John
Herschel
1809--Gauss expuso la primera demostración que parece que se conoció en
Europa.
Otras demostraciones adicionales también fueron expuestas, en:
1810--Laplace
1816--Sylvestre Lacroix
1823--Gauss
1825--James Ivory
1833--Littrow
1837--Hagen
1838--Friedrich Bessel
1844--W. F. Donkin
1845—Ellis
1853--Adolphe Quetelet
1856-- La fórmula de Peters para r, el error probable de una única observación, es
bien conocida
1860--Richard Dedekind
1864--De Morgan
1870--Morgan Crofton
1872—Helmert
1873—Glaisher
1874--Hermann Laurent
1875--Giovanni Schiaparelli
1930-- Andréi Kolmogorov desarrolló la base axiomática de la probabilidad
utilizando teoría de la medida.
En la parte geométrica los colaboradores de The Educational Times fueron
influyentes (Miller, Crofton, McColl, Wolstenholme, Watson y ArtemasMartin).
DEFINICION DE LA PROBABILIDAD
Según La Frecuencia Relativa:
La autodefinición axiomática de la probabilidad se define con base a sí misma, la
probabilidad estimada o honírica basada en la frecuencia relativa de aparición de
un suceso S cuando Ω es muy grande. La probabilidad de un suceso es una
medida que se escribe como, Y mide con qué frecuencia ocurre algún suceso si se
hace algún experimento indefinidamente.
Según La Definición Axiomática:
La definición anterior es complicada de representar matemáticamente ya que Ω
debiera ser infinito. Otra manera de definir la probabilidad es de forma axiomática
esto estableciendo las relaciones o propiedades que existen entre los conceptos y
operaciones que la componen.
TIPOS DE PROBABILIDAD
Probabilidad Discreta:
Este tipo de probabilidad, es aquel que puede tomar sólo ciertos valores diferentes
que son el resultado de la cuenta de alguna característica de interés.
Probabilidad Continúa:
Una variable aleatoria es una función medible:
Y: Ω—R
Que da un valor numérico a cada suceso en Ω.
TEORIA DE LA PROBABILIDAD
La probabilidad constituye un importante parámetro en la determinación de las
diversas casualidades obtenidas tras una serie de eventos esperados dentro de un
rango estadístico. El concepto de probabilidad nace con el deseo del hombre de
conocer con certeza los eventos futuros. Es por ello que el estudio de
probabilidades surge como una herramienta utilizada por los nobles para ganar en
los juegos y pasatiempos de la época. El desarrollo de estas herramientas fue
asignado a los matemáticos de la corte. Con el tiempo estas técnicas matemáticas
se perfeccionaron y encontraron otros usos muy diferentes para la que fueron
creadas. Actualmente se continúo con el estudio de nuevas metodologías que
permitan maximizar el uso de la computación en el estudio de las probabilidades
disminuyendo, de este modo, los márgenes de error en los cálculos.
A través de la historia se han desarrollado tres enfoques conceptuales diferentes
para definir la probabilidad y determinar los valores de probabilidad:
El Enfoque Clásico:
Dice que si hay x posibles resultados favorables a la ocurrencia de un evento A y z
posibles resultados desfavorables a la ocurrencia de A, y todos los resultados son
igualmente posibles y mutuamente excluyente (no pueden ocurrir los dos al mismo
tiempo), entonces la probabilidad de que ocurra A es:
El enfoque clásico de la probabilidad se basa en la suposición de que cada
resultado sea igualmente posible. Este enfoque es llamado enfoque a priori porque
permite, (en caso de que pueda aplicarse) calcular el valor de probabilidad antes
de observar cualquier evento de muestra.
Ejemplo:
Si tenemos en una caja 15 piedras verdes y 9 piedras rojas. La probabilidad de
sacar una piedra roja en un intento es:
FUNCION DE DENSIDAD
La función de densidad, o densidad de probabilidad de una variable aleatoria, es
una función a partir de la cual se obtiene la probabilidad de cada valor que toma la
variable. Su integral en el caso de variables aleatorias continuas es ladistribución
de probabilidad. En el caso de variables aleatorias discretas la distribución de
probabilidad se obtiene a través del sumatorio de la función de densidad.
ENFOQUES DE LA TEORIA DE PROBABILIDAD
El Enfoque de frecuencia relativa:
También llamado Enfoque Empírico, determina la probabilidad sobre la base de la
proporción de veces que ocurre un evento favorable en un número de
observaciones. En este enfoque no ese utiliza la suposición previa de
aleatoriedad. Porque la determinación de los valores de probabilidad se basa en la
observación y recopilación de datos.
Ejemplo:
Se ha observado que 9 de cada 50 vehículos que pasan por una esquina no
tienen cinturón de seguridad. Si un vigilante de transito se para en esa misma
esquina un ida cualquiera ¿Cuál será la probabilidad de que detenga un vehículo
sin cinturón de seguridad?
Tanto el enfoque clásico como el enfoque empírico conducen a valores objetivos
de probabilidad, en el sentido de que los valores de probabilidad indican al largo
plazo la tasa relativa de ocurrencia del evento.
El Enfoque Subjetivo:
Dice que la probabilidad de ocurrencia de un evento es el grado de creencia por
parte de un individuo de que un evento ocurra, basado en toda la evidencia a su
disposición. Bajo esta premisa se puede decir que este enfoque es adecuado
cuando solo hay una oportunidad de ocurrencia del evento. Es decir, que el evento
ocurrirá o no ocurrirá esa sola vez. El valor de probabilidad bajo este enfoque es
un juicio personal.
Se define como cálculo de probabilidad alconjunto de reglas que permiten
determinar si un fenómeno ha de producirse, fundando la suposición en el cálculo,
las estadísticas o la teoría. Existen diversas formas como método abstracto, como
la teoría Dempster-Shafer y la numérica, esta última con un alto grado de
aceptación si se toma en cuenta que disminuye considerablemente las
posibilidades hasta un nivel mínimo ya que somete a todas las antiguas reglas a
una simple ley de relatividad.
La probabilidad de un evento se denota con la letra p y se expresa en términos de
una fracción y no en porcentajes, por lo que el valor de p cae entre 0 y 1. Por otra
parte, la probabilidad de que un evento "no ocurra" equivale a 1 menos el valor de
p y se denota con la letra q:
METODOS PARA CALCUAR LA PROBABILIDAD
Regla de la Adición:
La regla de la adición o regla de la suma establece que la probabilidad de
ocurrencia de cualquier evento en particular es igual a la suma de las
probabilidades individuales, si es que los eventos son mutuamente excluyentes, es
decir, que dos no pueden ocurrir al mismo tiempo.
La Regla de la Adición expresa que: la probabilidad de ocurrencia de al menos dos
sucesos A y B es igual a:
P(A o B) = P(A) U P(B) = P(A) + P(B) si A y B son mutuamente excluyente
P(A o B) = P(A) + P(B) – P(A y B) si A y B son no excluyentes
Siendo: P(A) = probabilidad de ocurrencia del evento A
P(B) = probabilidad de ocurrencia del evento B
P(A y B) = probabilidad de ocurrencia simultanea de los eventos A y B
Regla de la Multiplicación:
La regla de la multiplicaciónestablece que la probabilidad de ocurrencia de dos o
más eventos estadísticamente independientes es igual al producto de sus
probabilidades individuales.
Se relacionan con la determinación de la ocurrencia de conjunta de dos o más
eventos. Es decir la intersección entre los conjuntos de los posibles valores de A y
los valores de B, esto quiere decir que la probabilidad de que ocurran
conjuntamente los eventos A y B es:
P(A y B) = P(A B) = P(A)P(B) si A y B son independientes
P(A y B) = P(A B) = P(A)P(B|A) si A y B son dependientes
P(A y B) = P(A B) = P(B)P(A|B) si A y B son dependientes
Distribución Binomial:
La probabilidad de ocurrencia de una combinación específica de eventos
independientes y mutuamente excluyentes se determina con la distribución
binomial, que es aquella donde hay solo dos posibilidades, tales como
masculino/femenino o si/no.
APLICACIONES DE LA PROBABILIDAD
Dos aplicaciones principales de la teoría de la probabilidad en el día a día son en
el análisis de riesgo y en el comercio de los mercados de materias primas. Los
gobiernos normalmente aplican métodos probabilísticos en regulación ambiental
donde se les llama "análisis de vías de dispersión", y a menudo miden el bienestar
usando métodos que son estocásticos por naturaleza, y escogen qué proyectos
emprender basándose en análisis estadísticos de su probable efecto en la
población como un conjunto.
No es correcto decir que la estadística está incluida en el propio modelado, ya que
típicamente los análisis de riesgo son para una única vez y por lotanto requieren
más modelos de probabilidad fundamentales, por ej. "la probabilidad de otro 11-S".
Una ley de números pequeños tiende a aplicarse a todas aquellas elecciones y
percepciones del efecto de estas elecciones, lo que hace de las medidas
probabilísticas un tema político. Un buen ejemplo es el efecto de la probabilidad
percibida de cualquier conflicto generalizado sobre los precios del petróleo en
Oriente Medio - que producen un efecto dominó en la economía en conjunto. Un
cálculo por un mercado de materias primas en que la guerra es más probable en
contra de menos probable probablemente envía los precios hacia arriba o hacia
abajo e indica a otros comerciantes esa opinión. Por consiguiente, las
probabilidades no se calculan independientemente y tampoco son necesariamente
muy racionales. La teoría de las finanzas conductuales surgió para describir el
efecto de este pensamiento de grupo en el precio, en la política, y en la paz y en
los conflictos. Se puede decir razonablemente que el descubrimiento de métodos
rigurosos para calcular y combinar los cálculos de probabilidad ha tenido un
profundo efecto en la sociedad moderna. Por consiguiente, puede ser de alguna
importancia para la mayoría de los ciudadanos entender cómo se calculan los
pronósticos y las probabilidades, y cómo contribuyen a la reputación y a las
decisiones, especialmente en una democracia. Otra aplicación significativa de la
teoría de la probabilidad en el día a día es en la fiabilidad. Muchos bienes de
consumo, como los automóviles y la electrónica deconsumo, utilizan la teoría de la
fiabilidad en el diseño del producto para reducir la probabilidad de avería. La
probabilidad de avería también está estrechamente relacionada con la garantía del
producto.
Se puede decir que no existe una cosa llamada probabilidad. También se puede
decir que la probabilidad es la medida de nuestro grado de incertidumbre, o esto
es, el grado de nuestra ignorancia dada una situación. Por consiguiente, puede
haber una probabilidad de 1 entre 52 de que la primera carta en una baraja sea la
J de diamantes. Sin embargo, si uno mira la primera carta y la reemplaza,
entonces la probabilidad es o bien 100% ó 0%, y la elección correcta puede ser
hecha con precisión por el que ve la carta. La física moderna proporciona
ejemplos importantes de situaciones determinísticas donde sólo la descripción
probabilística es factible debido a información incompleta y la complejidad de un
sistema así como ejemplos de fenómenos realmente aleatorios. En un universo
determinista, basado en los conceptos newtonianos, no hay probabilidad si se
conocen todas las condiciones. En el caso de una ruleta, si la fuerza de la mano y
el periodo de esta fuerza es conocida, entonces el número donde la bola parará
será seguro.
Naturalmente, esto también supone el conocimiento de la inercia y la fricción de la
ruleta, el peso, lisura y redondez de la bola, las variaciones en la velocidad de la
mano durante el movimiento y así sucesivamente. Una descripción probabilística
puede entonces ser más práctica que la mecánica newtoniana paraanalizar el
modelo de las salidas de lanzamientos repetidos de la ruleta.
Los físicos se encuentran con la misma situación en la teoría cinética de los
gases, donde el sistema determinístico en principio, es tan complejo (con el
número de moléculas típicamente del orden de magnitud de la constante de
Avogadro ) que sólo la descripción estadística de sus propiedades es viable.
La mecánica cuántica, debido al principio de indeterminación de Heisenberg, sólo
puede ser descrita actualmente a través de distribuciones de probabilidad, lo que
le da una gran importancia a las descripciones probabilísticas. Algunos científicos
hablan de la expulsión del paraíso.
Otros no se conforman con la pérdida del determinismo. Albert Einstein comentó
estupendamente en una carta a Max Born: Jedenfalls bin ich überzeugt, daß der
Alte nicht würfelt. (Estoy convencido de que Dios no tira el dado).
No obstante hoy en día no existe un medio mejor para describir la física cuántica si
no es a través de la teoría de la probabilidad. Mucha gente hoy en día confunde el
hecho de que la mecánica cuántica se describe a través de distribuciones de
probabilidad con la suposición de que es por ello un proceso aleatorio, cuando la
mecánica cuántica es probabilística no por el hecho de que siga procesos
aleatorios sino por el hecho de no poder determinar con precisión sus parámetros
fundamentales, lo que imposibilita la creación de un sistema de ecuaciones
determinista.
Investigación Biomédica:
La mayoría de las investigaciones biomédicas utilizan muestras deprobabilidad, es
decir, aquellas que el investigador pueda especificar la probabilidad de cualquier
elemento en la población que investiga. Las muestras de probabilidad permiten
usar estadísticas inferenciales, aquellas que permiten hacer inferencias a partir de
datos. Por otra parte, las muestras no probabilísticas solo permiten usarse
estadísticas descriptivas, aquellas que solo permiten describir, organizar y resumir
datos. Se utilizan cuatro tipos de muestras probabilísticas: muestras aleatorias
simples, muestras aleatorias estratificadas, muestra por conglomerados y
muestras sistemáticas.
EL VALOR DE LA PROBABILIDAD
El valor más pequeño que puede tener la probabilidad de ocurrencia de un evento
es igual a 0, el cual indica que el evento es imposible, y el valor mayor es 1, que
indica que el evento ciertamente ocurrirá. Entonces si decimos que P(A) es la
probabilidad de ocurrencia de un evento A y P(A´ ) la probabilidad de no-
ocurrencia de A, tenemos que:
Eventos mutuamente excluyentes y eventos no excluyentes
Dos o más eventos son mutuamente excluyentes o disjuntos, si no pueden ocurrir
simultáneamente. Es decir, la ocurrencia de un evento impide automáticamente la
ocurrencia del otro evento (o eventos).Ejemplo 1:
Al lanzar una moneda solo puede ocurrir que salga cara o cruz pero no los dos a
la vez, esto quiere decir que estos eventos son excluyentes. Dos o más eventos
son no excluyentes, o conjuntos, cuando es posible que ocurran ambos. Esto no
indica que necesariamente deban ocurrir estos eventos en forma simultánea.
Ejemplo 2:
Si consideramos en un juego de domino sacar al menos un blanco y un seis, estos
eventos son no excluyentes porque puede ocurrir que salga el seis blanco.
Eventos Independientes:
Dos o más eventos son independientes cuando la ocurrencia o no-ocurrencia de
un evento no tiene efecto sobre la probabilidad de ocurrencia del otro evento (o
eventos). Un caso típico de eventos independiente es el muestreo con reposición,
es decir, una vez tomada la muestra se regresa de nuevo a la población donde se
obtuvo.
Ejemplo:
Lanzar al aire dos veces una moneda son eventos independientes por que el
resultado del primer evento no afecta sobre las probabilidades efectivas de que
ocurra cara o sello, en el segundo lanzamiento.
Eventos Dependientes:
Dos o más eventos serán dependientes cuando la ocurrencia o no-ocurrencia de
uno de ellos afecta la probabilidad de ocurrencia del otro (o otros). Cuando
tenemos este caso, empleamos entonces, el concepto de probabilidad condicional
para denominar la probabilidad del evento relacionado. La expresión P(A|B) indica
la probabilidad de ocurrencia del evento A sí el evento B ya ocurrió.
Se debe tener claro que A|B no es una fracción.
P(A|B) = P(A y B)/P(B) o P(B|A) = P(A y B)/P(A)
DISTRIBUCION DE LA PROBABILIDAD
Distribución de Probabilidad Normal:
Es una distribución de probabilidad continua que es tanto simétrica como
mesocurtica. La curva que representa la distribución de probabilidad normal se
describe generalmente como en forma de campana. Esta distribución es
importante eninferencia estadística por tres razones diferentes:
1. Se sabe que las medidas producidas en muchos procesos aleatorios siguen
esta distribución.
2. Las probabilidades normales pueden utilizarse generalmente para aproximar
otras distribuciones de probabilidad, tales como las distribuciones binomial y de
Poisson.
3. Las distribuciones estadísticas tales como la media de la muestra y la
proporción de la muestra, siguen a menudo la distribución normal, sin tener en
cuenta la distribución de la población. Los valores de los parámetros de la
distribución de probabilidad normal son = 0 y = 1. Cualquier conjunto de valores X
normalmente distribuido pueden convertirse en valores normales estándar z por
medio de la formula:
Haciendo posible el uso de la tabla de proporciones de área y hace innecesario el
uso de la ecuación de la función de densidad de cualquier distribución normal
dada.
Para aproximar las distribuciones discretas binomial y de Poisson se debe hacer:
BINOMINIAL | np | np(1-p) | Si n > 30.np > 5 n(1-p) > 5 |
POISSON | | | > 10 |
Distribución de Probabilidad Exponencial
Si en el contexto de un proceso de Poisson ocurren eventos o éxitos en un
espectro continuo de tiempo y espacio. Entonces la longitud del espacio o tiempo
entre eventos sucesivos sigue una distribución de probabilidad exponencial.
Puesto que el tiempo y el espacio son un espectro continuo, esta es una
distribución continua.
En caso de este tipo de distribución no vale la pena preguntarse ¿cuál es la
probabilidad de que elprimer pedido de servicio se haga exactamente de aquí a un
minuto? Más bien debemos asignar un intervalo dentro del cual el evento puede
ocurrir, preguntándonos, ¿cuál es la probabilidad de que el primer pedido se
produzca en el próximo minuto?
Dado que el proceso de Poisson es estacionario, la distribución exponencial se
aplica ya sea cuando estamos interesados en el tiempo (o espacio) hasta el primer
evento, el tiempo entre dos eventos sucesivos, o el tiempo hasta que ocurra el
primer evento después de cualquier punto aleatoriamente seleccionado.
Donde es la cifra media de ocurrencias para el intervalo de interés, la probabilidad
exponencial de que el primer evento ocurra dentro del intervalo designado de
tiempo o espacio es.
P (T < t) = 1 - e –
De manera que la probabilidad exponencial de que el primer evento no ocurra
dentro del intervalo designado de tiempo o espacio es:
P (T > t) = e –
Ejemplo:
Un departamento de mantenimiento recibe un promedio de 5 llamadas por hora.
Comenzando en un momento aleatoriamente seleccionado, la probabilidad de que
una llamada llegue dentro de media hora es:
Promedio 5 por hora, como el intervalo es media hora tenemos que = 2,5/media
hora.
P (T < 30 min.) = 1- e -5 = 1 - 0,08208 = 0,91792
EJEMPLOS DE LA TEORIA DE PROBABILIDAD
Si analizamos detalladamente el ejemplo, podemos apreciar:
Un experimento aleatorio, lanzar una moneda al aire. Unos resultados puntuales,
sale cara o sale cruz y no podemos tener la certeza de antemano de que sea cara
o sea cruz.
Unas asignaciones deprobabilidad a cada uno de los resultados, que se basan en
el sentido común y en nuestra experiencia previa. Vamos a definir de manera más
precisa cada uno de los elementos que intervienen:
Experimento aleatorio: Es el experimento que se caracteriza porque su desarrollo
no es previsible con certidumbre.
Espacio muestral: Asociado a un experimento aleatorio es el conjunto de todos los
resultados que se pueden obtener al realizar el experimento. Lo designamos con
la letra E y colocamos sus elementos entre llaves y separados por comas.
Suceso: De un experimento aleatorio es cada uno de los subconjuntos del espacio
muestral E. Los designamos por letras mayúsculas: A,B,C,..., ponemos sus
elementos entre llaves y separados por comas.
Observación: Un resultado concreto de un experimento es un elemento del
espacio muestral asociado al experimento, conceptualmente suceso y resultado
son dos cosas distintas. Los resultados de un experimento aleatorio se suelen
representar con letras minúsculas, los sucesos con letras mayúsculas.
En el ejemplo anterior, el suceso A ocurre siempre que el resultado del
experimento sea el elemento 2, el elemento 4 o el elemento 6.
La confusión entre suceso y resultado se debe a que cuando el suceso es: " que al
lanzar un dado salga 2" y el resultado:"sale un dos al lanzar el dado", sólo ocurre
el suceso cuando el resultado es 2.
Suceso: "Sale un dos" es el subconjunto {2} del espacio muestral
Resultado: "Sale un dos" es el elemento 2 del espacio muestral
Funciones de distribución: El paso siguientees asignar (distribuir) probabilidades.
Las definiciones que siguen están motivadas por el ejemplo del lanzamiento de
una moneda, recordamos que en ese ejemplo a cada resultado del espacio
muestral le asignábamos un número no negativo tal que la suma de todos los
números asignados a cada resultado deberá ser 1.
Definición: Sea X una variable que representa a los posibles resultados de un
experimento aleatorio, en principio vamos a asumir que este experimento tiene
sólo un número finito de posibles resultados. Sea E, el espacio muestral del
experimento. Una función de distribución para X es una función real f cuyo dominio
es E y que satisface:
Ejemplo:
Sean tres equipos de futbol, a, b y c que se presentan a un torneo de verano, sólo
uno ganará el torneo. El espacio muestral es el conjunto de tres elementos,
E={a,b,c}, donde cada elemento corresponde al triunfo de cada uno de los
equipos. Suponemos que a y b tienen las mismas posibilidades de ganar y c tiene
solamente la mitad de las posibilidades de ganar que a. Debemos asignar
probabilidades de modo que :
Sea el suceso A, "gana el trofeo el equipo a‖; el suceso B, "gana el trofeo el
equipo b" y el suceso C, "gana el trofeo el equipo c". En el lenguaje de la teoría de
conjuntos:
En este último caso se puede apreciar como un suceso se puede describir en
términos de otros sucesos utilizando las construcciones estándar de la teoría de
conjuntos.
Las representaciones gráficas de las construcciones de la teoría de conjuntos se
llaman diagramas de Venn. En ocasiones es muyconveniente para resolver un
problema de probabilidad hacer la representación gráfica del espacio muestral y
de los sucesos (subconjuntos del espacio muestral) que intervienen en el
problema
Operaciones Con Sucesos:
Sucesos Compatibles e Incompatibles
Suceso Contrario
Dado un suceso A, se llama suceso contrario de A a un suceso que se verifica
cuando no se verifica A.
Diferencia de Sucesos
Leyes de De Morgan
Se pueden comprobar gráficamente.
Teorema 1. Propiedades Básicas
Las probabilidades asignadas a cada suceso por una función de distribución
definida sobre un espacio muestral E de un experimento aleatorio, verifican las
siguientes propiedades:
Teorema 2.
Si A y B son subconjuntos de E, entonces:
Sistema completo de sucesos.
Regla de Laplace.
Si en un experimento aleatorio todos los sucesos elementales son equiprobables,
la probabilidad de un suceso A se obtiene dividiendo el número de resultados que
forman el suceso A entre el número de resultados posibles.
Si llamamos casos favorables a los resultados que forman el suceso A y casos
posibles a los resultados posibles del experimento, tenemos:
Probabilidad Condicionada
En un concurso de televisión, se dispone de 20 coches, para premiar al
concursante, de las marcas y colores que se indican en la siguiente tabla:
| Rojo | Azul | Totales |
SeatPanda | 2 | 8 | 10 |
SeatToledo | 7 | 3 | 10 |
Totales | 9 | 11 | 20 |
Los coches están colocados aleatoriamente, tras 20 puertas, de forma que el
concursante no ve el coche que hay detrás de cada puerta.El concursante elige un
número, entre 1 y 20, y si acierta la marca y el color del coche que hay en la
puerta elegida, gana, en caso contrario pierde.
El concurso lo podemos considerar como un experimento aleatorio. Cada
resultado es el coche elegido.
Para describir fácilmente todo el proceso vamos a considerar:
Suceso P : | El coche es un Seat Panda |
Suceso T : | El coche es un Seat Toledo |
Suceso R : | El coche es de color rojo |
Suceso A : | El coche es de color azul |
Así el suceso: "Seat Toledo de color rojo" lo representamos por : T ∩ R y la
probabilidad de este suceso, sigue de la tabla :
| Rojo | Azul | Totales |
SeatPanda | 2 | 8 | 10 |
SeatToledo | 7 | 3 | 10 |
Totales | 9 | 11 | 20 |
P (T ∩ R) = 7/20
La probabilidad de que el coche sea un Seat Toledo es:
| Rojo | Azul | Totales |
SeatPanda | 2 | 8 | 10 |
SeatToledo | 7 | 3 | 10 |
Totales | 9 | 11 | 20 |
P (T)=10/20 = ½
¿Qué ocurre si, una vez que el concursante ha elegido puerta, el presentador, le
da la pista de que el coche que hay tras la puerta es rojo?. Tendremos que
cambiar la probabilidad al suceso T y al suceso P. A la probabilidad del suceso T
cuando se sabe que ha ocurrido R, le llamamos probabilidad condicionada de T,
sabiendo que ha ocurrido R y escribimos (T/R)
Para asignar las nuevas probabilidades hemos de ser consecuentes con las
propiedades que debe cumplir toda asignación de probabilidades. El nuevo
espacio muestral es el señalado en rojo en la tabla siguiente. Por tanto asignamos
así las probabilidades:
|Rojo | Azul | Totales |
SeatPanda | 2 | 8 | 10 |
SeatToledo | 7 | 3 | 10 |
Totales | 9 | 11 | 20 |
P (T/R) = 7/9 ; P(P/R) = 2/9
De la tabla anterior, siguen fácilmente las siguientes relaciones:
Consideremos ahora el siguiente experimento : Dos urnas, A y B ,la urna A,
contiene 3 bolas verdes y 2 bolas rojas, la urna B contiene 2 bolas verdes y 3
bolas rojas.
Se realiza el experimento en dos tiempos, primero se selecciona urna por un
procedimiento aleatorio y posteriormente de la urna elegida se extrae una bola.
Para representar, de forma muy adecuada, este tipo de experimentos, se realiza
un esquema, llamado: árbol de probabilidades.
Cada flecha del diagrama se denomina rama del árbol; a cada rama, asignamos la
probabilidad que le corresponde. Un recorrido, desde el comienzo del experimento
hasta el final, se llama un camino. Si sabemos que ha ocurrido el suceso A,
tenemos que volver a asignar probabilidades a los distintos caminos; todos los
caminos que comienzan por el suceso B, tendrán probabilidad 0 y los que
empiezan por el suceso A:
Hay que aceptar por tanto las mismas relaciones entre probabilidades a las que
habíamos llegado en el experimento anterior:
Para concretar tenemos que admitir la siguiente definición:
Definición 1. Probabilidad condicionada
De un suceso R sabiendo que ha ocurrido otro A
Y dos teoremas:
Teorema 1. Regla del Producto
De la definición 1, despejando, sigue que:
Si A y B forman un sistema completo de sucesos, la probabilidad de cualquier otro
Teorema 2.Probabilidad Total
Sucesos Dependientes
Dos sucesos son dependientes si el resultado de uno influye en el otro. Los
sucesos A y B son dependientes si y sólo si P(A) es distinto de P(A/B) y P(B) es
distinto de P(B/A
Sucesos Independientes
Dos sucesos son independientes si el resultado de uno no influye en el resultado
del otro. Los sucesos A y B son independientes si y sólo si P(A)=P(A/B) y
P(B)=P(B/A).
Probabilidades a posteriori. Teorema de Bayes.
Vamos a considerar de nuevo, el experimento de las urnas A y B, que contienen
bolas verdes y rojas:
Si sabemos que ha salido una bola roja, los caminos posibles en el árbol de
probabilidades, quedan reducidos a dos, los señalados en rojo en la imagen
anterior; tenemos que reasignar probabilidades, todos los caminos que terminan
en bola verde, deberán tener probabilidad 0. ¿Cómo asignamos probabilidades a
los caminos que conducen a bola roja?
En resumen podemos enunciar el siguiente resultado:
Teorema de Bayes o de las probabilidades a posteriori.
DEFINIR LOS CONCEPTOS DE ESPACIO MUESTRAL, EVENTOS,
RELACIONES ENTRE EVENTOS Y FAMILIA DE EVENTOS.
Espacio Muestral: Es el conjunto de todos los resultados posibles de un
experimento aleatorio. El conjunto de todos los resultados posibles pueden ser
finito, infinito numerable o infinito no numerables. Espacio muestral Discreto y
continuo.
Eventos: Son subconjuntos del espacio muestral
Relaciones entre eventos y familia de eventos:
AUB = ― Suceso A o el Suceso B o ambos
AB) = ― El suceso A y B ―
AB = Ф ― Son Sucesos excluyentes mutuamente, es decir no tienen
elementos comunes‖
A = ― El Suceso no A ―
A –B = Todos los elementos de A siempre y cuando no estén en B
CONCLUSION
La probabilidad mide la frecuencia con la que se obtiene un resultado al llevar a cabo un
experimento aleatorio, del que se conocen todos los resultados posibles, bajo condiciones
suficientemente estables. La teoría de la probabilidad se usa extensamente en áreas
como la estadística, la física, la matemática, la ciencia y la filosofía para sacar
conclusiones sobre la probabilidad de sucesos potenciales y la mecánica subyacente de
sistemas complejos.
La probabilidad constituye un importante parámetro en ladeterminación de las diversas
casualidades obtenidas tras una serie de eventos esperados dentro de un rango
estadístico. Dos aplicaciones principales de la teoría de la probabilidad en el día a día son
en el análisis de riesgo y en el comercio de los mercados de materias primas.
Los gobiernos normalmente aplican métodos probabilísticos en regulación ambiental
donde se les llama "análisis de vías de dispersión", y a menudo miden el bienestar usando
métodos que son estocásticos por naturaleza, y escogen qué proyectos emprender
basándose en análisis estadísticos de su probable efecto en la población como un
conjunto. No es correcto decir que la estadística está incluida en el propio modelado, ya
que típicamente los análisis de riesgo son para una única vez y por lo tanto requieren más
modelos de probabilidad fundamentales, por ej. "la probabilidad de otro 11-S". Una ley de
números pequeños tiende a aplicarse a todas aquellas elecciones y percepciones del
efecto de estas elecciones, lo que hace de las medidas probabilísticas un tema político.
Otra aplicación significativa de la teoría de la probabilidad en el día a día es en la
fiabilidad. Muchos bienes de consumo, como los automóviles y la electrónica de consumo,
utilizan la teoría de la fiabilidad en el diseño del producto para reducir la probabilidad de
avería. La probabilidad de avería también está estrechamente relacionada con la garantía
del producto.
BIBLIOGRAFIA
www.wikipedia.com
www.rincondelvago.com
www.metodosestadisticos.com
http://eadsaia.uft.edu.ve/psm/file.php/1868/Teoria_de_la_Probabilidad.pdf
www.buenastareas.com

Más contenido relacionado

La actualidad más candente

Pruebas de hipotesis
Pruebas de hipotesisPruebas de hipotesis
Pruebas de hipotesis
eraperez
 
Fundamentos de probabilidad regla de la multiplicación
Fundamentos de probabilidad regla de la multiplicaciónFundamentos de probabilidad regla de la multiplicación
Fundamentos de probabilidad regla de la multiplicación
Gerardo Valdes Bermudes
 
Distribución Probabilidad (Variable Aleatoria Discreta)
Distribución Probabilidad (Variable Aleatoria Discreta)Distribución Probabilidad (Variable Aleatoria Discreta)
Distribución Probabilidad (Variable Aleatoria Discreta)
Daniel Gómez
 

La actualidad más candente (20)

Pruebas de hipotesis
Pruebas de hipotesisPruebas de hipotesis
Pruebas de hipotesis
 
Hipotesis2
Hipotesis2Hipotesis2
Hipotesis2
 
Modelos probabilísticos
Modelos probabilísticosModelos probabilísticos
Modelos probabilísticos
 
Fundamentos de probabilidad regla de la multiplicación
Fundamentos de probabilidad regla de la multiplicaciónFundamentos de probabilidad regla de la multiplicación
Fundamentos de probabilidad regla de la multiplicación
 
Cálculo De Probabilidades
Cálculo De ProbabilidadesCálculo De Probabilidades
Cálculo De Probabilidades
 
Ejercicio correlacion regresion1 (3) (1)
Ejercicio correlacion regresion1 (3) (1)Ejercicio correlacion regresion1 (3) (1)
Ejercicio correlacion regresion1 (3) (1)
 
Explicación de distribuciones
Explicación de distribucionesExplicación de distribuciones
Explicación de distribuciones
 
Presentación Distribución de Probabilidad
Presentación Distribución de ProbabilidadPresentación Distribución de Probabilidad
Presentación Distribución de Probabilidad
 
Distribuciones de probabilidad
Distribuciones de probabilidadDistribuciones de probabilidad
Distribuciones de probabilidad
 
Mapa conceptual tipos de distribuciones de probabilidad
Mapa conceptual   tipos de distribuciones de probabilidadMapa conceptual   tipos de distribuciones de probabilidad
Mapa conceptual tipos de distribuciones de probabilidad
 
Variables aleatorias
Variables aleatoriasVariables aleatorias
Variables aleatorias
 
Distribuciones Continuas de Probabilidad
Distribuciones Continuas de ProbabilidadDistribuciones Continuas de Probabilidad
Distribuciones Continuas de Probabilidad
 
estimacion
estimacionestimacion
estimacion
 
Distribución Probabilidad (Variable Aleatoria Discreta)
Distribución Probabilidad (Variable Aleatoria Discreta)Distribución Probabilidad (Variable Aleatoria Discreta)
Distribución Probabilidad (Variable Aleatoria Discreta)
 
Probabilidad
ProbabilidadProbabilidad
Probabilidad
 
Método de lagrange
Método de lagrangeMétodo de lagrange
Método de lagrange
 
Funciones y modelos matematicos
Funciones y modelos matematicosFunciones y modelos matematicos
Funciones y modelos matematicos
 
Fundamentos de probabilidad
Fundamentos de probabilidadFundamentos de probabilidad
Fundamentos de probabilidad
 
Ensayo de teoria de probabilidad estadistica
Ensayo de teoria de probabilidad estadisticaEnsayo de teoria de probabilidad estadistica
Ensayo de teoria de probabilidad estadistica
 
18. Regresión Lineal
18. Regresión Lineal18. Regresión Lineal
18. Regresión Lineal
 

Similar a TEORIA DE LA PROBABILIDAD. AUTOR: ELI ANGULO

Ensayo DE TEORIA DE PROBABILIDAD
Ensayo DE TEORIA DE PROBABILIDADEnsayo DE TEORIA DE PROBABILIDAD
Ensayo DE TEORIA DE PROBABILIDAD
adrianalonzo
 
Estadistica tercer corte.......................
Estadistica tercer corte.......................Estadistica tercer corte.......................
Estadistica tercer corte.......................
norenelson
 
Ensayo probabilidad
Ensayo probabilidadEnsayo probabilidad
Ensayo probabilidad
maykeljunior
 
Ensayo de estadistica 1
Ensayo de estadistica 1Ensayo de estadistica 1
Ensayo de estadistica 1
lisdey20
 
Teoria de probabilidadades
Teoria de probabilidadadesTeoria de probabilidadades
Teoria de probabilidadades
Ale Almarza
 
Ensayo de estadistica manuel suarez
Ensayo de estadistica manuel suarezEnsayo de estadistica manuel suarez
Ensayo de estadistica manuel suarez
manuel0716
 

Similar a TEORIA DE LA PROBABILIDAD. AUTOR: ELI ANGULO (20)

Ensayo DE TEORIA DE PROBABILIDAD
Ensayo DE TEORIA DE PROBABILIDADEnsayo DE TEORIA DE PROBABILIDAD
Ensayo DE TEORIA DE PROBABILIDAD
 
Teoria de la probabilidad estadistica
Teoria de la probabilidad estadisticaTeoria de la probabilidad estadistica
Teoria de la probabilidad estadistica
 
Teoria de la Probabilidad
Teoria de la ProbabilidadTeoria de la Probabilidad
Teoria de la Probabilidad
 
Probabilidad y-distribucion
Probabilidad y-distribucionProbabilidad y-distribucion
Probabilidad y-distribucion
 
Estadistica tercer corte.......................
Estadistica tercer corte.......................Estadistica tercer corte.......................
Estadistica tercer corte.......................
 
Teoria de la probabilidad
Teoria de la probabilidadTeoria de la probabilidad
Teoria de la probabilidad
 
Teoría de las probabilidades
Teoría de las probabilidadesTeoría de las probabilidades
Teoría de las probabilidades
 
Ensayo probabilidad
Ensayo probabilidadEnsayo probabilidad
Ensayo probabilidad
 
Probabilidad_y_Estadistica_Fundamentos_d.pdf
Probabilidad_y_Estadistica_Fundamentos_d.pdfProbabilidad_y_Estadistica_Fundamentos_d.pdf
Probabilidad_y_Estadistica_Fundamentos_d.pdf
 
Ensayo de teoria de probabilidad
Ensayo de teoria de probabilidad Ensayo de teoria de probabilidad
Ensayo de teoria de probabilidad
 
Ensayo de estadistica 1
Ensayo de estadistica 1Ensayo de estadistica 1
Ensayo de estadistica 1
 
Ensayo de la teoria de la probabilidad yarisnet suarez
Ensayo de la teoria de la probabilidad yarisnet suarez Ensayo de la teoria de la probabilidad yarisnet suarez
Ensayo de la teoria de la probabilidad yarisnet suarez
 
Informacion teoría de probabilidad.
Informacion teoría de probabilidad.Informacion teoría de probabilidad.
Informacion teoría de probabilidad.
 
Teoria de la probabilidad
Teoria de la probabilidadTeoria de la probabilidad
Teoria de la probabilidad
 
Teoria de la probabilidad
Teoria de la probabilidadTeoria de la probabilidad
Teoria de la probabilidad
 
teoria de la probabilidad
teoria de la probabilidadteoria de la probabilidad
teoria de la probabilidad
 
Teoria de probabilidadades
Teoria de probabilidadadesTeoria de probabilidadades
Teoria de probabilidadades
 
Teoria de probabilidadades
Teoria de probabilidadadesTeoria de probabilidadades
Teoria de probabilidadades
 
Ensayo de la teoría de la Probabilidad
Ensayo de la teoría de la Probabilidad Ensayo de la teoría de la Probabilidad
Ensayo de la teoría de la Probabilidad
 
Ensayo de estadistica manuel suarez
Ensayo de estadistica manuel suarezEnsayo de estadistica manuel suarez
Ensayo de estadistica manuel suarez
 

Último

FORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURA
FORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURAFORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURA
FORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURA
El Fortí
 
2 REGLAMENTO RM 0912-2024 DE MODALIDADES DE GRADUACIÓN_.pptx
2 REGLAMENTO RM 0912-2024 DE MODALIDADES DE GRADUACIÓN_.pptx2 REGLAMENTO RM 0912-2024 DE MODALIDADES DE GRADUACIÓN_.pptx
2 REGLAMENTO RM 0912-2024 DE MODALIDADES DE GRADUACIÓN_.pptx
RigoTito
 
TALLER DE DEMOCRACIA Y GOBIERNO ESCOLAR-COMPETENCIAS N°3.docx
TALLER DE DEMOCRACIA Y GOBIERNO ESCOLAR-COMPETENCIAS N°3.docxTALLER DE DEMOCRACIA Y GOBIERNO ESCOLAR-COMPETENCIAS N°3.docx
TALLER DE DEMOCRACIA Y GOBIERNO ESCOLAR-COMPETENCIAS N°3.docx
NadiaMartnez11
 

Último (20)

FUERZA Y MOVIMIENTO ciencias cuarto basico.ppt
FUERZA Y MOVIMIENTO ciencias cuarto basico.pptFUERZA Y MOVIMIENTO ciencias cuarto basico.ppt
FUERZA Y MOVIMIENTO ciencias cuarto basico.ppt
 
Los avatares para el juego dramático en entornos virtuales
Los avatares para el juego dramático en entornos virtualesLos avatares para el juego dramático en entornos virtuales
Los avatares para el juego dramático en entornos virtuales
 
CONCURSO NACIONAL JOSE MARIA ARGUEDAS.pptx
CONCURSO NACIONAL JOSE MARIA ARGUEDAS.pptxCONCURSO NACIONAL JOSE MARIA ARGUEDAS.pptx
CONCURSO NACIONAL JOSE MARIA ARGUEDAS.pptx
 
FORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURA
FORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURAFORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURA
FORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURA
 
Tema 11. Dinámica de la hidrosfera 2024
Tema 11.  Dinámica de la hidrosfera 2024Tema 11.  Dinámica de la hidrosfera 2024
Tema 11. Dinámica de la hidrosfera 2024
 
Prueba de evaluación Geografía e Historia Comunidad de Madrid 4ºESO
Prueba de evaluación Geografía e Historia Comunidad de Madrid 4ºESOPrueba de evaluación Geografía e Historia Comunidad de Madrid 4ºESO
Prueba de evaluación Geografía e Historia Comunidad de Madrid 4ºESO
 
SEXTO SEGUNDO PERIODO EMPRENDIMIENTO.pptx
SEXTO SEGUNDO PERIODO EMPRENDIMIENTO.pptxSEXTO SEGUNDO PERIODO EMPRENDIMIENTO.pptx
SEXTO SEGUNDO PERIODO EMPRENDIMIENTO.pptx
 
ACERTIJO DE POSICIÓN DE CORREDORES EN LA OLIMPIADA. Por JAVIER SOLIS NOYOLA
ACERTIJO DE POSICIÓN DE CORREDORES EN LA OLIMPIADA. Por JAVIER SOLIS NOYOLAACERTIJO DE POSICIÓN DE CORREDORES EN LA OLIMPIADA. Por JAVIER SOLIS NOYOLA
ACERTIJO DE POSICIÓN DE CORREDORES EN LA OLIMPIADA. Por JAVIER SOLIS NOYOLA
 
Tema 10. Dinámica y funciones de la Atmosfera 2024
Tema 10. Dinámica y funciones de la Atmosfera 2024Tema 10. Dinámica y funciones de la Atmosfera 2024
Tema 10. Dinámica y funciones de la Atmosfera 2024
 
2 REGLAMENTO RM 0912-2024 DE MODALIDADES DE GRADUACIÓN_.pptx
2 REGLAMENTO RM 0912-2024 DE MODALIDADES DE GRADUACIÓN_.pptx2 REGLAMENTO RM 0912-2024 DE MODALIDADES DE GRADUACIÓN_.pptx
2 REGLAMENTO RM 0912-2024 DE MODALIDADES DE GRADUACIÓN_.pptx
 
ACRÓNIMO DE PARÍS PARA SU OLIMPIADA 2024. Por JAVIER SOLIS NOYOLA
ACRÓNIMO DE PARÍS PARA SU OLIMPIADA 2024. Por JAVIER SOLIS NOYOLAACRÓNIMO DE PARÍS PARA SU OLIMPIADA 2024. Por JAVIER SOLIS NOYOLA
ACRÓNIMO DE PARÍS PARA SU OLIMPIADA 2024. Por JAVIER SOLIS NOYOLA
 
Prueba libre de Geografía para obtención título Bachillerato - 2024
Prueba libre de Geografía para obtención título Bachillerato - 2024Prueba libre de Geografía para obtención título Bachillerato - 2024
Prueba libre de Geografía para obtención título Bachillerato - 2024
 
Abril 2024 - Maestra Jardinera Ediba.pdf
Abril 2024 -  Maestra Jardinera Ediba.pdfAbril 2024 -  Maestra Jardinera Ediba.pdf
Abril 2024 - Maestra Jardinera Ediba.pdf
 
Prueba de evaluación Geografía e Historia Comunidad de Madrid 2º de la ESO
Prueba de evaluación Geografía e Historia Comunidad de Madrid 2º de la ESOPrueba de evaluación Geografía e Historia Comunidad de Madrid 2º de la ESO
Prueba de evaluación Geografía e Historia Comunidad de Madrid 2º de la ESO
 
Interpretación de cortes geológicos 2024
Interpretación de cortes geológicos 2024Interpretación de cortes geológicos 2024
Interpretación de cortes geológicos 2024
 
Supuestos_prácticos_funciones.docx
Supuestos_prácticos_funciones.docxSupuestos_prácticos_funciones.docx
Supuestos_prácticos_funciones.docx
 
SESION DE PERSONAL SOCIAL. La convivencia en familia 22-04-24 -.doc
SESION DE PERSONAL SOCIAL.  La convivencia en familia 22-04-24  -.docSESION DE PERSONAL SOCIAL.  La convivencia en familia 22-04-24  -.doc
SESION DE PERSONAL SOCIAL. La convivencia en familia 22-04-24 -.doc
 
Biografía de Charles Coulomb física .pdf
Biografía de Charles Coulomb física .pdfBiografía de Charles Coulomb física .pdf
Biografía de Charles Coulomb física .pdf
 
TALLER DE DEMOCRACIA Y GOBIERNO ESCOLAR-COMPETENCIAS N°3.docx
TALLER DE DEMOCRACIA Y GOBIERNO ESCOLAR-COMPETENCIAS N°3.docxTALLER DE DEMOCRACIA Y GOBIERNO ESCOLAR-COMPETENCIAS N°3.docx
TALLER DE DEMOCRACIA Y GOBIERNO ESCOLAR-COMPETENCIAS N°3.docx
 
Power Point: Fe contra todo pronóstico.pptx
Power Point: Fe contra todo pronóstico.pptxPower Point: Fe contra todo pronóstico.pptx
Power Point: Fe contra todo pronóstico.pptx
 

TEORIA DE LA PROBABILIDAD. AUTOR: ELI ANGULO

  • 1. REPUBLICA BOLIVARIANA DE VENEZUELA MINISTERIO DEL PODER POPULAR PARA LA EDUCACION SUPERIOR INSTITUTO UNIVERSITARIO POLITECNICO SANTIAGO MARIÑO MARACIBO, EDO. ZULIA CATEDRA: ESTADISTICA I TEORIA DE LA PROBABILIDAD REALIZADO POR: ANGULO ANGULO, ELI JOSE C.I. 20.686.001 CARRERA: ING. ELECTRICA (43)
  • 2. CONTENIDO INTRODUCCION -LA PROBABILIDAD -CRONOLOGIA DE LOS AVANCES DE LA PROBABILIDAD -DEFINICION DE PROBABILIDAD TEORIA DE LA PROBABILIDAD -ENFOQUES DE LA TEORIA DE LA PROBABILIDAD -METODOS PARA CALCULAR LA PROBABILIDAD -APLICACIONES DE LA PROBABILIDAD -EL VALOR DE LA PROBABILIDAD -DISTRIBUCION DE LA PROBABILIDAD -EJEMPLOS DE LA TEORIA DE PROBABILIDAD -DEFINIR LOS CONCEPTOS DE ESPACIO MUESTRAL, EVENTOS, RELACIONES ENTRE EVENTOS Y FAMILIA DE EVENTOS. CONCLUSION BIBLIOGRAFIA
  • 3. INTRODUCCION La probabilidad mide la frecuencia con la que se obtiene un resultado al llevar a cabo un experimento aleatorio, del que se conocen todos los resultados posibles, bajo condiciones suficientemente estables. La teoría de la probabilidad se usa extensamente en áreas como la estadística, la física, la matemática, la ciencia y la filosofía para sacar conclusiones sobre la probabilidad de sucesos potenciales y la mecánica subyacente de sistemas complejos. La teoría de la probabilidad es la parte de las matemáticas que estudia los fenómenos aleatorios. Estos deben contraponerse a los fenómenos determinanticos, los cuales son resultados únicos y/o previsibles de experimentos realizados bajo las mismas condiciones determinadas. Los fenómenos aleatorios, por el contrario, son aquellos que se obtienen como resultado de experimentos realizados, otra vez, bajo las mismas condiciones determinadas pero como resultado posible poseen un conjunto de alternativas, por ejemplo, el lanzamiento de un dado o de un dardo. Los procesos reales que se modelizan como procesos aleatorios pueden no serlo realmente; cómo tirar una moneda o un dado no son procesos de aleación en sentido estricto, ya que no se reproducen exactamente las mismas condiciones iníciales que lo determinan, sino sólo unas pocas. En los procesos reales que se modelizan mediante distribuciones de probabilidad corresponden a modelos complejos donde no se conocen todos los parámetros que intervienen; ésta es una de las razones por las cuales la estadística, que busca determinar estos parámetros, no se reduce inmediatamente a la teoría de la probabilidad en sí. En 1933, el matemático soviético Andréi Kolmogórov propuso un sistema de axiomas para la teoría de la probabilidad, basado en la teoría de conjuntos y en la teoría de la medida, desarrollada pocos años antes por Lebesgue, Borel y Frechet entre otros. Esta aproximación axiomática que generaliza el marco clásico de la probabilidad, la cual obedece a la regla de cálculo de casos favorables sobre casos posibles, permitió la rigorización de muchos argumentos ya utilizados, así como el estudio de problemas fuera de los marcos clásicos. Actualmente, la teoría de la probabilidad encuentra aplicación en las más variadas ramas del conocimiento, como puede ser la física, o las finanzas.
  • 4. LA PROBABILIDAD La probabilidad es la característica de un evento, que existen razones para creer que éste se realizará. La probabilidad p de que suceda un evento S de un total de n casos posibles igualmente probables es igual a la razón entre el número de ocurrencias h de dicho evento (casos favorables) y el número total de casos posibles n. La probabilidad es un número (valor) que varía entre 0 y 1. Cuando el evento es imposible se dice que su probabilidad es 0, si el evento es cierto y siempre tiene que ocurrir su probabilidad es 1. La probabilidad de no ocurrencia de un evento está dada por q, donde: Sabemos que p es la probabilidad de que ocurra un evento y q es la probabilidad de que no ocurra, entonces p + q = 1. Simbólicamente el espacio de resultados, que normalmente se denota por Ω, es el espacio que consiste en todos los resultados que son posibles. Los resultados, que se denota por ω1, ω2, etc. son elementos del espacio Ω. CRONOLOGIA DE LOS AVANCES DE LA PROBABILIDAD 1657-- Christiaan Huygens le dio el tratamiento científico conocido más temprano al concepto. 1713-- Ars Conjectandi, de Jakob Bernoulli y Doctrine of Chances de Abraham de Moivre trataron el tema como una rama de las matemáticas. 1722-- La teoría de errores puede trazarse atrás en el tiempo hasta Opera Miscellanea de Roger Cotes.
  • 5. 1755--Thomas Simpson preparo una memoria impresa en 1756 donde aplicó por primera vez la teoría para la discusión de errores de observación 1757-- La reimpresión de esta memoria expone los axiomas de que los errores positivos y negativos son igualmente probables, y que hay ciertos límites asignables dentro de los cuales se supone que caen todos los errores; se discuten los errores continuos y se da una curva de la probabilidad. 1774--Pierre-Simon Laplace hizo el primer intento para deducir una regla para la combinación de observaciones a partir de los principios de la teoría de las probabilidades. Representó la ley de la probabilidad de error con una curva y = φ(x), siendo x cualquier error e y y su probabilidad, y expuso tres propiedades de esta curva: 1. es simétrica al eje y; 2. el eje x es una asíntota, siendo la probabilidad del error igual a 0; 3. la superficie cerrada es 1, haciendo cierta la existencia de un error. 1778--Daniel Bernoulli introdujo el principio del máximo producto de las probabilidades de un sistema deerrores concurrentes. 1781-- Se obtuvo una fórmula para la ley de facilidad de error (un término debido a Lagrange, 1774), pero una que llevaba a ecuaciones inmanejables. 1805--El método de mínimos cuadrados se debe a Adrien-Marie Legendre, que lo introdujo en su Nouvelles méthodes pour la détermination des orbites des comètes (Nuevos métodos para la determinación de las órbitas de los cometas).
  • 6. 1808--Ignorando la contribución de Legendre, un escritor irlandés estadounidense, Robert Adrain, editor de "The Analyst" , dedujo por primera vez la ley de facilidad de error, Siendo c y h constantes que dependen de la precisión de la observación. Expuso dos demostraciones, siendo la segunda esencialmente la misma de John Herschel 1809--Gauss expuso la primera demostración que parece que se conoció en Europa. Otras demostraciones adicionales también fueron expuestas, en: 1810--Laplace 1816--Sylvestre Lacroix 1823--Gauss 1825--James Ivory 1833--Littrow 1837--Hagen 1838--Friedrich Bessel 1844--W. F. Donkin 1845—Ellis 1853--Adolphe Quetelet 1856-- La fórmula de Peters para r, el error probable de una única observación, es bien conocida
  • 7. 1860--Richard Dedekind 1864--De Morgan 1870--Morgan Crofton 1872—Helmert 1873—Glaisher 1874--Hermann Laurent 1875--Giovanni Schiaparelli 1930-- Andréi Kolmogorov desarrolló la base axiomática de la probabilidad utilizando teoría de la medida. En la parte geométrica los colaboradores de The Educational Times fueron influyentes (Miller, Crofton, McColl, Wolstenholme, Watson y ArtemasMartin). DEFINICION DE LA PROBABILIDAD Según La Frecuencia Relativa: La autodefinición axiomática de la probabilidad se define con base a sí misma, la probabilidad estimada o honírica basada en la frecuencia relativa de aparición de un suceso S cuando Ω es muy grande. La probabilidad de un suceso es una medida que se escribe como, Y mide con qué frecuencia ocurre algún suceso si se hace algún experimento indefinidamente.
  • 8. Según La Definición Axiomática: La definición anterior es complicada de representar matemáticamente ya que Ω debiera ser infinito. Otra manera de definir la probabilidad es de forma axiomática esto estableciendo las relaciones o propiedades que existen entre los conceptos y operaciones que la componen. TIPOS DE PROBABILIDAD Probabilidad Discreta: Este tipo de probabilidad, es aquel que puede tomar sólo ciertos valores diferentes que son el resultado de la cuenta de alguna característica de interés. Probabilidad Continúa: Una variable aleatoria es una función medible: Y: Ω—R Que da un valor numérico a cada suceso en Ω. TEORIA DE LA PROBABILIDAD La probabilidad constituye un importante parámetro en la determinación de las diversas casualidades obtenidas tras una serie de eventos esperados dentro de un rango estadístico. El concepto de probabilidad nace con el deseo del hombre de conocer con certeza los eventos futuros. Es por ello que el estudio de probabilidades surge como una herramienta utilizada por los nobles para ganar en los juegos y pasatiempos de la época. El desarrollo de estas herramientas fue asignado a los matemáticos de la corte. Con el tiempo estas técnicas matemáticas se perfeccionaron y encontraron otros usos muy diferentes para la que fueron creadas. Actualmente se continúo con el estudio de nuevas metodologías que
  • 9. permitan maximizar el uso de la computación en el estudio de las probabilidades disminuyendo, de este modo, los márgenes de error en los cálculos. A través de la historia se han desarrollado tres enfoques conceptuales diferentes para definir la probabilidad y determinar los valores de probabilidad: El Enfoque Clásico: Dice que si hay x posibles resultados favorables a la ocurrencia de un evento A y z posibles resultados desfavorables a la ocurrencia de A, y todos los resultados son igualmente posibles y mutuamente excluyente (no pueden ocurrir los dos al mismo tiempo), entonces la probabilidad de que ocurra A es: El enfoque clásico de la probabilidad se basa en la suposición de que cada resultado sea igualmente posible. Este enfoque es llamado enfoque a priori porque permite, (en caso de que pueda aplicarse) calcular el valor de probabilidad antes de observar cualquier evento de muestra. Ejemplo: Si tenemos en una caja 15 piedras verdes y 9 piedras rojas. La probabilidad de sacar una piedra roja en un intento es: FUNCION DE DENSIDAD La función de densidad, o densidad de probabilidad de una variable aleatoria, es una función a partir de la cual se obtiene la probabilidad de cada valor que toma la variable. Su integral en el caso de variables aleatorias continuas es ladistribución de probabilidad. En el caso de variables aleatorias discretas la distribución de probabilidad se obtiene a través del sumatorio de la función de densidad.
  • 10. ENFOQUES DE LA TEORIA DE PROBABILIDAD El Enfoque de frecuencia relativa: También llamado Enfoque Empírico, determina la probabilidad sobre la base de la proporción de veces que ocurre un evento favorable en un número de observaciones. En este enfoque no ese utiliza la suposición previa de aleatoriedad. Porque la determinación de los valores de probabilidad se basa en la observación y recopilación de datos. Ejemplo: Se ha observado que 9 de cada 50 vehículos que pasan por una esquina no tienen cinturón de seguridad. Si un vigilante de transito se para en esa misma esquina un ida cualquiera ¿Cuál será la probabilidad de que detenga un vehículo sin cinturón de seguridad? Tanto el enfoque clásico como el enfoque empírico conducen a valores objetivos de probabilidad, en el sentido de que los valores de probabilidad indican al largo plazo la tasa relativa de ocurrencia del evento. El Enfoque Subjetivo: Dice que la probabilidad de ocurrencia de un evento es el grado de creencia por parte de un individuo de que un evento ocurra, basado en toda la evidencia a su disposición. Bajo esta premisa se puede decir que este enfoque es adecuado cuando solo hay una oportunidad de ocurrencia del evento. Es decir, que el evento ocurrirá o no ocurrirá esa sola vez. El valor de probabilidad bajo este enfoque es un juicio personal. Se define como cálculo de probabilidad alconjunto de reglas que permiten determinar si un fenómeno ha de producirse, fundando la suposición en el cálculo,
  • 11. las estadísticas o la teoría. Existen diversas formas como método abstracto, como la teoría Dempster-Shafer y la numérica, esta última con un alto grado de aceptación si se toma en cuenta que disminuye considerablemente las posibilidades hasta un nivel mínimo ya que somete a todas las antiguas reglas a una simple ley de relatividad. La probabilidad de un evento se denota con la letra p y se expresa en términos de una fracción y no en porcentajes, por lo que el valor de p cae entre 0 y 1. Por otra parte, la probabilidad de que un evento "no ocurra" equivale a 1 menos el valor de p y se denota con la letra q: METODOS PARA CALCUAR LA PROBABILIDAD Regla de la Adición: La regla de la adición o regla de la suma establece que la probabilidad de ocurrencia de cualquier evento en particular es igual a la suma de las probabilidades individuales, si es que los eventos son mutuamente excluyentes, es decir, que dos no pueden ocurrir al mismo tiempo. La Regla de la Adición expresa que: la probabilidad de ocurrencia de al menos dos sucesos A y B es igual a: P(A o B) = P(A) U P(B) = P(A) + P(B) si A y B son mutuamente excluyente P(A o B) = P(A) + P(B) – P(A y B) si A y B son no excluyentes Siendo: P(A) = probabilidad de ocurrencia del evento A P(B) = probabilidad de ocurrencia del evento B P(A y B) = probabilidad de ocurrencia simultanea de los eventos A y B
  • 12. Regla de la Multiplicación: La regla de la multiplicaciónestablece que la probabilidad de ocurrencia de dos o más eventos estadísticamente independientes es igual al producto de sus probabilidades individuales. Se relacionan con la determinación de la ocurrencia de conjunta de dos o más eventos. Es decir la intersección entre los conjuntos de los posibles valores de A y los valores de B, esto quiere decir que la probabilidad de que ocurran conjuntamente los eventos A y B es: P(A y B) = P(A B) = P(A)P(B) si A y B son independientes P(A y B) = P(A B) = P(A)P(B|A) si A y B son dependientes P(A y B) = P(A B) = P(B)P(A|B) si A y B son dependientes Distribución Binomial: La probabilidad de ocurrencia de una combinación específica de eventos independientes y mutuamente excluyentes se determina con la distribución binomial, que es aquella donde hay solo dos posibilidades, tales como masculino/femenino o si/no. APLICACIONES DE LA PROBABILIDAD Dos aplicaciones principales de la teoría de la probabilidad en el día a día son en el análisis de riesgo y en el comercio de los mercados de materias primas. Los gobiernos normalmente aplican métodos probabilísticos en regulación ambiental donde se les llama "análisis de vías de dispersión", y a menudo miden el bienestar usando métodos que son estocásticos por naturaleza, y escogen qué proyectos emprender basándose en análisis estadísticos de su probable efecto en la población como un conjunto.
  • 13. No es correcto decir que la estadística está incluida en el propio modelado, ya que típicamente los análisis de riesgo son para una única vez y por lotanto requieren más modelos de probabilidad fundamentales, por ej. "la probabilidad de otro 11-S". Una ley de números pequeños tiende a aplicarse a todas aquellas elecciones y percepciones del efecto de estas elecciones, lo que hace de las medidas probabilísticas un tema político. Un buen ejemplo es el efecto de la probabilidad percibida de cualquier conflicto generalizado sobre los precios del petróleo en Oriente Medio - que producen un efecto dominó en la economía en conjunto. Un cálculo por un mercado de materias primas en que la guerra es más probable en contra de menos probable probablemente envía los precios hacia arriba o hacia abajo e indica a otros comerciantes esa opinión. Por consiguiente, las probabilidades no se calculan independientemente y tampoco son necesariamente muy racionales. La teoría de las finanzas conductuales surgió para describir el efecto de este pensamiento de grupo en el precio, en la política, y en la paz y en los conflictos. Se puede decir razonablemente que el descubrimiento de métodos rigurosos para calcular y combinar los cálculos de probabilidad ha tenido un profundo efecto en la sociedad moderna. Por consiguiente, puede ser de alguna importancia para la mayoría de los ciudadanos entender cómo se calculan los pronósticos y las probabilidades, y cómo contribuyen a la reputación y a las decisiones, especialmente en una democracia. Otra aplicación significativa de la teoría de la probabilidad en el día a día es en la fiabilidad. Muchos bienes de consumo, como los automóviles y la electrónica deconsumo, utilizan la teoría de la fiabilidad en el diseño del producto para reducir la probabilidad de avería. La probabilidad de avería también está estrechamente relacionada con la garantía del producto. Se puede decir que no existe una cosa llamada probabilidad. También se puede decir que la probabilidad es la medida de nuestro grado de incertidumbre, o esto es, el grado de nuestra ignorancia dada una situación. Por consiguiente, puede haber una probabilidad de 1 entre 52 de que la primera carta en una baraja sea la J de diamantes. Sin embargo, si uno mira la primera carta y la reemplaza, entonces la probabilidad es o bien 100% ó 0%, y la elección correcta puede ser
  • 14. hecha con precisión por el que ve la carta. La física moderna proporciona ejemplos importantes de situaciones determinísticas donde sólo la descripción probabilística es factible debido a información incompleta y la complejidad de un sistema así como ejemplos de fenómenos realmente aleatorios. En un universo determinista, basado en los conceptos newtonianos, no hay probabilidad si se conocen todas las condiciones. En el caso de una ruleta, si la fuerza de la mano y el periodo de esta fuerza es conocida, entonces el número donde la bola parará será seguro. Naturalmente, esto también supone el conocimiento de la inercia y la fricción de la ruleta, el peso, lisura y redondez de la bola, las variaciones en la velocidad de la mano durante el movimiento y así sucesivamente. Una descripción probabilística puede entonces ser más práctica que la mecánica newtoniana paraanalizar el modelo de las salidas de lanzamientos repetidos de la ruleta. Los físicos se encuentran con la misma situación en la teoría cinética de los gases, donde el sistema determinístico en principio, es tan complejo (con el número de moléculas típicamente del orden de magnitud de la constante de Avogadro ) que sólo la descripción estadística de sus propiedades es viable. La mecánica cuántica, debido al principio de indeterminación de Heisenberg, sólo puede ser descrita actualmente a través de distribuciones de probabilidad, lo que le da una gran importancia a las descripciones probabilísticas. Algunos científicos hablan de la expulsión del paraíso. Otros no se conforman con la pérdida del determinismo. Albert Einstein comentó estupendamente en una carta a Max Born: Jedenfalls bin ich überzeugt, daß der Alte nicht würfelt. (Estoy convencido de que Dios no tira el dado). No obstante hoy en día no existe un medio mejor para describir la física cuántica si no es a través de la teoría de la probabilidad. Mucha gente hoy en día confunde el hecho de que la mecánica cuántica se describe a través de distribuciones de probabilidad con la suposición de que es por ello un proceso aleatorio, cuando la mecánica cuántica es probabilística no por el hecho de que siga procesos
  • 15. aleatorios sino por el hecho de no poder determinar con precisión sus parámetros fundamentales, lo que imposibilita la creación de un sistema de ecuaciones determinista. Investigación Biomédica: La mayoría de las investigaciones biomédicas utilizan muestras deprobabilidad, es decir, aquellas que el investigador pueda especificar la probabilidad de cualquier elemento en la población que investiga. Las muestras de probabilidad permiten usar estadísticas inferenciales, aquellas que permiten hacer inferencias a partir de datos. Por otra parte, las muestras no probabilísticas solo permiten usarse estadísticas descriptivas, aquellas que solo permiten describir, organizar y resumir datos. Se utilizan cuatro tipos de muestras probabilísticas: muestras aleatorias simples, muestras aleatorias estratificadas, muestra por conglomerados y muestras sistemáticas. EL VALOR DE LA PROBABILIDAD El valor más pequeño que puede tener la probabilidad de ocurrencia de un evento es igual a 0, el cual indica que el evento es imposible, y el valor mayor es 1, que indica que el evento ciertamente ocurrirá. Entonces si decimos que P(A) es la probabilidad de ocurrencia de un evento A y P(A´ ) la probabilidad de no- ocurrencia de A, tenemos que: Eventos mutuamente excluyentes y eventos no excluyentes Dos o más eventos son mutuamente excluyentes o disjuntos, si no pueden ocurrir simultáneamente. Es decir, la ocurrencia de un evento impide automáticamente la ocurrencia del otro evento (o eventos).Ejemplo 1: Al lanzar una moneda solo puede ocurrir que salga cara o cruz pero no los dos a la vez, esto quiere decir que estos eventos son excluyentes. Dos o más eventos
  • 16. son no excluyentes, o conjuntos, cuando es posible que ocurran ambos. Esto no indica que necesariamente deban ocurrir estos eventos en forma simultánea. Ejemplo 2: Si consideramos en un juego de domino sacar al menos un blanco y un seis, estos eventos son no excluyentes porque puede ocurrir que salga el seis blanco. Eventos Independientes: Dos o más eventos son independientes cuando la ocurrencia o no-ocurrencia de un evento no tiene efecto sobre la probabilidad de ocurrencia del otro evento (o eventos). Un caso típico de eventos independiente es el muestreo con reposición, es decir, una vez tomada la muestra se regresa de nuevo a la población donde se obtuvo. Ejemplo: Lanzar al aire dos veces una moneda son eventos independientes por que el resultado del primer evento no afecta sobre las probabilidades efectivas de que ocurra cara o sello, en el segundo lanzamiento. Eventos Dependientes: Dos o más eventos serán dependientes cuando la ocurrencia o no-ocurrencia de uno de ellos afecta la probabilidad de ocurrencia del otro (o otros). Cuando tenemos este caso, empleamos entonces, el concepto de probabilidad condicional para denominar la probabilidad del evento relacionado. La expresión P(A|B) indica la probabilidad de ocurrencia del evento A sí el evento B ya ocurrió. Se debe tener claro que A|B no es una fracción. P(A|B) = P(A y B)/P(B) o P(B|A) = P(A y B)/P(A)
  • 17. DISTRIBUCION DE LA PROBABILIDAD Distribución de Probabilidad Normal: Es una distribución de probabilidad continua que es tanto simétrica como mesocurtica. La curva que representa la distribución de probabilidad normal se describe generalmente como en forma de campana. Esta distribución es importante eninferencia estadística por tres razones diferentes: 1. Se sabe que las medidas producidas en muchos procesos aleatorios siguen esta distribución. 2. Las probabilidades normales pueden utilizarse generalmente para aproximar otras distribuciones de probabilidad, tales como las distribuciones binomial y de Poisson. 3. Las distribuciones estadísticas tales como la media de la muestra y la proporción de la muestra, siguen a menudo la distribución normal, sin tener en cuenta la distribución de la población. Los valores de los parámetros de la distribución de probabilidad normal son = 0 y = 1. Cualquier conjunto de valores X normalmente distribuido pueden convertirse en valores normales estándar z por medio de la formula: Haciendo posible el uso de la tabla de proporciones de área y hace innecesario el uso de la ecuación de la función de densidad de cualquier distribución normal dada. Para aproximar las distribuciones discretas binomial y de Poisson se debe hacer:
  • 18. BINOMINIAL | np | np(1-p) | Si n > 30.np > 5 n(1-p) > 5 | POISSON | | | > 10 | Distribución de Probabilidad Exponencial Si en el contexto de un proceso de Poisson ocurren eventos o éxitos en un espectro continuo de tiempo y espacio. Entonces la longitud del espacio o tiempo entre eventos sucesivos sigue una distribución de probabilidad exponencial. Puesto que el tiempo y el espacio son un espectro continuo, esta es una distribución continua. En caso de este tipo de distribución no vale la pena preguntarse ¿cuál es la probabilidad de que elprimer pedido de servicio se haga exactamente de aquí a un minuto? Más bien debemos asignar un intervalo dentro del cual el evento puede ocurrir, preguntándonos, ¿cuál es la probabilidad de que el primer pedido se produzca en el próximo minuto? Dado que el proceso de Poisson es estacionario, la distribución exponencial se aplica ya sea cuando estamos interesados en el tiempo (o espacio) hasta el primer evento, el tiempo entre dos eventos sucesivos, o el tiempo hasta que ocurra el primer evento después de cualquier punto aleatoriamente seleccionado. Donde es la cifra media de ocurrencias para el intervalo de interés, la probabilidad exponencial de que el primer evento ocurra dentro del intervalo designado de tiempo o espacio es. P (T < t) = 1 - e – De manera que la probabilidad exponencial de que el primer evento no ocurra
  • 19. dentro del intervalo designado de tiempo o espacio es: P (T > t) = e – Ejemplo: Un departamento de mantenimiento recibe un promedio de 5 llamadas por hora. Comenzando en un momento aleatoriamente seleccionado, la probabilidad de que una llamada llegue dentro de media hora es: Promedio 5 por hora, como el intervalo es media hora tenemos que = 2,5/media hora. P (T < 30 min.) = 1- e -5 = 1 - 0,08208 = 0,91792 EJEMPLOS DE LA TEORIA DE PROBABILIDAD Si analizamos detalladamente el ejemplo, podemos apreciar: Un experimento aleatorio, lanzar una moneda al aire. Unos resultados puntuales, sale cara o sale cruz y no podemos tener la certeza de antemano de que sea cara o sea cruz. Unas asignaciones deprobabilidad a cada uno de los resultados, que se basan en el sentido común y en nuestra experiencia previa. Vamos a definir de manera más precisa cada uno de los elementos que intervienen: Experimento aleatorio: Es el experimento que se caracteriza porque su desarrollo no es previsible con certidumbre. Espacio muestral: Asociado a un experimento aleatorio es el conjunto de todos los resultados que se pueden obtener al realizar el experimento. Lo designamos con la letra E y colocamos sus elementos entre llaves y separados por comas. Suceso: De un experimento aleatorio es cada uno de los subconjuntos del espacio
  • 20. muestral E. Los designamos por letras mayúsculas: A,B,C,..., ponemos sus elementos entre llaves y separados por comas. Observación: Un resultado concreto de un experimento es un elemento del espacio muestral asociado al experimento, conceptualmente suceso y resultado son dos cosas distintas. Los resultados de un experimento aleatorio se suelen representar con letras minúsculas, los sucesos con letras mayúsculas. En el ejemplo anterior, el suceso A ocurre siempre que el resultado del experimento sea el elemento 2, el elemento 4 o el elemento 6. La confusión entre suceso y resultado se debe a que cuando el suceso es: " que al lanzar un dado salga 2" y el resultado:"sale un dos al lanzar el dado", sólo ocurre el suceso cuando el resultado es 2. Suceso: "Sale un dos" es el subconjunto {2} del espacio muestral Resultado: "Sale un dos" es el elemento 2 del espacio muestral Funciones de distribución: El paso siguientees asignar (distribuir) probabilidades. Las definiciones que siguen están motivadas por el ejemplo del lanzamiento de una moneda, recordamos que en ese ejemplo a cada resultado del espacio muestral le asignábamos un número no negativo tal que la suma de todos los números asignados a cada resultado deberá ser 1. Definición: Sea X una variable que representa a los posibles resultados de un experimento aleatorio, en principio vamos a asumir que este experimento tiene sólo un número finito de posibles resultados. Sea E, el espacio muestral del experimento. Una función de distribución para X es una función real f cuyo dominio es E y que satisface: Ejemplo: Sean tres equipos de futbol, a, b y c que se presentan a un torneo de verano, sólo uno ganará el torneo. El espacio muestral es el conjunto de tres elementos,
  • 21. E={a,b,c}, donde cada elemento corresponde al triunfo de cada uno de los equipos. Suponemos que a y b tienen las mismas posibilidades de ganar y c tiene solamente la mitad de las posibilidades de ganar que a. Debemos asignar probabilidades de modo que : Sea el suceso A, "gana el trofeo el equipo a‖; el suceso B, "gana el trofeo el equipo b" y el suceso C, "gana el trofeo el equipo c". En el lenguaje de la teoría de conjuntos: En este último caso se puede apreciar como un suceso se puede describir en términos de otros sucesos utilizando las construcciones estándar de la teoría de conjuntos. Las representaciones gráficas de las construcciones de la teoría de conjuntos se llaman diagramas de Venn. En ocasiones es muyconveniente para resolver un problema de probabilidad hacer la representación gráfica del espacio muestral y de los sucesos (subconjuntos del espacio muestral) que intervienen en el problema Operaciones Con Sucesos: Sucesos Compatibles e Incompatibles Suceso Contrario Dado un suceso A, se llama suceso contrario de A a un suceso que se verifica cuando no se verifica A. Diferencia de Sucesos Leyes de De Morgan
  • 22. Se pueden comprobar gráficamente. Teorema 1. Propiedades Básicas Las probabilidades asignadas a cada suceso por una función de distribución definida sobre un espacio muestral E de un experimento aleatorio, verifican las siguientes propiedades: Teorema 2. Si A y B son subconjuntos de E, entonces: Sistema completo de sucesos. Regla de Laplace. Si en un experimento aleatorio todos los sucesos elementales son equiprobables, la probabilidad de un suceso A se obtiene dividiendo el número de resultados que forman el suceso A entre el número de resultados posibles. Si llamamos casos favorables a los resultados que forman el suceso A y casos posibles a los resultados posibles del experimento, tenemos: Probabilidad Condicionada En un concurso de televisión, se dispone de 20 coches, para premiar al concursante, de las marcas y colores que se indican en la siguiente tabla:
  • 23. | Rojo | Azul | Totales | SeatPanda | 2 | 8 | 10 | SeatToledo | 7 | 3 | 10 | Totales | 9 | 11 | 20 | Los coches están colocados aleatoriamente, tras 20 puertas, de forma que el concursante no ve el coche que hay detrás de cada puerta.El concursante elige un número, entre 1 y 20, y si acierta la marca y el color del coche que hay en la puerta elegida, gana, en caso contrario pierde. El concurso lo podemos considerar como un experimento aleatorio. Cada resultado es el coche elegido. Para describir fácilmente todo el proceso vamos a considerar: Suceso P : | El coche es un Seat Panda | Suceso T : | El coche es un Seat Toledo | Suceso R : | El coche es de color rojo | Suceso A : | El coche es de color azul | Así el suceso: "Seat Toledo de color rojo" lo representamos por : T ∩ R y la probabilidad de este suceso, sigue de la tabla : | Rojo | Azul | Totales | SeatPanda | 2 | 8 | 10 | SeatToledo | 7 | 3 | 10 | Totales | 9 | 11 | 20 | P (T ∩ R) = 7/20 La probabilidad de que el coche sea un Seat Toledo es:
  • 24. | Rojo | Azul | Totales | SeatPanda | 2 | 8 | 10 | SeatToledo | 7 | 3 | 10 | Totales | 9 | 11 | 20 | P (T)=10/20 = ½ ¿Qué ocurre si, una vez que el concursante ha elegido puerta, el presentador, le da la pista de que el coche que hay tras la puerta es rojo?. Tendremos que cambiar la probabilidad al suceso T y al suceso P. A la probabilidad del suceso T cuando se sabe que ha ocurrido R, le llamamos probabilidad condicionada de T, sabiendo que ha ocurrido R y escribimos (T/R) Para asignar las nuevas probabilidades hemos de ser consecuentes con las propiedades que debe cumplir toda asignación de probabilidades. El nuevo espacio muestral es el señalado en rojo en la tabla siguiente. Por tanto asignamos así las probabilidades: |Rojo | Azul | Totales | SeatPanda | 2 | 8 | 10 | SeatToledo | 7 | 3 | 10 | Totales | 9 | 11 | 20 | P (T/R) = 7/9 ; P(P/R) = 2/9 De la tabla anterior, siguen fácilmente las siguientes relaciones: Consideremos ahora el siguiente experimento : Dos urnas, A y B ,la urna A, contiene 3 bolas verdes y 2 bolas rojas, la urna B contiene 2 bolas verdes y 3 bolas rojas. Se realiza el experimento en dos tiempos, primero se selecciona urna por un
  • 25. procedimiento aleatorio y posteriormente de la urna elegida se extrae una bola. Para representar, de forma muy adecuada, este tipo de experimentos, se realiza un esquema, llamado: árbol de probabilidades. Cada flecha del diagrama se denomina rama del árbol; a cada rama, asignamos la probabilidad que le corresponde. Un recorrido, desde el comienzo del experimento hasta el final, se llama un camino. Si sabemos que ha ocurrido el suceso A, tenemos que volver a asignar probabilidades a los distintos caminos; todos los caminos que comienzan por el suceso B, tendrán probabilidad 0 y los que empiezan por el suceso A: Hay que aceptar por tanto las mismas relaciones entre probabilidades a las que habíamos llegado en el experimento anterior: Para concretar tenemos que admitir la siguiente definición: Definición 1. Probabilidad condicionada De un suceso R sabiendo que ha ocurrido otro A Y dos teoremas: Teorema 1. Regla del Producto De la definición 1, despejando, sigue que: Si A y B forman un sistema completo de sucesos, la probabilidad de cualquier otro Teorema 2.Probabilidad Total Sucesos Dependientes Dos sucesos son dependientes si el resultado de uno influye en el otro. Los
  • 26. sucesos A y B son dependientes si y sólo si P(A) es distinto de P(A/B) y P(B) es distinto de P(B/A Sucesos Independientes Dos sucesos son independientes si el resultado de uno no influye en el resultado del otro. Los sucesos A y B son independientes si y sólo si P(A)=P(A/B) y P(B)=P(B/A). Probabilidades a posteriori. Teorema de Bayes. Vamos a considerar de nuevo, el experimento de las urnas A y B, que contienen bolas verdes y rojas: Si sabemos que ha salido una bola roja, los caminos posibles en el árbol de probabilidades, quedan reducidos a dos, los señalados en rojo en la imagen anterior; tenemos que reasignar probabilidades, todos los caminos que terminan en bola verde, deberán tener probabilidad 0. ¿Cómo asignamos probabilidades a los caminos que conducen a bola roja? En resumen podemos enunciar el siguiente resultado: Teorema de Bayes o de las probabilidades a posteriori. DEFINIR LOS CONCEPTOS DE ESPACIO MUESTRAL, EVENTOS, RELACIONES ENTRE EVENTOS Y FAMILIA DE EVENTOS. Espacio Muestral: Es el conjunto de todos los resultados posibles de un experimento aleatorio. El conjunto de todos los resultados posibles pueden ser finito, infinito numerable o infinito no numerables. Espacio muestral Discreto y continuo.
  • 27. Eventos: Son subconjuntos del espacio muestral Relaciones entre eventos y familia de eventos: AUB = ― Suceso A o el Suceso B o ambos AB) = ― El suceso A y B ― AB = Ф ― Son Sucesos excluyentes mutuamente, es decir no tienen elementos comunes‖ A = ― El Suceso no A ― A –B = Todos los elementos de A siempre y cuando no estén en B
  • 28. CONCLUSION La probabilidad mide la frecuencia con la que se obtiene un resultado al llevar a cabo un experimento aleatorio, del que se conocen todos los resultados posibles, bajo condiciones suficientemente estables. La teoría de la probabilidad se usa extensamente en áreas como la estadística, la física, la matemática, la ciencia y la filosofía para sacar conclusiones sobre la probabilidad de sucesos potenciales y la mecánica subyacente de sistemas complejos. La probabilidad constituye un importante parámetro en ladeterminación de las diversas casualidades obtenidas tras una serie de eventos esperados dentro de un rango estadístico. Dos aplicaciones principales de la teoría de la probabilidad en el día a día son en el análisis de riesgo y en el comercio de los mercados de materias primas. Los gobiernos normalmente aplican métodos probabilísticos en regulación ambiental donde se les llama "análisis de vías de dispersión", y a menudo miden el bienestar usando métodos que son estocásticos por naturaleza, y escogen qué proyectos emprender basándose en análisis estadísticos de su probable efecto en la población como un conjunto. No es correcto decir que la estadística está incluida en el propio modelado, ya que típicamente los análisis de riesgo son para una única vez y por lo tanto requieren más modelos de probabilidad fundamentales, por ej. "la probabilidad de otro 11-S". Una ley de números pequeños tiende a aplicarse a todas aquellas elecciones y percepciones del efecto de estas elecciones, lo que hace de las medidas probabilísticas un tema político. Otra aplicación significativa de la teoría de la probabilidad en el día a día es en la fiabilidad. Muchos bienes de consumo, como los automóviles y la electrónica de consumo, utilizan la teoría de la fiabilidad en el diseño del producto para reducir la probabilidad de avería. La probabilidad de avería también está estrechamente relacionada con la garantía del producto.