Este documento presenta un resumen de 3 oraciones o menos de la teoría de la probabilidad. Introduce los conceptos básicos de probabilidad y su historia. Explica los diferentes enfoques de la teoría incluyendo el clásico, de frecuencia relativa y subjetivo. Finalmente, proporciona ejemplos para ilustrar los diferentes métodos de cálculo de probabilidad.
Probabilidad: Concepto, Hisotria, Precursores, Ejemplos y Ejercicios.Elkin J. Navarro
Probabilidad: Concepto, Historia, Precursores, Ejemplos y Ejercicios. Explicación de la ley de Laplace en la teoría de probabilidad, además de las diferentes interpretaciones.
Probabilidad: Concepto, Hisotria, Precursores, Ejemplos y Ejercicios.Elkin J. Navarro
Probabilidad: Concepto, Historia, Precursores, Ejemplos y Ejercicios. Explicación de la ley de Laplace en la teoría de probabilidad, además de las diferentes interpretaciones.
Instrucciones del procedimiento para la oferta y la gestión conjunta del proceso de admisión a los centros públicos de primer ciclo de educación infantil de Pamplona para el curso 2024-2025.
PRESENTACION DE LA SEMANA NUMERO 8 EN APLICACIONES DE INTERNET
Estadistica tercer corte.......................
1. REPÚBLICA BOLIVARIANA DE VENEZUELA
MINISTERIO DEL PODER POPULAR PARA LA EDUCACIÓN
INSTITUTO UNIVERSITARIO POLITÉCNICO
“SANTIAGO MARIÑO”
ESTADISTICA I
TEORÍA DE LA PROBABILIDAD
Tercer corte
PRESENTADO POR:
NELSON JOSE VIVAS C.I. 16.777.966.
SECCIÓN “S”, NOCTURNO.
PROFESORA: YENNY ATIA
OPCION: 43 (ING. ELECTRICA).
2. CONTENIDO
* INTRODUCCION------------------------------------------------------------------------1
* OBJECTIVOS-----------------------------------------------------------------------------2
* LA PROBABILIDAD--------------------------------------------------------------------3
* CRONOLOGIA DE LOS AVANCES DE LA PROBABILIDAD------------ ---4
* DEFINICION DE PROBABILIDAD--------------------------------------------------6
* TEORIA DE LA PROBABILIDAD----------------------------------------------------7
* ENFOQUES DE LA TEORIA DE LA PROBABILIDAD--------------------------8
* METODOS PARA CALCULAR LA PROBABILIDAD- --------------------------9
* APLICACIONES DE LA PROBABILIDAD----------------------------------------10
* EL VALOR DE LA PROBABILIDAD-----------------------------------------------12
* DISTRIBUCION DE LA PROBABILIDAD----------------------------------------13
* EJEMPLOS DE LA TEORIA DE PROBABILIDAD------------------------------14
* CONCLUSION---------------------------------------------------------------------------27
* BIBLIOGRAFIA-------------------------------------------------------------------------28
3. 1
INTRODUCCION
La probabilidad mide la frecuencia con la que se obtiene un resultado al llevar a cabo un
experimento aleatorio, del que se conocen todos los resultados posibles, bajo condiciones
suficientemente estables. La teoría de la probabilidad se usa extensamente en áreas como la
estadística, la física, la matemática, la ciencia y la filosofía para sacar conclusiones sobre la
probabilidad de sucesos potenciales y la mecánica subyacente de sistemas complejos.
La teoría de la probabilidad es la parte de las matemáticas que estudia los fenómenos aleatorios.
Estos deben contraponerse a los fenómenos determinanticos, los cuales son resultados únicos y/o
previsibles de experimentos realizados bajo las mismas condiciones determinadas. Los fenómenos
aleatorios, por el contrario, son aquellos que se obtienen como resultado de experimentos
realizados, otra vez, bajo las mismas condiciones determinadas pero como resultado posible poseen
un conjunto de alternativas, por ejemplo, el lanzamiento de un dado o de un dardo.
Los procesos reales que se modernizan como procesos aleatorios pueden no serlo realmente; cómo
tirar una moneda o un dado no son procesos de aleación en sentido estricto, ya que no se
reproducen exactamente las mismas condiciones iniciales que lo determinan, sino sólo unas pocas.
En los procesos reales que se modelizan mediante distribuciones de probabilidad corresponden a
modelos complejos donde no se conocen todos los parámetros que intervienen; ésta es una de las
razones por las cuales la estadística, que busca determinar estos parámetros, no se reduce
inmediatamente a la teoría de la probabilidad en sí.
En 1933, el matemático soviético Andréi Kolmogórov propuso un sistema de axiomas para la teoría
de la probabilidad, basado en la teoría de conjuntos y en la teoría de la medida, desarrollada pocos
años antes por Lebesgue, Borel y Frechet entre otros.
Esta aproximación axiomática que generaliza el marco clásico de la probabilidad, la cual obedece a
la regla de cálculo de casos favorables sobre casos posibles, permitió la rigorización de muchos
argumentos ya utilizados, así como el estudio de problemas fuera de los marcos clásicos.
Actualmente, la teoría de la probabilidad encuentra aplicación en las más variadas ramas del
conocimiento, como puede ser la física, o las finanzas
4. 2
OBJETIVOS
* Objetivo General:
Mostrar la importancia y utilidad del Método Estadístico y la Teoría de Probabilidad en el ámbito
económico-empresarial de la sociedad.
* Objetivos Específicos:
Realizar varios ejemplos de probabilidad, anotar los resultados y posteriormente compararlos con
los resultados teóricos. Aprender a manejar los métodos y técnicas más adecuadas para el correcto
tratamiento y análisis de la información proporcionada por los datos que genera la actividad
económica. Afianzar los conocimientos que poseemos de Estadística, Probabilidad y Teoría de
Probabilidad, además de algunos conceptos nuevos relacionados con este tema.
5. 3
LA PROBABILIDAD
La probabilidad es la característica de un evento, que existen razones para creer que éste se
realizará. La probabilidad p de que suceda un evento S de un total de n casos posibles igualmente
probables es igual a la razón entre el número de ocurrencias h de dicho evento (casos favorables) y
el número total de casos posibles n.
La probabilidad es un número (valor) que varía entre 0 y 1. Cuando el evento es imposible se dice
que su probabilidad es 0, si el evento es cierto y siempre tiene que ocurrir su probabilidad es 1.
La probabilidad de no ocurrencia de un evento está dada por q, donde:
Sabemos que p es la probabilidad de que ocurra un evento y q es la probabilidad de que no ocurra,
entonces p + q = 1
Simbólicamente el espacio de resultados, que normalmente se denota por Ω, es el espacio que
consiste en todos los resultados que son posibles. Los resultados, que se denota por ω1, ω2, etc.
son elementos del espacio Ω.
HISTORIA
El diccionario de la Real Academia Española de la lengua define el azar como una casualidad, un
caso fortuito, y afirma que la expresión "al azar" significa "sin orden”. La idea de Probabilidad está
íntimamente ligada a la idea de azar y nos ayuda a comprender nuestras posibilidades de ganar un
juego de azar o analizar las encuestas. Pierre-Simón Laplace afirmó: "Es notable que una ciencia
que comenzó con consideraciones sobre juegos de azar haya llegado a el objeto más importante del
conocimiento humano". Comprender y estudiar el azar es indispensable, porque la probabilidad es
un soporte necesario para tomar decisiones en cualquier ámbito.[]
Según Amanda Dure, "Antes de la mitad del siglo XVII, el término 'probable' (en latín probable)
significaba aprobable, y se aplicaba en ese sentido, unívocamente, a la opinión y a la acción. Una
acción u opinión probable era una que las personas sensatas emprenderían o mantendrían, en las
circunstancias. Aparte de algunas consideraciones elementales hechas por Giro lamo Cardano en el
siglo XVI, la doctrina de las probabilidades data de la correspondencia de Pierre de Fermat y Blaise
Pascal 1654).
6. 4
CRONOLOGIA DE LOS AVANCES DE LA PROBABILIDAD
1657-- Christiaan Huygens le dio el tratamiento científico conocido más temprano al concepto.
1713-- Ars Conjectandi, de Jakob Bernoulli y Doctrine of Chances de Abraham de Moivre trataron el
tema como una rama de las matemáticas.
1722-- La teoría de errores puede trazarse atrás en el tiempo hasta Opera Miscellanea de Roger
Cotes
1755--Thomas Simpson preparo una memoria impresa en 1756 donde aplicó por primera vez la
teoría para la discusión de errores de observación
1757-- La reimpresión de esta memoria expone los axiomas de que los errores positivos y negativos
son igualmente probables, y que hay ciertos límites asignables dentro de los cuales se supone que
caen todos los errores; se discuten los errores continuos y se da una curva de la probabilidad.
1774--Pierre-Simon Laplace hizo el primer intento para deducir una regla para la combinación de
observaciones a partir de los principios de la teoría de las probabilidades. Representó la ley de la
probabilidad de error con una curva y = φ(x), siendo x cualquier error e y y su probabilidad, y expuso
tres propiedades de esta curva:
1. es simétrica al eje y;
2. el eje x es una asíntota, siendo la probabilidad del error igual a 0;
3. la superficie cerrada es 1, haciendo cierta la existencia de un error.
1778--Daniel Bernoulli introdujo el principio del máximo producto de las probabilidades de un
sistema de errores concurrentes.
1781-- Se obtuvo una fórmula para la ley de facilidad de error (un término debido a Lagrange, 1774),
pero una que llevaba a ecuaciones inmanejables.
1805--El método de mínimos cuadrados se debe a Adrien-Marie Legendre, que lo introdujo en su
Nouvelles méthodes pour la détermination des orbites des comètes (Nuevos métodos para la
determinación de las órbitas de los cometas).
1808--Ignorando la contribución de Legendre, un escritor irlandés estadounidense, Robert Adrain,
editor de "The Analyst" , dedujo por primera vez la ley de facilidad de error, Siendo c y h constantes
que dependen de la precisión de la observación. Expuso dos demostraciones, siendo la segunda
esencialmente la misma de John Herschel
1809--Gauss expuso la primera demostración que parece que se conoció en Europa.
Otras demostraciones adicionales también fueron expuestas, en:
1810--Laplace
1816--Sylvestre Lacroix
1823--Gauss
1825--James Ivory
1833--Littrow
1837--Hagen
1838--Friedrich Bessel
1844--W. F. Donkin
1845--Ellis
1853--Adolphe Quetelet
7. 5
1856-- La fórmula de Peters para r, el error probable de una única observación, es bien conocida
1860--Richard Dedekind
1864--De Morgan
1870--Morgan Crofton
1872--Helmert
1873--Glaisher
1874--Hermann Laurent
1875--Giovanni Schiaparelli
1930-- Andréi Kolmogorov desarrolló la base axiomática de la probabilidad utilizando teoría de la
medida.
En la parte geométrica los colaboradores de The Educational Times fueron influyentes (Miller,
Crofton, McColl, Wolstenholme, Watson y Artemas Martin).
8. 6
DEFINICION DE LA PROBABILIDAD
Según La Frecuencia Relativa:
La autodefinición axiomática de la probabilidad se define con base a sí misma, la probabilidad
estimada o honírica basada en la frecuencia relativa de aparición de un suceso S cuando Ω es muy
grande. La probabilidad de un suceso es una medida que se escribe como
,
Y mide con qué frecuencia ocurre algún suceso si se hace algún experimento indefinidamente.
Según La Definición Axiomática:
La definición anterior es complicada de representar matemáticamente ya que Ω debiera ser infinito.
Otra manera de definir la probabilidad es de forma axiomática esto estableciendo las relaciones o
propiedades que existen entre los conceptos y operaciones que la componen.
TIPOS DE PROBABILIDAD
Probabilidad Discreta:
Este tipo de probabilidad, es aquel que puede tomar sólo ciertos valores diferentes que son el
resultado de la cuenta de alguna característica de interés. Probabilidad Continúa:
Una variable aleatoria es una función medible:
Y: Ω—R
Que da un valor numérico a cada suceso en Ω.
9. 7
TEORIA DE LA PROBABILIDAD
La probabilidad constituye un importante parámetro en la determinación de las diversas
casualidades obtenidas tras una serie de eventos esperados dentro de un rango estadístico.
El concepto de probabilidad nace con el deseo del hombre de conocer con certeza los eventos
futuros. Es por ello que el estudio de probabilidades surge como una herramienta utilizada por los
nobles para ganar en los juegos y pasatiempos de la época. El desarrollo de estas herramientas fue
asignado a los matemáticos de la corte.
Con el tiempo estas técnicas matemáticas se perfeccionaron y encontraron otros usos muy
diferentes para la que fueron creadas. Actualmente se continúo con el estudio de nuevas
metodologías que permitan maximizar el uso de la computación en el estudio de las probabilidades
disminuyendo, de este modo, los márgenes de error en los cálculos.
A través de la historia se han desarrollado tres enfoques conceptuales diferentes para definir la
probabilidad y determinar los valores de probabilidad:
El Enfoque Clásico:
Dice que si hay x posibles resultados favorables a la ocurrencia de un evento A y z posibles
resultados desfavorables a la ocurrencia de A, y todos los resultados son igualmente posibles y
mutuamente excluyente (no pueden ocurrir los dos al mismo tiempo), entonces la probabilidad de
que ocurra A es:
El enfoque clásico de la probabilidad se basa en la suposición de que cada resultado sea igualmente
posible. Este enfoque es llamado enfoque a priori porque permite, (en caso de que pueda aplicarse)
calcular el valor de probabilidad antes de observar cualquier evento de muestra.
Ejemplo:
Si tenemos en una caja 15 piedras verdes y 9 piedras rojas. La probabilidad de sacar una piedra roja
en un intento es:
FUNCION DE DENSIDAD
La función de densidad, o densidad de probabilidad de una variable aleatoria, es una función a partir
de la cual se obtiene la probabilidad de cada valor que toma la variable. Su integral en el caso de
variables aleatorias continuas es la distribución de probabilidad. En el caso de variables aleatorias
discretas la distribución de probabilidad se obtiene a través del sumatorio de la función de densidad.
10. 8
ENFOQUES DE LA TEORIA DE PROBABILIDAD
El Enfoque de frecuencia relativa:
También llamado Enfoque Empírico, determina la probabilidad sobre la base de la proporción de
veces que ocurre un evento favorable en un número de observaciones. En este enfoque no ese
utiliza la suposición previa de aleatoriedad. Porque la determinación de los valores de probabilidad
se basa en la observación y recopilación de datos.
Ejemplo:
Se ha observado que 9 de cada 50 vehículos que pasan por una esquina no tienen cinturón de
seguridad. Si un vigilante de transito se para en esa misma esquina un ida cualquiera ¿Cuál será la
probabilidad de que detenga un vehículo sin cinturón de seguridad?
Tanto el enfoque clásico como el enfoque empírico conducen a valores objetivos de probabilidad, en
el sentido de que los valores de probabilidad indican al largo plazo la tasa relativa de ocurrencia del
evento.
El Enfoque Subjetivo:
Dice que la probabilidad de ocurrencia de un evento es el grado de creencia por parte de un
individuo de que un evento ocurra, basado en toda la evidencia a su disposición. Bajo esta premisa
se puede decir que este enfoque es adecuado cuando solo hay una oportunidad de ocurrencia del
evento. Es decir, que el evento ocurrirá o no ocurrirá esa sola vez. El valor de probabilidad bajo este
enfoque es un juicio personal. Se define como cálculo de probabilidad al conjunto de reglas que
permiten determinar si un fenómeno ha de producirse, fundando la suposición en el cálculo, las
estadísticas o la teoría.
Existen diversas formas como método abstracto, como la teoría Dempster-Shafer y la numérica,
esta última con un alto grado de aceptación si se toma en cuenta que disminuye considerablemente
las posibilidades hasta un nivel mínimo ya que somete a todas las antiguas reglas a una simple ley
de relatividad.
La probabilidad de un evento se denota con la letra p y se expresa en términos de una fracción y no
en porcentajes, por lo que el valor de p cae entre 0 y 1. Por otra parte, la probabilidad de que un
evento "no ocurra" equivale a 1 menos el valor de p y se denota con la letra q:
11. 9
METODOS PARA CALCUAR LA PROBABILIDAD
Regla de la Adición:
La regla de la adición o regla de la suma establece que la probabilidad de ocurrencia de cualquier
evento en particular es igual a la suma de las probabilidades individuales, si es que los eventos son
mutuamente excluyentes, es decir, que dos no pueden ocurrir al mismo tiempo.
La Regla de la Adición expresa que: la probabilidad de ocurrencia de al menos dos sucesos A y B es
igual a:
P(A o B) = P(A) U P(B) = P(A) + P(B) si A y B son mutuamente excluyente
P(A o B) = P(A) + P(B) – P(A y B) si A y B son no excluyentes
Siendo: P(A) = probabilidad de ocurrencia del evento A
P(B) = probabilidad de ocurrencia del evento B
P(A y B) = probabilidad de ocurrencia simultanea de los eventos A y B
Regla de la Multiplicación:
La regla de la multiplicación establece que la probabilidad de ocurrencia de dos o más eventos
estadísticamente independientes es igual al producto de sus probabilidades individuales.
Se relacionan con la determinación de la ocurrencia de conjunta de dos o más eventos. Es decir la
intersección entre los conjuntos de los posibles valores de A y los valores de B, esto quiere decir
que la probabilidad de que ocurran conjuntamente los eventos A y B es:
P(A y B) = P(A B) = P(A)P(B) si A y B son independientes
P(A y B) = P(A B) = P(A)P(B|A) si A y B son dependientes
P(A y B) = P(A B) = P(B)P(A|B) si A y B son dependientes
Distribución Binomial:
La probabilidad de ocurrencia de una combinación específica de eventos independientes y
mutuamente excluyentes se determina con la distribución binomial, que es aquella donde hay solo
dos posibilidades, tales como masculino/femenino o si/no.
12. 10
APLICACIONES DE LA PROBABILIDAD
Dos aplicaciones principales de la teoría de la probabilidad en el día a día son en el análisis de
riesgo y en el comercio de los mercados de materias primas. Los gobiernos normalmente aplican
métodos probabilísticos en regulación ambiental donde se les llama "análisis de vías de dispersión",
y a menudo miden el bienestar usando métodos que son estocásticos por naturaleza, y escogen qué
proyectos emprender basándose en análisis estadísticos de su probable efecto en la población
como un conjunto.
No es correcto decir que la estadística está incluida en el propio modelado, ya que típicamente los
análisis de riesgo son para una única vez y por lo tanto requieren más modelos de probabilidad
fundamentales, por ej. "la probabilidad de otro 11-S". Una ley de números pequeños tiende a
aplicarse a todas aquellas elecciones y percepciones del efecto de estas elecciones, lo que hace de
las medidas probabilísticas un tema político.
Un buen ejemplo es el efecto de la probabilidad percibida de cualquier conflicto generalizado sobre
los precios del petróleo en Oriente Medio - que producen un efecto dominó en la economía en
conjunto. Un cálculo por un mercado de materias primas en que la guerra es más probable en contra
de menos probable probablemente envía los precios hacia arriba o hacia abajo e indica a otros
comerciantes esa opinión.
Por consiguiente, las probabilidades no se calculan independientemente y tampoco son
necesariamente muy racionales. La teoría de las finanzas conductuales surgió para describir el
efecto de este pensamiento de grupo en el precio, en la política, y en la paz y en los conflictos.
Se puede decir razonablemente que el descubrimiento de métodos rigurosos para calcular y
combinar los cálculos de probabilidad ha tenido un profundo efecto en la sociedad moderna. Por
consiguiente, puede ser de alguna importancia para la mayoría de los ciudadanos entender cómo se
calculan los pronósticos y las probabilidades, y cómo contribuyen a la reputación y a las decisiones,
especialmente en una democracia.
Otra aplicación significativa de la teoría de la probabilidad en el día a día es en la fiabilidad. Muchos
bienes de consumo, como los automóviles y la electrónica de consumo, utilizan la teoría de la
fiabilidad en el diseño del producto para reducir la probabilidad de avería. La probabilidad de avería
también está estrechamente relacionada con la garantía del producto.
Se puede decir que no existe una cosa llamada probabilidad. También se puede decir que la
probabilidad es la medida de nuestro grado de incertidumbre, o esto es, el grado de nuestra
ignorancia dada una situación. Por consiguiente, puede haber una probabilidad de 1 entre 52 de que
a primera carta en una baraja sea la J de diamantes. Sin embargo, si uno mira la primera carta y la
reemplaza, entonces la probabilidad es o bien 100% ó 0%, y la elección correcta puede ser hecha
con precisión por el que ve la carta.
La física moderna proporciona ejemplos importantes de situaciones determinísticas donde sólo la
descripción probabilística es factible debido a información incompleta y la complejidad de un sistema
así como ejemplos de fenómenos realmente aleatorios.
En un universo determinista, basado en los conceptos newtonianos, no hay probabilidad si se
conocen todas las condiciones. En el caso de una ruleta, si la fuerza de la mano y el periodo de esta
fuerza es conocida, entonces el número donde la bola parará será seguro.
Naturalmente, esto también supone el conocimiento de la inercia y la fricción de la ruleta, el peso,
lisura y redondez de la bola, las variaciones en la velocidad de la mano durante el movimiento y así
sucesivamente. Una descripción probabilística puede entonces ser más práctica que la mecánica
newtoniana para analizar el modelo de las salidas de lanzamientos repetidos de la ruleta.
Los físicos se encuentran con la misma situación en la teoría cinética de los gases, donde el sistema
determinístico en principio, es tan complejo (con el número de moléculas típicamente del orden de
magnitud de la constante de Avogadro ) que sólo la descripción estadística de sus propiedades es
viable. La mecánica cuántica, debido al principio de indeterminación de Heisenberg, sólo puede ser
13. 11
descrita actualmente a través de distribuciones de probabilidad, lo que le da una gran importancia a
las descripciones probabilísticas. Algunos científicos hablan de la expulsión del paraíso. Otros no se
conforman con la pérdida del determinismo. Albert Einstein comentó estupendamente en una carta a
Max Born: Jedenfalls bin ich überzeugt, daß der Alte nicht würfelt. (Estoy convencido de que Dios no
tira el dado).
No obstante hoy en día no existe un medio mejor para describir la física cuántica si no es a través de
la teoría de la probabilidad. Mucha gente hoy en día confunde el hecho de que la mecánica cuántica
se describe a través de distribuciones de probabilidad con la suposición de que es por ello un
proceso aleatorio, cuando la mecánica cuántica es probabilística no por el hecho de que siga
procesos aleatorios sino por el hecho de no poder determinar con precisión sus parámetros
fundamentales, lo que imposibilita la creación de un sistema de ecuaciones determinista.
Investigación Biomédica:
La mayoría de las investigaciones biomédicas utilizan muestras de probabilidad, es decir, aquellas
que el investigador pueda especificar la probabilidad de cualquier elemento en la población que
investiga. Las muestras de probabilidad permiten usar estadísticas inferencia les, aquellas que
permiten hacer inferencias a partir de datos. Por otra parte, las muestras no probabilísticas solo
permiten usarse estadísticas descriptivas, aquellas que solo permiten describir, organizar y resumir
datos. Se utilizan cuatro tipos de muestras probabilísticas: muestras aleatorias simples, muestras
aleatorias estratificadas, muestra por conglomerados y muestras sistemáticas.
14. 12
EL VALOR DE LA PROBABILIDAD
El valor más pequeño que puede tener la probabilidad de ocurrencia de un evento es igual a 0, el
cual indica que el evento es imposible, y el valor mayor es 1, que indica que el evento ciertamente
ocurrirá. Entonces si decimos que P(A) es la probabilidad de ocurrencia de un evento A y P(A´ ) la
probabilidad de no-ocurrencia de A, tenemos que:
Eventos mutuamente excluyentes y eventos no excluyentes
Dos o más eventos son mutuamente excluyentes o disjuntos, si no pueden ocurrir simultáneamente.
Es decir, la ocurrencia de un evento impide automáticamente la ocurrencia del otro evento (o
eventos).
Ejemplo 1:
Al lanzar una moneda solo puede ocurrir que salga cara o cruz pero no los dos a la vez, esto quiere
decir que estos eventos son excluyentes.Dos o más eventos son no excluyentes, o conjuntos,
cuando es posible que ocurran ambos. Esto no indica que necesariamente deban ocurrir estos
eventos en forma simultánea.
Ejemplo 2:
Si consideramos en un juego de domino sacar al menos un blanco y un seis, estos eventos son no
excluyentes porque puede ocurrir que salga el seis blanco.
Eventos Independientes:
Dos o más eventos son independientes cuando la ocurrencia o no-ocurrencia de un evento no tiene
efecto sobre la probabilidad de ocurrencia del otro evento (o eventos). Un caso típico de eventos
independiente es el muestreo con reposición, es decir, una vez tomada la muestra se regresa de
nuevo a la población donde se obtuvo.
Ejemplo:
Lanzar al aire dos veces una moneda son eventos independientes por que el resultado del primer
evento no afecta sobre las probabilidades efectivas de que ocurra cara o sello, en el segundo
lanzamiento.
Eventos Dependientes:
Dos o más eventos serán dependientes cuando la ocurrencia o no-ocurrencia de uno de ellos afecta
la probabilidad de ocurrencia del otro (o otros). Cuando tenemos este caso, empleamos entonces, el
concepto de probabilidad condicional para denominar la probabilidad del evento relacionado. La
expresión P(A|B) indica la probabilidad de ocurrencia del evento A sí el evento B ya ocurrió.
Se debe tener claro que A|B no es una fracción.
P(A|B) = P(A y B)/P(B) o P(B|A) = P(A y B)/P(A)
15. 13
DISTRIBUCION DE LA PROBABILIDAD
Distribución de Probabilidad Normal:
Es una distribución de probabilidad continua que es tanto simétrica como mesocurtica. La curva que
representa la distribución de probabilidad normal se describe generalmente como en forma de
campana. Esta distribución es importante en inferencia estadística por tres razones diferentes:
1. Se sabe que las medidas producidas en muchos procesos aleatorios siguen esta distribución.
2. Las probabilidades normales pueden utilizarse generalmente para aproximar otras distribuciones
de probabilidad, tales como las distribuciones binomial y de Poisson.
3. Las distribuciones estadísticas tales como la media de la muestra y la proporción de la muestra,
siguen a menudo la distribución normal, sin tener en cuenta la distribución de la población
Los valores de los parámetros de la distribución de probabilidad normal son = 0 y = 1. Cualquier
conjunto de valores X normalmente distribuido pueden convertirse en valores normales estándar z
por medio de la formula:
Haciendo posible el uso de la tabla de proporciones de área y hace innecesario el uso de la
ecuación de la función de densidad de cualquier distribución normal dada. Para aproximar las
distribuciones discretas binomial y de Poisson se debe hacer:
BINOMINIAL | np | np(1-p) | Si n > 30.np > 5 n(1-p) > 5 |
POISSON | | | > 10 |
Distribución de Probabilidad Exponencial
Si en el contexto de un proceso de Poisson ocurren eventos o éxitos en un espectro continuo de
tiempo y espacio. Entonces la longitud del espacio o tiempo entre eventos sucesivos sigue una
distribución de probabilidad exponencial. Puesto que el tiempo y el espacio son un espectro
continuo, esta es una distribución continua. En caso de este tipo de distribución no vale la pena
preguntarse ¿cuál es la probabilidad de que el primer pedido de servicio se haga exactamente de
aquí a un minuto? Más bien debemos asignar un intervalo dentro del cual el evento puede ocurrir,
preguntándonos, ¿cuál es la probabilidad de que el primer pedido se produzca en el próximo
minuto?
Dado que el proceso de Poisson es estacionario, la distribución exponencial se aplica ya sea cuando
estamos interesados en el tiempo (o espacio) hasta el primer evento, el tiempo entre dos eventos
sucesivos, o el tiempo hasta que ocurra el primer evento después de cualquier punto aleatoriamente
seleccionado. Donde es la cifra media de ocurrencias para el intervalo de interés, la probabilidad
exponencial de que el primer evento ocurra dentro del intervalo designado de tiempo o espacio es.
P (T < t) = 1 - e –
De manera que la probabilidad exponencial de que el primer evento no ocurra dentro del intervalo
designado de tiempo o espacio es:
P (T > t) = e –
Ejemplo:
Un departamento de mantenimiento recibe un promedio de 5 llamadas por hora. Comenzando en un
momento aleatoriamente seleccionado, la probabilidad de que una llamada llegue dentro de media
hora es:
Promedio 5 por hora, como el intervalo es media hora tenemos que = 2,5/media hora.
P (T < 30 min.) = 1- e -5 = 1 - 0,08208 = 0,91792
16. 14
EJEMPLOS DE LA TEORIA DE PROBABILIDAD
Si analizamos detalladamente el ejemplo, podemos apreciar:
Un experimento aleatorio, lanzar una moneda al aire. Unos resultados puntuales, sale cara o sale
cruz y no podemos tener la certeza de antemano de que sea cara o sea cruz.
Unas asignaciones de probabilidad a cada uno de los resultados, que se basan en el sentido común
y en nuestra experiencia previa. Vamos a definir de manera más precisa cada uno de los elementos
que intervienen:
Experimento aleatorio: Es el experimento que se caracteriza porque su desarrollo no es previsible
con certidumbre.
Espacio maestral: Asociado a un experimento aleatorio es el conjunto de todos los resultados que se
pueden obtener al realizar el experimento. Lo designamos con la letra E y colocamos sus elementos
entre llaves y separados por comas.
Suceso: De un experimento aleatorio es cada uno de los subconjuntos del espacio muestral E. Los
designamos por letras mayúsculas: A,B,C,..., ponemos sus elementos entre llaves y separados por
comas.
Observación: Un resultado concreto de un experimento es un elemento del espacio muestral
asociado al experimento, conceptualmente suceso y resultado son dos cosas distintas. Los
resultados de un experimento aleatorio se suelen representar con letras minúsculas, los sucesos
con letras mayúsculas.
En el ejemplo anterior, el suceso A ocurre siempre que el resultado del experimento sea el elemento
2, el elemento 4 o el elemento 6.
La confusión entre suceso y resultado se debe a que cuando el suceso es: " que al lanzar un dado
salga 2" y el resultado:"sale un dos al lanzar el dado", sólo ocurre el suceso cuando el resultado es
2.
Suceso: "Sale un dos" es el subconjunto {2} del espacio muestral
Resultado: "Sale un dos" es el elemento 2 del espacio muestral
Funciones de distribución: El paso siguiente es asignar (distribuir) probabilidades. Las definiciones
que siguen están motivadas por el ejemplo del lanzamiento de una moneda, recordamos que en ese
ejemplo a cada resultado del espacio muestral le asignábamos un número no negativo tal que la
suma de todos los números asignados a cada resultado deberá ser 1.
Definición: Sea X una variable que representa a los posibles resultados de un experimento aleatorio,
en principio vamos a asumir que este experimento tiene sólo un número finito de posibles
resultados. Sea E, el espacio muestral del experimento. Una función de distribución para X es una
función real f cuyo dominio es E y que satisface:
Ejemplo:
Sean tres equipos de futbol, a, b y c que se presentan a un torneo de verano, sólo uno ganará el
torneo. El espacio muestral es el conjunto de tres elementos, E={a,b,c}, donde cada elemento
corresponde al triunfo de cada uno de los equipos. Suponemos que a y b tienen las mismas
posibilidades de ganar y c tiene solamente la mitad de las posibilidades de ganar que a. Debemos
asignar probabilidades de modo que :
Sea el suceso A, "gana el trofeo el equipo a”; el suceso B, "gana el trofeo el equipo b" y el suceso C,
"gana el trofeo el equipo c". En el lenguaje de la teoría de conjuntos: En este último caso se puede
apreciar como un suceso se puede describir en términos de otros sucesos utilizando las
construcciones estándar de la teoría de conjuntos. Las representaciones
17. 15
gráficas de las construcciones de la teoría de conjuntos se llaman diagramas de Venn. En ocasiones
es muy conveniente para resolver un problema de probabilidad hacer la representación gráfica del
espacio muestral y de los sucesos (subconjuntos del espacio muestral) que intervienen en el
problema
Operaciones Con Sucesos:
Sucesos Compatibles e Incompatibles
Suceso Contrario
Dado un suceso A, se llama suceso contrario de A a un suceso que se verifica cuando no se verifica
A. Diferencia de Sucesos
Leyes de De Morgan
Se pueden comprobar gráficamente.
Teorema 1. Propiedades Básicas
Las probabilidades asignadas a cada suceso por una función de distribución definida sobre un
espacio muestral E de un experimento aleatorio, verifican las siguientes propiedades:
Teorema 2.
Si A y B son subconjuntos de E, entonces: Sistema completo de sucesos.
Regla de Laplace.
Si en un experimento aleatorio todos los sucesos elementales son equiprobables, la probabilidad de
un suceso A se obtiene dividiendo el número de resultados que forman el suceso A entre el número
de resultados posibles.
Si llamamos casos favorables a los resultados que forman el suceso A y casos posibles a los
resultados posibles del experimento, tenemos:
Probabilidad Condicionada
En un concurso de televisión, se dispone de 20 coches, para premiar al concursante, de las marcas
y colores que se indican en la siguiente tabla:
| Rojo | Azul | Totales |
SeatPanda | 2 | 8 | 10 |
SeatToledo | 7 | 3 | 10 |
Totales | 9 | 11 | 20 |
Los coches están colocados aleatoriamente, tras 20 puertas, de forma que el concursante no ve el
coche que hay detrás de cada puerta. El concursante elige un número, entre 1 y 20, y si acierta la
marca y el color del coche que hay en la puerta elegida, gana, en caso contrario pierde.
El concurso lo podemos considerar como un experimento aleatorio. Cada resultado es el coche
elegido.
18. 16
Para describir fácilmente todo el proceso vamos a considerar:
Suceso P: | El coche es un Seat Panda |
Suceso T: | El coche es un Seat Toledo |
Suceso R: | El coche es de color rojo |
Suceso A: | El coche es de color azul |
Así el suceso: "Seat Toledo de color rojo" lo representamos por : T ∩ R y la probabilidad de este
suceso, sigue de la tabla :
| Rojo | Azul | Totales |
SeatPanda | 2 | 8 | 10 |
SeatToledo | 7 | 3 | 10 |
Totales | 9 | 11 | 20 |
P (T ∩ R) = 7/20
La probabilidad de que el coche sea un Seat Toledo es:
| Rojo | Azul | Totales |
SeatPanda | 2 | 8 | 10 |
SeatToledo | 7 | 3 | 10 |
Totales | 9 | 11 | 20 |
P (T)=10/20 = ½
¿Qué ocurre si, una vez que el concursante ha elegido puerta, el presentador, le da la pista de que
el coche que hay tras la puerta es rojo?. Tendremos que cambiar la probabilidad al suceso T y al
suceso P. A la probabilidad del suceso T cuando se sabe que ha ocurrido R, le llamamos
probabilidad condicionada de T, sabiendo que ha ocurrido R y escribimos (T/R)
Para asignar las nuevas probabilidades hemos de ser consecuentes con las propiedades que debe
cumplir toda asignación de probabilidades. El nuevo espacio muestral es el señalado en rojo en la
tabla siguiente. Por tanto asignamos así las probabilidades: Rojo | Azul | Totales |
SeatPanda | 2 | 8 | 10 |
SeatToledo | 7 | 3 | 10 |
Totales | 9 | 11 | 20 |
P (T/R) = 7/9 ; P(P/R) = 2/9
De la tabla anterior, siguen fácilmente las siguientes relaciones:
Consideremos ahora el siguiente experimento : Dos urnas, A y B ,la urna A, contiene 3 bolas verdes
y 2 bolas rojas, la urna B contiene 2 bolas verdes y 3 bolas rojas.
Se realiza el experimento en dos tiempos, primero se selecciona urna por un procedimiento aleatorio
y posteriormente de la urna elegida se extrae una bola.
19. 17
Para representar, de forma muy adecuada, este tipo de experimentos, se realiza un esquema,
llamado: árbol de probabilidades
Cada flecha del diagrama se denomina rama del árbol; a cada rama, asignamos la probabilidad que
le corresponde. Un recorrido, desde el comienzo del experimento hasta el final, se llama un camino.
Si sabemos que ha ocurrido el suceso A, tenemos que volver a asignar probabilidades a los distintos
caminos; todos los caminos que comienzan por el suceso B, tendrán probabilidad 0 y los que
empiezan por el suceso A:
Hay que aceptar por tanto las mismas relaciones entre probabilidades a las que habíamos llegado
en el experimento anterior:
Para concretar tenemos que admitir la siguiente definición: Definición 1. Probabilidad condicionada.
De un suceso R sabiendo que ha ocurrido otro A Y dos teoremas:
Teorema 1. Regla del Producto
De la definición 1, despejando, sigue que:
Si A y B forman un sistema completo de sucesos, la probabilidad de cualquier otro
Teorema 2. Probabilidad Total
Sucesos Dependientes
Dos sucesos son dependientes si el resultado de uno influye en el otro. Los sucesos A y B son
dependientes si y sólo si P(A) es distinto de P(A/B) y P(B) es distinto de P(B/A
Sucesos Independientes
Dos sucesos son independientes si el resultado de uno no influye en el resultado del otro. Los
sucesos A y B son independientes si y sólo si P(A)=P(A/B) y P(B)=P(B/A).
Probabilidades a posteriori. Teorema de Bayes.
Vamos a considerar de nuevo, el experimento de las urnas A y B, que contienen bolas verdes y
rojas:
Si sabemos que ha salido una bola roja, los caminos posibles en el árbol de probabilidades, quedan
reducidos a dos, los señalados en rojo en la imagen anterior; tenemos que reasignar probabilidades,
todos los caminos que terminan en bola verde, deberán tener probabilidad 0. ¿Cómo asignamos
probabilidades a los caminos que conducen a bola roja?
En resumen podemos enunciar el siguiente resultado: Teorema de Bayes o de las probabilidades a
posteriori
20. 18
CONCLUSION
La probabilidad mide la frecuencia con la que se obtiene un resultado al llevar a cabo inexperimento
aleatorio, del que se conocen todos los resultados posibles, bajo condiciones suficientemente
estables. La teoría de la probabilidad se usa extensamente en áreas como la estadística, la física, la
matemática, la ciencia y la filosofía para sacar conclusiones sobre la probabilidad de sucesos
potenciales y la mecánica subyacente de sistemas complejos.
La probabilidad constituye un importante parámetro en la determinación de las diversas
casualidades obtenidas tras una serie de eventos esperados dentro de un rango estadístico. Dos
aplicaciones principales de la teoría de la probabilidad en el día a día son en el análisis de riesgo y
en el comercio de los mercados de materias primas.
Los gobiernos normalmente aplican métodos probabilísticos en regulación ambiental donde se les
llama "análisis de vías de dispersión", y a menudo miden el bienestar usando métodos que son
estocásticos por naturaleza, y escogen qué proyectos emprender basándose en análisis estadísticos
de su probable efecto en la población como un conjunto. No es correcto decir que la estadística está
incluida en el propio modelado, ya que típicamente los análisis de riesgo son para una única vez y
por lo tanto requieren más modelos de probabilidad fundamentales, por ej. "la probabilidad de otro
11-S". Una ley de números pequeños tiende a aplicarse a todas aquellas elecciones y percepciones
del efecto de estas elecciones, lo que hace de las medidas probabilísticas un tema político
.
Otra aplicación significativa de la teoría de la probabilidad en el día a día es en la fiabilidad. Muchos
bienes de consumo, como los automóviles y la electrónica de consumo, utilizan la teoría de la
fiabilidad en el diseño del producto para reducir la probabilidad de avería. La probabilidad de avería
también está estrechamente relacionada con la garantía del producto
.