El documento define los axiomas de la probabilidad, incluyendo que la probabilidad de un evento debe estar entre 0 y 1, la probabilidad de un evento seguro es 1 y la probabilidad de un evento imposible es 0, y la probabilidad de la intersección de eventos debe ser menor o igual que la probabilidad individual de cada evento. También describe leyes discretas y continuas de probabilidad.
1. Definición axiomática de probabilidad
Para hacer una definición rigurosa de la probabilidad, necesitamos precisar ciertas leyes o
axiomas que deba cumplir una función de probabilidad. Intuitivamente estos axiomas
deberían implicar, entre otras, las siguientes cuestiones, que nos parecen lógicas en
términos de lo que se puede esperar de una función de probabilidad:
La probabilidad sólo puede tomar valores comprendidos entre 0 y 1(no puede haber
sucesos cuya probabilidad de ocurrir sea del ni del ;
La probabilidad del suceso seguro es 1, es decir, el ;
La probabilidad del suceso imposible debe ser 0.
La probabilidad de la intersección de dos sucesos debe ser menor o igual que la
probabilidad de cada uno de los sucesos por separado, es decir,
Concepto axiomático de probabilidad
Dado un espacio muestralE, y un -álgebra de sucesos sobre él, diremos que es una
probabilidad sobre si las siguientes propiedades (axiomas) son verificadas:
Ax-1.
La probabilidad es una función definida sobre y que sólo toma valores positivos
comprendidos entre 0 y 1
2. Axiomas de las probabilidades
Una ley de probabilidad, o distribución de probabilidad, es una
función que a un evento asocia un número , su
probabilidad. Este número traduce la oportunidad que tiene el
evento de producirse. La forma más intuitiva de definir una tal
función es repetir el experimento aleatorio y asociar a cada evento
su frecuencia experimental. . Si es el número de experimentos,
el número de veces que se produce el evento , la frecuencia
experimental de es la razón . Aquí tenemos, como ejemplo,
repeticiones de un experimento cuyas eventualidades son 0, y
.
En este ejemplo la frecuencia experimental de es , la de
es . El inconveniente es que la frecuencia experimental
cambiará si rehacemos los experimentos. En otras palabras el
conjunto de las repeticiones constituye un nuevo experimento
aleatorio. Sin embargo todos tenemos en nuestra mente una idea de
la Ley de los Grandes Números según la cual las frecuencias
experimentales varían poco cuando el número de repeticiones es
grande. Veamos cuatro cálculos sucesivos de la frecuencia
experimental de , en repeticiones del mismo experimento
anterior.
3. Las propiedades que esperamos de una ley de probabilidad son las
mismas que las de las frecuencias experimentales. Las
consideraremos como los axiomas de la definición.
A1
Para todo evento , .
A2
La probabilidad del evento cierto es : .
A3
Si es una sucesión de eventos disjuntos dos a dos (
y no pueden suceder a la vez si ), entonces:
Una consecuencia inmediata de los axiomas A2 y A3 es la relación
entre la probabilidad de un evento y la de su opuesto, denotado
.
Una ley de probabilidad es creciente por inclusión, según A1 y A3:
si , entonces .
Las leyes de probabilidad que se emplean en la práctica son de dos
tipos particulares, las leyes discretas y las leyes continuas.
1. Leyes discretas
El conjunto de las eventualidades es finito o numerable:
4. Todas las partes de son eventos. Como todo evento es una
reunión finita o numerable de eventos individuales o aislados
(singleton), es suficiente definir la probabilidad de cada singleton:
Para todo , la probabilidad de será entonces determinada
por A3:
Ejemplo: Si el conjunto de los resultados es finito
y si no hay información que nos permita diferenciar unos resultados
de otros, es natural asociar a cada eventualidad la probabilidad
. La probabilidad de todo evento es entonces Card .
Esta probabilidad particular se llama la equiprobabilidad. En este
caso todos los cálculos se convierten en contar:
probabilidad
2. Leyes continuas
El conjunto de las eventualidades es . Los eventos son los
intervalos, y todos los subconjuntos de que se pueden formar
combinando intersecciones y uniones de intervalos. En la teoría de
la medida se les llama conjuntos borelianos.
Definición 1.1 Llamamos densidad de probabilidad a una función
de en , continua por pedazos y de integral igual a .
5. y
Dada una densidad de probabilidad, se define una ley de
probabilidad sobre , asociando a todo evento el valor de la
integral de la densidad sobre este evento:
Ejemplo:Para el experimento aleatorio que consiste en sacar al
azar un número real en el intervalo (llamar a Random ),
consideraremos sobre la ley de probabilidad continua de
densidad:
Ella asigna a todo intervalo contenido en una probabilidad igual
a su longitud.
6. la importancia de la probabilidad y la estadistica
En la actualidad la estadística es una ciencia que ha
logrado ganar importantes espacios en muchos ámbitos
cotidianos, es indispensable en estudios de poblaciones,
predicciones de riesgos, pero sobre todo proporciona
herramientas valiosas en la toma de decisiones eso sin
quitarle al ser humano la última palabra.
los problemas de probabilidad proporcionan una fuente
interesante para que pensemos un poco más allá de
nuestro sentido común, y unido a las estadística nos
permite hacer la llamada inferencia estadística.
vale aclarar que hasta este punto las ideas que
trabajaremos serán algo intuitivas, pero deseamos
formalizarlas dentro de poco tiempo.