BIOLOGIA_banco de preguntas_editorial icfes examen de estado .pdf
Teoria de la probabilidad estadistica
1. REPUBLICA BOLIVARIANA DE VENEZUELA
MINISTERIO DEL PODER POPULAR PARA LA EDUCACION UNIVERSITARIA
INSTITUTO UNIVERSITARIO POLITECNICO SANTIAGO MARIÑO
ESTADISTICA I
TEORIA DE LA PROBABILIDAD
Realizado por:
José Villalobos C.I.: 19.073.894
Maracaibo, Edo. Zulia
2. Introducción
La probabilidad mide la frecuencia con la que se obtiene un resultado al llevar a
cabo un experimento aleatorio, del que se conocen todos los resultados posibles, bajo
condiciones suficientemente estables. La teoría de la probabilidad se usa
extensamente en áreas como la estadística, la física, la matemática, la ciencia y la
filosofía para sacar conclusiones sobre la probabilidad de sucesos potenciales y la
mecánica subyacentes de sistemas complejos.
La teoría de la probabilidad es la parte de las matemáticas que estudia los
fenómenos aleatorios. Estos deben contraponerse a los fenómenos determinanticos,
los cuales son resultados únicos y previsibles de experimentos realizados bajo las
mismas condiciones determinadas. Los fenómenos aleatorios, por el contrario, son
aquellos que se obtienen como resultado de experimentos realizados, otra vez, bajo
las mismas condiciones determinadas pero como resultado posible poseen un
conjunto de alternativas, por ejemplo, el lanzamiento de un dado o de un dardo.
Los procesos reales que se modelizan como procesos aleatorios pueden no serlo
realmente; cómo tirar una moneda o un dado no son procesos de aleación en sentido
estricto, ya que no se reproducen exactamente las mismas condiciones iníciales que lo
determinan, sino sólo unas pocas. En los procesos reales que se modelizan mediante
distribuciones de probabilidad corresponden a modelos complejos donde no se
conocen todos los parámetros que intervienen; ésta es una de las razones por las
cuales la estadística, que busca determinar estos parámetros, no se reduce
inmediatamente a la teoría de la probabilidad en sí.
Actualmente, la teoría de la probabilidad encuentra aplicación en las más variadas
ramas del conocimiento, como puede ser la física o las finanzas.
3. Cronología de algunos avances de la probabilidad
1657- Christiaan Huygens le dio el tratamiento científico conocido más temprano al
concepto.
1713- Ars Conjectandi, de Jakob Bernoulli y Doctrine of Chances de Abraham de
Moivre trataron el tema como una rama de las matemáticas.
1722- La teoría de errores puede trazarse atrás en el tiempo hasta Opera Miscellanea
de Roger Cotes
1755- Thomas Simpson preparo una memoria impresa en 1756 donde aplicó por
primera vez la teoría para la discusión de errores de observación
1757- La reimpresión de esta memoria expone los axiomas de que los errores
positivos y negativos son igualmente probables, y que hay ciertos límites asignables
dentro de los cuales se supone que caen todos los errores; se discuten los errores
continuos y se da una curva de la probabilidad.
1774- Pierre-Simon Laplace hizo el primer intento para deducir una regla para la
combinación de observaciones a partir de los principios de la teoría de las
probabilidades. Representó la ley de la probabilidad de error con una curva y = φ(x),
siendo x cualquier error e y y su probabilidad, y expuso tres propiedades de esta
curva: que es simétrica al eje y; el eje x es una asíntota, siendo la probabilidad del
error igual a 0; la superficie cerrada es 1, haciendo cierta la existencia de un error.
1778- Daniel Bernoulli introdujo el principio del máximo producto de las probabilidades
de un sistema de errores concurrentes.
1781- Se obtuvo una fórmula para la ley de facilidad de error (un término debido a
Lagrange, 1774), pero una que llevaba a ecuaciones inmanejables.
1805- El método de mínimos cuadrados se debe a Adrien-Marie Legendre, que lo
introdujo nuevos métodos para la determinación de las órbitas de los cometas.
1808- Ignorando la contribución de Legendre, un escritor irlandés estadounidense,
Robert Adrain, editor de "The Analyst" , dedujo por primera vez la ley de facilidad de
error, Siendo c y h constantes que dependen de la precisión de la observación.
Expuso dos demostraciones, siendo la segunda esencialmente la misma de John
Herschel
1809- Gauss expuso la primera demostración que parece que se conoció en Europa.
4. Teoría de la probabilidad.
Definicióndeprobabilidad.
La definición general de la probabilidad está en la idea de "verosimilitud". La
interpretación de lo que es la probabilidad, sin embargo, no está acordado. Sin
embargo, todas las teorías de probabilidad concuerdan en que la probabilidad es un
número real en el intervalo de 0 a 1. Sin embargo, aquí es donde los probabilistas
terminan sus coincidencias. Cómo se calcula una probabilidad y cómo se puede
utilizar una probabilidad para hacer inferencias depende de la teoría que se apoya.
Probabilidadobjetiva
La teoría de la probabilidad objetiva afirma que una probabilidad es una
característica inherente de un objeto. Por ejemplo, los dados inherentemente tienen
seis caras, todas planas y ocupan la misma cantidad de espacio. Así, debido a esta
simetría, la probabilidad de un tiro que venga con un número específico es de 1/6. La
implicación de esta teoría es que las probabilidades se pueden calcular mediante la
inspección de un objeto o conocer un evento; no se necesita realizar experimentos.
Frecuenciarelativa
Esta teoría de la probabilidad establece que la probabilidad, aunque sea una
cantidad objetiva, nunca puede ser conocida en el mundo real. Los partidarios de la
teoría de la frecuencia relativa definen la probabilidad de un evento como el número de
veces que el evento ocurre en cuanto al número de veces que el evento podría haber
ocurrido, en el supuesto de que se observa una situación de un número infinito de
veces. Por supuesto, es imposible tirar los dados un número infinito de veces, lo que
impide a una persona obtener la probabilidad real. En otras palabras, los que están de
acuerdo con la definición frecuencia relativa de probabilidad no estarán de acuerdo en
que tirar un 4 tiene una probabilidad de ocurrir de 1/6 a menos que se corran un gran
número de experimentos controlados.
Probabilidadsubjetiva
La probabilidad subjetiva es lo opuesto a la probabilidad objetiva, puesto que
señala con bastante audacia que la probabilidad no es real. Los partidarios de esta
teoría establecen que la probabilidad de un evento sólo existe en la mente de un
individuo. Por lo tanto, el mismo evento puede tener múltiples probabilidades al ser
analizados por muchos. Para resumir esta postura, la probabilidad se define como una
medida de la creencia de que un determinado evento ocurra. Por ejemplo, un individuo
puede elegir creer que la probabilidad de obtener un "4" es en realidad un 1/2
5. Espacio Muestral
La Estadística, y por tanto el Cálculo de Probabilidades, se ocupan de los
denominados fenómenos o experimentos aleatorios.
El conjunto de todos los resultados posibles diferentes de un determinado
experimento aleatorio se denomina Espacio Muestral asociado a dicho experimento y
se suele representar por Ω. A los elementos de Ω se les denominasucesos
elementales.
Así por ejemplo, el espacio muestral asociado al experimento aleatorio consistente
en el lanzamiento de una moneda es Ω= {Cara, Cruz}; el espacio muestral asociado al
lanzamiento de un dado es Ω={1, 2, 3, 4, 5, 6}, siendo Cara y Cruz los sucesos
elementales asociados al primer experimento aleatorio y 1, 2, 3, 4, 5 y 6 los seis
sucesos elementales del segundo experimento aleatorio.
A pesar de la interpretación que tiene el espacio muestral, no es más que un
conjunto abstracto de puntos (los sucesos elementales), por lo que el lenguaje, los
conceptos y propiedades de la teoría de conjuntos constituyen un contexto natural en
el que desarrollar el Cálculo de Probabilidades.
Sea A el conjunto de las partes de , es decir, el conjunto de todos los
subconjuntos de Ω. En principio, cualquier elemento de A, es decir, cualquier
subconjunto del espacio muestral contendrá una cierta incertidumbre, por lo que
trataremos de asignarle un número entre 0 y 1 como medida de su incertidumbre. En
Cálculo de Probabilidades dichos subconjuntos reciben en el nombre
de sucesos, siendo la medida de la incertidumbre su probabilidad. La tripleta (Ω,A,P)
recibe el nombre de espacio probabilístico.
Por tanto, asociado a todo experimento aleatorio existen tres conjuntos: El espacio
muestral , la clase de los sucesos, es decir, el conjunto de los elementos con
incertidumbre asociados a nuestro experimento aleatorio A, y una función real, P:A
[0, l], la cual asignará a cada suceso (elemento de A) un número entre cero y uno
como medida de su incertidumbre.
Advertimos no obstante, que la elección del espacio muestral asociado a un
experimento aleatorio no tiene por qué ser única, sino que dependerá de que sucesos
6. elementales queramos considerar como distintos y del problema de la asignación de la
probabilidad sobre esos sucesos elementales.
Conceptos de Probabilidad
En los casos más sencillos bastará con asignar la probabilidad a los sucesos
elementales de un experimento aleatorio. La probabilidad de los demás sucesos se
podrá calcular utilizando las propiedades que más adelante veremos.
En los casos más complicados (que habitualmente se corresponderán con las
situaciones reales) asignaremos un modelo probabilístico al experimento en cuestión,
como ideal que creemos corresponde a la situación en estudio, ideal que veremos
habrá que chequear inferencialmente. Más adelante hablaremos de la asignación de
probabilidades. Ahora analizamos brevemente los conceptos que se han desarrollado
a lo largo de la historia, con el propósito de formalizar las ideas intuitivas que desde el
origen del hombre siempre existieron sobre la probabilidad, aunque no llegaran a
formalizarse hasta comienzos del siglo XIX.
Concepto frecuentista
Es un hecho, empíricamente comprobado, que la frecuencia relativa de un suceso
tiende a estabilizarse cuando la frecuencia total aumenta.
Surge así el concepto frecuentista de la probabilidad de un suceso como un
número ideal al que converge su frecuencia relativa cuando la frecuencia total tiende a
infinito.
Así, solemos afirmar que la probabilidad de que salga un seis al tirar un dado es
1/6 porque al hacer un gran número de tiradas su frecuencia relativa es
aproximadamente esa.
El problema radica en que al no poder repetir la experiencia infinitas veces, la
probabilidad de un suceso ha de ser aproximada por su frecuencia relativa para un n
suficientemente grande, y ¿cuán grande es un n grande? 0, ¿qué hacer con aquellas
experiencias que solo se pueden repetir una vez?
7. Concepto clásico
Está basado en el concepto de resultados igualmente verosímiles y motivado por
el denominado Principio de la Razón Insuficiente, el cual postula que si no existe un
fundamento para preferir una entre varias posibilidades, todas deben ser consideradas
equiprobables.
Así, en el lanzamiento de una moneda perfecta la probabilidad de cara debe ser
igual que la de cruz y, por tanto, ambas iguales a 1/2..
De la misma manera, la probabilidad de cada uno de los seis sucesos elementales
asociados al lanzamiento de un dado debe ser 1/6.
Laplace recogió esta idea y formuló la regla clásica del cociente entre casos
favorables y casos posibles, supuestos éstos igualmente verosímiles.
El problema aquí surge porque en definitiva igualmente verosímil es lo mismo que
igualmente probable, es decir, se justifica la premisa con el resultado. Además ¿qué
ocurre cuando estamos considerando un experimento donde no se da esa simetría?,
o, ¿ qué hacer cuando el número de resultados posibles es infinito?.
Concepto subjetivo
Se basa en la idea de que la probabilidad que una persona da a un suceso debe
depender de su juicio y experiencia personal, pudiendo dar dos personas distintas
probabilidades diferentes a un mismo suceso.
Estas ideas pueden formalizarse, y si las opiniones de una persona satisfacen
ciertas relaciones de consistencia, puede llegarse a definir una probabilidad para los
sucesos.
El principal problema a que da lugar esta definición es, como antes dijimos, que
dos personas diferentes pueden dar probabilidades diferentes a un mismo suceso.
Probabilidad condicionada
Mediante un espacio probabilístico damos una formulación matemática a un
fenómeno aleatorio que estemos observando. Parece por tanto razonable que si
observamos algo que aporte información a nuestro fenómeno aleatorio, ésta deba
alterar el espacio probabilístico de partida.
8. Por ejemplo, la extracción de una bola de una urna con tres bolas blancas y dos
negras, puede formalizarse con un espacio probabilístico en el que los sucesos
elementales sean las cinco bolas y donde la probabilidad sea uniforme sobre estos
cinco sucesos elementales, es decir, igual a 1/5.
Si extraemos una bola de la urna, es decir, si observamos el suceso A bola negra, y
no la devolvemos a la urna, es razonable que el espacio probabilístico cambie en el
sentido no solo de que ahora ya habrá únicamente cuatro sucesos elementales, sino
que además la función de probabilidad deberá cambiar en orden a recoger la
información que la observación del suceso A nos proporcionó.
Es decir, en el nuevo espacio probabilístico deberá hablarse de probabilidad
condicionada al suceso A, de forma que se recojan hechos tan evidentes como que
ahora la probabilidad (condicionada) de obtener negra se habrá reducido y habrá
aumentado la de blanca.
Las propiedades vistas en el capítulo anterior para las distribuciones (le
frecuencias condicionadas llevan a la siguiente definición.
Independencia de sucesos
Existen situaciones en las que la información suministrada por el acaecimiento de
un suceso B no altera para nada el cálculo de la probabilidad de otro suceso A. Son
aquellas en las que el suceso A es independiente de B. Es decir, cuando
P(A/B) = P(A).
Por tanto, se podría decir que también B lo es de A, hablaremos de sucesos
independientes cuando esta situación ocurra. La definición formal que se da a
continuación implica estas dos situaciones.
Dos sucesos A y B de un mismo espacio probabilístico (Ω, A, P) se dicen
independientes cuando
P( A u B ) = P(A) · P(B)
9. Conclusiones
La probabilidad mide la frecuencia con la que se obtiene un resultado (o conjunto
de resultados) al llevar a cabo un experimento aleatorio, del que se conocen todos los
resultados posibles, bajo condiciones suficientemente estables. La teoría de la
probabilidad se usa extensamente en áreas como la estadística, la física, la
matemática, la ciencia y la filosofía para sacar conclusiones sobre la probabilidad de
sucesos potenciales y la mecánica subyacente de sistemas complejos.
La probabilidad constituye un importante parámetro en la determinación de las
diversas casualidades obtenidas tras una serie de eventos esperados dentro de un
rango estadístico.
Dos aplicaciones principales de la teoría de la probabilidad en el día a día son en
el análisis de riesgo y en el comercio de los mercados de materias primas.