Ensayo de la teoria de la probabilidad yarisnet suarez
1. REPUBLICA BOLIVARIANA DE VENEZUELA
MINISTERIO DEL PODER POPULAR PARA LA EDUCACION
INSTITUTO UNIVERSITARIO POLITECNICO SANTIAGO MARIÑO
CATEDRA: ESTADISTICA
ENSAYO DE LA TEORÍA DE LA PROBABILIDAD
Alumna. Yarisnet Suarez
CI. 21255275
2. Introducción.
Relatos antiguos sugieren que la teoría de la probabilidad se remonta a formas
primitivas de juegos de envite y azar. Gerolamo Cardan (1501-1576) afirmó que
hace casi 2000 años los soldados romanos inventaron muchos de nuestros juegos
de azar actuales sólo como pasatiempo durante sus campañas para conquistar a
la mayor parte del mundo civilizado. Otros autores afirman que la teoría de la
probabilidad tiene su origen en el siglo XVI en Francia por los juegos de azar y se
debe a la curiosidad de los jugadores que acosaban con preguntas a sus amigos
del mundo de las matemáticas (correspondencia entre Pascal y Fermat). En el
siglo XVII Jacob Bernouilli, miembro de una familia suiza de matemáticos,
estableció muchas de las leyes básicas de la probabilidad moderna. Thomas
Bayes (1702-1761) y Joseph Lagrange también se cuentan entre los pioneros de
la teoría de la probabilidad.
En la actualidad vemos que la teoría de la probabilidad ocupa un puesto
destacado en muchos asuntos de negocios. Los seguros y las prácticas
actuariales tienen una base firme en los principios de la teoría de la probabilidad.
Por ejemplo, las primas de los seguros de vida dependen de las tablas de
mortalidad, que a su vez se basan en la probabilidad de muerte a una edad
concreta. La probabilidad también se aplica a la estimación del número de
unidades defectuosas en los procesos de fabricación, a la verosimilitud de recibir
pagos en las cuentas a cobrar y a las ventas potenciales de un nuevo producto.
Ahora bien, la teoría de la probabilidad es una parte de las matemáticas, análoga
al álgebra o la geometría y su construcción será por tanto semejante. Para la
construcción de una teoría matemática se parte de un conjunto de aseveraciones,
que se designan con el nombre de axiomas, y mediante la lógica se deducen una
sucesión de afirmaciones que se designan con el nombre de teoremas.
La forma en que se eligen los axiomas noes aleatoria ni categórica, lo que se
intenta con estos postulados es “Idealizar la Realidad”.
3. Probabilidad.
Es un método por el cual se obtiene la frecuencia de un acontecimiento
determinado mediante la realización de un experimento aleatorio, del que se
conocen todos los resultados posibles, bajo condiciones suficientemente estables.
La teoría de la probabilidad se usa extensamente en áreas como la estadística, la
física, la matemática, las ciencias y la filosofía para sacar conclusiones sobre la
probabilidad discreta de sucesos potenciales y la mecánica subyacente discreta
de sistemas complejos, por lo tanto es la rama de las matemáticas que estudia,
mide o determina a los experimentos o fenómenos aleatorios.
Historia
Surge debido al deseo del ser humano por conocer con certeza los eventos que
sucederán en el futuro. Es por eso que a través de la historia se han desarrollado
diferentes enfoques para tener un concepto de la probabilidad y determinar sus
valores.
El diccionario de la Real Academia Española define «azar» como una casualidad,
un caso fortuito, y afirma que la expresión «al azar» significa “sin orden”. La idea
de Probabilidad está íntimamente ligada a la idea de azar y nos ayuda a
comprender nuestras posibilidades de ganar un juego de azar o analizar las
encuestas. Pierre-Simon Laplace afirmó: "Es notable que una ciencia que
comenzó con consideraciones sobre juegos de azar haya llegado a ser el objeto
más importante del conocimiento humano". Comprender y estudiar el azar es
indispensable, porque la probabilidad es un soporte necesario para tomar
decisiones en cualquier ámbito.
Aparte de algunas consideraciones elementales hechas por Girolamo Cardano en
el siglo XVI, la doctrina de las probabilidades data de la correspondencia de Pierre
de Fermat y Blaise Pascal (1654). Christian Huygens (1657) le dio el tratamiento
científico conocido más temprano al concepto. Ars Conjectandi (póstumo, 1713)
de Jakob Bernoulli y Doctrine of Chances (1718) de Abraham de Moivre trataron el
4. tema como una rama de las matemáticas. La teoría de errores puede trazarse
atrás en el tiempo hasta Opera Miscellanea (póstumo, 1722) de Roger Cotes, pero
una memoria preparada por Thomas Simpson en 1755 (impresa en 1756) aplicó
por primera vez la teoría para la discusión de errores de observación. La
reimpresión (1757) de esta memoria expone los axiomas de que los errores
positivos y negativos son igualmente probables, y que hay ciertos límites
asignables dentro de los cuales se supone que caen todos los errores; se discuten
los errores continuos y se da una curva de la probabilidad.
Pierre-Simon Laplace (1774) hizo el primer intento para deducir una regla para la
combinación de observaciones a partir de los principios de la teoría de las
probabilidades. Representó la ley de la probabilidad de error con una curva
, siendo cualquier error e y su probabilidad, y expuso tres
propiedades de esta curva:
1. es simétrica al eje ;
2. el eje es una asíntota, siendo la probabilidad del error igual a 0;
3. la superficie cerrada es 1, haciendo cierta la existencia de un error.
Teoría de la probabilidad
Constituye un importante parámetro en la determinación de las diversas
casualidades obtenidas tras una serie de eventos esperados dentro de un rango
estadístico. Existen diversas formas como método abstracto, como la teoría
Dempster-Shafer y la teoría de la relatividad numérica, esta última con un alto
grado de aceptación si se toma en cuenta que disminuye considerablemente las
posibilidades hasta un nivel mínimo ya que somete a todas las antiguas reglas a
una simple ley de relatividad.
5. La probabilidad de un evento se denota con la letra p y se expresa en términos de
una fracción y no en porcentajes por lo que el valor de p cae entre 0 y 1. Por otra
parte, la probabilidad de que un evento "no ocurra" equivale a 1 menos el valor de
p y se denota con la letra q.
La teoría de probabilidades se ocupa de asignar un cierto número a cada posible
resultado que pueda ocurrir en un experimento aleatorio, con el fin de cuantificar
dichos resultados y saber si un suceso es más probable que otro o relaciones
parecidas. Con este fin, introduciremos algunas definiciones. Si realizamos un
experimento aleatorio, llamaremos espacio muestral del experimento al conjunto
de todos los posibles resultados de dicho experimento.
Al espacio muestral lo representaremos por E (o bien por la letra griega omega Ω).
A cada elemento que forma parte del espacio muestral se le denomina suceso
elemental.
Según la frecuencia relativa y definición axiomática
La autodefinición axiomática de la probabilidad se define con base a sí misma
(igualmente factible es sinónimo de igualmente auto probable) se define la
probabilidad estimada u honírica basada en la frecuencia relativa de aparición de
un suceso S cuando es muy grande. La probabilidad de un suceso es una
medida que se escribe como P{ S }, y mide con qué frecuencia ocurre algún
suceso si se hace algún experimento indefinidamente.
La definición anterior es complicada de representar matemáticamente ya que
debiera ser infinito. Otra manera de definir la probabilidad es de forma axiomática
esto estableciendo las relaciones o propiedades que existen entre los conceptos y
operaciones que la componen.
6. Probabilidad discreta
Este tipo de probabilidad, es aquel que puede tomar sólo ciertos valores diferentes
que son el resultado de la cuenta de alguna característica de interés
Probabilidad continúa
Una variable aleatoria es una función medible
Que da un valor numérico a cada suceso en .
Función de densidad
La función de densidad, o densidad de probabilidad de una variable aleatoria, es
una función a partir de la cual se obtiene la probabilidad de cada valor que toma la
variable. Su integral en el caso de variables aleatorias continuas es la distribución
de probabilidad. En el caso de variables aleatorias discretas la distribución de
probabilidad se obtiene a través del sumatorio de la función de densidad.
Operaciones entre sucesos.
1) Complementario de un suceso: Sea A un suceso de un espacio muestral Ω
llamaremos suceso complementario de A y lo notaremos A=AC
al formado por los
puntos muéstrales que no pertenecen a A, es decir: A=AC
= {ω∈Ω/ ω∉Ω}
Obviamente, si ocurre A no ocurre a, y viceversa. Al suceso complementario se le
denomina también suceso contrario. Por ejemplo al lanzar un dado, el suceso
complementario de obtener número par es obtener número impar.
2) Unión de sucesos: Sean A y B dos sucesos de un espacio muestral Ω. Se
define la unión de A y B como el suceso formado por todos los puntos muéstrales
que pertenecen al menos a uno de los dos sucesos, es decir: A U B ={ω∈Ω/ ω∈A
u ω∈B }
7. 3) Intersección de sucesos:
Sean A y B dos sucesos de un espacio muestral Ω Se define la intersección de A y
B como el suceso formado por todos los puntos muéstrales que pertenecen a
ambos, es decir:
A ∩B = {ω∈Ω/ ω∈A y ω∈B }
Si ocurre A ∩B, ocurren A y B. Este suceso se denomina también producto de A y
B. Propiedades: conmutativa y asociativa. Además la unión y la intersección
verifican la propiedad distributiva una respecto de la otra.
4) Diferencia de sucesos: Sean A y B dos sucesos de un espacio muestra Ω Se
define la diferencia de A y B como el suceso formado por todos los puntos
muéstrales que pertenecen a A y no pertenecen a B, es decir: A - B = {ω∈Ω/ ω∈A
y ω∉B }=CB.
Probabilidad Condicionada.
Hasta ahora se han calculado probabilidades de sucesos bajo la hipótesis de que
la única información disponible es la descripción del experimento y el espacio
muestral. Sin embargo, en ocasiones se dispone de información adicional que
puede (quizás no) condicionar el experimento, y el problema que se plantea es
cómo utilizar esta información. Esto es, el conocimiento de que ya haya ocurrido
un suceso, conduce a que determinados resultados no pueden haber ocurrido,
variando el espacio de los resultados y cambiando como consecuencia sus
probabilidades.
8. Conclusión
La probabilidad mide la frecuencia con la que se obtiene un resultado (o conjunto
de resultados) al llevar a cabo un experimento aleatorio, del que se conocen todos
los resultados posibles, bajo condiciones suficientemente estables. La teoría de la
probabilidad se usa extensamente en áreas como la estadística, la física, la
matemática, la ciencia y la filosofía para sacar conclusiones sobre la probabilidad
de sucesos potenciales y la mecánica subyacente de sistemas complejos.
Dos aplicaciones principales de la teoría de la probabilidad en el día a día son en
el análisis de riesgo y en el comercio de los mercados de materias primas. Los
gobiernos normalmente aplican métodos probabilísticos en regulación ambiental
donde se les llama "análisis de vías de dispersión", y a menudo miden el bienestar
usando métodos que son estocásticos por naturaleza, y escogen qué proyectos
emprender basándose en análisis estadísticos de su probable efecto en la
población como un conjunto. Un buen ejemplo es el efecto de la probabilidad
percibida de cualquier conflicto generalizado sobre los precios del petróleo en
Oriente Medio - que producen un efecto dominó en la economía en conjunto. Un
cálculo por un mercado de materias primas en que la guerra es más probable en
contra de menos probable probablemente envía los precios hacia arriba o hacia
abajo e indica a otros comerciantes esa opinión. Por consiguiente, las
probabilidades no se calculan independientemente y tampoco son necesariamente
muy racionales. La teoría de las finanzas conductuales surgió para describir el
efecto de este pensamiento de grupo en el precio, en la política, y en la paz y en
los conflictos.