REPUBLICA BOLIVARIANA DE VENEZUELA
MINISTERIO DEL PODER POPULAR PARA LA EDUCACION UNIVERSITARIA
INSTITUTO UNIVERSITARIO PO...
Introducción
La probabilidad mide la frecuencia con la que se obtiene un resultado al llevar a
cabo un experimento aleator...
Cronología de algunos avances de la probabilidad
1657- Christiaan Huygens le dio el tratamiento científico conocido más te...
Teoría de la probabilidad.
Definicióndeprobabilidad.
La definición general de la probabilidad está en la idea de "verosimi...
Espacio Muestral
La Estadística, y por tanto el Cálculo de Probabilidades, se ocupan de los
denominados fenómenos o experi...
elementales queramos considerar como distintos y del problema de la asignación de la
probabilidad sobre esos sucesos eleme...
Concepto clásico
Está basado en el concepto de resultados igualmente verosímiles y motivado por
el denominado Principio de...
Por ejemplo, la extracción de una bola de una urna con tres bolas blancas y dos
negras, puede formalizarse con un espacio ...
Conclusiones
La probabilidad mide la frecuencia con la que se obtiene un resultado (o conjunto
de resultados) al llevar a ...
Bibliografía
 http://www.monografias.com/trabajos32/teoria-probabilidades/teoria-
probabilidades.shtml
 http://html.rinc...
Próxima SlideShare
Cargando en…5
×

Teoria de la probabilidad estadistica

304 visualizaciones

Publicado el

Teoria de la probabilidad en estadistica

Publicado en: Educación
0 comentarios
0 recomendaciones
Estadísticas
Notas
  • Sé el primero en comentar

  • Sé el primero en recomendar esto

Sin descargas
Visualizaciones
Visualizaciones totales
304
En SlideShare
0
De insertados
0
Número de insertados
1
Acciones
Compartido
0
Descargas
2
Comentarios
0
Recomendaciones
0
Insertados 0
No insertados

No hay notas en la diapositiva.

Teoria de la probabilidad estadistica

  1. 1. REPUBLICA BOLIVARIANA DE VENEZUELA MINISTERIO DEL PODER POPULAR PARA LA EDUCACION UNIVERSITARIA INSTITUTO UNIVERSITARIO POLITECNICO SANTIAGO MARIÑO ESTADISTICA I TEORIA DE LA PROBABILIDAD Realizado por: José Villalobos C.I.: 19.073.894 Maracaibo, Edo. Zulia
  2. 2. Introducción La probabilidad mide la frecuencia con la que se obtiene un resultado al llevar a cabo un experimento aleatorio, del que se conocen todos los resultados posibles, bajo condiciones suficientemente estables. La teoría de la probabilidad se usa extensamente en áreas como la estadística, la física, la matemática, la ciencia y la filosofía para sacar conclusiones sobre la probabilidad de sucesos potenciales y la mecánica subyacentes de sistemas complejos. La teoría de la probabilidad es la parte de las matemáticas que estudia los fenómenos aleatorios. Estos deben contraponerse a los fenómenos determinanticos, los cuales son resultados únicos y previsibles de experimentos realizados bajo las mismas condiciones determinadas. Los fenómenos aleatorios, por el contrario, son aquellos que se obtienen como resultado de experimentos realizados, otra vez, bajo las mismas condiciones determinadas pero como resultado posible poseen un conjunto de alternativas, por ejemplo, el lanzamiento de un dado o de un dardo. Los procesos reales que se modelizan como procesos aleatorios pueden no serlo realmente; cómo tirar una moneda o un dado no son procesos de aleación en sentido estricto, ya que no se reproducen exactamente las mismas condiciones iníciales que lo determinan, sino sólo unas pocas. En los procesos reales que se modelizan mediante distribuciones de probabilidad corresponden a modelos complejos donde no se conocen todos los parámetros que intervienen; ésta es una de las razones por las cuales la estadística, que busca determinar estos parámetros, no se reduce inmediatamente a la teoría de la probabilidad en sí. Actualmente, la teoría de la probabilidad encuentra aplicación en las más variadas ramas del conocimiento, como puede ser la física o las finanzas.
  3. 3. Cronología de algunos avances de la probabilidad 1657- Christiaan Huygens le dio el tratamiento científico conocido más temprano al concepto. 1713- Ars Conjectandi, de Jakob Bernoulli y Doctrine of Chances de Abraham de Moivre trataron el tema como una rama de las matemáticas. 1722- La teoría de errores puede trazarse atrás en el tiempo hasta Opera Miscellanea de Roger Cotes 1755- Thomas Simpson preparo una memoria impresa en 1756 donde aplicó por primera vez la teoría para la discusión de errores de observación 1757- La reimpresión de esta memoria expone los axiomas de que los errores positivos y negativos son igualmente probables, y que hay ciertos límites asignables dentro de los cuales se supone que caen todos los errores; se discuten los errores continuos y se da una curva de la probabilidad. 1774- Pierre-Simon Laplace hizo el primer intento para deducir una regla para la combinación de observaciones a partir de los principios de la teoría de las probabilidades. Representó la ley de la probabilidad de error con una curva y = φ(x), siendo x cualquier error e y y su probabilidad, y expuso tres propiedades de esta curva: que es simétrica al eje y; el eje x es una asíntota, siendo la probabilidad del error igual a 0; la superficie cerrada es 1, haciendo cierta la existencia de un error. 1778- Daniel Bernoulli introdujo el principio del máximo producto de las probabilidades de un sistema de errores concurrentes. 1781- Se obtuvo una fórmula para la ley de facilidad de error (un término debido a Lagrange, 1774), pero una que llevaba a ecuaciones inmanejables. 1805- El método de mínimos cuadrados se debe a Adrien-Marie Legendre, que lo introdujo nuevos métodos para la determinación de las órbitas de los cometas. 1808- Ignorando la contribución de Legendre, un escritor irlandés estadounidense, Robert Adrain, editor de "The Analyst" , dedujo por primera vez la ley de facilidad de error, Siendo c y h constantes que dependen de la precisión de la observación. Expuso dos demostraciones, siendo la segunda esencialmente la misma de John Herschel 1809- Gauss expuso la primera demostración que parece que se conoció en Europa.
  4. 4. Teoría de la probabilidad. Definicióndeprobabilidad. La definición general de la probabilidad está en la idea de "verosimilitud". La interpretación de lo que es la probabilidad, sin embargo, no está acordado. Sin embargo, todas las teorías de probabilidad concuerdan en que la probabilidad es un número real en el intervalo de 0 a 1. Sin embargo, aquí es donde los probabilistas terminan sus coincidencias. Cómo se calcula una probabilidad y cómo se puede utilizar una probabilidad para hacer inferencias depende de la teoría que se apoya. Probabilidadobjetiva La teoría de la probabilidad objetiva afirma que una probabilidad es una característica inherente de un objeto. Por ejemplo, los dados inherentemente tienen seis caras, todas planas y ocupan la misma cantidad de espacio. Así, debido a esta simetría, la probabilidad de un tiro que venga con un número específico es de 1/6. La implicación de esta teoría es que las probabilidades se pueden calcular mediante la inspección de un objeto o conocer un evento; no se necesita realizar experimentos. Frecuenciarelativa Esta teoría de la probabilidad establece que la probabilidad, aunque sea una cantidad objetiva, nunca puede ser conocida en el mundo real. Los partidarios de la teoría de la frecuencia relativa definen la probabilidad de un evento como el número de veces que el evento ocurre en cuanto al número de veces que el evento podría haber ocurrido, en el supuesto de que se observa una situación de un número infinito de veces. Por supuesto, es imposible tirar los dados un número infinito de veces, lo que impide a una persona obtener la probabilidad real. En otras palabras, los que están de acuerdo con la definición frecuencia relativa de probabilidad no estarán de acuerdo en que tirar un 4 tiene una probabilidad de ocurrir de 1/6 a menos que se corran un gran número de experimentos controlados. Probabilidadsubjetiva La probabilidad subjetiva es lo opuesto a la probabilidad objetiva, puesto que señala con bastante audacia que la probabilidad no es real. Los partidarios de esta teoría establecen que la probabilidad de un evento sólo existe en la mente de un individuo. Por lo tanto, el mismo evento puede tener múltiples probabilidades al ser analizados por muchos. Para resumir esta postura, la probabilidad se define como una medida de la creencia de que un determinado evento ocurra. Por ejemplo, un individuo puede elegir creer que la probabilidad de obtener un "4" es en realidad un 1/2
  5. 5. Espacio Muestral La Estadística, y por tanto el Cálculo de Probabilidades, se ocupan de los denominados fenómenos o experimentos aleatorios. El conjunto de todos los resultados posibles diferentes de un determinado experimento aleatorio se denomina Espacio Muestral asociado a dicho experimento y se suele representar por Ω. A los elementos de Ω se les denominasucesos elementales. Así por ejemplo, el espacio muestral asociado al experimento aleatorio consistente en el lanzamiento de una moneda es Ω= {Cara, Cruz}; el espacio muestral asociado al lanzamiento de un dado es Ω={1, 2, 3, 4, 5, 6}, siendo Cara y Cruz los sucesos elementales asociados al primer experimento aleatorio y 1, 2, 3, 4, 5 y 6 los seis sucesos elementales del segundo experimento aleatorio. A pesar de la interpretación que tiene el espacio muestral, no es más que un conjunto abstracto de puntos (los sucesos elementales), por lo que el lenguaje, los conceptos y propiedades de la teoría de conjuntos constituyen un contexto natural en el que desarrollar el Cálculo de Probabilidades. Sea A el conjunto de las partes de , es decir, el conjunto de todos los subconjuntos de Ω. En principio, cualquier elemento de A, es decir, cualquier subconjunto del espacio muestral contendrá una cierta incertidumbre, por lo que trataremos de asignarle un número entre 0 y 1 como medida de su incertidumbre. En Cálculo de Probabilidades dichos subconjuntos reciben en el nombre de sucesos, siendo la medida de la incertidumbre su probabilidad. La tripleta (Ω,A,P) recibe el nombre de espacio probabilístico. Por tanto, asociado a todo experimento aleatorio existen tres conjuntos: El espacio muestral , la clase de los sucesos, es decir, el conjunto de los elementos con incertidumbre asociados a nuestro experimento aleatorio A, y una función real, P:A [0, l], la cual asignará a cada suceso (elemento de A) un número entre cero y uno como medida de su incertidumbre. Advertimos no obstante, que la elección del espacio muestral asociado a un experimento aleatorio no tiene por qué ser única, sino que dependerá de que sucesos
  6. 6. elementales queramos considerar como distintos y del problema de la asignación de la probabilidad sobre esos sucesos elementales. Conceptos de Probabilidad En los casos más sencillos bastará con asignar la probabilidad a los sucesos elementales de un experimento aleatorio. La probabilidad de los demás sucesos se podrá calcular utilizando las propiedades que más adelante veremos. En los casos más complicados (que habitualmente se corresponderán con las situaciones reales) asignaremos un modelo probabilístico al experimento en cuestión, como ideal que creemos corresponde a la situación en estudio, ideal que veremos habrá que chequear inferencialmente. Más adelante hablaremos de la asignación de probabilidades. Ahora analizamos brevemente los conceptos que se han desarrollado a lo largo de la historia, con el propósito de formalizar las ideas intuitivas que desde el origen del hombre siempre existieron sobre la probabilidad, aunque no llegaran a formalizarse hasta comienzos del siglo XIX. Concepto frecuentista Es un hecho, empíricamente comprobado, que la frecuencia relativa de un suceso tiende a estabilizarse cuando la frecuencia total aumenta. Surge así el concepto frecuentista de la probabilidad de un suceso como un número ideal al que converge su frecuencia relativa cuando la frecuencia total tiende a infinito. Así, solemos afirmar que la probabilidad de que salga un seis al tirar un dado es 1/6 porque al hacer un gran número de tiradas su frecuencia relativa es aproximadamente esa. El problema radica en que al no poder repetir la experiencia infinitas veces, la probabilidad de un suceso ha de ser aproximada por su frecuencia relativa para un n suficientemente grande, y ¿cuán grande es un n grande? 0, ¿qué hacer con aquellas experiencias que solo se pueden repetir una vez?
  7. 7. Concepto clásico Está basado en el concepto de resultados igualmente verosímiles y motivado por el denominado Principio de la Razón Insuficiente, el cual postula que si no existe un fundamento para preferir una entre varias posibilidades, todas deben ser consideradas equiprobables. Así, en el lanzamiento de una moneda perfecta la probabilidad de cara debe ser igual que la de cruz y, por tanto, ambas iguales a 1/2.. De la misma manera, la probabilidad de cada uno de los seis sucesos elementales asociados al lanzamiento de un dado debe ser 1/6. Laplace recogió esta idea y formuló la regla clásica del cociente entre casos favorables y casos posibles, supuestos éstos igualmente verosímiles. El problema aquí surge porque en definitiva igualmente verosímil es lo mismo que igualmente probable, es decir, se justifica la premisa con el resultado. Además ¿qué ocurre cuando estamos considerando un experimento donde no se da esa simetría?, o, ¿ qué hacer cuando el número de resultados posibles es infinito?. Concepto subjetivo Se basa en la idea de que la probabilidad que una persona da a un suceso debe depender de su juicio y experiencia personal, pudiendo dar dos personas distintas probabilidades diferentes a un mismo suceso. Estas ideas pueden formalizarse, y si las opiniones de una persona satisfacen ciertas relaciones de consistencia, puede llegarse a definir una probabilidad para los sucesos. El principal problema a que da lugar esta definición es, como antes dijimos, que dos personas diferentes pueden dar probabilidades diferentes a un mismo suceso. Probabilidad condicionada Mediante un espacio probabilístico damos una formulación matemática a un fenómeno aleatorio que estemos observando. Parece por tanto razonable que si observamos algo que aporte información a nuestro fenómeno aleatorio, ésta deba alterar el espacio probabilístico de partida.
  8. 8. Por ejemplo, la extracción de una bola de una urna con tres bolas blancas y dos negras, puede formalizarse con un espacio probabilístico en el que los sucesos elementales sean las cinco bolas y donde la probabilidad sea uniforme sobre estos cinco sucesos elementales, es decir, igual a 1/5. Si extraemos una bola de la urna, es decir, si observamos el suceso A bola negra, y no la devolvemos a la urna, es razonable que el espacio probabilístico cambie en el sentido no solo de que ahora ya habrá únicamente cuatro sucesos elementales, sino que además la función de probabilidad deberá cambiar en orden a recoger la información que la observación del suceso A nos proporcionó. Es decir, en el nuevo espacio probabilístico deberá hablarse de probabilidad condicionada al suceso A, de forma que se recojan hechos tan evidentes como que ahora la probabilidad (condicionada) de obtener negra se habrá reducido y habrá aumentado la de blanca. Las propiedades vistas en el capítulo anterior para las distribuciones (le frecuencias condicionadas llevan a la siguiente definición. Independencia de sucesos Existen situaciones en las que la información suministrada por el acaecimiento de un suceso B no altera para nada el cálculo de la probabilidad de otro suceso A. Son aquellas en las que el suceso A es independiente de B. Es decir, cuando P(A/B) = P(A). Por tanto, se podría decir que también B lo es de A, hablaremos de sucesos independientes cuando esta situación ocurra. La definición formal que se da a continuación implica estas dos situaciones. Dos sucesos A y B de un mismo espacio probabilístico (Ω, A, P) se dicen independientes cuando P( A u B ) = P(A) · P(B)
  9. 9. Conclusiones La probabilidad mide la frecuencia con la que se obtiene un resultado (o conjunto de resultados) al llevar a cabo un experimento aleatorio, del que se conocen todos los resultados posibles, bajo condiciones suficientemente estables. La teoría de la probabilidad se usa extensamente en áreas como la estadística, la física, la matemática, la ciencia y la filosofía para sacar conclusiones sobre la probabilidad de sucesos potenciales y la mecánica subyacente de sistemas complejos. La probabilidad constituye un importante parámetro en la determinación de las diversas casualidades obtenidas tras una serie de eventos esperados dentro de un rango estadístico. Dos aplicaciones principales de la teoría de la probabilidad en el día a día son en el análisis de riesgo y en el comercio de los mercados de materias primas.
  10. 10. Bibliografía  http://www.monografias.com/trabajos32/teoria-probabilidades/teoria- probabilidades.shtml  http://html.rincondelvago.com/probabilidad_9.html  http://www.lawebdefisica.com/apuntsmat/probabilidad/  http://platea.pntic.mec.es/~anunezca/ayudas/probabilidad/probabilidad.htm

×