SlideShare una empresa de Scribd logo
1 de 43
Aranda Martínez José Ricardo, 4cm9, metodología de la investigación y estadística 2.
Tarea 1
¿Para qué sirve la metodología de la investigación y su concepto?
R= Metodología es un vocablo generado a partir de tres palabras de origen griego: metà (“más allá”), odòs (“camino”) y
logos (“estudio”). El concepto hace referencia al plan de investigación que permite cumplir ciertos objetivos en el marco de
una ciencia. Cabe resaltar que la metodología también puede ser aplicada en el ámbito artístico, cuando se lleva a cabo una
observación rigurosa. Por lo tanto, puede entenderse a la metodología como el conjunto de procedimientos que determinan
una investigación de tipo científico o marcan el rumbo de una exposición doctrinal.
El valor de la metodología radica en su función como herramienta, con la cual podemos planificar, desarrollar y llevar acabo
distintos procesos de una manera sistematizada y ordenada para lograr un conocimiento y/o corroborar conocimientos
previos. Otra de las utilidades de esta ciencia es que nos ayuda a estandarizar las formas de obtener conocimiento
(epistemología), ya que da los criterios o las bases de los procesos necesarios mínimos, para realizar conocimiento nuevo
y/o corroboración de conocimiento previamente adquirido.
¿Qué es estadística y cuál es su aplicación a la medicina?
R= El termino estadística proviene del latín statisticum collegium (“consejo de Estado”) y de su derivado italiano statista
(“hombre de Estado o político”). En 1749, el alemán Gottfried Achenwall comenzó a utilizar la palabra alemana statistik
para designar el análisis de datos estatales. Por lo tanto, los orígenes de la estadística están relacionados con el gobierno y
sus cuerpos administrativos.
La Estadística es la ciencia cuyo objetivo es reunir una información cuantitativa concerniente a individuos, grupos, series de
hechos, etc. y deducir de ello gracias al análisis de estos datos unos significados precisos o unas previsiones para el futuro.
La estadística, en general, es la ciencia que trata de la recopilación, organización presentación, análisis e interpretación de
datos numéricos con e fin de realizar una toma de decisión más efectiva.
Otros autores tienen definiciones de la Estadística semejantes a las anteriores, y algunos otros no tan semejantes. Para
Chacón esta se define como "la ciencia que tiene por objeto el estudio cuantitativo de los colectivos"; otros la definen como
la expresión cuantitativa del conocimiento dispuesta en forma adecuada para el escrutinio y análisis.
La más aceptada, sin embargo, es la de Minguez, que define la Estadística como "La ciencia que tiene por objeto aplicar las
leyes de la cantidad a los hechos sociales para medir su intensidad, deducir las leyes que los rigen y hacer su predicción
próxima".
Los estudiantes confunden comúnmente los demás términos asociados con las Estadísticas, una confusión que es
conveniente aclarar debido a que esta palabra tiene tres significados: la palabra estadística, en primer término se usa para
referirse a la información estadística; también se utiliza para referirse al conjunto de técnicas y métodos que se utilizan para
analizar la información estadística; y el término estadístico, en singular y en masculino, se refiere a una medida derivada de
una muestra.
La estadística es la ciencia que estudia cómo debe emplearse la información y cómo dar una guía de acción en situaciones
prácticas que entrañan incertidumbre. (Gutiérrez, p.23)
La estadística es la ciencia de los datos, la cual implica su recolección, clasificación, síntesis, organización, análisis e
interpretación, para la toma de decisiones frente a la incertidumbre (Ángel, p. 28)
La estadística es la rama del conocimiento humano que tiene como objeto el estudio de ciertos métodos inductivos
aplicables a fenómenos susceptibles de expresión cuantitativa. (López, p.1)
La estadística es el arte de aprender a partir de los datos. Está relacionada con la recopilación de datos, su descripción
subsiguiente y su análisis, lo que nos lleva a extraer conclusiones. (Ross, p.3)
La importancia de los métodos estadísticos tradicionalmente se utiliza para propósitos descriptivos, para organizar y resumir
datos numéricos. La estadística descriptiva, por ejemplo trata de la tabulación de datos, su presentación en forma gráfica o
ilustrativa y el cálculo de medidas descriptivas.
Ahora bien, las técnicas estadísticas se aplican de manera amplia en mercadotecnia, contabilidad, control de calidad y en
otras actividades; estudios de consumidores; análisis de resultados en deportes; administradores de instituciones; en la
educación; organismos políticos; médicos; y por otras personas que intervienen en la toma de decisiones.
En la medicina, la estadística tiene una gran importancia ya que posee numerosas ventajas, por ejemplonos puede ayudar a
conocer las problemáticas presentes en una comunidad, los factores de riesgo o predisposición a ciertas patologías y puede
ser muy útil a la hora de buscaruna respuesta a esta, o al tratar de educar para evitarlas en futuras ocasiones. Todos estos
aspectos positivos los cuales además le brindan credibilidad a este método es necesarioexaltar el auge que ha tenido dentro
de la actividad médica particular y en la salud en general y por esto ciertos autores han expuesto sus puntos de vista sobre la
estadísticaen la salud:
Bancroft nos dice que el médico se basa muchas veces en la estadística para emitir un diagnóstico sobre su paciente, ya sea
para ver como varía una enfermedad enel individuo o la eficacia de un tratamiento.
Mainland por otro lado explica que la estadística es mayormente utilizada por aquellos profesionales que laboran más dentro
delaboratorios o determinados sitios de investigación.
Hill expone que sin la estadística no es posible conocer si un tratamiento muestra mejores resultados que otros.Morichau-
Beau-Chant explica que sin una buena fuente de conocimientos sobre la situación a estudiar no se puede realizar una
correcta planificación, aplicación y evaluación del proyecto.
¿Qué es probabilidad y cual su aplicación en la medicina?
R= definición clásica: Sea un experimento aleatorio cuyo correspondiente espacio muestral E está formado por un número
n finito de posibles resultados distintos y con la misma probabilidad de ocurrir {e1, e2, ... , en}
Si n1 resultados constituyen el subconjunto o suceso A1, n2 resultados constituyen el subconjunto o suceso A2 y, en
general, nk resultados constituyen el subconjunto o suceso Ak de tal forma que: es decir, que la probabilidad de cualquier
suceso A es igual al cociente entre el número de casos favorables que integran el suceso A Regla de Laplace para E finitos y
el número de casos posibles del espacio muestral E.
Para que se pueda aplicar la regla de Laplace es necesario que todos los sucesos elementales sean equiprobables
La probabilidad verifica las siguientes condiciones:
La probabilidad de cualquier suceso es siempre un número no negativo entre 0 y 1
La probabilidad del suceso seguro E vale 1
La probabilidad del suceso imposible es 0
La probabilidad de la unión de varios sucesos incompatibles o excluyentes A1, A1,..., Ar es igual a la suma de
probabilidades de cada uno de ellos
Esta definición clásica de probabilidad fue una de las primeras que se dieron (1900) y se atribuye a Laplace; también se
conoce con el nombre de probabilidad a priori pues, para calcularla, es necesario conocer, antes de realizar el experimento
aleatorio, el espacio muestral y el número de resultados o sucesos elementales que entran a formar parte del suceso
Definición frecuentista: consiste en definir la probabilidad como el límite cuando n tiende a infinito de la proporción o
frecuencia relativa del suceso.
Sea un experimento aleatorio cuyo espacio muestral es E Sea A cualquier suceso perteneciente a E Si repetimos n veces el
experimento en las mismas Condiciones, la frecuencia relativa del suceso A será:
Cuando el número n de repeticiones se hace muy grande la frecuencia relativa converge hacia un valor que llamaremos
probabilidad del suceso A.
Es imposible llegar a este límite, ya que no podemos repetir el experimento un número infinito de veces, pero si podemos
repetirlo muchas veces y observar como las frecuencias relativas tienden a estabilizarse
Esta definición frecuentista de la probabilidad se llama también probabilidad a posteriori ya que sólo podemos dar la
probabilidad de un suceso después de repetir y observar un gran número de veces el experimento aleatorio correspondiente.
Algunos autores las llaman probabilidades teóricas
Definición subjetiva: Tanto la definición clásica como la frecuentista se basan en las repeticiones del experimento aleatorio;
pero existen muchos experimentos que no se pueden repetir bajo las mismas condiciones y por tanto no puede aplicarse la
interpretación objetiva de la probabilidad
En esos casos es necesario acudir a un punto de vista alternativo, que no dependa de las repeticiones, sino que considere la
probabilidad como un concepto subjetivo que exprese el grado de creencia o confianza individual sobre la posibilidad de
que el suceso ocurra
Se trata por tanto de un juicio personal o individual y es posible por tanto que, diferentes observadores tengan distintos
grados de creencia sobre los posibles resultados, igualmente válidos
Definición axiomática: La definición axiomática de la probabilidad es quizás la más simple de todas las definiciones y la
menos controvertida ya que está basada en un conjunto de axiomas que establecen los requisitos mínimos para dar una
definición de probabilidad. La ventaja de esta definición es que permite un desarrollo riguroso y matemático de la
probabilidad. Fue introducida por A. N. Kolmogorov y aceptada por estadísticos y matemáticos en general.
Su utilidad en la medicina, se basa en la cuestión de que en esta ciencia no se manejan datos y variable constantes, lo que
genera cambios probabilísticos en cada paciente, y en las tasa de mortalidad y morbilidad de una enfermedad en especial.
Tarea 2
¿Cuáles son las propiedades de la probabilidad?
R= -Axiomas de la probabilidad
1. La probabilidad es positiva y menor o igual que 1.
0 ≤ p(A) ≤ 1
2. La probabilidad del suceso seguro es 1.
p(E) = 1
3. Si A y B son incompatibles, es decir A B = entonces:
p(A B) = p(A) + p(B)
Propiedades de la probabilidad
1. La suma de las probabilidades de un suceso y su contrario vale 1, por tanto la probabilidad del suceso contrario es:
2. Probabilidad del suceso imposible es cero.
3. La probabilidad de la unión de dos sucesos es la suma de sus probabilidades restándole la probabilidad de su intersección.
4. Si un suceso está incluido en otro, su probabilidad es menor o igual a la de éste.
5. Si A1, A2, ..., Ak son incompatibles dos a dos entonces:
6 Si el espacio muestral E es finito y un suceso es S = {x1, x2, ..., xn} entonces:
Fenómeno aleatorio:
Un experimento es cualquier situación u operación en la cual se pueden presentar uno o varios resultados de un conjunto
bien definido de posibles resultados
Los experimentos pueden ser de dos tipos según si, al repetirlo bajo idénticas condiciones: Determinístico Se obtienen
siempre los mismos resultados
Ej: medir con la misma regla e identicas condiciones la longitud de una barra Aleatorio No se obtienen siempre los mismos
resultados
Ej: el lanzamiento de una moneda observando la sucesión de caras y cruces que se presentan Las siguientes son
características de un experimento aleatorio:
El experimento se puede repetir indefinidamente bajo idénticas condiciones
Cualquier modificación a las condiciones iniciales de la repetición puede modificar el resultado
Se puede determinar el conjunto de posibles resultados pero no predecir un resultado particular
Si el experimento se repite gran número de veces entonces aparece algún modelo de regularidad estadística en los resultados
obtenidos
Experimento aleatorio:
Un experimento es cualquier situación u operación en la cual se pueden presentar uno o varios resultados de un conjunto bien definido de
posibles resultados
Los experimentos pueden ser de dos tipos según si, al repetirlo bajo idénticas condiciones: Determinístico Se obtienen siempre los
mismos resultados
Ej: medir conla misma regla e idénticas condiciones la longitud de una barra Aleatorio No se obtienen siempre los mismos resultados
Ej: el lanzamiento de una moneda observando la sucesión de caras y cruces que se presentan Las siguientes son características de un
experimento aleatorio:
El experimento se puede repetir indefinidamente bajo idénticas condiciones
Cualquier modificación a las condiciones iniciales de la repetición puede modificar el resultado
Se puede determinar el conjunto de posibles resultados pero no predecir un resultado particular
Si el experimento se repite gran número de veces entonces aparece algún modelo de regularidad estadística en los resultados obtenidos
Espacio muestra:
Se denomina resultado básico o elemental, comportamiento individual o punto muestra a cada uno de los posibles resultados
de un experimento aleatorio. Los resultados básicos elementales serán definidos de forma que no puedan ocurrir dos
simultáneamente pero si uno necesariamente
Se denomina conjunto universal, espacio muestral o espacio de comportamiento E al conjunto de todos los resultados
elementales del experimento aleatorio. Pueden ser de varios tipos: Espacio Muestral Discreto Espacio muestral finito
Espacio muestral infinito numerable Tiene un número finito de elementos. Tiene un número infinito numerable de
elementos es decir, se puede establecer una aplicación biyectiva entre E y N
Ejemplo: Experimento aleatorio consistente en lanzar un dado. El espacio muestral es
Experimento aleatorio consistente en lanzar un dado hasta que sea obtenido el número 1
Espacio Muestral Continuo Si el espacio muestral contiene un número infinito de elementos, es decir, no se puede establecer
una correspondencia biunívoca entre E y N
Ejemplo: Experimento aleatorio consistente en tirar una bola perfecta sobre un suelo perfecto y observar la posición que
ocupará esa bola sobre la superficie. E={Toda la superficie del suelo}
Suceso aleatorio: Unsucesoesunsubconjunto del espaciomuestral, es decir, un subconjunto de resultados elementales del experimento
aleatorio
Diremosque ocurre ose presenta el suceso cuando al realizarse el experimento aleatorio, da lugar a uno de los resultados elementales
pertenecientesal subconjuntoS que define el sucesoSe puedenconsiderarcuatrotiposde sucesossegúnel nºde elementosque entren a formar
parte:
Suceso elemental, suceso simple o punto muestral es cada uno de los resultados posibles del experimento aleatorio luego los sucesos
elementales son subconjuntos de E con sólo un elemento
Suceso compuesto es aquel que consta de dos o más sucesos elementales
Sucesoseguro, ciertoouniversal esaquel que consta de todos lossucesoselementalesdel espacio muestral E, es decir, coincide con E. Se le
denomina seguro o cierto porque ocurre siempre
Suceso imposible es aquel que no tiene ningún elemento del espacio muestral E y por tanto no ocurrirá nunca. Se denota por Ø
Tipos de suceso aleatorio:
-La unión de sucesos, A B, es el suceso formado por todos los elementos de A y de B.
Es decir, el suceso A B se verifica cuando ocurre uno de los dos, A o B, o ambos.
A B se lee como "A o B".
Ejemplo
Consideramos el experimento que consiste en lanzar un dado, si A = "sacar par" y B = "sacar múltiplo de 3".
Calcular A B.
A = {2, 4, 6}
B = {3, 6}
A B = {2, 3, 4, 6}
-La intersección de sucesos, A B, es el suceso formado por todos los elementos que son, a la vez, de A y B.
Es decir, el suceso A B se verifica cuando ocurren simultáneamente A y B.
A B se lee como "A y B".
Ejemplo
Consideramos el experimento que consiste en lanzar un dado, si A = "sacar par" y B = "sacar múltiplo de 3".
Calcular A B.
A = {2, 4, 6}
B = {3, 6}
A B = {3}
Tarea 3
Tipos de variables aleatorias:
-Variables aleatorias discretas:
Diremos que una variable aleatoria es discreta si su recorrido es finito o infinito numerable.
Generalmente, este tipo de variables van asociadas a experimentos en los cuales se cuenta el número de veces que se ha
presentado un suceso o donde el resultado es una puntuación concreta.
Los puntos del recorrido se corresponden con saltos en la gráfica de la función de distribución, que correspondería
al segundo tipo de gráfica visto anteriormente.
-Variables aleatorias continúas:
Son aquellas en las que la función de distribución es una función continua. Se corresponde con el primer tipo de
gráfica visto.
Generalmente, se corresponden con variables asociadas a experimentos en los cuales la variable medida puede tomar
cualquier valor en un intervalo; mediciones biométricas, por ejemplo.
Un caso particular dentro de las variables aleatorias continúas y al cual pertenecen todos los ejemplos usualmente utilizados,
son las denominadas variables aleatorias absolutamente continuas.
-Variables aleatorias absolutamente continuas:
Diremos que una variable aleatoria X continua tiene una distribución absolutamente continua si existe una función real f,
positiva e integrable en el conjunto de números reales, tal que la función de distribución F de X se puede expresar como
Una variable aleatoria con distribución absolutamente continua, por extensión, se la clasifica como variable aleatoria
absolutamente continua.
A la función f se la denomina función de densidad de probabilidad de la variable X.
Hay que hacer notar que no toda variable continua es absolutamente continua, pero los ejemplos son complicados, algunos
utilizan para su construcción el conjunto de Cantor, y quedan fuera del nivel y del objetivo de este curso.
Igualmente indicaremos que los tipos de variables comentados anteriormente forman únicamente una parte de todos los
posibles tipos de variables, sin embargo contienen prácticamente todas las variables aleatorias que encontramos usualmente.
Tal como se estudiará más adelante, existen algunas familias de funciones de distribución, tanto dentro del grupo de las
discretas como de las continuas, que por su importancia reciben un nombre propio y se estudiarán en los capítulos
siguientes.
Tipos de probabilidad (distribución Bernoulli, binomial, poisson, uniforme, normal, T-student, F-Fisher, chi cuadrada,
exponencial).
Distribución Bernoulli:
La distribución de Bernoulli (o distribución dicotómica), nombrada así por el matemático y científico suizo Jakob Bernoulli,
es una distribución de probabilidad discreta, que toma valor 1 para la probabilidad de éxito ( ) y valor 0 para la
probabilidad de fracaso ( ).
Si X es una variable aleatoria que mide "número de éxitos", y se realiza un único experimento con dos posibles
resultados (éxito o fracaso), se dice que la variable aleatoria X se distribuye como una Bernoulli de parámetro P.
Su fórmula es:
Distribución Binomial:
La distribución Binomial es un caso particular de probabilidad de variable aleatoria discreta, y por sus aplicaciones, es
posiblemente la más importante.
Esta distribución corresponde a la realización de un experimento aleatorio que cumple con las siguientes condiciones:
* Al realizar el experimento sólo son posible dos resultados: el suceso A, llamado éxito, y el suceso B, llamado fracaso.
* Al repetir el experimento, el resultado obtenido es independiente de los resultados obtenidos anteriormente.
* La probabilidad del suceso A es constante, es decir, no varía de una prueba del experimento a otra.
* En cada experimento se realizan n pruebas idénticas.
Todo experimento que tenga estas características se dice que sigue el modelo de la distribución Binomial o distribución de
Bernoulli.
En general, si se tienen n ensayos Bernoulli con probabilidad de éxito p y de fracaso q, entonces la distribución de
probabilidad que la modela es la distribución de probabilidad binomial y su regla de correspondencia es:
Dónde:
P(X)= es la probabilidad de ocurrencia del
evento
p = es la probabilidad de éxito del evento (en un intento)
q = es la probabilidad de fracaso del evento (en un intento) (se define como q = 1 – p )
X = ocurrencia del evento o éxitos deseados
n = número de intentos
EJEMPLO
¿Cuál es la probabilidad de obtener exactamente 2 caras al lanzar una misma moneda 6 veces ?
Dónde:
P(X)= Probabilidad de que ocurra el evento
p = (0.5)
q = (se define como q = 1 – p ) (0.5)
X = 2
n = 6
Al sustituir los valores en la fórmula obtenemos:
La posibilidad de obtener dos caras al lanzar una moneda 6 veces es de 0.234375
Como el cálculo de estas probabilidades puede resultar algo tedioso se han construido tablas para algunos valores
de n y p que nos facilitan el trabajo (Ver las tablas de la función de probabilidad Binomial).
Para una combinación de n y p, la entrada indica una probabilidad de obtener un valor específico de r.
Para localizar la entrada, cuando p8804;0.50, localice p a lo largo del encabezado de la tabla, y en la columna
correspondiente localice n y r en el margen izquierdo; cuando p8805;0.50, localice el valor de p en la parte inferior de la
tabla, y n y r arriba, en el margen derecho.
Tenemos p = 0.50, n = 6 y r = 2 obteniendo resultado directo de tablas
P(2 caras) = 0.2344
Distribución Poisson:
La distribución de POISSON es también un caso particular de probabilidad de variable aleatoria discreta, el cual debe su nombre a
Siméon Denis Poisson (1781-1840), un francés que la desarrolló a partir de los estudios que realizó durante la última etapa de su vida.
Es útil cuando tratamos con cantidades de ocurrencia de un evento a lo largo de un intervalo de tiempo o espacio especificado.
Esta distribución se utiliza para describir ciertos procesos.
Características:
En este tipo de experimentos los éxitos buscados son expresados por unidad de área, tiempo, pieza, etc:
- # de defectos de una tela por m2
- # de aviones que aterrizan en un aeropuerto por día, hora, minuto, etc.
- # de bacterias por cm2 de cultivo
- # de llamadas telefónicas a un conmutador por hora, minuto, etc, etc.
- # de llegadas de embarcaciones a un puerto por día, mes, etc, etc.
Para determinar la probabilidad de que ocurran x éxitos por unidad de tiempo, área, o producto, la fórmula a utilizar sería:
dónde:
p(X) = probabilidad de que ocurran x éxitos, cuando el número promedio de ocurrencia de ellos es /
/= media o promedio de éxitos por unidad de tiempo, área o producto
e = 2.718 (base de logaritmo neperiano o natural)
X = variable que nos denota el número de éxitos que se desea que ocurra
Hay que hacer notar que en esta distribución el número de éxitos que ocurren por unidad de tiempo, área o producto es totalmente al azar
y que cada intervalo de tiempo es independiente de otro intervalo dado, así como cada área es independiente de otra área dada y cada
producto es independiente de otro producto dado.
EJEMPLO
Si un banco recibe en promedio 6 cheques sin fondo por día, ¿cuáles son las probabilidades de que reciba, a) cuatro cheques sin fondo en
un día dado, b) 10 cheques sin fondos en cualquiera de dos días consecutivos? (e= 2.718281828)
Resolviendo para :
a) x = 4; / = 6 cheques sin fondo por día
Comprobando (sustituyendo en la fórmula):
Por lo tanto la probabilidad de que el banco reciba cuatro cheques sin fondo en un día dado es de 0.133853 (13.39%)
Valores directos para determinar probabilidades de Poisson.
Para un valor dado de /, la entrada indica la probabilidad de obtener un valor específico de X
Para el ejemplo, inciso a) que estamos viendo: ¿Cuál es la probabilidad de que el banco reciba cuatro cheques sin fondo en un día dado?
Tenemos x = 4; / = 6 cheques sin fondo por día; obteniendo resultado directo de tablas :
Distribución Uniforme:
La distribución Uniforme es el modelo (absolutamente) continuo más simple. Corresponde al caso de una variable aleatoria
que sólo puede tomar valores comprendidos entre dos extremos a y b, de manera que todos los intervalos de una misma
longitud (dentro de (a, b)) tienen la misma probabilidad. También puede expresarse como el modelo probabilístico
correspondiente a tomar un número al azar dentro de un intervalo (a, b).
De la anterior definición se desprende que la función de densidad debe tomar el mismo valor para todos los puntos dentro
del intervalo (a, b) (y cero fuera del intervalo). Es decir,
.
Gráficamente:
La función de distribución se obtiene integrando la función de densidad y viene dada por:
Gráficamente:
Propiedades del modelo Uniforme
1. Su esperanza vale (b + a)/2
2. Su varianza es (b − a)2/12
Distribución Normal:
La distribución normal es también un caso particular de probabilidad de variable aleatoria contínua, fue reconocida por primera vez por
el francés Abraham de Moivre (1667-1754). Posteriormente, Carl Friedrich Gauss (1777-1855) elaboró desarrollos más profundos y
formuló la ecuación de la curva; de ahí que también se le conozca, más comúnmente, como la "campana de Gauss". La distribución de
una variable normal está completamente determinada por dos parámetros, su media (µ) y su desviación estándar (σ). Con esta
notación, la densidad de la normal viene dada por la ecuación:
que determina la curva en forma de campana que tan bien conocemos.
Existen dos razones básicas por las cuales la distribución normal ocupa un lugar tan prominente en la estadística:
Tiene algunas propiedades que la hacen aplicable a un gran número de situaciones en la que es necesario hacer inferencias mediante la
toma de muestras.
La distribución normal casi se ajusta a las distribuciones de frecuencias reales observadas en muchos fenómenos, incluyendo
características humanas, resultados de procesos físicos y muchas otras medidas de interés para los administradores, tanto en el sector
público como en el privado.
Propiedad:
No importa cuáles sean los valores de µ y σ para un distribución de probabilidad normal, el área total bajo la curva siempre es 1,
de manera que podemos pensar en áreas bajo la curva como si fueran probabilidades. Matemáticamente es verdad que:
Aproximadamente el 68% de todos los valores de una población normalmente distribuida se encuentra dentro de ± 1 desviación estándar
de la media.
Aproximadamente el 95.5% de todos los valores de una población normalmente distribuida se encuentra dentro de ± 2 desviaciones
estándar de la media.
Aproximadamente el 99.7% de todos los valores de una población normalmente distribuida se encuentra dentro de ± 3 desviaciones
estándar de la media.
Relación entre el área bajo la curva de distribución normal de probabilidad y la distancia a la media medida en desviaciones estándar.
Estas gráficas muestran tres formas diferentes de medir el área bajo la curva normal. Sin embargo, muy pocas de las aplicaciones que
haremos de la distribución normal de probabilidad implican intervalos de exactamente (más o menos) 1, 2 ó 3 desviaciones estándar a
partir de la media. Para estos casos existen tablas estadísticas que indican porciones del área bajo la curva normal que están contenidas
dentro de cualquier número de desviaciones estándar (más o menos) a partir de la media.
Afortunadamente también podemos utilizar una distribución de probabilidad normal estándar para encontrar áreas bajo cualquier curva
normal. Con esta tabla podemos determinar el área o la probabilidad de que la variable aleatoria distribuida normalmente esté dentro de
ciertas distancias a partir de la media. Estas distancias están definidas en términos de desviaciones estándar.
USO DE LA TABLA DE DISTRIBUCIÓN NORLAM DE PROBABILIDAD NORMAL STANDAR
Para cualquier distribución normal de probabilidad, todos los intervalos que contienen el mismo número de desviaciones estándar a
partir de la media contendrán la misma fracción del área total bajo la curva para cualquier distribución de probabilidad normal. Esto hace
que sea posible usar solamente una tabla (Apéndice Tabla 1) de la distribución de probabilidad normal estándar.
El valor de z está derivado de la fórmula:
En la que:
x = valor de la variable aleatoria que nos preocupa.
µ = media de la distribución de la variable aleatoria.
σ = desviación estándar de la distribución.
z = número de desviaciones estándar que hay desde x a la media de la
distribución. (el uso de z es solamente un cambio de escala de medición del
eje horizontal)
Distribución normal que ilustra la comparación de los valores de z y las desviaciones estándar
EJEMPLO.
Partiendo de la misma premisa, µ = 500
y σ = 100. ¿Cuál es la probabilidad de que un candidato elegido al azar se tome entre 500 y 650 horas en completar el programa de
entrenamiento?
Si buscamos Z=1.5 (refiérase a la tabla), encontramos una probabilidad de 0.4332.
Por lo tanto, la probabilidad de que un candidato escogido al azar requiera entre 500 y 650 horas para terminar el programa de
entrenamiento es de 0.4332
Distribución T-Student:
Las distribuciones t de Student fueron descubiertas por William S. Gosset (1876-1937) en 1908 cuando trabajaba para la
compañía de cervezas Guinness en Dublín (Irlanda). No pudo publicar sus descubrimientos usando su propio nombre
porque Guinness había prohibido a sus empleados que publicaran información confidencial. Gosset firmó sus publicaciones
usando el nombre de "Student". Gosset tenía buena relación con Karl Pearson que había sido su maestro. Necesitaba una
distribución que pudiera usar cuando el tamaño de la muestra fuera pequeño y la varianza desconocida y tenía que ser
estimada a partir de los datos. Las distribuciones t se usan para tener en cuenta la incertidumbre añadida que resulta por esta
estimación. Fisher comprendió la importancia de los trabajos de Gosset para muestras pequeñas.
Si el tamaño de la muestra es n entonces decimos que la distribución t tiene n-1 grados de libertad. Hay una distribución t
diferente para cada tamaño de la muestra. Estas distribuciones son una familia de distribuciones de probabilidad continuas.
Las curvas de densidad son simétricas y con forma de campana como la distribución normal estándar. Sus medias son 0 y
sus varianzas son mayores que 1 (tienen colas más pesadas). Las colas de las distribuciones t disminuyen más lentamente
que las colas de la distribución normal. Si los grados de libertad son mayores más próxima a 1 es la varianza y la función de
densidad es más parecida a la densidad normal.
Cuando n es mayor que 30, la diferencia entre la normal y la distribución t de Student no suele ser muy importante. En la
imagen podemos ver varios ejemplos de funciones de distribución acumulada.
En Probabilidades en Distribuciones t-Student puedes ver una comparación más precisa entre las distribuciones t-Student y
la normal estándar.
En el applet podemos ver varios ejemplos de distribución t de Student junto con la normal estándar.
Se aprecia cómo cuando el parámetro es 25 la distribución es muy parecida a la normal estándar.
Los puntos grises controlan la escala vertical y horizontal de la gráfica y pulsando el boton derecho y arrastrando podemos
moverla a derecha e izquierda.
Distribución F-Fisher:
La necesidad de disponer de métodos estadísticos para comparar las varianzas de dos poblaciones es evidente a partir del
análisis de una sola población. Frecuentemente se desea comparar la precisión de un instrumento de medición con la de otro,
la estabilidad de un proceso de manufactura con la de otro o hasta la forma en que varía el procedimiento para calificar de
un profesor universitario con la de otro.
Intuitivamente, podríamos comparar las varianzas de dos poblaciones, y , utilizando la razón de las varianzas
muestrales s2
1/s2
2. Si s2
1/s2
2 es casi igual a 1, se tendrá poca evidencia para indicar que y no son iguales. Por
otra parte, un valor muy grande o muy pequeño para s2
1/s2
2, proporcionará evidencia de una diferencia en las varianzas de
las poblaciones.
La variable aleatoria F se define como el cociente de dos variables aleatorias ji-cuadrada independiente, cada una dividida
entre sus respectivos grados de libertad. Esto es,
Donde U y V son variables aleatorias ji-cuadrada independientes con grados de libertad 1 y 2 respectivamente.
Sean U y V dos variables aleatorias independientes que tienen distribución ji cuadradas con grados de libertad,
respectivamente. Entonces la distribución de la variable aleatoria está dada por:
y se dice que sigue la distribución F con grados de libertad en el numerador y grados de libertad en el
denominador.
La media y la varianza de la distribución F son:
para
para
La variable aleatoria F es no negativa, y la distribución tiene un sesgo hacia la derecha. La distribución F tiene una
apariencia muy similar a la distribución ji-cuadrada; sin embargo, se encuentra centrada respecto a 1, y los dos
parámetros proporcionan una flexibilidad adicional con respecto a la forma de la distribución.
Si s1
2 y s2
2 son las varianzas muestrales independientes de tamaño n1 y n2 tomadas de poblaciones normales con
varianzas 1
2 y 2
2, respectivamente, entonces:
Para manejar las tablas de Fisher del libro de Introducción a la Inferencia Estadística del autor Güenther, se tendrá que
buscar primero los grados de libertad dos para luego localizar el área correspondiente, relacionándola con los grados de
libertad uno, para calcular el valor de F.
Las tablas tienen la siguiente estructura:
P 1 2 3 ……. ….. 500 …
6 0.0005
0.001
0.005
.
.
0.9995 30.4
El valor de 30.4 es el correspondiente a una Fisher que tiene 3 grados de libertad uno y 6 grados de libertad dos con un área
de cero a Fisher de 0.995. Si lo vemos gráficamente:
Como nos podemos imaginar existen varias curvas Fisher, ya que ahora su forma depende de dos variables que son los
grados de libertad.
Ejemplos :
1. Encontrar el valor de F, en cada uno de los siguientes casos:
a. El área a la derecha de F, es de 0.25 con =4 y =9.
b. El área a la izquierda de F, es de 0.95 con =15 y =10.
c. El área a la derecha de F es de 0.95 con con =6 y =8.
d. El área a la izquierda de F, es de 0.10 con con =24 y
=24
Solución:
a. Como el área que da la tabla es de cero a Fisher, se tiene que localizar primero los grados de libertad dos que son
9, luego un área de 0.75 con 4 grados de libertad uno.
b. En este caso se puede buscar el área de 0.95 directamente en la tabla con sus respectivos grados de libertad.
c. Se tiene que buscar en la tabla un área de 0.05, puesto que nos piden un área a la derecha de F de 0.95.
d. Se busca directamente el área de 0.10, con sus respectivos grados de libertad.
1. Si s1
2 y s2
2 son las varianzas muestrales de muestras aleatorias independientes de tamaños n1=10y n2 =20, tomadas
de poblaciones normales que tienen las mismas varianzas, encuentre P(s1
2/s2
2 2.42).
Solución:
Primero se establecen los grados de libertad. Como en el numerador está la población uno y en el denominador la población
dos, entonces los grados de libertad uno equivalen a 10-1=9 y los grados de libertad dos a 20-1=19.
Se procede a ir a la tabla a buscar los grados de libertad dos que son 19 y se observa que no están, por lo tanto se tiene que
interpolar entre 15 y 20 grados de libertad, buscando el valor de fisher que quedaría:
Este valor de 2.42 se busca en la columna de 9 grados de libertad uno, con 15 grados de libertad dos, y se encuentra los
siguiente:
Área
0.90 2.09
0.95 2.59
Al interpolar entre estos dos valores nos queda un área de 0.933.
Se procede a hacer lo mismo pero con 20 grados de libertad dos:
Área
0.95 2.39
0.975 2.84
Al interpolar entre estos dos valores nos queda un área de 0.9516.
Ahora ya se tienen las dos áreas referentes a los grados de libertad dos, por lo que se interpolará para ver cuánto le
corresponde a los grados libertad dos con un valor de 19.
Área
15 0.933
20 0.9516
Al interpolar nos queda que para 9 grados de libertad uno y 19 grados de libertad dos con un valor de Fisher de 2.42 el área
a la izquierda es de 0.9478.
2. Si s1
2 y s2
2 representan las varianzas de las muestras aleatorias independientes de tamaño n1= 25 y n2 = 31,
tomadas de poblaciones normales con varianzas 1
2 =10 y
2
2 = 15, respectivamente, encuentre P(s1
2/s2
2 > 1.26).
Solución:
Calcular el valor de Fisher:
Luego se va a la tabla de Fisher a buscar 30 grados de libertad 2 con 24 grados de libertad uno. Cuando se esté en esta
posición se busca adentro de la tabla el valor de Fisher de 1.89. Al localizarlo y ver a la izquierda de este valor se obtiene un
área de 0.95, pero esta área correspondería a la probabilidad de que las relaciones de varianzas muestrales fueran menor a
1.26, por lo que se calcula su complemento que sería 0.05, siendo esta la probabilidad de que s1
2/s2
2 > 1.26.
Intervalo de Confianza para el Cociente de Varianzas de Dos Distribuciones Normales
Supóngase que se tienen dos poblaciones normales e independientes con varianzas desconocidas 1
2 y 2
2,
respectivamente. De este par de poblaciones, se tienen disponibles dos muestras aleatorias de tamaños n1 y n2,
respectivamente, sean s1
2 y s2
2 las dos varianzas muestrales. Se desea conocer un intervalo de confianza del 100( )
por ciento para el cociente de las dos varianzas, 1
2/ 2
2.
Para construir el intervalo de confianza para el cociente de dos varianzas poblacionales, se coloca la varianza muestral
mayor en el numerador del estadístico F.
Ejemplos:
1. Un fabricante de automóviles pone a prueba dos nuevos métodos de ensamblaje de motores respecto al tiempo en
minutos. Los resultados se muestran en la tabla:
Método 1 Método 2
n1 = 31 n2 = 25
s1
2 = 50 s2
2 = 24
Construya un intervalo de confianza del 90% para 1
2/ 2
2.
Solución:
Por la recomendación de que la varianza muestral mayor va en el numerador se tiene la siguiente fórmula:
al despejar: .
F toma dos valores dependiendo del nivel de confianza y de los grados de libertad. En este caso los grados de libertad uno
valen 30 y los grados de libertad dos 24.
y
Estos resultados los podemos interpretar de la siguiente manera:
Con un nivel de confianza del 90% se sabe que la relación de varianzas 1
2/ 2
2 esta entre 1.07 y 3.93. Esto supondría
que la varianza de la población 1 es mayor a la varianza de la población 2 entre 1.07 y 3.93.
2. Una compañía fabrica propulsores para uso en motores de turbina. Al ingeniero de manufactura le gustaría
seleccionar el proceso que tenga la menor variabilidad en la rugosidad de la superficie. Para ello toma una
muestra de n1=16 partes del primer proceso, la cual tiene una desviación estándar s1 = 4.7 micropulgadas, y una
muestra aleatoria de n2=12 partes del segundo proceso, la cual tiene una desviación estándar s2 = 5.1
micropulgadas. Se desea encontrar un intervalo de confianza del 90% para el cociente de las dos varianzas 1
2/
2
2. Suponga que los dos procesos son independientes y que la rugosidad de la superficie está distribuida de manera normal.
Solución:
Por la recomendación de que la varianza muestral mayor va en el numerador se tiene la siguiente fórmula:
al despejar: .
En este caso los grados de libertad uno valen 11 y los grados de libertad dos 15.
y
Estos resultados los podemos interpretar de la siguiente manera:
Puesto que este intervalo de confianza incluye a la unidad, no es posible afirmar que las desviaciones estándar de la
rugosidad de la superficie de los dos procesos sean diferentes con un nivel de confianza del 90%.
Distribución chií cuadrada:
En realidad la distribución ji-cuadrada es la distribución muestral de s2. O sea que si se extraen todas las muestras posibles
de una población normal y a cada muestra se le calcula su varianza, se obtendrá la distribución muestral de varianzas.
Para estimar la varianza poblacional o la desviación estándar, se necesita conocer el estadístico X2. Si se elige una muestra
de tamaño n de una población normal con varianza , el estadístico:
tiene una distribución muestral que es una distribución ji-cuadrada con gl=n-1 grados de libertad y se denota X2 (X es la
minúscula de la letra griega ji). El estadístico ji-cuadrada esta dado por:
donde n es el tamaño de la muestra, s2 la varianza muestral y la varianza de la población de donde se extrajo la
muestra. El estadístico ji-cuadrada también se puede dar con la siguiente expresión:
Propiedades de las distribuciones ji-cuadrada
1. Los valores de X2 son mayores o iguales que 0.
2. La forma de una distribución X2 depende del gl=n-1. En consecuencia, hay un número infinito de distribuciones
X2.
3. El área bajo una curva ji-cuadrada y sobre el eje horizontal es 1.
4. Las distribuciones X2 no son simétricas. Tienen colas estrechas que se extienden a la derecha; esto es, están
sesgadas a la derecha.
5. Cuando n>2, la media de una distribución X2 es n-1 y la varianza es 2(n-1).
6. El valor modal de una distribución X2 se da en el valor (n-3).
La siguiente figura ilustra tres distribuciones X2. Note que el valor modal aparece en el valor (n-3) = (gl-2).
La función de densidad de la distribución X2 esta dada por:
para x>0
La tabla que se utilizará para estos apuntes es la del libro de probabilidad y estadística de Walpole, la cual da valores
críticos (gl) para veinte valores especiales de . Para denotar el valor crítico de una distribución X2 con gl grados
de libertad se usa el símbolo (gl); este valor crítico determina a su derecha un área de bajo la curva X2 y sobre
el eje horizontal. Por ejemplo para encontrar X2
0.05(6) en la tabla se localiza 6 gl en el lado izquierdo y a o
largo del lado superior de la misma tabla.
Cálculo de Probabilidad
El cálculo de probabilidad en una distribución muestral de varianzas nos sirve para saber cómo se va a comportar la
varianza o desviación estándar en una muestra que proviene de una distribución normal.
Ejemplos:
1. Suponga que los tiempos requeridos por un cierto autobús para alcanzar un de sus destinos en una ciudad grande
forman una distribución normal con una desviación estándar =1 minuto. Si se elige al azar una muestra de 17
tiempos, encuentre la probabilidad de que la varianza muestral sea mayor que 2.
Solución:
Primero se encontrará el valor de ji-cuadrada correspondiente a s2=2 como sigue:
El valor de 32 se busca adentro de la tabla en el renglón de 16 grados de libertad y se encuentra que a este valor le
corresponde un área a la derecha de 0.01. En consecuencia, el valor de la probabilidad es P(s2>2)
2. Encuentre la probabilidad de que una muestra aleatoria de 25 observaciones, de una población normal con
varianza
, tenga una varianza muestral:
a. Mayor que 9.1
b. Entre 3.462 y 10.745
Solución.
a. Primero se procederá a calcular el valor de la ji-cuadrada:
Al buscar este número en el renglón de 24 grados de libertad nos da un área a la derecha de 0.05. Por lo que la P(s2 >9.1) =
0.05
1. Se calcularán dos valores de ji-cuadrada:
y
Aquí se tienen que buscar los dos valores en el renglón de 24 grados de libertad. Al buscar el valor de 13.846 se encuentra
un área a la derecha de 0.95. El valor de 42.98 da un área a la derecha de 0.01. Como se está pidiendo la probabilidad entre
dos valores se resta el área de 0.95 menos 0.01 quedando 0.94.
Por lo tanto la P(3.462 s2 10.745) = 0.94
Estimación de la Varianza
Para poder estimar la varianza de una población normal se utilizará la distribución ji-cuadrada.
Al despejar esta fórmula la varianza poblacional nos queda:
Los valores de X2 dependerán de nivel de confianza que se quiera al cual le llamamos . Si nos ubicamos en la
gráfica se tiene:
Ejemplos:
1. Los siguientes son los pesos, en decagramos, de 10 paquetes de semillas de pasto distribuidas por cierta
compañía: 46.4, 46.1, 45.8, 47.0, 46.1, 45.9, 45.8, 46.9, 45.2 y 46. Encuentre un intervalo de confianza de 95%
para la varianza de todos los paquetes de semillas de pasto que distribuye esta compañía, suponga una población
normal.
Solución:
Primero se calcula la desviación estándar de la muestra:
al elevar este resultado al cuadrado se obtiene la varianza de la muestra s2= 0.286.
Para obtener un intervalo de confianza de 95% se elige un = 0.05. Después con el uso de la tabla con 9 grados de
libertad se obtienen los valores de X2.
Se puede observar en la gráfica anterior que el valor de X2 corre en forma normal, esto es de izquierda a derecha.
Por lo tanto, el intervalo de confianza de 95% para la varianza es:
Graficamente:
Se observa que la varianza corre en sentido contrario, pero esto es sólo en la gráfica. La interpretación quedaría similar a
nuestros temas anteriores referentes a estimación. Con un nivel de confianza del 95% se sabe que la varianza de la población
de los pesos de los paquetes de semillas de pasto esta entre 0.135 y 0.935 decagramos al cuadrado.
2. En trabajo de laboratorio se desea llevar a cabo comprobaciones cuidadosas de la variabilidad de los resultados
que producen muestras estándar. En un estudio de la cantidad de calcio en el agua potable, el cual se efectúa como
parte del control de calidad, se analizó seis veces la misma muestra en el laboratorio en intervalos aleatorios. Los
seis resultados en partes pormillón fueron 9.54, 9.61,9.32, 9.48, 9.70 y 9.26. Estimar la varianza de los resultados
de la población para este estándar, usando un nivel de confianza del 90%.
Solución:
Al calcular la varianza de la muestra se obtiene un valor de s2= 0.0285.
Se busca en la tabla los valores correspondientes con 5 grados de libertad, obteniéndose dos resultados. Para X2
(0.95,5)= 1.145
y para X2
(0.0,5)= 11.07.
Entonces el intervalo de confianza está dado por:
y
Distribución Exponencial:
A pesar de que la distribución Normal puede utilizarse para resolver muchos problemas en ingeniería y ciencias, existen aún
numerosas situaciones que requieren diferentes tipos de funciones de densidad, tales como la exponencial y la gamma y
algunas otras como la weibull, etc., etc., de momento solo trataremos sobre el uso de la exponencial.
Resulta que la exponencial es un caso especial de la distribución gamma, ambas tienen un gran número de aplicaciones. Las
distribuciones exponencial y gamma juegan un papel importante tanto en teoría de colas como en problemas de
confiabilidad. El tiempo entre las llegadas en las instalaciones de servicio y el tiempo de falla de los componentes y sistemas
eléctricos, frecuentemente involucran la distribución exponencial. La relación entre la gamma y la exponencial permite que
la distribución gamma se utilice en tipos similares de problemas.
La variable aleatoria x tiene una distribución exponencial, con parámetro b, si su función de densidad es:
, x > 0 ; f(x) = 0 en cualquier otro caso
Donde b > 0
La media y la variancia de la distribución exponencial son:
m = b y s2 = b2
Relación con el proceso de Poisson.
Las aplicaciones más importantes de la distribución exponencial son aquellas situaciones en donde se aplica el proceso de
Poisson , es necesario recordar que un proceso de Poisson permite el uso de la distribución de Poisson. Recuérdese
también que la distribución de Poisson se utiliza para calcular la probabilidad de números específicos de “eventos” durante
un período o espacio particular. En muchas aplicaciones, el período o la cantidad de espacio es la variable aleatoria. Por
ejemplo un ingeniero industrial puede interesarse en el tiempo T entre llegadas en una intersección congestionada durante la
hora de salida de trabajo en una gran ciudad. Una llegada representa el evento de Poisson.
La relación entre la distribución exponencial (con frecuencia llamada exponencial negativa) y el proceso llamado de Poisson
es bastante simple. La distribución de Poisson se desarrolló como una distribución de un solo parámetro l, donde l puede
interpretarse como el número promedio de eventos por unidad de “tiempo” . Considérese ahora la variable aleatoria descrita
por el tiempo que se requiere para que ocurra el primer evento. Mediante la distribución de Poisson, se encuentra que la
probabilidad de que no ocurran en el espacio hasta el tiempo t está dada por:
;
Ahora puede utilizarse lo anterior y hacer que X sea el tiempo para el primer evento de Poisson. La probabilidad de que el
período hasta que ocurre el primer evento de Poisson exceda x es la misma que la probabilidad de que no ocurra un evento
de Poisson en x. Esto último por supuesto está dado por . Como resultado,
P(X ³ x) =
Entonces, la función de distribución acumulada para x es:
P(0£ X £ x) = 1 -
Ahora, con objeto de que se reconozca la presencia de la distribución exponencial, puede derivarse la distribución
acumulada anterior para obtener la función de densidad:
f(x) =
La cual es la función de densidad de la distribución exponencial con .
Nótese que la media de la distribución exponencial es el parámetro , el recíproco del parámetro en la distribución de
Poisson. El lector debe recordar que con frecuencia se dice que la distribución de Poisson no tiene memoria, lo cuál implica
que las ocurrencias en períodos de tiempo sucesivos son independientes. Aquí el parámetro importante es el tiempo
promedio entre eventos. En teoría de la confiabilidad, donde la falla de un equipo concuerda con el proceso de
Poisson, recibe el nombre de tiempo promedio entre fallas. Muchas descomposturas de equipo siguen el proceso de
Poisson, y entonces la distribución exponencial es aplicable.
En el siguiente ejemplo se muestra una aplicación simple de la distribución exponencial en un problema de confiabilidad. La
distribución binomial también juega un papel importante en la solución.
Ejemplos:
1. Suponga que un sistema contiene cierto tipo de componente cuyo tiempo de falla en años está dado por la variable
aleatoria T, distribuida exponencialmente con tiempo promedio de falla . S í 5 de estos componentes se
instalan en diferentes sistemas, ¿cuál es la probabilidad de que al menos 2 continúen funcionando después de 8
años?
Solución:
La probabilidad de que un determinado componente esté funcionando aún después de 8 años es:
la | nos indica que la integral se va a evaluar desde 8 hasta ¥
Sea x el número de componentes funcionando después de 8 años. Entonces mediante la distribución Binomial,
n = 5
p = 0.20 = probabilidad de que un componente esté funcionando después de 8 años
q = 1-p = 0.80 = probabilidad de que un componente no funcione después de 8 años
P(x ³ 2 ) = p(x=2) + p(x=3) + p(x=4)+p(x=5) = 1 – p(x = 0, 1)
2. El tiempo que transcurre antes de que una persona sea atendida en una cafetería es una variable aleatoria que tiene
una distribución exponencial con una media de 4 minutos. ¿Cuál es la probabilidad de que una persona sea
atendida antes de que transcurran 3 minutos en al menos 4 de los 6 días siguientes?
Solución:
la nos indica que la integral va a ser evaluada
de 0 a 3
x = número de días en que un cliente es atendido antes de que transcurran 3 minutos
x = 0, 1, 2,...,6 días
p = probabilidad de que un cliente sea atendido antes de que transcurran 3 minutos en un día cualquiera = 0.5276
q = probabilidad de que un cliente no sea atendido antes de que transcurran 3 minutos en un día cualquiera = 1- p = 0.4724
= 0.11587 + 0.02157 = 0.13744
Función de densidad y función de probabilidad (formulas)
Función densidad:
La función de densidad de probabilidad describe la probabilidad de cada valor específico que puede tener una variable.
Ejemplo de una PDF discreta
Para una variable discreta, la PDF es una lista que contiene cada valor que la variable puede tener y su probabilidad
asociada. Por ejemplo, una fábrica de caramelos produce un solo tipo de caramelo en múltiples colores. Un 30% de los
caramelos producidos son amarillos, 10% anaranjados, 10% rojos, 20% verdes y 30% azules.
PDF discreta
Esta gráfica de barras muestra la PDF por color de caramelo. Cada barra representa la probabilidad de caramelos de ese
color expresada como un porcentaje.
Ejemplo de una PDF continúa
Para una variable continua, la PDF es la curva que aproxima la forma cuando sus valores se muestran en una gráfica de
barras o histograma. Por ejemplo, una máquina que corta corchos para botellas de vino produce corchos de diferentes
diámetros. En la siguiente gráfica de barras de diámetros de corchos, cada barra representa el porcentaje de corchos con el
correspondiente diámetro.
PDF continúa
La curva es la PDF para el diámetro del corcho. Utilice la PDF para determinar la probabilidad de que ocurra un evento. Por
ejemplo, solo un pequeño porcentaje de corchos (1%) tiene un diámetro por debajo de 2.8 cm.
PDF continúa con límites de especificación
Si los límites de especificación para el diámetro de corchos son de 2.85 cm a 3.15 cm, la PDF ofrece la probabilidad o el
porcentaje de todos los corchos de este proceso que cumplen con las especificaciones.
La forma de la PDF es diferente para distribuciones diferentes. La curva familiar con forma de campana representa la PDF
para una distribución normal. Aunque el diámetro de los corchos sigue una distribución normal, otras mediciones, tales
como la fuerza necesaria para retirar el corcho de la botella de vino, pueden seguir una distribución diferente. Por ejemplo,
la PDF para una distribución lognormal tiene una cola larga hacia la derecha.
PDF lognormal
Debido a que una botella de vino ocasionalmente requiere una cantidad poco común de fuerza para retirar el corcho, las
mediciones de esta fuerza suelen seguir una distribución con una cola larga hacia la derecha tal como la distribución
lognormal.
Función de probabilidad:
Se llama función de probabilidad de una variable aleatoria discreta X a la aplicación que asocia a cada valor de xi de la
variable su probabilidad pi.
0 ≤ pi ≤ 1
p1 + p2 + p3 + · · · + pn = Σ pi = 1
Ejemplo
Calcular la distribución de probabilidad de las puntuaciones obtenidas al lanzar un dado.
x p i
1
2
3
4
5
6
1
Representación
La representación de una distribución discreta de probabilidad es un diagrama de barras.
Función de probabilidad de la distribución binomial
La función de probabilidad de la distribución binomial, también denominada función de la distribución de Bernoulli, es:
n es el número de pruebas.
k es el número de éxitos.
p es la probabilidad de éxito.
q es la probabilidad de fracaso.
El número combinatorio
Ejemplo
La última novela de un autor ha tenido un gran éxito, hasta el punto de que el 80% de los lectores ya la han leido. Un grupo
de 4 amigos son aficionados a la lectura:
1. ¿Cuál es la probabilidad de que el grupo hayan leido la novela 2 personas?
n = 4
p = 0.8
q = 0.2
B(4, 0.2)

Más contenido relacionado

La actualidad más candente

Presen psicologia experimental
Presen psicologia experimentalPresen psicologia experimental
Presen psicologia experimentalRaquelGraterol
 
Escrito crtico momento 4 fernández jenny
Escrito crtico momento 4 fernández jennyEscrito crtico momento 4 fernández jenny
Escrito crtico momento 4 fernández jennyJenny Fernandez
 
Presentación enfoque cuantitativo
Presentación enfoque cuantitativoPresentación enfoque cuantitativo
Presentación enfoque cuantitativo17612694
 
La Recolección y análisis de datos cuantitativos
La Recolección y análisis de datos cuantitativosLa Recolección y análisis de datos cuantitativos
La Recolección y análisis de datos cuantitativosJose Azuaje
 
Exposicion estadistica inferencial spss
Exposicion estadistica inferencial spssExposicion estadistica inferencial spss
Exposicion estadistica inferencial spssgabrielanataly
 
La recoleccion y analisis de los datos
La recoleccion y analisis de los datosLa recoleccion y analisis de los datos
La recoleccion y analisis de los datosBrendacvf88
 
La estadística aplicada en la elaboración de una tesis aplicando el método co...
La estadística aplicada en la elaboración de una tesis aplicando el método co...La estadística aplicada en la elaboración de una tesis aplicando el método co...
La estadística aplicada en la elaboración de una tesis aplicando el método co...Juan F.Guevara
 
Conceptos estadisticos e investigacion
Conceptos  estadisticos e investigacionConceptos  estadisticos e investigacion
Conceptos estadisticos e investigacionfrancisco_luis_sinche
 
Administración de la informacion
Administración de la informacionAdministración de la informacion
Administración de la informacionEden Rodríguez
 
Investigacion cuantitativa
Investigacion cuantitativaInvestigacion cuantitativa
Investigacion cuantitativaAura Alvarez
 

La actualidad más candente (20)

Ciencia
CienciaCiencia
Ciencia
 
Presen psicologia experimental
Presen psicologia experimentalPresen psicologia experimental
Presen psicologia experimental
 
Escrito crtico momento 4 fernández jenny
Escrito crtico momento 4 fernández jennyEscrito crtico momento 4 fernández jenny
Escrito crtico momento 4 fernández jenny
 
Presentación enfoque cuantitativo
Presentación enfoque cuantitativoPresentación enfoque cuantitativo
Presentación enfoque cuantitativo
 
Analisis crítico.pdfv
Analisis crítico.pdfvAnalisis crítico.pdfv
Analisis crítico.pdfv
 
La Recolección y análisis de datos cuantitativos
La Recolección y análisis de datos cuantitativosLa Recolección y análisis de datos cuantitativos
La Recolección y análisis de datos cuantitativos
 
Claseshipotesis
ClaseshipotesisClaseshipotesis
Claseshipotesis
 
Investigacion
InvestigacionInvestigacion
Investigacion
 
Exposicion estadistica inferencial spss
Exposicion estadistica inferencial spssExposicion estadistica inferencial spss
Exposicion estadistica inferencial spss
 
La recoleccion y analisis de los datos
La recoleccion y analisis de los datosLa recoleccion y analisis de los datos
La recoleccion y analisis de los datos
 
Enfoquecuantitativo
Enfoquecuantitativo Enfoquecuantitativo
Enfoquecuantitativo
 
La estadística aplicada en la elaboración de una tesis aplicando el método co...
La estadística aplicada en la elaboración de una tesis aplicando el método co...La estadística aplicada en la elaboración de una tesis aplicando el método co...
La estadística aplicada en la elaboración de una tesis aplicando el método co...
 
Conceptos estadisticos e investigacion
Conceptos  estadisticos e investigacionConceptos  estadisticos e investigacion
Conceptos estadisticos e investigacion
 
2. La Investigación Científica - 1
2. La Investigación Científica - 12. La Investigación Científica - 1
2. La Investigación Científica - 1
 
Metodos de investigacion clase 1
Metodos de investigacion clase 1Metodos de investigacion clase 1
Metodos de investigacion clase 1
 
Q1d
Q1dQ1d
Q1d
 
PARADIGMA CUANTITATIVO.INSTRUMENTO.l.2011
PARADIGMA CUANTITATIVO.INSTRUMENTO.l.2011PARADIGMA CUANTITATIVO.INSTRUMENTO.l.2011
PARADIGMA CUANTITATIVO.INSTRUMENTO.l.2011
 
Administración de la informacion
Administración de la informacionAdministración de la informacion
Administración de la informacion
 
David Esteban Rondon Castro
David Esteban Rondon Castro David Esteban Rondon Castro
David Esteban Rondon Castro
 
Investigacion cuantitativa
Investigacion cuantitativaInvestigacion cuantitativa
Investigacion cuantitativa
 

Destacado

Tarea canción madre tierra by i+d 2017
Tarea canción madre tierra by i+d 2017Tarea canción madre tierra by i+d 2017
Tarea canción madre tierra by i+d 2017IsabelCiencias
 
Government Policy - Defence and Public Safety - Canada
Government Policy - Defence and Public Safety - CanadaGovernment Policy - Defence and Public Safety - Canada
Government Policy - Defence and Public Safety - Canadapaul young cpa, cga
 
La Comunicación Empatica en la Escuela ccesa007
La Comunicación Empatica en la Escuela  ccesa007La Comunicación Empatica en la Escuela  ccesa007
La Comunicación Empatica en la Escuela ccesa007Demetrio Ccesa Rayme
 
La gestión en los sistemas técnicos
La gestión en los sistemas técnicosLa gestión en los sistemas técnicos
La gestión en los sistemas técnicosItzelja
 
O Cristão e o Movimento Ambientalista
O Cristão e o Movimento AmbientalistaO Cristão e o Movimento Ambientalista
O Cristão e o Movimento AmbientalistaDaniel de Carvalho Luz
 
Teorías del Aprendizaje en el Escenario Educativo ccesa007
Teorías del Aprendizaje en el Escenario Educativo  ccesa007Teorías del Aprendizaje en el Escenario Educativo  ccesa007
Teorías del Aprendizaje en el Escenario Educativo ccesa007Demetrio Ccesa Rayme
 
3Com 7030-10067
3Com 7030-100673Com 7030-10067
3Com 7030-10067savomir
 
3Com 3C63414-8EI
3Com 3C63414-8EI3Com 3C63414-8EI
3Com 3C63414-8EIsavomir
 
3Com 3C16471B / 10016355
3Com 3C16471B / 100163553Com 3C16471B / 10016355
3Com 3C16471B / 10016355savomir
 
Centro de excelencia deportiva profesor albertos byas
Centro de excelencia deportiva profesor albertos byasCentro de excelencia deportiva profesor albertos byas
Centro de excelencia deportiva profesor albertos byasHector Asencio Quiterio
 
Political Alert - House of Representatives Daily Program (FED)
Political Alert - House of Representatives Daily Program (FED)Political Alert - House of Representatives Daily Program (FED)
Political Alert - House of Representatives Daily Program (FED)Lisa Munoz
 

Destacado (20)

Tarea canción madre tierra by i+d 2017
Tarea canción madre tierra by i+d 2017Tarea canción madre tierra by i+d 2017
Tarea canción madre tierra by i+d 2017
 
Taller 1
Taller 1Taller 1
Taller 1
 
Government Policy - Defence and Public Safety - Canada
Government Policy - Defence and Public Safety - CanadaGovernment Policy - Defence and Public Safety - Canada
Government Policy - Defence and Public Safety - Canada
 
La Comunicación Empatica en la Escuela ccesa007
La Comunicación Empatica en la Escuela  ccesa007La Comunicación Empatica en la Escuela  ccesa007
La Comunicación Empatica en la Escuela ccesa007
 
VIGAS-Flexao simples-exemplo completo
VIGAS-Flexao simples-exemplo completoVIGAS-Flexao simples-exemplo completo
VIGAS-Flexao simples-exemplo completo
 
"Культурное наследие России"
"Культурное наследие России""Культурное наследие России"
"Культурное наследие России"
 
Computacion grupo13
Computacion grupo13Computacion grupo13
Computacion grupo13
 
Autismo diapositivas
Autismo diapositivasAutismo diapositivas
Autismo diapositivas
 
Pindul cave
Pindul cavePindul cave
Pindul cave
 
La gestión en los sistemas técnicos
La gestión en los sistemas técnicosLa gestión en los sistemas técnicos
La gestión en los sistemas técnicos
 
O Cristão e o Movimento Ambientalista
O Cristão e o Movimento AmbientalistaO Cristão e o Movimento Ambientalista
O Cristão e o Movimento Ambientalista
 
Teorías del Aprendizaje en el Escenario Educativo ccesa007
Teorías del Aprendizaje en el Escenario Educativo  ccesa007Teorías del Aprendizaje en el Escenario Educativo  ccesa007
Teorías del Aprendizaje en el Escenario Educativo ccesa007
 
3Com 7030-10067
3Com 7030-100673Com 7030-10067
3Com 7030-10067
 
3Com 3C63414-8EI
3Com 3C63414-8EI3Com 3C63414-8EI
3Com 3C63414-8EI
 
3Com 3C16471B / 10016355
3Com 3C16471B / 100163553Com 3C16471B / 10016355
3Com 3C16471B / 10016355
 
Infografia 1
Infografia 1Infografia 1
Infografia 1
 
Centro de excelencia deportiva profesor albertos byas
Centro de excelencia deportiva profesor albertos byasCentro de excelencia deportiva profesor albertos byas
Centro de excelencia deportiva profesor albertos byas
 
Political Alert - House of Representatives Daily Program (FED)
Political Alert - House of Representatives Daily Program (FED)Political Alert - House of Representatives Daily Program (FED)
Political Alert - House of Representatives Daily Program (FED)
 
Psychisme Humain
Psychisme HumainPsychisme Humain
Psychisme Humain
 
Pro chi pics class work
Pro chi pics class workPro chi pics class work
Pro chi pics class work
 

Similar a Tarea 1, 2 y 3 metodos 2

Similar a Tarea 1, 2 y 3 metodos 2 (20)

Trabajo de informatica
Trabajo de informaticaTrabajo de informatica
Trabajo de informatica
 
Estadística.
Estadística.Estadística.
Estadística.
 
tarea de informatica
tarea de informaticatarea de informatica
tarea de informatica
 
La medicion
La medicionLa medicion
La medicion
 
Estadistica Jorge Rincòn
Estadistica Jorge RincònEstadistica Jorge Rincòn
Estadistica Jorge Rincòn
 
Primera Semana Teoría - Metodos Estadísticos.ppt
Primera Semana Teoría - Metodos Estadísticos.pptPrimera Semana Teoría - Metodos Estadísticos.ppt
Primera Semana Teoría - Metodos Estadísticos.ppt
 
Metodologia ejemplo inves cuanti
Metodologia ejemplo inves cuantiMetodologia ejemplo inves cuanti
Metodologia ejemplo inves cuanti
 
Encuentro 1
Encuentro 1Encuentro 1
Encuentro 1
 
Definicion
Definicion  Definicion
Definicion
 
Quantitative research
Quantitative researchQuantitative research
Quantitative research
 
Métodos científicos de investigación en planes de seguridad y pericias crimin...
Métodos científicos de investigación en planes de seguridad y pericias crimin...Métodos científicos de investigación en planes de seguridad y pericias crimin...
Métodos científicos de investigación en planes de seguridad y pericias crimin...
 
Metodos estadisticos
Metodos estadisticosMetodos estadisticos
Metodos estadisticos
 
El metodo epidemiológico
El metodo epidemiológicoEl metodo epidemiológico
El metodo epidemiológico
 
La Investigación
La InvestigaciónLa Investigación
La Investigación
 
Yopiiiiiiiiiiiii
YopiiiiiiiiiiiiiYopiiiiiiiiiiiii
Yopiiiiiiiiiiiii
 
Estadística (1)
Estadística (1)Estadística (1)
Estadística (1)
 
Estadística y probabilidad
Estadística y probabilidadEstadística y probabilidad
Estadística y probabilidad
 
Ensayo de estadística inferencial
Ensayo de estadística inferencialEnsayo de estadística inferencial
Ensayo de estadística inferencial
 
Ensayo de estadística inferencial
Ensayo de estadística inferencialEnsayo de estadística inferencial
Ensayo de estadística inferencial
 
Ensayo de estadística inferencial 1
Ensayo de estadística inferencial 1 Ensayo de estadística inferencial 1
Ensayo de estadística inferencial 1
 

Último

EXPOSICION MENINGITIS BACTERIANA 2024.ppt
EXPOSICION MENINGITIS BACTERIANA 2024.pptEXPOSICION MENINGITIS BACTERIANA 2024.ppt
EXPOSICION MENINGITIS BACTERIANA 2024.pptJUAREZHUARIPATAKATHE
 
SEMIOLOGIA CARDIOVASCULAR examen fisico y exploracion
SEMIOLOGIA CARDIOVASCULAR examen fisico y exploracionSEMIOLOGIA CARDIOVASCULAR examen fisico y exploracion
SEMIOLOGIA CARDIOVASCULAR examen fisico y exploracionDrRenEduardoSnchezHe
 
Clase 13 Artrologia Cintura Escapular 2024.pdf
Clase 13 Artrologia Cintura Escapular 2024.pdfClase 13 Artrologia Cintura Escapular 2024.pdf
Clase 13 Artrologia Cintura Escapular 2024.pdfgarrotamara01
 
biomagnetismo.ppt para medicina complementaria
biomagnetismo.ppt para medicina complementariabiomagnetismo.ppt para medicina complementaria
biomagnetismo.ppt para medicina complementariairina11171
 
(2024-04-17) TRASTORNODISFORICOPREMENSTRUAL (ppt).pdf
(2024-04-17) TRASTORNODISFORICOPREMENSTRUAL (ppt).pdf(2024-04-17) TRASTORNODISFORICOPREMENSTRUAL (ppt).pdf
(2024-04-17) TRASTORNODISFORICOPREMENSTRUAL (ppt).pdfUDMAFyC SECTOR ZARAGOZA II
 
urgencia y emergencia. Diferencias y ejemplos
urgencia y emergencia. Diferencias y ejemplosurgencia y emergencia. Diferencias y ejemplos
urgencia y emergencia. Diferencias y ejemploscosentinojorgea
 
docsity.vpdfs.com_urticaria-y-angioedema-en-pediatria-causas-mecanismos-y-dia...
docsity.vpdfs.com_urticaria-y-angioedema-en-pediatria-causas-mecanismos-y-dia...docsity.vpdfs.com_urticaria-y-angioedema-en-pediatria-causas-mecanismos-y-dia...
docsity.vpdfs.com_urticaria-y-angioedema-en-pediatria-causas-mecanismos-y-dia...MariaEspinoza601814
 
Lesiones en el pie--Traumatología...pptx
Lesiones en el pie--Traumatología...pptxLesiones en el pie--Traumatología...pptx
Lesiones en el pie--Traumatología...pptx Estefa RM9
 
DOCUMENTOS MÉDICO LEGALES EN MEDICINA LEGAL Y FORENSE.pptx
DOCUMENTOS MÉDICO LEGALES EN MEDICINA LEGAL Y FORENSE.pptxDOCUMENTOS MÉDICO LEGALES EN MEDICINA LEGAL Y FORENSE.pptx
DOCUMENTOS MÉDICO LEGALES EN MEDICINA LEGAL Y FORENSE.pptxfarmaciasanmigueltx
 
musculos y partes del tronco clase de medicina.pdf
musculos y partes del tronco clase de medicina.pdfmusculos y partes del tronco clase de medicina.pdf
musculos y partes del tronco clase de medicina.pdfKelymarHernandez
 
EMBARAZO MULTIPLE, su definicioón y cuidados de enfermería
EMBARAZO MULTIPLE, su definicioón y cuidados de enfermeríaEMBARAZO MULTIPLE, su definicioón y cuidados de enfermería
EMBARAZO MULTIPLE, su definicioón y cuidados de enfermeríaCaRlosSerrAno799168
 
(2024-25-04) Epilepsia, manejo el urgencias (doc).docx
(2024-25-04) Epilepsia, manejo el urgencias (doc).docx(2024-25-04) Epilepsia, manejo el urgencias (doc).docx
(2024-25-04) Epilepsia, manejo el urgencias (doc).docxUDMAFyC SECTOR ZARAGOZA II
 
21542401-Historia-Natural-Del-Infarto-Agudo-de-Miocardio.pdf
21542401-Historia-Natural-Del-Infarto-Agudo-de-Miocardio.pdf21542401-Historia-Natural-Del-Infarto-Agudo-de-Miocardio.pdf
21542401-Historia-Natural-Del-Infarto-Agudo-de-Miocardio.pdfHANNIBALRAMOS
 
Revista de psicología sobre el sistema nervioso.pdf
Revista de psicología sobre el sistema nervioso.pdfRevista de psicología sobre el sistema nervioso.pdf
Revista de psicología sobre el sistema nervioso.pdfleechiorosalia
 
Cartilla de Prestadores de Prevencion Salud
Cartilla de Prestadores de Prevencion SaludCartilla de Prestadores de Prevencion Salud
Cartilla de Prestadores de Prevencion Saludfedesebastianibk1
 
CUADRO- COMPARATIVO DE SALUD COMUNITARIA
CUADRO- COMPARATIVO DE SALUD COMUNITARIACUADRO- COMPARATIVO DE SALUD COMUNITARIA
CUADRO- COMPARATIVO DE SALUD COMUNITARIALeylaSuclupe
 
Clase 12 Artrología de Columna y Torax 2024.pdf
Clase 12 Artrología de Columna y Torax 2024.pdfClase 12 Artrología de Columna y Torax 2024.pdf
Clase 12 Artrología de Columna y Torax 2024.pdfgarrotamara01
 
Dia mundial de la seguridad y salud en el trabajo
Dia mundial de la seguridad y salud en el trabajoDia mundial de la seguridad y salud en el trabajo
Dia mundial de la seguridad y salud en el trabajoSegundoJuniorMatiasS
 
Posiciones anatomicas basicas enfermeria
Posiciones anatomicas basicas enfermeriaPosiciones anatomicas basicas enfermeria
Posiciones anatomicas basicas enfermeriaKarymeScarlettAguila
 

Último (20)

EXPOSICION MENINGITIS BACTERIANA 2024.ppt
EXPOSICION MENINGITIS BACTERIANA 2024.pptEXPOSICION MENINGITIS BACTERIANA 2024.ppt
EXPOSICION MENINGITIS BACTERIANA 2024.ppt
 
SEMIOLOGIA CARDIOVASCULAR examen fisico y exploracion
SEMIOLOGIA CARDIOVASCULAR examen fisico y exploracionSEMIOLOGIA CARDIOVASCULAR examen fisico y exploracion
SEMIOLOGIA CARDIOVASCULAR examen fisico y exploracion
 
Clase 13 Artrologia Cintura Escapular 2024.pdf
Clase 13 Artrologia Cintura Escapular 2024.pdfClase 13 Artrologia Cintura Escapular 2024.pdf
Clase 13 Artrologia Cintura Escapular 2024.pdf
 
biomagnetismo.ppt para medicina complementaria
biomagnetismo.ppt para medicina complementariabiomagnetismo.ppt para medicina complementaria
biomagnetismo.ppt para medicina complementaria
 
(2024-04-17) TRASTORNODISFORICOPREMENSTRUAL (ppt).pdf
(2024-04-17) TRASTORNODISFORICOPREMENSTRUAL (ppt).pdf(2024-04-17) TRASTORNODISFORICOPREMENSTRUAL (ppt).pdf
(2024-04-17) TRASTORNODISFORICOPREMENSTRUAL (ppt).pdf
 
urgencia y emergencia. Diferencias y ejemplos
urgencia y emergencia. Diferencias y ejemplosurgencia y emergencia. Diferencias y ejemplos
urgencia y emergencia. Diferencias y ejemplos
 
docsity.vpdfs.com_urticaria-y-angioedema-en-pediatria-causas-mecanismos-y-dia...
docsity.vpdfs.com_urticaria-y-angioedema-en-pediatria-causas-mecanismos-y-dia...docsity.vpdfs.com_urticaria-y-angioedema-en-pediatria-causas-mecanismos-y-dia...
docsity.vpdfs.com_urticaria-y-angioedema-en-pediatria-causas-mecanismos-y-dia...
 
Lesiones en el pie--Traumatología...pptx
Lesiones en el pie--Traumatología...pptxLesiones en el pie--Traumatología...pptx
Lesiones en el pie--Traumatología...pptx
 
Situaciones difíciles. La familia reconstituida
Situaciones difíciles. La familia reconstituidaSituaciones difíciles. La familia reconstituida
Situaciones difíciles. La familia reconstituida
 
DOCUMENTOS MÉDICO LEGALES EN MEDICINA LEGAL Y FORENSE.pptx
DOCUMENTOS MÉDICO LEGALES EN MEDICINA LEGAL Y FORENSE.pptxDOCUMENTOS MÉDICO LEGALES EN MEDICINA LEGAL Y FORENSE.pptx
DOCUMENTOS MÉDICO LEGALES EN MEDICINA LEGAL Y FORENSE.pptx
 
musculos y partes del tronco clase de medicina.pdf
musculos y partes del tronco clase de medicina.pdfmusculos y partes del tronco clase de medicina.pdf
musculos y partes del tronco clase de medicina.pdf
 
EMBARAZO MULTIPLE, su definicioón y cuidados de enfermería
EMBARAZO MULTIPLE, su definicioón y cuidados de enfermeríaEMBARAZO MULTIPLE, su definicioón y cuidados de enfermería
EMBARAZO MULTIPLE, su definicioón y cuidados de enfermería
 
(2024-25-04) Epilepsia, manejo el urgencias (doc).docx
(2024-25-04) Epilepsia, manejo el urgencias (doc).docx(2024-25-04) Epilepsia, manejo el urgencias (doc).docx
(2024-25-04) Epilepsia, manejo el urgencias (doc).docx
 
21542401-Historia-Natural-Del-Infarto-Agudo-de-Miocardio.pdf
21542401-Historia-Natural-Del-Infarto-Agudo-de-Miocardio.pdf21542401-Historia-Natural-Del-Infarto-Agudo-de-Miocardio.pdf
21542401-Historia-Natural-Del-Infarto-Agudo-de-Miocardio.pdf
 
Revista de psicología sobre el sistema nervioso.pdf
Revista de psicología sobre el sistema nervioso.pdfRevista de psicología sobre el sistema nervioso.pdf
Revista de psicología sobre el sistema nervioso.pdf
 
Cartilla de Prestadores de Prevencion Salud
Cartilla de Prestadores de Prevencion SaludCartilla de Prestadores de Prevencion Salud
Cartilla de Prestadores de Prevencion Salud
 
CUADRO- COMPARATIVO DE SALUD COMUNITARIA
CUADRO- COMPARATIVO DE SALUD COMUNITARIACUADRO- COMPARATIVO DE SALUD COMUNITARIA
CUADRO- COMPARATIVO DE SALUD COMUNITARIA
 
Clase 12 Artrología de Columna y Torax 2024.pdf
Clase 12 Artrología de Columna y Torax 2024.pdfClase 12 Artrología de Columna y Torax 2024.pdf
Clase 12 Artrología de Columna y Torax 2024.pdf
 
Dia mundial de la seguridad y salud en el trabajo
Dia mundial de la seguridad y salud en el trabajoDia mundial de la seguridad y salud en el trabajo
Dia mundial de la seguridad y salud en el trabajo
 
Posiciones anatomicas basicas enfermeria
Posiciones anatomicas basicas enfermeriaPosiciones anatomicas basicas enfermeria
Posiciones anatomicas basicas enfermeria
 

Tarea 1, 2 y 3 metodos 2

  • 1. Aranda Martínez José Ricardo, 4cm9, metodología de la investigación y estadística 2. Tarea 1 ¿Para qué sirve la metodología de la investigación y su concepto? R= Metodología es un vocablo generado a partir de tres palabras de origen griego: metà (“más allá”), odòs (“camino”) y logos (“estudio”). El concepto hace referencia al plan de investigación que permite cumplir ciertos objetivos en el marco de una ciencia. Cabe resaltar que la metodología también puede ser aplicada en el ámbito artístico, cuando se lleva a cabo una observación rigurosa. Por lo tanto, puede entenderse a la metodología como el conjunto de procedimientos que determinan una investigación de tipo científico o marcan el rumbo de una exposición doctrinal. El valor de la metodología radica en su función como herramienta, con la cual podemos planificar, desarrollar y llevar acabo distintos procesos de una manera sistematizada y ordenada para lograr un conocimiento y/o corroborar conocimientos previos. Otra de las utilidades de esta ciencia es que nos ayuda a estandarizar las formas de obtener conocimiento (epistemología), ya que da los criterios o las bases de los procesos necesarios mínimos, para realizar conocimiento nuevo y/o corroboración de conocimiento previamente adquirido. ¿Qué es estadística y cuál es su aplicación a la medicina? R= El termino estadística proviene del latín statisticum collegium (“consejo de Estado”) y de su derivado italiano statista (“hombre de Estado o político”). En 1749, el alemán Gottfried Achenwall comenzó a utilizar la palabra alemana statistik para designar el análisis de datos estatales. Por lo tanto, los orígenes de la estadística están relacionados con el gobierno y sus cuerpos administrativos. La Estadística es la ciencia cuyo objetivo es reunir una información cuantitativa concerniente a individuos, grupos, series de hechos, etc. y deducir de ello gracias al análisis de estos datos unos significados precisos o unas previsiones para el futuro. La estadística, en general, es la ciencia que trata de la recopilación, organización presentación, análisis e interpretación de datos numéricos con e fin de realizar una toma de decisión más efectiva. Otros autores tienen definiciones de la Estadística semejantes a las anteriores, y algunos otros no tan semejantes. Para Chacón esta se define como "la ciencia que tiene por objeto el estudio cuantitativo de los colectivos"; otros la definen como la expresión cuantitativa del conocimiento dispuesta en forma adecuada para el escrutinio y análisis. La más aceptada, sin embargo, es la de Minguez, que define la Estadística como "La ciencia que tiene por objeto aplicar las leyes de la cantidad a los hechos sociales para medir su intensidad, deducir las leyes que los rigen y hacer su predicción próxima". Los estudiantes confunden comúnmente los demás términos asociados con las Estadísticas, una confusión que es conveniente aclarar debido a que esta palabra tiene tres significados: la palabra estadística, en primer término se usa para referirse a la información estadística; también se utiliza para referirse al conjunto de técnicas y métodos que se utilizan para analizar la información estadística; y el término estadístico, en singular y en masculino, se refiere a una medida derivada de una muestra. La estadística es la ciencia que estudia cómo debe emplearse la información y cómo dar una guía de acción en situaciones prácticas que entrañan incertidumbre. (Gutiérrez, p.23)
  • 2. La estadística es la ciencia de los datos, la cual implica su recolección, clasificación, síntesis, organización, análisis e interpretación, para la toma de decisiones frente a la incertidumbre (Ángel, p. 28) La estadística es la rama del conocimiento humano que tiene como objeto el estudio de ciertos métodos inductivos aplicables a fenómenos susceptibles de expresión cuantitativa. (López, p.1) La estadística es el arte de aprender a partir de los datos. Está relacionada con la recopilación de datos, su descripción subsiguiente y su análisis, lo que nos lleva a extraer conclusiones. (Ross, p.3) La importancia de los métodos estadísticos tradicionalmente se utiliza para propósitos descriptivos, para organizar y resumir datos numéricos. La estadística descriptiva, por ejemplo trata de la tabulación de datos, su presentación en forma gráfica o ilustrativa y el cálculo de medidas descriptivas. Ahora bien, las técnicas estadísticas se aplican de manera amplia en mercadotecnia, contabilidad, control de calidad y en otras actividades; estudios de consumidores; análisis de resultados en deportes; administradores de instituciones; en la educación; organismos políticos; médicos; y por otras personas que intervienen en la toma de decisiones. En la medicina, la estadística tiene una gran importancia ya que posee numerosas ventajas, por ejemplonos puede ayudar a conocer las problemáticas presentes en una comunidad, los factores de riesgo o predisposición a ciertas patologías y puede ser muy útil a la hora de buscaruna respuesta a esta, o al tratar de educar para evitarlas en futuras ocasiones. Todos estos aspectos positivos los cuales además le brindan credibilidad a este método es necesarioexaltar el auge que ha tenido dentro de la actividad médica particular y en la salud en general y por esto ciertos autores han expuesto sus puntos de vista sobre la estadísticaen la salud: Bancroft nos dice que el médico se basa muchas veces en la estadística para emitir un diagnóstico sobre su paciente, ya sea para ver como varía una enfermedad enel individuo o la eficacia de un tratamiento. Mainland por otro lado explica que la estadística es mayormente utilizada por aquellos profesionales que laboran más dentro delaboratorios o determinados sitios de investigación. Hill expone que sin la estadística no es posible conocer si un tratamiento muestra mejores resultados que otros.Morichau- Beau-Chant explica que sin una buena fuente de conocimientos sobre la situación a estudiar no se puede realizar una correcta planificación, aplicación y evaluación del proyecto. ¿Qué es probabilidad y cual su aplicación en la medicina? R= definición clásica: Sea un experimento aleatorio cuyo correspondiente espacio muestral E está formado por un número n finito de posibles resultados distintos y con la misma probabilidad de ocurrir {e1, e2, ... , en} Si n1 resultados constituyen el subconjunto o suceso A1, n2 resultados constituyen el subconjunto o suceso A2 y, en general, nk resultados constituyen el subconjunto o suceso Ak de tal forma que: es decir, que la probabilidad de cualquier suceso A es igual al cociente entre el número de casos favorables que integran el suceso A Regla de Laplace para E finitos y el número de casos posibles del espacio muestral E. Para que se pueda aplicar la regla de Laplace es necesario que todos los sucesos elementales sean equiprobables
  • 3. La probabilidad verifica las siguientes condiciones: La probabilidad de cualquier suceso es siempre un número no negativo entre 0 y 1 La probabilidad del suceso seguro E vale 1 La probabilidad del suceso imposible es 0 La probabilidad de la unión de varios sucesos incompatibles o excluyentes A1, A1,..., Ar es igual a la suma de probabilidades de cada uno de ellos Esta definición clásica de probabilidad fue una de las primeras que se dieron (1900) y se atribuye a Laplace; también se conoce con el nombre de probabilidad a priori pues, para calcularla, es necesario conocer, antes de realizar el experimento aleatorio, el espacio muestral y el número de resultados o sucesos elementales que entran a formar parte del suceso Definición frecuentista: consiste en definir la probabilidad como el límite cuando n tiende a infinito de la proporción o frecuencia relativa del suceso. Sea un experimento aleatorio cuyo espacio muestral es E Sea A cualquier suceso perteneciente a E Si repetimos n veces el experimento en las mismas Condiciones, la frecuencia relativa del suceso A será: Cuando el número n de repeticiones se hace muy grande la frecuencia relativa converge hacia un valor que llamaremos probabilidad del suceso A. Es imposible llegar a este límite, ya que no podemos repetir el experimento un número infinito de veces, pero si podemos repetirlo muchas veces y observar como las frecuencias relativas tienden a estabilizarse Esta definición frecuentista de la probabilidad se llama también probabilidad a posteriori ya que sólo podemos dar la probabilidad de un suceso después de repetir y observar un gran número de veces el experimento aleatorio correspondiente. Algunos autores las llaman probabilidades teóricas Definición subjetiva: Tanto la definición clásica como la frecuentista se basan en las repeticiones del experimento aleatorio; pero existen muchos experimentos que no se pueden repetir bajo las mismas condiciones y por tanto no puede aplicarse la interpretación objetiva de la probabilidad En esos casos es necesario acudir a un punto de vista alternativo, que no dependa de las repeticiones, sino que considere la probabilidad como un concepto subjetivo que exprese el grado de creencia o confianza individual sobre la posibilidad de que el suceso ocurra Se trata por tanto de un juicio personal o individual y es posible por tanto que, diferentes observadores tengan distintos grados de creencia sobre los posibles resultados, igualmente válidos Definición axiomática: La definición axiomática de la probabilidad es quizás la más simple de todas las definiciones y la menos controvertida ya que está basada en un conjunto de axiomas que establecen los requisitos mínimos para dar una definición de probabilidad. La ventaja de esta definición es que permite un desarrollo riguroso y matemático de la probabilidad. Fue introducida por A. N. Kolmogorov y aceptada por estadísticos y matemáticos en general.
  • 4. Su utilidad en la medicina, se basa en la cuestión de que en esta ciencia no se manejan datos y variable constantes, lo que genera cambios probabilísticos en cada paciente, y en las tasa de mortalidad y morbilidad de una enfermedad en especial. Tarea 2 ¿Cuáles son las propiedades de la probabilidad? R= -Axiomas de la probabilidad 1. La probabilidad es positiva y menor o igual que 1. 0 ≤ p(A) ≤ 1 2. La probabilidad del suceso seguro es 1. p(E) = 1 3. Si A y B son incompatibles, es decir A B = entonces: p(A B) = p(A) + p(B) Propiedades de la probabilidad 1. La suma de las probabilidades de un suceso y su contrario vale 1, por tanto la probabilidad del suceso contrario es: 2. Probabilidad del suceso imposible es cero. 3. La probabilidad de la unión de dos sucesos es la suma de sus probabilidades restándole la probabilidad de su intersección. 4. Si un suceso está incluido en otro, su probabilidad es menor o igual a la de éste. 5. Si A1, A2, ..., Ak son incompatibles dos a dos entonces: 6 Si el espacio muestral E es finito y un suceso es S = {x1, x2, ..., xn} entonces:
  • 5. Fenómeno aleatorio: Un experimento es cualquier situación u operación en la cual se pueden presentar uno o varios resultados de un conjunto bien definido de posibles resultados Los experimentos pueden ser de dos tipos según si, al repetirlo bajo idénticas condiciones: Determinístico Se obtienen siempre los mismos resultados Ej: medir con la misma regla e identicas condiciones la longitud de una barra Aleatorio No se obtienen siempre los mismos resultados Ej: el lanzamiento de una moneda observando la sucesión de caras y cruces que se presentan Las siguientes son características de un experimento aleatorio: El experimento se puede repetir indefinidamente bajo idénticas condiciones Cualquier modificación a las condiciones iniciales de la repetición puede modificar el resultado Se puede determinar el conjunto de posibles resultados pero no predecir un resultado particular Si el experimento se repite gran número de veces entonces aparece algún modelo de regularidad estadística en los resultados obtenidos Experimento aleatorio: Un experimento es cualquier situación u operación en la cual se pueden presentar uno o varios resultados de un conjunto bien definido de posibles resultados Los experimentos pueden ser de dos tipos según si, al repetirlo bajo idénticas condiciones: Determinístico Se obtienen siempre los mismos resultados Ej: medir conla misma regla e idénticas condiciones la longitud de una barra Aleatorio No se obtienen siempre los mismos resultados Ej: el lanzamiento de una moneda observando la sucesión de caras y cruces que se presentan Las siguientes son características de un experimento aleatorio: El experimento se puede repetir indefinidamente bajo idénticas condiciones Cualquier modificación a las condiciones iniciales de la repetición puede modificar el resultado Se puede determinar el conjunto de posibles resultados pero no predecir un resultado particular Si el experimento se repite gran número de veces entonces aparece algún modelo de regularidad estadística en los resultados obtenidos Espacio muestra:
  • 6. Se denomina resultado básico o elemental, comportamiento individual o punto muestra a cada uno de los posibles resultados de un experimento aleatorio. Los resultados básicos elementales serán definidos de forma que no puedan ocurrir dos simultáneamente pero si uno necesariamente Se denomina conjunto universal, espacio muestral o espacio de comportamiento E al conjunto de todos los resultados elementales del experimento aleatorio. Pueden ser de varios tipos: Espacio Muestral Discreto Espacio muestral finito Espacio muestral infinito numerable Tiene un número finito de elementos. Tiene un número infinito numerable de elementos es decir, se puede establecer una aplicación biyectiva entre E y N Ejemplo: Experimento aleatorio consistente en lanzar un dado. El espacio muestral es Experimento aleatorio consistente en lanzar un dado hasta que sea obtenido el número 1 Espacio Muestral Continuo Si el espacio muestral contiene un número infinito de elementos, es decir, no se puede establecer una correspondencia biunívoca entre E y N Ejemplo: Experimento aleatorio consistente en tirar una bola perfecta sobre un suelo perfecto y observar la posición que ocupará esa bola sobre la superficie. E={Toda la superficie del suelo} Suceso aleatorio: Unsucesoesunsubconjunto del espaciomuestral, es decir, un subconjunto de resultados elementales del experimento aleatorio Diremosque ocurre ose presenta el suceso cuando al realizarse el experimento aleatorio, da lugar a uno de los resultados elementales pertenecientesal subconjuntoS que define el sucesoSe puedenconsiderarcuatrotiposde sucesossegúnel nºde elementosque entren a formar parte: Suceso elemental, suceso simple o punto muestral es cada uno de los resultados posibles del experimento aleatorio luego los sucesos elementales son subconjuntos de E con sólo un elemento Suceso compuesto es aquel que consta de dos o más sucesos elementales Sucesoseguro, ciertoouniversal esaquel que consta de todos lossucesoselementalesdel espacio muestral E, es decir, coincide con E. Se le denomina seguro o cierto porque ocurre siempre Suceso imposible es aquel que no tiene ningún elemento del espacio muestral E y por tanto no ocurrirá nunca. Se denota por Ø Tipos de suceso aleatorio: -La unión de sucesos, A B, es el suceso formado por todos los elementos de A y de B. Es decir, el suceso A B se verifica cuando ocurre uno de los dos, A o B, o ambos. A B se lee como "A o B". Ejemplo
  • 7. Consideramos el experimento que consiste en lanzar un dado, si A = "sacar par" y B = "sacar múltiplo de 3". Calcular A B. A = {2, 4, 6} B = {3, 6} A B = {2, 3, 4, 6} -La intersección de sucesos, A B, es el suceso formado por todos los elementos que son, a la vez, de A y B. Es decir, el suceso A B se verifica cuando ocurren simultáneamente A y B. A B se lee como "A y B". Ejemplo Consideramos el experimento que consiste en lanzar un dado, si A = "sacar par" y B = "sacar múltiplo de 3". Calcular A B. A = {2, 4, 6} B = {3, 6} A B = {3}
  • 8. Tarea 3 Tipos de variables aleatorias: -Variables aleatorias discretas: Diremos que una variable aleatoria es discreta si su recorrido es finito o infinito numerable. Generalmente, este tipo de variables van asociadas a experimentos en los cuales se cuenta el número de veces que se ha presentado un suceso o donde el resultado es una puntuación concreta. Los puntos del recorrido se corresponden con saltos en la gráfica de la función de distribución, que correspondería al segundo tipo de gráfica visto anteriormente. -Variables aleatorias continúas: Son aquellas en las que la función de distribución es una función continua. Se corresponde con el primer tipo de gráfica visto. Generalmente, se corresponden con variables asociadas a experimentos en los cuales la variable medida puede tomar cualquier valor en un intervalo; mediciones biométricas, por ejemplo. Un caso particular dentro de las variables aleatorias continúas y al cual pertenecen todos los ejemplos usualmente utilizados, son las denominadas variables aleatorias absolutamente continuas. -Variables aleatorias absolutamente continuas: Diremos que una variable aleatoria X continua tiene una distribución absolutamente continua si existe una función real f, positiva e integrable en el conjunto de números reales, tal que la función de distribución F de X se puede expresar como Una variable aleatoria con distribución absolutamente continua, por extensión, se la clasifica como variable aleatoria absolutamente continua. A la función f se la denomina función de densidad de probabilidad de la variable X. Hay que hacer notar que no toda variable continua es absolutamente continua, pero los ejemplos son complicados, algunos utilizan para su construcción el conjunto de Cantor, y quedan fuera del nivel y del objetivo de este curso.
  • 9. Igualmente indicaremos que los tipos de variables comentados anteriormente forman únicamente una parte de todos los posibles tipos de variables, sin embargo contienen prácticamente todas las variables aleatorias que encontramos usualmente. Tal como se estudiará más adelante, existen algunas familias de funciones de distribución, tanto dentro del grupo de las discretas como de las continuas, que por su importancia reciben un nombre propio y se estudiarán en los capítulos siguientes. Tipos de probabilidad (distribución Bernoulli, binomial, poisson, uniforme, normal, T-student, F-Fisher, chi cuadrada, exponencial). Distribución Bernoulli: La distribución de Bernoulli (o distribución dicotómica), nombrada así por el matemático y científico suizo Jakob Bernoulli, es una distribución de probabilidad discreta, que toma valor 1 para la probabilidad de éxito ( ) y valor 0 para la probabilidad de fracaso ( ). Si X es una variable aleatoria que mide "número de éxitos", y se realiza un único experimento con dos posibles resultados (éxito o fracaso), se dice que la variable aleatoria X se distribuye como una Bernoulli de parámetro P. Su fórmula es: Distribución Binomial: La distribución Binomial es un caso particular de probabilidad de variable aleatoria discreta, y por sus aplicaciones, es posiblemente la más importante. Esta distribución corresponde a la realización de un experimento aleatorio que cumple con las siguientes condiciones: * Al realizar el experimento sólo son posible dos resultados: el suceso A, llamado éxito, y el suceso B, llamado fracaso. * Al repetir el experimento, el resultado obtenido es independiente de los resultados obtenidos anteriormente. * La probabilidad del suceso A es constante, es decir, no varía de una prueba del experimento a otra. * En cada experimento se realizan n pruebas idénticas. Todo experimento que tenga estas características se dice que sigue el modelo de la distribución Binomial o distribución de Bernoulli.
  • 10. En general, si se tienen n ensayos Bernoulli con probabilidad de éxito p y de fracaso q, entonces la distribución de probabilidad que la modela es la distribución de probabilidad binomial y su regla de correspondencia es: Dónde: P(X)= es la probabilidad de ocurrencia del evento p = es la probabilidad de éxito del evento (en un intento) q = es la probabilidad de fracaso del evento (en un intento) (se define como q = 1 – p ) X = ocurrencia del evento o éxitos deseados n = número de intentos EJEMPLO ¿Cuál es la probabilidad de obtener exactamente 2 caras al lanzar una misma moneda 6 veces ? Dónde: P(X)= Probabilidad de que ocurra el evento p = (0.5) q = (se define como q = 1 – p ) (0.5) X = 2 n = 6 Al sustituir los valores en la fórmula obtenemos: La posibilidad de obtener dos caras al lanzar una moneda 6 veces es de 0.234375
  • 11. Como el cálculo de estas probabilidades puede resultar algo tedioso se han construido tablas para algunos valores de n y p que nos facilitan el trabajo (Ver las tablas de la función de probabilidad Binomial). Para una combinación de n y p, la entrada indica una probabilidad de obtener un valor específico de r. Para localizar la entrada, cuando p8804;0.50, localice p a lo largo del encabezado de la tabla, y en la columna correspondiente localice n y r en el margen izquierdo; cuando p8805;0.50, localice el valor de p en la parte inferior de la tabla, y n y r arriba, en el margen derecho. Tenemos p = 0.50, n = 6 y r = 2 obteniendo resultado directo de tablas P(2 caras) = 0.2344
  • 12. Distribución Poisson: La distribución de POISSON es también un caso particular de probabilidad de variable aleatoria discreta, el cual debe su nombre a Siméon Denis Poisson (1781-1840), un francés que la desarrolló a partir de los estudios que realizó durante la última etapa de su vida. Es útil cuando tratamos con cantidades de ocurrencia de un evento a lo largo de un intervalo de tiempo o espacio especificado.
  • 13. Esta distribución se utiliza para describir ciertos procesos. Características: En este tipo de experimentos los éxitos buscados son expresados por unidad de área, tiempo, pieza, etc: - # de defectos de una tela por m2 - # de aviones que aterrizan en un aeropuerto por día, hora, minuto, etc. - # de bacterias por cm2 de cultivo - # de llamadas telefónicas a un conmutador por hora, minuto, etc, etc. - # de llegadas de embarcaciones a un puerto por día, mes, etc, etc. Para determinar la probabilidad de que ocurran x éxitos por unidad de tiempo, área, o producto, la fórmula a utilizar sería: dónde: p(X) = probabilidad de que ocurran x éxitos, cuando el número promedio de ocurrencia de ellos es / /= media o promedio de éxitos por unidad de tiempo, área o producto e = 2.718 (base de logaritmo neperiano o natural) X = variable que nos denota el número de éxitos que se desea que ocurra Hay que hacer notar que en esta distribución el número de éxitos que ocurren por unidad de tiempo, área o producto es totalmente al azar y que cada intervalo de tiempo es independiente de otro intervalo dado, así como cada área es independiente de otra área dada y cada producto es independiente de otro producto dado. EJEMPLO Si un banco recibe en promedio 6 cheques sin fondo por día, ¿cuáles son las probabilidades de que reciba, a) cuatro cheques sin fondo en un día dado, b) 10 cheques sin fondos en cualquiera de dos días consecutivos? (e= 2.718281828) Resolviendo para : a) x = 4; / = 6 cheques sin fondo por día Comprobando (sustituyendo en la fórmula): Por lo tanto la probabilidad de que el banco reciba cuatro cheques sin fondo en un día dado es de 0.133853 (13.39%)
  • 14. Valores directos para determinar probabilidades de Poisson. Para un valor dado de /, la entrada indica la probabilidad de obtener un valor específico de X Para el ejemplo, inciso a) que estamos viendo: ¿Cuál es la probabilidad de que el banco reciba cuatro cheques sin fondo en un día dado? Tenemos x = 4; / = 6 cheques sin fondo por día; obteniendo resultado directo de tablas : Distribución Uniforme: La distribución Uniforme es el modelo (absolutamente) continuo más simple. Corresponde al caso de una variable aleatoria que sólo puede tomar valores comprendidos entre dos extremos a y b, de manera que todos los intervalos de una misma longitud (dentro de (a, b)) tienen la misma probabilidad. También puede expresarse como el modelo probabilístico correspondiente a tomar un número al azar dentro de un intervalo (a, b). De la anterior definición se desprende que la función de densidad debe tomar el mismo valor para todos los puntos dentro del intervalo (a, b) (y cero fuera del intervalo). Es decir, . Gráficamente:
  • 15. La función de distribución se obtiene integrando la función de densidad y viene dada por: Gráficamente: Propiedades del modelo Uniforme 1. Su esperanza vale (b + a)/2 2. Su varianza es (b − a)2/12 Distribución Normal: La distribución normal es también un caso particular de probabilidad de variable aleatoria contínua, fue reconocida por primera vez por el francés Abraham de Moivre (1667-1754). Posteriormente, Carl Friedrich Gauss (1777-1855) elaboró desarrollos más profundos y
  • 16. formuló la ecuación de la curva; de ahí que también se le conozca, más comúnmente, como la "campana de Gauss". La distribución de una variable normal está completamente determinada por dos parámetros, su media (µ) y su desviación estándar (σ). Con esta notación, la densidad de la normal viene dada por la ecuación: que determina la curva en forma de campana que tan bien conocemos. Existen dos razones básicas por las cuales la distribución normal ocupa un lugar tan prominente en la estadística: Tiene algunas propiedades que la hacen aplicable a un gran número de situaciones en la que es necesario hacer inferencias mediante la toma de muestras. La distribución normal casi se ajusta a las distribuciones de frecuencias reales observadas en muchos fenómenos, incluyendo características humanas, resultados de procesos físicos y muchas otras medidas de interés para los administradores, tanto en el sector público como en el privado. Propiedad: No importa cuáles sean los valores de µ y σ para un distribución de probabilidad normal, el área total bajo la curva siempre es 1, de manera que podemos pensar en áreas bajo la curva como si fueran probabilidades. Matemáticamente es verdad que: Aproximadamente el 68% de todos los valores de una población normalmente distribuida se encuentra dentro de ± 1 desviación estándar de la media. Aproximadamente el 95.5% de todos los valores de una población normalmente distribuida se encuentra dentro de ± 2 desviaciones estándar de la media. Aproximadamente el 99.7% de todos los valores de una población normalmente distribuida se encuentra dentro de ± 3 desviaciones estándar de la media.
  • 17. Relación entre el área bajo la curva de distribución normal de probabilidad y la distancia a la media medida en desviaciones estándar. Estas gráficas muestran tres formas diferentes de medir el área bajo la curva normal. Sin embargo, muy pocas de las aplicaciones que haremos de la distribución normal de probabilidad implican intervalos de exactamente (más o menos) 1, 2 ó 3 desviaciones estándar a partir de la media. Para estos casos existen tablas estadísticas que indican porciones del área bajo la curva normal que están contenidas dentro de cualquier número de desviaciones estándar (más o menos) a partir de la media. Afortunadamente también podemos utilizar una distribución de probabilidad normal estándar para encontrar áreas bajo cualquier curva normal. Con esta tabla podemos determinar el área o la probabilidad de que la variable aleatoria distribuida normalmente esté dentro de ciertas distancias a partir de la media. Estas distancias están definidas en términos de desviaciones estándar. USO DE LA TABLA DE DISTRIBUCIÓN NORLAM DE PROBABILIDAD NORMAL STANDAR Para cualquier distribución normal de probabilidad, todos los intervalos que contienen el mismo número de desviaciones estándar a partir de la media contendrán la misma fracción del área total bajo la curva para cualquier distribución de probabilidad normal. Esto hace que sea posible usar solamente una tabla (Apéndice Tabla 1) de la distribución de probabilidad normal estándar.
  • 18. El valor de z está derivado de la fórmula:
  • 19. En la que: x = valor de la variable aleatoria que nos preocupa. µ = media de la distribución de la variable aleatoria. σ = desviación estándar de la distribución. z = número de desviaciones estándar que hay desde x a la media de la distribución. (el uso de z es solamente un cambio de escala de medición del eje horizontal) Distribución normal que ilustra la comparación de los valores de z y las desviaciones estándar EJEMPLO. Partiendo de la misma premisa, µ = 500 y σ = 100. ¿Cuál es la probabilidad de que un candidato elegido al azar se tome entre 500 y 650 horas en completar el programa de entrenamiento? Si buscamos Z=1.5 (refiérase a la tabla), encontramos una probabilidad de 0.4332.
  • 20. Por lo tanto, la probabilidad de que un candidato escogido al azar requiera entre 500 y 650 horas para terminar el programa de entrenamiento es de 0.4332 Distribución T-Student: Las distribuciones t de Student fueron descubiertas por William S. Gosset (1876-1937) en 1908 cuando trabajaba para la compañía de cervezas Guinness en Dublín (Irlanda). No pudo publicar sus descubrimientos usando su propio nombre porque Guinness había prohibido a sus empleados que publicaran información confidencial. Gosset firmó sus publicaciones usando el nombre de "Student". Gosset tenía buena relación con Karl Pearson que había sido su maestro. Necesitaba una distribución que pudiera usar cuando el tamaño de la muestra fuera pequeño y la varianza desconocida y tenía que ser estimada a partir de los datos. Las distribuciones t se usan para tener en cuenta la incertidumbre añadida que resulta por esta estimación. Fisher comprendió la importancia de los trabajos de Gosset para muestras pequeñas. Si el tamaño de la muestra es n entonces decimos que la distribución t tiene n-1 grados de libertad. Hay una distribución t diferente para cada tamaño de la muestra. Estas distribuciones son una familia de distribuciones de probabilidad continuas. Las curvas de densidad son simétricas y con forma de campana como la distribución normal estándar. Sus medias son 0 y sus varianzas son mayores que 1 (tienen colas más pesadas). Las colas de las distribuciones t disminuyen más lentamente que las colas de la distribución normal. Si los grados de libertad son mayores más próxima a 1 es la varianza y la función de densidad es más parecida a la densidad normal. Cuando n es mayor que 30, la diferencia entre la normal y la distribución t de Student no suele ser muy importante. En la imagen podemos ver varios ejemplos de funciones de distribución acumulada. En Probabilidades en Distribuciones t-Student puedes ver una comparación más precisa entre las distribuciones t-Student y la normal estándar.
  • 21. En el applet podemos ver varios ejemplos de distribución t de Student junto con la normal estándar. Se aprecia cómo cuando el parámetro es 25 la distribución es muy parecida a la normal estándar. Los puntos grises controlan la escala vertical y horizontal de la gráfica y pulsando el boton derecho y arrastrando podemos moverla a derecha e izquierda. Distribución F-Fisher: La necesidad de disponer de métodos estadísticos para comparar las varianzas de dos poblaciones es evidente a partir del análisis de una sola población. Frecuentemente se desea comparar la precisión de un instrumento de medición con la de otro, la estabilidad de un proceso de manufactura con la de otro o hasta la forma en que varía el procedimiento para calificar de un profesor universitario con la de otro. Intuitivamente, podríamos comparar las varianzas de dos poblaciones, y , utilizando la razón de las varianzas muestrales s2 1/s2 2. Si s2 1/s2 2 es casi igual a 1, se tendrá poca evidencia para indicar que y no son iguales. Por otra parte, un valor muy grande o muy pequeño para s2 1/s2 2, proporcionará evidencia de una diferencia en las varianzas de las poblaciones. La variable aleatoria F se define como el cociente de dos variables aleatorias ji-cuadrada independiente, cada una dividida entre sus respectivos grados de libertad. Esto es, Donde U y V son variables aleatorias ji-cuadrada independientes con grados de libertad 1 y 2 respectivamente. Sean U y V dos variables aleatorias independientes que tienen distribución ji cuadradas con grados de libertad, respectivamente. Entonces la distribución de la variable aleatoria está dada por:
  • 22. y se dice que sigue la distribución F con grados de libertad en el numerador y grados de libertad en el denominador. La media y la varianza de la distribución F son: para para La variable aleatoria F es no negativa, y la distribución tiene un sesgo hacia la derecha. La distribución F tiene una apariencia muy similar a la distribución ji-cuadrada; sin embargo, se encuentra centrada respecto a 1, y los dos parámetros proporcionan una flexibilidad adicional con respecto a la forma de la distribución. Si s1 2 y s2 2 son las varianzas muestrales independientes de tamaño n1 y n2 tomadas de poblaciones normales con varianzas 1 2 y 2 2, respectivamente, entonces: Para manejar las tablas de Fisher del libro de Introducción a la Inferencia Estadística del autor Güenther, se tendrá que buscar primero los grados de libertad dos para luego localizar el área correspondiente, relacionándola con los grados de libertad uno, para calcular el valor de F. Las tablas tienen la siguiente estructura: P 1 2 3 ……. ….. 500 … 6 0.0005
  • 23. 0.001 0.005 . . 0.9995 30.4 El valor de 30.4 es el correspondiente a una Fisher que tiene 3 grados de libertad uno y 6 grados de libertad dos con un área de cero a Fisher de 0.995. Si lo vemos gráficamente: Como nos podemos imaginar existen varias curvas Fisher, ya que ahora su forma depende de dos variables que son los grados de libertad. Ejemplos : 1. Encontrar el valor de F, en cada uno de los siguientes casos: a. El área a la derecha de F, es de 0.25 con =4 y =9. b. El área a la izquierda de F, es de 0.95 con =15 y =10. c. El área a la derecha de F es de 0.95 con con =6 y =8. d. El área a la izquierda de F, es de 0.10 con con =24 y
  • 24. =24 Solución: a. Como el área que da la tabla es de cero a Fisher, se tiene que localizar primero los grados de libertad dos que son 9, luego un área de 0.75 con 4 grados de libertad uno. b. En este caso se puede buscar el área de 0.95 directamente en la tabla con sus respectivos grados de libertad. c. Se tiene que buscar en la tabla un área de 0.05, puesto que nos piden un área a la derecha de F de 0.95. d. Se busca directamente el área de 0.10, con sus respectivos grados de libertad.
  • 25. 1. Si s1 2 y s2 2 son las varianzas muestrales de muestras aleatorias independientes de tamaños n1=10y n2 =20, tomadas de poblaciones normales que tienen las mismas varianzas, encuentre P(s1 2/s2 2 2.42). Solución: Primero se establecen los grados de libertad. Como en el numerador está la población uno y en el denominador la población dos, entonces los grados de libertad uno equivalen a 10-1=9 y los grados de libertad dos a 20-1=19. Se procede a ir a la tabla a buscar los grados de libertad dos que son 19 y se observa que no están, por lo tanto se tiene que interpolar entre 15 y 20 grados de libertad, buscando el valor de fisher que quedaría: Este valor de 2.42 se busca en la columna de 9 grados de libertad uno, con 15 grados de libertad dos, y se encuentra los siguiente: Área 0.90 2.09 0.95 2.59 Al interpolar entre estos dos valores nos queda un área de 0.933. Se procede a hacer lo mismo pero con 20 grados de libertad dos: Área 0.95 2.39
  • 26. 0.975 2.84 Al interpolar entre estos dos valores nos queda un área de 0.9516. Ahora ya se tienen las dos áreas referentes a los grados de libertad dos, por lo que se interpolará para ver cuánto le corresponde a los grados libertad dos con un valor de 19. Área 15 0.933 20 0.9516 Al interpolar nos queda que para 9 grados de libertad uno y 19 grados de libertad dos con un valor de Fisher de 2.42 el área a la izquierda es de 0.9478. 2. Si s1 2 y s2 2 representan las varianzas de las muestras aleatorias independientes de tamaño n1= 25 y n2 = 31, tomadas de poblaciones normales con varianzas 1 2 =10 y 2 2 = 15, respectivamente, encuentre P(s1 2/s2 2 > 1.26). Solución: Calcular el valor de Fisher: Luego se va a la tabla de Fisher a buscar 30 grados de libertad 2 con 24 grados de libertad uno. Cuando se esté en esta posición se busca adentro de la tabla el valor de Fisher de 1.89. Al localizarlo y ver a la izquierda de este valor se obtiene un área de 0.95, pero esta área correspondería a la probabilidad de que las relaciones de varianzas muestrales fueran menor a 1.26, por lo que se calcula su complemento que sería 0.05, siendo esta la probabilidad de que s1 2/s2 2 > 1.26.
  • 27. Intervalo de Confianza para el Cociente de Varianzas de Dos Distribuciones Normales Supóngase que se tienen dos poblaciones normales e independientes con varianzas desconocidas 1 2 y 2 2, respectivamente. De este par de poblaciones, se tienen disponibles dos muestras aleatorias de tamaños n1 y n2, respectivamente, sean s1 2 y s2 2 las dos varianzas muestrales. Se desea conocer un intervalo de confianza del 100( ) por ciento para el cociente de las dos varianzas, 1 2/ 2 2. Para construir el intervalo de confianza para el cociente de dos varianzas poblacionales, se coloca la varianza muestral mayor en el numerador del estadístico F. Ejemplos: 1. Un fabricante de automóviles pone a prueba dos nuevos métodos de ensamblaje de motores respecto al tiempo en minutos. Los resultados se muestran en la tabla: Método 1 Método 2 n1 = 31 n2 = 25 s1 2 = 50 s2 2 = 24 Construya un intervalo de confianza del 90% para 1 2/ 2 2. Solución: Por la recomendación de que la varianza muestral mayor va en el numerador se tiene la siguiente fórmula: al despejar: .
  • 28. F toma dos valores dependiendo del nivel de confianza y de los grados de libertad. En este caso los grados de libertad uno valen 30 y los grados de libertad dos 24. y Estos resultados los podemos interpretar de la siguiente manera: Con un nivel de confianza del 90% se sabe que la relación de varianzas 1 2/ 2 2 esta entre 1.07 y 3.93. Esto supondría que la varianza de la población 1 es mayor a la varianza de la población 2 entre 1.07 y 3.93. 2. Una compañía fabrica propulsores para uso en motores de turbina. Al ingeniero de manufactura le gustaría seleccionar el proceso que tenga la menor variabilidad en la rugosidad de la superficie. Para ello toma una muestra de n1=16 partes del primer proceso, la cual tiene una desviación estándar s1 = 4.7 micropulgadas, y una muestra aleatoria de n2=12 partes del segundo proceso, la cual tiene una desviación estándar s2 = 5.1 micropulgadas. Se desea encontrar un intervalo de confianza del 90% para el cociente de las dos varianzas 1 2/ 2 2. Suponga que los dos procesos son independientes y que la rugosidad de la superficie está distribuida de manera normal. Solución: Por la recomendación de que la varianza muestral mayor va en el numerador se tiene la siguiente fórmula: al despejar: . En este caso los grados de libertad uno valen 11 y los grados de libertad dos 15.
  • 29. y Estos resultados los podemos interpretar de la siguiente manera: Puesto que este intervalo de confianza incluye a la unidad, no es posible afirmar que las desviaciones estándar de la rugosidad de la superficie de los dos procesos sean diferentes con un nivel de confianza del 90%. Distribución chií cuadrada: En realidad la distribución ji-cuadrada es la distribución muestral de s2. O sea que si se extraen todas las muestras posibles de una población normal y a cada muestra se le calcula su varianza, se obtendrá la distribución muestral de varianzas. Para estimar la varianza poblacional o la desviación estándar, se necesita conocer el estadístico X2. Si se elige una muestra de tamaño n de una población normal con varianza , el estadístico: tiene una distribución muestral que es una distribución ji-cuadrada con gl=n-1 grados de libertad y se denota X2 (X es la minúscula de la letra griega ji). El estadístico ji-cuadrada esta dado por: donde n es el tamaño de la muestra, s2 la varianza muestral y la varianza de la población de donde se extrajo la muestra. El estadístico ji-cuadrada también se puede dar con la siguiente expresión:
  • 30. Propiedades de las distribuciones ji-cuadrada 1. Los valores de X2 son mayores o iguales que 0. 2. La forma de una distribución X2 depende del gl=n-1. En consecuencia, hay un número infinito de distribuciones X2. 3. El área bajo una curva ji-cuadrada y sobre el eje horizontal es 1. 4. Las distribuciones X2 no son simétricas. Tienen colas estrechas que se extienden a la derecha; esto es, están sesgadas a la derecha. 5. Cuando n>2, la media de una distribución X2 es n-1 y la varianza es 2(n-1). 6. El valor modal de una distribución X2 se da en el valor (n-3). La siguiente figura ilustra tres distribuciones X2. Note que el valor modal aparece en el valor (n-3) = (gl-2). La función de densidad de la distribución X2 esta dada por: para x>0 La tabla que se utilizará para estos apuntes es la del libro de probabilidad y estadística de Walpole, la cual da valores críticos (gl) para veinte valores especiales de . Para denotar el valor crítico de una distribución X2 con gl grados de libertad se usa el símbolo (gl); este valor crítico determina a su derecha un área de bajo la curva X2 y sobre el eje horizontal. Por ejemplo para encontrar X2 0.05(6) en la tabla se localiza 6 gl en el lado izquierdo y a o largo del lado superior de la misma tabla.
  • 31. Cálculo de Probabilidad El cálculo de probabilidad en una distribución muestral de varianzas nos sirve para saber cómo se va a comportar la varianza o desviación estándar en una muestra que proviene de una distribución normal. Ejemplos: 1. Suponga que los tiempos requeridos por un cierto autobús para alcanzar un de sus destinos en una ciudad grande forman una distribución normal con una desviación estándar =1 minuto. Si se elige al azar una muestra de 17 tiempos, encuentre la probabilidad de que la varianza muestral sea mayor que 2. Solución: Primero se encontrará el valor de ji-cuadrada correspondiente a s2=2 como sigue: El valor de 32 se busca adentro de la tabla en el renglón de 16 grados de libertad y se encuentra que a este valor le corresponde un área a la derecha de 0.01. En consecuencia, el valor de la probabilidad es P(s2>2) 2. Encuentre la probabilidad de que una muestra aleatoria de 25 observaciones, de una población normal con varianza , tenga una varianza muestral:
  • 32. a. Mayor que 9.1 b. Entre 3.462 y 10.745 Solución. a. Primero se procederá a calcular el valor de la ji-cuadrada: Al buscar este número en el renglón de 24 grados de libertad nos da un área a la derecha de 0.05. Por lo que la P(s2 >9.1) = 0.05 1. Se calcularán dos valores de ji-cuadrada: y Aquí se tienen que buscar los dos valores en el renglón de 24 grados de libertad. Al buscar el valor de 13.846 se encuentra un área a la derecha de 0.95. El valor de 42.98 da un área a la derecha de 0.01. Como se está pidiendo la probabilidad entre dos valores se resta el área de 0.95 menos 0.01 quedando 0.94. Por lo tanto la P(3.462 s2 10.745) = 0.94 Estimación de la Varianza Para poder estimar la varianza de una población normal se utilizará la distribución ji-cuadrada.
  • 33. Al despejar esta fórmula la varianza poblacional nos queda: Los valores de X2 dependerán de nivel de confianza que se quiera al cual le llamamos . Si nos ubicamos en la gráfica se tiene: Ejemplos: 1. Los siguientes son los pesos, en decagramos, de 10 paquetes de semillas de pasto distribuidas por cierta compañía: 46.4, 46.1, 45.8, 47.0, 46.1, 45.9, 45.8, 46.9, 45.2 y 46. Encuentre un intervalo de confianza de 95% para la varianza de todos los paquetes de semillas de pasto que distribuye esta compañía, suponga una población normal. Solución: Primero se calcula la desviación estándar de la muestra: al elevar este resultado al cuadrado se obtiene la varianza de la muestra s2= 0.286. Para obtener un intervalo de confianza de 95% se elige un = 0.05. Después con el uso de la tabla con 9 grados de libertad se obtienen los valores de X2.
  • 34. Se puede observar en la gráfica anterior que el valor de X2 corre en forma normal, esto es de izquierda a derecha. Por lo tanto, el intervalo de confianza de 95% para la varianza es: Graficamente: Se observa que la varianza corre en sentido contrario, pero esto es sólo en la gráfica. La interpretación quedaría similar a nuestros temas anteriores referentes a estimación. Con un nivel de confianza del 95% se sabe que la varianza de la población de los pesos de los paquetes de semillas de pasto esta entre 0.135 y 0.935 decagramos al cuadrado. 2. En trabajo de laboratorio se desea llevar a cabo comprobaciones cuidadosas de la variabilidad de los resultados que producen muestras estándar. En un estudio de la cantidad de calcio en el agua potable, el cual se efectúa como parte del control de calidad, se analizó seis veces la misma muestra en el laboratorio en intervalos aleatorios. Los seis resultados en partes pormillón fueron 9.54, 9.61,9.32, 9.48, 9.70 y 9.26. Estimar la varianza de los resultados de la población para este estándar, usando un nivel de confianza del 90%. Solución: Al calcular la varianza de la muestra se obtiene un valor de s2= 0.0285. Se busca en la tabla los valores correspondientes con 5 grados de libertad, obteniéndose dos resultados. Para X2 (0.95,5)= 1.145 y para X2 (0.0,5)= 11.07. Entonces el intervalo de confianza está dado por:
  • 35. y Distribución Exponencial: A pesar de que la distribución Normal puede utilizarse para resolver muchos problemas en ingeniería y ciencias, existen aún numerosas situaciones que requieren diferentes tipos de funciones de densidad, tales como la exponencial y la gamma y algunas otras como la weibull, etc., etc., de momento solo trataremos sobre el uso de la exponencial. Resulta que la exponencial es un caso especial de la distribución gamma, ambas tienen un gran número de aplicaciones. Las distribuciones exponencial y gamma juegan un papel importante tanto en teoría de colas como en problemas de confiabilidad. El tiempo entre las llegadas en las instalaciones de servicio y el tiempo de falla de los componentes y sistemas eléctricos, frecuentemente involucran la distribución exponencial. La relación entre la gamma y la exponencial permite que la distribución gamma se utilice en tipos similares de problemas. La variable aleatoria x tiene una distribución exponencial, con parámetro b, si su función de densidad es: , x > 0 ; f(x) = 0 en cualquier otro caso Donde b > 0 La media y la variancia de la distribución exponencial son:
  • 36. m = b y s2 = b2 Relación con el proceso de Poisson. Las aplicaciones más importantes de la distribución exponencial son aquellas situaciones en donde se aplica el proceso de Poisson , es necesario recordar que un proceso de Poisson permite el uso de la distribución de Poisson. Recuérdese también que la distribución de Poisson se utiliza para calcular la probabilidad de números específicos de “eventos” durante un período o espacio particular. En muchas aplicaciones, el período o la cantidad de espacio es la variable aleatoria. Por ejemplo un ingeniero industrial puede interesarse en el tiempo T entre llegadas en una intersección congestionada durante la hora de salida de trabajo en una gran ciudad. Una llegada representa el evento de Poisson. La relación entre la distribución exponencial (con frecuencia llamada exponencial negativa) y el proceso llamado de Poisson es bastante simple. La distribución de Poisson se desarrolló como una distribución de un solo parámetro l, donde l puede interpretarse como el número promedio de eventos por unidad de “tiempo” . Considérese ahora la variable aleatoria descrita por el tiempo que se requiere para que ocurra el primer evento. Mediante la distribución de Poisson, se encuentra que la probabilidad de que no ocurran en el espacio hasta el tiempo t está dada por: ; Ahora puede utilizarse lo anterior y hacer que X sea el tiempo para el primer evento de Poisson. La probabilidad de que el período hasta que ocurre el primer evento de Poisson exceda x es la misma que la probabilidad de que no ocurra un evento de Poisson en x. Esto último por supuesto está dado por . Como resultado, P(X ³ x) = Entonces, la función de distribución acumulada para x es: P(0£ X £ x) = 1 - Ahora, con objeto de que se reconozca la presencia de la distribución exponencial, puede derivarse la distribución acumulada anterior para obtener la función de densidad: f(x) =
  • 37. La cual es la función de densidad de la distribución exponencial con . Nótese que la media de la distribución exponencial es el parámetro , el recíproco del parámetro en la distribución de Poisson. El lector debe recordar que con frecuencia se dice que la distribución de Poisson no tiene memoria, lo cuál implica que las ocurrencias en períodos de tiempo sucesivos son independientes. Aquí el parámetro importante es el tiempo promedio entre eventos. En teoría de la confiabilidad, donde la falla de un equipo concuerda con el proceso de Poisson, recibe el nombre de tiempo promedio entre fallas. Muchas descomposturas de equipo siguen el proceso de Poisson, y entonces la distribución exponencial es aplicable. En el siguiente ejemplo se muestra una aplicación simple de la distribución exponencial en un problema de confiabilidad. La distribución binomial también juega un papel importante en la solución. Ejemplos: 1. Suponga que un sistema contiene cierto tipo de componente cuyo tiempo de falla en años está dado por la variable aleatoria T, distribuida exponencialmente con tiempo promedio de falla . S í 5 de estos componentes se instalan en diferentes sistemas, ¿cuál es la probabilidad de que al menos 2 continúen funcionando después de 8 años? Solución: La probabilidad de que un determinado componente esté funcionando aún después de 8 años es: la | nos indica que la integral se va a evaluar desde 8 hasta ¥ Sea x el número de componentes funcionando después de 8 años. Entonces mediante la distribución Binomial, n = 5 p = 0.20 = probabilidad de que un componente esté funcionando después de 8 años q = 1-p = 0.80 = probabilidad de que un componente no funcione después de 8 años
  • 38. P(x ³ 2 ) = p(x=2) + p(x=3) + p(x=4)+p(x=5) = 1 – p(x = 0, 1) 2. El tiempo que transcurre antes de que una persona sea atendida en una cafetería es una variable aleatoria que tiene una distribución exponencial con una media de 4 minutos. ¿Cuál es la probabilidad de que una persona sea atendida antes de que transcurran 3 minutos en al menos 4 de los 6 días siguientes? Solución: la nos indica que la integral va a ser evaluada de 0 a 3 x = número de días en que un cliente es atendido antes de que transcurran 3 minutos x = 0, 1, 2,...,6 días p = probabilidad de que un cliente sea atendido antes de que transcurran 3 minutos en un día cualquiera = 0.5276 q = probabilidad de que un cliente no sea atendido antes de que transcurran 3 minutos en un día cualquiera = 1- p = 0.4724 = 0.11587 + 0.02157 = 0.13744
  • 39. Función de densidad y función de probabilidad (formulas) Función densidad: La función de densidad de probabilidad describe la probabilidad de cada valor específico que puede tener una variable. Ejemplo de una PDF discreta Para una variable discreta, la PDF es una lista que contiene cada valor que la variable puede tener y su probabilidad asociada. Por ejemplo, una fábrica de caramelos produce un solo tipo de caramelo en múltiples colores. Un 30% de los caramelos producidos son amarillos, 10% anaranjados, 10% rojos, 20% verdes y 30% azules. PDF discreta Esta gráfica de barras muestra la PDF por color de caramelo. Cada barra representa la probabilidad de caramelos de ese color expresada como un porcentaje. Ejemplo de una PDF continúa Para una variable continua, la PDF es la curva que aproxima la forma cuando sus valores se muestran en una gráfica de barras o histograma. Por ejemplo, una máquina que corta corchos para botellas de vino produce corchos de diferentes diámetros. En la siguiente gráfica de barras de diámetros de corchos, cada barra representa el porcentaje de corchos con el correspondiente diámetro. PDF continúa
  • 40. La curva es la PDF para el diámetro del corcho. Utilice la PDF para determinar la probabilidad de que ocurra un evento. Por ejemplo, solo un pequeño porcentaje de corchos (1%) tiene un diámetro por debajo de 2.8 cm. PDF continúa con límites de especificación Si los límites de especificación para el diámetro de corchos son de 2.85 cm a 3.15 cm, la PDF ofrece la probabilidad o el porcentaje de todos los corchos de este proceso que cumplen con las especificaciones. La forma de la PDF es diferente para distribuciones diferentes. La curva familiar con forma de campana representa la PDF para una distribución normal. Aunque el diámetro de los corchos sigue una distribución normal, otras mediciones, tales como la fuerza necesaria para retirar el corcho de la botella de vino, pueden seguir una distribución diferente. Por ejemplo, la PDF para una distribución lognormal tiene una cola larga hacia la derecha. PDF lognormal Debido a que una botella de vino ocasionalmente requiere una cantidad poco común de fuerza para retirar el corcho, las mediciones de esta fuerza suelen seguir una distribución con una cola larga hacia la derecha tal como la distribución lognormal. Función de probabilidad: Se llama función de probabilidad de una variable aleatoria discreta X a la aplicación que asocia a cada valor de xi de la variable su probabilidad pi. 0 ≤ pi ≤ 1
  • 41. p1 + p2 + p3 + · · · + pn = Σ pi = 1 Ejemplo Calcular la distribución de probabilidad de las puntuaciones obtenidas al lanzar un dado. x p i 1 2 3 4 5 6 1 Representación La representación de una distribución discreta de probabilidad es un diagrama de barras.
  • 42. Función de probabilidad de la distribución binomial La función de probabilidad de la distribución binomial, también denominada función de la distribución de Bernoulli, es: n es el número de pruebas. k es el número de éxitos. p es la probabilidad de éxito. q es la probabilidad de fracaso. El número combinatorio Ejemplo La última novela de un autor ha tenido un gran éxito, hasta el punto de que el 80% de los lectores ya la han leido. Un grupo de 4 amigos son aficionados a la lectura: 1. ¿Cuál es la probabilidad de que el grupo hayan leido la novela 2 personas? n = 4 p = 0.8 q = 0.2