SlideShare una empresa de Scribd logo
1 de 15
Descargar para leer sin conexión
Apuntes de Confiabilidad Estructural
Ing. Albert Miranda
CONFIABILIDAD ESTRUCTURAL
1. INTRODUCCIÓN
Los cálculos y diseños realizados en ingeniería contienen,
sin lugar a duda, incertidumbres asociadas a los diversos
factores que participan en su ejecución. Por ejemplo, la
incertidumbre asociada a las cargas que realmente soportará
la estructura, la resistencia real de los materiales, las
dimensiones exactas con las que se construirá, etc.
Si aceptamos el hecho de que las distintas variables que
están involucradas en un diseño estructural no son
determinísticas, es decir, no son constantes; entonces
debemos entender que, a pesar de haber diseñado una
estructura siguiendo a cabalidad una normativa o reglamento
de diseño, no podremos evitar la existencia de una
probabilidad de falla, por mínima que esta sea.
La confiabilidad estructural tiene por objetivo determinar
la probabilidad de falla de una estructura, tomando en
consideración las incertidumbres asociadas al análisis y
diseño estructural.
2. ELEMENTOS DE ESTADÍSTICA
2.1. Media
Es una medida de tendencia central que se define como la
suma de los valores observados dividido entre la cantidad de
valores observados.
𝜇 𝑥 =
1
𝑛
∑ 𝑥𝑖
𝑛
𝑖=1
De manera análoga, puede definirse la media como la suma de
los valores observados multiplicados por su correspondiente
frecuencia dividido entre la suma de frecuencias
𝜇 𝑥 =
∑ ( 𝑓𝑖 ∙ 𝑥𝑖)𝑛
𝑖=1
∑ 𝑓𝑖
𝑛
𝑖=1
Esta definición da lugar al concepto de esperanza matemática
de una variable aleatoria que será tratado en el tema de
probabilidad.
2.2. Varianza
Mide la dispersión de los datos con relación a la medida de
tendencia central (media). Se define como la suma de los
Apuntes de Confiabilidad Estructural
Ing. Albert Miranda
cuadrados de la diferencia de los valores observados y la
media, dividido entre el número de valores observados.
𝜎𝑥
2
=
1
𝑛
∑(𝑥𝑖 − 𝜇 𝑥)2
𝑛
𝑖=1
2.3. Desviación Estándar
Es una medida de la variabilidad de los datos observados y
se define como la raíz cuadrada de la varianza. A diferencia
de la varianza, la desviación estándar es un valor mucho más
claro en su comprensión pues contiene la misma escala
dimensional que la media.
𝜎𝑥 = √
1
𝑛
∑(𝑥𝑖 − 𝜇 𝑥)2
𝑛
𝑖=1
2.4. Covarianza
Es un valor que indica el grado de variación conjunta de dos
muestras de datos respecto de sus medias.
𝑐𝑜𝑣( 𝑥, 𝑦) =
1
𝑛
∑(𝑥𝑖 − 𝜇 𝑥) ∙ (𝑦𝑖 − 𝜇 𝑦)
𝑛
𝑖=1
2.5. Coeficiente de correlación
Expresa el grado de correlación entre dos muestras de datos,
y se define como la covarianza dividida entre el producto de
las desviaciones estándar de las muestras de datos.
𝜌 𝑥𝑦 =
𝑐𝑜𝑣( 𝑥, 𝑦)
𝜎𝑥 ∙ 𝜎 𝑦
2.6. Regresión
Es un modelo matemático usado para aproximar la relación de
dependencia entre una variable independiente X y una variable
dependiente Y. Para una aproximación simple, se puede
considerar una relación lineal entre las variables de acuerdo
con la siguiente ecuación:
𝑦 = 𝑎𝑥 + 𝑏
Donde,
𝑎 = 𝜇 𝑥 − 𝑏 ∙ 𝜇 𝑦
𝑏 =
𝑐𝑜𝑣( 𝑥, 𝑦)
𝜎𝑥
2
= 𝜌 𝑥𝑦
𝜎 𝑦
𝜎𝑥
Apuntes de Confiabilidad Estructural
Ing. Albert Miranda
3. TEORÍA DE CONJUNTOS
Los conjuntos son entidades matemáticas que se refieren a
una pluralidad o colectividad de objetos que se consideran
agrupados formando un todo. La teoría de conjuntos es la
parte de las matemáticas que estudia a los conjuntos,
subconjuntos, sus notaciones, operaciones y aplicaciones.
3.1. Notación
Convencionalmente los conjuntos se representan mediante
letras mayúsculas y los elementos pertenecientes al conjunto
se escribirán entre llaves.
Ejemplo:
𝑁 = {1, 2, 3, 4, … }
𝑍 = {… , −2, −1, 0, 1, 2, … }
3.2. Conjuntos especiales
3.2.1. Conjunto vacío
El conjunto nulo o vacío es aquel conjunto que carece de
elementos y se denota por el símbolo Φ. En probabilidad se
conoce como el evento imposible.
Φ = { }
3.2.2. Conjunto universo
El conjunto universo o referencial es aquel conjunto que
contiene la totalidad de los elementos que pueden existir o
quedar caracterizados por una agrupación en particular y se
denota por 𝑈. En probabilidad se conoce como el evento
seguro.
3.3. Operaciones entre conjuntos
3.3.1. Unión de conjuntos
La unión de dos conjuntos A y B, es un nuevo conjunto formado
por todos los elementos de A o de B, y se denota de la
siguiente manera:
𝐴 ∪ 𝐵 = { 𝑥/ 𝑥 ∈ 𝐴 ∨ 𝑥 ∈ 𝐵}
3.3.2. Intersección de conjuntos
La intersección de dos conjuntos A y B, es un nuevo conjunto
formado por los elementos comunes de A y de B, y se denota
de la siguiente manera:
𝐴 ∩ 𝐵 = 𝐴𝐵 = { 𝑥/ 𝑥 ∈ 𝐴 ∧ 𝑥 ∈ 𝐵}
Apuntes de Confiabilidad Estructural
Ing. Albert Miranda
3.3.3. Complemento de un conjunto
El complemento de un conjunto A, es el conjunto formado por
los elementos del universo U, que no pertenecen a A, y se
denota de la siguiente manera:
𝐴̅ = { 𝑥/ 𝑥 ∈ 𝑈 ∧ 𝑥 ∉ 𝐴}
3.3.4. Leyes de conjuntos
Los conjuntos obedecen a relaciones especiales entre ellos
conocidas como leyes de conjuntos. Entre las más importantes
se tiene:
- Leyes de idempotencia:
𝐴 ∪ 𝐴 = 𝐴 𝐴 ∩ 𝐴 = 𝐴
- Leyes conmutativas:
𝐴 ∪ 𝐵 = 𝐵 ∪ 𝐴 𝐴 ∩ 𝐵 = 𝐵 ∩ 𝐴
- Leyes asociativas:
𝐴 ∪ ( 𝐵 ∪ 𝐶) = ( 𝐴 ∪ 𝐵) ∪ 𝐶
𝐴 ∩ ( 𝐵 ∩ 𝐶) = ( 𝐴 ∩ 𝐵) ∩ 𝐶
- Leyes distributivas:
𝐴 ∩ ( 𝐵 ∪ 𝐶) = ( 𝐴 ∩ 𝐵) ∪ ( 𝐴 ∩ 𝐶)
𝐴 ∪ ( 𝐵 ∩ 𝐶) = ( 𝐴 ∪ 𝐵) ∩ ( 𝐴 ∪ 𝐶)
- Leyes de absorción:
𝐴 ∪ 𝑈 = 𝑈 𝐴 ∩ Φ = Φ
- Leyes de D’Morgan:
𝐴 ∪ 𝐵̅̅̅̅̅̅̅ = 𝐴̅ ∩ 𝐵̅
𝐴 ∩ 𝐵̅̅̅̅̅̅̅ = 𝐴̅ ∪ 𝐵̅
- Leyes de complemento:
𝐴 ∪ 𝐴̅ = 𝑈 𝐴 ∩ 𝐴̅ = Φ 𝐴̿ = 𝐴
- Leyes de identidad:
𝐴 ∪ Φ = A 𝐴 ∩ 𝑈 = 𝐴
4. ELEMENTOS DE PROBABILIDAD
4.1. Experimento Aleatorio
Un experimento puede dividirse en dos clases principales,
experimentos determinísticos y experimentos aleatorios. Los
determinísticos son aquellos en los que el resultado está
completamente determinado y pueden describirse por una
ecuación matemática, por ejemplo:
ε1: medir la aceleración que experimenta un cuerpo de masa 𝐦, sometido a una fuerza 𝐅
Apuntes de Confiabilidad Estructural
Ing. Albert Miranda
Por otro lado, en un experimento aleatorio los resultados no
pueden predecirse con exactitud antes de realizar el
experimento, por ejemplo:
ε2: lanzar una moneda y observar la cara superior
4.2. Espacio de probabilidad
Es un objeto matemático que consta de tres elementos: un
espacio muestral, una colección de eventos definidos sobre
ese espacio muestral, y una función de probabilidad que
asigna probabilidades a cualquier evento.
4.2.1. Espacio muestral
Es el conjunto de todos los resultados posibles de un
experimento. Se conoce también como conjunto universo, y
convencionalmente se denota por Ω.
Ejemplo:
- Un experimento consiste en lanzar una moneda al aire,
con lo cual el espacio muestral lo conforman los dos
únicos resultados posibles que son:
Ω = { 𝑐𝑎𝑟𝑎, 𝑒𝑠𝑐𝑢𝑑𝑜}
- Otro experimento consiste en lanzar un dado, y se
tendrán seis posibles resultados, con lo que el espacio
muestral quedaría definido de la siguiente manera:
Ω = { 𝑢𝑛𝑜, 𝑑𝑜𝑠, 𝑡𝑟𝑒𝑠, 𝑐𝑢𝑎𝑡𝑟𝑜, 𝑐𝑖𝑛𝑐𝑜, 𝑠𝑒𝑖𝑠}
4.2.2. Evento
Un evento es un subconjunto del espacio muestral, que puede
contener uno o más elementos o resultados posibles del
espacio muestral.
Ejemplo:
- En el experimento de lanzar un dado, se podrían generar
los siguientes eventos:
A = ”Que el número del dado sea menor a tres”
B = ”Que el número del dado sea par”
C = ”Que el número del dado sea un número primo”
𝐴 = {1, 2}
𝐵 = { 2, 4, 6}
𝐶 = { 2, 3, 5}
Algunos eventos particulares se definen a continuación:
Apuntes de Confiabilidad Estructural
Ing. Albert Miranda
- Evento seguro: Se define como evento seguro al evento
que representa al espacio muestral y se denota por Ω.
- Evento imposible: Se define como evento imposible al
evento que representa al conjunto vacío y se denota por
Φ.
4.3. Eventos mutuamente excluyentes y colectivamente
exhaustivos:
Dos o más eventos se consideran mutuamente excluyentes si la
ocurrencia de uno de ellos anula la ocurrencia de los otros,
es decir:
⋂ 𝐴𝑖
𝑛
𝑖=1
= Φ
Por ejemplo, en el experimento de lazar un dado, los
siguientes eventos se pueden considerar mutuamente
excluyentes:
A = ”Que el número del dado sea impar”
B = ”Que el número del dado sea par”
Los eventos A y B son claramente eventos mutuamente
excluyentes porque si ocurre A, entonces no ocurre B.
Dos o más eventos se consideran colectivamente exhaustivos
si la unión de ellos es igual al espacio muestral, es decir:
⋃ 𝐴𝑖
𝑛
𝑖=1
= Ω
Por ejemplo, cualquier evento 𝐴 y su complemento 𝐴̅ se pueden
considerar eventos colectivamente exhaustivos, porque se
cumple:
𝐴 ∪ 𝐴̅ = 𝑈
En confiabilidad estructural, el ejemplo más claro de eventos
que cumplen con ser mutuamente excluyentes y además
colectivamente exhaustivos son los resultados del
experimento 𝜀 que consiste en someter una estructura a un
determinado patrón de cargas y verificar si falla o no. En
este experimento, los eventos 𝐴 = { 𝑙𝑎 𝑒𝑠𝑡𝑟𝑢𝑐𝑡𝑢𝑟𝑎 𝑓𝑎𝑙𝑙𝑎} y 𝐵 =
{ 𝑙𝑎 𝑒𝑠𝑡𝑟𝑢𝑐𝑡𝑢𝑟𝑎 𝑛𝑜 𝑓𝑎𝑙𝑙𝑎} son mutuamente excluyentes, porque si
ocurre que la estructura falla, no puede ocurrir
simultáneamente que la estructura no falla. Además, son
colectivamente exhaustivos porque la unión de los dos eventos
Apuntes de Confiabilidad Estructural
Ing. Albert Miranda
da como resultado el espacio muestral, ya que no hay otra
posibilidad.
Ω = { 𝑓𝑎𝑙𝑙𝑎, 𝑛𝑜 𝑓𝑎𝑙𝑙𝑎}
𝐴 ∪ 𝐵 = Ω
4.4. Definición de probabilidad
La probabilidad es una medida de la certidumbre asociada a
la ocurrencia de un evento, es decir, es la mayor o menor
posibilidad de que ocurra un determinado evento. La
probabilidad asignada a cualquier evento está entre un rango
de 0 a 1, donde 0 representa la imposibilidad de ocurrencia
del evento y 1 representa la certeza total de que ocurra el
evento.
4.5. Axiomas de probabilidad
La teoría de la probabilidad se rige bajo los siguientes 3
axiomas fundamentales:
1. La probabilidad de ocurrencia de cualquier evento debe
estar mayor o igual a 0.
𝑃( 𝐴) ≥ 0
2. La probabilidad de ocurrencia del evento seguro o
espacio muestral es 1.
𝑃(Ω) = 1
3. Si dos eventos 𝐴1 y 𝐴2 son mutuamente excluyentes, se
cumple que:
𝑃( 𝐴1 ∪ 𝐴2) = 𝑃( 𝐴1) + 𝑃( 𝐴2)
En confiablidad estructural a la probabilidad de que una
estructura no falle se conoce como confiabilidad y se define
de la siguiente manera:
𝑃( 𝑛𝑜 𝑓𝑎𝑙𝑙𝑎) + 𝑃( 𝑓𝑎𝑙𝑙𝑎) = 1
𝑅 + 𝑃𝑓 = 1
𝑅 = 1 − 𝑃𝑓
4.6. La regla de la adición
De manera general, si dos eventos 𝐴1 y 𝐴2 no son mutuamente
excluyentes, la regla de la adición o unión se define como:
𝑃( 𝐴1 ∪ 𝐴2) = 𝑃( 𝐴1) + 𝑃( 𝐴2) − 𝑃( 𝐴1 ∩ 𝐴2)
4.7. Probabilidad condicional
Apuntes de Confiabilidad Estructural
Ing. Albert Miranda
En algunas ocasiones sucede que la probabilidad de un evento
depende de la ocurrencia de otro evento, es decir que, si
otro evento ocurre, entonces la probabilidad de que el
primero ocurra se modifica. Si esta dependencia existe, se
conoce como probabilidad condicional y se define de la
siguiente manera:
𝑃( 𝐴| 𝐵) =
𝑃( 𝐴 ∩ 𝐵)
𝑃( 𝐵)
4.8. Independencia estadística
Si la ocurrencia o no ocurrencia de un evento, no afecta la
probabilidad de ocurrencia de otro evento, los dos eventos
son estadísticamente independientes. Entonces, si dos
eventos 𝐴 y 𝐵 son estadísticamente independientes, se cumple
que:
𝑃( 𝐴| 𝐵) = 𝑃( 𝐴)
𝑃( 𝐵| 𝐴) = 𝑃( 𝐵)
Se debe tener muy en cuenta que existe una gran diferencia
entre ser eventos mutuamente excluyentes y estadísticamente
independientes. Son conceptos totalmente diferentes, la
independencia estadística entre dos eventos se refiere a la
probabilidad de su ocurrencia conjunta, mientras que dos
eventos mutuamente excluyentes no tienen posibilidad de
ocurrir conjuntamente.
𝑃( 𝐴| 𝐵) = 0
4.9. La regla de la multiplicación
La probabilidad conjunta de dos eventos 𝐴 y 𝐵 puede
expresarse en función de la probabilidad condicional de la
siguiente manera:
𝑃( 𝐴 ∩ 𝐵) = 𝑃( 𝐴| 𝐵) ∙ 𝑃( 𝐵)
𝑃( 𝐴 ∩ 𝐵) = 𝑃( 𝐵| 𝐴) ∙ 𝑃( 𝐴)
A las expresiones anteriores se conoce como la regla de la
multiplicación y si 𝐴 y 𝐵 son eventos estáticamente
independientes, la regla se expresa como:
𝑃( 𝐴 ∩ 𝐵) = 𝑃( 𝐴) ∙ 𝑃( 𝐵)
4.10. Teorema de la probabilidad total
En ocasiones, la probabilidad de un evento 𝐴 cualquiera, no
se puede determinar de manera directa, dado que su ocurrencia
depende de la ocurrencia o no ocurrencia de otros eventos,
Apuntes de Confiabilidad Estructural
Ing. Albert Miranda
como 𝐵1, 𝐵2, … , 𝐵𝑛. Si se cumple que los eventos 𝐵𝑖 son mutuamente
excluyentes y colectivamente exhaustivos, entonces, la
probabilidad de un evento 𝐴 cualquiera puede escribirse de
la siguiente manera:
𝑃( 𝐴) = 𝑃( 𝐴 ∩ 𝐵1) + 𝑃( 𝐴 ∩ 𝐵2) + ⋯ + 𝑃( 𝐴 ∩ 𝐵𝑛)
Si le aplicamos la regla de la multiplicación, se tiene que:
𝑃( 𝐴) = 𝑃( 𝐴| 𝐵1) ∙ 𝑃( 𝐵1) + 𝑃( 𝐴| 𝐵2) ∙ 𝑃( 𝐵2) + ⋯ + 𝑃( 𝐴| 𝐵𝑛) ∙ 𝑃( 𝐵𝑛)
𝑃( 𝐴) = ∑ 𝑃( 𝐴| 𝐵𝑖) ∙ 𝑃( 𝐵𝑖)
𝑛
𝑖=1
4.11. Teorema de Bayes
En la derivación del teorema de probabilidad total, la
probabilidad de cualquier evento 𝐴 depende de cuál de los
eventos condicionantes 𝐵1, 𝐵2, … , 𝐵𝑛, ha ocurrido. Por otro lado,
si interesa conocer la probabilidad de cualquier evento
particular 𝐵𝑖 dada la ocurrencia de 𝐴, sería el caso inverso
al problema planteado en el teorema de la probabilidad total,
y se conoce como teorema de Bayes:
𝑃( 𝐵𝑖| 𝐴) =
𝑃( 𝐴| 𝐵𝑖) ∙ 𝑃( 𝐵𝑖)
𝑃( 𝐴)
𝑃( 𝐵𝑖| 𝐴) =
𝑃( 𝐴| 𝐵𝑖) ∙ 𝑃( 𝐵𝑖)
∑ 𝑃( 𝐴| 𝐵𝑖) ∙ 𝑃( 𝐵𝑖)𝑛
𝑖=1
5. VARIABLE ALEATORIA
Una variable aleatoria es una función de mapeo que asocia a
los eventos posibles dentro de un espacio muestral con un
sistema de números reales, en otras palabras, es un objeto
matemático para representar un evento en una forma numérica
analítica.
A diferencia de una variable determinística que asume un
valor definitivo, el valor de una variable aleatoria puede
solamente definirse sobre un rango de valores posibles.
En ingeniería, muchos fenómenos aleatorios de interés quedan
asociados a resultados numéricos de ciertas cantidades
físicas (“El caudal que pasa por una determinada sección de
un río”), sin embargo, existen otros que no están definidos
de manera numérica (“la falla o supervivencia de un eslabón
de una cadena que soporta carga”), en cualquier caso, gracias
al concepto de variable aleatoria se puede asignar de manera
Apuntes de Confiabilidad Estructural
Ing. Albert Miranda
artificial valores numéricos a los eventos en cuestión (“0
para la falla y 1 para la supervivencia”).
En conclusión, los posibles resultados de un fenómeno
aleatorio pueden ser representados por valores numéricos, ya
sea de manera natural o artificial. En cualquier caso, un
resultado o evento puede ser identificado por un valor o un
rango de valores de una función, que es llamada variable
aleatoria.
Por convención, las variables aleatorias se representan
mediante letras mayúsculas, mientras que sus posibles
valores con letras minúsculas. Un valor o un rango de valores
de una variable aleatoria representa un evento en particular.
5.1. Clasificación de variables aleatorias
5.1.1. Variable aleatoria discreta
Una variable aleatoria es discreta cuando puede tomar un
número finito de valores, o un número infinito de valores
contables o numerables.
5.1.2. Variable aleatoria continua
Una variable aleatoria es continua cuando puede tomar
cualquier valor en un intervalo de la rectar numérica.
5.2. Distribución de probabilidad de una variable aleatoria
Un variable aleatoria es una variable cuyo valor no se conoce
con certeza, sin embargo, no estamos completamente en la
penumbra porque, aunque no conocemos el valor que va a tomar,
si conocemos los valores que puede tomar, y conocemos además
las probabilidades de que asuma estos valores.
La medida de probabilidad que se asocia a una variable
aleatoria se denomina distribución de probabilidad o leyes
de probabilidad.
Para una variable aleatoria discreta 𝑋, la función de
distribución de probabilidad describe la probabilidad de que
la variable tome un valor 𝑥 en particular:
𝑃𝑋( 𝑥) = 𝑃( 𝑋 = 𝑥)
Además de esto, existe la función de distribución acumulada
que describe la probabilidad de que 𝑋 tome valores menores
o iguales a un valor 𝑥 en particular:
𝐹𝑋( 𝑥) = 𝑃( 𝑋 ≤ 𝑥) = ∑ 𝑃( 𝑋 = 𝑥𝑖)
𝑥𝑖≤𝑥
Apuntes de Confiabilidad Estructural
Ing. Albert Miranda
Para una variable aleatoria continua 𝑋, la función de
distribución de probabilidad se conoce como función de
densidad de probabilidad, y describe la probabilidad de que
𝑋 tome valores menores en un intervalo ( 𝑎, 𝑏]:
𝑃( 𝑎 < 𝑋 ≤ 𝑏) = ∫ 𝑓𝑋( 𝑥) 𝑑𝑥
𝑏
𝑎
Y su correspondiente función de distribución de probabilidad
acumulada se define como:
𝐹𝑋( 𝑥) = 𝑃( 𝑋 ≤ 𝑥) = ∫ 𝑓𝑋( 𝜏) 𝑑𝜏
𝑥
−∞
De acuerdo con esto, si 𝐹𝑋( 𝑥) tiene una primera derivada,
entonces se demuestra que:
𝑓𝑋( 𝑥) =
𝑑𝐹𝑋( 𝑥)
𝑑𝑥
Se debe enfatizar que cualquier función utilizada para
representar la distribución de probabilidad de una variable
aleatoria, debe necesariamente satisfacer los axiomas de la
teoría de la probabilidad.
De acuerdo con los axiomas, una función de distribución
acumulada debe satisfacer las siguientes condiciones:
- 𝐹𝑋(−∞) = 0; y 𝐹𝑋(∞) = 1
- 𝐹𝑋( 𝑥) ≥ 0, para todos los valores de 𝑥 y es no decreciente
- 𝐹𝑋( 𝑥) es continua a la derecha con 𝑥
5.3. Principales parámetros de una variable aleatoria
Una variable aleatoria puede quedar completamente descrita
si se conoce su función de distribución de probabilidad
(función de densidad de probabilidad caso continuo) o su
función de distribución acumulada, y si sus parámetros
asociados son especificados. En la práctica, las funciones
de distribución de probabilidad pueden no ser conocidas, en
tal caso una descripción aproximada de sus principales
descriptores puede ser útil. Los principales parámetros de
describen a continuación.
5.3.1. Valor esperado o esperanza matemática
Es un promedio pesado asociado a las diferentes
probabilidades de los posibles valores que puede tomar la
variable aleatoria.
Para el caso discreto se define como:
Apuntes de Confiabilidad Estructural
Ing. Albert Miranda
𝐸( 𝑋) = ∑ 𝑥𝑖 𝑃𝑋( 𝑥𝑖)
𝑛
𝑖=1
Para el caso continuo:
𝐸( 𝑋) = ∫ 𝑥𝑓𝑋( 𝑥) 𝑑𝑥
∞
−∞
5.3.2. Varianza
Es una medida de dispersión que indica cuan dispersos están
los valores de la medida de tendencia central.
Para el caso discreto se define como:
𝑣𝑎𝑟( 𝑋) = ∑(𝑥𝑖 − 𝜇 𝑋)2
𝑃𝑋( 𝑥𝑖)
𝑛
𝑖=1
Para el caso continuo:
𝑣𝑎𝑟( 𝑋) = ∫ ( 𝑥 − 𝜇 𝑋)2
𝑓𝑋( 𝑥) 𝑑𝑥
∞
−∞
𝑣𝑎𝑟( 𝑋) = 𝐸( 𝑋2) − 𝜇 𝑋
2
5.3.3. Desviación estándar
𝜎 𝑋 = √𝑣𝑎𝑟(𝑋)
5.3.4. Coeficiente de variación
𝛿 𝑋 =
𝜎 𝑋
𝜇 𝑋
5.4. Distribuciones de probabilidad útiles
Apuntes de Confiabilidad Estructural
Ing. Albert Miranda
Método de confiabilidad FORM
𝑃𝑓 = 𝑃( 𝑅 ≤ 𝑆)
𝑃𝑓 = 𝑃( 𝑅 − 𝑆 ≤ 0)
𝑀 = 𝑅 − 𝑆
𝑃𝑓 = 𝑃( 𝑀 ≤ 0) = ∫ 𝑓 𝑀( 𝑚)
0
−∞
𝑑𝑚
𝑃𝑓 = ∬ 𝑓𝑅𝑆( 𝑟, 𝑠)
𝑆>𝑅
𝑑𝑟𝑑𝑠
𝑃𝑓 = ∫ ∫ 𝑓𝑅𝑆( 𝑟, 𝑠)
𝑠
0
∞
0
𝑑𝑟𝑑𝑠
𝑓𝑅𝑆( 𝑟, 𝑠) = 𝑓𝑅( 𝑟) 𝑓𝑆( 𝑠)
𝑃𝑓 = ∫ 𝑓𝑆( 𝑠) [∫ 𝑓𝑅( 𝑟)
𝑠
0
𝑑𝑟]
∞
0
𝑑𝑠
Pero:
𝐹𝑅( 𝑠) = ∫ 𝑓𝑅( 𝑟)
𝑠
0
𝑑𝑟
Apuntes de Confiabilidad Estructural
Ing. Albert Miranda
𝑃𝑓 = ∫ 𝐹𝑅( 𝑠) 𝑓𝑆( 𝑠)
∞
0
𝑑𝑠
Los métodos de nivel II tratan de encontrar una medida de la
seguridad, directamente relacionada con la probabilidad de
fallo, y que, sin embargo, no implique necesariamente la
determinación de la misma mediante la integración de la
función de densidad conjunta de las variables aleatorias
involucradas. En terminología usual, esta medida se llama
índice 𝛽.
Si se tienen las siguientes condiciones:
- La función de estado límite (margen de seguridad) es
lineal
- Las variables aleatorias son independientes
- Las variables aleatorias se distribuyen normalmente
El índice 𝛽 de Cornel se define como:
𝛽 =
𝜇 𝑀
𝜎 𝑀
Gráficamente el índice de confiabilidad 𝛽, representa el
número de desviaciones estándar que separan el valor medio
del origen, esto significa que cuanto más lejos esté el valor
medio del origen, menor será la probabilidad de fallo del
sistema.
𝛽 =
𝜇 𝑀
𝜎 𝑀
=
𝜇 𝑅 − 𝜇 𝑆
√𝜎 𝑅
2 + 𝜎𝑆
2
Apuntes de Confiabilidad Estructural
Ing. Albert Miranda
La relación entre la probabilidad de falla de un sistema y
el índice de confiabilidad 𝛽 está dado por:
𝑅 = Φ( 𝛽)
𝑃𝑓 = 1 − 𝑅 = 1 − Φ( 𝛽)
𝛽 = −Φ(𝑃𝑓)

Más contenido relacionado

La actualidad más candente

Ecuaciones diferenciales homogeneas
Ecuaciones diferenciales homogeneasEcuaciones diferenciales homogeneas
Ecuaciones diferenciales homogeneas
victormanuelmar
 
Experimentos+Factoriales
Experimentos+FactorialesExperimentos+Factoriales
Experimentos+Factoriales
rilara
 

La actualidad más candente (19)

Apuntes de ecuaciones
Apuntes de ecuacionesApuntes de ecuaciones
Apuntes de ecuaciones
 
Calculoparacienciasbiolgicas 110708091303-phpapp02
Calculoparacienciasbiolgicas 110708091303-phpapp02Calculoparacienciasbiolgicas 110708091303-phpapp02
Calculoparacienciasbiolgicas 110708091303-phpapp02
 
mapa conceptual tipos de variables
mapa conceptual tipos de variablesmapa conceptual tipos de variables
mapa conceptual tipos de variables
 
Ecuaciones Diferenciales Homogéneas
Ecuaciones Diferenciales HomogéneasEcuaciones Diferenciales Homogéneas
Ecuaciones Diferenciales Homogéneas
 
Contraste de Grubbs. Rev. 00
Contraste de Grubbs. Rev. 00Contraste de Grubbs. Rev. 00
Contraste de Grubbs. Rev. 00
 
Ecuaciones saia para enviar
Ecuaciones saia para enviarEcuaciones saia para enviar
Ecuaciones saia para enviar
 
U 1 conjuntos y probabilidad (2)
U 1 conjuntos y probabilidad (2)U 1 conjuntos y probabilidad (2)
U 1 conjuntos y probabilidad (2)
 
Ecuaciones diferenciales homogeneas
Ecuaciones diferenciales homogeneasEcuaciones diferenciales homogeneas
Ecuaciones diferenciales homogeneas
 
Experimentos+Factoriales
Experimentos+FactorialesExperimentos+Factoriales
Experimentos+Factoriales
 
laboratorio de densidad y peso molecular del aire
laboratorio de densidad y peso molecular del aire laboratorio de densidad y peso molecular del aire
laboratorio de densidad y peso molecular del aire
 
12 cap 12
12 cap 1212 cap 12
12 cap 12
 
Apuntes de edo modulo i y ii
Apuntes de edo modulo i y iiApuntes de edo modulo i y ii
Apuntes de edo modulo i y ii
 
Paginas desde apuntes de edo (introd)
Paginas desde apuntes de edo (introd)Paginas desde apuntes de edo (introd)
Paginas desde apuntes de edo (introd)
 
Ecuaciones diferenciales homogéneas
Ecuaciones diferenciales homogéneasEcuaciones diferenciales homogéneas
Ecuaciones diferenciales homogéneas
 
Cap5
Cap5Cap5
Cap5
 
91897836 clase-1-1-1-ecdif-teoria-preliminar
91897836 clase-1-1-1-ecdif-teoria-preliminar91897836 clase-1-1-1-ecdif-teoria-preliminar
91897836 clase-1-1-1-ecdif-teoria-preliminar
 
Trabajo ec diferenciales en ingenieria
Trabajo ec diferenciales en ingenieriaTrabajo ec diferenciales en ingenieria
Trabajo ec diferenciales en ingenieria
 
Diseño factorial de 3 factores
Diseño factorial de 3 factores Diseño factorial de 3 factores
Diseño factorial de 3 factores
 
Nociones de las Ec. dif. Ord
Nociones de las Ec. dif. OrdNociones de las Ec. dif. Ord
Nociones de las Ec. dif. Ord
 

Similar a Apuntes de confiabilidad 3

10 tema 03
10 tema 0310 tema 03
10 tema 03
loki27
 
Eventos aleatorios
Eventos aleatoriosEventos aleatorios
Eventos aleatorios
pathend
 

Similar a Apuntes de confiabilidad 3 (20)

Teoria de la probabilidad
Teoria de la probabilidadTeoria de la probabilidad
Teoria de la probabilidad
 
Tema3
Tema3Tema3
Tema3
 
teoria de la probabilidad
teoria de la probabilidadteoria de la probabilidad
teoria de la probabilidad
 
Probabilidad y estadística
Probabilidad y estadísticaProbabilidad y estadística
Probabilidad y estadística
 
Probabilidad y estadística
Probabilidad y estadísticaProbabilidad y estadística
Probabilidad y estadística
 
Probabilidad y Estadística 1
Probabilidad y Estadística 1Probabilidad y Estadística 1
Probabilidad y Estadística 1
 
Probabilidad y estadística
Probabilidad y estadísticaProbabilidad y estadística
Probabilidad y estadística
 
Leyes de Probabilidades
Leyes de ProbabilidadesLeyes de Probabilidades
Leyes de Probabilidades
 
Probabilidad y estadística
Probabilidad y estadísticaProbabilidad y estadística
Probabilidad y estadística
 
02 - Introducción a la teoría de probabilidad
02 - Introducción a la teoría de probabilidad02 - Introducción a la teoría de probabilidad
02 - Introducción a la teoría de probabilidad
 
APOYO.pptx
APOYO.pptxAPOYO.pptx
APOYO.pptx
 
Probabilidad
ProbabilidadProbabilidad
Probabilidad
 
Probabilidades-Estadistica
Probabilidades-EstadisticaProbabilidades-Estadistica
Probabilidades-Estadistica
 
Estadistica,Probabilidad
Estadistica,Probabilidad Estadistica,Probabilidad
Estadistica,Probabilidad
 
10 tema 03
10 tema 0310 tema 03
10 tema 03
 
Estadistica
EstadisticaEstadistica
Estadistica
 
Act3 tlso
Act3 tlsoAct3 tlso
Act3 tlso
 
Eventos aleatorios
Eventos aleatoriosEventos aleatorios
Eventos aleatorios
 
Teoría de probabilidad
Teoría de probabilidadTeoría de probabilidad
Teoría de probabilidad
 
PROBABILIDAD
PROBABILIDADPROBABILIDAD
PROBABILIDAD
 

Último

INSUMOS QUIMICOS Y BIENES FISCALIZADOS POR LA SUNAT
INSUMOS QUIMICOS Y BIENES FISCALIZADOS POR LA SUNATINSUMOS QUIMICOS Y BIENES FISCALIZADOS POR LA SUNAT
INSUMOS QUIMICOS Y BIENES FISCALIZADOS POR LA SUNAT
evercoyla
 

Último (20)

“Análisis comparativo de viscosidad entre los fluidos de yogurt natural, acei...
“Análisis comparativo de viscosidad entre los fluidos de yogurt natural, acei...“Análisis comparativo de viscosidad entre los fluidos de yogurt natural, acei...
“Análisis comparativo de viscosidad entre los fluidos de yogurt natural, acei...
 
INSUMOS QUIMICOS Y BIENES FISCALIZADOS POR LA SUNAT
INSUMOS QUIMICOS Y BIENES FISCALIZADOS POR LA SUNATINSUMOS QUIMICOS Y BIENES FISCALIZADOS POR LA SUNAT
INSUMOS QUIMICOS Y BIENES FISCALIZADOS POR LA SUNAT
 
27311861-Cuencas-sedimentarias-en-Colombia.ppt
27311861-Cuencas-sedimentarias-en-Colombia.ppt27311861-Cuencas-sedimentarias-en-Colombia.ppt
27311861-Cuencas-sedimentarias-en-Colombia.ppt
 
NTC 3883 análisis sensorial. metodología. prueba duo-trio.pdf
NTC 3883 análisis sensorial. metodología. prueba duo-trio.pdfNTC 3883 análisis sensorial. metodología. prueba duo-trio.pdf
NTC 3883 análisis sensorial. metodología. prueba duo-trio.pdf
 
Resistencia-a-los-antimicrobianos--laboratorio-al-cuidado-del-paciente_Marcel...
Resistencia-a-los-antimicrobianos--laboratorio-al-cuidado-del-paciente_Marcel...Resistencia-a-los-antimicrobianos--laboratorio-al-cuidado-del-paciente_Marcel...
Resistencia-a-los-antimicrobianos--laboratorio-al-cuidado-del-paciente_Marcel...
 
DIAPOSITIVAS DE SEGURIDAD Y SALUD EN EL TRABAJO
DIAPOSITIVAS DE SEGURIDAD Y SALUD EN EL TRABAJODIAPOSITIVAS DE SEGURIDAD Y SALUD EN EL TRABAJO
DIAPOSITIVAS DE SEGURIDAD Y SALUD EN EL TRABAJO
 
Maquinaria Agricola utilizada en la produccion de Piña.pdf
Maquinaria Agricola utilizada en la produccion de Piña.pdfMaquinaria Agricola utilizada en la produccion de Piña.pdf
Maquinaria Agricola utilizada en la produccion de Piña.pdf
 
semana-08-clase-transformadores-y-norma-eep.ppt
semana-08-clase-transformadores-y-norma-eep.pptsemana-08-clase-transformadores-y-norma-eep.ppt
semana-08-clase-transformadores-y-norma-eep.ppt
 
Suelo, tratamiento saneamiento y mejoramiento
Suelo, tratamiento saneamiento y mejoramientoSuelo, tratamiento saneamiento y mejoramiento
Suelo, tratamiento saneamiento y mejoramiento
 
ATS-FORMATO cara.pdf PARA TRABAJO SEGURO
ATS-FORMATO cara.pdf  PARA TRABAJO SEGUROATS-FORMATO cara.pdf  PARA TRABAJO SEGURO
ATS-FORMATO cara.pdf PARA TRABAJO SEGURO
 
2. Cristaloquimica. ingenieria geologica
2. Cristaloquimica. ingenieria geologica2. Cristaloquimica. ingenieria geologica
2. Cristaloquimica. ingenieria geologica
 
PostgreSQL on Kubernetes Using GitOps and ArgoCD
PostgreSQL on Kubernetes Using GitOps and ArgoCDPostgreSQL on Kubernetes Using GitOps and ArgoCD
PostgreSQL on Kubernetes Using GitOps and ArgoCD
 
ELASTICIDAD PRECIO DE LA DEMaaanANDA.ppt
ELASTICIDAD PRECIO DE LA DEMaaanANDA.pptELASTICIDAD PRECIO DE LA DEMaaanANDA.ppt
ELASTICIDAD PRECIO DE LA DEMaaanANDA.ppt
 
Determinación de espacios en la instalación
Determinación de espacios en la instalaciónDeterminación de espacios en la instalación
Determinación de espacios en la instalación
 
2024 GUIA PRACTICAS MICROBIOLOGIA- UNA 2017 (1).pdf
2024 GUIA PRACTICAS MICROBIOLOGIA- UNA 2017 (1).pdf2024 GUIA PRACTICAS MICROBIOLOGIA- UNA 2017 (1).pdf
2024 GUIA PRACTICAS MICROBIOLOGIA- UNA 2017 (1).pdf
 
[1LLF] UNIDADES, MAGNITUDES FÍSICAS Y VECTORES.pdf
[1LLF] UNIDADES, MAGNITUDES FÍSICAS Y VECTORES.pdf[1LLF] UNIDADES, MAGNITUDES FÍSICAS Y VECTORES.pdf
[1LLF] UNIDADES, MAGNITUDES FÍSICAS Y VECTORES.pdf
 
ingenieria grafica para la carrera de ingeniera .pptx
ingenieria grafica para la carrera de ingeniera .pptxingenieria grafica para la carrera de ingeniera .pptx
ingenieria grafica para la carrera de ingeniera .pptx
 
libro de ingeniería de petróleos y operaciones
libro de ingeniería de petróleos y operacioneslibro de ingeniería de petróleos y operaciones
libro de ingeniería de petróleos y operaciones
 
Minería convencional: datos importantes y conceptos
Minería convencional: datos importantes y conceptosMinería convencional: datos importantes y conceptos
Minería convencional: datos importantes y conceptos
 
Clasificación de Equipos e Instrumentos en Electricidad.docx
Clasificación de Equipos e Instrumentos en Electricidad.docxClasificación de Equipos e Instrumentos en Electricidad.docx
Clasificación de Equipos e Instrumentos en Electricidad.docx
 

Apuntes de confiabilidad 3

  • 1. Apuntes de Confiabilidad Estructural Ing. Albert Miranda CONFIABILIDAD ESTRUCTURAL 1. INTRODUCCIÓN Los cálculos y diseños realizados en ingeniería contienen, sin lugar a duda, incertidumbres asociadas a los diversos factores que participan en su ejecución. Por ejemplo, la incertidumbre asociada a las cargas que realmente soportará la estructura, la resistencia real de los materiales, las dimensiones exactas con las que se construirá, etc. Si aceptamos el hecho de que las distintas variables que están involucradas en un diseño estructural no son determinísticas, es decir, no son constantes; entonces debemos entender que, a pesar de haber diseñado una estructura siguiendo a cabalidad una normativa o reglamento de diseño, no podremos evitar la existencia de una probabilidad de falla, por mínima que esta sea. La confiabilidad estructural tiene por objetivo determinar la probabilidad de falla de una estructura, tomando en consideración las incertidumbres asociadas al análisis y diseño estructural. 2. ELEMENTOS DE ESTADÍSTICA 2.1. Media Es una medida de tendencia central que se define como la suma de los valores observados dividido entre la cantidad de valores observados. 𝜇 𝑥 = 1 𝑛 ∑ 𝑥𝑖 𝑛 𝑖=1 De manera análoga, puede definirse la media como la suma de los valores observados multiplicados por su correspondiente frecuencia dividido entre la suma de frecuencias 𝜇 𝑥 = ∑ ( 𝑓𝑖 ∙ 𝑥𝑖)𝑛 𝑖=1 ∑ 𝑓𝑖 𝑛 𝑖=1 Esta definición da lugar al concepto de esperanza matemática de una variable aleatoria que será tratado en el tema de probabilidad. 2.2. Varianza Mide la dispersión de los datos con relación a la medida de tendencia central (media). Se define como la suma de los
  • 2. Apuntes de Confiabilidad Estructural Ing. Albert Miranda cuadrados de la diferencia de los valores observados y la media, dividido entre el número de valores observados. 𝜎𝑥 2 = 1 𝑛 ∑(𝑥𝑖 − 𝜇 𝑥)2 𝑛 𝑖=1 2.3. Desviación Estándar Es una medida de la variabilidad de los datos observados y se define como la raíz cuadrada de la varianza. A diferencia de la varianza, la desviación estándar es un valor mucho más claro en su comprensión pues contiene la misma escala dimensional que la media. 𝜎𝑥 = √ 1 𝑛 ∑(𝑥𝑖 − 𝜇 𝑥)2 𝑛 𝑖=1 2.4. Covarianza Es un valor que indica el grado de variación conjunta de dos muestras de datos respecto de sus medias. 𝑐𝑜𝑣( 𝑥, 𝑦) = 1 𝑛 ∑(𝑥𝑖 − 𝜇 𝑥) ∙ (𝑦𝑖 − 𝜇 𝑦) 𝑛 𝑖=1 2.5. Coeficiente de correlación Expresa el grado de correlación entre dos muestras de datos, y se define como la covarianza dividida entre el producto de las desviaciones estándar de las muestras de datos. 𝜌 𝑥𝑦 = 𝑐𝑜𝑣( 𝑥, 𝑦) 𝜎𝑥 ∙ 𝜎 𝑦 2.6. Regresión Es un modelo matemático usado para aproximar la relación de dependencia entre una variable independiente X y una variable dependiente Y. Para una aproximación simple, se puede considerar una relación lineal entre las variables de acuerdo con la siguiente ecuación: 𝑦 = 𝑎𝑥 + 𝑏 Donde, 𝑎 = 𝜇 𝑥 − 𝑏 ∙ 𝜇 𝑦 𝑏 = 𝑐𝑜𝑣( 𝑥, 𝑦) 𝜎𝑥 2 = 𝜌 𝑥𝑦 𝜎 𝑦 𝜎𝑥
  • 3. Apuntes de Confiabilidad Estructural Ing. Albert Miranda 3. TEORÍA DE CONJUNTOS Los conjuntos son entidades matemáticas que se refieren a una pluralidad o colectividad de objetos que se consideran agrupados formando un todo. La teoría de conjuntos es la parte de las matemáticas que estudia a los conjuntos, subconjuntos, sus notaciones, operaciones y aplicaciones. 3.1. Notación Convencionalmente los conjuntos se representan mediante letras mayúsculas y los elementos pertenecientes al conjunto se escribirán entre llaves. Ejemplo: 𝑁 = {1, 2, 3, 4, … } 𝑍 = {… , −2, −1, 0, 1, 2, … } 3.2. Conjuntos especiales 3.2.1. Conjunto vacío El conjunto nulo o vacío es aquel conjunto que carece de elementos y se denota por el símbolo Φ. En probabilidad se conoce como el evento imposible. Φ = { } 3.2.2. Conjunto universo El conjunto universo o referencial es aquel conjunto que contiene la totalidad de los elementos que pueden existir o quedar caracterizados por una agrupación en particular y se denota por 𝑈. En probabilidad se conoce como el evento seguro. 3.3. Operaciones entre conjuntos 3.3.1. Unión de conjuntos La unión de dos conjuntos A y B, es un nuevo conjunto formado por todos los elementos de A o de B, y se denota de la siguiente manera: 𝐴 ∪ 𝐵 = { 𝑥/ 𝑥 ∈ 𝐴 ∨ 𝑥 ∈ 𝐵} 3.3.2. Intersección de conjuntos La intersección de dos conjuntos A y B, es un nuevo conjunto formado por los elementos comunes de A y de B, y se denota de la siguiente manera: 𝐴 ∩ 𝐵 = 𝐴𝐵 = { 𝑥/ 𝑥 ∈ 𝐴 ∧ 𝑥 ∈ 𝐵}
  • 4. Apuntes de Confiabilidad Estructural Ing. Albert Miranda 3.3.3. Complemento de un conjunto El complemento de un conjunto A, es el conjunto formado por los elementos del universo U, que no pertenecen a A, y se denota de la siguiente manera: 𝐴̅ = { 𝑥/ 𝑥 ∈ 𝑈 ∧ 𝑥 ∉ 𝐴} 3.3.4. Leyes de conjuntos Los conjuntos obedecen a relaciones especiales entre ellos conocidas como leyes de conjuntos. Entre las más importantes se tiene: - Leyes de idempotencia: 𝐴 ∪ 𝐴 = 𝐴 𝐴 ∩ 𝐴 = 𝐴 - Leyes conmutativas: 𝐴 ∪ 𝐵 = 𝐵 ∪ 𝐴 𝐴 ∩ 𝐵 = 𝐵 ∩ 𝐴 - Leyes asociativas: 𝐴 ∪ ( 𝐵 ∪ 𝐶) = ( 𝐴 ∪ 𝐵) ∪ 𝐶 𝐴 ∩ ( 𝐵 ∩ 𝐶) = ( 𝐴 ∩ 𝐵) ∩ 𝐶 - Leyes distributivas: 𝐴 ∩ ( 𝐵 ∪ 𝐶) = ( 𝐴 ∩ 𝐵) ∪ ( 𝐴 ∩ 𝐶) 𝐴 ∪ ( 𝐵 ∩ 𝐶) = ( 𝐴 ∪ 𝐵) ∩ ( 𝐴 ∪ 𝐶) - Leyes de absorción: 𝐴 ∪ 𝑈 = 𝑈 𝐴 ∩ Φ = Φ - Leyes de D’Morgan: 𝐴 ∪ 𝐵̅̅̅̅̅̅̅ = 𝐴̅ ∩ 𝐵̅ 𝐴 ∩ 𝐵̅̅̅̅̅̅̅ = 𝐴̅ ∪ 𝐵̅ - Leyes de complemento: 𝐴 ∪ 𝐴̅ = 𝑈 𝐴 ∩ 𝐴̅ = Φ 𝐴̿ = 𝐴 - Leyes de identidad: 𝐴 ∪ Φ = A 𝐴 ∩ 𝑈 = 𝐴 4. ELEMENTOS DE PROBABILIDAD 4.1. Experimento Aleatorio Un experimento puede dividirse en dos clases principales, experimentos determinísticos y experimentos aleatorios. Los determinísticos son aquellos en los que el resultado está completamente determinado y pueden describirse por una ecuación matemática, por ejemplo: ε1: medir la aceleración que experimenta un cuerpo de masa 𝐦, sometido a una fuerza 𝐅
  • 5. Apuntes de Confiabilidad Estructural Ing. Albert Miranda Por otro lado, en un experimento aleatorio los resultados no pueden predecirse con exactitud antes de realizar el experimento, por ejemplo: ε2: lanzar una moneda y observar la cara superior 4.2. Espacio de probabilidad Es un objeto matemático que consta de tres elementos: un espacio muestral, una colección de eventos definidos sobre ese espacio muestral, y una función de probabilidad que asigna probabilidades a cualquier evento. 4.2.1. Espacio muestral Es el conjunto de todos los resultados posibles de un experimento. Se conoce también como conjunto universo, y convencionalmente se denota por Ω. Ejemplo: - Un experimento consiste en lanzar una moneda al aire, con lo cual el espacio muestral lo conforman los dos únicos resultados posibles que son: Ω = { 𝑐𝑎𝑟𝑎, 𝑒𝑠𝑐𝑢𝑑𝑜} - Otro experimento consiste en lanzar un dado, y se tendrán seis posibles resultados, con lo que el espacio muestral quedaría definido de la siguiente manera: Ω = { 𝑢𝑛𝑜, 𝑑𝑜𝑠, 𝑡𝑟𝑒𝑠, 𝑐𝑢𝑎𝑡𝑟𝑜, 𝑐𝑖𝑛𝑐𝑜, 𝑠𝑒𝑖𝑠} 4.2.2. Evento Un evento es un subconjunto del espacio muestral, que puede contener uno o más elementos o resultados posibles del espacio muestral. Ejemplo: - En el experimento de lanzar un dado, se podrían generar los siguientes eventos: A = ”Que el número del dado sea menor a tres” B = ”Que el número del dado sea par” C = ”Que el número del dado sea un número primo” 𝐴 = {1, 2} 𝐵 = { 2, 4, 6} 𝐶 = { 2, 3, 5} Algunos eventos particulares se definen a continuación:
  • 6. Apuntes de Confiabilidad Estructural Ing. Albert Miranda - Evento seguro: Se define como evento seguro al evento que representa al espacio muestral y se denota por Ω. - Evento imposible: Se define como evento imposible al evento que representa al conjunto vacío y se denota por Φ. 4.3. Eventos mutuamente excluyentes y colectivamente exhaustivos: Dos o más eventos se consideran mutuamente excluyentes si la ocurrencia de uno de ellos anula la ocurrencia de los otros, es decir: ⋂ 𝐴𝑖 𝑛 𝑖=1 = Φ Por ejemplo, en el experimento de lazar un dado, los siguientes eventos se pueden considerar mutuamente excluyentes: A = ”Que el número del dado sea impar” B = ”Que el número del dado sea par” Los eventos A y B son claramente eventos mutuamente excluyentes porque si ocurre A, entonces no ocurre B. Dos o más eventos se consideran colectivamente exhaustivos si la unión de ellos es igual al espacio muestral, es decir: ⋃ 𝐴𝑖 𝑛 𝑖=1 = Ω Por ejemplo, cualquier evento 𝐴 y su complemento 𝐴̅ se pueden considerar eventos colectivamente exhaustivos, porque se cumple: 𝐴 ∪ 𝐴̅ = 𝑈 En confiabilidad estructural, el ejemplo más claro de eventos que cumplen con ser mutuamente excluyentes y además colectivamente exhaustivos son los resultados del experimento 𝜀 que consiste en someter una estructura a un determinado patrón de cargas y verificar si falla o no. En este experimento, los eventos 𝐴 = { 𝑙𝑎 𝑒𝑠𝑡𝑟𝑢𝑐𝑡𝑢𝑟𝑎 𝑓𝑎𝑙𝑙𝑎} y 𝐵 = { 𝑙𝑎 𝑒𝑠𝑡𝑟𝑢𝑐𝑡𝑢𝑟𝑎 𝑛𝑜 𝑓𝑎𝑙𝑙𝑎} son mutuamente excluyentes, porque si ocurre que la estructura falla, no puede ocurrir simultáneamente que la estructura no falla. Además, son colectivamente exhaustivos porque la unión de los dos eventos
  • 7. Apuntes de Confiabilidad Estructural Ing. Albert Miranda da como resultado el espacio muestral, ya que no hay otra posibilidad. Ω = { 𝑓𝑎𝑙𝑙𝑎, 𝑛𝑜 𝑓𝑎𝑙𝑙𝑎} 𝐴 ∪ 𝐵 = Ω 4.4. Definición de probabilidad La probabilidad es una medida de la certidumbre asociada a la ocurrencia de un evento, es decir, es la mayor o menor posibilidad de que ocurra un determinado evento. La probabilidad asignada a cualquier evento está entre un rango de 0 a 1, donde 0 representa la imposibilidad de ocurrencia del evento y 1 representa la certeza total de que ocurra el evento. 4.5. Axiomas de probabilidad La teoría de la probabilidad se rige bajo los siguientes 3 axiomas fundamentales: 1. La probabilidad de ocurrencia de cualquier evento debe estar mayor o igual a 0. 𝑃( 𝐴) ≥ 0 2. La probabilidad de ocurrencia del evento seguro o espacio muestral es 1. 𝑃(Ω) = 1 3. Si dos eventos 𝐴1 y 𝐴2 son mutuamente excluyentes, se cumple que: 𝑃( 𝐴1 ∪ 𝐴2) = 𝑃( 𝐴1) + 𝑃( 𝐴2) En confiablidad estructural a la probabilidad de que una estructura no falle se conoce como confiabilidad y se define de la siguiente manera: 𝑃( 𝑛𝑜 𝑓𝑎𝑙𝑙𝑎) + 𝑃( 𝑓𝑎𝑙𝑙𝑎) = 1 𝑅 + 𝑃𝑓 = 1 𝑅 = 1 − 𝑃𝑓 4.6. La regla de la adición De manera general, si dos eventos 𝐴1 y 𝐴2 no son mutuamente excluyentes, la regla de la adición o unión se define como: 𝑃( 𝐴1 ∪ 𝐴2) = 𝑃( 𝐴1) + 𝑃( 𝐴2) − 𝑃( 𝐴1 ∩ 𝐴2) 4.7. Probabilidad condicional
  • 8. Apuntes de Confiabilidad Estructural Ing. Albert Miranda En algunas ocasiones sucede que la probabilidad de un evento depende de la ocurrencia de otro evento, es decir que, si otro evento ocurre, entonces la probabilidad de que el primero ocurra se modifica. Si esta dependencia existe, se conoce como probabilidad condicional y se define de la siguiente manera: 𝑃( 𝐴| 𝐵) = 𝑃( 𝐴 ∩ 𝐵) 𝑃( 𝐵) 4.8. Independencia estadística Si la ocurrencia o no ocurrencia de un evento, no afecta la probabilidad de ocurrencia de otro evento, los dos eventos son estadísticamente independientes. Entonces, si dos eventos 𝐴 y 𝐵 son estadísticamente independientes, se cumple que: 𝑃( 𝐴| 𝐵) = 𝑃( 𝐴) 𝑃( 𝐵| 𝐴) = 𝑃( 𝐵) Se debe tener muy en cuenta que existe una gran diferencia entre ser eventos mutuamente excluyentes y estadísticamente independientes. Son conceptos totalmente diferentes, la independencia estadística entre dos eventos se refiere a la probabilidad de su ocurrencia conjunta, mientras que dos eventos mutuamente excluyentes no tienen posibilidad de ocurrir conjuntamente. 𝑃( 𝐴| 𝐵) = 0 4.9. La regla de la multiplicación La probabilidad conjunta de dos eventos 𝐴 y 𝐵 puede expresarse en función de la probabilidad condicional de la siguiente manera: 𝑃( 𝐴 ∩ 𝐵) = 𝑃( 𝐴| 𝐵) ∙ 𝑃( 𝐵) 𝑃( 𝐴 ∩ 𝐵) = 𝑃( 𝐵| 𝐴) ∙ 𝑃( 𝐴) A las expresiones anteriores se conoce como la regla de la multiplicación y si 𝐴 y 𝐵 son eventos estáticamente independientes, la regla se expresa como: 𝑃( 𝐴 ∩ 𝐵) = 𝑃( 𝐴) ∙ 𝑃( 𝐵) 4.10. Teorema de la probabilidad total En ocasiones, la probabilidad de un evento 𝐴 cualquiera, no se puede determinar de manera directa, dado que su ocurrencia depende de la ocurrencia o no ocurrencia de otros eventos,
  • 9. Apuntes de Confiabilidad Estructural Ing. Albert Miranda como 𝐵1, 𝐵2, … , 𝐵𝑛. Si se cumple que los eventos 𝐵𝑖 son mutuamente excluyentes y colectivamente exhaustivos, entonces, la probabilidad de un evento 𝐴 cualquiera puede escribirse de la siguiente manera: 𝑃( 𝐴) = 𝑃( 𝐴 ∩ 𝐵1) + 𝑃( 𝐴 ∩ 𝐵2) + ⋯ + 𝑃( 𝐴 ∩ 𝐵𝑛) Si le aplicamos la regla de la multiplicación, se tiene que: 𝑃( 𝐴) = 𝑃( 𝐴| 𝐵1) ∙ 𝑃( 𝐵1) + 𝑃( 𝐴| 𝐵2) ∙ 𝑃( 𝐵2) + ⋯ + 𝑃( 𝐴| 𝐵𝑛) ∙ 𝑃( 𝐵𝑛) 𝑃( 𝐴) = ∑ 𝑃( 𝐴| 𝐵𝑖) ∙ 𝑃( 𝐵𝑖) 𝑛 𝑖=1 4.11. Teorema de Bayes En la derivación del teorema de probabilidad total, la probabilidad de cualquier evento 𝐴 depende de cuál de los eventos condicionantes 𝐵1, 𝐵2, … , 𝐵𝑛, ha ocurrido. Por otro lado, si interesa conocer la probabilidad de cualquier evento particular 𝐵𝑖 dada la ocurrencia de 𝐴, sería el caso inverso al problema planteado en el teorema de la probabilidad total, y se conoce como teorema de Bayes: 𝑃( 𝐵𝑖| 𝐴) = 𝑃( 𝐴| 𝐵𝑖) ∙ 𝑃( 𝐵𝑖) 𝑃( 𝐴) 𝑃( 𝐵𝑖| 𝐴) = 𝑃( 𝐴| 𝐵𝑖) ∙ 𝑃( 𝐵𝑖) ∑ 𝑃( 𝐴| 𝐵𝑖) ∙ 𝑃( 𝐵𝑖)𝑛 𝑖=1 5. VARIABLE ALEATORIA Una variable aleatoria es una función de mapeo que asocia a los eventos posibles dentro de un espacio muestral con un sistema de números reales, en otras palabras, es un objeto matemático para representar un evento en una forma numérica analítica. A diferencia de una variable determinística que asume un valor definitivo, el valor de una variable aleatoria puede solamente definirse sobre un rango de valores posibles. En ingeniería, muchos fenómenos aleatorios de interés quedan asociados a resultados numéricos de ciertas cantidades físicas (“El caudal que pasa por una determinada sección de un río”), sin embargo, existen otros que no están definidos de manera numérica (“la falla o supervivencia de un eslabón de una cadena que soporta carga”), en cualquier caso, gracias al concepto de variable aleatoria se puede asignar de manera
  • 10. Apuntes de Confiabilidad Estructural Ing. Albert Miranda artificial valores numéricos a los eventos en cuestión (“0 para la falla y 1 para la supervivencia”). En conclusión, los posibles resultados de un fenómeno aleatorio pueden ser representados por valores numéricos, ya sea de manera natural o artificial. En cualquier caso, un resultado o evento puede ser identificado por un valor o un rango de valores de una función, que es llamada variable aleatoria. Por convención, las variables aleatorias se representan mediante letras mayúsculas, mientras que sus posibles valores con letras minúsculas. Un valor o un rango de valores de una variable aleatoria representa un evento en particular. 5.1. Clasificación de variables aleatorias 5.1.1. Variable aleatoria discreta Una variable aleatoria es discreta cuando puede tomar un número finito de valores, o un número infinito de valores contables o numerables. 5.1.2. Variable aleatoria continua Una variable aleatoria es continua cuando puede tomar cualquier valor en un intervalo de la rectar numérica. 5.2. Distribución de probabilidad de una variable aleatoria Un variable aleatoria es una variable cuyo valor no se conoce con certeza, sin embargo, no estamos completamente en la penumbra porque, aunque no conocemos el valor que va a tomar, si conocemos los valores que puede tomar, y conocemos además las probabilidades de que asuma estos valores. La medida de probabilidad que se asocia a una variable aleatoria se denomina distribución de probabilidad o leyes de probabilidad. Para una variable aleatoria discreta 𝑋, la función de distribución de probabilidad describe la probabilidad de que la variable tome un valor 𝑥 en particular: 𝑃𝑋( 𝑥) = 𝑃( 𝑋 = 𝑥) Además de esto, existe la función de distribución acumulada que describe la probabilidad de que 𝑋 tome valores menores o iguales a un valor 𝑥 en particular: 𝐹𝑋( 𝑥) = 𝑃( 𝑋 ≤ 𝑥) = ∑ 𝑃( 𝑋 = 𝑥𝑖) 𝑥𝑖≤𝑥
  • 11. Apuntes de Confiabilidad Estructural Ing. Albert Miranda Para una variable aleatoria continua 𝑋, la función de distribución de probabilidad se conoce como función de densidad de probabilidad, y describe la probabilidad de que 𝑋 tome valores menores en un intervalo ( 𝑎, 𝑏]: 𝑃( 𝑎 < 𝑋 ≤ 𝑏) = ∫ 𝑓𝑋( 𝑥) 𝑑𝑥 𝑏 𝑎 Y su correspondiente función de distribución de probabilidad acumulada se define como: 𝐹𝑋( 𝑥) = 𝑃( 𝑋 ≤ 𝑥) = ∫ 𝑓𝑋( 𝜏) 𝑑𝜏 𝑥 −∞ De acuerdo con esto, si 𝐹𝑋( 𝑥) tiene una primera derivada, entonces se demuestra que: 𝑓𝑋( 𝑥) = 𝑑𝐹𝑋( 𝑥) 𝑑𝑥 Se debe enfatizar que cualquier función utilizada para representar la distribución de probabilidad de una variable aleatoria, debe necesariamente satisfacer los axiomas de la teoría de la probabilidad. De acuerdo con los axiomas, una función de distribución acumulada debe satisfacer las siguientes condiciones: - 𝐹𝑋(−∞) = 0; y 𝐹𝑋(∞) = 1 - 𝐹𝑋( 𝑥) ≥ 0, para todos los valores de 𝑥 y es no decreciente - 𝐹𝑋( 𝑥) es continua a la derecha con 𝑥 5.3. Principales parámetros de una variable aleatoria Una variable aleatoria puede quedar completamente descrita si se conoce su función de distribución de probabilidad (función de densidad de probabilidad caso continuo) o su función de distribución acumulada, y si sus parámetros asociados son especificados. En la práctica, las funciones de distribución de probabilidad pueden no ser conocidas, en tal caso una descripción aproximada de sus principales descriptores puede ser útil. Los principales parámetros de describen a continuación. 5.3.1. Valor esperado o esperanza matemática Es un promedio pesado asociado a las diferentes probabilidades de los posibles valores que puede tomar la variable aleatoria. Para el caso discreto se define como:
  • 12. Apuntes de Confiabilidad Estructural Ing. Albert Miranda 𝐸( 𝑋) = ∑ 𝑥𝑖 𝑃𝑋( 𝑥𝑖) 𝑛 𝑖=1 Para el caso continuo: 𝐸( 𝑋) = ∫ 𝑥𝑓𝑋( 𝑥) 𝑑𝑥 ∞ −∞ 5.3.2. Varianza Es una medida de dispersión que indica cuan dispersos están los valores de la medida de tendencia central. Para el caso discreto se define como: 𝑣𝑎𝑟( 𝑋) = ∑(𝑥𝑖 − 𝜇 𝑋)2 𝑃𝑋( 𝑥𝑖) 𝑛 𝑖=1 Para el caso continuo: 𝑣𝑎𝑟( 𝑋) = ∫ ( 𝑥 − 𝜇 𝑋)2 𝑓𝑋( 𝑥) 𝑑𝑥 ∞ −∞ 𝑣𝑎𝑟( 𝑋) = 𝐸( 𝑋2) − 𝜇 𝑋 2 5.3.3. Desviación estándar 𝜎 𝑋 = √𝑣𝑎𝑟(𝑋) 5.3.4. Coeficiente de variación 𝛿 𝑋 = 𝜎 𝑋 𝜇 𝑋 5.4. Distribuciones de probabilidad útiles
  • 13. Apuntes de Confiabilidad Estructural Ing. Albert Miranda Método de confiabilidad FORM 𝑃𝑓 = 𝑃( 𝑅 ≤ 𝑆) 𝑃𝑓 = 𝑃( 𝑅 − 𝑆 ≤ 0) 𝑀 = 𝑅 − 𝑆 𝑃𝑓 = 𝑃( 𝑀 ≤ 0) = ∫ 𝑓 𝑀( 𝑚) 0 −∞ 𝑑𝑚 𝑃𝑓 = ∬ 𝑓𝑅𝑆( 𝑟, 𝑠) 𝑆>𝑅 𝑑𝑟𝑑𝑠 𝑃𝑓 = ∫ ∫ 𝑓𝑅𝑆( 𝑟, 𝑠) 𝑠 0 ∞ 0 𝑑𝑟𝑑𝑠 𝑓𝑅𝑆( 𝑟, 𝑠) = 𝑓𝑅( 𝑟) 𝑓𝑆( 𝑠) 𝑃𝑓 = ∫ 𝑓𝑆( 𝑠) [∫ 𝑓𝑅( 𝑟) 𝑠 0 𝑑𝑟] ∞ 0 𝑑𝑠 Pero: 𝐹𝑅( 𝑠) = ∫ 𝑓𝑅( 𝑟) 𝑠 0 𝑑𝑟
  • 14. Apuntes de Confiabilidad Estructural Ing. Albert Miranda 𝑃𝑓 = ∫ 𝐹𝑅( 𝑠) 𝑓𝑆( 𝑠) ∞ 0 𝑑𝑠 Los métodos de nivel II tratan de encontrar una medida de la seguridad, directamente relacionada con la probabilidad de fallo, y que, sin embargo, no implique necesariamente la determinación de la misma mediante la integración de la función de densidad conjunta de las variables aleatorias involucradas. En terminología usual, esta medida se llama índice 𝛽. Si se tienen las siguientes condiciones: - La función de estado límite (margen de seguridad) es lineal - Las variables aleatorias son independientes - Las variables aleatorias se distribuyen normalmente El índice 𝛽 de Cornel se define como: 𝛽 = 𝜇 𝑀 𝜎 𝑀 Gráficamente el índice de confiabilidad 𝛽, representa el número de desviaciones estándar que separan el valor medio del origen, esto significa que cuanto más lejos esté el valor medio del origen, menor será la probabilidad de fallo del sistema. 𝛽 = 𝜇 𝑀 𝜎 𝑀 = 𝜇 𝑅 − 𝜇 𝑆 √𝜎 𝑅 2 + 𝜎𝑆 2
  • 15. Apuntes de Confiabilidad Estructural Ing. Albert Miranda La relación entre la probabilidad de falla de un sistema y el índice de confiabilidad 𝛽 está dado por: 𝑅 = Φ( 𝛽) 𝑃𝑓 = 1 − 𝑅 = 1 − Φ( 𝛽) 𝛽 = −Φ(𝑃𝑓)