Se ha denunciado esta presentación.
Se está descargando tu SlideShare. ×
Anuncio
Anuncio
Anuncio
Anuncio
Anuncio
Anuncio
Anuncio
Anuncio
Anuncio
Anuncio
Anuncio
Anuncio
Próximo SlideShare
Tipos de graficos de control
Tipos de graficos de control
Cargando en…3
×

Eche un vistazo a continuación

1 de 25 Anuncio

Más Contenido Relacionado

Similares a Clase 12.pptx (20)

Más reciente (20)

Anuncio

Clase 12.pptx

  1. 1. MODELOS DE REGRESION Ing. Jonathan Felix Guarachi Solano MsC. PhD.
  2. 2. Análisis del sistema de Medición (MSA) Objetivo • Medir el nivel actual de exactitud del sistema de medición • Saber si una medición es repetitiva y reproducible Aplicaciones • Identificar errores de medición • Mejorar SOP (Proceso de operación)
  3. 3. Análisis del sistema de medición (MSA)  MSA es un procedimiento matemático para cuantificar la variación inducida en un proceso o producto por medio del acto de medir.  Cualquier acto de medición tiene que contar con un procedimiento para garantizar la repetición y reproducción. Procedimiento Equipo Referencia Operador
  4. 4. Operadores x N° piezas x Repeticiones (>= 2x) (>=5x) (>=2x) >=30
  5. 5. Ejemplo de Gráfica Xbarra-R Un ingeniero especializado en calidad que trabaja en una planta de partes automotrices monitorea la longitud de los árboles de levas. Tres máquinas producen los árboles de levas en tres turnos cada día. El ingeniero mide cinco árboles de levas de cada máquina durante cada turno. El ingeniero crea una gráfica Xbarra-R para cada máquina para monitorear la longitud de los árboles de levas. 1.Abra los datos de muestra, LongÁrbolLevas.MTW. 2.Elija Estadísticas > Gráficas de control > Gráficas de variables para subgrupos > Xbarra-R. 3.En la lista desplegable, seleccione Todas las observaciones para una gráfica están en una columna e ingrese Máquina 1 Máquina 2 Máquina 3. 4.En Tamaños de los subgrupos, ingrese ID subgrupo. 5.Haga clic en Opciones de Xbarra-R. 6.En la ficha Pruebas, seleccione 1 punto > K desviaciones estándar desde la línea central (Prueba 1), K puntos consecutivos en el mismo lado de la línea central (Prueba 2) y K puntos consecutivos dentro de 1 desviación estándar de la línea central (cualquier lado) (Prueba 7). Si no está seguro de qué pruebas se aplican en su situación específica, utilice las pruebas 1, 2 y 7 cuando establezca por primera vez los límites de control con base en los datos. Después de establecer los límites de control, puede usar los los valores conocidos de esos límites y la prueba 7 ya no es necesaria.
  6. 6. Interpretar los resultados  Minitab crea tres gráficas Xbarra-R, una gráfica para cada máquina. El ingeniero examina la gráfica R primero, porque si la gráfica R muestra que la variación del proceso no está bajo control, entonces los límites de control en la gráfica Xbarra son inexactos.  Las gráficas R para las tres máquinas muestran que la variación del proceso está bajo control. Ningún punto está fuera de control y todos los puntos se encuentran dentro de los límites de control en un patrón aleatorio.  Las gráficas Xbarra muestran que la máquina 2 está bajo control, pero las máquinas 1 y 3 no lo están. En la gráfica Xbarra de la máquina 2, ningún punto está fuera de control. Sin embargo, la máquina 1 tiene un punto fuera de control y la máquina 3 tiene dos puntos fuera de control.
  7. 7. 19 17 15 13 11 9 7 5 3 1 602 601 600 599 598 Muestra Media de la muestra _ _ X=600.072 LCS=601.641 LCI=598.503 19 17 15 13 11 9 7 5 3 1 6.0 4.5 3.0 1.5 0.0 Muestra Rango de la muestra _ R=2.72 LCS=5.751 LCI=0 1 Gráfica Xbarra-R de Máquina 1
  8. 8. 19 17 15 13 11 9 7 5 3 1 600.5 600.0 599.5 599.0 Muestra Media de la muestra _ _ X=599.548 LCS=600.332 LCI=598.764 19 17 15 13 11 9 7 5 3 1 3 2 1 0 Muestra Rango de la muestra _ R=1.36 LCS=2.876 LCI=0 Gráfica Xbarra-R de Máquina 2
  9. 9. 19 17 15 13 11 9 7 5 3 1 602 600 598 Muestra Media de la muestra _ _ X=600.23 LCS=602.376 LCI=598.084 19 17 15 13 11 9 7 5 3 1 8 6 4 2 0 Muestra Rango de la muestra _ R=3.72 LCS=7.866 LCI=0 1 1 Gráfica Xbarra-R de Máquina 3
  10. 10. Estabilidad y Sesgo El sesgo y la linealidad evalúan la exactitud de un sistema de medición. Sesgo El sesgo examina la diferencia entre la medición promedio observada y un valor de referencia. El sesgo indica cuál es la exactitud del sistema de medición cuando se compara con un valor de referencia. Linealidad La linealidad examina qué tan exactas son las mediciones en todo el rango esperado de mediciones. La linealidad indica si el sistema de medición tiene la misma exactitud para todos los valores de referencia.
  11. 11. Ejemplo de exactitud de un sistema de medición con sesgo y linealidad  Un fabricante desea saber si un termómetro indica mediciones exactas y consistentes para cinco configuraciones de temperatura: 202°, 204°, 206°, 208° y 210°. Se toman seis lecturas en cada configuración. Para determinar si el termómetro presenta sesgo, reste las lecturas individuales al valor de referencia. Los valores del sesgo para las mediciones tomadas en la configuración de calor 202° se calculan en la siguiente tabla. Medición Real Sesgo 202.7 202 0.7 202.5 202 0.5 203.2 202 1.2 203.0 202 1.0 203.1 202 1.1 203.3 202 1.3
  12. 12.  Las lecturas de temperatura para la configuración a 202° tienen un sesgo positivo. El termómetro indica lecturas más altas que la temperatura real.  Para interpretar la linealidad de los datos del termómetro, determine si el sesgo del termómetro cambia para las diferentes configuraciones de calor. Si los datos no forman una línea horizontal en una gráfica de dispersión, existe linealidad. La gráfica de dispersión muestra que el sesgo cambia a medida que aumenta la configuración de calor. Las temperaturas de las configuraciones de calor más bajas son más altas que las temperaturas reales, mientras que las lecturas de las configuraciones de calor más elevadas son más bajas que las temperaturas reales. El sesgo cambia con las diferentes configuraciones de calor, lo que significa que existe linealidad en estos datos.
  13. 13. Ejemplo de Estudio de linealidad y sesgo del sistema de medición Un ingeniero desea evaluar la linealidad y el sesgo de un sistema de medición que se utiliza para medir diámetros internos de rodamientos. El ingeniero selecciona cinco partes que representan el rango esperado de mediciones. Cada parte se midió utilizando inspección total para determinar su medición de referencia y luego un operador midió cada parte de forma aleatoria 12 veces. El ingeniero realizó previamente un estudio R&R cruzado del sistema de medición, utilizando el método ANOVA, y determinó que la variación total del estudio es 16.5368. 1.Abra los datos de muestra, DiámRodamientos.MTW. 2.Elija Estadísticas > Herramientas de calidad > Estudio del sistema de medición > Estudio de linealidad y sesgo del sistema de medición. 3.En Números de partes, ingrese Parte. 4.En Valores de referencia, ingrese Referencia. 5.En Datos de medición, ingrese Respuesta. 6.En Variación del proceso, ingrese 16.5368. 7.Haga clic en Aceptar.
  14. 14. Interpretar los resultados  El %Linealidad (valor absoluto de la pendiente * 100) es 13.2, lo que indica que la linealidad del sistema de medición explica el 13% de la variación general del proceso. El valor p de la pendiente es 0.000, lo que indica que la pendiente es significativa y que existe linealidad en el sistema de medición.  Puesto que la linealidad es significativa, el ingeniero debe utilizar los valores individuales de sesgo y no el valor promedio de sesgo general. Los valores individuales de sesgo varían de 0.2 a 3.7, mientras que sus valores p varían de 0.000 a 0.688. Los valores de referencia 2, 8 y 10 presentan sesgo. Los valores de 4 y 6 no tienen
  15. 15. Máxima Verosimilitud Estadísticas > Confiabilidad/supervivencia > Análisis de distribución (censura por la derecha) > Análisis de distribución paramétrica > Estimar Método de estimación • Máxima verosimilitud: Estime los parámetros de la distribución maximizando la función de probabilidad. • Mínimos cuadrados (tiempo de falla(X) en el rango(Y)): Estime los parámetros de la distribución ajustando una línea de regresión a los puntos de una gráfica de probabilidad.
  16. 16. parámetros poblacionales de una muestra aleatoria son el método de estimación de máxima verosimilitud (predeterminado) y el método de estimación de mínimos cuadrados. Método de la estimación de máxima verosimilitud (MLE) La función de verosimilitud indica la probabilidad de que una muestra observada dependa de los posibles valores de los parámetros. Por lo tanto, cuando se maximiza la función de verosimilitud se determina los parámetros que tienen mayor probabilidad de producir los datos observados. Desde un punto de vista estadístico, la MLE por lo general se recomienda para muestras grandes debido a que es versátil, se puede aplicar a la mayoría de los modelos y a diferentes tipos de datos y produce las estimaciones más precisas. Método de estimación de mínimos cuadrados (LSE) Las estimaciones de los mínimos cuadrados se calculan mediante el ajuste de una línea de regresión a los puntos de un conjunto de datos que tiene la suma mínima de las desviaciones elevada al cuadrado (error de mínimos cuadrados). En el análisis de fiabilidad, la línea y los datos se representan en una gráfica de probabilidad.
  17. 17. Para los conjuntos de datos grandes y completos, tanto el método LSE como el método MLE ofrecen resultados consistentes. En aplicaciones de fiabilidad, los conjuntos de datos suelen ser pequeños o de tamaño moderado. Muchos estudios de simulación han revelado que en diseños de muestras pequeñas donde se producen pocas fallas, el método MLE es mejor que el método LSE.1 Por lo tanto, el método de estimación predeterminado en Minitab es el MLE. Las ventajas del método MLE sobre el método LSE son las siguientes: Las estimaciones de los parámetros de distribución son más precisas. La varianza estimada es más pequeña. Se pueden calcular intervalos de intervalos confianza y pruebas para parámetros del modelo. Los cálculos utilizan mayor cantidad de la información que contienen los datos.
  18. 18. Por lo general, las ventajas del método MLE superan a las ventajas del método LSE. El método LSE es más fácil de calcular a mano y más fácil de programar. El método LSE también está tradicionalmente asociado con el uso de las gráficas de probabilidad para evaluar la bondad de ajuste. Sin embargo, el método LSE puede proporcionar resultados engañosos en una gráfica de probabilidad. Existen ejemplos donde los puntos de una gráfica de probabilidad de Weibull que utiliza el método LSE se sitúan lo largo de una línea cuando en realidad el modelo de Weibull es inapropiado. 1. Genschel, U. y Meeker, W.Q. (2010). A Comparison of Maximum Likelihood and Median-Rank Regression for Weibull Estimation. Quality Engineering, 22(4): 236–255.
  19. 19.  Las estimaciones de máxima verosimilitud de los parámetros se calculan maximizando la función de verosimilitud con respecto a los parámetros. La función de verosimilitud describe, para cada conjunto de parámetros de distribución, las probabilidades de que la distribución verdadera tenga esos parámetros basados en los datos de la muestra.  Minitab utiliza el algoritmo de Newton-Raphson1 para calcular las estimaciones de máxima verosimilitud de los parámetros que definen la distribución. El algoritmo de Newton-Raphson es un método recursivo para calcular el máximo de una función. Todas las funciones resultantes, tales como los percentiles y las probabilidades de supervivencia, se calculan a partir de esa distribución.  NOTA  Para algunos datos, la función de verosimilitud no tiene bordes y, por lo tanto, genera estimaciones poco uniformes para distribuciones con un parámetro umbral (como las distribuciones exponencial de 2 parámetros, Weibull de 3 parámetros, lognormal de 3 parámetros y loglogística de 3 parámetros). En estos casos, el método usual de estimación de máxima verosimilitud pudiera fracasar. Cuando esto sucede, Minitab presupone un parámetro de valor umbral fijo utilizando un algoritmo de corrección de sesgo y halla las estimaciones de máxima verosimilitud de los otros dos parámetros. Para obtener más información, vea las referencias 2, 3, 4 y 5.  W. Murray, Ed. (1972). Numerical Methods for Unconstrained Optimization, Academic Press.  F. Giesbrecht y A.H. Kempthorne (1966). "Maximum Likelihood Estimation in the Three- parameter Lognormal Distribution", Journal of the Royal Statistical Society, B 38, 257-264.  H.L. Harter y A.H. Moore (1966). "Local Maximum Likelihood Estimation of the Parameters of the Three-parameter Lognormal Populations from Completed and Censored Samples", Journal of the American Statistical Association, 61, 842-851.  R.A. Lockhart y M.A. Stephens (1994). "Estimation and Tests of Fit for the Three-parameter
  20. 20. Las estimaciones de los mínimos cuadrados se calculan mediante el ajuste de una línea de regresión a los puntos en una gráfica de probabilidad de un conjunto de datos que tiene la suma mínima de las desviaciones elevada al cuadrado (error de mínimos cuadrados). La línea se forma haciendo una regresión del tiempo para fallar o del logaritmo del tiempo para fallar (X) al porcentaje transformado (Y). https://support.minitab.com/
  21. 21. Según Searle (1995), el método de máxima verosimilitud fue desarrollado por Fisher en el año 1920, parece haber sido aplicado primero para la estimación de componentes de varianza. En este y en casi todas las presentaciones posteriores de este tema, la normalidad se asume para los términos del error y todos los efectos aleatorios, la normalidad con media cero, varianza homogénea de todos los efectos aleatorios relacionados con cada factor, y todas las covarianzas cero. Wackerly et al. (2002), plantean que el método de máxima verosimilitud, elige como estimaciones los valores de los parámetros que maximizan la verosimilitud (función de probabilidad conjunta o la función de densidad conjunta) de la muestra observada. Estos estimadores son consistentes y si se les ajusta para que sean insesgados, a menudo proporcionan estimadores insesgados de varianza mínima. Como estos estimadores poseen buenas propiedades,
  22. 22. Sean las variables aleatorias 𝑥1,𝑥2,…,𝑥𝑛 las cuales constituyen una muestra aleatoria de una distribución discreta o continua, cuya función de probabilidad o función de densidad de probabilidad es 𝑓(𝑿/θ), donde el parámetro θ pertenece a un espacio paramétrico Ω. Así mismo, θ puede ser un parámetro real o un vector de parámetros. Si para cualquier vector observado 𝑥=(𝑥1,𝑥2,…,𝑥𝑛) de la muestra, se define la función de probabilidad, 𝐿 𝑥1, 𝑥2, … , 𝑥𝑛: θ = 𝑓 𝑥1, θ × 𝑓 𝑥2, θ × ⋯ × 𝑓(𝑥𝑛, θ) entonces el estimador Máxima Verosimilitud de θ, denotado por 𝜃 , basado en la muestra aleatoria 𝑥=(𝑥1,𝑥2,…,𝑥𝑛) es el valor de θ que maximiza a 𝐿(𝑥1,𝑥2,…,𝑥𝑛:𝜽), donde 𝐿(𝑥1,𝑥2,…,𝑥𝑛:𝜽 ) se le denomina “Función de Verosimilitud”.
  23. 23. Los estimadores de máxima verosimilitud de θ y de V (G y R), según Medina (2007), son obtenidos mediante la maximización de la función normal de verosimilitud 𝑙 𝜃 = 𝑙 𝐺𝑦𝑅 = − 1 2 𝑙𝑛 𝑉 − 𝑁 2 𝑙𝑛 𝑒𝑡𝑉−1𝑒 − 𝑁 2 1 + ln 2𝜋 𝑁 donde: 𝑒̂=𝒀−[𝑿(𝑿𝒕𝑽−𝟏𝑿)−𝟏](𝑿𝒕𝑽−𝟏𝒀) con respecto a estos parámetros.

×