Este documento presenta un módulo sobre medición en puntos de control y transferencia. El módulo contiene 5 unidades: introducción a la medición de petróleo, medición de gas natural, relaciones de volumen, masa y energía, y la norma ISO 10.012. Además, se incluye una introducción al vocabulario internacional de metrología con definiciones de términos clave como medición, metrología, resultado de medida, exactitud, precisión, error, calibración e incertidumbre.
1) El documento discute los conceptos de incertidumbre, error, precisión y exactitud asociados con la calidad espacial de los datos geográficos. 2) La incertidumbre de medida es un parámetro que caracteriza la dispersión de los valores que podrían atribuirse a un dato geográfico y debería acompañar a todo dato capturado. 3) Existen normas internacionales como la GUM que establecen un enfoque unificado para evaluar la incertidumbre de medida de forma rigurosa, reemplaz
Este documento resume los conceptos clave relacionados con la incertidumbre de la medición. Explica que la incertidumbre es un rango de valores razonables que podrían atribuirse al valor real medido, a diferencia del error que es la diferencia entre el valor medido y el valor real. Detalla los pasos para evaluar la incertidumbre, incluyendo identificar las fuentes de incertidumbre, calcular las componentes de incertidumbre tipo A y B, determinar la incertidumbre combinada usando la ley de propagación de incert
Este documento presenta definiciones y términos básicos de metrología dimensional de acuerdo con el Vocabulario Internacional de Metrología (VIM). Explica el Sistema Internacional de Unidades, la conversión de unidades, y ofrece recomendaciones para el manejo de instrumentos de longitud como el pie de rey, micrómetro y comparador de caratula.
1. El documento describe los pasos para determinar las incertidumbres en la medición. 2. Existen muchas posibles fuentes de incertidumbre como la definición imperfecta del objeto medido o la resolución del instrumento. 3. La guía GUM establece reglas para evaluar y expresar la incertidumbre, clasificando las componentes en tipo A (análisis estadístico de datos) y tipo B (otros métodos).
El documento presenta conceptos básicos sobre mediciones y sistemas de medición. Explica que los errores de medición influyen en la capacidad de los procesos y define términos como precisión, exactitud, error absoluto e incertidumbre. Además, describe los componentes del proceso de medición como personas, métodos, equipos y ambiente, e introduce la relación entre la precisión de un sistema de medición y la tolerancia especificada.
1) Los instrumentos de medición requieren calibración para establecer la relación entre la magnitud medida y la indicación en la escala, y toda medición debe expresarse como un intervalo que representa la incertidumbre. 2) Las mediciones se ven afectadas por incertidumbres sistemáticas, como errores de calibración, y aleatorias debidas a fluctuaciones; ambos tipos deben cuantificarse. 3) La resolución de un instrumento y el error de observación contribuyen a la incertidumbre total asociada a una medición.
El documento presenta información sobre la incertidumbre de medición. Define la incertidumbre y explica que incluye componentes tipo A (desviación estándar) y tipo B (especificaciones de instrumentos, valores previos, etc.). También describe los requisitos de la norma ISO/IEC 17025 para estimar la incertidumbre y los criterios de acreditación de laboratorios. Finalmente, explica el proceso para calcular la incertidumbre combinada de una medición en un laboratorio.
Este documento define los tipos de errores que ocurren en las mediciones y cómo estimarlos. Define errores sistemáticos y aleatorios, y cómo corregir errores sistemáticos. También explica cómo calcular el valor promedio, desviación estándar y límites de confianza para estimar errores aleatorios en una serie de mediciones. El objetivo es proporcionar una guía para la consideración de errores en instrumentos de medición y la estimación de errores en valores individuales medidos.
1) El documento discute los conceptos de incertidumbre, error, precisión y exactitud asociados con la calidad espacial de los datos geográficos. 2) La incertidumbre de medida es un parámetro que caracteriza la dispersión de los valores que podrían atribuirse a un dato geográfico y debería acompañar a todo dato capturado. 3) Existen normas internacionales como la GUM que establecen un enfoque unificado para evaluar la incertidumbre de medida de forma rigurosa, reemplaz
Este documento resume los conceptos clave relacionados con la incertidumbre de la medición. Explica que la incertidumbre es un rango de valores razonables que podrían atribuirse al valor real medido, a diferencia del error que es la diferencia entre el valor medido y el valor real. Detalla los pasos para evaluar la incertidumbre, incluyendo identificar las fuentes de incertidumbre, calcular las componentes de incertidumbre tipo A y B, determinar la incertidumbre combinada usando la ley de propagación de incert
Este documento presenta definiciones y términos básicos de metrología dimensional de acuerdo con el Vocabulario Internacional de Metrología (VIM). Explica el Sistema Internacional de Unidades, la conversión de unidades, y ofrece recomendaciones para el manejo de instrumentos de longitud como el pie de rey, micrómetro y comparador de caratula.
1. El documento describe los pasos para determinar las incertidumbres en la medición. 2. Existen muchas posibles fuentes de incertidumbre como la definición imperfecta del objeto medido o la resolución del instrumento. 3. La guía GUM establece reglas para evaluar y expresar la incertidumbre, clasificando las componentes en tipo A (análisis estadístico de datos) y tipo B (otros métodos).
El documento presenta conceptos básicos sobre mediciones y sistemas de medición. Explica que los errores de medición influyen en la capacidad de los procesos y define términos como precisión, exactitud, error absoluto e incertidumbre. Además, describe los componentes del proceso de medición como personas, métodos, equipos y ambiente, e introduce la relación entre la precisión de un sistema de medición y la tolerancia especificada.
1) Los instrumentos de medición requieren calibración para establecer la relación entre la magnitud medida y la indicación en la escala, y toda medición debe expresarse como un intervalo que representa la incertidumbre. 2) Las mediciones se ven afectadas por incertidumbres sistemáticas, como errores de calibración, y aleatorias debidas a fluctuaciones; ambos tipos deben cuantificarse. 3) La resolución de un instrumento y el error de observación contribuyen a la incertidumbre total asociada a una medición.
El documento presenta información sobre la incertidumbre de medición. Define la incertidumbre y explica que incluye componentes tipo A (desviación estándar) y tipo B (especificaciones de instrumentos, valores previos, etc.). También describe los requisitos de la norma ISO/IEC 17025 para estimar la incertidumbre y los criterios de acreditación de laboratorios. Finalmente, explica el proceso para calcular la incertidumbre combinada de una medición en un laboratorio.
Este documento define los tipos de errores que ocurren en las mediciones y cómo estimarlos. Define errores sistemáticos y aleatorios, y cómo corregir errores sistemáticos. También explica cómo calcular el valor promedio, desviación estándar y límites de confianza para estimar errores aleatorios en una serie de mediciones. El objetivo es proporcionar una guía para la consideración de errores en instrumentos de medición y la estimación de errores en valores individuales medidos.
El documento presenta información sobre la incertidumbre de medición. Define la incertidumbre y explica que incluye componentes tipo A y tipo B. También discute los requisitos de la norma ISO/IEC 17025 para la estimación de la incertidumbre y el criterio de la DTA. Luego, describe alternativas para la estimación de la incertidumbre y los pasos para realizar el cálculo de la incertidumbre combinada.
como establecer los periodos de calibraciónerik4944
Este documento describe cómo establecer períodos de calibración para equipos de medición de acuerdo con normas. Explica conceptos como calibración, verificación, exactitud y precisión. También presenta cuatro métodos principales para determinar los períodos de calibración basados en el tiempo calendario, tiempo de uso, pruebas o enfoques estadísticos. Además, ofrece ejemplos de cómo calcular la deriva instrumental y determinar los límites de tolerancia para verificar si un equipo requiere recalibración.
Este documento presenta la teoría y conceptos fundamentales sobre errores en mediciones físicas que serán aplicados en un laboratorio. Los objetivos son aplicar la teoría de errores para calcular la incertidumbre en mediciones directas e indirectas, usar técnicas de redondeo en cálculos y estimar errores absolutos y relativos. Se explican conceptos como precisión, exactitud, errores sistemáticos y de escala. El documento también describe los materiales y conocimientos previos necesarios para la práctica de laboratorio.
Este documento trata sobre la teoría de errores. Explica que una medición nunca puede determinar el valor exacto de una magnitud, sino sólo un valor aproximado debido a limitaciones en los instrumentos de medición y factores como la precisión humana. Identifica dos tipos de errores: sistemáticos, causados por imperfecciones en los métodos de medición, y estadísticos, que ocurren al azar. El objetivo de la teoría de errores es determinar el valor más probable de una magnitud y cuantificar la incertidumbre de una medición.
El documento trata sobre la metrología y el proceso de medición con precisión. Explica los conceptos clave de la medición como la incertidumbre, los patrones, la calibración del instrumento y el cálculo de la incertidumbre. Además, provee ejemplos prácticos de cómo llevar a cabo la calibración de un instrumento y luego realizar mediciones sobre una pieza usando la información de la calibración.
Este documento presenta una guía para estimar la incertidumbre de la medición de acuerdo con la GUM. Explica los conceptos de mensurando, modelo físico, modelo matemático, identificación de fuentes de incertidumbre y métodos para cuantificarlas. Fue desarrollado por el Centro Nacional de Metrología de México para estandarizar el cálculo de incertidumbres entre los metrólogos.
Este documento proporciona una guía sobre cómo realizar mediciones en el laboratorio y expresar los resultados de manera adecuada. Explica los conceptos de error, incertidumbre y cómo estimarla y combinarla cuando se realizan varias mediciones o cálculos. Recomienda expresar los resultados como el valor medido más o menos la incertidumbre combinada redondeada a la cifra significativa adecuada. También incluye ejemplos y ejercicios para que los estudiantes apliquen estos conceptos.
El documento habla sobre la metrología. Explica que la metrología se refiere a la medición y las unidades de medida. Describe los diferentes tipos de mediciones como la medición lineal, por volumen, por superficie, entre otras. También define conceptos como principios de medición, procedimientos de medición, trazabilidad metrológica e incertidumbre de medición. Finalmente, menciona algunas organizaciones relacionadas con la metrología como el Instituto Nacional de Metrología de Colombia y el Sistema Interamericano de Metrología.
Este documento presenta un resumen de 3 oraciones o menos del contenido del módulo IV de una capacitación sobre la implementación de sistemas de gestión en laboratorios de ensayo y calibración según la norma NB/ISO/IEC 17025:2018. El módulo cubre temas como los requisitos normativos relacionados a la incertidumbre, métodos para evaluar la incertidumbre tipo A y tipo B, y cálculo de la incertidumbre combinada y expandida.
Precisión demedida conceptos dar - ppt. - unimeta-jrg.2013 -Jaime Ramirez
Este documento contiene definiciones de términos clave relacionados con la metrología. Define conceptos como concordancia, parámetro, medida materializada, material de referencia, trazabilidad, calibración, aptitud para la medida, magnitud, corrección, método de medida y verificación. El documento proporciona una base conceptual para comprender los principios y operaciones fundamentales de la medición.
Este documento describe la importancia de la calibración y verificación periódica de los equipos de medición para garantizar la exactitud de las mediciones. Explica que la calibración involucra comparar las mediciones de un equipo con un patrón para determinar si está dentro de los límites de tolerancia. También cubre temas como trazabilidad, métodos de calibración, planes de mantenimiento y etiquetado de equipos calibrados.
Este documento habla sobre la confiabilidad de los instrumentos de medición psicológica. Explica que la confiabilidad se refiere a la exactitud y reproducibilidad de los resultados de un instrumento. Luego describe tres métodos para estimar la confiabilidad: la confiabilidad de reaplicación, la confiabilidad de versiones equivalentes, y la confiabilidad de consistencia interna. El documento provee ejemplos matemáticos para calcular los coeficientes de confiabilidad usando cada uno de estos métodos.
Este documento presenta conceptos básicos sobre metrología, la ciencia de la medición. Explica que la metrología se divide en cuatro clases principales: metrología industrial, legal, científica y por áreas de medición. Define medición como el conjunto de operaciones para determinar el valor de una magnitud. Luego discute la importancia de evaluar la calidad de los resultados de medición a través de parámetros como error, incertidumbre, error y incertidumbre relativa. Resalta que aunque error e incertidumbre son diferentes, a menudo
Este documento proporciona una guía sobre cómo realizar mediciones en el laboratorio y expresar los resultados con incertidumbre. Explica que existen errores sistemáticos, aleatorios y de precisión en las mediciones, y que la incertidumbre total es una combinación de estos. Detalla cómo calcular el error absoluto, error relativo, y la incertidumbre de mediciones individuales y medidas múltiples. Además, ofrece pautas sobre cómo redondear los resultados y expresar medidas que involucren cálculos.
La metrología es la ciencia de la medición y su aplicación. Para asegurar mediciones precisas en procesos industriales, es necesario calibrar los instrumentos de medición utilizando patrones de medición trazables con sus incertidumbres asociadas, y entender conceptos como exactitud, tolerancia y error. Los certificados de calibración documentan este proceso para garantizar la calidad y trazabilidad de las mediciones.
Este documento describe los conceptos básicos de medición y error en ciencias e ingeniería. Explica que siempre existen limitaciones que causan desviaciones del valor verdadero al medir atributos físicos. Detalla que los errores pueden ser determinados o sistemáticos, que siempre tienen el mismo signo, o indeterminados, cuya magnitud varía. También cubre cómo expresar y propagar los errores al realizar cálculos con mediciones que los contienen.
Este documento describe la teoría de errores en mediciones. Explica que la precisión se refiere al grado de consistencia entre mediciones mientras que la exactitud indica la aproximación al valor verdadero. Los errores pueden ser sistemáticos, debidos a factores constantes, u aleatorios. Tomando múltiples observaciones, se puede calcular un valor más probable aplicando la distribución normal de probabilidad. Esto permite estimar el error probable de una medición.
Este documento describe la teoría de errores para analizar la precisión de mediciones. Explica que un error es la diferencia entre un valor medido y el verdadero, y que existen errores sistemáticos causados por factores constantes y errores aleatorios causados por factores variables. Para determinar el valor más probable de una medición y su precisión, se toman múltiples observaciones, se calcula la media y desviación estándar, y se aplica la distribución normal de probabilidad.
Este documento describe los tipos de errores que pueden ocurrir durante el proceso de medición, incluyendo errores aleatorios causados por factores desconocidos y errores sistemáticos causados por defectos en los instrumentos o condiciones ambientales. También explica cómo calcular la incertidumbre en las mediciones y formas de minimizar los errores, como usar varios instrumentos y métodos de medición.
El documento presenta información sobre la incertidumbre de medición. Define la incertidumbre y explica que incluye componentes tipo A y tipo B. También discute los requisitos de la norma ISO/IEC 17025 para la estimación de la incertidumbre y el criterio de la DTA. Luego, describe alternativas para la estimación de la incertidumbre y los pasos para realizar el cálculo de la incertidumbre combinada.
como establecer los periodos de calibraciónerik4944
Este documento describe cómo establecer períodos de calibración para equipos de medición de acuerdo con normas. Explica conceptos como calibración, verificación, exactitud y precisión. También presenta cuatro métodos principales para determinar los períodos de calibración basados en el tiempo calendario, tiempo de uso, pruebas o enfoques estadísticos. Además, ofrece ejemplos de cómo calcular la deriva instrumental y determinar los límites de tolerancia para verificar si un equipo requiere recalibración.
Este documento presenta la teoría y conceptos fundamentales sobre errores en mediciones físicas que serán aplicados en un laboratorio. Los objetivos son aplicar la teoría de errores para calcular la incertidumbre en mediciones directas e indirectas, usar técnicas de redondeo en cálculos y estimar errores absolutos y relativos. Se explican conceptos como precisión, exactitud, errores sistemáticos y de escala. El documento también describe los materiales y conocimientos previos necesarios para la práctica de laboratorio.
Este documento trata sobre la teoría de errores. Explica que una medición nunca puede determinar el valor exacto de una magnitud, sino sólo un valor aproximado debido a limitaciones en los instrumentos de medición y factores como la precisión humana. Identifica dos tipos de errores: sistemáticos, causados por imperfecciones en los métodos de medición, y estadísticos, que ocurren al azar. El objetivo de la teoría de errores es determinar el valor más probable de una magnitud y cuantificar la incertidumbre de una medición.
El documento trata sobre la metrología y el proceso de medición con precisión. Explica los conceptos clave de la medición como la incertidumbre, los patrones, la calibración del instrumento y el cálculo de la incertidumbre. Además, provee ejemplos prácticos de cómo llevar a cabo la calibración de un instrumento y luego realizar mediciones sobre una pieza usando la información de la calibración.
Este documento presenta una guía para estimar la incertidumbre de la medición de acuerdo con la GUM. Explica los conceptos de mensurando, modelo físico, modelo matemático, identificación de fuentes de incertidumbre y métodos para cuantificarlas. Fue desarrollado por el Centro Nacional de Metrología de México para estandarizar el cálculo de incertidumbres entre los metrólogos.
Este documento proporciona una guía sobre cómo realizar mediciones en el laboratorio y expresar los resultados de manera adecuada. Explica los conceptos de error, incertidumbre y cómo estimarla y combinarla cuando se realizan varias mediciones o cálculos. Recomienda expresar los resultados como el valor medido más o menos la incertidumbre combinada redondeada a la cifra significativa adecuada. También incluye ejemplos y ejercicios para que los estudiantes apliquen estos conceptos.
El documento habla sobre la metrología. Explica que la metrología se refiere a la medición y las unidades de medida. Describe los diferentes tipos de mediciones como la medición lineal, por volumen, por superficie, entre otras. También define conceptos como principios de medición, procedimientos de medición, trazabilidad metrológica e incertidumbre de medición. Finalmente, menciona algunas organizaciones relacionadas con la metrología como el Instituto Nacional de Metrología de Colombia y el Sistema Interamericano de Metrología.
Este documento presenta un resumen de 3 oraciones o menos del contenido del módulo IV de una capacitación sobre la implementación de sistemas de gestión en laboratorios de ensayo y calibración según la norma NB/ISO/IEC 17025:2018. El módulo cubre temas como los requisitos normativos relacionados a la incertidumbre, métodos para evaluar la incertidumbre tipo A y tipo B, y cálculo de la incertidumbre combinada y expandida.
Precisión demedida conceptos dar - ppt. - unimeta-jrg.2013 -Jaime Ramirez
Este documento contiene definiciones de términos clave relacionados con la metrología. Define conceptos como concordancia, parámetro, medida materializada, material de referencia, trazabilidad, calibración, aptitud para la medida, magnitud, corrección, método de medida y verificación. El documento proporciona una base conceptual para comprender los principios y operaciones fundamentales de la medición.
Este documento describe la importancia de la calibración y verificación periódica de los equipos de medición para garantizar la exactitud de las mediciones. Explica que la calibración involucra comparar las mediciones de un equipo con un patrón para determinar si está dentro de los límites de tolerancia. También cubre temas como trazabilidad, métodos de calibración, planes de mantenimiento y etiquetado de equipos calibrados.
Este documento habla sobre la confiabilidad de los instrumentos de medición psicológica. Explica que la confiabilidad se refiere a la exactitud y reproducibilidad de los resultados de un instrumento. Luego describe tres métodos para estimar la confiabilidad: la confiabilidad de reaplicación, la confiabilidad de versiones equivalentes, y la confiabilidad de consistencia interna. El documento provee ejemplos matemáticos para calcular los coeficientes de confiabilidad usando cada uno de estos métodos.
Este documento presenta conceptos básicos sobre metrología, la ciencia de la medición. Explica que la metrología se divide en cuatro clases principales: metrología industrial, legal, científica y por áreas de medición. Define medición como el conjunto de operaciones para determinar el valor de una magnitud. Luego discute la importancia de evaluar la calidad de los resultados de medición a través de parámetros como error, incertidumbre, error y incertidumbre relativa. Resalta que aunque error e incertidumbre son diferentes, a menudo
Este documento proporciona una guía sobre cómo realizar mediciones en el laboratorio y expresar los resultados con incertidumbre. Explica que existen errores sistemáticos, aleatorios y de precisión en las mediciones, y que la incertidumbre total es una combinación de estos. Detalla cómo calcular el error absoluto, error relativo, y la incertidumbre de mediciones individuales y medidas múltiples. Además, ofrece pautas sobre cómo redondear los resultados y expresar medidas que involucren cálculos.
La metrología es la ciencia de la medición y su aplicación. Para asegurar mediciones precisas en procesos industriales, es necesario calibrar los instrumentos de medición utilizando patrones de medición trazables con sus incertidumbres asociadas, y entender conceptos como exactitud, tolerancia y error. Los certificados de calibración documentan este proceso para garantizar la calidad y trazabilidad de las mediciones.
Este documento describe los conceptos básicos de medición y error en ciencias e ingeniería. Explica que siempre existen limitaciones que causan desviaciones del valor verdadero al medir atributos físicos. Detalla que los errores pueden ser determinados o sistemáticos, que siempre tienen el mismo signo, o indeterminados, cuya magnitud varía. También cubre cómo expresar y propagar los errores al realizar cálculos con mediciones que los contienen.
Este documento describe la teoría de errores en mediciones. Explica que la precisión se refiere al grado de consistencia entre mediciones mientras que la exactitud indica la aproximación al valor verdadero. Los errores pueden ser sistemáticos, debidos a factores constantes, u aleatorios. Tomando múltiples observaciones, se puede calcular un valor más probable aplicando la distribución normal de probabilidad. Esto permite estimar el error probable de una medición.
Este documento describe la teoría de errores para analizar la precisión de mediciones. Explica que un error es la diferencia entre un valor medido y el verdadero, y que existen errores sistemáticos causados por factores constantes y errores aleatorios causados por factores variables. Para determinar el valor más probable de una medición y su precisión, se toman múltiples observaciones, se calcula la media y desviación estándar, y se aplica la distribución normal de probabilidad.
Este documento describe los tipos de errores que pueden ocurrir durante el proceso de medición, incluyendo errores aleatorios causados por factores desconocidos y errores sistemáticos causados por defectos en los instrumentos o condiciones ambientales. También explica cómo calcular la incertidumbre en las mediciones y formas de minimizar los errores, como usar varios instrumentos y métodos de medición.
1. Introduccion a las excavaciones subterraneas (1).pdfraulnilton2018
Cuando las excavaciones subterráneas son desarrolladas de manera artesanal, se conceptúa a la excavación como el “ que es una labor efectuada con la mínima sección posible de excavación, para permitir el tránsito del hombre o de
cémilas para realizar la extracción del material desde el
frontón hasta la superficie
Cuando las excavaciones se ejecutan controlando la sección de excavación, de manera que se disturbe lo menos posible la
roca circundante considerando la vida útil que se debe dar a la roca, es cuando aparece el
concepto de “ que abarca,
globalmente, al proceso de excavación, control de la periferia, sostenimiento, revestimiento y consolidación de la excavación
Metodología - Proyecto de ingeniería "Dispensador automático"cristiaansabi19
Esta presentación contiene la metodología del proyecto de la materia "Introducción a la ingeniería". Dicho proyecto es sobre un dispensador de medicamentos automáticos.
1. MAESTRÍA EN
MANTENIMIENTO E INSTRUMENTACIÓN
EN PLANTAS DE GAS
Docente: Ing. Daniel Ramiro Rejas Rechi
Correo: danielrejasr@gmail.com
Cel.: 721-89157
https://virtual.uagrm.edu.bo
Módulo 13
Medición en Puntos de Control y Transferencia
2. Temario
Unidad 1: INTRODUCCIÓN
Unidad 2: MEDICIÓN DE PETROLEO
Unidad 3: MEDICIÓN DE GAS NATURAL
Unidad 4: RELACIONES DE VOLUMEN, MASA Y ENERGIA
Unidad 5: NORMA ISO 10.012
2
4. 4
Sistema Internacional de Magnitudes, m
(ISQ)
sistema de magnitudes basado en las siete
magnitudes básicas: longitud, masa, tiempo,
corriente eléctrica, temperatura termodinámica,
cantidad de sustancia e intensidad luminosa
El Sistema Internacional de Unidades (SI) está
basado en el ISQ.
ISO – VIM INTRODUCCIÓN
INTRODUCCIÓN
ISO-VIM
5. 5
INTRODUCCIÓN
ISO-VIM
medición, f
proceso que consiste en obtener experimentalmente uno o varios valores que pueden
atribuirse razonablemente a una magnitud.
NOTA 1 Las mediciones no son de aplicación a las propiedades cualitativas.
NOTA 2 La medición supone una comparación de magnitudes, e incluye el conteo de entidades.
NOTA 3 Una medición supone una descripción de la magnitud compatible con el uso previsto de
un resultado calibrado conforme a un procedimiento de medida de medida, un procedimiento
de medida y un sistema de medida especificado, incluyendo las condiciones de medida.
metrología, f
ciencia de las mediciones y sus aplicaciones
NOTA La metrología incluye todos los aspectos teóricos y prácticos de las mediciones,
cualesquiera que sean su incertidumbre de medida y su campo de aplicación.
mensurando, m
magnitud que se desea medir
NOTA La especificación de un mensurando requiere el conocimiento de la naturaleza de la
magnitud y la descripción del estado del fenómeno, cuerpo o sustancia cuya magnitud es una
propiedad, incluyendo las componentes pertinentes y las entidades químicas involucradas.
6. 6
INTRODUCCIÓN
ISO-VIM
resultado de medida, m
resultado de una medición, m
conjunto de valores de una magnitud atribuidos a un mensurando, acompañados de cualquier
otra información relevante disponible
NOTA 1 Un resultado de medida contiene generalmente información relevante sobre el conjunto
de valores de una magnitud. Algunos de ellos representan el mensurando mejor que otros. Esto
puede representarse como una función de densidad de probabilidad (FDP).
NOTA 2 El resultado de una medición se expresa generalmente como un valor medido único y
una incertidumbre de medida. Si la incertidumbre de medida se considera despreciable para
un determinado fin, el resultado de medida puede expresarse como un único valor medido de la
magnitud. En muchos campos ésta es la forma habitual de expresar el resultado de medida.
valor verdadero de una magnitud, m
valor de una magnitud compatible con la definición de la magnitud
NOTA 1 En el enfoque en torno al concepto de error, el valor verdadero de la magnitud se
considera único y, en la práctica, imposible de conocer en la descripción de la medición.
7. 7
INTRODUCCIÓN
ISO-VIM
exactitud de medida, f
proximidad entre un valor medido y un valor verdadero de un mensurando
NOTA El concepto “exactitud de medida” no es una magnitud y no se expresa numéricamente.
Se dice que una medición es más exacta cuanto más pequeño es el error de medida.
veracidad de medida, f
proximidad entre la media de un número infinito de valores medidos repetidos y un valor de
referencia
NOTA No debe utilizarse el término “exactitud de medida” en lugar de “veracidad de medida” y
viceversa.
precisión de medida, f
proximidad entre las indicaciones o los valores medidos obtenidos en mediciones repetidas
de un mismo objeto, o de objetos similares, bajo condiciones especificadas
NOTA 1 Es habitual que la precisión de una medida se exprese numéricamente mediante
medidas de dispersión tales como la desviación típica, la varianza o el coeficiente de variación
bajo las condiciones especificadas.
8. 8
INTRODUCCIÓN
ISO-VIM
error de medida, m
diferencia entre un valor medido de una magnitud y un valor de referencia
NOTA 1 El concepto de error de medida puede emplearse:
a) cuando exista un único valor de referencia, como en el caso de realizar una calibración
mediante un patrón cuyo valor medido tenga una incertidumbre de medida despreciable, o
cuando se toma un valor convencional, en cuyo caso el error es conocido.
b) cuando el mensurando se supone representado por un valor verdadero único o por un
conjunto de valores verdaderos, de amplitud despreciable, en cuyo caso el error es
desconocido.
error sistemático de medida, m
componente del error de medida que, en mediciones repetidas, permanece constante o varía
de manera predecible
sesgo de medida, m
valor estimado de un error sistemático
9. 9
INTRODUCCIÓN
ISO-VIM
error aleatorio de medida, m
componente del error de medida que, en mediciones repetidas, varía de manera impredecible
NOTA 1 El valor de referencia para un error aleatorio es la media que se obtendría de un
número infinito de mediciones repetidas del mismo mensurando.
NOTA 2 Los errores aleatorios de un conjunto de mediciones repetidas forman una distribución
que puede representarse por su esperanza matemática, generalmente nula, y por su varianza.
NOTA 3 El error aleatorio es igual a la diferencia entre el error de medida y el error
sistemático.
condición de repetibilidad de una medición, f
condición de medición, dentro de un conjunto de condiciones que incluye el mismo
procedimiento de medida, los mismos operadores, el mismo sistema de medida, las mismas
condiciones de operación y el mismo lugar, así como mediciones repetidas del mismo objeto o
de un objeto similar en un periodo corto de tiempo
repetibilidad de medida, f
precisión de medida bajo un conjunto de condiciones de repetibilidad
10. 10
INTRODUCCIÓN
ISO-VIM
condición de reproducibilidad de una medición, f
condición de medición, dentro de un conjunto de condiciones que incluye diferentes lugares,
operadores, sistemas de medida y mediciones repetidas de los mismos objetos u objetos
similares
NOTA 1 Los diferentes sistemas de medición pueden utilizar diferentes procedimientos de
medida.
NOTA 2 En la práctica, conviene que toda especificación relativa a las condiciones incluya las
condiciones que varían y las que no.
reproducibilidad de medida, f
precisión de medida bajo un conjunto de condiciones de reproducibilidad
incertidumbre de medida , f
parámetro no negativo que caracteriza la dispersión de los valores atribuidos a un mensurando,
a partir de la información que se utiliza
NOTA 1 La incertidumbre de medida incluye componentes procedentes de efectos sistemáticos,
tales como componentes asociadas a correcciones y a valores asignados a patrones, así como
la incertidumbre debida a la definición. Algunas veces no se corrigen los efectos sistemáticos
estimados y en su lugar se tratan como componentes de incertidumbre.
11. 11
INTRODUCCIÓN
ISO-VIM
evaluación tipo A de la incertidumbre de medida, f
evaluación de una componente de la incertidumbre de medida mediante un análisis estadístico
de los valores medidos obtenidos bajo condiciones de medida definidas
evaluación tipo B de la incertidumbre de medida, f
evaluación de una componente de la incertidumbre de medida de manera distinta a una
evaluación tipo A de la incertidumbre de medida
EJEMPLOS Evaluación basada en informaciones
• asociadas a valores publicados y reconocidos;
• asociadas al valor de un material de referencia certificado;
• obtenidas a partir de un certificado de calibración;
• relativas a la deriva;
• obtenidas a partir de la clase de exactitud de un instrumento de medida verificado;
• obtenidas a partir de los límites procedentes de la experiencia personal.
incertidumbre expandida de medida, f
producto de una incertidumbre típica combinada y un factor mayor que uno
NOTA 1 El factor depende del tipo de distribución de probabilidad de la magnitud de salida en
unmodelo de medición y de la probabilidad de cobertura elegida.
NOTA 2 El factor que interviene en esta definición es un factor de cobertura.
12. 12
INTRODUCCIÓN
ISO-VIM
intervalo de cobertura, m
intervalo que contiene el conjunto de valores verdaderos de un mensurando con una
probabilidad determinada, basada en la información disponible
probabilidad de cobertura, f
probabilidad de que el conjunto de los valores verdaderos de un mensurando esté
contenido en un intervalo de cobertura especificado
NOTA 1 Esta definición pertenece al Enfoque de la Incertidumbre detallado en la GUM.
factor de cobertura, m
número mayor que uno por el que se multiplica una incertidumbre típica combinada
para obtener una incertidumbre expandida
NOTA Habitualmente se utiliza el símbolo k para el factor de cobertura (véase también
la Guía ISO/IEC 98-3:2008, 2.3.6).
13. 13
INTRODUCCIÓN
ISO-VIM
calibración, f
operación que bajo condiciones especificadas establece, en una primera etapa, una relación entre
los valores y sus incertidumbres de medida asociadas obtenidas a partir de los patrones de
medida, y las correspondientes indicaciones con sus incertidumbres asociadas y, en una
segunda etapa, utiliza esta información para establecer una relación que permita obtener un
resultado de medida a partir de una indicación
NOTA 1 Una calibración puede expresarse mediante una declaración, una función de calibración,
un diagrama de calibración, una curva de calibración o una tabla de calibración. En algunos
casos, puede consistir en una corrección aditiva o multiplicativa de la indicación con su
incertidumbre correspondiente.
NOTA 2 Conviene no confundir la calibración con el ajuste de un sistema de medida, a menudo
llamado incorrectamente “autocalibración”, ni con una verificación de la calibración.
trazabilidad metrológica, f
propiedad de un resultado de medida por la cual el resultado puede relacionarse con una
referencia mediante una cadena ininterrumpida y documentada de calibraciones, cada una de
las cuales contribuye a la incertidumbre de medida.
14. 14
INTRODUCCIÓN
ISO-VIM
verificación, f
aportación de evidencia objetiva de que un elemento satisface los requisitos especificados
NOTA 1 Cuando sea necesario, es conveniente tener en cuenta la incertidumbre de medida.
NOTA 2 El elemento puede ser, por ejemplo, un proceso, un procedimiento de medida, un
material, un compuesto o un sistema de medida.
NOTA 3 Los requisitos especificados pueden ser, por ejemplo, las especificaciones del fabricante.
NOTA 4 En metrología legal, la verificación, tal como la define el VIML[53], y en general en la
evaluación de la conformidad, puede conllevar el examen, marcado o emisión de un certificado de
verificación de un sistema de medida.
NOTA 5 No debe confundirse la verificación con la calibración. No toda verificación es una
validación.
transductor de medida, m
dispositivo utilizado en medición, que hace corresponder a una magnitud de entrada una
magnitud de salida, según una relación determinada
sensor, m
elemento de un sistema de medida directamente afectado por la acción del fenómeno, cuerpo o
sustancia portador de la magnitud a medir
15. 15
INTRODUCCIÓN
ISO-VIM
detector, m
dispositivo o sustancia que indica la presencia de un fenómeno, cuerpo o sustancia cuando se
excede un valor umbral de una magnitud asociada
resolución, f
mínima variación de la magnitud medida que da lugar a una variación perceptible de la
indicación correspondiente
umbral de discriminación, m
máxima variación del valor de la magnitud medida que no causa variación detectable de la
indicación correspondiente
zona muerta, f
intervalo máximo dentro del cual se puede hacer variar en los dos sentidos el valor de la
magnitud
medida, sin causar una variación detectable de la indicación correspondiente
estabilidad de un instrumento de medida, f
Aptitud de un instrumento de medida para conservar constantes sus características
metrológicas a lo largo del tiempo.
16. 16
INTRODUCCIÓN
ISO-VIM
patrón de medida, m
realización de la definición de una magnitud dada, con un valor determinado y una
incertidumbre de medida asociada, tomada como referencia
NOTA 1 La “realización de la definición de una magnitud dada” puede establecerse mediante
unsistema de medida, una medida materializada o un material de referencia.
NOTA 2 Un patrón se utiliza frecuentemente como referencia para obtener valores medidos e
incertidumbres de medida asociadas para otras magnitudes de la misma naturaleza,
estableciendo así la trazabilidad metrológica, mediante calibración de otros patrones,
instrumentos o sistemas de medida.
calibrador, m
patrón utilizado en calibraciones
material de referencia, m
material suficientemente homogéneo y estable con respecto a propiedades especificadas,
establecido como apto para su uso previsto en una medición o en un examen de propiedades
cualitativas
material de referencia certificado, m
material de referencia acompañado por la documentación emitida por un organismo autorizado,
que proporciona uno o varios valores de propiedades especificadas, con incertidumbres y
trazabilidades asociadas, empleando procedimientos válidos