Ing. Luis Font Avila
1. Introducción.
Los organismos de acreditación y los servicios de metrología frecuentemente utilizan en sus documentos los términos clase de exactitud y error máximo permitido de un instrumento de medición para calificar la calidad metrológica del mismo. Sin embargo, aun cuando las definiciones de los términos clase de exactitud y error máximo permisible se encuentran publicadas por la Oficina Internacional de Pesas y Medidas (BIPM) en el vocabulario internacional de metrología VIM [JCGM 200:2008] [1] su manejo no es claro y en ocasiones su utilización es inapropiada.
El propósito de este trabajo es abordar el significado de estos dos términos para evitar su uso indebido. Aunque existe una relación entre los conceptos clase de exactitud y error máximo permitido ellos no son sinónimos por lo que su empleo debe ser adecuado a su significado metrológico. La referencia principal en la cual nos basamos para la redacción de este documento es la recomendación de la OIML R 34 Accuracy classes of measuring instruments [2].
La Organización Internacional de Metrología Legal (OIML) es una organización intergubernamental mundial, que tiene como objetivo principal la armonización de normas y procedimientos implementados por los servicios metrológicos nacionales u organizaciones relevantes de los estados miembros a través de la publicación de normas básicas de metrología.
2. El termino clase de exactitud.
De acuerdo con el vocabulario internacional de metrología [1] en su edición vigente se entiende por clase de exactitud:
Clase de instrumentos o sistemas de medida que satisfacen requisitos metrológicos determinados destinados a mantener los errores de medida o las incertidumbres instrumentales dentro de límites especificados, bajo condiciones de funcionamiento dadas. VIM [4.25]
Nota 1. Una clase de exactitud habitualmente se indica mediante un número o un símbolo adoptado por convenio*.
*Publicado en una norma o documento técnico.
Nota 2. El concepto de clase de exactitud se aplica a las medidas materializadas.
Los requisitos metrológicos especificados, para una clase de exactitud en particular, aseguran el uso metrológico apropiado del instrumento y el mantenimiento del error que este posee dentro del error máximo permitido.
La recomendación internacional de la OIML R34 [2], establece como posibles requisitos metrológicos asociados a la designación de una clase de exactitud en particular:
- El error del instrumento.
- El error complementario, causado por variaciones en las magnitudes de influencia, que ocasionan cambios en las indicaciones de los instrumentos de medida, en la variación de la magnitud reproducida por las medidas materiales o en la variación de las características metrológicas de los transductores de medida.
- La inestabilidad del valor que mide o reproduce el instrumento o la medida materializada.
- El error de histéresis del instrumento de medida (en caso de que aplique).
- Otras características metrológicas de importancia para el funcionamiento del instrumento de medida, la medida materializada o el transductor de medición, incluyendo propiedades de los materiales con los cuales se fabrica (aplica mayormente para las medidas materializadas).
Por ejemplo, para una medida materializada de longitud (bloque patrón) se establecen como requisitos para una determinada clase de exactitud las siguientes características metrológicas:
- Desviación de la longitud central con respecto al valor nominal.
- Paralelismo.
- Planitud.
- Estabilidad en el tiempo de la longitud reproducida por la medida materializada.
Es importante aclarar que la principal característica metrológica asociada con una clase de exactitud es el error máximo permitido del instrumento, sin embargo, el resto de los requisitos metrológicos definidos para una determinada clase aseguran el cumplimiento del instrumento con su error máximo permitido. Algunos de estos requisitos deben ser evaluados periódicamente durante la calibración o verificación del instrumento, en cambio otros solo deben ser obligatoriamente evaluados en la verificación o calibración inicial.
Como se puede apreciar de lo expuesto anteriormente existe una estrecha relación entre los conceptos clase de exactitud y error máximo permitido, sin embargo, se debe notar que si bien es cierto que a todos a los instrumentos a los cuales corresponde una clase de exactitud se le asocia un error máximo permitido, afirmar lo contrario no es correcto.
A continuación, se muestran ejemplos de clases de exactitud de tipos de instrumentos, se indica además la norma que define la clase.
La referencia a una determinada clase de exactitud refleja un nivel general de propiedades metrológicas de un instrumento de medición, pero no proporciona directamente la incertidumbre que se puede lograr con este instrumento, se requiere revisar los límites de los valores asociados a las características metrológicas de la clase de exactitud correspondiente para poder cuantificar la incertidumbre instrumental con este.
3. Errores de los instrumentos de medición.
En metrología un instrumento ideal debería tener una indicación que perfectamente representase al valor verdadero de la magnitud medida, sin embargo, en la práctica resulta imposible alcanzar este objetivo. Todos los instrumentos de medida debido a imperfecciones en su diseño y fabricación poseen errores, los cuales se pueden agrupar en dos categorías:
- Error aleatorio: componente del error de medida que, en mediciones repetidas, varía de manera impredecible.
- Error sistemático: componente del error de medida que, en mediciones repetidas, permanece constante o varía de manera predecible.
El error sistemático y sus causas pueden ser conocidas o no. Para compensar un error sistemático conocido puede aplicarse una corrección. La calibración de un instrumento de medición con respecto a un patrón permite determinar el error “sistemático” del instrumento bajo calibración lo que posibilita la aplicación de correcciones a las lecturas realizadas con el mismo.
No es objeto de este documento abordar en profundidad la naturaleza de los errores aleatorios y sistemáticos y los métodos que se pueden emplear para su estimación.
Cuando se estudia el comportamiento de un tipo particular de instrumento de medición se puede observar que los errores obtenidos para una muestra de instrumentos sometidos a calibración se comportan de manera predecible dentro de los valores extremos de un intervalo, el cual se denomina error máximo permitido (8).
Si el instrumento es sometido a calibración periódica y se determina que su error de indicación es mayor que el error máximo permitido por el fabricante se debe considerar que su comportamiento no es conforme con el diseño original y debe ser reparado o ajustado para asegurar que sus errores se encuentren dentro de la zona aceptable de error.
En algunas situaciones los errores de los instrumentos, aun cuando son mayores que el error máximo permitido, son compensados por los usuarios a través del uso de correcciones.
No en todos los tipos de instrumentos de medición es posible tomar acciones sobre el mismo, para eliminar o reducir su error. Así, por ejemplo, en el caso de los bloques patrones de longitud los laboratorios de calibración informan a sus clientes de la desviación central del bloque con respecto a su valor nominal y la variación de longitud, con sus respectivas incertidumbres, dejando al cliente la decisión sobre su aceptación o rechazo con respecto a los valores permitidos correspondientes a su clase de exactitud.
4. Error máximo permitido.
De acuerdo con el VIM el error máximo permitido de un instrumento de medición es el valor extremo del error de medida, con respecto a un valor de referencia conocido, permitido por especificaciones o reglamentaciones, para una medición, instrumento o sistema de medida dado. VIM [4.26].
Nota 1. En general, los términos “errores máximos permitidos” o “límites de error” se utilizan cuando existen dos valores extremos.
Nota 2. No es conveniente utilizar el término «tolerancia» para designar el “error máximo permitido”.
Según la recomendación internacional OIML R34 [2] los errores máximos permitidos se pueden expresar en forma absoluta, reducida o relativa. La selección de la forma para representar los errores máximos permitidos depende de las propiedades metrológicas del instrumento, del tipo de instrumento, de su principio de funcionamiento y del comportamiento de su error, entre otros factores.
Es posible que ninguna de las formas descritas a continuación se ajuste al comportamiento de un tipo de instrumento en particular, en esta situación se debe utilizar cualquier otro modo de expresión que resulte conveniente.
Error máximo permisible expresado en forma absoluta:
Si el error máximo permisible no es dependiente del valor de la magnitud medida el error máximo permisible se expresa como:
\(\Delta = \pm a \)
(1)
Donde a es un valor constante expresado en las unidades de medida de la magnitud medida o en cantidades de división de una escala.
Si el error máximo permisible depende del valor de la magnitud medida el error máximo permisible se expresa como:
\(\Delta = \pm \left ( a + b \cdot x \right )\)
(2)
Donde a es un valor constante expresado en las unidades de medida de la magnitud medida, b es una constante positiva y x es el valor medido por el instrumento.
Error máximo permisible expresado en forma reducida:
Se denomina error reducido (γ) a la relación entre el error de un instrumento de medida (Δ) y un valor especificado para el instrumento (XN).
El valor especificado puede ser, por ejemplo, el intervalo de medida o el límite superior del rango nominal del instrumento de medida.
\(\delta =\pm\frac{\left|\Delta\right|\times100}{X}\%=\pm\ p \%\)
(3)
Error máximo permisible expresado en forma relativa:
Los límites del error se expresan en forma de errores relativos (es decir, como un porcentaje del valor de la magnitud medida), si los errores absolutos de los instrumentos de medición aumentan aproximadamente linealmente con el aumento de la magnitud medida. En esta situación es conveniente expresar estos límites como un número que permanece igual, expresado en este caso en forma relativa.
Las dos maneras que comúnmente encontramos en la expresión de los errores máximos permisibles en forma relativa son las siguientes:
Si el valor del error máximo permisible expresado en forma relativa (δ) no depende del valor de la magnitud medida X (es un número c constante en todo el intervalo expresado en porcentaje), los límites de error se establecen de acuerdo con la siguiente ecuación:
\(\delta =\pm\frac{\left|\Delta\right|\times100}{X}\%=\pm\ c\ \%\)
(4)
Si el valor del error máximo permisible expresado en forma relativa (d) depende del valor de la magnitud medida X, los límites de error se establecen de acuerdo con la siguiente ecuación:
\(\delta=\pm\frac{\left|\Delta\right|\times100}{X}\%=\pm\ \left[c+d\left(\frac{X_k}{X}-1\right)\right]\%\)
(5)
Donde:
c y d son dos números arbitrarios.
XK, es el límite superior del intervalo de indicaciones de un instrumento de medición o el intervalo de medición para los transductores de medida.
Para profundizar sobre las diferentes formas de expresión de los errores se puede consultar el documento de la OIML R 34.
5. Establecimiento de las clases de exactitud de acuerdo con la OIML R 34.
Los requisitos de esta recomendación para asignar una determinada clase de exactitud a un instrumento de medición no son aplicables a todo tipo de instrumentos de medición. Sin embargo, en buena parte de las recomendaciones internacionales de la OIML concernientes a los requisitos metrológicos de tipos de instrumentos de medición se aplican los principios establecidos en la OIML R34 para establecer la clase de exactitud de estos.
Cuando los instrumentos de medición comprenden dos o más intervalos de medida, pueden fijarse dos o más clases de exactitud.
Para los instrumentos de medición donde los errores máximos se expresan como errores absolutos, la serie especificada de clases de precisión se designan con letras mayúsculas o numerales.
Para instrumentos de medición donde los errores máximos se expresan como errores reducidos o relativos que no dependen del valor medido, la clase de exactitud se establece en base a la siguiente serie de números preferidos:
1 x 10n, 1.5 x 10n 1.6 x 10n, 2 x 10n, 2.5 x 10n, 3 x 10n, 4 x 10n, 5 x 10n, 6 x 10n
Donde n = 1, 0, – 1, – 2, etc.
Está prohibido utilizar simultáneamente las clases de exactitud 1.5 x 10n y 1.6 x 10n. La clase de exactitud 3 x 10n solo se emplea en casos justificados técnicamente.
Ejemplo, manómetro de deformación elástica con clase de exactitud 0.5.
Para los instrumentos donde los errores se expresan como error relativo en función del valor de la cantidad medida, la clase de exactitud se determina e identifica mediante los dos números c y d mencionados en la fórmula (5).
En el caso de los instrumentos de medición donde las clases de exactitud se caracterizan no por los errores, sino por otras propiedades metrológicas, la clase de exactitud se establece de acuerdo con letras mayúsculas o numerales o según la serie de números preferidos.
6. Conclusiones.
Cuando se calibra un instrumento de medición el conocimiento de su clase de exactitud o error máximo permitido asegura:
- Una apropiada selección del patrón a utilizar en la calibración.
- La determinación de cuales características metrológicas se deben evaluar.
- Los valores de la escala (para los instrumentos indicadores) en los cuales se debe calibrar el instrumento.
- La declaración de la conformidad, si se ha acordado con el cliente, del instrumento con los requisitos especificados, [7.8.6 ISO/IEC 17025:2017] [7].
- La evaluación del riesgo asociado a la declaración de conformidad.
Así, por ejemplo, el conocimiento de la clase de exactitud de un instrumento de pesar de funcionamiento no automático bajo calibración nos permite determinar:
- Cual clase de exactitud deben satisfacer las pesas patrones a emplear en la calibración.
- La capacidad mínima del instrumento de pesar.
- Los valores del error máximo permitido y los puntos de cambio del error en el intervalo del instrumento.
Un tema de frecuente discusión en la comunidad de metrólogos es que la calibración puede limitarse a la determinación del error del instrumento de medición y que la evaluación de otras características metrológicas asociadas a una clase de exactitud pueden ser obviadas si el error del instrumento satisface las exigencias de la clase, entre las causas que conducen a la aplicación de este enfoque se encuentran:
- Limitaciones en la disposición de recursos para la evaluación del conjunto de características metrológicas asociadas a una clase de exactitud.
- Falta de conocimiento sobre la relación existente entre las diferentes características metrológicas de un instrumento de medición y su capacidad de mantener el error dentro de los límites del error máximo permitido.
- Simplificación de los procesos de calibración.
- Acuerdos de asociaciones profesionales de metrología.
Aunque las razones pueden ser diversas y tener en el fondo una justificación de peso, los Institutos Nacionales de Metrología, los organismos de acreditación y las entidades que regulan la metrología a nivel nacional deben definir claramente cuales características metrológicas resultan objeto de indispensable evaluación durante la calibración periódica y cuáles pueden ser consideradas solo en la verificación inicial del instrumento de medición o en el proceso de aprobación de modelo, en caso que el instrumento este sujeto a este tipo de control metrológico.
La determinación de propiedades metrológicas adicionales encarecería el servicio de calibración, por lo que debe ser el cliente quien decida, de acuerdo con la aplicación prevista para el instrumento, si requiere obtener los valores de características metrológicas adicionales previa solicitud al laboratorio de calibración.
Ciertamente existen requisitos metrológicos para los instrumentos de medición que solo deben ser evaluados al inicio de su control metrológico ya que por su naturaleza no cambian durante todo el ciclo de vida de este, por lo que su evaluación periódica carece de sentido práctico.
Se debe evitar utilizar indiscriminadamente el termino clase de exactitud para todo tipo de instrumento de medición ya que en la práctica esto no es correcto, en realidad si el instrumento posee una clase de exactitud la misma debe estar definida en una norma u especificación metrológica ya sea nacional, internacional o provista por una organización técnica reconocida. Cuando un fabricante de un instrumento de medición especifica su clase de exactitud, este se basa en una norma de referencia.
Para aquellos instrumentos que no tienen establecida una clase de exactitud lo recomendable es utilizar como medida de su desempeño metrológico el error máximo permisible.
La capacidad de un laboratorio para realizar la calibración de un instrumento de medición en particular debe realizarse a partir del análisis de la relación error máximo permitido y la incertidumbre de la calibración.
7. Bibliografía.
[1] JCGM 200:2008 Vocabulario Internacional de Metrología. Conceptos fundamentales y generales, y términos asociados (VIM).
[2] OIML R 34: 1979 Accuracy classes of measuring instruments.
[3] OIML R 111-1 Weights of classes E1, E2, F1, F2, M1, M1–2, M2, M2–3 and M3. Part 1: Metrological and technical requirements.
[4] OIML R76-1 Non-automatic weighing instruments. Part 1: Metrological and technical requirements – Tests.
[5] OIML R 133 Liquid-in-glass thermometers.
[6] OIML R 109 Pressure gauges and vacuum gauges with elastic sensing elements (standard instruments).
[7] ISO/IEC 17025:2017 Requisitos generales para la competencia de los laboratorios de ensayo y calibración.
[8] Luis Font Avila. Introducción a la Evaluación del Riesgo en la Emisión de Conformidad (2018).
Comentarios