En cualquier proyecto de ingeniería es necesario realizar medidas, por lo que estas no son algo que se deba considerar a la ligera. De hecho, las medidas son muy importantes. Tanto que si nos equivocamos al medir podemos dar por seguro que el resultado será un desastre.

No obstante, es imposible fabricar con una medida absolutamente perfecta, siempre se produce algún error.

El área de la ciencia dedicado al conocimiento de las medidas, los sistemas de unidades y los instrumentos usados para efectuar medidas se conoce como metrología.

En concreto, la metrología abarca:

  • Las unidades de medida y sus patrones
  • Las mediciones (acción de medir una magnitud)
  • Los instrumentos de medición

Magnitud

Atributo de un cuerpo, fenómeno o sustancia que puede ser distinguido cualitativamente. Por ejemplo la longitud de un objeto, la intensidad de un sonido o el volumen de un cuerpo.

Medición

Acción de comparar la extensión concreta de una magnitud con otra semejante a la que denominamos unidad.

Si por ejemplo comparamos la longitud de una persona con la unidad del metro, podremos saber cuántos metros mide dicha persona.

Incertidumbre

Debido a la imperfección en los procesos de medición, la medida realizada debe ser corregida, con mayor o menor minuciosidad según la calidad que se pretenda conseguir y las exigencias del proyecto en cuestión.

Si por ejemplo estoy midiendo la altura de una persona con un instrumento de medida corriente, no puedo saber si mide 1,757 metros o si mide 1,758 metros. Me quedaré con esa duda o incertidumbre.

Nuestra medida corregida será el resultado de agregar un margen de incertidumbre a la medida original.

$M\:=\:X\:\pm\:U$

  • X es el valor más probable de la medida.
  • U es la incertidumbre con la que conocemos la medida.

Patrón

Es una medida materializada, un instrumento de medida, material de referencia o un sistema de medida destinado a definir, realizar, conservar o reproducir una unidad de una magnitud para que sirva de referencia.

Por ejemplo:

  • El patrón de masa de 1 kilogramo.
  • Resistencia patrón de 100 W.
  • Electrodo de referencia de hidrógeno.
  • Patrón de frecuencia de cesio.
  • Etc …

Podemos distinguir distintos tipos de patrones:

  • Patrón prototipo internacional.
  • Patrones del instituto nacional de metrología.
  • Patrones de laboratorio.
  • Patrones de taller.

Algunos patrones serán más perfectos que otros, según la precisión con la que se asemejen a la medida real.

Bloques Patrón Longitudinales (BPL)

El ingeniero sueco C. E. Johansson fue el inventor de este tipo de patrones, los cuales constituyen el primer tipo de patrón materializado, y el más utilizado tanto en laboratorios de metrología como en el plano industrial.

El material utilizado en la realización de los bloques posee una dureza superior a 62 HRC, con el fin de evitar el posible rayado y un desgaste prematuro; sus longitudes nominales normalizadas van desde 0,5 mm hasta 1 m.

Prácticamente todas las normas nacionales aplicables a estos patrones se basan en la norma ISO 3650, la cual prevé cuatro clases de precisión: K, 0, 1 y 2, fijando para cada una, las tolerancias permitidas respecto a la longitud nominal, así como las de planitud y  variación de longitud.

Como material constructivo se utilizan el acero, el carburo de tungsteno (con menor coeficiente de dilatación y mayor dureza que el acero) así como materiales cerámicos (por ejemplo ZrO), los cuales presentan la ventaja de no ser oxidables.

Calidades:

  • Grado calibración K: Bloques patrón de referencia (INM, laboratorios acreditados)
  • Grado 0: Bloques patrón de referencia en empresas
  • Grado 1: Bloques de transferencia: Instrumentación de medida en producción
  • Grado 2: Bloques patrón estándar: Ajuste de maquinaria en producción

Nota: Los bloques grado K y 0 deberán llevar marcado su número de serie.

El concepto de tolerancia

Se define como tolerancia a la semiamplitud de un intervalo dentro del cual debe encontrarse el verdadero valor de la magnitud para ser considerada como válida.

Es decir, la tolerancia T es la semiamplitud de un intervalo dentro del cual debe encontrarse el verdadero valor de la magnitud para que sea aceptada como válida.

Cuando el intervalo de incertidumbre está contenido dentro del intervalo de tolerancia, se puede afirmar casi con seguridad que el valor verdadero del mensurando (el elemento que se mide) es admisible.

Cuando los intervalos de incertidumbre y de tolerancia son disjuntos, hay seguridad casi total de que se debe rechazar el mensurando.

Cuando los intervalos de incertidumbre y de tolerancia se solapan en parte, la determinación de aceptación o rechazo es dudosa.

Para que la elección del instrumento de medida sea la correcta, se ha de cumplir que el intervalo de incertidumbre sea varias veces inferior al de tolerancia.

En otras palabras, no se puede decidir si algo mide o no lo que tiene que medir cuando la incertidumbre de medida (el “error” de la cadena operario - instrumento de medida, etc) es superior a la tolerancia (intervalo que define si el elemento es correcto o no).

En medidas dimensionales se suele considerar como admisible la relación: $3\:≤\:\dfrac{T}{2U}\:≤\:10$

Donde T es la tolerancia y U la incertidumbre.

Capacidad de los procesos de fabricación

Todos los procesos de fabricación tienen una “desviación propia o tolerancia natural” que además depende de las dimensiones del objeto a fabricar.

Igualmente existe una relación entre el intervalo de tolerancia y el grado de acabado superficial necesario que permita la obtención de dicho intervalo.

Clasificación de la metrología

La metrología se clasifica en: científica, legal e industrial.

Metrología Científica

Estudia las mediciones realizadas con el fin de consolidar teorías sobre la naturaleza del universo o seguir nuevas teorías, así como estudiar nuevos métodos o el perfeccionamiento de los mismos e incluso a desarrollar tecnología de punta para poder tener un mayor control sobre la medida.

Metrología legal

Parte de la Metrología relativa a las unidades de medida, a los métodos e instrumentos de medición, en lo que se refiere a las exigencias técnicas y jurídicas reglamentadas, que tienen como fin asegurar la garantía pública desde el punto de vista de la seguridad y de la precisión de las mediciones.

Metrología Técnica o Industrial

Estudia las mediciones realizadas, para asegurar la compatibilidad dimensional, la conformidad con especificaciones de diseño necesario para el funcionamiento correcto, o en general, todas las mediciones que se realizan para asegurar la adecuación de algún producto con respecto a su uso..

Las actividades metrológicas de calibración, medición y ensayo son fundamentales para garantizar la calidad de muchas actividades y procesos industriales así como de la calidad de vida. Ello supone la necesidad de contar con trazabilidad.

Trazabilidad

Desde la idea teórica de una unidad hasta la medida realizada con un instrumento comprado en alguna tienda cualquiera, puede haber notables diferencias (incertidumbre en la medida).

Para conocer el origen de la referencia con la que se mide, existe el concepto de trazabilidad.

Normalización

La normalización es una actividad de gran importancia en el mundo actual.

Participa en la regulación técnica de las actividades productivas, productos y procesos; contribuye a la disminución de las barreras comerciales basadas en especificidades de carácter tecnológico y colabora en la mejora de la calidad y competitividad de los sectores productivos.

Los fines de la normalización son conseguir:

  • una mayor unificación en la oferta productiva.
  • la reducción de gamas y de stocks.
  • un mejor entendimiento entre fabricantes y usuarios.

¿Pero qué es una norma?

Una norma es un documento de carácter técnico que contiene especificaciones de procesos y productos.

El término producto se considera en sentido amplio y comprende tanto los productos materiales como las aplicaciones informáticas y los servicios.

Normalización, acreditación y certificación

Normalización: Es la actividad que establece disposiciones para uso común y repetido, encaminadas al logro del grado óptimo de orden con respecto a problemas reales o potenciales, en un contexto dado. En particular, la actividad consta de los procesos de formulación, publicación e implementación de normas.

Acreditación: La acreditación es una herramienta para el mejoramiento continuo de la calidad, con la cual las empresas desarrollan un proceso continuo y sistemático de autoevaluación interna y externa que les permite detectar oportunidades de mejora y afianzar sus fortalezas. La evaluación externa debe ser realizada por un organismo/empresa legalmente reconocido.

Certificación: La certificación es el proceso voluntario por medio del cual una tercera parte diferente al productor y al comprador (organismo reconocido) valida y asegura por escrito que un producto o un servicio cumple con unos requisitos previamente especificados (por ejemplo, que cumplen una norma o unos requisitos establecidos y aceptados internacionalmente). En España, dicho organismo es AENOR.

Algunos organismos Nacionales de Normalización

  • AENOR - Asociación Española de Normalización y Certificación
  • ANSI - American National Standards Institute
  • AFNOR - Association Française de Normalisation
  • DIN - Deutsches Institut für Normung
  • JISC - Japanese Industrial Standars Committe
  • BSI - British Standards Institution.
  • CEE - Comisión de reglamentación para equipos eléctricos
  • CENELEC - Comité Européen de Normalisation Electrotechnique Comité Europeo de Normalización Electrotécnica.
  • CEN - Organismo de estandarización de la Comunidad Europea para normas EN.
  • COPANT - Comisión Panamericana de Normas Técnicas AMN - Asociación Mercosur de Normalización
  • CEN - Organismo de normalización de la Comunidad Europea IEC - International Electrotechnical Commission
  • IEEE - Institute of Electrical and Electronical Engineers
  • IETF - Internet Engineering Task Force
  • ISO - Organización Internacional para la Estandarización

Sistemas de Unidades

Concepto y generalidades acerca de sistemas de unidades.

Conjunto de magnitudes, unidades y patrones, definidos de una manera coherente y sistemática, empleados para expresar la medición de propiedades y fenómenos físicos.

Constituyen un conjunto de unidades básicas, junto con las unidades derivadas, definidas de acuerdo con reglas dadas, para un sistema de magnitudes dados.

Errores en las medidas

Clases de errores

Los errores cometidos en una medición son variables si atendemos a su naturaleza u origen.

Pueden ser sistemáticos o accidentales.

Error sistemático o sesgo es aquel que se produce de igual modo en todas las mediciones que se realizan de una magnitud. Puede estar originado en un defecto del instrumento, en una particularidad del operador o del proceso de medición, etc.

Error aleatorio o accidental es aquel error inevitable que se produce por eventos únicos imposibles de controlar durante el proceso de medición.

Causas de error

La diferente naturaleza de los errores de medida se debe a que las causas que los  provocan son a su vez diferentes. Es imposible un conocimiento exacto de todas las causas de error, pero si es conveniente conocer las más importantes y tener una idea que permita evaluar los errores más corrientes en todo proceso de medida.

Podemos clasificarlos en orden a su influencia en:

  • Errores debidos al operador.
  • Errores debidos al instrumento de medida.
  • Errores debidos a la propia pieza que se mide.
  • Errores debidos a agentes externos o ambientales.
Errores debidos al operador

En los instrumentos no digitales los datos se obtienen de una graduación. En las lecturas de estas escalas resultan errores de apreciación, interpolación, coincidencia, etc variables en forma muy compleja para cada persona. Si además las dos escalas que componen un sistema de lectura están en diferentes planos, puede aparecer el error de paralaje, cuando la visual del operador no es perpendicular a estos planos.

Errores debidos al instrumento

Cualquiera que fuese la precisión de diseño y fabricación de un instrumento de medida, presentará siempre imperfecciones. Tanto estas como las que irá adquiriendo por el uso son fuentes de error atribuibles al instrumento.

Defectos de planitud, paralelismo o concentricidad en los palpadores que han de entrar en contacto con las piezas, defectos en órganos amplificadores, en los grabados de las escalas o cualquier otro que el instrumento lleve ya de fabricación. En general, los errores  producidos por un instrumento en perfecto estado no deben ser superiores a la décima   parte de su escala.

Los errores por presión se deben a las deformaciones elásticas de los elementos en contacto bajo presión. Por lo general se trabaja a presiones de contacto muy bajas y con palpadores robustos, a fin de que sean despreciables.

Los desgastes son las principales causas de estos errores. Por ejemplo en los calibres fijos existe un límite de desgaste a partir del cual deben desecharse. Por términos generales en todo equipo de medición se desgastan con el uso ejes, palancas, etc. y al cabo de cierto tiempo la cuantía de estos errores son inadmisibles.

Cualidades de un instrumento de medida

Campo de medida: Intervalo de valores que puede tomar la magnitud a medir con un instrumento. Un aparato puede tener varios campos de medida.

Alcance: Valor máximo del campo de medida.

Escala: Conjunto ordenado de signos que representan valores de la magnitud medida.

División de la escala: Intervalo entre dos valores consecutivos de la escala.

Exactitud: Dada por el error, siendo mayor cuanto menor sea éste.

Sensibilidad: Expresada como el cociente entre el incremento observable en la variable y el incremento correspondiente a la magnitud medida.

Precisión: exactitud en la lectura del instrumento.

Apreciación: Mínima variación de la magnitud registrada.

Fidelidad: Aptitud para reproducir una medida realizada en iguales circunstancias.

Dispersión: Diseminación de medidas de una serie.

Fiabilidad: Realizar la función requerida en condiciones establecidas y en un plazo de tiempo determinado.

Errores debidos a las piezas

Cuando se efectúa la medida de una cierta cota se sobreentiende que existe un solo valor verdadero para dicha cota, pero en la realidad eso no sucede nunca, ya que siempre se mide sobre superficies de definición imperfectas, que poseen diferentes valores verdaderos de las mismas.

Esto da lugar a una regla fundamental de la metrología: “Para que pueda medirse una pieza con una cierta tolerancia, las superficies geométricas reales que definen dicha cota, han de estar relacionadas entre sí, dentro de dicha tolerancia”.

En las piezas pueden presentarse distorsiones macro geométricas que impidan la medición correcta de la cota. El caso más corriente se presenta en la medida del diámetro de las piezas cilíndricas, donde es necesario comprobar la circularidad del mismo.

Errores debidos a agentes externos o ambientales

La temperatura a que se encuentran los instrumentos de medida y las piezas reviste una importancia fundamental en el terreno de la metrología dimensional.

Otros agentes externos también influyen en la medición, como pueden ser la humedad  (para una medición de precisión debe oscilar alrededor del 50%), presión atmosférica, polvo y suciedad en general. Asimismo las vibraciones pueden alterar una medida y en general son más peligrosas las de mayor amplitud y frecuencia.

La temperatura se evalúa en grados Centígrados, estando establecida en los países adheridos a la Organización Internacional de Estandarización (ISO) una temperatura de referencia de 20º C.

Para realizar medidas de precisión debe alcanzarse la igualdad de temperaturas entre la pieza a medir y el aparato de medida o patrón de referencia. Para ello, se debe asegurar una permanencia de ambos elementos de al menos 24 horas a la temperatura de referencia.

Si la medición se realiza a una temperatura diferente de 20º C, se puede evitar la corrección de la medida si los coeficientes de dilatación de la pieza y del aparato de medir son iguales  o difieren muy poco.

En el caso de coeficientes diferentes, habrá que realizar en cada caso las correcciones pertinentes, mediante la expresión:

Lt = L20 [1 + 𝛂(t – 20)]

Donde:

  • t = temperatura a la que se efectúa la medición
  • 𝛂 = coeficiente de dilatación lineal
  • Lt = longitud de la pieza a temperatura t

Error absoluto y relativo

Error absoluto

El error absoluto se define como la diferencia entre el valor real de la magnitud $x$ y el valor medido $x_{medido}$, en valor absoluto:

$E_{abs}\:=\:\lvert\:x\:–\:x_{medido}\:\rvert$

Error relativo

El error relativo se calcula dividiendo el error absoluto entre el valor real de la magnitud:

$E_{rel}\:=\:\dfrac{E_{abs}}{x}$

Cálculo de errores

Cuando se conoce el error de una o varias magnitudes, el cálculo permite determinar fácilmente el error correspondiente a otras dependientes de ellas, si se conoce la relación que las liga. Es preciso, sin embargo, que las medidas que vayan a intervenir en el cálculo de una magnitud tengan todas el mismo error relativo o, dicho de otro modo, el mismo grado de precisión.

El error absoluto del producto de una constante por una magnitud, es igual al producto de la constante por el error absoluto de la magnitud.

El error absoluto de la suma de varias magnitudes homogéneas es menor o igual a la suma de los errores absolutos de las mismas.