You are on page 1of 6

12. METROLOGÍA DIMENSIONAL. FUNDAMENTOS Y PATRONES.

TÉCNICAS DE
MEDICIÓN Y VERIFICACIÓN. INCERTIDUMBRE DE MEDIDA. PLANES DE
CALIBRACIÓN Y TRAZABILIDAD. INSTRUMENTACIÓN BASICA

INDICE.

1. INTRODUCCION.

2. FUNDAMENTO DE LA METROLOGÍA Y PATRONES.

3. TÉCNICAS DE MEDICIÓN Y VERIFICACIÓN

4. INCERTIDUMBRE DE MEDIDA Y TIPOS DE ERRORES

4.1 Incertidumbre

4.2 Tipos de errores

4.2.1 Según su magnitud

4.2.2 Según su causa

5. PLANES DE CALIBRACIÓN Y TRAZABILIDAD

6. INSTRUMENTACIÓN BÁSICA.

6.1 Instrumentos de medida propiamente dichos

6.2 Instrumentos comparadores

6.3 Instrumentos de verificación

1
1. INTRODUCCIÓN

La Metrotécnia es la tecnología o el conjunto de técnicas que estudia las medidas. A


diferencia de la metrología, que se centra en la parte teórica y definición de medida, la
Metrotécnia se ocupa de la realización de la medida propiamente dicha, el uso de los
instrumentos, su contracción y conservación, sus instrucciones de uso, y todo lo que tiene
que ver con los trabajos de medición.

La Metrología como ciencia y la Metrotécnia como tecnología, suelen estudiarse juntas,


dado que las referencias mutuas son constantes, hay que tener en cuenta que la
Metrotécnia no define magnitudes, ni sistemas de unidades; se ocupa desde el punto de
vista práctico de las mediciones.

2. FUNDAMENTO DE LA METROLOGÍA Y PATRONES

2.1 Fundamento

La Metrología Dimensional nace de la necesidad de obtener en la producción industrial,


piezas con unas dimensiones lo suficientemente precisas para garantizar la
intercambiabilidad entre los productos fabricados.

Las necesidades de intercambiabilidad impusieron la normalización y el control de la


calidad y con ello, la necesidad de sistemas de control metrotécnicos eficaces y rápidos.
Por otro lado, el incremento en las exigencias sobre precisión obliga a operar conociendo
en cada caso los límites de error cometidos.

2.2 Unidades y patrones

La medida es el resultado de la medición, es decir, de comparar dos magnitudes


semejantes. La medición de cualquier magnitud requiere haber definido previamente los
criterios de igualdad y suma. Una vez hecho esto, se adopta una unidad
convencional, fija, de la misma especie que la magnitud que se trata de medir, a la que
se llama patrón. El criterio de igualdad nos permitirá reproducirla cuantas veces sea
preciso y el de suma, formar sus múltiplos y divisores.

El patrón adoptado sirve para caracterizar al Sistema de Medidas. Dos son los más
usuales: el Métrico, dentro del S.I que adopta como patrón al metro y el anglosajón,
que adopta la yarda.

En un principio, la definición del patrón de metro se basó en un ente material, si bien esto
no satisfizo a los científicos que, en beneficio de la precisión, se inclinaron por una
definición física, siendo hoy el metro patrón la longitud recorrida por la luz en el vacío en
un tiempo de aproximadamente 3.34 ns.
Para las medidas angulares se adopta la división sexagesimal de la circunferencia con el
convenio: 1 circunferencia=360º; 1 grado = 60 minutos dividiéndose cada minuto en 60
segundos.
Finalmente, es de mucha utilidad en frecuentes problemas técnicos el radián como
unidad natural de ángulo, definiéndose este como el ángulo que abarca entre sus lados
un arco igual al radio de la circunferencia a que pertenece.

2
3. TÉCNICAS DE MEDICIÓN Y VERIFICACIÓN

Las operaciones metrotécnicas que se realizan en el Taller o en el Laboratorio de tendrán


uno de estos dos objetivos:

a. La determinación numérica de una longitud o un ángulo. A esta operación se la


conoce como medir.
b. La comprobación de si una medida es mayor o menor que un valor numérico dado.
En este caso se llama verificación.

Al medir, se determina una medida efectiva, expresada en las unidades adoptadas, es


decir, se obtienen valores numéricos de magnitudes. Para medir empleamos
instrumentos de medida (micrómetros, pie de rey, reglas…etc.) con cualidades bien
determinadas y exactamente conocidas.
Las mediciones podrán ser directas o indirectas. Cuando la medida corresponde
directamente a la magnitud buscada, hablamos de medida directa (una longitud, un
ángulo) mientras que si las medidas se utilizan para obtener otra magnitud con la que
están relacionadas matemáticamente, la medida será indirecta (medición del área de un
circulo a partir de su diámetro por ejemplo, o hallar un ángulo mediante el uso de la regla
de senos).

Al verificar comparamos con un prototipo y determinamos diferencias o límites de


tolerancia. Para verificar, se usarán comparadores o calibres límites que responderán
a normas generales o se usarán según dicte la experiencia.

Se puede decir, por tanto, que la medición es una determinación objetiva, mientras
que la verificación es subjetiva. Ambas, medición y verificación, forman parte
fundamental del control metrológico y por ende de los controles de CALIDAD.

4. INCERTIDUMBRE DE MEDIDA Y TIPOS DE ERRORES

4.1 Incertidumbre de medida

Puesto que medir es comparar, la medición es un proceso físico en el que tiene lugar
una interacción entre el objeto que se mide y el instrumento usado para ello. El resultado
–la medida- ha de ser recogido e interpretado por el observador. Por tanto, el conjunto
quedará supeditado a dos tipos de influencias: las individuales, inherentes al observador
y las instrumentales, dimanantes del método y del aparato de medida. Ambas serán la
causa de que nunca sea posible el conocimiento exacto de la magnitud, pues la
imperfección de nuestros sentidos y la de los aparatos usados, creará siempre una
incertidumbre en el valor obtenido y, a consecuencia una discrepancia entre el valor
exacto y el real, cuya medida es el intervalo de error.

Cada instrumento y procedimiento de medida llevará asociado una incertidumbre que


como mínimo será igual a la apreciación del instrumento.
La incertidumbre asociada al instrumento, se calculará mediante la calibración, obteniendo
datos estadísticos de una serie de comparaciones del instrumento de medida calibrado,
contra un patrón de referencia con nominal e incertidumbre conocida, que disponga de
trazabilidad documental demostrable (estos conceptos los veremos en el epígrafe 5).

3
4.2 Tipos de errores

4.2.1 Según su causa

Como decimos, si atendemos a la causa de estos errores estas pueden ser:

a. Errores de los aparatos de medida. Debidos a defectos de construcción,


imperfecciones mecánicas como mala alineación, rectitud, forma…etc. También son
debidos al desgaste de los mismos por el uso, a la falta de lubricación o defectos de
reglaje como la puesta a cero del aparato.

b. Errores debidos al operador. Son debidos principalmente a:

Diferencia de presión de contacto entre pieza y palpadores según la


fuerza aplicada por el operador. Este defecto es el más generalizado.

A la dificultad de apreciar la concordancia exacta entre los trazos del nonius y


la regla, en el caso de instrumentos de este tipo. Son errores de apreciación
inherentes a la capacidad de visión del ojo humano (0.1mm).

Errores de paralaje si el operador no mira el índice según la dirección normal


a la escala de graduación…etc. También llamado error de coseno.

c. Errores debidos al ambiente. Dejando de un lado la humedad y la presión, la


característica ambiental principal causa de errores es la Tª. Las variaciones que produce
la Tª en las piezas e instrumentos habrán de ser tenidas en cuenta en los resultados. La
temperatura de referencia universal está establecida en 20º y siendo las medidas en
otras condiciones puestas en referencia a 20ºC.

4.2.2 Según su magnitud

Si atendemos a la magnitud y su distribución estadística, los errores se pueden


clasificar en:

1. Faltas. Normalmente son debidas a errores humanos, como consecuencia de


medidas aisladas. Son errores groseros, como por ejemplo tomar mal una lectura.
Se eliminan con facilidad estableciendo procedimientos de rechazo como por
ejemplo el criterio estadístico de Chauvenet.

2. Errores Sistemáticos. Se caracterizan por producirse siempre; tienen magnitud y


signo constante siguiendo una ley más o menos definida. Normalmente van
asociados al instrumento de medida, un desajuste por ejemplo.
Eliminaremos o disminuiremos estos errores mediante una corrección sistemática
(calibración).

3. Errores Aleatorios. Son variables en signo y magnitud y sus causas pueden ser
múltiples. Se suelen caracterizar haciéndolos proporcionales al a desviación típica de
las medidas realizadas.

4
5. PLANES DE CALIBRACIÓN Y TRAZABILIDAD

Como decimos, la causa más común de error en las medidas es la imperfección de los
aparatos usados. Por tanto será necesario eliminar el error o al menos conocer cuanto es
el error cometido.

Calibrar un instrumento de medida consiste en verificar las diferencias entre las medidas
que se obtienen con el instrumento y las que se deberían obtener. El procedimiento
normal consiste en realizar de forma sistemática una serie de medidas sobre patrones de
dimensiones “conocidas” ( valor nominal e incertidumbre), con lo que se conoce el error
que se comete al realizar la medida. Además, cada medida se realiza varias veces, con lo
que se determina la dispersión en cada medida. Con el error del instrumento y la
dispersión de las medidas, tenemos todos los datos necesarios para poder corregir las
medidas que obtengamos del instrumento.

Por otra parte se define la trazabilidad en metrología como la cualidad que tiene una
medida para referir su precisión a un patrón primario por medio de sucesivos escalones de
calibración a partir de dicho patrón. El hecho de que a partir de cierto patrón, se calibren
otros patrones a distinto nivel, es lo que se denomina diseminación de unidades.

La calibración sistemática y organizada del total de los instrumentos y accesorios del


centro de medición o taller es lo que conocemos como Plan de Calibración. La puesta en
marcha del plan de calibración supone la ordenación de los instrumentos de mayor a
menor precisión en diferentes niveles, calibrándose unos a otros en orden decreciente.

El plan de calibración ha de tener un soporte físico formado por cuatro elementos:

 Diagrama de niveles.
 Etiquetas de calibración.
 Fichero de instrucciones.
 Archivo de resultados.

6. INSTRUMENTACIÓN BÁSICA

6.1 Características que definen a los instrumentos

Como paso previo a la descripción de los instrumentos de medida, comparación y


verificación vamos a definir sus características:

1. Alcance de medida. Es el valor de la máxima magnitud que el instrumento puede


medir. El campo de medidas será el intervalo entre el alcance y la menor medida
posible.
2. La Apreciación o Límite de percepción, es la menor división en la escala o la mínima
diferencia entre dos mediciones consecutivas.
3. La Sensibilidad es la relación entre el desplazamiento del índice del aparato y la
magnitud medida. Por tanto cuanto mayor sea la amplificación del instrumento
mayor será la sensibilidad. En una regla, por ejemplo, la sensibilidad será 1.
4. La Fidelidad, es la aptitud del instrumento para reproducir la medida realizada
sobre la misma pieza en iguales circunstancias.

Una vez definidas sus características más importantes vamos a ver los principales
instrumentos de medida.

5
6.2 Instrumentos de medida propiamente dicho

Para trabajos corrientes que no exijan mucha precisión se utilizan las reglas flexibles y
cintas métricas cuya apreciación no supera el mm pero tienen un gran alcance de
medida. Para trabajos más precisos se usará el pie de rey y el micrómetro.

El pie de rey, llamado incorrectamente calibre, consta en esencia de una regla fija y otra
deslizante, llamada cursor, ambas terminadas en dos topes o bocas para medir exteriores
e interiores.
El cursor lleva un nonius que permite medir la posición del tope móvil con respecto al fijo.
Generalmente el nonius consta de una división más que la regla de manera que la
división de la regla ( mm, por ejemplo)
precisión será A  .
n º de divisiones del nonius
Los tipos corrientes de nonius usados en medidas métricas tienen precisiones de 1/10,
1/20 y 1/50.

El micrómetro, basa su funcionamiento en el tornillo micrométrico y las variaciones del


paso con cada vuelta. Para ello cuenta con 2 puntas que se aproximan entre sí mediante
un tornillo de rosca fina, el cual tiene grabado en su contorno las divisiones
correspondientes al paso de la rosca (habitualmente 0.5 mm).

El tambor de giro lleva un nonius incorporado para aumentar la precisión del aparato. La
máxima longitud de medida del micrómetro de exteriores suele ser de 25 mm, por lo que
es necesario disponer de un micrómetro para cada campo de medidas. Según su forma y
finalidad podemos distinguir entre micrómetros de interiores, de platillo para medir
engranajes, de puntas para la medición de roscas, de tres puntas para diámetros
interiores, de profundidades…etc.

Para la medición de ángulos se usa de forma rápida y precisa el goniómetro.


Generalmente consta de un círculo graduado en 360º, el cual lleva incorporado un dial
giratorio sobre su eje de simetría, para poder medir cualquier valor angular. El dial
giratorio dispone un nonius para medidas de precisión.

6.3 Instrumentos comparadores

El reloj comparador es principal instrumento de verificación por comparación. Un eje


palpador se desplaza por la superficie a verificar, de tal manera que sus variaciones son
amplificadas (de forma óptica, neumática o mecánica) para su lectura en un reloj
graduado. No miden cotas si no que comparan las de una pieza con las de otra tomada
como patrón.

6.4 Instrumentos de verificación

Como principales representantes nombraremos los calibres de límites. Estos materializan


físicamente las medidas máximas y mínimas de ejes o agujeros. De esta manera un eje a
verificar ha de pasar por el agujero mayor del calibre pero no pasar por el menor (PASA-
NO PASA). Destacan los calibres tampón para verificación de agujeros, los calibres de
herradura para verificación de ejes, los calibres de roscas. También se incluyen aquí los
peines de roscas, las galgas de espesores…etc.

You might also like