You are on page 1of 60

ANÁLISIS DE ERROR

Una magnitud física es un atributo de un cuerpo, un fenómeno o una sustancia,


que puede determinarse cuantitativamente, es decir, es un atributo susceptible de
ser medido. Ejemplos de magnitudes son la longitud, la masa, la potencia, la
velocidad, etc. A la magnitud de un objeto específico que estamos interesado en
medir, la llamamos mesurando.
Por ejemplo, si estamos interesado en medir la longitud de una barra, esa longitud
específica será el mesurando.

Para establecer el valor de un mesurando tenemos que usar instrumentos de


medición y un método de medición. Asimismo es necesario definir unidades de
medición.
Por ejemplo, si deseamos medir el largo de una mesa, el instrumento de medición
será una regla. Si hemos elegido el Sistema Internacional de Unidades (SI), la
unidad será el metro y la regla a usar deberá estar calibrada en esa unidad (o
submúltiplos). El método de medición consistirá en determinar cuantas veces la
regla y fracciones de ella entran en la longitud buscada.
En ciencias e ingeniería, el concepto de error tiene un significado diferente del uso
habitual de este término. Coloquialmente, es usual el empleo del término error
como análogo o equivalente a equivocación. En ciencia e ingeniería, el error, como
veremos en lo que sigue, está más bien asociado al concepto de incerteza en la
determinación del resultado de una medición.

Más precisamente, lo que procuramos en toda medición es conocer las cotas (o


límites probabilísticos) de estas incertezas. Gráficamente, buscamos establecer un
intervalo 𝑥 - Δx ≤ x ≤ 𝑥 + Δx como el de la Figura, donde con cierta probabilidad,
podamos decir que se encuentra el mejor valor de la magnitud x.

Este mejor valor 𝑥 es el más representativo de nuestra medición y al semiancho


Δx lo denominamos la incerteza o error absoluto de la medición.
En general, toda medición está acompañada de un error inherente, el cual se debe
estimar para establecer que tan confiable es la medición realizada.

Una buena estimación del error en una medición no se puede realizar si no se


conoce cuáles son las fuentes que lo ocasionan, y cual es el impacto que tiene
cada una de ellas en dicha medición. Por otra parte, del conocimiento de las
fuentes de error se pueden trazar estrategias de modo de minimizarlo o
compensarlo.
Fuentes de error.
Existen diferentes fuentes que generan error, algunas de las cuales se mencionan a
continuación:
• El ruido: Es una señal no deseable que no transmite ninguna información útil. La
característica fundamental del ruido, es que el mismo es aleatorio. El ruido puede
ser interno al instrumento, o proceder del exterior, puede ser mecánico (ej.:
vibración), o eléctrico (ej.: interferencia electromagnética). Puede originarse en el
elemento primario de medición, en el medio de conexión o en el instrumento
receptor. Usualmente el ruido se puede minimizar a nivel de diseño del
instrumento y mediante el empleo de técnicas adecuadas durante la instalación
del instrumento.
• La calibración defectuosa del sistema de medición. Usualmente debida al
tiempo de uso del instrumento, y solo aparece en los instrumentos no-
inteligentes.

• Las características estáticas y dinámicas del instrumento, por ejemplo, la


precisión, la inexactitud, la velocidad de respuesta, resolución, etc.
Los instrumentos tienen una precisión finita, por lo que, para un dado
instrumento, siempre existe una variación mínima de la magnitud que puede
detectar. Esta mínima cantidad se denomina la apreciación nominal del
instrumento. Por ejemplo, con una regla graduada en milímetros, no podemos
detectar variaciones menores que una fracción del milímetro.
Otra fuente de error que se origina en los instrumentos además de la precisión es
la exactitud de los mismos.
La exactitud es una medida de la calidad de la calibración de nuestro instrumento
respecto de patrones de medida aceptados internacionalmente. En general los
instrumentos vienen calibrados, pero dentro de ciertos limites.

• El cambio de energía por interacción. Esto es cierto, siempre y cuando la energía


para la medición se obtenga de la variable medida. Por ejemplo, en un indicador
de nivel de tubo de vidrio no existe este tipo de error, pero en un sensor invasivo
si. Se puede minimizar seleccionando adecuadamente el sensor.
• Transmisión de la señal. En este proceso se pueden presentar tres tipos de
errores: atenuación, distorsión y pérdidas, este último es de mayor importancia en
sistema neumáticos donde puede existir una pérdida de aire a través de los tubos
que conducen la señal neumática.

• Deterioro del sistema. Cada instrumento tiene un tiempo de vida útil dentro del
cual la operación del mismo es confiable. El desgaste, principalmente en piezas
mecánicas, ocasiona cambios en el comportamiento del instrumento y puede
minimizarse calibrando periódicamente al instrumento.

• Influencia del medio ambiente. Los cambios en las condiciones ambientales a


las cuales está sometido un instrumento, puede ocasionar cambios en el
comportamiento del instrumento. Los instrumentos inteligentes diseñados en la
actualidad, miden las condiciones ambientales y compensan el error.

• Errores de observación o interpretación. Estos errores son básicamente errores


humanos, y suelen ser de paralaje y de interpolación . Estos errores pueden ser
minimizados tomando varias mediciones recurriendo a la estadística.

• Cambios en los parámetros de cálculo. En los instrumentos que realizan


operaciones de cálculo con la variable medida, se puede presentar el caso de que
valores asumidos como constantes no lo son en la vida real.
Decimos que conocemos el valor de una magnitud dada, en la medida en que
conocemos sus errores. En ciencia consideramos que la medición de una magnitud
con un cierto error no significa que se haya cometido una equivocación o que se
haya realizado una mala medición. Con la indicación del error de medición
expresamos, en forma cuantitativa y lo más precisamente posible, las limitaciones
que nuestro proceso de medición introduce en la determinación de la magnitud
medida.

Según su carácter los errores pueden clasificarse en sistemáticos, estadísticos e


ilegítimos o espurios.
a)Errores sistemáticos: se originan por las imperfecciones de los métodos de
medición. Por ejemplo, pensemos en un reloj que atrasa o adelanta, o en una
regla dilatada, el error de paralaje, etc. Los errores introducidos por estos
instrumentos o métodos imperfectos afectarán nuestros resultados siempre en un
mismo sentido.
b)Errores estadísticos: Son los que se producen al azar. En general son debidos a
causas múltiples y fortuitas. Ocurren cuando, por ejemplo, nos equivocamos en
contar el número de divisiones de una regla, o si estamos mal ubicados frente al
fiel de una balanza. Estos errores pueden cometerse con igual probabilidad por
defecto como por exceso.
Por tanto, midiendo varias veces y promediando el resultado, es posible reducirlos
considerablemente. Es a este tipo de errores a los que comúnmente hace
referencia la teoría estadística de errores de medición lo designan como
Desviación estándar.
c) Errores ilegítimos o espurios: Supongamos que deseamos calcular el volumen
de un objeto esférico y para ello determinamos su diámetro. Si al introducir el
valor del diámetro en la fórmula, nos equivocamos en el número introducido, o lo
hacemos usando unidades incorrectas, o bien usamos una expresión equivocada
del volumen, claramente habremos cometido un error. Esta vez este error está
más asociado al concepto convencional de equivocación. A este tipo de errores los
designamos como ilegítimos o espurios. A este tipo de errores no se aplica la
teoría estadística de errores y el modo de evitarlo consiste en una evaluación
cuidadosa de los procedimientos realizados en la medición.
Los errores pueden asimismo expresarse de distintos modos, a saber:
-Error absoluto: es el valor de la incertidumbre combinada (Ec. 1.2). Tiene las
mismas dimensiones que la magnitud medida y es conveniente expresarla con las
mismas unidades de ésta. Si Z es la magnitud en estudio, 𝑍 es el mejor valor
obtenido y ΔZ su incertidumbre absoluta. El resultado se expresa adecuadamente
como:
Z = 𝑍 ± ΔZ (1.3)
El significado de esta notación es equivalente a decir que, según nuestra medición,
con una cierta probabilidad razonable p0 el valor de Z está contenido en el
intervalo de confianza ( 𝑍 - ΔZ, 𝑍 + ΔZ), o sea:
𝑍 - ΔZ < Z < 𝑍 + ΔZ . (1.4)
-Error relativo: Er = ΔZ / 𝑍 , el cociente entre el error absoluto y el mejor valor de
la magnitud.
-Error relativo porcentual: Er(%) =100×Er, es la incertidumbre relativa
• multiplicada por 100.
CARACTERÍSTICAS ESTÁTICAS Y DINÁMICAS DE LOS INSTRUMENTOS
Para la correcta selección de los instrumentos a ser instalados en un proceso, es
necesario el conocimiento del significado de cada una de sus propiedades. Se hará
una descripción de las características que forman parte de la especificación de un
instrumento.
Características estáticas de los instrumentos.
Las características estáticas de un instrumento son aquellas que exhibe el
instrumento en estado estacionario, es decir, cuando la variable medida se ha
estabilizado en un valor y permanece invariante en el tiempo.
Determinación de las características estáticas de un instrumento.
Al final de la etapa de fabricación de un instrumento y durante la etapa de
funcionamiento del mismo, se hace necesario la determinación, en el primer caso,
y la comprobación, en el segundo, de las características estáticas de un
instrumento.
Una vez que un instrumento ha sido instalado, se debe realizar una revisión
periódica de su calibración que consiste en determinar si el comportamiento del
mismo está acorde con los parámetros de especificación dados por el fabricante y
proceder a su corrección en caso de ser necesario. A continuación se describe el
procedimiento general que debe ser aplicado para la determinación y
comprobación de las características estáticas de un instrumento.
CARACTERÍSTICAS ESTÁTICAS Y DINÁMICAS DE LOS INSTRUMENTOS
Primeramente se deberá disponer de un instrumento patrón, con el cual comparar
las mediciones obtenidas. La tolerancia del instrumento patrón con respecto al
parámetro que va a ser estimado, debe ser preferiblemente una décima parte de la
tolerancia permitida en el instrumento bajo prueba, en todo caso no debe ser
superior a un tercio de la tolerancia permitida.
Por ejemplo, si se desea estimar la banda muerta de un instrumento, del cual se
espera que no sea superior a 0,2% del alcance, se debe utilizar preferiblemente un
instrumento patrón que tenga una banda muerta inferior a 0,02% del alcance, y en
todo caso nunca superior a 0,06% del alcance.
En algunos casos no es necesario recurrir a la utilización de un instrumento patrón,
y en su lugar se recurre a la medición de la variable, de la cual se conoce su valor,
aplicando leyes físicas. Este tipo de calibración es generalmente utilizado para
instrumentos de gran exactitud, como lo son los instrumentos patrón, e
instrumentos de laboratorio.
Las mediciones a tomar para la determinación de cierta característica, deben estar
distribuidas a lo largo de todo el rango de medición, cubriendo por lo menos desde
un valor por encima del 10% del RI y por debajo del 10% del RS. Se deben tomar
mediciones al menos en 5 puntos diferentes de la escala.
El proceso de calibración, consiste en tomar varias mediciones a lo largo de toda la
escala, recorriéndola en sentido ascendente y descendente varias veces, y
esperando que la medida se estabilice en su valor final en cada medición. Se debe
registrar el valor medido (Vm), el valor registrado por el instrumento patrón y la
diferencia entre ambos valores, considerando su signo (típicamente se resta el
valor medido menos el valor ideal o patrón). La diferencia entre ambos valores se
puede expresar en función del span, realizando la siguiente operación para cada
medición:

donde:
Vr = Valor real

El error también se puede expresar en términos porcentuales multiplicándolo por


100, o dejarlo en términos absolutos en unidades de la variable medida.
Características relacionadas con el rango.
Las características de los instrumentos relacionadas con el rango engloban las
particularidades distintivas que poseen los mismos con respecto a la banda de
valores de la variable medida.
Rango de medición/Campo de medida (RANGE).
Es el espectro de valores de la variable medida comprendido entre dos límites,
dentro de los cuales, es recibida, transmitida, o indicada la señal. El rango de
medición debe ir expresado en unidades de la variable medida, aún cuando en
algunos casos también se puede especificar el rango de la variable recibida o
transmitida.
Por ejemplo un transmisor de temperatura puede tener un rango de medición de -
10ºC a 50ºC en función de la variable medida, un rango en la entrada de -10mV a
100mV, y un rango en la salida de 4 a 20 mA.
Al límite alto del rango de medición se le denomina rango superior (RS) o valor
superior del rango (URV), mientras que al límite bajo del rango de medición se le
denomina rango inferior (RI) o valor inferior del rango (LRV).
Un instrumento no necesariamente puede ser calibrado en un rango de medición
único, por ejemplo un multímetro digital puede tener los siguientes rangos de
medición, seleccionados con un interruptor o perilla de selección: 0 V a 2 V, 0 V a
20 V, 0 V a 200 V y 0 V a 2000 V. En este caso se dice que el instrumento es
multirango.
Alcance (SPAN).
Es la diferencia algebraica entre el rango superior (RS) e inferior (RI) del rango de
medida o campo de medida del instrumento. Es decir el alcance del instrumento se
define como el RS (URV) menos el RI (LRV).
Alcance (SPAN) = RS – RI = URV - LRV
Típicamente en los instrumentos multirango también puede variar el alcance. El
alcance del instrumento es un parámetro muy importante, ya que gran parte de las
características del mismo están expresadas en función del alcance o del RS (FS).

Rango con cero elevado/Rango con elevación de cero/Campo de medida con


elevación de cero.
-Es aquel rango de medida en el que el valor cero de la variable o señal medida es
mayor que el valor inferior del campo.
-Cuando el cero de la variable medida está por encima del RI (LRV), se dice que el
instrumento tiene el rango con el cero elevado o que tiene elevación de cero.
 El factor de elevación de cero (FEC) se calcula como:
FEC = |RI| / Alcance = |LRV|/SPAN
Rango con cero elevado/Rango con elevación de cero/Campo de medida con
elevación de cero (continuación).
 Elevación cero (EC)
Es la cantidad con que el valor de cero de la variable supera el valor inferior del
campo o rango. Puede expresarse en unidades de la variable medida o en % del
alcance.
EC = |RI|= |LRV|
EC = |RI|x100%/Span

Rango con cero suprimido /Rango con supresión de cero/Campo de medida con
supresión de cero.
-Es aquel campo o rango de medición en el que el valor cero de la variable o señal
medida es menor que el rango inferior (RI) del rango o campo.
-Cuando el cero de la variable medida está por debajo del RI, se dice que el
instrumento tiene el rango el cero suprimido o que tiene supresión de cero.
 El factor de supresión de cero (FSC) se calcula como:
FSC = |RI| / SPAN
Rango con cero suprimido/Rango con supresión de cero/Campo de medida con
supresión de cero (continuación).
 Supresión cero (SC)
Es la cantidad con que el valor inferior del campo o rango (RI) supera el cero de
la variable. Puede expresarse en unidades de la variable medida o en % del
alcance.
SC = |RI|
SC = |RI|x100%/SPAN

Variabilidad del rango (RANGEABILITY).


La variabilidad del rango de un instrumento, se define como la relación entre el
valor máximo que puede medir (RS) y el valor mínimo que puede medir (RI).
Normalmente la variabilidad del rango es una característica principalmente
asociada a los instrumentos de medición de caudal y a las válvulas para control de
caudal.
Por ejemplo, un indicador de flujo que tenga una variabilidad del rango de 3:1,
indica que el máximo caudal que puede medir es tres veces mayor que el mínimo.
Exactitud (ACCURACY).
-Es una medida de conformidad de un valor indicado, transmitido o registrado, a
un valor ideal o estándar. La inexactitud de un instrumento es una fuente de error
en la medición, aunque generalmente no es la única. Muchos fabricantes de
instrumentos incluyen en el valor de exactitud, los errores por histéresis, banda
muerta, repetibilidad y linealidad de un instrumento.

-Es la cualidad de un instrumento de medida por la que tiende a dar lecturas


próximas al verdadero valor de la magnitud medida.

Formas de estimar la Exactitud.


Existen varias formas de estimar la exactitud de un instrumento, las cuales se
explican a continuación.
a) Basada en el valor más alejado.
En este caso se toma el error mayor obtenido durante el proceso de calibración
del instrumento, ya sea que este halla sido recorriendo la escala en sentido
ascendente o descendente. Dicho error corresponde al valor medido (lectura
efectuada) más alejado del valor real o ideal.
Exactitud = ± |Vm más alejado – Vr |
b) Basada en la desviación promedio.
En este caso se calcula la desviación promedio de todas las mediciones tomadas
para una misma entrada, y se expresa como la exactitud.

donde:
di = │Vmedido - Vr│
n = número de mediciones.

Por lo tanto, la exactitud será:


Exactitud = ± 𝑑

Un instrumento tiene distintas exactitudes en diferentes puntos del rango de


medición. Para calcular la exactitud total (en todo el rango de medición) se toma
entonces la desviación promedio mayor encontrada.
c) Basada en la desviación estándar.
En este caso se calcula la desviación estándar del error de todas las mediciones
tomadas, para lo cual se asume que el error sigue una curva de distribución
normal. La fórmula utilizada para calcular la desviación estándar es la siguiente:

donde:
xi = (ei - eprom)
ei = error en la medición i-ésima
eprom= error promedio de las mediciones

Los términos ei pueden estar expresados en unidades de la variable medida o


relativos al alcance. La exactitud se calcula entonces de acuerdo a la siguiente
fórmula:
Exactitud = ± (𝑒 + k.σ)

donde k es un valor entre 1 y 3, siendo k=1 cuando se está tomando como


referencia el 68 % de la muestra, para k=2 se está tomando el 95% y para k = 3 el
99.7%.
Si para los cálculos se toman todos los valores, tanto recorriendo la escala en
forma ascendente como descendente, entonces los valores de exactitud
calculados, contemplan los errores de precisión e histéresis.

Formas de expresar la exactitud.


Existen varias formas de expresar la exactitud, entre las más comunes
encontramos:

a) Porcentual con respecto al alcance.


En este caso la exactitud representa el límite del error absoluto que se puede
cometer en la medición, en cualquier punto del rango de medición del
instrumento, expresado en términos porcentuales con respecto al SPAN.

☺ EJEMPLO
Considere un instrumento que tiene las siguientes características:
RM: 200 °C a 400 °C
Exactitud: ± 0.5% SPAN.
Vm: 300 °C
Calcular entre qué valores puede estar comprendido el valor medido (lectura
efectuada).
􀀣 Solución.
SPAN = RS - RI = 400 °C - 200 °C = 200 °C.
Exactitud = ± 0.5% de 200°C = ± 1°C
El valor medido (o lectura efectuada) debe estar comprendido entonces entre (300
-1) y (300 +1) °C, es decir,
299 °C < Vm < 301 °C.

b) Porcentual con respecto al rango superior (FS).


En este caso la exactitud representa el límite del error absoluto que se puede
cometer en la medición, en cualquier punto del rango de medición del
instrumento, expresado en términos porcentuales con respecto al RS de medición.

☺ EJEMPLO.
Considere un instrumento que tiene las siguientes características:
RM: 200 °C a 400 °C
Exactitud: ± 0.5% del RS ó ± 0.5% FS.
Vm: 300 °C
Calcular entre que valores puede estar comprendido el valor medido (lectura
efectuada).
􀀣 Solución.
Exactitud = ±0.5% de 400 °C = ± 2°C
El valor medido (o lectura efectuada) debe estar comprendido entonces entre (300
-2) y (300 +2) °C, es decir,
298 °C < Vm < 302 °C.

c) Porcentual con respecto al valor medido.


En este caso la exactitud representa el límite del error absoluto que se puede
cometer en la medición, en cualquier punto del rango de medición del
instrumento, expresado en términos porcentuales con respecto al valor medido.
Debe notarse, que en este caso el error absoluto no es constante a lo largo de
todo el rango de medición, sino más bien depende del valor del medido.

☺ EJEMPLO.
Considere un instrumento que tiene las siguientes características:
Exactitud: ± 0.5% del Vm o ± 0.5% .
Vm: 300 °C
Calcular entre que valores puede estar comprendido el valor medido.
􀀣 Solución.
Exactitud = ±0.5% de 300 °C = ± 1.5ºC
El valor medido debe estar comprendido entonces entre (300 -1.5) y (300 +1.5) °C,
es decir,
298.5 °C < Vm < 301.5 °C.

d) En unidades de la variable medida.


En este caso la exactitud representa el máximo error absoluto que puede ser
cometido en la medición, para cualquiera que sea el valor medido, y expresado en
unidades de la variable medida.

☺ EJEMPLO 5.5.
Considere un instrumento que tiene las siguientes características:
Exactitud: ± 3 °C
Vm: 300 °C
Calcular entre que valores puede estar comprendido el valor real.

􀀣 Solución.
El valor medido debe estar comprendido entonces entre (300 -3) y (300 +3) °C, es
decir,
297 °C < Vm < 303 °C.
Precisión (PRECISION).
-La precisión de un instrumento, es la capacidad para indicar valores idénticos,
bajo el mismo valor de la variable medida y en las mismas condiciones de servicio
(mismo sentido de variación). A diferencia de la exactitud, la precisión indica la
dispersión entre si, de los valores medidos, más no la diferencia entre los valores
medidos y los valores reales.

-La precisión es la tolerancia de medida o de transmisión del instrumento


(intervalo donde es admisible que se sitúe la magnitud de la medida), y define los
límites de los errores cometidos cuando el instrumento se emplea en condiciones
normales de servicio durante un período de tiempo determinado (normalmente 1
año).

Formas de estimar la precisión.


La precisión se suele estimar por los siguientes métodos:

a) Basada en los valores más alejados entre sí.


En este caso se toma la máxima diferencia obtenida entre dos lecturas para la
misma entrada y en el mismo sentido de variación.
b) Basada en la desviación estándar.
En este caso se calcula la desviación estándar de las lecturas con respecto a la
lectura promedio, recorriendo la escala en sentido ascendente y en sentido
descendente. De los dos valores de desviación estándar obtenidos, se toma el
peor (el mayor).

La fórmula para calcular la precisión, basada en la desviación estándar es:

donde:
Xi = (Vm - Vm(promedio))

Se deben tomar los valores promedio de las mediciones en los puntos de la escala
fijados para realizar la determinación de las características estáticas.

Hay varias formas para expresar la precisión:


a)Tanto por ciento del alcance.
☺ Ejemplo: considere el instrumento de la figura
Precisión: ± 0.5 % Span
RM: 100 a 300°C
para una lectura de 150 °C (Vm)
Calcular entre qué valores puede estar comprendido el valor medido (lectura)

􀀣 Solución.
Span = RS - RI = 300 °C - 100 °C = 200 °C.
Precisión = ± 0.5% de 200°C = ± 1°C
El valor medido debe estar comprendido entonces entre (150 -1) y (150 +1) °C, es
decir,
149 °C < Vm < 151 °C.
b) Directamente, en unidades de la variable medida.
Ejemplo:
Precisión: ± 1 °C
Lectura : 150 °C y 200 °C
c) Tanto por ciento de la lectura efectuada.
Ejemplo:
Precisión: ± 1%.
Lectura : 150 °C y 200 °C
d) Tanto por ciento del valor máximo del campo de medida.
Ejemplo:
Precisión: ± 0.5 % FS.
Lectura : 150 °C y 200 °C
Hay que señalar que los valores de precisión de un instrumento se consideran en
general establecidos para el usuario, es decir, son los proporcionados por los
fabricantes de los instrumentos. Sin embargo, estos últimos suelen considerar
también los valores de calibración en fábrica y de inspección.
Por ejemplo, un instrumento que en fábrica tiene una precisión de calibración de ±
0.8 %, en inspección le corresponde ± 0.9 % y la dada al usuario es de ± 1 %.

Con ello se pretende tener un margen de seguridad para compensar los efectos de
las diferencias de apreciación de las personas que efectúan la calibración, las
precisiones de los instrumentos de medida utilizados, las posibles alteraciones
debidas al desplazamiento del instrumento de un punto a otro, los efectos
ambientales y de envejecimiento, etc.
Diferencia entre exactitud y precisión.
Se puede concluir que un instrumento puede ser: exacto y preciso, exacto mas no
preciso, preciso pero no exacto y ni preciso ni exacto.
Por lo tanto, los instrumentos de medida estarán diseñados por los fabricantes
para que sean precisos, y como periódicamente se descalibran, deben reajustarse
para que sean exactos.
Un ejemplo ilustrativo de la diferencia entre exactitud y precisión es el siguiente:
Un manómetro de escala 0-10 bar que repita la medida de 5 bar muchas veces en
las mismas condiciones, dará diferentes lecturas alrededor de 5 bar, que estarán
distribuidas según una curva de campana (curva de Gauss). El manómetro será
tanto más exacto cuanto más próximo esté el valor medio de las medidas al valor
verdadero de 5 bar y será más preciso cuanto menor sea la dispersión de las
medidas.
Esta figura ilustra de modo esquemático los conceptos de precisión y exactitud.
Los centros de los círculos indican la posición del “verdadero valor” del mesurando
y las cruces los valores de varias determinaciones del centro. La dispersión de los
puntos da una idea de la precisión, mientras que su centro efectivo (centroide)
está asociado a la exactitud. a) es una determinación precisa pero inexacta,
mientras d) es más exacta pero imprecisa; b) es una determinación más exacta y
más precisa; c) es menos precisa que a).
Resolución.
Es el mínimo intervalo entre dos valores adyacentes que pueden ser distinguidos
el uno del otro. Por ejemplo, una regla milimetrada tiene una resolución de un
milímetro.
Se expresa en general como un porcentaje del Límite Superior de medición del
instrumento ( valor a fondo de escala del mismo).
Ejemplo:
Resolución: ± 0.5 % FS.

Resolución =
ΔEntrada/ΔSalida

Resolución =
ΔMagnitud/# divisiones
Sensibilidad.
Es la relación que hay entre la variación experimentada por la salida de un
instrumento, y la variación a la entrada causante del cambio.

Por ejemplo, un termopar (sensor de temperatura), que genere una variación a la


salida de 100 mV para un cambio de temperatura de 100ºC, tendrá una
sensibilidad de 1mV/ºC.

La sensibilidad también se puede expresar en función del span del instrumento, en


este caso, se calcula como:
Zona muerta (dead zone o dead band)
Es el campo de valores de la variable que no hace variar la indicación o la señal de
salida del instrumento, es decir, que no produce su respuesta.
La banda muerta se mide al momento de ocurrir un cambio de dirección en el
sentido de variación de la variable medida. En la Figura puede observarse la
respuesta de un instrumento que presenta banda muerta.

La banda muerta en instrumentos mecánicos es ocasionada principalmente


debido a la fricción existente entre las piezas mecánicas. Se mide en cada ciclo de
medición (recorrido ascendente y descendente), durante el proceso de
calibración de un instrumento y se toma la peor de ellas.
Para medir la banda muerta se puede ejecutar el siguiente procedimiento:

1. Variar lentamente la entrada del instrumento (ya sea incrementándola o


disminuyéndola) hasta que se comience a observar un cambio en la salida.

2. Registrar el valor de entrada al cual se comenzó a observar la variación a la


salida.

3. Variar lentamente la entrada en la dirección opuesta, hasta que se observe un


cambio en la salida.

4. Registrar el valor de la entrada al cual se comenzó a observar variación a la


salida.

5. La diferencia entre los valores de entrada obtenidos en el segundo y el cuarto


paso es el valor de la banda muerta.
Viene dada en tanto por ciento del alcance de la medida.
Por ejemplo:
Zona muerta: ± 0.1 % Span
Span: 200 °C
Histéresis (hysteresis)
La histéresis es la diferencia máxima que se observa en los valores indicados por el
índice o la pluma del instrumento para el mismo valor cualquiera del campo de
medida, cuando la variable recorre toda la escala en los dos sentidos, ascendente y
descendente. En la figura puede verse la curva de histéresis que está dibujada
exageradamente para apreciar bien su forma.

Hay que señalar que el término zona muerta está incluido dentro de la histéresis.
Típicamente la respuesta de un instrumento presenta una combinación de
histéresis más banda muerta (ver Fig.), por lo que para obtener el valor de
histéresis, se debe primero conocer su banda muerta, luego al valor de histéresis
más banda muerta obtenido de la curva de calibración, se le resta el valor de la
banda muerta, para obtener así la histéresis.

Se expresa en tanto por ciento del alcance de la medida.


Por ejemplo: Si en un termómetro de 0 - 100 %, para el valor de la variable de 40
°C, la aguja marca 39.9 al subir la temperatura desde 0, e indica 40.1 al bajar la
temperatura desde 100 °C, el valor de la histéresis es de:
40.1 −39.9
Histéresis = 𝑥100 = ±0.2%𝑆𝑝𝑎𝑛
100 −0
Otros términos

Deriva
Es una variación en la señal de salida que se presenta en un período de tiempo
determinado mientras se mantienen constantes la variable medida y todas las
condiciones ambientales. Se suelen considerar la deriva de cero (variación en la
señal de salida para el valor cero de la medida atribuible a cualquier causa interna)
y la deriva térmica de cero (variación en la señal de salida a medida cero, debida a
los efectos únicos de la temperatura). La deriva está expresada usualmente en
porcentaje de la señal de salida de la escala total a la temperatura ambiente, por
unidad, o por intervalo de variación de la temperatura.

Por ejemplo,
la deriva térmica de cero de un instrumento en condiciones de temperatura
ambiente durante 1 mes fue de 0,2 % del alcance.

Fiabilidad
Medida de la probabilidad de que un instrumento continúe comportándose dentro
de límites especificados de error a lo largo de un tiempo determinado y bajo
condiciones especificadas.
Trazabilidad (Traceability)
Propiedad del resultado de las mediciones efectuadas con un instrumento o con un
patrón, tal que puede relacionarse con patrones nacionales o internacionales,
mediante una cadena ininterrumpida de comparaciones, con todas las
incertidumbres determinadas.

Ruido
Cualquier perturbación eléctrica o señal accidental no deseadas que modifica la
transmisión, indicación o registro de los datos deseados.

Linealidad
La aproximación de una curva de calibración a una línea recta especificada.

Estabilidad
Capacidad de un instrumento para mantener su comportamiento durante su vida
útil y de almacenamiento especificadas.

Temperatura de servicio
Campo de temperaturas en el cual se espera que trabaje el instrumento dentro de
límites de error especificados.
Características dinámicas.
Las características dinámicas de un instrumento se refieren al comportamiento del
mismo cuando la entrada o variable medida, está cambiando en el tiempo.
Para la determinación de las características dinámicas de un instrumento,
típicamente se somete al mismo a una entrada tipo escalón, y se estudia el
comportamiento de la salida en el tiempo. La respuesta típica de un instrumento,
ante un escalón, es ilustrada en la Figura.

Tiempo muerto.
Es el tiempo transcurrido desde el inicio de un estímulo a la entrada del
instrumento, hasta que existe un cambio observable a la salida. Una parte del
tiempo muerto se debe a la presencia de una banda muerta en el instrumento.

Tiempo de respuesta al escalón.


Es el tiempo transcurrido desde un cambio en la entrada (tipo escalón), hasta que
la salida alcance un porcentaje específico del valor en estado estacionario.
Usualmente este porcentaje suele estar entre 90% y 99%.
En algunos casos también se suele medir el tiempo necesario para que la salida
entre en la banda de exactitud del instrumento.
Tiempo de establecimiento.
Es el tiempo transcurrido después del inicio de un estímulo a la entrada (escalón),
hasta que la salida se estabiliza dentro de una banda alrededor del valor final
(usualmente 2%, o también se puede utilizar la banda de exactitud).
Por ejemplo, si el tiempo de establecimiento al 95% de cierto instrumento es de 5
s, esto significa que el instrumento ante un cambio tipo escalón en la entrada tarda
5 s en establecerse dentro de una banda de ± 5% del valor final.
A diferencia del tiempo de respuesta, el tiempo de establecimiento se mide
cuando la salida entra en la banda predefinida y nunca sale de ella, mientras que
para la determinación del tiempo de respuesta sólo se toma en cuenta cuando la
salida entra por primera vez en la banda preestablecida.

Tiempo de elevación.
Es el tiempo que tarda la salida en recorrer, ante un cambio tipo escalón en la
entrada, dos límites preestablecidos del valor final o de estado estacionario. Por
ejemplo, el tiempo de elevación 10-90 es el tiempo que tarda la salida en viajar
desde un valor al 10% del valor final hasta el 90% del valor final.
Velocidad de respuesta.
Es la rapidez a la que el instrumento responde a cambios en la cantidad medida.
Usualmente se determina sometiendo a la entrada a un cambio tipo escalón, y
midiendo el cambio a la salida experimentada durante el tiempo de elevación, es
decir:

Por ejemplo, si la velocidad de respuesta de un sensor de temperatura es de 10


°C/s, esto significa que el instrumento está en capacidad de medir dichas
variaciones de temperatura, sin error dinámico, es decir, con un error sólo debido a
la inexactitud del instrumento.

You might also like