You are on page 1of 3

Tecnicas Experimentales II

Sobre propagacion de errores en medidas indirectas


curso 2013/2014

1.

Introducci
on

En esta breve nota pretendemos esclarecer las dos principales aproximaciones sobre propagacion
de errores en medidas indirectas.
Sabemos que todas las medidas directas que realiza un experimentador esta sujeta a errores (sistem
aticos o accidentales) de forma que toda medida viene en suma determinada seg
un la expresion
medida = (x x) [UNIDAD]

(1)

donde x no es m
as que el valor medio (o valor esperado) de nuestra medida (obtenida de forma
directa o como un promedio estadstico sobre un conjunto de realizaciones) y x el error asociado
a dicha medida1 .
Dados entonces un conjunto de variables independientes x1 , x2 , . . . , xN con sus respectivos
errores x1 , x2 , . . . , xN , nos preguntamos por el error asociado a una variable f (x1 , x2 , . . . , xN )
que depende de todas las anteriores. Parece logico suponer que el error asociado a esta nueva variable
(que no podemos medir directamente y se obtiene como combinacion de las anteriores) tendra un
error que depender
a, respectivamente, de todos los errores de las variables independientes.
Por centrar el problema, nuestra variable dependiente puede ser, por ejemplo, la gravedad g
obtenida a partir de un experimento de cada libre donde medimos, de forma directa, la altura y el
tiempo de cada. En estas condiciones,
f (x1 , x2 ) = g(h, t) =

2h
t2

(2)

El valor de g vendr
a dado a partir de la evaluacion de la variable dependiente en el valor esperado
de cada una de las variables independientes, esto es
g(h, t) = g(h, t) =

2h
t

(3)

Obtenido el valor de la gravedad (formalmente, el valor esperado de la variable dependiente


f (x1 , x2 , . . . , xN )) c
omo obtenemos el error asociado a esa medida indirecta?
1 Ver,

para m
as detalles, las notas disponibles de la asignatura T
ecnicas Experimentales I

2.

Propagaci
on lineal

En primera aproximaci
on, podemos realizar un desarrollo en serie de Taylor sobre la funcion
dependiente f en el entorno del valor esperado f = f (x1 , x2 , . . . , xN ), reteniendo hasta el primer
orden en la aproximaci
on. Para funciones multivariables es inmediato obtener este desarrollo en
forma de






f
f
f
f (x1 , x2 , . . . , xN ) = f +
(x1 x1 ) +
(x2 x2 ) + . . . +
(xN xN )
x1 f
x2 f
xN f
(4)
esto es

f =

f
x1


x1 +
f

f
x2


x2 + . . . +
f

f
xN


xN

(5)

donde hemos definido las variables x = x x. Por conveniencia, para evitar una posible compensaci
on de errores, se toman no los monomios per se sino sus valores absolutos, de forma que el error
en la variable dependiente f , tomada como la diferencia entre el valor real y el valor esperado, se
define finalmente como






f
f
f




|xN |

|f | =
|x1 | +
|x2 | + . . . +
(6)
x1 f
x2 f
xN f

3.

Propagaci
on cuadr
atica

Esta primera aproximaci


on, si bien es valida para campos suaves (en el sentido de que varan
poco en el entorno del valor esperado), presenta el inconveniente de ser poco robusta para campos
no suaves. Una opci
on m
as realista consiste en definir el error a partir de la medida de la varianza
asociada
2
2
2 (f ) = f f = (f )
!2






f
f
f






=
|x1 | +
|x2 | + . . . +
|xN |
(7)
x1 f
x2 f
xN f
En el caso de un sistema de dos variables, por ejemplo, f (x1 , x2 ), la varianza torna en






f 2 2
f
f 2 2






(f ) =
(x1 ) +
(x2 ) + 2
x1
x2
x1
2



f


x2 cov(x1 , x2 )

(8)

donde cov(x1 , x2 ) es la covarianza entre ambas variables. En caso de que estas sean independientes entre s, la covarianza es nula y, en suma, la desviacion tpica (como estimador del error) es
simplemente:
s


2
f 2


2 (x1 ) + f 2 (x2 )
(f ) =
(9)


x1 f
x2 f

que puede extenderse a un sistema de N variables independientes


v
uN
uX f 2
2

(f ) = t
xi (xi )
i=1

(10)

En u
ltima instancia, este metodo presupone la validez del teorema del lmite central, en el que
las desviaciones respecto del valor esperado para cada una de las variables implicadas sigue una
distribuci
on normal y, al estar no correlacionadas (esto es, al ser independientes entre s) permite
relacionar la varianza (como estimador del error) con las varianzas individuales de cada una de las
medidas independientes.
Este segundo metodo tiene la ventaja de producir un estimador del error mucho mas fiel que el
obtenido en el desarrollo lineal previo, habida cuenta de que se dispone de una muestra estadstica suficientemente amplia para verificar la validez del teorema del lmite central, y es el metodo
recomendable para el c
alculo de errores en medidas indirectas.

You might also like