Professional Documents
Culture Documents
1.
Introducci
on
En esta breve nota pretendemos esclarecer las dos principales aproximaciones sobre propagacion
de errores en medidas indirectas.
Sabemos que todas las medidas directas que realiza un experimentador esta sujeta a errores (sistem
aticos o accidentales) de forma que toda medida viene en suma determinada seg
un la expresion
medida = (x x) [UNIDAD]
(1)
donde x no es m
as que el valor medio (o valor esperado) de nuestra medida (obtenida de forma
directa o como un promedio estadstico sobre un conjunto de realizaciones) y x el error asociado
a dicha medida1 .
Dados entonces un conjunto de variables independientes x1 , x2 , . . . , xN con sus respectivos
errores x1 , x2 , . . . , xN , nos preguntamos por el error asociado a una variable f (x1 , x2 , . . . , xN )
que depende de todas las anteriores. Parece logico suponer que el error asociado a esta nueva variable
(que no podemos medir directamente y se obtiene como combinacion de las anteriores) tendra un
error que depender
a, respectivamente, de todos los errores de las variables independientes.
Por centrar el problema, nuestra variable dependiente puede ser, por ejemplo, la gravedad g
obtenida a partir de un experimento de cada libre donde medimos, de forma directa, la altura y el
tiempo de cada. En estas condiciones,
f (x1 , x2 ) = g(h, t) =
2h
t2
(2)
El valor de g vendr
a dado a partir de la evaluacion de la variable dependiente en el valor esperado
de cada una de las variables independientes, esto es
g(h, t) = g(h, t) =
2h
t
(3)
para m
as detalles, las notas disponibles de la asignatura T
ecnicas Experimentales I
2.
Propagaci
on lineal
En primera aproximaci
on, podemos realizar un desarrollo en serie de Taylor sobre la funcion
dependiente f en el entorno del valor esperado f = f (x1 , x2 , . . . , xN ), reteniendo hasta el primer
orden en la aproximaci
on. Para funciones multivariables es inmediato obtener este desarrollo en
forma de
f
f
f
f (x1 , x2 , . . . , xN ) = f +
(x1 x1 ) +
(x2 x2 ) + . . . +
(xN xN )
x1 f
x2 f
xN f
(4)
esto es
f =
f
x1
x1 +
f
f
x2
x2 + . . . +
f
f
xN
xN
(5)
donde hemos definido las variables x = x x. Por conveniencia, para evitar una posible compensaci
on de errores, se toman no los monomios per se sino sus valores absolutos, de forma que el error
en la variable dependiente f , tomada como la diferencia entre el valor real y el valor esperado, se
define finalmente como
f
f
f
|xN |
|f | =
|x1 | +
|x2 | + . . . +
(6)
x1 f
x2 f
xN f
3.
Propagaci
on cuadr
atica
f
x2 cov(x1 , x2 )
(8)
donde cov(x1 , x2 ) es la covarianza entre ambas variables. En caso de que estas sean independientes entre s, la covarianza es nula y, en suma, la desviacion tpica (como estimador del error) es
simplemente:
s
2
f 2
2 (x1 ) + f 2 (x2 )
(f ) =
(9)
x1 f
x2 f
(10)
En u
ltima instancia, este metodo presupone la validez del teorema del lmite central, en el que
las desviaciones respecto del valor esperado para cada una de las variables implicadas sigue una
distribuci
on normal y, al estar no correlacionadas (esto es, al ser independientes entre s) permite
relacionar la varianza (como estimador del error) con las varianzas individuales de cada una de las
medidas independientes.
Este segundo metodo tiene la ventaja de producir un estimador del error mucho mas fiel que el
obtenido en el desarrollo lineal previo, habida cuenta de que se dispone de una muestra estadstica suficientemente amplia para verificar la validez del teorema del lmite central, y es el metodo
recomendable para el c
alculo de errores en medidas indirectas.