You are on page 1of 39

Capitulo IV

EL FILTRO DE WIENER



IV.1. ESTIMACION MSE (ERROR CUADRÁTICO
MEDIO) Y FILTRO DE WIENER
IV.2. EL FILTRO DE WIENER EN FRECUENCIA
IV.3. EL FILTRO DE WIENER A PARTIR DE LOS
DATOS
IV.4. PREDICCION LINEAL
IV.5. EL ALGORITMO DE LEVINSON
IV.6. LA ESTRUCTURA EN CELOSIA (LATTICE)
IV.7. APLICACIONES
IV.8. FILTRADO DE WIENER MULTICANAL
IV.9. CONCLUSIONES
IV.10. EJERCICIOS
IV.11. BIBLIOGRAFIA




IV.1. ESTIMACION MSE (MINIMO ERROR CUADRÁTICO) Y FILTRO DE WIENER

El problema de filtrar una señal x(t) o diseñar un filtro para x(t), se ha entendido
tradicionalmente en términos frecuenciales. Es decir, excesivamente influenciado por la transformada de
Fourier y bajo la idea de que en el dominio de la frecuencia nuestra comprensión mejora. Todo el proceso
de x(t), para obtener y(t), se entendía en términos de si esta última es una versión paso bajo, paso banda o
paso alto de la original. Esta manera, bastante restrictiva de catalogar el proceso llevado a cabo por un
filtro h(t), venia determinada por la viabilidad tecnológica de producir en la salida y(t) otras, digamos,
versiones de la señal de entrada. Los componentes tradicionales, bobinas y condensadores, se
caracterizaban en frecuencia y la síntesis, o diseño a partir de restricciones, del filtro solo estaba bien
definido en términos de respuesta frecuencial. Todo ello, sin contrapartida en el diseño a partir de
respuesta impulsional. La puesta en escena del procesado digital como tecnología capaz de realizar
cualquier operación matemática sobre una señal x(t), mas específicamente sobre su versión muestreada
x(n), abrió enormemente las perspectivas de que tipos de filtrado podían llevarse a cabo sobre ésta.

El objetivo del presente capítulo es plantear y resolver el problema de diseño de una respuesta
impulsional h(n), de longitud Q muestras, de modo y manera que la salida y(n) sea lo mas parecida
posible a una señal, denominada referencia, d(n). El denominado parecido puede establecerse con
cualquier criterio que se estime oportuno; no obstante, un planteamiento lineal del problema obliga a
tomar, como medida de parecido, el error cuadrático medio entre la salida y la referencia.

{ } { }
2 2
) ( ) ( ) ( n y n d E n E − = = ε ξ (IV.1)

Dicho de otro modo, el propósito es encontrar un FIR de Q coeficientes h(n) (n=0,Q-1) tal que su
respuesta a los datos, de este modo se denominara a la señal de entrada, produzca una salida lo mas
próxima a la referencia en términos de MSE (Error Cuadrático Medio) mínimo. La situación se resume en
la figura IV.I:

DATOS x(n) n=0,...N-1 vector X
n
FILTRO h
*
(q) q=0,...,Q-1 vector h

SALIDA y(n) n=0,...,N+Q-1
REFERENCIA d(n) n=0,...,N-1













Figura IV.1 Esquema del filtro de Wiener, con indicación de datos, salida, referencia y el error. El
objetivo es minimizar la potencia del error.

De nuevo es útil formular el problema en términos vectoriales. La salida del filtro puede
escribirse como:


n
H
X h n y = ) ( (IV.2)

Al introducir esta última expresión en (IV.1) y desarrollar el valor esperado de su modulo al cuadrado se
obtiene la función objetivo a minimizar.

h P P h h R h P
H H H
d
− − + = ξ (IV.3)

FILTRO DE WIENER
h*(n)
SALIDA
y(n)
REFERENCIA
d(n)
RESIDUO o ERROR
ε
(n)
+
_
Siendo:

P
d
la potencia de la señal de referencia P
d
=E{|d(n)|
2
};
{ }
H
n n
X X E R = La matriz de correlación de los datos, matriz de Q×Q;
{ } ) (
*
n d X E P
n
= Es el denominado P-vector, de Q componentes, que contiene como entradas la
correlación cruzada entre los datos y la referencia. De hecho su componente q es r
dx
(-q).

Así pues, el filtro óptimo, se entiende que en términos de error cuadrático medio, es aquel que
minimiza el MSE (según (IV.3)). Los coeficientes del filtro óptimo se obtendrán al derivar esta última
expresión con respecto a ellos e igualar a cero. De nuevo, al tratarse de una forma cuadrática, cumple las
condiciones de Cauchy-Rieman, por lo que el gradiente del objetivo con respecto al vector hermitico, al
igualarse al vector cero, proporciona la solución buscada.

0 = − = ∇ P h R H
h
ξ (IV.4.a)

De esta expresión se obtiene el vector de coeficientes óptimo.

P R h
opt
1 −
= (IV.4.b)

Antes de proseguir se examinara brevemente esta última expresión. Nótese que cuando se
calcula la salida con el filtro óptimo, tienen lugar dos operaciones conceptualmente diferentes. En primer
lugar, la multiplicación del vector de datos por la inversa de la autocorrelación de los datos, puede
interpretarse como un proceso de atenuación de todas las componentes o señales presentes a la entrada. Es
decir, cada señal recibe una atenuación que es proporcional a su potencia. Es por esta razón que a veces,
se le denomina al filtro de Wiener como un inversor de la potencia interferente en aplicaciones de
comunicaciones. Recuerde que al multiplicar por la inversa de la correlación los datos, los nuevos datos
tendrían una matriz de correlación precisamente igual a la inversa. Ha de insistirse que este proceso es
general e independiente de la señal de referencia elegida.


n
H
n
H
opt
X R P X h n y
1
) (

= = (IV.5)

Una vez, en los nuevos datos, todas las señales están atenuadas, los datos resultantes se proyectan sobre el
P-vector, siendo este último la correlación cruzada de datos y referencia y por tanto un vector en la misma
dirección que la propia referencia. De este modo se enfatiza aquella señal o la parte que es parecida a la
referencia. En definitiva el filtrado óptimo MSE puede verse intuitivamente como un proceso de inversión
de los datos para, después proyectarlos sobre la dirección de la correlación cruzada con el fin de enfatizar
su contenido en el de la referencia.

En lo que se refiere al MSE mínimo, éste se obtendrá al sustituir (IV.4) en (IV.3). El resultado se
muestra a continuación de diferentes maneras:


opt
H
opt d opt
H
d
H
d min
h R h P h P P P R P P − = − = − =
−1
ξ (IV.6)

Esta última expresión permite escribir una versión alternativa del MSE que evidencia la dependencia
cuadrática del MSE en el filtro implementado y que será de gran utilidad en el capítulo siguiente:

( ) ( )
opt
H
opt min
h h R h h − − + = ξ ξ (IV.7)

También, esta ultima expresión muestra que el MSE, no sólo depende del error que se comete en la
implementación de los coeficientes, sino que además depende del escenario de entrada o de los datos, mas
específicamente de su correlación.

La utilidad de la expresión anterior estriba en que, si por cuestiones relativas a la
implementación del filtro (cuantificación dura de coeficientes en procesadores de coma fija), los
coeficientes fuesen variables aleatorias alrededor de su valor óptimo (E{h}=h
opt
), el MSE se convertiría
en una variable aleatoria cuyo valor esperado sería igual a:


| | ( ) ( ) { }
{ } | | | |
a
min
H
opt opt min
opt
H
opt min
R traza h h h h E R traza
h h R h h E E
Σ + = − − + =
= − − + =
ξ ξ
ξ ξ
) )( (
(IV.8)

(IV.8) donde Σ
a
es la matriz de covarianza de los coeficientes.

Nótese que esta última expresión es también útil para evaluar el impacto que tendría la
implementación en coma fija o con longitud finita de registros del filtro de Wiener. La varianza de los
coeficientes sería incorrelada, en consecuencia la matriz Σ
a
sería diagonal, y el exceso de error sería igual
al producto de la potencia del error de cuantificación, por el número de coeficientes del filtro, y por la
potencia de la señal de entrada. Este tipo de cálculo es muy útil para la evaluación de la calidad final
obtenida en los canceladores de ecos que se exponen al final del presente capítulo que suelen realizarse
sobre procesadores de coma fija.

Antes de pasar a revisar otros aspectos del filtro de Wiener, es interesante plantearlo en términos
geométricos. La ventaja del empleo de objetivos tipo MSE es que estos pueden expresarse como la norma
del vector error; es decir, ξ es la norma del vector ε cuyas componentes son ε(n). En otras palabras, queda
definido un espacio vectorial donde la norma y producto escalar se definen como el valor esperado de la
suma de los productos, componente a componente, del vector o los dos vectores implicados. Dejando de
lado la formalidad, se puede hacer una interpretación geométrica del planteamiento y diseño del filtro de
Wiener, que es de una ayuda inestimable a la hora de entender su funcionamiento. Se mostrará esta
interpretación a continuación para el caso de dos dimensiones, es decir, Q igual a 2. Si el filtro a diseñar
cuenta con tan solo dos componentes h(0) y h(1), los datos utilizados serán tan solo x(n) y x(n-1), y la
salida y(n) será la combinación lineal de estos dos últimos según h(0) y h(1). Al ser y(n) siempre una
combinación lineal de los datos puede decirse que esta estará contenida siempre en el plano de los datos
(véase la figura IV.2):

datos los de Plano n y ⊂ ) ( (IV.9)

















Figura IV.2 Interpretación geométrica del filtro de Wiener para orden 2. Indicación de que el
ángulo formado por el error y el plano de los datos ha de ser noventa grados.


Claramente si se pretende que la norma del error, con la definición de producto escalar tomada, sea
mínima, entonces el error ha de ser ortogonal al plano de los datos. Esto último equivale a decir que el
producto escalar del error con todos los datos ha de ser cero. La condición, con el producto escalar
elegido al definir la norma del error E{.}, aparece en la siguiente expresión y se la denomina principio de
ortogonalidad:

x(n)
x(n-1)
y(n) SALIDA
PLANO DE LOS DATOS
d(n) REFERENCIA
ε(n) ERROR
{ } 1 ,..., 0 0 ) ( ) ( − = = − ⇒ ⊥

Q q q n x n E DATOS ε ε (IV.10)

Una interpretación interesante del principio de ortogonalidad es que puede asegurarse que,
cuanto menos se parezcan la señal de error y los datos, mejor diseñado estará el filtro. De este modo e
intuitivamente, si la señal de entrada fuese audio cuanto menos se entienda el programa en la señal de
error mejor estará diseñado el filtro; en definitiva, la ortogonalidad estadística ha de entenderse como
parecido mínimo entre las señales implicadas.

Por último, el principio de ortogonalidad permite escribir una expresión alternativa para el MSE
mínimo. Esta expresión, derivada directamente del error usando (IV.10) queda:

{ } ) ( ) (
*
n d n E
min
ε ξ = (IV.11)

Para evaluar la forma de trabajar del filtro de Wiener se mostrara su aplicación en un entorno de
ecualización en comunicaciones. Para ello, una señal BPSK de longitud 1024 muestras se introduce a un
canal cuya función de transferencia aparece en la figura IV.3. El canal presenta seis coeficientes:

G(z) = 1-0,3 z
-1
-0,1 z
-2
+0,5 z
-3
+ 0,1 z
-4
–0,01 z
-5
.

Dado de que se trata de ilustrar la capacidad del diseño MSE, se supondrá que la relación señal a
ruido es elevada (>60 dB.). La señal contiene cuatro muestras por símbolo, la forma del pulso
conformador es rectangular y el orden seleccionado del filtro de Wiener es de 18 coeficientes.

En la figura IV.4 se puede ver como la diferencia entre la señal a la salida y la señal de entrada es muy
pequeña; por otro lado el perfecto funcionamiento como ecualizador se muestra en la figura IV.5 donde la
respuesta frecuencial del filtro (ecualizador) conseguido se parece mucho a la inversa de la respuesta del
canal. Tanto la matriz de autocorrelación de los datos como el vector de correlación se han estimado a
partir de las muestras de datos y referencia respectivamente.





















Figura IV.3. Respuesta del canal a la señal de entrada. Esta será la respuesta
que el filtro de Wiener ha de ecualizar.








0 20 40 60 80 100 120 140
-14
-12
-10
-8
-6
-4
-2
0
2
4
6
frecuencia
dB
Respuesta frecuencial del canal




















Figura IV.4. Comparación entre la señal de referencia (línea continua) y la señal ecualizada a la
salida del filtro de Wiener (línea discontinua).




















Figura IV.5. Respuesta frecuencial del filtro diseñado con 18 coeficientes
para ecualizar el canal de la figura IV.3.


IV.2 EL FILTRO DE WIENER EN FRECUENCIA

Si bien el diseño del filtro de Wiener suele tener lugar en el diseño temporal, como se comento al
principio del capitulo, mucha de la comprensión de sistemas y diseños va ligada a su representación
frecuencial. Por esta razón, este apartado se va a ocupar de la forma de trabajar del filtro de Wiener en
dicho dominio. Esta descripción en frecuencia enriquece el conocimiento del filtro y, lo que es más
importante, permite establecer de antemano su interés ante un escenario y una referencia dada.

Para comprender la forma de trabajar del filtro de Wiener en frecuencia es necesario extender las
ecuaciones de diseño para un filtro de respuesta impulsional infinita, en lugar del caso FIR causal. Por
razones de presentación, se reproducen a continuación las ecuaciones de diseño de un filtro de Wiener
tipo FIR de Q coeficientes:

0 20 40 60 80 100 120 140
-30
-28
-26
-24
-22
-20
-18
-16
-14
-12
frecuencia
d
B
Respuesta del filtro de Wiener
900 920 940 960 980 1000 1020
-0.8
-0.6
-0.4
-0.2
0
0.2
0.4
0.6
tiempo
vol
ts
Cien muestras de la referencia y la señal ecualizada
1 ,..., 0 ) ( ) ( ) (
1
0
− = = −


=

Q l l r q l r q h
dx
Q
q
xx
(IV.12)

Cuando la ecuación anterior incluye un filtro cuya respuesta se extiende de - ∞ a +∞ el comportamiento
del filtro de Wiener en frecuencia viene dado por la expresión:
He modificado esta ecuacion, la revisé en su momento y no la corregí.
( ) ( ) ( ) ( ) ( ) ( )
x dx x xd
H S S H S S ω ω ω ω ω ω

− = − ⇔ − = (IV.13)

Siendo H(ω) la respuesta en frecuencia (si bien estrictamente hablando y dado que se trata de un sistema
discreto se debería escribir H(exp(jωT)), siendo T el periodo de muestreo), S
x
(ω) es la densidad espectral
de la entrada, y S
xd
(ω) es la densidad espectral cruzada de los datos con la referencia. Es de destacar que
en general la solución óptima de Wiener, planteada a nivel frecuencial, produce un filtro no causal, por lo
que cuando se usa un filtro FIR las conclusiones derivadas aquí tienen un carácter aproximado o no
exacto. Es preciso destacar que la ecuación (IV.13) coincide con la ecuación (II.25), excepto por el hecho
de que se esta asumiendo que el filtro H(ω) es el conjugado del que aparecía en el capítulo II.

La expresión (IV.13) justifica que, estimando las dos densidades espectrales con un
procedimiento como WOSA o MLM (ver capitulo anterior) pueda estimarse el filtro de Wiener por el
cociente de ambas. Mas adelante, se volverá sobre este aspecto.

Igual que la última expresión proporciona el diseño en frecuencia del filtro, usando el teorema de
Parseval en la expresión del error mínimo este puede escribirse como:

| |
( ) | |
∫ ∫


− −



− =
(
(
¸
(

¸

− =
=
(
(
¸
(

¸

− =
= − − = − =
π
π
π
π
π
π
π
π
ω ω γ ω
π
ω
ω ω
ω ω
ω
π
ω
ω
ω ω
ω
π
ω ω ω ω
π
ξ
d S d
S S
S S
S
d
S
S S
S
d H S S P h P
d
d x
xd dx
d
x
xd dx
d
dx d
H
opt d min
2
1 ) (
2
1
) ( ) (
) ( ) (
1 ) (
2
1
) (
) ( ) (
) (
2
1
) ( ) ( ) (
2
1
(IV.14)

Ecuación que indica la dependencia del error mínimo con las densidades espectrales de datos y referencia.
Se hace evidente que la coherencia espectral entre la referencia y los datos es la función que permite
anticipar cuan efectivo será el filtro de Wiener para resolver el problema de obtener a partir de x(n) una
señal parecida a la referencia d(n). Más interesante aun es que la relación anterior muestra en qué
frecuencias la salida del filtro va a seguir el contenido de la referencia y en cuáles se va a alejar.

Como ya se comentó en el capítulo dedicado a los procesos estocásticos, la coherencia espectral
entre dos señales se aproxima a la unidad cuando entre ambas existe una relación lineal; es decir, cuando
la distorsión no lineal o el ruido son pequeños. Lo interesante de la coherencia es que espectralmente
indica el grado de dificultad que distorsión y ruido entrañan de cara a la efectividad del filtro de Wiener a
diseñar. El poder calcular el error mínimo antes de implementar o diseñar el filtro permite también
elaborar la decisión y ponderar si la complejidad compensa la calidad obtenida.

Es interesante conocer aquellos fenómenos que afectan a la coherencia espectral. La propia
palabra indica que si dos valores de la transformada de Fourier de la señal d(t) y x(t) son denominados
coherentes quiere decir que existe una relación lineal entre ambos. En otras palabras, decir que el
contenido en una banda de frecuencia de una señal es coherente con el de otra señal en la misma banda
implica que una de las dos se puede obtener de la otra mediante una transformación lineal, es decir,
mediante un filtro lineal. Dado que el filtro de Wiener es lineal, claramente en aquellas zonas donde la
coherencia anticipa que existe una relación lineal, el filtro de Wiener hará bien su trabajo y el MSE en esa
banda será pequeño. Efectivamente si entre dos señales existe una relación lineal entonces la coherencia
espectral vale la unidad:

ω γ
ω ω ω
ω ω ω
ω ω ω
ω ω ω
∀ =
=
=
=
− = ⇔ ∗ =

; 1 sec
) ( ) ( ) (
) ( ) ( ) (
) ( ) ( ) (
) ( ) ( ) ( ) ( ) ( ) (
2
2
uencia con en y
S G S
S G S
S G S entonces
G D X n g n d n x si
dd xx
dd dx
dd xd
(IV.15)

Por otro lado, como ya se ha comentado en el segundo tema, la salida del filtro h(t) (cuando a su entrada
se aplica d(t)), pierde coherencia por la presencia de ruido aditivo (ver figura IV.6). Si la densidad
espectral del ruido w(t) es S
w
(ω) la coherencia pasa a ser en este caso:


) ( 1
) (
) (
2
) (
) (
1
1
2
) (
ω
ω
ω ω
ω
ω γ
SNR
SNR
d
S G
w
S
+
=
+
= (IV.16)

Nótese que la expresión define la relación señal a ruido como la potencia entre la parte de la
salida coherente con la entrada y ruido a aquella que no lo es. De este modo, puede encontrarse como
afecta la SNR frecuencial a la coherencia, y por tanto, como afecta el ruido a la calidad del filtro de
Wiener. En otras palabras, en aquellas bandas donde el ruido es alto, la aproximación del filtro de Wiener
al deseado G
-1
(ω) será de peor calidad que en aquellas donde el ruido sea mas pequeño.











Figura IV.6. Sistema lineal con ruido aditivo. La densidad espectral del ruido ‘enmascara’ la
identificación correcta de G(ω) por el filtro de Wiener.


La distorsión no-lineal y las interferencias también provocan la disminución de la coherencia
espectral en las bandas de frecuencia donde se producen. Nótese que en el caso de un amplificador, la
coherencia cae en la banda de paso debido a distorsión no lineal fundamentalmente, ya que en esa zona
frecuencial la SNR es alta y el esfuerzo dinámico de los componentes muy alto. Por otro lado, en la banda
eliminada la coherencia cae por efecto del ruido ya que el nivel de señal es bajo y, como consecuencia del
bajo esfuerzo dinámico, la distorsión no lineal es prácticamente inexistente.

A continuación se vera como sería el filtro de Wiener diseñado en las condiciones de SNR finita
y para el caso del diseño de un ecualizador, es decir, el sistema que invierte a G(ω). Tal como se indica en
(IV.17), el ecualizador se ve afectado por las densidades espectrales de la señal transmitida y el ruido:


) (
1
1
1
) (
1
) (
) (
) (
) (
) (
1
) ( ) ( ) (
) ( ) (
) (
) (
) (
2
2
*
ω
ω
ω
ω
ω
ω
ω
ω ω ω
ω ω
ω
ω
ω
SNR
G
H
S
S
S
G
S S G
S G
S
S
H
w
d
d
w d
d
x
xd
+
=
+
=
=
+
= = −

(IV.17)

G(ω)
+
d(t)
w(t) , ruido
x(t)
Nótese que solo para valores altos de la SNR(ω) el filtro de Wiener ecualiza o iguala, tomando valores
próximos a la inversa de la respuesta del canal de transmisión G(ω). Por el contrario, cuando la SNR es
muy baja el filtro de Wiener se aproxima a:


) (
) (
) ( ) (
*
ω
ω
ω ω
w
d
S
S
G H ≈ −

(IV.18)

Esta expresión tiene mayor similitud con la de un filtro adaptado a la respuesta del canal que a un
igualador en sentido estricto. Antes de finalizar el apartado es importante insistir que todas las
expresiones y comportamientos descritos tienen un carácter asintótico. La implementación en frecuencia
del filtro, vía (IV.13), calculando la salida como producto de la DFT de la entrada por la H(ω) encontrada
es obviamente una aproximación que depende del procedimiento de análisis espectral empleado para la
estimación de las densidades espectrales cruzadas y autoespectro implicadas. Esta aproximación
acostumbra a ser de menor calidad que la implementación en el dominio temporal que se describirá en el
próximo apartado.

Para ilustrar la importancia de la coherencia espectral, se volverá al ejemplo expuesto en el
apartado anterior. Ahora la señal recibida se encuentra contaminada con ruido blanco de tal modo que la
Eb/No es de 11 dB. Se considera que el filtro adaptado ha sido situado antes de muestrear la señal en el
receptor para someterla al filtro, por lo cual el número de muestras por símbolo será ahora lógicamente
una sola. La Figura IV.8 muestra ahora más diferencias entre la salida y la entrada. Con todo, la
compensación del canal ha tenido efecto y la tasa de error del detector tan solo se resiente en una perdida
de 2 dB.























Figura IV.8. Comparación entre referencia y salida del filtro para una Eb/No de 11dB. El canal
utilizado es el de la figura IV.3.


De la respuesta frecuencia del filtro puede apreciarse la perdida de calidad en las zonas donde, debido al
espectro de la señal de entrada (al ser una modulación BPSK es el módulo al cuadrado de una función
sinc), la respuesta del canal que en 40 y en 138 tiene fuertes atenuaciones provocan que la relación señal a
ruido sea mas baja que en resto de frecuencias. En efecto, las conclusiones de calidad pueden obtenerse
desde la representación de la coherencia espectral donde puede observarse (ver la figura IV.10) que
efectivamente decae en las zonas mencionadas.



985 990 995 1000 1005 1010
-1
-0.8
-0.6
-0.4
-0.2
0
0.2
0.4
0.6
0.8
tiempo
v
o
l
t
s
Ultimas muestras, ref(disc.) W-ec(cont)


















Figura IV.9. Respuesta del filtro de Wiener ecualizador para una Eb/No de 11 dB.

El efecto de perdida de coherencia se aprecia mas cuando, en lugar de ruido blanco, la señal
recibida se ve afectada por dos interferencias de banda estrecha. En la Figura IV.11 el lector puede
concluir donde se encuentran las interferencias y lo lógica que resulta la respuesta frecuencial del filtro
obtenido. Todos los estimadores de la coherencia se han realizado con el método WOSA, segmentos de
256 muestras, sin solapamiento y ventana rectangular.




















Figura IV.10. Representación de la coherencia espectral para el caso descrito en el texto. Puede
apreciarse como a las frecuencias a las que el canal presenta fuerte atenuación,
la coherencia cae por debajo de la unidad, provocando que esas zonas el filtro
de Wiener se aleje de ser el ecualizador correcto de la respuesta del canal.











0 20 40 60 80 100 120 140
-32
-30
-28
-26
-24
-22
-20
-18
-16
frecuencia
d
B
Respuesta del filtro de Wiener
0 20 40 60 80 100 120 140
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
frecuencia
M
o
d
u
l
o
a
l
c
u
a
d
r
a
d
o
Coherencia espectral


















Figura IV.11. Coherencia y filtro cuando están presentes dos interferencias de banda estrecha.


IV.3. EL FILTRO DE WIENER A PARTIR DE LOS DATOS.

La presentación del filtro de Wiener se formuló, en el primer apartado de este capitulo, en
términos estadísticos como consecuencia de definir el error cuadrático medio (MSE) con un valor
esperado. Por esta razón, las funciones implicadas en el diseño del filtro son funciones estadísticas, matriz
de autocorrelación de los datos y vector de correlación cruzada de los datos con la referencia. Una manera
diferente, y más general, de formular el problema es alegar que el MSE entraña en su definición una
norma para el espacio vectorial que definen los datos y la referencia; dicho de otro modo, la operación
E{.} es la formulación de un producto escalar, que define también la norma. Si esta norma se define de
otro modo, también cambiara la formulación de la matriz de autocorrelación y la del vector de correlación
cruzada. Para ser más explícitos, si Est{.} denota una estimación del valor esperado E{.}, se puede estar
seguro de que, si el estimador posee las cualidades de una norma, el filtro de Wiener quedaría formulado
con el mismo estimador:


{ }
{ } ( ) { } ) (
) (
*
1
2
n d X Est X X Est h
n e Est MSE
n
H
n n

=

(IV.19)

Dicho esto, puede argumentarse que cualquier estimador podría utilizarse y dejar al lector la
sensación de que la puesta en practica del filtro es tan fácil como parece. No obstante, el hecho de que
este en juego la implementación del filtro, obliga a hacer una descripción mas detallada de lo anterior. De
hecho, se ha de partir de la situación habitual, donde lo único que se dispone es de una colección de N
muestras de la entrada y de la referencia y se quiere diseñar el filtro de Wiener. Antes de proceder al
diseño, es necesario expresar como serán las ecuaciones de filtrado con una formulación vectorial.

Si se desea diseñar un filtro de Q coeficientes y la señal de entrada tiene una longitud de N
muestras, es claro que la salida del filtro y(n) tendrá N+Q-1 de las que Q-1 serán el denominado pre-
transitorio y otras Q-1 serán el post-transitorio. De este modo, el vector de muestras de la salida será:

| | ) 1 ( ),....., ( ), 1 ( ),......, 1 ( ), 2 ( ),..., 0 ( − + − − − = Q N y N y N y Q y Q y y y
T
(IV.20.a)

El filtrado quedara definido por,

X h y
H T
= (IV.20.b)

Quedando definida la matriz de datos como:

0 50 100 150
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
frecuencia
M
o
o
a
c
a
a
o
Coherencia espectral
0 50 100 150
-30
-25
-20
-15
-10
frecuencia
d
B
Respuesta del filtro de Wiener
(
(
(
(
(
(
¸
(

¸

− + − −
+ − + −
− − − −
− − −
=
) 1 ( ) 1 ( ) ( ) 0 ( 0 0 0
0 ) 2 ( ) 1 ( ) 1 ( ) 0 ( 0 0
0 ) 1 ( ) 2 ( ) 2 ( ) 3 ( ) 0 ( 0
0 0 ) 1 ( ) 1 ( ) 2 ( ) 1 ( ) 0 (
N x Q N x Q N x x
Q N x Q N x x x
N x N x Q x Q x x
N x Q x Q x x x
X
L L L
L L L
M M M M M M M
L L L
L L L


Con esta formulación, el objetivo pasa a ser el minimizar el error entre la referencia y los datos.

Dejando de lado, por el momento, que la referencia tiene Q muestras, menos que la salida, el
objetivo será minimizar el nuevo MSE definido como:


2 2
X h d y d MSE
H T T T
− = − ≡ (IV.21)

Para obtener el óptimo, el gradiente con respecto al vector del filtro (derivar con respecto a su transpuesto
conjugado) viene dado por (IV.22), así como el filtro óptimo:


( )
| |
*
1
*
0
d X X X h
h X d X
H
H

=
= −
(IV.22)

Ahora puede comprenderse lo que se quería decir con el cambio de norma, al pasar a una nueva
definición del MSE, los nuevos estimadores de la matriz R y el vector P son:


*
ˆ ˆ
d X P X X R
H
= = (IV.23)

Obviamente ambos contienen una formulación de estimadores tradicionales de correlación y
correlación cruzada. Es más, se puede comprobar que el estimador, por ejemplo, de la matriz de
autocorrelación se puede formular de otro modo como se indica a continuación:



− +
=
= =
1
0
Q N
n
H
n n
H
X X X X R (IV.24)

Donde, claramente los vectores X
n
no son más que cada una de las columnas de la matriz de datos.

Vista la conexión del diseño usando únicamente los datos con el diseño usando valores
esperados, falta por tomar una decisión con respecto a como se forma el vector de la referencia
disponiendo sólo de N muestras. Para ello, existen varias posibilidades, de las que las mas importantes se
listan a continuación:

1.- Poner Q-1 ceros y a continuación las N muestras disponibles de d(n): usar n=0,...,N+Q-1.
2.- Poner Q-1 ceros al final de d(n): usar n=0,...,N+Q-1.
3.- Tomar de la salida tan solo las N-Q+1 muestras del permanente: usar n=Q-1,...,N-1.
4.- Poner Q-1 ceros, a continuación, poner N-Q+1 muestras de d(n) (comenzando por d(0)) y
añadir Q-1 ceros: usar n=0,...,N+Q-1.

Los métodos (1) y (2) incluyen el pre y el post transitorio respectivamente. Dado que no parece
lógico el que el error en el transitorio sea importante en la mayor parte de las aplicaciones las dos
primeras opciones no son de un uso extendido. De hecho, en (1) se espera que el filtro tenga un transitorio
de mínima energía, y en (2) se espera lo mismo del post-transitorio. La formulación de (4), tiene un cierto
equilibro al pedir mínima energía en ambos lados. Dado que en este caso, la matriz a invertir es Toeplitz,
con las ventajas que esto conlleva en memoria necesaria y computacionales, que se mostraran mas
adelante, el método (4) es el más empleado en proceso segmentado; es decir, cuando tanto la entrada
como la referencia se segmentan en tramas y se busca el filtro adecuado para cada trama. Esta es la
situación para señales de larga duración y en problemas donde el filtro óptimo es variante y a diseñarse
específicamente para cada una de las tramas. El método (4) se denomina en la literatura método de
correlación.

El método (3) es el que más sentido tiene pues diseña el filtro sin atender a su comportamiento
en transitorios, es decir, solo en permanente sin requerir asumir nada respecto a la señal de referencia allá
donde se desconoce. Este diseño suele presentar una calidad francamente superior a cualquier otra
alternativa, incluido el método de correlación. El problema es su coste en memoria y carga computacional
ya que la matriz no es Toeplitz. Este método se denomina método de covarianza, y como detalle curioso,
nótese que, siendo el mejor método, estima la matriz de correlación con sesgo cero. En otras palabras,
obtenemos la mejor calidad usando un estimador insesgado de la matriz de autocorrelación.

IV.4. PREDICCION LINEAL

Un caso especial de filtro de Wiener es aquel donde la referencia lo constituye la propia señal de
entrada. Si se considera que en el instante n el filtro maneja los datos [x(n-1),....,x(n-Q)], se puede
calcular el filtro que a partir de estos genera una salida lo mas próxima a cualquier otro valor de la misma
señal, digamos x(n+p). Si p es un entero negativo mayor o igual que Q se estará buscando en el pasado de
la señal para conocer como era esta antes de que apareciesen las muestras que manejamos en los datos.
Del mismo modo, cuando p es mayor o igual a cero se estará tratando de predecir el futuro de la señal.
Cuando la muestra a predecir se encuentra entre n-1 y n-Q el filtro de Wiener funcionará como
interpolador lineal.

Todos los problemas anteriores son similares al caso de predicción hacia delante, es decir,
predicción de la muestra x(n) a partir de las muestras pasadas. Es intuitivo que, en general, cuanto mayor
es p mayor será el MSE pues la predicción se hace mas arriesgada o a mas largo plazo con respecto a los
datos. Únicamente la presencia de pseudo periodicidades en la señal, incrementando la correlación en lags
alejados del origen, puede cambiar el comportamiento aludido. Así pues, centrándose en el caso de
predicción lineal, (p=0) si no se especifica lo contrario, el filtro a diseñar de Q coeficientes sería:

| |

=

− = =
Q
q
n
q n x q h X Q h h n x
1
*
1
*
) ( ) ( ) ( ),..., 1 ( ) ( ˆ (IV.25)

El error de predicción, tal y como aparece en la figura IV.12 se obtiene como:

| |
1
*
) ( ) ( ),..., 2 ( ), 1 ( , 1 ) ( ˆ ) ( ) (

− = − − − = − =
n
H
n
X h n x X Q h h h n x n x n e (IV.26)

Nótese que el vector filtro, al formular el error de predicción como la salida, es un vector de Q
coeficientes donde el primero esta restringido a valer la unidad.



















Figura IV.12 Esquema de un predictor lineal y el error de predicción
Z
-1
h*(1)
h*(Q)
x(n)
e(n)
Predictor
de Wiener
) ( ˆ n x
Z
-1
Z
-1
Z
-1
h*(2)
.
.
.
+
_

Las ecuaciones de diseño y el error mínimo pueden obtenerse directamente a partir de la
ecuación IV.12:


(
(
(
(
¸
(

¸

=
(
(
(
(
¸
(

¸



(
(
(
(
¸
(

¸

+ − −
− −
− = − − =
= − =
∑ ∑

= =

=

0
0
) (
) 1 (
1
) 0 ( ) 1 ( ) (
) 1 ( ) 0 ( ) 1 (
) ( ) 1 ( ) 0 (
) ( ) ( ) 0 ( ) ( ) ( ) 0 (
,..., 1 ) ( ) ( ) (
1 1
1
M M
L
M O M M
L
L
min
x x x
x x x
x x x
Q
q
x x
Q
q
x x min
Q
q
x x
Q h
h
r Q r Q r
Q r r r
Q r r r
q r q h r q r q h r
Q l q l r q h l r
ξ
ξ (IV.27)

De la observación de las ecuaciones, se deduce que la señal mas impredictible, bajo un predictor
lineal y siempre con criterio MSE, es precisamente el ruido blanco: en este caso los coeficientes del
predictor son nulos y la potencia del error de predicción es igual a la potencia de la señal a predecir. Por
otra parte, la potencia del error de predicción es siempre menor o igual a la potencia de la señal. En
efecto:

{ } { } { } { } ) ( ˆ ) ( Re 2 ) ( ) ( ˆ ) ( ) ( ) ( ˆ ) (
2 2 2
n x n e E n e n x E n x E n e n x n x

+ + = ⇒ + =

Y el último término de la suma es nulo en el caso de que los coeficientes del filtro sean los óptimos por la
propiedad de ortogonalidad (IV.10), de lo cual se deduce que:

{ } { }
2 2
) ( ˆ ) ( n x E n x E
min
− = ξ

Es de destacar que el diseño de un predictor lineal es equivalente al ajuste de un modelo AR del
proceso. Dicho de otro modo, las ecuaciones (IV.27) y las ecuaciones de Yule-Walker (II.84) son
completamente análogas. Así pues, si se representa el vector de coeficientes del filtro de Wiener que
actúa de predictor, cambiados los coeficientes de signo, conjugando y anteponiendo un uno a su
respuesta, la mencionada respuesta frecuencial será, salvo una constante, la inversa del espectro de
potencia del proceso. En referencia a la Figura IV.12, la respuesta del filtro de Wiener que actúa de
predictor y que genera la muestra prevista es:

Q
z Q h z h z H
− ∗ − ∗
+ + = ) ( ..... ) 1 ( ) (
1


La respuesta de filtro que genera el error de predicción es:


Q
z Q h z h z H z P
− ∗ − ∗
− − − = − = ) ( ... ) 1 ( 1 ) ( 1 ) (
1


Es esta última la que, invertida y salvo la potencia del error de predicción, conforma el estimador de
densidad espectral de máxima entropía, comentado en el capitulo anterior.

La relación entre la igualdad, a la hora de ajustar un predictor lineal, o un modelo AR, no debe
inducir a pensar que el error de predicción será blanco siempre; de hecho solo ocurrirá así cuando el
proceso a predecir sea AR y su orden sea idéntico al del predictor diseñado. Debe insistirse que minimizar
la potencia de salida del error es mucho menos restrictivo que imponer correlación nula a lags diferente
del origen para fomentar el carácter quasi blanco del error. De hecho una técnica de cero forzing en la
correlación de salida genera un problema no lineal en los coeficientes del predictor. Se vera, a modo de
ejemplo, qué ocurre cuando realizamos predicción lineal sobre una señal de voz con orden creciente. La
figura IV.13 muestra un segmento de señal de voz correspondiente a la parte central del fonema /e/ sobre
el que se calculará un predictor lineal.

0 100 200 300 400
-1500
-1000
-500
0
500
1000
Señal original /e/
4


Figura IV.13. Señal de voz muestreada a 8 Khz y un segmento de 500 muestras del fonema /e/.

La figura IV.14 muestra como evolucionan el error de predicción y su potencia a medida que
aumentamos el orden del filtro predictor. Nótese que el error de predicción aparece como una señal
menos estructurada (más blanca espectralmente) cuando se aumenta el orden, a la vez que su potencia
disminuye hasta un nivel mínimo que, en este caso, se sitúa en Q ≅ 60.

En la Figura IV.15 puede apreciarse la realización de un proceso AR(5) ya usado en el capitulo
anterior, junto con la señal prevista. El orden del predictor fue de 12 coeficientes y el número de muestras
fue de 1024. Claramente, el error de predicción es muy pequeño.

0 100 200 300 400 500
-1000
-800
-600
-400
-200
0
200
400
600
800
e(n) para Q=8

0 100 200 300 400 500
-1000
-800
-600
-400
-200
0
200
400
600
800
e(n) para Q=12

e(n) para Q=50
0 100 200 300 400 500
-500
-250
0
250
500
750

0 15 30 45 60 75
34
36
38
40
42
44
46
48
Orden del predictor
Potencia del error de predicción
dB


Figura IV.14. Error de predicción y potencia del mismo para la señal de la figura IV.13 cuando se
aumenta el orden den predictor.





















Figura IV.15. Señal original (discontinua) de un proceso AR(5) y la prevista (continua) a la salida
de un filtro de Wiener funcionando como un predictor de orden 12 para la señal.

La figura IV.16 muestra otro caso donde el modelo de generación de x(n) es MA de orden 5.
Esta figura muestra la densidad espectral exacta a la izquierda y la respuesta, en términos de análisis
espectral su inversa, del predictor P(z) correspondiente.












Figura IV.16. Densidad espectral de un proceso MA de orden 5, a la izquierda; a la derecha,
respuesta en frecuencia del predictor de orden 12, diseñado por el método de covarianza
sobre una señal de 1024 muestras de longitud. Obsérvese que la respuesta de P(z)
(FIR) obedece a la inversa de la densidad espectral de forma aproximada, ya que
el filtro inverso debería ser un filtro todo-polos.

Es importante mencionar que el análisis del filtro de Wiener a partir de los datos, la predicción
puede llevarse a cabo sobre señales deterministas. Ha de recordarse que toda señal determinista que se
rige por una ecuación diferencial (como las sinusoides por ejemplo) son completamente predictibles y
producen un error de predicción cero. Desgraciadamente, el ruido aditivo convierte la señal en un proceso
no estacionario y ya no es posible recuperar los coeficientes del predictor que anulan el error de
predicción. Es más, si la relación señal a ruido no es muy elevada, el error de predicción es siempre
mayor que la potencia del ruido aditivo. Este problema se analizará con mayor detalle en adelante y se
comprobaran las afirmaciones hechas en este momento.

Es claro que el diseño de un filtro de Wiener siempre entraña la inversión de la matriz de datos
que, cuando se utiliza el método de covarianza, no es Toeplitz. No obstante, en los casos en que el método
es de correlación dicha matriz sí lo es y es posible aprovechar dicha circunstancia para facilitar y acelerar
su inversión. Así pues, asumiendo que se está en un diseño bajo el método de correlación y en el caso de
predicción lineal, el próximo apartado describirá el modo óptimo de proceder. Es de destacar, que el
990 995 1000 1005 1010 1015
-50
-40
-30
-20
-10
0
10
20
30
40
50
tiempo
v
o
l
t
s
Ultimas muestras, ref(disc.) W-ec(cont)
0 50 100 150
-20
-10
0
10
d
B
.
p
0 50 100 150
-30
-25
-20
-15
-10
d
B
p
algoritmo que sigue es, después de la FFT, el algoritmo mas implementado en el mundo y que junto con
la primera hicieron populares las aplicaciones de procesado digital de señal.

IV.5. EL ALGORITMO DE LEVINSON

Como se ha comentado en el apartado anterior, el problema de diseño de un filtro de Wiener
entraña la inversión de una matriz de correlación o de covarianza. Centrándonos en el caso más sencillo,
caso del método de correlación, la matriz a invertir tiene una estructura de Toeplitz y lo que se tratará es
de explotar su estructura para acelerar su inversión. Mas específicamente, sin perdida de generalidad, se
considerará el caso del diseño de un predictor lineal.

Las ecuaciones de diseño de un predictor lineal de Q coeficientes son:


(
(
(
(
(
¸
(

¸

=
(
(
(
(
¸
(

¸



(
(
(
(
¸
(

¸

+ − −
− −
0
0
) (
) 1 (
1
) 0 ( ) 1 ( ) (
) 1 ( ) 0 ( ) 1 (
) ( ) 1 ( ) 0 (
2
M
M
L
M O M M
L
L
Q
Q
Q
Q h
h
r Q r Q r
Q r r r
Q r r r
σ
(IV.28)

En las que tanto los coeficientes como la potencia del error de predicción denotan la correspondencia con
un predictor de orden Q. Nótese que al pasar de un orden Q al orden Q+1, tan solo un valor nuevo entra
en la matriz de correlación (el término r(Q+1), además de r(-Q-1) que es el conjugado del anterior) y sin
embargo hay de calcular de nuevo todos los coeficientes:


(
(
(
(
(
(
¸
(

¸

=
(
(
(
(
(
(
¸
(

¸

+ −


(
(
(
(
(
(
¸
(

¸

− − − −
+ − −
− −
+
+
+
+
+
0
0
0
) 1 (
) (
) 1 (
1
) 0 ( ) 1 ( ) ( ) 1 (
) 1 ( ) 0 ( ) 1 ( ) (
) ( ) 1 ( ) 0 ( ) 1 (
) 1 ( ) ( ) 1 ( ) 0 (
2
1
1
1
1
M
M
L
L
M M O M M
L
L
Q
Q
Q
Q
Q h
Q h
h
r r Q r Q r
r r Q r Q r
Q r Q r r r
Q r Q r r r
σ
(IV.29)

La estructura de la matriz de correlación constituye un síndrome de la existencia de un
procedimiento eficiente de cálculo. Es posible encontrar una relación muy sencilla entre los coeficientes
de un predictor y los de un predictor de orden superior. Para ello, en primer lugar se puede comprobar
que, si al vector de coeficientes se le da la vuelta y se conjuga, el segundo termino de (IV.29) también
aparece invertido:

(
(
(
(
(
(
¸
(

¸

=
(
(
(
(
(
(
¸
(

¸



+ −
(
(
(
(
(
(
¸
(

¸

− − − −
+ − −

+
+
∗ +
∗ +
∗ +
2
1
1
1
1
0
0
0
1
) 1 (
) (
) 1 (
) 0 ( ) 1 ( ) ( ) 1 (
) 1 ( ) 0 ( . ) 1 ( ) (
) ( ) 1 ( ) 0 ( ) 1 (
) 1 ( ) ( ) 1 ( ) 0 (
Q
Q
Q
Q
h
Q h
Q h
r r Q r Q r
r r Q r Q r
Q r Q r r r
Q r Q r r r
σ
M
M
L
L
M M O M M
L
L


En otras palabras, la predicción hacia delante, denominada forward, y la predicción hacia atrás,
denominada backward, tiene los mismos coeficientes (si bien conjugados) y el mismo error de predicción.
Este resultado no ha de sorprender, ya que si el proceso es estacionario es obvio que el sentido en que se
realiza la predicción es irrelevante.

Gracias a esta estructura, si se descompone el nuevo vector de coeficientes en una combinación lineal del
predictor forward y el backward (sub índices f y b respectivamente) se obtiene:


(
¸
(

¸

+
(
(
¸
(

¸

=
(
(
(
(
(
(
¸
(

¸



+
(
(
(
(
(
(
¸
(

¸



=
(
(
(
(
(
(
¸
(

¸

+ −


=
+


+
+
+
+
+
Q
b
Q
Q
f
Q
Q
Q
Q
Q
Q
Q
Q
Q
f
a
K
a
h
Q h
K
Q h
h
Q h
Q h
h
a
0
0
1
) 1 (
) (
0
0
) (
) 1 (
1
) 1 (
) (
) 1 (
1
1 1
1
1
1
1
M M M (IV.30)

Y por consiguiente:

(
(
¸
(

¸

+
(
¸
(

¸

=

+
+
0
0
1
1
Q
f
Q Q
b
Q
b
a
K
a
a

Si ahora se sustituye en (IV.30) la ecuación de diseño (IV.29), se obtiene las ecuaciones de diseño
definitivas del nuevo error de predicción y del coeficiente introducido:


(
(
(
(
(
(
¸
(

¸


+
(
(
(
(
(
(
¸
(

¸


=
(
(
(
(
(
(
¸
(

¸

=

+
+
+
+
2
1
2 2
1
1
1
0
0
0
0
0
0
0
Q
Q
Q
Q
Q Q
Q
f
Q
K a R
σ
σ σ
M M M
(IV.31)

El factor ∆
Q
se deduce rápidamente de (IV.29) y (IV.30) y es igual a:

| |
(
(
¸
(

¸

− − − = + − − − − − = ∆

=
0
) 0 ( ) ( ) 1 ( ) 1 ( ) ( ) 1 (
1
Q
f
Q
q
Q
Q
a
r Q r Q r q Q r q h Q r L (IV.32)

Por último, de (IV.31) se obtiene la expresión del coeficiente y del nuevo error de predicción:

2
2
1
2
1
2
1
1
Q Q Q
Q
Q
Q
K
K
σ σ
σ
|
.
|

\
|
− =

− =
+ +
+
(IV.33a)

A su vez, las ecuaciones para los coeficientes q=1,...,¸Q/2¸:

1
1
1
1
1
1
) 1 (
) ( ) 1 ( ) 1 (
) 1 ( ) ( ) (
+
+

+
+

+
+
− = +
− + − = + −
+ − − =
Q
Q
Q
Q
Q Q
Q
Q
Q Q
K Q h
q h K q Q h q Q h
q Q h K q h q h
(IV.33b)

Las ecuaciones (IV.32) y (IV.33), inicializadas con:


) 0 (
) 1 (
) 0 (
) 0 (
) 1 (
) 1 (
2
2
1
1
r
r
r
r
r
h − =

= σ (IV.34)

forman el denominado algoritmo de Levinson. Al margen de la efectividad y elegancia, la mayor
contribución al procesado de señal de este algoritmo nace de la interpretación de cada una de sus
ecuaciones.

En primer lugar, puede observarse que la actualización de los coeficientes se realiza ‘in place’, es
decir, sin necesidad de memoria adicional al igual que los pasos en una FFT. En segundo lugar, la
ecuación del error de predicción en función de la anterior y del coeficiente K
Q+1
(al que se denomina
‘Parcor’ en referencia a correlación parcial que más adelante se comentara) revela que éste ha de ser, en
módulo, siempre menor o igual que la unidad. De hecho, el valor de este coeficiente revela si es
interesante incrementar el orden o no. Claramente, cuando el parcor esta próximo a cero, el error
disminuye muy poco y no es provechoso incrementar el orden, y por tanto, la complejidad de proceso.
Existe una excepción a esta regla que esta relacionada con señales deterministas que, dado su carácter
excepcional en la practica no se comentara, quedando al lector su deducción. Como puede verse el parcor
constituye, por primera vez, un indicador de como determinar el orden correcto para el predictor; puesto
que, salvo excepciones, cuando el parcor es próximo a cero se indica que se puede detener el algoritmo,
ya que no se espera mejora apreciable por incrementar el orden. Sin entrar en mas detalles, los parcor
fueron empleados por primera vez en prospección geofísica y puede demostrarse que en un sistema
reverberante coinciden con los coeficientes de reflexión. Para aclarar mas este concepto, es posible
imaginar el error de predicción como la potencia acústica o de presión que se propaga de la sección de
área A
Q
a la sección de área A
Q+1
. Tal como se indica en la Figura IV.17 los parcor dan una idea de cómo
una presión sonora se va propagando en un tubo sin perdidas de sección variable.
















Figura IV.17. Los parcors como coeficientes de reflexión en sistemas reverberantes. Onda de
presión longitudinal en tubo de sección variable.

La presión de salida de un tubo de áreas A
q
, cuando a la entrada se aplica una presión acústica e(n) genera
a la salida una presión x(n), donde e(n) es el error de predicción de un sistema de orden M, x(n) es el
proceso a partir del que se calcula el predictor y a su vez es la presión a la salida y los coeficientes de
reflexión son los parcors calculados en el algoritmo de Levinson. Dicho de otro modo, en el caso de
tratarse, por ejemplo, de un tubo de escape de un automóvil, x(n) es la presión sonora medida a la salida y
el error de predicción sería la excitación que se obtendría a escape libre, directamente de las cámaras de
combustión. De este modo, la predicción lineal representa un método que permite, midiendo la presión de
salida, elaborar un modelo geométrico del tubo que ha atravesado y de la excitación. Al final del capitulo
se profundizara es esta aplicación que en geofísica, gracias al excelente trabajo de J.P. Burg, que convirtió
el análisis de predicción lineal en el más popular en procesado digital de señal.

Es interesante indagar en la interpretación del coeficiente ∆
Q
. Nótese que, dado que el parcor va
a ser siempre menor o igual a la unidad, el valor de correlación en Q+1 estará comprendido entre los
valores que se indican en (IV.35):

) 1 ( ) 1 ( ) ( ) 1 (
2
1
1
2
1
+ + = − + + − = +

+
=
∗ ∗
+

Q r K q Q r q h K Q r
MEM Q Q
Q
q
Q
Q Q
σ σ (IV.35)

Es decir, si se asume que el parcor Q+1 es cero, se extrapola que el valor de la correlación de los datos
viene dado por el segundo termino de (IV.35). En otras palabras, como el parcor es en modulo menor que
la unidad, la correlación en Q+1 ha de estar comprendida en los márgenes que se indican en la Figura
IV.18 y cuando se supone que el parcor es cero, ‘se extrapola’ que la correlación de los datos vale lo que
se ha denominado r
MEM
(Q+1).
A
Q
A
Q+1
K
Q+1
coeficiente de
reflexion.
σ
Q
2 σ
Q+1
2
Presion
sonora

















Figura IV.18. Valores permitidos para r(Q+1) y el valor extrapolado
cuando se asume que el parcor es igual a cero.

Esta es la razón de denominar a los coeficientes como Parcor: se trata de coeficientes que
definen completamente la correlación de los datos y además permiten su extrapolación. Cuando se
asumen cero se extrapola al punto medio, denominado MEM por las razones que ya se han expuesto en el
tema de análisis espectral, y cuando se calculan a partir de los datos definen completamente la correlación
de estos. Se deja al lector el derivar las ecuaciones que permiten pasar de los parcors a los coeficientes del
predictor y la inversa. Asimismo, se deja también como ejercicio el pasar de los parcor del proceso x(n) a
los valores de su autocorrelación. En definitiva, los Q valores de correlación, los coeficientes de un
predictor de orden Q o los parcors hasta el valor Q constituyen una información equivalente que permite
pasar de una a otra rápidamente. Intriga el hecho de que exista una restricción tan fuerte impuesta por los
Q valores de autocorrelación de un proceso pues note que r(Q+1) tiene que estar en los márgenes
marcados en la Figura IV.18. La respuesta a cual es la razón ultima de esta propiedad reside en que la
restricción de que la transformada de Fourier de una función ha de ser siempre positiva no es una
restricción trivial y reserva sorpresas como esta. Dicho de otro modo, la correlación en Q+1 ha de estar en
los márgenes indicados si se desea que su transformada de Fourier sea positiva. Además, el razonamiento
también revela que la extrapolación es continua, con valores cada vez más pequeños, hasta el infinito.
Aquí nace otra idea relacionada con compresión de datos: una secuencia, en principio infinita, de valores
de autocorrelación de duración infinita puede resumirse en unos poco parcors diferentes de cero; esto
ocurrirá de manera exacta, sin perdidas, cuando el proceso x(n) sea exactamente AR(Q); entonces tan solo
Q parcors contienen toda la información necesaria para obtener su función de autocorrelación (de
duración infinita).

IV.6 LA ESTRUCTURA EN CELOSIA (LATTICE)

La aparición de los conceptos de predicción forward y backward en el algoritmo de Levinson
sugiere el explotarlas para obtener una estructura más flexible en el diseño de un predictor. Considerando
de nuevo el caso de predicción veamos como sería el error forward y backward en un segmento de datos.
Dados los datos x(n) desde n-Q hasta n, se pueden definir los errores forward y backward como se indica
a continuación.


| |
| |
| | ) ( ) 1 ( ) 1 ( ) (
) ( ) 1 ( ) 1 ( ) (
) ( ) 1 ( ) 1 ( ) (
n e h Q h Q h
n x n x Q n x Q n x
Q h Q h h n e
Q
f
Q Q Q
Q Q Q Q
b
∗ ∗ ∗

− + − −

L
L
L
(IV.36)

r
MEM
(Q+1) es el
valor medio o menos
comprometido entre
los permitidos
Valores
permitidos
para r
(Q+1)
σ
Q
2
+
+
_
_
+
+

Nótese que la definición de los errores difiere en el instante en que se referencian, es decir, el error
forward en el instante n es el error al predecir x(n), pero el error backward en el instante n es el error al
predecir hacia atrás x(n-Q).

En formulación vectorial, los errores de predicción anteriores serían:


(
(
(
(
¸
(

¸

+ −

=
(
(
(
(
¸
(

¸



=
) (
) 1 (
) (
) (
) (
) 1 (
) (
) (
n x
Q n x
Q n x
a n e
Q n x
n x
n x
a n e
H Q
b
Q
b
H Q
f
Q
f
M M
(IV.37)

Si ahora se escribe la expresión del error forward para el orden Q+1, se obtiene:


(
(
(
(
¸
(

¸

− −

=
+ +
) 1 (
) (
) (
) (
1 1
Q n x
Q n x
n x
a n e
H Q
f
Q
f
M
(IV.38)

Luego, el nuevo error usa los mismos datos que el error forward de orden Q, en el instante n, y el error
backward en el instante n-1. De hecho al usar la recursión de Levinson (ecuación IV.30) para los
coeficientes del predictor de orden Q+1 se obtiene:

) 1 ( ) ( ) 1 ( ) ( ) (
1
*
1
1
− + = − + =
+ +
+
n e K n e n e K n e n e
Q
b
f
Q
Q
f
Q
b Q
Q
f
Q
f
(IV.39)

Esta última expresión propone una relación directa entre los errores forward y backward cuando se
incrementa el orden. Es más, el parcor forward óptimo puede derivarse de la expresión anterior,
manejándola como si se tratase de un filtro de Wiener de un solo coeficiente; es decir, minimizar la
potencia del error forward en Q+1, dados los errores anteriores. Procediendo de este modo, minimizar la
potencia del error forward de orden Q+1 con respecto al parcor, se obtiene:


{ }
B
FB
n e E
n e n e E
K
Q
b
Q
b
Q
f
f
Q
− =
)
`
¹
¹
´
¦


− =

+
2
1
) 1 (
) 1 ( ) (
(IV.40)

Análogamente para el error backward se puede deducir usando (IV.30):


{ }
F
FB
n e E
n e n e E
K
n e K n e n e K n e n e
Q
f
Q
b
Q
f
b
Q
Q
f
b
Q
Q
b
Q
f Q
Q
b
Q
b
− =
)
`
¹
¹
´
¦

− =
+ − = + − =

+
+ +
+
2
1
1 1
1
) (
) 1 ( ) (
) ( ) 1 ( ) ( ) 1 ( ) (
(IV.41)

Nótese que al comienzo, para un orden cero, tanto el error forward como el error backward
coinciden con la señal x(n). De este modo puede elaborarse la estructura de la Figura IV.19, conocida
como estructura ‘lattice’ o en celosía.


























Figura IV.19. Estructura en celosía. Cada error forward o backward se obtiene a partir de los
anteriores a través de dos coeficientes de reflexión calculados como se indica en el texto.

Como puede verse, el análisis anterior asume implícitamente que el proceso no es estacionario y
calcula de manera independiente cada coeficiente de reflexión. Al mismo tiempo, es fácil concluir que si
x(n) es un proceso estacionario ambos coeficientes serán los mismos pues la potencia del error forward
será igual a la del error backward (i.e. F=B) y, en este caso, ambos coeficientes coincidirán. Lo
importante es que se esta ante una estructura que es capaz de calcular los predictores óptimos forward y
backward para un proceso no estacionario. A la pregunta de cual es el predictor diseñado, nótese que
entre la entrada y las dos salidas de la celosía, el sistema proporciona un FIR cuya respuesta es la de los
predictores mencionados. En otras palabras, la lattice proporciona una realización diferente, en escalera,
de un filtro FIR. De hecho el lector puede identificar que, si la primera estructura, la de la Figura IV.12
era una forma canónica (digamos de Foster en filtros analógicos) la lattice es la versión de otra forma
canónica (mínimo número de retardos z
-1
), que equivaldría a las de Cauer, del mismo filtro FIR. En
definitiva, se ha encontrado una nueva manera de realizar un filtro generador del error de predicción. Si
los coeficientes del predictor de la Figura IV.12 se pasan a parcors en la lattice, los dos filtros serán
idénticos. Las ventajas de la lattice son básicamente dos: La primera es que para pasar de un orden a otro
no se rehace todo el filtro sino que se añade una sección. La segunda es que el FIR se garantiza que es de
fase mínima, raíces de su respuesta siempre dentro del circulo unidad, y por tanto directamente invertible
si los parcors son, en modulo menores que la unidad. Esta última cualidad es importante cuando por
razones de consumo o velocidad se elige trabajar con longitud finita de registros en la implementación del
predictor o de su inversa. Además, muy importante, la estructura convierte el diseño de un predictor de
orden Q en diseños de filtros de orden uno que, añadiendo secciones, completan y monitorizan el error de
predicción cometido. También, nótese que correlación o covarianza se reducen en la lattice a considerar
transitorios o no en el calculo directo de los parcors. Por todo lo indicado, la implementación de
predicción lineal se realiza siempre sobre esta estructura dadas sus ventajas sobre la estructura FIR
tradicional.

Volviendo al caso de un proceso estacionario, como se ha comentado, cualquiera de los dos
parcors, el forward o el backward son validos. No obstante ante un registro finito de datos x(n) (n=1,N-1)
la estimación de FB, F y B mostraran valores diferentes. Ante dos valores diferentes y sabiendo que el
proceso es estacionario se elige el valor:


b
Q
f
Q
Q
K K
B F
FB
K
1 1
1
1 1
2 2
+ +
+
+
=
+
− = (IV.42)

Esta selección para los parcos, debida a J.P. Burg, tiene la cualidad de que, por la desigualdad de
Schwartz, siempre proporciona parcors en modulo inferiores a la unidad al margen de la longitud de datos
N disponible.
x(n) K
1
f
z
-1
e
f
o
(n)
e
b
o
(n)
e
f
1
(n)
e
b
1
(n)
+
+
K
1
b
z
-1
e
f
Q-1
(n)
e
b
Q-1
(n)
e
f
Q
(n)
e
b
Q
(n)
+
+
K
Q
f
K
Q
b
...
...

Es de destacar que, cuando el proceso no es estacionario y la energía de la señal decrece o crece
con el tiempo, claramente una de las dos predicciones será inestable. Por ejemplo, si la energía de la señal
decrece, la predicción backward será inestable y no invertible pues las raíces del polinomio estarán fuera
del circulo unidad. Como ejemplo, considere la predicción de la secuencia 0.5
n
, un predictor forward
presentara un coeficiente 0,5, pero un backward presentara un coeficiente 2. Claramente al ser la energía
decreciente el forward es estable y el backward es inestable. De nuevo las señales deterministas presentan
las anomalías más interesantes al aplicar sobre ellas conceptos desarrollados para proceso estocásticos.
Recuerde que el pasar propiedades de filtro de Wiener a señales deterministas. Con o sin ruido aditivo, ha
de deparar sorpresas y, en cualquier caso, nunca considere este tipo de extensión como trivial o directa.

J. Makhoul sugirió, apoyándose en lo anterior, que cuando en un predictor lineal se desea acercar
las raíces al circulo unidad (aumentar la selectividad en frecuencia del predictor), basta con fomentar el
sentido de engría creciente de la señal. Más formalmente, si el objetivo es diseñar un solo parcor K
Q+1
que
minimice la función de coste:


1 1
) 1 (
+ +
− + = Ψ
Q Q
B F γ γ (IV.43)

al derivar con respecto al parcor buscado e igualar a cero se obtiene:


Q Q
Q
Q
B F
FB
K
γ γ + −
− =
+
) 1 (
1
(IV.44)

Claramente la selección de Burg es el caso de igual importancia a un sentido que otro (i.e. γ = 0.5), otros
valores lo que hacen es favorecer un sentido de predicción y dejan de garantizar que el parcor calculado
sea de modulo menor que la unidad y, por tanto, pierden la característica de invertibilidad del sistema
diseñado si se exagera el sentido de energía creciente.

Finalmente, se ha de destacar una cualidad fundamental de la lattice. Es fácil de comprobar que
los errores backward obtenidos en la rama inferior de la lattice son ortogonales. Esto quiere decir que
dados Q datos de x(n), no ortogonales entre si (salvo si x(n) es ruido blanco), la lattice proporciona un
conjunto de datos, equivalentes a los de x(n) pero ortogonales entre si (figura IV.20).
















Figura IV.20. La estructura lattice proporciona en los errores
backward una base ortogonal de los datos.

Esta base ortogonal puede emplearse para realizar el filtro de Wiener, ante una referencia dada d(n),
donde los nuevos datos son los mencionados errores backward. La ventaja radica en que en este nuevo
diseño a partir de los errores bakcward en lugar de los datos originales, la matriz de correlación de los
datos es diagonal. Esta propiedad redunda en reducción de complejidad y mejor convergencia en métodos
iterativos o adaptativos que se verán en el siguiente capítulo.

IV.7 APLICACIONES

z
-1
z
-1
e
b
0
(n) e
b
1
(n) e
b
Q
(n)
Base ortogonal que representa x(n) a x(n-Q)
+ +
En este apartado revisaremos brevemente las aplicaciones más importantes o mas conocidas del
filtrado de Wiener o de mínimo error cuadrático medio MSE. La primera aplicación tiene que ver con el
problema de recuperación de una portadora en ruido aditivo y gaussiano de potencia σ
2
. La propiedad
básica que se explotara es que una señal sinusoidal es perfectamente predictible con error cero. Si la
sinusoide, fase y cuadratura, viene dada por:

) exp( ) exp( ) ( n j A n j A n s
o o o
ω θ ω = + = (IV.45)

donde A
0
es la envolvente compleja y w
o
es su pulsación. El predictor óptimo para esta señal viene dado
por:

) 1 ( ) exp( ) 1 ( ) ( − − = − = n s j n hs n s
o
ω (IV.46)

Cuando a la sinusoide se le suma ruido aditivo, la señal compuesta x(n) deja de ser predictible
exactamente y se convierte en un proceso no estacionario. Aún en este caso, puede razonarse que, como
s(n) es completamente predictible y el ruido w(n), supuesto blanco, es impredictible, un predictor lineal
sobre x(n) extraerá tan solo s(n) que es su parte predictible. La intuición es correcta en parte y lo cierto es
que la predicción se parece mas a s(n) que la original x(n). En otras palabras, el valor previsto contiene
s(n) con una SNR (Relación señal a ruido) mejor que la original. El predictor lineal, empleado de este
modo, se denomina ‘line enhancer’ que se pasa a analizar con mas detalle a continuación (figura IV.21).













Figura IV.21. Esquema de un ‘line enhancer’. Bajo un diseño óptimo la sinusoide s(n) (al ser
completamente predictible) aparece a la salida del predictor y como error de predicción queda el
ruido blanco aditivo.


Definiendo el vector de muestras que usa el predictor para realizar la predicción, se puede formular este
como sigue:

| | ( )
1 1
* *
) exp(
) (
) 1 (
) ( ) 1 ( ) ( ˆ
− −
+ = =
(
(
(
¸
(

¸



=
n o
H
n
H
w S n j h X h
Q n x
n x
Q h h n x ω M L (IV.47)
siendo el vector S un vector con componentes

(
(
(
¸
(

¸



=
) exp(
) exp(
Q j
j
S
o
o
ω
ω
M (IV.48)

Para aprovechar la aplicación, se planteara un diseño del predictor diferente al presentado en el
texto con el mismo resultado. El diseño de un predictor se puede plantear como la minimización de la
potencia del error de predicción (salida del sistema global):

PREDICTOR LINEAL
h
*
(1),...,h
*
(Q
)
x(n)=s(n)+w(n)
s’(n)
w’(n)
+
_
| |
min
H
h R h
Q n x
n x
n x
Q h h h E =
¦
¦
)
¦
¦
`
¹
¦
¦
¹
¦
¦
´
¦
(
(
(
(
¸
(

¸



=
) (
) 1 (
) (
) ( ) 1 ( ) 0 (
* * *
M
L ξ (IV.49)

donde el nuevo vector de coeficientes incluye un a(0) y se ha incluido la matriz de correlación de la
entrada de orden Q+1.

Para evitar la solución trivial se le impone la restricción que convierte el filtro en un predictor, es
decir, que el primer coeficiente valga la unidad.

1 1
0
0
1
= =
(
(
(
(
¸
(

¸

H H
h h
M
(IV.50)

La minimización con restricciones produce la siguiente solución:


1 1
1
1 1
1
1
1
1



=
=
R
prediccion de error
R
R
h optimos es coeficient
H
min
H
ξ
(IV.51)

Para indagar el funcionamiento del sistema, se usara la estructura de los datos y la expresión de
la matriz de autocorrelación, junto con su inversa, mostradas en (IV.52), donde A es la envolvente
compleja y σ
2
es la potencia del ruido aditivo:

(
(
¸
(

¸

+
− |
.
|

\
|
= + =
− H H
S S
A Q
A
I R I S S A R
2
2
2
2
1 2
2 1
σ
σ
σ (IV.52)

Usando estas expresiones el predictor es, incluyendo el coeficiente a(0) igual a la unidad:


2
2
2
2
2
2
2
2
/
1
σ
σ
σ
σ
A Q
A Q
S
A Q
A
h
+
|
|
.
|

\
|
+
− = (IV.53)

Análogamente la expresión de la potencia del error de predicción resulta ser:


in
in
min
SNR Q
SNR Q
A Q
A Q
) 1 ( 1
1
) 1 (
2
2
2
2
2
2
− +
+
=
− +
+
= σ
σ
σ
σ ξ (IV.54)

Esta última expresión revela que la potencia del error de predicción difiere de la potencia de
ruido blanco, en el caso de diseño perfecto de un predictor para la sinusoide. Incluso para SNR
in
a la
entrada muy elevadas (|A|
2

2
) el diseño óptimo requeriría un Q, longitud del predictor, infinita. Nótese la
gran distorsión que introduce el ruido respecto a lo que sería un predictor óptimo para la sinusoide de un
solo coeficiente.

Para examinar la ganancia en SNR introducida por el line enhancer, se examinara la potencia de
señal y la de ruido que contiene la salida s’(n). Después de un calculo breve se obtiene:


in out
SNR Q SNR = (IV.55)

Es decir, obtiene la ganancia de un filtro adaptado a la sinusoide. La ventaja, con respecto a un filtro
adaptado tradicional es que dicha ganancia se obtiene de modo incoherente, es decir, sin conocerse ni la
fase ni la frecuencia de la portadora. En la Figura IV.22 puede observase gráficamente un ejemplo de la
mejora introducida por este tipo de proceso para sinusoides en ruido.























Figura IV.22. Señal de entrada consistente en una sinusoide a 10 dB de relación señal a ruido a la
izquierda. A la derecha señal mejorada con un ‘Line Enhancer’ de 12 coeficientes y diseñado a
partir de 1024 muestras de la entrada.


Otra aplicación de interés del filtrado de Wiener esta en los denominados canceladores de ruido.
En esta ocasión, se supone que la señal deseada s(t) (habitualmente voz o audio) se ve afectada por un
ruido aditivo h(t)*w(t), donde h(t) es el canal de propagación del ruido hasta el micrófono. Si dicho ruido
puede captarse (muy importante) libre de señal deseada, vía otro micrófono (o un galga extensiométrica si
se trata de una superficie vibrante, caso de ruido de baja frecuencia), entonces puede usarse de referencia
para cancelar este a la salida (véase la figura IV.23). Lo que se espera del filtro de Wiener es que sea
capaz de lograr una copia adecuada del canal h(t).

Nótese que en este caso, bajo un diseño óptimo del filtro, el error será precisamente la señal deseada libre
de ruido. Esto ocurrirá cuando el filtro copie perfectamente el canal de propagación del ruido. Es crucial
que el canal, denominado de datos en la figura, no contenga señal deseada s(n), de otro modo se
produciría la cancelación de ésta. Por esta razón es recomendable el usar sensores de vibración en paneles
vibrantes o micrófonos direccionales con un nulo en la dirección donde se recoge la señal deseada. Para
comprobar el correcto funcionamiento del filtro se calculara la coherencia espectral de los datos con la
referencia.











800 900 1000 1100
-5
-4
-3
-2
-1
0
1
2
3
4
5
tiempo
Señal recibida
800 900 1000 1100
-4
-3
-2
-1
0
1
2
3
4
5
Señal mejorada

















Figura IV.23. El filtro de Wiener como cancelador de ruido.

En el calculo, se han denominado con los subíndices w y d a las densidades espectrales de ruido
y referencia, asumidas estas incorreladas entre si. Una vez calculada la coherencia espectral, se puede
evaluar cual será la potencia del error o residuo. Si este coincide espectralmente con la señal deseada
entonces se puede asegurar del interés de proceder al diseño del filtro de Wiener correspondiente:


) ( ) (
) (
1
1
) (
) ( ) ( ) ( ) (
) ( ) ( ) (
) ( ) ( ) (
2
2
2
2
*
ω ω
ω
ω γ
ω ω ω ω
ω ω ω
ω ω ω
n
s
n s d
w x
w xd
S H
S
S H S S
S H S
S H S
+
=
+ =
=
=
(IV.56)

Sustituyendo la expresión de la coherencia en el error mínimo que se obtendría con un diseño óptimo del
filtro de Wiener, se obtiene (IV.57), donde es evidente como el error esta constituido solamente por la
señal deseada:

( )( ) ω ω
π
ω ω γ ω ω ω
π
ξ
π
π
π
π
d S d S H S
s n s min
∫ ∫
− −
= − + = ) (
2
1
) ( 1 ) ( ) ( ) (
2
1 2 2
(IV.57)

Al margen de las aplicaciones en comunicaciones del filtro de Wiener como ecualizador para
igualar canales de comunicaciones y que podrá observar en textos del tema, existe una aplicación similar
pero mas encuadrada en procesado de señal que es la de el filtro de Wiener como cancelador de ecos en
sistemas de comunicaciones analógicas dúplex. Tal y como se representa en la figura IV.24, el problema
radica en el defectuoso aislamiento que produce el transformador híbrido que aísla la entrada de
conversación del extremo izquierdo respecto a la conversación de locutor derecho. Este fenómeno
provoca un eco indeseable en el extremo izquierdo. La valoración de cuan molesto es este eco se realiza
por medidas subjetivas que muestran que, para retardos bajos, se percibe como reverberación y puede
ayudar a la comprensión de lo hablado. Esto es así siempre que el retardo sea menor de 100 mseg y de un
nivel 10 dB por debajo del nivel de nuestra conversación. Recuerde que en la conversación telefónica es
crucial el escucharnos a nosotros mismos para vocalizar correctamente; hasta tal punto es cierto esto que
el propio auricular emite la señal captada por el micrófono a un nivel 6 dB inferior. El problema es
cuando el retardo supera los 100 mseg en el eco. En este caso se requiere una atenuación de la señal
retardada tanto mayor cuanto mayor sea el retardo.



Filtro
de
Wiener
Referencia d(n)=s(n)+h(n)*w(n)
datos
x(n)
Error
s’(n)
+
_



















Figura IV.24. El filtro de Wiener como cancelador de ecos. Por falta de aislamiento en
el transformador híbrido cercano al origen de la conversación 2, la conversación de 1 vuelve
después de atravesar el híbrido (modelado como un canal lineal). El cancelador debe generar una
réplica de dicho canal para eliminar el eco.


Los primeros intentos de eliminar el eco fueron los denominados supresores de eco.
Básicamente, un supresor de eco interrumpe el canal de retorno cuando nuestra voz toma valores de
energía por encima de un umbral. El problema del umbral es que impide que con niveles bajos de
conversación el supresor se desactive. En caso contrario, cuando se activa fácilmente provoca que, hasta
que no nos callamos, no podamos escuchar al otro interlocutor. Dicho de otro modo, mientras hablamos,
no nos pueden interrumpir perdiendo todo aquello que el otro locutor ha dicho. Para aliviar estos
problemas del supresor de ecos se recurre al cancelador de ecos de la figura IV.24.

La forma de trabajar y diseñar el filtro es inmediata a partir de lo explicado. Cabe destacar
aspectos como el carácter variante del canal, por lo que se requiere actualizar casi muestra a muestra el
diseño del filtro. En segundo lugar, es de destacar que el error MSE se ve incrementado debido a que,
normalmente el filtro se implementa en coma fija. Puede comprobarse que niveles de rechazo del eco
adecuados se consiguen con 7 bits para las muestras y 9 bits para los coeficientes. Además, añadir que el
empleo de líneas de fonia para datos, y el hecho de que el módem de datos lleve su propio filtro de
Wiener como ecualizador, obligan a detectar si la transmisión se dedica a datos o voz y en el primer caso
se ha de desconectar el cancelador. La detección se realiza basándose en detectores de energía en tres
bandas de frecuencia que identifican la señal protocolo del módem e impide que el contenido espectral de
voz active el modo de datos. Para mas detalles ha de consultarse bibliografía especializada. El diseño de
un producto comercialmente correcto entraña múltiples detalles de realización que convierten el
cancelador en uno de los dispositivos más elaborados en procesado de señal.

Una aplicación interesante de la predicción forward y backbard esta en la caracterización de
transitorios o señales de energía decreciente. La aplicación que se comentara tiene su origen en el estudio
de transitorios en redes de alta tensión por la entrada o salida de centrales generadoras a la red. El
problema es identificar los parámetros de una sinusoide amortiguada en niveles altos de ruido blanco
(véase la figura V.25).

Al aplicar sobre esta señal la estructura lattice, la minimización del error forward dará lugar a un
predictor cuyas raíces estarán todas dentro del circulo unidad. Tanto las de ruido como las dos de la señal
(se supone solo dos frecuencias propias para el transitorio) se sitúan dentro del círculo unidad y se hace
imposible, en la practica, distinguir unas de otras. Por otro lado al usar solo predicción backward, el ruido
(por ser estacionario la predicción hacia delante y hacia atrás coinciden) sigue presentando las raíces
dentro del circulo unidad mientras que las dos de la señal aparecen en una posición homotetica, respecto
al circulo unidad, de las originales en el forward (figura IV.26). En definitiva, las raíces de modulo mayor
que uno en el predictor backward identifican las raíces de la señal determinista buscada.
A/D
Filtro
de Wiener
D/A
s2(t)+h(t)*s1(t)
conversacion 2+eco de la conversación 1
s1(t) conversacion 1
A/D
+
_
+
2 hilos
2 hilos
4 hilos





















Figura IV.25. Señal determinista en ruido estacionario.
























Figura IV.26. Efecto del sentido de la predicción en la localización de las raíces de señal y ruido.


Finalmente y salvo las aplicaciones que el análisis de predicción lineal tiene en el análisis de
señal de voz, se ha de destacar que su origen se remonta a sistemas de prospección geofísica. Como ya se
ha mencionado, una señal que atraviesa un sistema con ondas de presión transversales en un sistema
reverberante (onda progresiva y regresiva en cada sección) presenta una estructura autoregresiva pura. El
predictor correspondiente (para estructuras en las que las discontinuidades están equiespaciadas),
proporciona en sus coeficientes parcor los coeficientes de reflexión en cada discontinuidad.





Ruido estacionario con igual
predictor forward y backward
Señal determinista con
prediccion forward estable
y backward inestable
Raices del ruido
estacionario
Enmascaran las
del predictor
forward
Raices del
predictor
backward
fuera del
circulo unidad
y libres de las
raices debidas
al ruido




















x(n) (señal AR)
K1
K2
K3


Figura IV.27. Aplicación de la estructura lattice para el calculo de los coeficientes de reflexión.

En la Figura IV.27 se muestra un esquema donde la excitación es una explosión superficial y
sobre la señal recogida se procede al calculo del predictor y los parcor correspondientes que revelan los
índices de reflexión en cada sección. Esta fue la primera aplicación y la más espectacular del análisis de
predicción lineal y la extrema utilidad y sentido físico de los parcors, también llamados obviamente
coeficientes de reflexión. La propagación en tubos de sección variable y longitud uniforme, con medida
de la señal a la salida es el mismo fenómeno reverberante y esto motivo el traslado de inmediato del
análisis de predicción lineal a la caracterización del tracto vocal en señal de voz.

Una aplicación que tiene la misma estructura que el ALE (Adapted Line Enhancer) es el uso de
un predictor para la supresion de interferencias en comunicaciones de espectro ensanchado por secuencia
directa o DSSS. Formalmente el problema es parecido, la interferencia de banda estrecha se parece a una
sinusoide y la señal de espectro ensanchado se parece a ruido blanco. Note que estas señales de banda
estrecha pueden ser señales útiles que comparten el espectro disponible con la señal DSSS. La
composición espectral de este escenario se refleja en la figura IV.28.












Figura IV.28 Señales de banda estrecha sobre una señal de DSSS.

Note que la señal de DSSS actúa como ruido para las señales de banda estrecha, aunque esto no
es estrictamente verdad en el sentido de que este ruido no es Gaussiano y por lo tanto el receptor de
dichas señales, si es el tradicional, será suboptimo.

La idea básica es que al colocar un predictor lineal sobre la señal recibida, la suma de todas, el
predictor anulara las mas potentes y lo hará como un inversor, es decir, proporcional a su potencia
efectiva. La respuesta de un predictor a dos interferencias de frecuencias normalizadas igual a 0.11 y 0.17
puede verse en la figura IV.29. Note que aunque la SNR de ambas es 0dB. se atenúa siempre mas la de
baja frecuencia, ¿podría responder porque?
Canales de comunicación de banda estrecha
Canal de comunicación de espectro ensanchado
X(f)





















Figura IV.29. Respuesta del Predictor lineal, orden 40, a la señal de DSSS mas dos señales
de banda estrecha a 0.11 y 0.17 de frecuencias normalizadas.

En la figura siguiente puede verse la diferencia entre la señal estimada o salida del predictor y la
señal sumada a la DSSS.



















Figura IV.30. Diferencia entre la salida del predictor (en rojo) y la señal interferente (suma de dos
sinusoides a frecuencias de 0.11 y 0.17.

IV.8 FILTRADO DE WIENER MULTIDIMENSIONAL.

En muchas aplicaciones se trata de recuperar un conjunto de señales que han sufrido distorsion y
ruido aditivo antes de estar disponibles. En este caso, ese conjunto de señales aparecen agrupadas en lo
que se denominaria el vector de referencias | |
T
M n
n d n d n d d ) ( ),..., ( ), (
2 1
= . Las señales obervadas
pasarian a agruparse en un vector | |
T
L n
n x n x n x X ) ( ),..., ( ), (
2 1
= , siendo todas las señales reales. Note
que el tamaño de la referencia no es igual al de señales observadas. Un ejemplo de esta situación seria la
grabación con L=4 microfonos de la conversación simultanea de M=2 locutores en un recinto. Como se
ha indicado, habitualmente las referencias difieren de las señales observadas debido básicamente a dos
efectos el canal de transmisión y el ruido aditivo, es decir, la señal observada obedece al modelo:

0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5
10
-2
10
-1
10
0
10
1
|1-H(f)e
-j2πf∆
|
2
0 50 100 150
-2
-1
0
1
2

n n n
w d H X + = . (IV.58)

Las correspondientes matrices de autocorrelacion y correlaciones cruzadas se definen en IV.59.
Note que la potencia total de las referencias vendra dada por ( ) D Traza .


| |
| |
| |
| |
0
0
. . .
. .
.
.
R H D H X X E R
D H d X E P
w w E R
d d E D
H H
n n
H
n n
H
n n
H
n n
+ = =
= =
=
=
(IV.59)

El problema es diseñar el mejor procesado de varios vectores sucesivos de vectores de señal
observada para reproducir los mas fielmente las señales de referencia.

Antes de proseguir se expondran algunos ejemplos que muestran la relevancia de resolver el
problema planteado. En primer lugar es de destacar que muchos diseños de comunicaciones, donde es
normal emplear componente en fase y en cuadratura, se acostumbra a usar una notación compleja y en
forma escalar. Por multiples razones este planteamiento limita severamente la calidad del ecualizador o
filtro de Wiener diseñado. La formulacion anterior, usando siempre señales reales es mucho mas general
y proporciona mejores soluciones que recurrir a la, digamos, artificial formulacion compleja. Notese que
un la operación complejo cojugado no es una operación lineal cuando se manejan complejos, sin
embargo, en la formulacion anterior el efecto de cambiar el signo de la componente en cuadratura es
perfectamente lineal como puede verse en (IV.60).


n n n
d X
cuadratura n q
fase n i
d .
1 0
0 1
) (
) (
(
¸
(

¸


=
(
¸
(

¸

= (IV.60)

Asi pues, un ecualizador FIR para manejar señales i-q de Q retardos tendría la siguiente
formulacion, mucho mas adecuada que la formulacion compleja (manejando como parte real la
componente en fase y como imaginaria la componente en cuadratura):



=

=
Q
q
q n
q
n
r A d
0
.
ˆ
(IV.61)

Donde el vector r contiene la componente en fase y en cuadratura recibidas en cada instante. Esta
expresión puede representarse como (IV.62) de manera compacta y adaptada al problem formulado al
principio de este apartado, donde la matriz del canal es 2x(2Q+2) y el vector de observaciones es
1x(2Q+2).


n
Q n
n
n
n
X H
r
r
r
H d .
..
.
ˆ
1
=
(
(
(
(
¸
(

¸

=


(IV.62).

Otro caso de gran interes es el caso de sistemas de comunicaciones que usan diversidad, tanto en
codigo, tiempo o en frecuencia. Tomando este ultimo, tanto los sistemas multi-portadora como OFDM
pueden verse como un sistema donde N señales de información salvan canal y ruido produciendo N
señales recibidas. El diseño, conjunto para todas las portadoras, es decir, el filtro que devuelve las N
replicas de las N señales de entrada en un diseño mucho mejor que asumir un desacoplamiento perfecto
entre las portadoras. Esta ultima suposición conlleva considerar N canales independientes, y diseña N
ecualizadores independientemente. Obviamente, las portadoras pueden no estar perfectamente aisladas
debido a problemas de transmisor y/o canal mas receptor, sino que ademas no explotan la posibilidad de
que el ruido este correlado entre las diferentes portadoras como es el caso de presencia de interferencias
co-canal que usan la misma banda. De nuevo, en este caso la formulacion de la señal recibida en funcion
de la transmitida, canal y ruido seria (IV.63), donde la dimension de los vectores es 1xN y la matriz de
canal sera NxN.


n n n
w d H X + = . (IV.63)

Note que, cuando los ejes de diversidad empleados, permanecen desacoplados entonces la matriz de canal
anterior es diagonal.

Otro caso de interes es el caso de transmisión empleando multiples antenas en transmisión y/o
recepción. En este caso, a diferencia de la situación anterior, la matriz de canal no es nunca diagonal pues
cada antena transmisora produce una señal en cada una de las receptoras. Estos sistema en radio toman el
nombre de MIMO (Múltiple Input Múltiple output) acuñada en automatica muchos años atrás. La
formulacion para este problema seria idéntica a (IV.63), la dimensión de la matriz de canal seria igual al
numero de antenas receptoras por numero de antenas transmisoras.

Asi pues, el problema a resolver es obtener, a partir de la observación
n
X una replica lo mas
parecida del vector de referencias
n
d . El criterio que se adoptara, por prolongación del caso escalar sera
la matriz del error cuadrático definida como se comentara a continuación. Si el filtro de Wiener se
denomina con la matriz A, el vector de error, es decir el que contiene en sus componentes el error de
cada una delas señales de referencia, vendra dado por (IV.64).


n
H
n n n n
X A d d d e .
ˆ
− = − = (IV.64)

La matriz del error, denominada normalmente matriz MSE, tiene la definición que se presenta en la
siguiente formula, asi como, su desarrollo en funcion del filtro de Wiener.

| | A P P A A R A D e e E
H H H H
n n
. . . . . − − + = ≡ Σ (IV.65)

Notese que en la anterior expresión aparece un problema, aun no resuelto completamente, que se
refiere a que objetivo se toma en el diseño del filtro. Aparentemente, se deberia minimizar esta matriz,
pero esto como tal no tiene sentido. Si que tendría sentido minimizar, por ejemplo, su traza, su
determinante, etc. Probablemente traza y determinante sean los que mas sentido tienen. La traza o suma
de los elementos de la diagonal principal seria la suma de los errores en cada referencia, es decir:

( ) ( )
∑ ∑
= =
|
.
|

\
|
− = =
P
p
p p
P
p
p
n d n d E n e E E Traza
1
2
1
2
) (
ˆ
) ( ) ( (IV.66)

La critica a minimar la traza es que podria ocurrir que en una referencia el error fuese muy exagerado o
inadmisible para un sistema de comunicaciones por ejemplo. El criterio del determinante tiene que ver
con criterior de capacidad del canal que se sale del ambito de estas notas. No obstante, el lector debe
recordar este criterio como tanto o mas valioso que el de la traza. Otro criterio de interes seria el
minimizar el máximo error en las referencias, tambien denominado mínimax. Y asi sucesivamente se
podrían seguir definiendo criterios para el diseño del filtro de Wiener. Afortunadamente, podra verse a
continuación que el criterio de diseño o de error no impacta en la solucion del filtro de Wiener. Para
llegar a esta conclusión basta con rescribir (IV.65) como un cuadrado perfecto.

( ) ( ) ( ) P R A R R P A P R P D
H H H
. . . .
1 1 1 − − −
− − + − = Σ (IV.67)

En esta ultima expresión es evidente que el segundo termino, se trata de una forma cuadrática, es siempre
una matriz definida positiva y que por tanto aumentara siempre los parámetros de la matriz en primer
termino. Mas formalmente, el segundo termino incrementa los autovalores del primero y asi cualquier
funcion definida sobre la matriz del MSE se vera incrementada. En consecuencia, al margen del criterio,
el optimo diseño del filtro es (IV.68.a) y la matriz del MSE minima, si se le quiere llamar asi, vendra dada
por (IV.68.b).

P R A
optimo
.
1 −
= (IV.68.a)
P R P D
H
ima
. .
1
min

− = Σ (IV.68.b)

Ne muchos casos se prefiere implementar el filtro de Wiener en su versión parametrica, es decir,
en funcion de la matriz del canal y la de ruido. Esta es la situación en sistemas de comunicaciones donde
suele estimarse la matriz de canal con tramas de referencia y el ruido se reduce al ruido termico del
receptor/es. Usando las expresiones de las matrices anteriores en funcion de canal y ruido (ver (IV.59)) se
obtiene:


| |
| | D H R H D H H D D
D H R H D H A
H H
H
. . . . . .
. . . .
1
0
1
0


+ − = Σ
+ =
(IV.69)

Ambas expresiones pueden alterarse, consiguiendo una formulacion mas intuitiva y/o mas compacta
usando el lema de la inversda, que se escribe a continuación, en general.

( ) ( )
1
1
1 1 1 1 1
. . . . . . . .


− − − − −
+ − = + X W Y X W Z Y X X W Z Y X (IV.70)

Aplicando el lema de la inversa a la expresión del filtro de Wiener se obtiene:

( ) | | D H R H H R H D H I R A
H H
. . . . . . . .
1
0
1
1
0
1 1
0


− − −
+ − = (IV.71)

En el caso de la matriz del MSE, al usar el lema de la inversa se simplifica a:

| |
1
1
0
1
. .

− −
+ = Σ H R H D
H
(IV.72)

En esta expresión se hace evidente que para elevadas relaciones señal a ruido el MSE se reduce al
segundo termino tan solo y que coincide con el ruido de un forzador de ceros (ZF) cuya expresión seria:


( )
| |
1
1
0
1
0
1
1
0
. .
. . . . .
ˆ
. . . .





= Σ
+ = + = =
=
H R H
w A d w A d H A X A d
R H H R H A
H
ZF
n
H
n n
H
n
H
n
H
ZF
n
H H H
ZF
(IV.73)

Es importante destacar que muchos autores, erróneamente, acostumbra a formular expresiones de
SNR y BER, en aplicaciones de comunicaciones, a partir de los valores de la diagonal de (IV.72). Al
contrario del caso escalar, donde la SNR es la inversa del MSE menos la unidad, aquí no puede escribirse
una formula similar salvo en el caso en que la matriz del MSE, la mencionada (IV.72), sea diagonal. Note
que hablar de SNR o BER a partir de los valores de la diagonal implica que el detectors produce el
símbolo correspondiente de solo una salida del filtro de Wiener. Obviamente, si otra salida esta correlada,
i.e. la matriz del MSE no es diagonal, el detector canal a canal no es optimo ni, por tanto, sus resultados.
En definitiva, manipular las señales de forma aislada a la salida del filtro de Wiener puede dar bueno
resultados pero, si la matriz del MSE no es diagonal, existe seguro un procedimiento mejor que procesa
conjuntamente las salidas. Veamos con detalle la relacion de la SNR con el error en el caso multicanal.

Es facil comprobar que bajo el diseño optimo el error y la salida o combinación de los datos
estan incorrelados, | | 0
ˆ
. =
n n
d e E , por tanto, escribiendo la ecuación del error como
n n n
d e d
ˆ
− = ,
puede escribirse que la covarianza de las referencias es igual a la suma de la matriz del MSE mas la
covarianza de las referencias D D
ˆ
+ Σ = . Si ahora se define una matriz de SNR como el producto de la
salida del filtro por la inversa del MSE, i.e.
1
.
ˆ

Σ = D SNR , se obtiene (IV.74) que revela la relacion
entre la SNR y el MSE.

I D SNR − Σ =
−1
. (IV.74)

Claramente si, y solo si, la matriz de referencias diagonal y el MSE diagonal puede decirse que
la SNR en un canal cualquiera es su potencia dividido por su MSE menos uno. En caso contrario no
puede establecerse formalmente que esa definición de SNR por canal sea correcta.

IV.9 CONCLUSIONES

Se ha desarrollado en este capitulo el diseño y aplicaciones del diseño de filtros con criterio de
error cuadrático medio mínimo (MSE), también denominado filtro de Wiener. Aunque en sus comienzos
se describiera en términos analógicos, el hecho de que el denominador sea una función definida positiva
invalidaba su diseño óptimo con las técnicas tradicionales de síntesis de redes analógicas. En el fondo, al
estar el diseño analógico hipotecado en su mayor parte al diseño en frecuencia el filtro de Wiener no es
realizable directamente y requiere de aproximaciones de difícil control de cara a su impacto en la calidad
final conseguida.

En tecnología digital, al facilitar el diseño temporal directo mediante filtros FIR, el filtrado MSE
pasó a implantarse en prácticamente todas las aplicaciones de procesado de señal. Desde receptores de
comunicaciones, codificadores de fuente, prospección acústica, etc. todos los sistemas incluyen de un
modo u otro un filtro de Wiener.

El diseño del filtro se ha realizado vía el denominado principio de ortogonalidad de datos y
referencia, que equivale a la derivación directa del objetivo e igualarle a cero. Haciendo uso de la
coherencia espectral se ha vuelto al dominio de la frecuencia. Esto ha permitido descubrir un método de
conocer las prestaciones del filtro antes de proceder a su diseño.

A continuación, se ha pasado a implementar el filtro directamente desde los datos y a validar lo
que con valores esperados se había realizado mediante sumas directas de energía de error y estimadores
de covarianza y correlación. La importancia de la consideración de los transitorios de un FIR se ha hecho
evidente, dando lugar a varias alternativas. El diseño de mayor complejidad y calidad, denominado
método de covarianza, se sitúa por encima del denominado de correlación de menor complejidad.

El predictor lineal como filtro de Wiener específico, donde la referencia es la propia señal ha
merecido más de un apartado. Su conexión con modelos AR y, como se vera, su importancia en análisis
espectral justifican per-se su inclusión. Al margen, claro está, del interés sistema como predictor o
interpolador de datos incompletos.

La estructura de matriz de Toeplitz en los datos, cuando se emplea el método de correlación
provoca el interés del algoritmo de Levinson. Se ha hecho evidente que su interpretación va mas allá que
un método de invertir matrices de Toeplitz. La estructura en celosía y el concepto de predicción forward y
backward cierran el tema proporcionando una estructura que por múltiples razones es más ventajosa que
la tradicional de retardos: la dinámica es decreciente, los parcor permiten controlar que el sistema sea
invertible, no se calcula de nuevo todo el filtro cuando se incrementa el orden, etc.

A modo de ejemplo, y excluyendo dos grandes áreas de aplicación como son vocoders y
ecualizadores en comunicaciones, se han presentado algunas aplicaciones del filtrado MSE, al margen de
que las excluidas ya justificarían por ellas solas su interés.

Finalmente se ha incluido un apartado relativo al caso multicanal donde el filtro pretende
recuperar un vector conteniendo varias referencias a partir de vectores de señal observada donde el
original ha sido distorsionado y presenta ruido aditivo. El contenido de este apartado es de interes y
preliminar a cursos sobre sistemas MIMO tanto para servicio radio o DSL.


IV.10 EJERCICIOS

1.- En diseños con DSPs (procesadores digitales de señal) de coma fija pudiera resultar atractivo el acotar
la norma del vector de coeficientes del filtro. Indique la solución de Wiener cuando se impone la
restricción de norma unidad para el vector de coeficientes y compruebe que su impacto en el diseño es
equivalente a hacer decrecer la relación señal a ruido de los datos con ruido blanco aditivo.

2.- Demuestre que el filtro de Wiener conduce a un filtro adaptado cuando la referencia es determinista y
de energía finita y los datos es la referencia en ruido coloreado aditivo.

3.- Comente a qué se deben las diferencias en calidad entre el diseño del filtro de Wiener en frecuencia
usando la FFT o el diseño directamente como FIR.

4.- Especifique las ecuaciones de diseño para un predictor de tres muestras de adelanto y dos coeficientes
en función de la autocorrelación del proceso.

5.- Si dispone de N>>Q valores de correlación, indique la estructura del filtro con Q coeficientes, no
necesariamente sobre muestras consecutivas, que minimiza el error de predicción. Razone la selección.

6.- Dados los tres primeros valores de correlación de un proceso [1, 0.5 ,a], aplicando el algoritmo de
Levinson calcule el predictor de dos coeficientes para dicho proceso. Cual es el valor o margen de valores
permitidos para el valor de la r
x
(2). Encuentre la extrapolación MEM para r
x
(3). ¿Cual es el valor de r
x
(2)
que convierte la extrapolación MEM en exacta?

7.- ¿Cuáles son los valores de la autocorrelación de un proceso, normalizados a r(0) si sus parcors son 0.5
y 0.2. Los exactos y los extrapolados?

8.- Probar la expresión IV.44 del parcor generalizado en la lattice y que la selección de 0.5 para el
parámetro garantiza la estabilidad del sistema inverso.

9.- Demuestre que los errores backward son ortogonales entre si.

10.- Reformule lo descrito en el texto para un line-enhancer en el caso de que el ruido aditivo sea
coloreado en lugar de blanco.

11.- Se pretende caracterizar un sistema con polos y ceros a partir de la observación de su entrada u(n) y
su salida w(n) usando los principios del filtrado de Wiener en dos etapas (véase la figura):

a) En la primera etapa supondremos que se dispone de la señal x(n) que usamos como señal deseada
para estimar los coeficientes de A(z) a base de minimizar la potencia de e(n). ¿Qué ecuación
matricial nos relaciona los vectores de coeficientes b y a y las autocorrelaciones y correlaciones
cruzadas entre u(n) y v(n)? (Nota: en la expresión no pueden aparecer x(n), y(n) o e(n) ni sus
correlaciones).
b) En una segunda etapa buscaremos las ecuaciones análogas suponiendo ahora que disponemos de
y(n), y la usamos como señal deseada para estimar los coeficientes B(z), minimizando la potencia
de e(n). Escriba estas ecuaciones y combínelas con las encontradas anteriormente para obtener los
coeficientes b y a en función de las matrices de correlación de los procesos que intervienen.

B(z)/A(z)
B(z) A(z)
+
+
+
-
e(n)
u(n)
v(n)
x(n) y(n)



12.- Suponiendo que los coeficientes Parcor de un proceso {x}, de potencia 2, son K
1
igual a 0.6 y K
2

igual a 0.2, responda a las siguientes cuestiones:

a.- Dibuje la estructura lattice correspondiente
b.- ¿Cuales son los coeficientes del predictor en la estructura FIR tradicional?
c.- ¿Cual es la potencia del error de predicción?
d.- Calcular los valores de la autocorrelación rx(1) y rx(2).
e.- Cual es la extrapolación para rx(3) de máxima entropía?

13.- Suponga que se diseña un filtro de Wiener, de longitud Q coeficientes, para la obtención de una
pulso d(n), de la misma duración, a partir de otra señal que contiene el pulso en ruido coloreado de matriz
de covarianza R
o
.

Así el vector de datos vendría dado por
n n
w d n a X + = ). (

Note que la expresión de la matriz de covarianza de los datos puede escribirse como:


o
H
R d d R + = . . α
Siendo α igual a E(a(n)
2
), d contiene las Q muestras del pulso y la matriz R
o
es la de covarianza del ruido
coloreado.

A su vez, la inversa de la matriz anterior puede escribirse como:


( )
1 1
1
1 1
. . .
. . 1
− −

− −
+
− =
o
H
o
o
H o
R d d R
d R d
R R
α
α

a.- Demuestre que la solución para el filtro de Wiener optimo para la obtención de a(n), la amplitud del
pulso, viene dada por d R . .
1 −
α
b.- Compruebe que el estimador ML da la amplitud del pulso es:


d R d
X R d
n a
o
H
n
o
H
. .
. .
) ( ˆ
1
1


=

Note que, aparentemente, el filtro de Wiener procesa los datos con un filtro de la forma R
-1
d, mientras que
el estimador ML lo hace con d R
o
.
1 −
.
c.- Compruebe, usando la expresión de la inversa de la matriz de covarianza de los datos, que el filtro ML
y el filtro de Wiener coinciden salvo una constante
d.- Demuestre que ambos son exactamente iguales para elevadas relaciones de señal a ruido.
e.- Indique, dando por correcto todo lo anterior, bajo que condiciones el Filtro de Wiener o el estimador
ML coinciden con un filtro adaptado al pulso.

14.- Este sistema alude al empleo de prediccion lineal para la extraccion de una portadora de amplitud,
fase y frecuencia desconocida que se recibe con ruido aditivo blanco gaussiano. El esquema utilizado es
el de la figura:












z
-1
z
-1
z
-1
+ -
ERROR e(n)
PORTADORA
de(n)
d(n)+w(n)
a(1)
a(Q)


Asumiendo que la matriz de autocorrelacion de la entrada viene dada por R= α
2
S . S
H
+ σ
2
. I , cuya
inversa es a su vez igual a R
-1
= ( I /σ
2
) - (1/σ
2
) (α
2
/(σ
2
+Q.α
2
) S . S
H
, siendo Q la longitud del predictor,
α
2
la potencia de la portadora y σ
2
la potencia de ruido,

a) Calcular la expresion del vector A con los coeficientes del predictor A
H
=[1 a(1) a(2) .... a(Q)] y probar
que este es una combinacion lineal del vector 1 (=[1 0 0....0]) y el vector S.
b) Calcular la potencia del error y demostrar que solo cuando el orden del predictor es muy grande, dicha
potencia coincide con la del ruido blanco a la entrada.
c) Demuestre que cuando la relacion señal a ruido es grande, o el orden es grande, la portadora estimada
de(n) coincide con la correcta d(n).
d) A la vista del resultado anterior compruebe que el mejor sistema seria el autovector de la matriz de
autocorrelacion asociado al autovalor maximo.


IV.11 REFERENCIAS

[1] M. M. Shondi. “An adaptive echo canceller”. Bell System Techn. Journal, Vol. 46, no.3, Mar 1967,
pp. 497-511.

[2] R.W. Lucky. “techniques for adaptive equalization of digital communications sytems”. Bell Techn.
Journal, Vol. 45, no.2, pp. 255-286, Feb. 1966.

[3] A. Fettweis. “Digital filter structures related to classical filter networks”. Arch. Elek. Ubertragung.,
Vol. 25, No. 2, pp.79-89, Feb. 1971.

[4] E.O. Brigham. “The Fast Fourier Transform”. Prentice Hall, Englewood Cliffs. N.J., 1974.

[5] A.V. Oppenheim, R. W. Schafer. “Digital Signal Processing”. Prentice Hall. Englewood Cliffs, N.J.
1975.

[6] J.L. Flanagan. “Source system interactions in the vocal tract”. Ann. N.Y. Acad. Sci., Vol. 155, 1968,
pp. 9-15

[7] A.H. Gray, J.D. Markel. “Digital lattice and ladder filter synthesis”. IEEE Trans. Audio and
Electrocaoustics. Vol. AU-21, pp. 491-500, 1973.

[8] N. Levinson. “The Wiener RMS Error criterion in filter design and prediction”. J. Math. Phys., Vol.
25, pp. 261-278, 1947.

[9] J. Durbin. “Efficient estimation of parameters in moving average models”. Biometrika, Vol. 46, parts
1 and 2, pp. 306-316, 1959.

[10] J. Durbin. “The fitting of time series models”. Rev. Inst. Intern. Statist. Vol. 48, No. 3, pp. 233-243,
1960.

[11] J.P. Burg. “the relationship between maximum entropy spectra and maximum likelihood spectra”.
Geophysics. Vol. 37, no. 2, pp. 375-376, April 1972.

[12] J. Makhoul. “Spectral analysis of speech by linear prediction”. IEEE Trans. on Audio and
Electroacoustics. Vol. AU-21, pp. 140-148, June 1973.

[13] J. Makhoul. “Linear Prediction: A tutorial review”. Proc. IEEE, Vol. 63, pp. 561-580, April 1975.

[14] J.P. Burg. “Maximum entropy spectral analysis”. Ph.D. Dissertation, Department of Geophysiscs,
Stanford University, Stanford, California, 1975.

[15] A. Papoulis. “Probability, random variables, and stochastics processes”. Mc Graw-Hill, N.Y. 1984.

[16] N. Wiener. “The extrapolation, interpolation and smoothing of stationary time series with
engineering applications”. Wiley. New York 1949.

[17] S.A. Tretter. “Discrete time signal processing”. John Wiley & Sons, Inc. N.Y. 1976

[18] J. A. Cadzow. “Foundations of digital signal processing data analysis”. Macmillan Pub. Co. New
York, 1987.

IV.1. ESTIMACION MSE (MINIMO ERROR CUADRÁTICO) Y FILTRO DE WIENER El problema de filtrar una señal x(t) o diseñar un filtro para x(t), se ha entendido tradicionalmente en términos frecuenciales. Es decir, excesivamente influenciado por la transformada de Fourier y bajo la idea de que en el dominio de la frecuencia nuestra comprensión mejora. Todo el proceso de x(t), para obtener y(t), se entendía en términos de si esta última es una versión paso bajo, paso banda o paso alto de la original. Esta manera, bastante restrictiva de catalogar el proceso llevado a cabo por un filtro h(t), venia determinada por la viabilidad tecnológica de producir en la salida y(t) otras, digamos, versiones de la señal de entrada. Los componentes tradicionales, bobinas y condensadores, se caracterizaban en frecuencia y la síntesis, o diseño a partir de restricciones, del filtro solo estaba bien definido en términos de respuesta frecuencial. Todo ello, sin contrapartida en el diseño a partir de respuesta impulsional. La puesta en escena del procesado digital como tecnología capaz de realizar cualquier operación matemática sobre una señal x(t), mas específicamente sobre su versión muestreada x(n), abrió enormemente las perspectivas de que tipos de filtrado podían llevarse a cabo sobre ésta. El objetivo del presente capítulo es plantear y resolver el problema de diseño de una respuesta impulsional h(n), de longitud Q muestras, de modo y manera que la salida y(n) sea lo mas parecida posible a una señal, denominada referencia, d(n). El denominado parecido puede establecerse con cualquier criterio que se estime oportuno; no obstante, un planteamiento lineal del problema obliga a tomar, como medida de parecido, el error cuadrático medio entre la salida y la referencia.

ξ = E ε ( n)

{

2

}= E{d (n) − y(n) }
2

(IV.1)

Dicho de otro modo, el propósito es encontrar un FIR de Q coeficientes h(n) (n=0,Q-1) tal que su respuesta a los datos, de este modo se denominara a la señal de entrada, produzca una salida lo mas próxima a la referencia en términos de MSE (Error Cuadrático Medio) mínimo. La situación se resume en la figura IV.I:

DATOS x(n) FILTRO h*(q) SALIDA y(n) REFERENCIA d(n)

n=0,...N-1 vector Xn q=0,...,Q-1 vector h n=0,...,N+Q-1 n=0,...,N-1
SALIDA y(n)

FILTRO DE WIENER h*(n)

RESIDUO o ERROR ε(n)

_ +

REFERENCIA d(n)

Figura IV.1 Esquema del filtro de Wiener, con indicación de datos, salida, referencia y el error. El objetivo es minimizar la potencia del error. De nuevo es útil formular el problema en términos vectoriales. La salida del filtro puede escribirse como:

y ( n) = h H X n

(IV.2)

Al introducir esta última expresión en (IV.1) y desarrollar el valor esperado de su modulo al cuadrado se obtiene la función objetivo a minimizar.

ξ = Pd + h H R h − h H P − P H h

(IV.3)

Siendo: Pd la potencia de la señal de referencia Pd=E{|d(n)|2};

{ P = E {X

H R=E XnXn nd
*

} La matriz de correlación de los datos, matriz de Q×Q; ( n)} Es el denominado P-vector, de Q componentes, que contiene como entradas la

correlación cruzada entre los datos y la referencia. De hecho su componente q es rdx(-q). Así pues, el filtro óptimo, se entiende que en términos de error cuadrático medio, es aquel que minimiza el MSE (según (IV.3)). Los coeficientes del filtro óptimo se obtendrán al derivar esta última expresión con respecto a ellos e igualar a cero. De nuevo, al tratarse de una forma cuadrática, cumple las condiciones de Cauchy-Rieman, por lo que el gradiente del objetivo con respecto al vector hermitico, al igualarse al vector cero, proporciona la solución buscada.

∇ hH ξ = Rh − P = 0
De esta expresión se obtiene el vector de coeficientes óptimo.

(IV.4.a)

h opt = R −1 P

(IV.4.b)

Antes de proseguir se examinara brevemente esta última expresión. Nótese que cuando se calcula la salida con el filtro óptimo, tienen lugar dos operaciones conceptualmente diferentes. En primer lugar, la multiplicación del vector de datos por la inversa de la autocorrelación de los datos, puede interpretarse como un proceso de atenuación de todas las componentes o señales presentes a la entrada. Es decir, cada señal recibe una atenuación que es proporcional a su potencia. Es por esta razón que a veces, se le denomina al filtro de Wiener como un inversor de la potencia interferente en aplicaciones de comunicaciones. Recuerde que al multiplicar por la inversa de la correlación los datos, los nuevos datos tendrían una matriz de correlación precisamente igual a la inversa. Ha de insistirse que este proceso es general e independiente de la señal de referencia elegida.
H y (n) = h opt X n = P H R −1 X n

(IV.5)

Una vez, en los nuevos datos, todas las señales están atenuadas, los datos resultantes se proyectan sobre el P-vector, siendo este último la correlación cruzada de datos y referencia y por tanto un vector en la misma dirección que la propia referencia. De este modo se enfatiza aquella señal o la parte que es parecida a la referencia. En definitiva el filtrado óptimo MSE puede verse intuitivamente como un proceso de inversión de los datos para, después proyectarlos sobre la dirección de la correlación cruzada con el fin de enfatizar su contenido en el de la referencia. En lo que se refiere al MSE mínimo, éste se obtendrá al sustituir (IV.4) en (IV.3). El resultado se muestra a continuación de diferentes maneras:

ξ min = Pd − P H R −1 P = Pd − P H h opt = Pd − h opt H R h opt

(IV.6)

Esta última expresión permite escribir una versión alternativa del MSE que evidencia la dependencia cuadrática del MSE en el filtro implementado y que será de gran utilidad en el capítulo siguiente:

ξ = ξ min + h − h opt

(

)H R(h − h opt )

(IV.7)

También, esta ultima expresión muestra que el MSE, no sólo depende del error que se comete en la implementación de los coeficientes, sino que además depende del escenario de entrada o de los datos, mas específicamente de su correlación. La utilidad de la expresión anterior estriba en que, si por cuestiones relativas a la implementación del filtro (cuantificación dura de coeficientes en procesadores de coma fija), los

del vector o los dos vectores implicados.2 Interpretación geométrica del filtro de Wiener para orden 2. y la salida y(n) será la combinación lineal de estos dos últimos según h(0) y h(1). Este tipo de cálculo es muy útil para la evaluación de la calidad final obtenida en los canceladores de ecos que se exponen al final del presente capítulo que suelen realizarse sobre procesadores de coma fija. es decir. y por la potencia de la señal de entrada. Si el filtro a diseñar cuenta con tan solo dos componentes h(0) y h(1). es interesante plantearlo en términos geométricos.8) donde Σa es la matriz de covarianza de los coeficientes. Indicación de que el ángulo formado por el error y el plano de los datos ha de ser noventa grados. entonces el error ha de ser ortogonal al plano de los datos. Claramente si se pretende que la norma del error. componente a componente. La varianza de los coeficientes sería incorrelada. Dejando de lado la formalidad.coeficientes fuesen variables aleatorias alrededor de su valor óptimo (E{h}=hopt).}. Antes de pasar a revisar otros aspectos del filtro de Wiener. los datos utilizados serán tan solo x(n) y x(n-1). aparece en la siguiente expresión y se la denomina principio de ortogonalidad: . [ { {( )H R(h − h opt )}= }] [ ] (IV. que es de una ayuda inestimable a la hora de entender su funcionamiento. Esto último equivale a decir que el producto escalar del error con todos los datos ha de ser cero. el MSE se convertiría en una variable aleatoria cuyo valor esperado sería igual a: E [ξ ] = ξ min + E h − h opt = ξ min + traza RE (h − h opt )(h − h opt ) H = ξ min + traza RΣ a (IV. sea mínima.9) ε(n) ERROR x(n-1) x(n) y(n) SALIDA PLANO DE LOS DATOS Figura IV. por el número de coeficientes del filtro.2): y ( n) ⊂ Plano de los datos d(n) REFERENCIA (IV. En otras palabras. Se mostrará esta interpretación a continuación para el caso de dos dimensiones. queda definido un espacio vectorial donde la norma y producto escalar se definen como el valor esperado de la suma de los productos. La ventaja del empleo de objetivos tipo MSE es que estos pueden expresarse como la norma del vector error. con el producto escalar elegido al definir la norma del error E{.8) Nótese que esta última expresión es también útil para evaluar el impacto que tendría la implementación en coma fija o con longitud finita de registros del filtro de Wiener. Al ser y(n) siempre una combinación lineal de los datos puede decirse que esta estará contenida siempre en el plano de los datos (véase la figura IV. y el exceso de error sería igual al producto de la potencia del error de cuantificación. en consecuencia la matriz Σa sería diagonal. La condición. se puede hacer una interpretación geométrica del planteamiento y diseño del filtro de Wiener. es decir. con la definición de producto escalar tomada. ξ es la norma del vector ε cuyas componentes son ε(n). Q igual a 2.

en definitiva. .).10) queda: ξ min = E ε ( n)d * ( n) { } (IV...3. Esta expresión. La señal contiene cuatro muestras por símbolo.4 se puede ver como la diferencia entre la señal a la salida y la señal de entrada es muy pequeña.11) Para evaluar la forma de trabajar del filtro de Wiener se mostrara su aplicación en un entorno de ecualización en comunicaciones. En la figura IV. se supondrá que la relación señal a ruido es elevada (>60 dB. la ortogonalidad estadística ha de entenderse como parecido mínimo entre las señales implicadas.1 z-4 –0. por otro lado el perfecto funcionamiento como ecualizador se muestra en la figura IV. Por último.01 z-5. El canal presenta seis coeficientes: G(z) = 1-0.. Para ello. si la señal de entrada fuese audio cuanto menos se entienda el programa en la señal de error mejor estará diseñado el filtro. Respuesta frecuencial del canal 6 4 2 0 -2 dB -4 -6 -8 -10 -12 -14 0 20 40 60 80 frecuencia 100 120 140 Figura IV. la forma del pulso conformador es rectangular y el orden seleccionado del filtro de Wiener es de 18 coeficientes.3. una señal BPSK de longitud 1024 muestras se introduce a un canal cuya función de transferencia aparece en la figura IV..10) Una interpretación interesante del principio de ortogonalidad es que puede asegurarse que. Tanto la matriz de autocorrelación de los datos como el vector de correlación se han estimado a partir de las muestras de datos y referencia respectivamente. mejor diseñado estará el filtro. Esta será la respuesta que el filtro de Wiener ha de ecualizar. Respuesta del canal a la señal de entrada. Dado de que se trata de ilustrar la capacidad del diseño MSE. De este modo e intuitivamente.1 z-2+0.3 z-1 -0.5 donde la respuesta frecuencial del filtro (ecualizador) conseguido se parece mucho a la inversa de la respuesta del canal. cuanto menos se parezcan la señal de error y los datos. el principio de ortogonalidad permite escribir una expresión alternativa para el MSE mínimo.ε ⊥ DATOS ⇒ E ε ∗ (n) x(n − q ) = 0 { } q = 0. Q − 1 (IV. derivada directamente del error usando (IV.5 z-3+ 0.

en lugar del caso FIR causal. Para comprender la forma de trabajar del filtro de Wiener en frecuencia es necesario extender las ecuaciones de diseño para un filtro de respuesta impulsional infinita. Comparación entre la señal de referencia (línea continua) y la señal ecualizada a la salida del filtro de Wiener (línea discontinua).4.2 -0. IV. Por razones de presentación.Cien muestras de la referencia y la señal ecualizada 0. Por esta razón. Respuesta frecuencial del filtro diseñado con 18 coeficientes para ecualizar el canal de la figura IV.2 EL FILTRO DE WIENER EN FRECUENCIA Si bien el diseño del filtro de Wiener suele tener lugar en el diseño temporal. Esta descripción en frecuencia enriquece el conocimiento del filtro y.6 -0.2 0 vol ts -0.3.6 0. permite establecer de antemano su interés ante un escenario y una referencia dada.8 900 920 940 960 tiempo 980 1000 1020 Figura IV.5. Respuesta del filtro de Wiener -12 -14 -16 -18 -20 B d -22 -24 -26 -28 -30 0 20 40 60 80 frecuencia 100 120 140 Figura IV. este apartado se va a ocupar de la forma de trabajar del filtro de Wiener en dicho dominio. mucha de la comprensión de sistemas y diseños va ligada a su representación frecuencial. se reproducen a continuación las ecuaciones de diseño de un filtro de Wiener tipo FIR de Q coeficientes: .4 -0. como se comento al principio del capitulo.4 0. lo que es más importante.

.13) justifica que. Dado que el filtro de Wiener es lineal. decir que el contenido en una banda de frecuencia de una señal es coherente con el de otra señal en la misma banda implica que una de las dos se puede obtener de la otra mediante una transformación lineal. La expresión (IV. Más interesante aun es que la relación anterior muestra en qué frecuencias la salida del filtro va a seguir el contenido de la referencia y en cuáles se va a alejar. por lo que cuando se usa un filtro FIR las conclusiones derivadas aquí tienen un carácter aproximado o no exacto. Es interesante conocer aquellos fenómenos que afectan a la coherencia espectral.13) Siendo H(ω) la respuesta en frecuencia (si bien estrictamente hablando y dado que se trata de un sistema discreto se debería escribir H(exp(jωT)).. La propia palabra indica que si dos valores de la transformada de Fourier de la señal d(t) y x(t) son denominados coherentes quiere decir que existe una relación lineal entre ambos. Como ya se comentó en el capítulo dedicado a los procesos estocásticos. excepto por el hecho de que se esta asumiendo que el filtro H(ω) es el conjugado del que aparecía en el capítulo II. y Sxd(ω) es la densidad espectral cruzada de los datos con la referencia. mediante un filtro lineal. Se hace evidente que la coherencia espectral entre la referencia y los datos es la función que permite anticipar cuan efectivo será el filtro de Wiener para resolver el problema de obtener a partir de x(n) una señal parecida a la referencia d(n).13) coincide con la ecuación (II.. cuando la distorsión no lineal o el ruido son pequeños. En otras palabras. es decir. la coherencia espectral entre dos señales se aproxima a la unidad cuando entre ambas existe una relación lineal. H (ω ) S x (−ω ) = S dx (−ω ) ⇔ H ∗ (−ω ) S x (ω ) = S xd (ω ) (IV. planteada a nivel frecuencial. la revisé en su momento y no la corregí. usando el teorema de Parseval en la expresión del error mínimo este puede escribirse como: ξ min = = H Pd − h opt 1 P= 2π π −π ∫ [S d (ω ) − S dx (ω ) H ∗ (−ω ) dω = ] 1 2π  S (ω ) S xd (ω )   S d (ω ) − dx  dω = S x (ω )    −π  π ∫ ∫ (IV. se volverá sobre este aspecto. Sx(ω) es la densidad espectral de la entrada. Mas adelante. claramente en aquellas zonas donde la coherencia anticipa que existe una relación lineal. Lo interesante de la coherencia es que espectralmente indica el grado de dificultad que distorsión y ruido entrañan de cara a la efectividad del filtro de Wiener a diseñar. estimando las dos densidades espectrales con un procedimiento como WOSA o MLM (ver capitulo anterior) pueda estimarse el filtro de Wiener por el cociente de ambas. es decir. Es preciso destacar que la ecuación (IV.14) π 1 = 2π  S (ω ) S xd (ω )  1 S d (ω ) 1 − dx  dω = S x (ω ) S d (ω )  2π    −π π −π ∫ S d (ω ) 1 − γ (ω ) dω 2 [ ] Ecuación que indica la dependencia del error mínimo con las densidades espectrales de datos y referencia.∞ a + ∞ el comportamiento del filtro de Wiener en frecuencia viene dado por la expresión: He modificado esta ecuacion.. Igual que la última expresión proporciona el diseño en frecuencia del filtro. el filtro de Wiener hará bien su trabajo y el MSE en esa banda será pequeño. siendo T el periodo de muestreo). Es de destacar que en general la solución óptima de Wiener. produce un filtro no causal. Efectivamente si entre dos señales existe una relación lineal entonces la coherencia espectral vale la unidad: .12) Cuando la ecuación anterior incluye un filtro cuya respuesta se extiende de .25). El poder calcular el error mínimo antes de implementar o diseñar el filtro permite también elaborar la decisión y ponderar si la complejidad compensa la calidad obtenida. Q − 1 (IV.∑ h (q)r ∗ q =0 Q −1 xx (l − q) =rdx (l ) l = 0.

Sistema lineal con ruido aditivo. la salida del filtro h(t) (cuando a su entrada se aplica d(t)). ya que en esa zona frecuencial la SNR es alta y el esfuerzo dinámico de los componentes muy alto. pierde coherencia por la presencia de ruido aditivo (ver figura IV.si x(n) = d ( n) ∗ g (n) ⇔ X (ω ) = D (ω )G (−ω ) S dx (ω ) = G (ω ) S dd (ω ) S xx (ω ) = G (ω ) S dd (ω ) 2 entonces S xd (ω ) = G ∗ (ω ) S dd (ω ) (IV. el sistema que invierte a G(ω). en aquellas bandas donde el ruido es alto. como afecta el ruido a la calidad del filtro de Wiener.17). la aproximación del filtro de Wiener al deseado G-1(ω) será de peor calidad que en aquellas donde el ruido sea mas pequeño. Nótese que en el caso de un amplificador. la distorsión no lineal es prácticamente inexistente. la coherencia cae en la banda de paso debido a distorsión no lineal fundamentalmente. La densidad espectral del ruido ‘enmascara’ la identificación correcta de G(ω) por el filtro de Wiener. Tal como se indica en (IV. ∀ω Por otro lado. ruido x(t) Figura IV. como ya se ha comentado en el segundo tema. puede encontrarse como afecta la SNR frecuencial a la coherencia. En otras palabras.6). La distorsión no-lineal y las interferencias también provocan la disminución de la coherencia espectral en las bandas de frecuencia donde se producen.6. d(t) G(ω) + w(t) .17) . es decir.16) Nótese que la expresión define la relación señal a ruido como la potencia entre la parte de la salida coherente con la entrada y ruido a aquella que no lo es. el ecualizador se ve afectado por las densidades espectrales de la señal transmitida y el ruido: H ∗ ( −ω ) = = S xd (ω ) G * (ω ) S d (ω ) = = 2 S x (ω ) G (ω ) S d (ω ) + S w (ω ) 1 G (ω ) S d (ω ) 1 1 = S (ω ) 1 G (ω ) 1+ S d (ω ) + w 2 SNR (ω ) H (ω ) (IV. en la banda eliminada la coherencia cae por efecto del ruido ya que el nivel de señal es bajo y. A continuación se vera como sería el filtro de Wiener diseñado en las condiciones de SNR finita y para el caso del diseño de un ecualizador. como consecuencia del bajo esfuerzo dinámico. Por otro lado.15) y en con sec uencia γ 2 = 1. De este modo. y por tanto. Si la densidad espectral del ruido w(t) es Sw(ω) la coherencia pasa a ser en este caso: γ (ω ) 2 = 1 SNR (ω ) = S (ω ) 1 + SNR (ω ) w 1+ G (ω ) 2 S (ω ) d (IV.

Se considera que el filtro adaptado ha sido situado antes de muestrear la señal en el receptor para someterla al filtro. las conclusiones de calidad pueden obtenerse desde la representación de la coherencia espectral donde puede observarse (ver la figura IV. Antes de finalizar el apartado es importante insistir que todas las expresiones y comportamientos descritos tienen un carácter asintótico.4 -0.10) que efectivamente decae en las zonas mencionadas.Nótese que solo para valores altos de la SNR(ω) el filtro de Wiener ecualiza o iguala. la compensación del canal ha tenido efecto y la tasa de error del detector tan solo se resiente en una perdida de 2 dB. vía (IV.8.6 -0. Comparación entre referencia y salida del filtro para una Eb/No de 11dB. tomando valores próximos a la inversa de la respuesta del canal de transmisión G(ω). Para ilustrar la importancia de la coherencia espectral.6 0. se volverá al ejemplo expuesto en el apartado anterior.8 muestra ahora más diferencias entre la salida y la entrada.8 -1 985 990 995 tiempo 1000 1005 1010 Figura IV.18) Esta expresión tiene mayor similitud con la de un filtro adaptado a la respuesta del canal que a un igualador en sentido estricto. debido al espectro de la señal de entrada (al ser una modulación BPSK es el módulo al cuadrado de una función sinc). En efecto. El canal utilizado es el de la figura IV. ref(disc.3.13).8 0. Con todo.) W-ec(cont) 0. Ultimas muestras.4 0. La Figura IV. Ahora la señal recibida se encuentra contaminada con ruido blanco de tal modo que la Eb/No es de 11 dB. la respuesta del canal que en 40 y en 138 tiene fuertes atenuaciones provocan que la relación señal a ruido sea mas baja que en resto de frecuencias. . La implementación en frecuencia del filtro. calculando la salida como producto de la DFT de la entrada por la H(ω) encontrada es obviamente una aproximación que depende del procedimiento de análisis espectral empleado para la estimación de las densidades espectrales cruzadas y autoespectro implicadas. De la respuesta frecuencia del filtro puede apreciarse la perdida de calidad en las zonas donde.2 0 s t l o v -0.2 -0. por lo cual el número de muestras por símbolo será ahora lógicamente una sola. Por el contrario. cuando la SNR es muy baja el filtro de Wiener se aproxima a: H ∗ (−ω ) ≈ G * (ω ) S d (ω ) S w (ω ) (IV. Esta aproximación acostumbra a ser de menor calidad que la implementación en el dominio temporal que se describirá en el próximo apartado.

9.Respuesta del filtro de Wiener -16 -18 -20 -22 B d -24 -26 -28 -30 -32 0 20 40 60 80 frecuencia 100 120 140 Figura IV. Puede apreciarse como a las frecuencias a las que el canal presenta fuerte atenuación. la coherencia cae por debajo de la unidad. Coherencia espectral 1 0. Todos los estimadores de la coherencia se han realizado con el método WOSA. Respuesta del filtro de Wiener ecualizador para una Eb/No de 11 dB.4 0. El efecto de perdida de coherencia se aprecia mas cuando. . la señal recibida se ve afectada por dos interferencias de banda estrecha.9 0.2 0.10. segmentos de 256 muestras.8 0.6 0. en lugar de ruido blanco. sin solapamiento y ventana rectangular.1 0 20 40 60 80 frecuencia 100 120 140 Figura IV. Representación de la coherencia espectral para el caso descrito en el texto.11 el lector puede concluir donde se encuentran las interferencias y lo lógica que resulta la respuesta frecuencial del filtro obtenido.3 0. provocando que esas zonas el filtro de Wiener se aleje de ser el ecualizador correcto de la respuesta del canal. En la Figura IV.7 o d a r d a u c l a o l u d o M 0.5 0.

. Una manera diferente. también cambiara la formulación de la matriz de autocorrelación y la del vector de correlación cruzada.20.6 0. si Est{. EL FILTRO DE WIENER A PARTIR DE LOS DATOS. en términos estadísticos como consecuencia de definir el error cuadrático medio (MSE) con un valor esperado. se puede estar seguro de que. el filtro de Wiener quedaría formulado con el mismo estimador: MSE ≡ Est e(n) h = Est X n X ( { { 2 H n }) Est{X −1 } nd * (n)} (IV... Por esta razón. donde lo único que se dispone es de una colección de N muestras de la entrada y de la referencia y se quiere diseñar el filtro de Wiener. Si esta norma se define de otro modo. se ha de partir de la situación habitual.11. De este modo.Coherencia espectral 1 0. las funciones implicadas en el diseño del filtro son funciones estadísticas.3.. y ( N )...5 0..19) Dicho esto. puede argumentarse que cualquier estimador podría utilizarse y dejar al lector la sensación de que la puesta en practica del filtro es tan fácil como parece.. La presentación del filtro de Wiener se formuló. IV. obliga a hacer una descripción mas detallada de lo anterior. es necesario expresar como serán las ecuaciones de filtrado con una formulación vectorial.. y (Q − 1).} denota una estimación del valor esperado E{...20.3 0 50 frecuencia 100 150 -30 B d -20 -15 -10 Respuesta del filtro de Wiener -25 0 50 frecuencia 100 150 Figura IV.9 o a a c a o o M 0. Si se desea diseñar un filtro de Q coeficientes y la señal de entrada tiene una longitud de N muestras. (IV.. matriz de autocorrelación de los datos y vector de correlación cruzada de los datos con la referencia. si el estimador posee las cualidades de una norma. en el primer apartado de este capitulo..a) yT = h H X Quedando definida la matriz de datos como: (IV. es claro que la salida del filtro y(n) tendrá N+Q-1 de las que Q-1 serán el denominado pretransitorio y otras Q-1 serán el post-transitorio. y ( N − 1).4 0. De hecho.. dicho de otro modo. Antes de proceder al diseño. Para ser más explícitos.. y (Q − 2). el vector de muestras de la salida será: y T = [ y (0).7 0. y más general.} es la formulación de un producto escalar. de formular el problema es alegar que el MSE entraña en su definición una norma para el espacio vectorial que definen los datos y la referencia.b) . que define también la norma. No obstante. el hecho de que este en juego la implementación del filtro.. la operación E{.8 0. y ( N + Q − 1)] El filtrado quedara definido por..}. Coherencia y filtro cuando están presentes dos interferencias de banda estrecha.

Poner Q-1 ceros y a continuación las N muestras disponibles de d(n): usar n=0.24) Donde.. al pasar a una nueva definición del MSE. el objetivo pasa a ser el minimizar el error entre la referencia y los datos.. el gradiente con respecto al vector del filtro (derivar con respecto a su transpuesto conjugado) viene dado por (IV. de las que las mas importantes se listan a continuación: 1.. Dado que en este caso.23) Obviamente ambos contienen una formulación de estimadores tradicionales de correlación y correlación cruzada. el método (4) es el más empleado en proceso segmentado.....21) Para obtener el óptimo. existen varias posibilidades. con las ventajas que esto conlleva en memoria necesaria y computacionales. De hecho. Los métodos (1) y (2) incluyen el pre y el post transitorio respectivamente. así como el filtro óptimo: X d* − X H h = 0 h= XXH ( [ ] ) −1 X d* (IV..Tomar de la salida tan solo las N-Q+1 muestras del permanente: usar n=Q-1.. es decir... el objetivo será minimizar el nuevo MSE definido como: MSE ≡ d T − y T 2 = dT − hH X 2 (IV.22). cuando tanto la entrada como la referencia se segmentan en tramas y se busca el filtro adecuado para cada trama. 2. tiene un cierto equilibro al pedir mínima energía en ambos lados. Para ello. la matriz a invertir es Toeplitz. Esta es la situación para señales de larga duración y en problemas donde el filtro óptimo es variante y a diseñarse .N-1.22) Ahora puede comprenderse lo que se quería decir con el cambio de norma. 4. poner N-Q+1 muestras de d(n) (comenzando por d(0)) y añadir Q-1 ceros: usar n=0. menos que la salida... que la referencia tiene Q muestras. y en (2) se espera lo mismo del post-transitorio.Poner Q-1 ceros al final de d(n): usar n=0. de la matriz de autocorrelación se puede formular de otro modo como se indica a continuación: N +Q −1 R=XX H = ∑X n =0 n H Xn (IV.. 3.N+Q-1. por ejemplo. x(0) x(1)  0 x(0)  X = M M  0  0  0 0  L x(Q − 2) x(Q − 1) L x(Q − 3) x(Q − 2) M M L x(0) x(1) L 0 x ( 0) 0 x( N − 1) L x ( N − 2) x( N − 1) M M L x( N − Q + 1) x( N − Q + 2) L x( N − Q) x( N − Q + 1) L 0  L 0    M  L 0  L x( N − 1)  L Con esta formulación.Poner Q-1 ceros.N+Q-1..... falta por tomar una decisión con respecto a como se forma el vector de la referencia disponiendo sólo de N muestras. Dado que no parece lógico el que el error en el transitorio sea importante en la mayor parte de las aplicaciones las dos primeras opciones no son de un uso extendido. en (1) se espera que el filtro tenga un transitorio de mínima energía. que se mostraran mas adelante. por el momento. Es más. La formulación de (4). Dejando de lado. a continuación. se puede comprobar que el estimador. los nuevos estimadores de la matriz R y el vector P son: ˆ R= XXH ˆ P = X d* (IV. claramente los vectores Xn no son más que cada una de las columnas de la matriz de datos. Vista la conexión del diseño usando únicamente los datos con el diseño usando valores esperados.N+Q-1...

−h(Q)]* X n = x(n) − h H X n −1 (IV. .. Cuando la muestra a predecir se encuentra entre n-1 y n-Q el filtro de Wiener funcionará como interpolador lineal. cuanto mayor es p mayor será el MSE pues la predicción se hace mas arriesgada o a mas largo plazo con respecto a los datos. Únicamente la presencia de pseudo periodicidades en la señal. obtenemos la mejor calidad usando un estimador insesgado de la matriz de autocorrelación.específicamente para cada una de las tramas..4. El método (4) se denomina en la literatura método de correlación.. Este diseño suele presentar una calidad francamente superior a cualquier otra alternativa. centrándose en el caso de predicción lineal. Si se considera que en el instante n el filtro maneja los datos [x(n-1).. Si p es un entero negativo mayor o igual que Q se estará buscando en el pasado de la señal para conocer como era esta antes de que apareciesen las muestras que manejamos en los datos. estima la matriz de correlación con sesgo cero. En otras palabras.. puede cambiar el comportamiento aludido. PREDICCION LINEAL Un caso especial de filtro de Wiener es aquel donde la referencia lo constituye la propia señal de entrada. Es intuitivo que.12 Esquema de un predictor lineal y el error de predicción .. se puede calcular el filtro que a partir de estos genera una salida lo mas próxima a cualquier otro valor de la misma señal. solo en permanente sin requerir asumir nada respecto a la señal de referencia allá donde se desconoce. es un vector de Q coeficientes donde el primero esta restringido a valer la unidad.. El problema es su coste en memoria y carga computacional ya que la matriz no es Toeplitz.. es decir. nótese que. incrementando la correlación en lags alejados del origen. digamos x(n+p). Así pues. siendo el mejor método. Del mismo modo..26) Nótese que el vector filtro. incluido el método de correlación..−h(2). .x(n-Q)]. predicción de la muestra x(n) a partir de las muestras pasadas..−h(1). y como detalle curioso. x(n) + _ -1 e(n) ˆ x (n ) Z h*(1) Z Z -1 h*(2) -1 .. tal y como aparece en la figura IV. cuando p es mayor o igual a cero se estará tratando de predecir el futuro de la señal. el filtro a diseñar de Q coeficientes sería: ˆ x(n) = [h(1). es decir. IV.. al formular el error de predicción como la salida.25) El error de predicción. en general. Todos los problemas anteriores son similares al caso de predicción hacia delante. El método (3) es el que más sentido tiene pues diseña el filtro sin atender a su comportamiento en transitorios. (p=0) si no se especifica lo contrario. Predictor de Wiener Z -1 h*(Q) Figura IV. Este método se denomina método de covarianza.12 se obtiene como: ˆ e(n) = x(n) − x(n) = [1. h(Q )]* X n −1 = ∑ h (q) x(n − q) * q =1 Q (IV.

a la hora de ajustar un predictor lineal.. de lo cual se deduce que: ξ min = E x(n) { 2 }− E{xˆ(n) } 2 Es de destacar que el diseño de un predictor lineal es equivalente al ajuste de un modelo AR del proceso. . Por otra parte.12. o un modelo AR.Las ecuaciones de diseño y el error mínimo pueden obtenerse directamente a partir de la ecuación IV. − h(Q)∗ z −Q Es esta última la que. la respuesta del filtro de Wiener que actúa de predictor y que genera la muestra prevista es: H ( z ) = h(1)∗ z −1 + .. salvo una constante. La figura IV.84) son completamente análogas. la mencionada respuesta frecuencial será. Se vera.. bajo un predictor lineal y siempre con criterio MSE. es precisamente el ruido blanco: en este caso los coeficientes del predictor son nulos y la potencia del error de predicción es igual a la potencia de la señal a predecir. se deduce que la señal mas impredictible. a modo de ejemplo.10). + h(Q)∗ z −Q La respuesta de filtro que genera el error de predicción es: P ( z ) = 1 − H ( z ) = 1 − h(1)∗ z −1 − . la potencia del error de predicción es siempre menor o igual a la potencia de la señal.. Q Q ξ min = rx (0) − ∑ h (q)r (−q) = r (0) − ∑ h(q)r (q) x q =1 (IV.27) y las ecuaciones de Yule-Walker (II. cambiados los coeficientes de signo. conforma el estimador de densidad espectral de máxima entropía... qué ocurre cuando realizamos predicción lineal sobre una señal de voz con orden creciente.27) rx (1)  rx (0)  r (−1) rx (0)  x  M M  rx (−Q ) rx (−Q + 1) rx (Q)   1  ξ min  L rx (Q − 1)  − h(1)   0   =   M   M  O M     L rx (0)  − h(Q )  0  L De la observación de las ecuaciones. la inversa del espectro de potencia del proceso... si se representa el vector de coeficientes del filtro de Wiener que actúa de predictor. En efecto: ˆ x ( n ) = x ( n ) + e( n ) ⇒ E x ( n) { 2 }= E{xˆ(n) 2 + e( n) 2 }+ 2 Re{E{e (n) xˆ(n)}} ∗ Y el último término de la suma es nulo en el caso de que los coeficientes del filtro sean los óptimos por la propiedad de ortogonalidad (IV. las ecuaciones (IV. Así pues.. conjugando y anteponiendo un uno a su respuesta.13 muestra un segmento de señal de voz correspondiente a la parte central del fonema /e/ sobre el que se calculará un predictor lineal.12: rx (l ) = ∑ h (q)r (l − q) ∗ x q =1 Q ∗ x x q =1 Q l = 1.. invertida y salvo la potencia del error de predicción. En referencia a la Figura IV. Dicho de otro modo. de hecho solo ocurrirá así cuando el proceso a predecir sea AR y su orden sea idéntico al del predictor diseñado. La relación entre la igualdad. Debe insistirse que minimizar la potencia de salida del error es mucho menos restrictivo que imponer correlación nula a lags diferente del origen para fomentar el carácter quasi blanco del error. comentado en el capitulo anterior. no debe inducir a pensar que el error de predicción será blanco siempre. De hecho una técnica de cero forzing en la correlación de salida genera un problema no lineal en los coeficientes del predictor.

Señal de voz muestreada a 8 Khz y un segmento de 500 muestras del fonema /e/. 800 600 400 200 0 -200 -400 -600 -800 -1000 0 100 200 300 400 500 e(n) para Q=8 800 600 400 200 0 -200 -400 -600 -800 -1000 0 100 e(n) para Q=12 200 300 400 500 750 e(n) para Q=50 48 46 Potencia del error de predicción 500 44 250 dB 42 40 38 0 -250 36 -500 0 100 200 300 400 500 34 0 15 30 45 60 75 Orden del predictor Figura IV. el error de predicción es muy pequeño. junto con la señal prevista. en este caso. se sitúa en Q ≅ 60.13. El orden del predictor fue de 12 coeficientes y el número de muestras fue de 1024.1000 500 0 -500 -1000 -1500 0 4 100 200 300 400 Señal original /e/ Figura IV.14 muestra como evolucionan el error de predicción y su potencia a medida que aumentamos el orden del filtro predictor. a la vez que su potencia disminuye hasta un nivel mínimo que. Error de predicción y potencia del mismo para la señal de la figura IV. La figura IV. Claramente. Nótese que el error de predicción aparece como una señal menos estructurada (más blanca espectralmente) cuando se aumenta el orden.15 puede apreciarse la realización de un proceso AR(5) ya usado en el capitulo anterior. . En la Figura IV.13 cuando se aumenta el orden den predictor.14.

Es importante mencionar que el análisis del filtro de Wiener a partir de los datos. Es de destacar. B d -10 -20 -15 B d -20 -25 -30 0 50 100 150 0 50 100 150 Figura IV. ya que el filtro inverso debería ser un filtro todo-polos. a la izquierda. No obstante. Es más. si la relación señal a ruido no es muy elevada. que el . Es claro que el diseño de un filtro de Wiener siempre entraña la inversión de la matriz de datos que. Desgraciadamente. p p 10 -10 0 . cuando se utiliza el método de covarianza. Obsérvese que la respuesta de P(z) (FIR) obedece a la inversa de la densidad espectral de forma aproximada. a la derecha.16. Este problema se analizará con mayor detalle en adelante y se comprobaran las afirmaciones hechas en este momento. Densidad espectral de un proceso MA de orden 5. en términos de análisis espectral su inversa. el ruido aditivo convierte la señal en un proceso no estacionario y ya no es posible recuperar los coeficientes del predictor que anulan el error de predicción. diseñado por el método de covarianza sobre una señal de 1024 muestras de longitud. el error de predicción es siempre mayor que la potencia del ruido aditivo. respuesta en frecuencia del predictor de orden 12. no es Toeplitz. la predicción puede llevarse a cabo sobre señales deterministas. del predictor P(z) correspondiente. Así pues.) W-ec(cont) 50 40 30 20 10 s t l o v 0 -10 -20 -30 -40 -50 990 995 1000 tiempo 1005 1010 1015 Figura IV. asumiendo que se está en un diseño bajo el método de correlación y en el caso de predicción lineal.Ultimas muestras.16 muestra otro caso donde el modelo de generación de x(n) es MA de orden 5. ref(disc. Señal original (discontinua) de un proceso AR(5) y la prevista (continua) a la salida de un filtro de Wiener funcionando como un predictor de orden 12 para la señal.15. el próximo apartado describirá el modo óptimo de proceder. Esta figura muestra la densidad espectral exacta a la izquierda y la respuesta. Ha de recordarse que toda señal determinista que se rige por una ecuación diferencial (como las sinusoides por ejemplo) son completamente predictibles y producen un error de predicción cero. La figura IV. en los casos en que el método es de correlación dicha matriz sí lo es y es posible aprovechar dicha circunstancia para facilitar y acelerar su inversión.

Las ecuaciones de diseño de un predictor lineal de Q coeficientes son: r (1)  r ( 0)  r (−1) r ( 0)   M M  r (−Q ) r (−Q + 1) 2 L r (Q )   1  σ Q    L r (Q − 1)  − h Q (1)   0   =   M  O M  M  Q    L r (0)  − h (Q )  0    (IV. la predicción hacia delante. el algoritmo mas implementado en el mundo y que junto con la primera hicieron populares las aplicaciones de procesado digital de señal. Nótese que al pasar de un orden Q al orden Q+1. ya que si el proceso es estacionario es obvio que el sentido en que se realiza la predicción es irrelevante.algoritmo que sigue es. después de la FFT.29) también aparece invertido: r (1)  r ( 0)  r (1) r ( 0)   M M  r (−Q + 1)  r ( −Q ) r (−Q − 1) r ( −Q )  L r (Q ) r (Q + 1)  − h Q +1 (Q + 1) ∗   0      L r (Q − 1) r (Q)   − h Q +1 (Q) ∗   0   = M  O M M  M     L. la matriz a invertir tiene una estructura de Toeplitz y lo que se tratará es de explotar su estructura para acelerar su inversión. y la predicción hacia atrás. tan solo un valor nuevo entra en la matriz de correlación (el término r(Q+1). caso del método de correlación. además de r(-Q-1) que es el conjugado del anterior) y sin embargo hay de calcular de nuevo todos los coeficientes: r (1)  r ( 0)  r (−1) r ( 0)   M M  r (−Q + 1)  r ( −Q ) r (−Q − 1) r (−Q )  2 1 L r (Q) r (Q + 1)   σ Q +1     − h Q +1 (1)   L r (Q − 1) r (Q)     0  = M  O M M  M     L r (0) r (1)   − h Q +1 (Q )   0  L r (−1) r (0)  − h Q +1 (Q + 1)  0      (IV. en primer lugar se puede comprobar que.28) En las que tanto los coeficientes como la potencia del error de predicción denotan la correspondencia con un predictor de orden Q. sin perdida de generalidad. se considerará el caso del diseño de un predictor lineal. Gracias a esta estructura. el problema de diseño de un filtro de Wiener entraña la inversión de una matriz de correlación o de covarianza. denominada forward. denominada backward. el segundo termino de (IV. si se descompone el nuevo vector de coeficientes en una combinación lineal del predictor forward y el backward (sub índices f y b respectivamente) se obtiene: . Para ello. IV. si al vector de coeficientes se le da la vuelta y se conjuga.5. tiene los mismos coeficientes (si bien conjugados) y el mismo error de predicción. r ( 0) r (1)   − h Q +1 (1) ∗   0   σ 2  L r (−1) r (0)   1    Q +1  En otras palabras. Mas específicamente. Es posible encontrar una relación muy sencilla entre los coeficientes de un predictor y los de un predictor de orden superior. EL ALGORITMO DE LEVINSON Como se ha comentado en el apartado anterior. Centrándonos en el caso más sencillo. Este resultado no ha de sorprender.29) La estructura de la matriz de correlación constituye un síndrome de la existencia de un procedimiento eficiente de cálculo.

las ecuaciones para los coeficientes q=1.31) El factor ∆Q se deduce rápidamente de (IV.33).33a) 2 2 = 1 − K Q +1 σ Q     A su vez. de (IV.31) se obtiene la expresión del coeficiente y del nuevo error de predicción: K Q +1 = − 2 σ Q +1 ∆Q 2 σQ (IV.30) la ecuación de diseño (IV.a Q +1 f 1 0      1  − h Q (Q ) ∗   − h Q +1 (1)   − h Q (1)   a Q        0   =  f  + K Q +1  Q   + K Q +1  = = M M M   0       a b  − h Q (1) ∗    − h Q +1 (Q )  − h Q (Q )      − h Q +1 (Q + 1)  0 1       (IV.29).34) forman el denominado algoritmo de Levinson. la mayor contribución al procesado de señal de este algoritmo nace de la interpretación de cada una de sus ecuaciones.33b) h1 (1) = r (−1) r ( 0) σ 12 = r (0) − r (1) 2 r ( 0) (IV. inicializadas con: (IV. Al margen de la efectividad y elegancia..Q/2: h Q +1 (q ) = h Q (q ) − K Q +1h Q (Q − q + 1) ∗ h Q +1 (Q − q + 1) = h Q (Q − q + 1) − K Q +1h Q (q) ∗ h Q +1 (Q + 1) = − K Q +1 Las ecuaciones (IV... se obtiene las ecuaciones de diseño definitivas del nuevo error de predicción y del coeficiente introducido: 2 2 ∆∗  σ Q +1  σ Q  Q       0  0    0   =  M  =  M  + K Q +1  M         0   0   0  σ 2   0  ∆    Q   Q R Q +1 a Q +1 f (IV.30) y es igual a: ∆ Q = r (−Q − 1) − ∑ a Q  h Q (q)r (−Q − 1 + q) = [r (−Q − 1) r (−Q) L r (0)] f  (IV.32)  0    q =1 Q Por último.29) y (IV. .32) y (IV.30) Y por consiguiente: Q  0  ∗ a  a Q +1 =  Q  + K Q +1  f  b  0  a b    Si ahora se sustituye en (IV..

es decir. Los parcors como coeficientes de reflexión en sistemas reverberantes. . si se asume que el parcor Q+1 es cero. Onda de presión longitudinal en tubo de sección variable. se extrapola que el valor de la correlación de los datos viene dado por el segundo termino de (IV. x(n) es la presión sonora medida a la salida y el error de predicción sería la excitación que se obtendría a escape libre. es posible imaginar el error de predicción como la potencia acústica o de presión que se propaga de la sección de área AQ a la sección de área AQ+1. Como puede verse el parcor constituye. la complejidad de proceso. la predicción lineal representa un método que permite. Es interesante indagar en la interpretación del coeficiente ∆Q. Burg.17 los parcor dan una idea de cómo una presión sonora se va propagando en un tubo sin perdidas de sección variable. Para aclarar mas este concepto. Sin entrar en mas detalles. Figura IV. de un tubo de escape de un automóvil. Al final del capitulo se profundizara es esta aplicación que en geofísica. Tal como se indica en la Figura IV. cuando el parcor es próximo a cero se indica que se puede detener el algoritmo. sin necesidad de memoria adicional al igual que los pasos en una FFT. x(n) es el proceso a partir del que se calcula el predictor y a su vez es la presión a la salida y los coeficientes de reflexión son los parcors calculados en el algoritmo de Levinson. el error disminuye muy poco y no es provechoso incrementar el orden. De este modo.35). Existe una excepción a esta regla que esta relacionada con señales deterministas que. dado que el parcor va a ser siempre menor o igual a la unidad. quedando al lector su deducción. Dicho de otro modo. la ecuación del error de predicción en función de la anterior y del coeficiente KQ+1 (al que se denomina ‘Parcor’ en referencia a correlación parcial que más adelante se comentara) revela que éste ha de ser.35) Es decir.18 y cuando se supone que el parcor es cero. donde e(n) es el error de predicción de un sistema de orden M. gracias al excelente trabajo de J. Claramente. ya que no se espera mejora apreciable por incrementar el orden. el valor de este coeficiente revela si es interesante incrementar el orden o no. En otras palabras. De hecho.35): r (Q + 1) = ∗ 2 − K Q +1σ Q + ∑h q =1 Q Q ∗ 2 (q ) ∗ r (Q + 1 − q) = K Q +1σ Q + rMEM (Q + 1) (IV. midiendo la presión de salida. ‘se extrapola’ que la correlación de los datos vale lo que se ha denominado rMEM(Q+1). siempre menor o igual que la unidad. un indicador de como determinar el orden correcto para el predictor. salvo excepciones. los parcor fueron empleados por primera vez en prospección geofísica y puede demostrarse que en un sistema reverberante coinciden con los coeficientes de reflexión. como el parcor es en modulo menor que la unidad. cuando a la entrada se aplica una presión acústica e(n) genera a la salida una presión x(n). puede observarse que la actualización de los coeficientes se realiza ‘in place’. cuando el parcor esta próximo a cero.P. dado su carácter excepcional en la practica no se comentara. puesto que. La presión de salida de un tubo de áreas Aq. Nótese que. que convirtió el análisis de predicción lineal en el más popular en procesado digital de señal.En primer lugar. En segundo lugar. el valor de correlación en Q+1 estará comprendido entre los valores que se indican en (IV. en el caso de tratarse.17. la correlación en Q+1 ha de estar comprendida en los márgenes que se indican en la Figura IV. en módulo. elaborar un modelo geométrico del tubo que ha atravesado y de la excitación. por primera vez. AQ AQ+1 σQ2 Presion sonora σQ+12 KQ+1 coeficiente de reflexion. directamente de las cámaras de combustión. por ejemplo. y por tanto.

denominado MEM por las razones que ya se han expuesto en el tema de análisis espectral. Dados los datos x(n) desde n-Q hasta n. Además.18. hasta el infinito. esto ocurrirá de manera exacta. y cuando se calculan a partir de los datos definen completamente la correlación de estos. se pueden definir los errores forward y backward como se indica a continuación.6 LA ESTRUCTURA EN CELOSIA (LATTICE) La aparición de los conceptos de predicción forward y backward en el algoritmo de Levinson sugiere el explotarlas para obtener una estructura más flexible en el diseño de un predictor. cuando el proceso x(n) sea exactamente AR(Q). en principio infinita. la correlación en Q+1 ha de estar en los márgenes indicados si se desea que su transformada de Fourier sea positiva. Cuando se asumen cero se extrapola al punto medio. Dicho de otro modo. de valores de autocorrelación de duración infinita puede resumirse en unos poco parcors diferentes de cero.18. los Q valores de correlación. Aquí nace otra idea relacionada con compresión de datos: una secuencia. Valores permitidos para r(Q+1) y el valor extrapolado cuando se asume que el parcor es igual a cero. se deja también como ejercicio el pasar de los parcor del proceso x(n) a los valores de su autocorrelación. los coeficientes de un predictor de orden Q o los parcors hasta el valor Q constituyen una información equivalente que permite pasar de una a otra rápidamente. Considerando de nuevo el caso de predicción veamos como sería el error forward y backward en un segmento de datos. Esta es la razón de denominar a los coeficientes como Parcor: se trata de coeficientes que definen completamente la correlación de los datos y además permiten su extrapolación. La respuesta a cual es la razón ultima de esta propiedad reside en que la restricción de que la transformada de Fourier de una función ha de ser siempre positiva no es una restricción trivial y reserva sorpresas como esta. con valores cada vez más pequeños.σQ2 Valores permitidos para r (Q+1) r MEM (Q+1) es el valor medio o menos comprometido entre los permitidos Figura IV. Asimismo. Intriga el hecho de que exista una restricción tan fuerte impuesta por los Q valores de autocorrelación de un proceso pues note que r(Q+1) tiene que estar en los márgenes marcados en la Figura IV. Q eb (n) + + _ [h Q (1) L h Q (Q − 1) h Q (Q ) x(n − 1) h (1) Q ∗ ] (IV. sin perdidas. IV. En definitiva. Se deja al lector el derivar las ecuaciones que permiten pasar de los parcors a los coeficientes del predictor y la inversa. el razonamiento también revela que la extrapolación es continua.36) + [x(n − Q) x( n − Q + 1) L h (Q − 1) Q ∗ x ( n)] [h Q (Q) ∗ L ]_ + e Q ( n) f . entonces tan solo Q parcors contienen toda la información necesaria para obtener su función de autocorrelación (de duración infinita).

En formulación vectorial.30): Q Q Q b eb +1 (n) = eb ( n − 1) + K Q +1e Q (n) = eb ( n − 1) + K Q +1e Q (n) f f b K Q +1 =− Q E e Q (n)eb ( n − 1) ∗ f {  E  e Q ( n)  f   2 } = − FB F (IV. tanto el error forward como el error backward coinciden con la señal x(n). Procediendo de este modo. el error forward en el instante n es el error al predecir x(n). es decir. De este modo puede elaborarse la estructura de la Figura IV.41) Nótese que al comienzo. dados los errores anteriores. los errores de predicción anteriores serían:  x ( n)   x(n − 1)   e Q ( n) = a Q H  f f   M    x(n − Q)   x(n − Q)   x( n − Q + 1) Q  eb ( n) = a Q H  b   M   x ( n)   (IV. minimizar la potencia del error forward de orden Q+1 con respecto al parcor. y el error backward en el instante n-1.37) Si ahora se escribe la expresión del error forward para el orden Q+1. para un orden cero.39) Esta última expresión propone una relación directa entre los errores forward y backward cuando se incrementa el orden. se obtiene: f K Q+1 = − Q E e Q (n)eb (n − 1)∗ f 2  Q E  eb (n − 1)    { } = − FB B (IV. en el instante n.38) Luego.19.40) Análogamente para el error backward se puede deducir usando (IV. pero el error backward en el instante n es el error al predecir hacia atrás x(n-Q). Es más. el parcor forward óptimo puede derivarse de la expresión anterior.Nótese que la definición de los errores difiere en el instante en que se referencian. el nuevo error usa los mismos datos que el error forward de orden Q.30) para los coeficientes del predictor de orden Q+1 se obtiene: Q f Q * e Q +1 (n) = e Q (n) + K Q +1eb (n − 1) = e Q (n) + K Q +1eb (n − 1) f f f (IV. manejándola como si se tratase de un filtro de Wiener de un solo coeficiente. es decir. se obtiene: x ( n)     M Q +1 H  Q +1  e f ( n) = a f  x(n − Q)     x(n − Q − 1) (IV. minimizar la potencia del error forward en Q+1. . De hecho al usar la recursión de Levinson (ecuación IV. conocida como estructura ‘lattice’ o en celosía.

raíces de su respuesta siempre dentro del circulo unidad. En otras palabras. Volviendo al caso de un proceso estacionario. en este caso..P. ambos coeficientes coincidirán. de un filtro FIR. La segunda es que el FIR se garantiza que es de fase mínima.. si la primera estructura. en modulo menores que la unidad. en escalera. muy importante.12 se pasan a parcors en la lattice. También. Cada error forward o backward se obtiene a partir de los anteriores a través de dos coeficientes de reflexión calculados como se indica en el texto. eb Q-1 (n) z -1 + ebQ(n) Figura IV. que equivaldría a las de Cauer. el sistema proporciona un FIR cuya respuesta es la de los predictores mencionados. la estructura convierte el diseño de un predictor de orden Q en diseños de filtros de orden uno que. por la desigualdad de Schwartz. F y B mostraran valores diferentes. el análisis anterior asume implícitamente que el proceso no es estacionario y calcula de manera independiente cada coeficiente de reflexión.e.N-1) la estimación de FB. Las ventajas de la lattice son básicamente dos: La primera es que para pasar de un orden a otro no se rehace todo el filtro sino que se añade una sección. Burg. debida a J.. A la pregunta de cual es el predictor diseñado. No obstante ante un registro finito de datos x(n) (n=1. añadiendo secciones. nótese que correlación o covarianza se reducen en la lattice a considerar transitorios o no en el calculo directo de los parcors. Como puede verse.42) Esta selección para los parcos. la lattice proporciona una realización diferente. Además. . la de la Figura IV. cualquiera de los dos parcors. siempre proporciona parcors en modulo inferiores a la unidad al margen de la longitud de datos N disponible. Al mismo tiempo. la implementación de predicción lineal se realiza siempre sobre esta estructura dadas sus ventajas sobre la estructura FIR tradicional. Si los coeficientes del predictor de la Figura IV. F=B) y. los dos filtros serán idénticos.efo(n) + K1f K1b ef1(n) . Ante dos valores diferentes y sabiendo que el proceso es estacionario se elige el valor: K Q +1 = − 2 FB = F+B 2 1 f K Q +1 + 1 b K Q +1 (IV. y por tanto directamente invertible si los parcors son. el forward o el backward son validos. Lo importante es que se esta ante una estructura que es capaz de calcular los predictores óptimos forward y backward para un proceso no estacionario. completan y monitorizan el error de predicción cometido. es fácil concluir que si x(n) es un proceso estacionario ambos coeficientes serán los mismos pues la potencia del error forward será igual a la del error backward (i. como se ha comentado. se ha encontrado una nueva manera de realizar un filtro generador del error de predicción. efQ-1(n) + KQf KQb efQ(n) x(n) ebo(n) z -1 + eb (n) 1 .19. Estructura en celosía. De hecho el lector puede identificar que.12 era una forma canónica (digamos de Foster en filtros analógicos) la lattice es la versión de otra forma canónica (mínimo número de retardos z-1). del mismo filtro FIR. Esta última cualidad es importante cuando por razones de consumo o velocidad se elige trabajar con longitud finita de registros en la implementación del predictor o de su inversa. En definitiva. Por todo lo indicado.. nótese que entre la entrada y las dos salidas de la celosía. tiene la cualidad de que.

basta con fomentar el sentido de engría creciente de la señal. Por ejemplo. J.5n. ante una referencia dada d(n).44) Claramente la selección de Burg es el caso de igual importancia a un sentido que otro (i. Con o sin ruido aditivo. Más formalmente. Makhoul sugirió. la predicción backward será inestable y no invertible pues las raíces del polinomio estarán fuera del circulo unidad. la matriz de correlación de los datos es diagonal. ha de deparar sorpresas y. equivalentes a los de x(n) pero ortogonales entre si (figura IV.7 APLICACIONES .20. nunca considere este tipo de extensión como trivial o directa. La ventaja radica en que en este nuevo diseño a partir de los errores bakcward en lugar de los datos originales. pierden la característica de invertibilidad del sistema diseñado si se exagera el sentido de energía creciente. γ = 0. si el objetivo es diseñar un solo parcor KQ+1 que minimice la función de coste: Ψ = γFQ +1 + (1 − γ ) BQ +1 al derivar con respecto al parcor buscado e igualar a cero se obtiene: (IV.Es de destacar que. La estructura lattice proporciona en los errores backward una base ortogonal de los datos. claramente una de las dos predicciones será inestable. considere la predicción de la secuencia 0. IV. Esta propiedad redunda en reducción de complejidad y mejor convergencia en métodos iterativos o adaptativos que se verán en el siguiente capítulo. no ortogonales entre si (salvo si x(n) es ruido blanco). si la energía de la señal decrece. Claramente al ser la energía decreciente el forward es estable y el backward es inestable. apoyándose en lo anterior. en cualquier caso.5). pero un backward presentara un coeficiente 2. De nuevo las señales deterministas presentan las anomalías más interesantes al aplicar sobre ellas conceptos desarrollados para proceso estocásticos. donde los nuevos datos son los mencionados errores backward.e. Como ejemplo. se ha de destacar una cualidad fundamental de la lattice. otros valores lo que hacen es favorecer un sentido de predicción y dejan de garantizar que el parcor calculado sea de modulo menor que la unidad y.20). por tanto. Es fácil de comprobar que los errores backward obtenidos en la rama inferior de la lattice son ortogonales. Finalmente. Esta base ortogonal puede emplearse para realizar el filtro de Wiener.5.43) K Q +1 = − FBQ (1 − γ ) FQ + γBQ (IV. z-1 + eb1(n) z-1 + ebQ(n) eb0(n) Base ortogonal que representa x(n) a x(n-Q) Figura IV. un predictor forward presentara un coeficiente 0. Esto quiere decir que dados Q datos de x(n). cuando el proceso no es estacionario y la energía de la señal decrece o crece con el tiempo. la lattice proporciona un conjunto de datos. Recuerde que el pasar propiedades de filtro de Wiener a señales deterministas. que cuando en un predictor lineal se desea acercar las raíces al circulo unidad (aumentar la selectividad en frecuencia del predictor).

un predictor lineal sobre x(n) extraerá tan solo s(n) que es su parte predictible.. Aún en este caso.45) donde A0 es la envolvente compleja y wo es su pulsación. En otras palabras. x(n)=s(n)+w(n) + _ PREDICTOR LINEAL w’(n) h*(1).47) siendo el vector S un vector con componentes  exp(− jω o )   M S=   exp(− jω o Q)   (IV. La propiedad básica que se explotara es que una señal sinusoidal es perfectamente predictible con error cero. La primera aplicación tiene que ver con el problema de recuperación de una portadora en ruido aditivo y gaussiano de potencia σ2. es impredictible. Esquema de un ‘line enhancer’. El diseño de un predictor se puede plantear como la minimización de la potencia del error de predicción (salida del sistema global): . Si la sinusoide.21)... puede razonarse que. La intuición es correcta en parte y lo cierto es que la predicción se parece mas a s(n) que la original x(n).. empleado de este modo. supuesto blanco. Bajo un diseño óptimo la sinusoide s(n) (al ser completamente predictible) aparece a la salida del predictor y como error de predicción queda el ruido blanco aditivo.48) Para aprovechar la aplicación. El predictor lineal.21. como s(n) es completamente predictible y el ruido w(n).46) Cuando a la sinusoide se le suma ruido aditivo. la señal compuesta x(n) deja de ser predictible exactamente y se convierte en un proceso no estacionario. se puede formular este como sigue:  x(n − 1)   = hH X H ˆ x(n) = h (1) L h (Q)  M n −1 = h (exp( jω o n) S + w n −1 )    x(n − Q)   [ * * ] (IV.h*(Q ) s’(n) Figura IV. el valor previsto contiene s(n) con una SNR (Relación señal a ruido) mejor que la original. fase y cuadratura. viene dada por: s (n) = A exp( jω o n + θ ) = Ao exp( jω o n) (IV. se planteara un diseño del predictor diferente al presentado en el texto con el mismo resultado. Definiendo el vector de muestras que usa el predictor para realizar la predicción.En este apartado revisaremos brevemente las aplicaciones más importantes o mas conocidas del filtrado de Wiener o de mínimo error cuadrático medio MSE. El predictor óptimo para esta señal viene dado por: s (n) = hs (n − 1) = exp(− jω o ) s (n − 1) (IV. se denomina ‘line enhancer’ que se pasa a analizar con mas detalle a continuación (figura IV.

54) Esta última expresión revela que la potencia del error de predicción difiere de la potencia de ruido blanco. donde A es la envolvente compleja y σ2 es la potencia del ruido aditivo: R = A SS H +σ 2 I 2 2  A  1  R −1 =  2   I − SS H    σ  σ 2 + Q A 2   (IV.53) Análogamente la expresión de la potencia del error de predicción resulta ser: ξ min = σ 2 σ2 +Q A 2 2 2 σ + (Q − 1) A =σ 2 1 + Q SNRin 1 + (Q − 1) SNRin (IV. en el caso de diseño perfecto de un predictor para la sinusoide. infinita. Nótese la gran distorsión que introduce el ruido respecto a lo que sería un predictor óptimo para la sinusoide de un solo coeficiente. longitud del predictor.49) donde el nuevo vector de coeficientes incluye un a(0) y se ha incluido la matriz de correlación de la entrada de orden Q+1.50) coeficientes optimos h = R −11 1H R −11 1 1H R −11 (IV. junto con su inversa. es decir.52). Incluso para SNRin a la entrada muy elevadas (|A|2/σ2) el diseño óptimo requeriría un Q. Para examinar la ganancia en SNR introducida por el line enhancer. Después de un calculo breve se obtiene: . mostradas en (IV. que el primer coeficiente valga la unidad.  x ( n)     x(n − 1)      = h H Rh ξ = E  h* (0) h* (1) L h* (Q)     min M      x( n − Q)   [ ] (IV. se examinara la potencia de señal y la de ruido que contiene la salida s’(n). 1    H 0  h = hH 1 = 1 M   0  La minimización con restricciones produce la siguiente solución: (IV. Para evitar la solución trivial se le impone la restricción que convierte el filtro en un predictor. incluyendo el coeficiente a(0) igual a la unidad: 2  1 σ 2 +Q A 2 A  h= − S  σ 2 σ 2 + Q A 2  Q A 2 /σ 2   (IV. se usara la estructura de los datos y la expresión de la matriz de autocorrelación.51) error de prediccion ξ min = Para indagar el funcionamiento del sistema.52) Usando estas expresiones el predictor es.

entonces puede usarse de referencia para cancelar este a la salida (véase la figura IV. Si dicho ruido puede captarse (muy importante) libre de señal deseada. Es crucial que el canal. Señal recibida 5 4 3 2 1 1 0 0 -1 -2 -3 -4 -5 800 900 1000 tiempo 1100 -1 -2 -3 -4 800 5 4 3 2 Señal mejorada 900 1000 1100 Figura IV. es decir. vía otro micrófono (o un galga extensiométrica si se trata de una superficie vibrante. Otra aplicación de interés del filtrado de Wiener esta en los denominados canceladores de ruido. caso de ruido de baja frecuencia). La ventaja. Esto ocurrirá cuando el filtro copie perfectamente el canal de propagación del ruido. En esta ocasión. En la Figura IV. de otro modo se produciría la cancelación de ésta. obtiene la ganancia de un filtro adaptado a la sinusoide. Para comprobar el correcto funcionamiento del filtro se calculara la coherencia espectral de los datos con la referencia. el error será precisamente la señal deseada libre de ruido.SNRout = Q SNRin (IV. Señal de entrada consistente en una sinusoide a 10 dB de relación señal a ruido a la izquierda. Nótese que en este caso. A la derecha señal mejorada con un ‘Line Enhancer’ de 12 coeficientes y diseñado a partir de 1024 muestras de la entrada.22 puede observase gráficamente un ejemplo de la mejora introducida por este tipo de proceso para sinusoides en ruido.55) Es decir. Por esta razón es recomendable el usar sensores de vibración en paneles vibrantes o micrófonos direccionales con un nulo en la dirección donde se recoge la señal deseada. sin conocerse ni la fase ni la frecuencia de la portadora. donde h(t) es el canal de propagación del ruido hasta el micrófono. no contenga señal deseada s(n). bajo un diseño óptimo del filtro. con respecto a un filtro adaptado tradicional es que dicha ganancia se obtiene de modo incoherente. . se supone que la señal deseada s(t) (habitualmente voz o audio) se ve afectada por un ruido aditivo h(t)*w(t).22.23). denominado de datos en la figura. Lo que se espera del filtro de Wiener es que sea capaz de lograr una copia adecuada del canal h(t).

. existe una aplicación similar pero mas encuadrada en procesado de señal que es la de el filtro de Wiener como cancelador de ecos en sistemas de comunicaciones analógicas dúplex. Una vez calculada la coherencia espectral. se puede evaluar cual será la potencia del error o residuo. Si este coincide espectralmente con la señal deseada entonces se puede asegurar del interés de proceder al diseño del filtro de Wiener correspondiente: S xd (ω ) = H * (ω ) S w (ω ) S x (ω ) = H (ω ) S w (ω ) S d (ω ) = S s (ω ) + H (ω ) S n (ω ) 2 2 (IV.56) γ (ω ) = 1+ 2 1 S s (ω ) H (ω ) S n (ω ) 2 Sustituyendo la expresión de la coherencia en el error mínimo que se obtendría con un diseño óptimo del filtro de Wiener. Esto es así siempre que el retardo sea menor de 100 mseg y de un nivel 10 dB por debajo del nivel de nuestra conversación.57) Al margen de las aplicaciones en comunicaciones del filtro de Wiener como ecualizador para igualar canales de comunicaciones y que podrá observar en textos del tema. Recuerde que en la conversación telefónica es crucial el escucharnos a nosotros mismos para vocalizar correctamente. Este fenómeno provoca un eco indeseable en el extremo izquierdo.24. para retardos bajos.57). Tal y como se representa en la figura IV. se han denominado con los subíndices w y d a las densidades espectrales de ruido y referencia. La valoración de cuan molesto es este eco se realiza por medidas subjetivas que muestran que. se percibe como reverberación y puede ayudar a la comprensión de lo hablado. se obtiene (IV. El problema es cuando el retardo supera los 100 mseg en el eco. hasta tal punto es cierto esto que el propio auricular emite la señal captada por el micrófono a un nivel 6 dB inferior. asumidas estas incorreladas entre si. donde es evidente como el error esta constituido solamente por la señal deseada: ξ min 1 = 2π π −π ∫( 1 S s (ω ) + H (ω ) S n (ω ) 1 − γ (ω ) dω = 2π 2 2 )( ) π −π ∫ S (ω )dω s (IV. En el calculo.Referencia d(n)=s(n)+h(n)*w(n) Error s’(n) + Filtro de Wiener _ datos x(n) Figura IV. En este caso se requiere una atenuación de la señal retardada tanto mayor cuanto mayor sea el retardo. el problema radica en el defectuoso aislamiento que produce el transformador híbrido que aísla la entrada de conversación del extremo izquierdo respecto a la conversación de locutor derecho. El filtro de Wiener como cancelador de ruido.23.

La aplicación que se comentara tiene su origen en el estudio de transitorios en redes de alta tensión por la entrada o salida de centrales generadoras a la red. El problema es identificar los parámetros de una sinusoide amortiguada en niveles altos de ruido blanco (véase la figura V. respecto al circulo unidad. no nos pueden interrumpir perdiendo todo aquello que el otro locutor ha dicho. Cabe destacar aspectos como el carácter variante del canal. Para mas detalles ha de consultarse bibliografía especializada. mientras hablamos. Una aplicación interesante de la predicción forward y backbard esta en la caracterización de transitorios o señales de energía decreciente. Al aplicar sobre esta señal la estructura lattice.24. En segundo lugar.26). obligan a detectar si la transmisión se dedica a datos o voz y en el primer caso se ha de desconectar el cancelador. Los primeros intentos de eliminar el eco fueron los denominados supresores de eco. El diseño de un producto comercialmente correcto entraña múltiples detalles de realización que convierten el cancelador en uno de los dispositivos más elaborados en procesado de señal. y el hecho de que el módem de datos lleve su propio filtro de Wiener como ecualizador. un supresor de eco interrumpe el canal de retorno cuando nuestra voz toma valores de energía por encima de un umbral. Por otro lado al usar solo predicción backward. Tanto las de ruido como las dos de la señal (se supone solo dos frecuencias propias para el transitorio) se sitúan dentro del círculo unidad y se hace imposible.25). Por falta de aislamiento en el transformador híbrido cercano al origen de la conversación 2. cuando se activa fácilmente provoca que. el ruido (por ser estacionario la predicción hacia delante y hacia atrás coinciden) sigue presentando las raíces dentro del circulo unidad mientras que las dos de la señal aparecen en una posición homotetica. Puede comprobarse que niveles de rechazo del eco adecuados se consiguen con 7 bits para las muestras y 9 bits para los coeficientes. la minimización del error forward dará lugar a un predictor cuyas raíces estarán todas dentro del circulo unidad. de las originales en el forward (figura IV. Para aliviar estos problemas del supresor de ecos se recurre al cancelador de ecos de la figura IV. normalmente el filtro se implementa en coma fija. El filtro de Wiener como cancelador de ecos.2 hilos s 1 (t) conversacion 1 A/D Filtro de Wiener D/A A/D 4 hilos _ 2 hilos + + s 2 (t)+h(t)*s 1 (t) conversacion 2+eco de la conversación 1 Figura IV. . Básicamente. las raíces de modulo mayor que uno en el predictor backward identifican las raíces de la señal determinista buscada. La detección se realiza basándose en detectores de energía en tres bandas de frecuencia que identifican la señal protocolo del módem e impide que el contenido espectral de voz active el modo de datos. la conversación de 1 vuelve después de atravesar el híbrido (modelado como un canal lineal). añadir que el empleo de líneas de fonia para datos. distinguir unas de otras. Además. La forma de trabajar y diseñar el filtro es inmediata a partir de lo explicado. El cancelador debe generar una réplica de dicho canal para eliminar el eco. En definitiva. no podamos escuchar al otro interlocutor. En caso contrario. es de destacar que el error MSE se ve incrementado debido a que. en la practica.24. hasta que no nos callamos. por lo que se requiere actualizar casi muestra a muestra el diseño del filtro. Dicho de otro modo. El problema del umbral es que impide que con niveles bajos de conversación el supresor se desactive.

26.25. El predictor correspondiente (para estructuras en las que las discontinuidades están equiespaciadas). Efecto del sentido de la predicción en la localización de las raíces de señal y ruido. Como ya se ha mencionado. Finalmente y salvo las aplicaciones que el análisis de predicción lineal tiene en el análisis de señal de voz. . se ha de destacar que su origen se remonta a sistemas de prospección geofísica. Señal determinista en ruido estacionario. una señal que atraviesa un sistema con ondas de presión transversales en un sistema reverberante (onda progresiva y regresiva en cada sección) presenta una estructura autoregresiva pura. Raices del ruido estacionario Enmascaran las del predictor forward Raices del predictor backward fuera del circulo unidad y libres de las raices debidas al ruido Figura IV. proporciona en sus coeficientes parcor los coeficientes de reflexión en cada discontinuidad.Señal determinista con prediccion forward estable y backward inestable Ruido estacionario con igual predictor forward y backward Figura IV.

28. Note que la señal de DSSS actúa como ruido para las señales de banda estrecha.27 se muestra un esquema donde la excitación es una explosión superficial y sobre la señal recogida se procede al calculo del predictor y los parcor correspondientes que revelan los índices de reflexión en cada sección. La respuesta de un predictor a dos interferencias de frecuencias normalizadas igual a 0. con medida de la señal a la salida es el mismo fenómeno reverberante y esto motivo el traslado de inmediato del análisis de predicción lineal a la caracterización del tracto vocal en señal de voz. aunque esto no es estrictamente verdad en el sentido de que este ruido no es Gaussiano y por lo tanto el receptor de dichas señales.17 puede verse en la figura IV. Note que estas señales de banda estrecha pueden ser señales útiles que comparten el espectro disponible con la señal DSSS. La composición espectral de este escenario se refleja en la figura IV.28 Señales de banda estrecha sobre una señal de DSSS. si es el tradicional. X(f) Canales de comunicación de banda estrecha Canal de comunicación de espectro ensanchado Figura IV. también llamados obviamente coeficientes de reflexión.x(n) (señal AR) K1 K2 K3 Figura IV. ¿podría responder porque? . la suma de todas. Una aplicación que tiene la misma estructura que el ALE (Adapted Line Enhancer) es el uso de un predictor para la supresion de interferencias en comunicaciones de espectro ensanchado por secuencia directa o DSSS. la interferencia de banda estrecha se parece a una sinusoide y la señal de espectro ensanchado se parece a ruido blanco. Formalmente el problema es parecido. La propagación en tubos de sección variable y longitud uniforme. es decir. el predictor anulara las mas potentes y lo hará como un inversor. En la Figura IV. Note que aunque la SNR de ambas es 0dB.29. La idea básica es que al colocar un predictor lineal sobre la señal recibida. Aplicación de la estructura lattice para el calculo de los coeficientes de reflexión. será suboptimo. Esta fue la primera aplicación y la más espectacular del análisis de predicción lineal y la extrema utilidad y sentido físico de los parcors.11 y 0. se atenúa siempre mas la de baja frecuencia.27. proporcional a su potencia efectiva.

1 0. En la figura siguiente puede verse la diferencia entre la señal estimada o salida del predictor y la señal sumada a la DSSS.05 0. d 2 ( n). d M ( n) pasarian a agruparse en un vector X n = x1 ( n). Note que el tamaño de la referencia no es igual al de señales observadas. Como se ha indicado.11 y 0. En este caso.. 2 1 0 -1 -2 0 50 100 150 Figura IV. habitualmente las referencias difieren de las señales observadas debido básicamente a dos efectos el canal de transmisión y el ruido aditivo..10 1 |1-H(f)e-j2πf∆|2 10 0 10 -1 10 -2 0 0. siendo todas las señales reales. xL ( n) .30.3 0.45 0.4 0. a la señal de DSSS mas dos señales de banda estrecha a 0. Las señales obervadas .17.11 y 0.15 0.25 0.. En muchas aplicaciones se trata de recuperar un conjunto de señales que han sufrido distorsion y ruido aditivo antes de estar disponibles. x2 ( n).29.2 0.8 FILTRADO DE WIENER MULTIDIMENSIONAL.35 0.. Diferencia entre la salida del predictor (en rojo) y la señal interferente (suma de dos sinusoides a frecuencias de 0..17 de frecuencias normalizadas..5 Figura IV. Respuesta del Predictor lineal.. orden 40. Un ejemplo de esta situación seria la grabación con L=4 microfonos de la conversación simultanea de M=2 locutores en un recinto.. IV. la señal observada obedece al modelo: [ [ ]T ]T . es decir. ese conjunto de señales aparecen agrupadas en lo que se denominaria el vector de referencias d n = d1 ( n).

( ) [ ] R = E [w .62) de manera compacta y adaptada al problem formulado al principio de este apartado. artificial formulacion compleja.w ] P = E [X . digamos. La formulacion anterior. sin embargo.62). X ] = H . X dn n  . Esta expresión puede representarse como (IV. El diseño. las portadoras pueden no estar perfectamente aisladas debido a problemas de transmisor y/o canal mas receptor.59. Obviamente.    r n−Q  (IV. r n−1  = H . en la formulacion anterior el efecto de cambiar el signo de la componente en cuadratura es perfectamente lineal como puede verse en (IV. Antes de proseguir se expondran algunos ejemplos que muestran la relevancia de resolver el problema planteado.  i (n) fase  dn =   q (n) cuadratura  1 0  Xn =  .d ] = H .D. Note que la potencia total de las referencias vendra dada por Traza D . tiempo o en frecuencia. tanto en codigo.r n−q q =0 Q (IV.d n 0 n H H n n H n n H n (IV.58) Las correspondientes matrices de autocorrelacion y correlaciones cruzadas se definen en IV. es decir. sino que ademas no explotan la posibilidad de . Tomando este ultimo. Otro caso de gran interes es el caso de sistemas de comunicaciones que usan diversidad.d n + wn (IV.D R = E [X . Esta ultima suposición conlleva considerar N canales independientes.  rn    ˆ = H . y diseña N ecualizadores independientemente.60). Por multiples razones este planteamiento limita severamente la calidad del ecualizador o filtro de Wiener diseñado.H D = E d n . donde la matriz del canal es 2x(2Q+2) y el vector de observaciones es 1x(2Q+2).. conjunto para todas las portadoras.59) H + R0 El problema es diseñar el mejor procesado de varios vectores sucesivos de vectores de señal observada para reproducir los mas fielmente las señales de referencia. un ecualizador FIR para manejar señales i-q de Q retardos tendría la siguiente formulacion. usando siempre señales reales es mucho mas general y proporciona mejores soluciones que recurrir a la. Notese que un la operación complejo cojugado no es una operación lineal cuando se manejan complejos. tanto los sistemas multi-portadora como OFDM pueden verse como un sistema donde N señales de información salvan canal y ruido produciendo N señales recibidas.X n = H .61) Donde el vector r contiene la componente en fase y en cuadratura recibidas en cada instante. mucho mas adecuada que la formulacion compleja (manejando como parte real la componente en fase y como imaginaria la componente en cuadratura): ˆ d n = ∑ Aq .d n 0 − 1 (IV. En primer lugar es de destacar que muchos diseños de comunicaciones.60) Asi pues. se acostumbra a usar una notación compleja y en forma escalar. donde es normal emplear componente en fase y en cuadratura. el filtro que devuelve las N replicas de las N señales de entrada en un diseño mucho mejor que asumir un desacoplamiento perfecto entre las portadoras.

canal y ruido seria (IV. Si el filtro de Wiener se denomina con la matriz A .66) La critica a minimar la traza es que podria ocurrir que en una referencia el error fuese muy exagerado o inadmisible para un sistema de comunicaciones por ejemplo. asi como. su desarrollo en funcion del filtro de Wiener.65) como un cuadrado perfecto. la dimensión de la matriz de canal seria igual al numero de antenas receptoras por numero de antenas transmisoras. Otro caso de interes es el caso de transmisión empleando multiples antenas en transmisión y/o recepción. P + A − P .63). el problema a resolver es obtener. A [ H ] H H H (IV. tiene la definición que se presenta en la siguiente formula. se trata de una forma cuadrática. a diferencia de la situación anterior. Si que tendría sentido minimizar. denominada normalmente matriz MSE. De nuevo. .X n (IV. Asi pues. Mas formalmente.R. Afortunadamente.64) La matriz del error. El criterio que se adoptara. su traza.e n = D + A . por prolongación del caso escalar sera la matriz del error cuadrático definida como se comentara a continuación.d n + wn (IV. podra verse a continuación que el criterio de diseño o de error no impacta en la solucion del filtro de Wiener. es decir: Traza (E ) = ∑ E e p (n) p =1 P ( 2 ) = ∑ E d (n) − dˆ (n)  P 2 p =1 p p (IV.65) Notese que en la anterior expresión aparece un problema. en este caso la formulacion de la señal recibida en funcion de la transmitida. H ˆ en = d n − d n = d n − A . es siempre una matriz definida positiva y que por tanto aumentara siempre los parámetros de la matriz en primer termino. Probablemente traza y determinante sean los que mas sentido tienen.R ( H −1 ) ( H H −1 )R(A − R . La traza o suma de los elementos de la diagonal principal seria la suma de los errores en cada referencia. Otro criterio de interes seria el minimizar el máximo error en las referencias.que el ruido este correlado entre las diferentes portadoras como es el caso de presencia de interferencias co-canal que usan la misma banda. el vector de error.64). es decir el que contiene en sus componentes el error de cada una delas señales de referencia. que se refiere a que objetivo se toma en el diseño del filtro. Σ = D − P . la matriz de canal no es nunca diagonal pues cada antena transmisora produce una señal en cada una de las receptoras. Estos sistema en radio toman el nombre de MIMO (Múltiple Input Múltiple output) acuñada en automatica muchos años atrás. etc. Aparentemente. donde la dimension de los vectores es 1xN y la matriz de canal sera NxN. R . aun no resuelto completamente. permanecen desacoplados entonces la matriz de canal anterior es diagonal.67) En esta ultima expresión es evidente que el segundo termino.63). El criterio del determinante tiene que ver con criterior de capacidad del canal que se sale del ambito de estas notas. el segundo termino incrementa los autovalores del primero y asi cualquier funcion definida sobre la matriz del MSE se vera incrementada. La formulacion para este problema seria idéntica a (IV. A − A . cuando los ejes de diversidad empleados. su determinante. Para llegar a esta conclusión basta con rescribir (IV. En este caso.P − P . tambien denominado mínimax. por ejemplo. a partir de la observación X n una replica lo mas parecida del vector de referencias d n . X n = H .P ) −1 (IV. pero esto como tal no tiene sentido.63) Note que. se deberia minimizar esta matriz. vendra dado por (IV. Y asi sucesivamente se podrían seguir definiendo criterios para el diseño del filtro de Wiener. Σ ≡ E e n . No obstante. En consecuencia. el lector debe recordar este criterio como tanto o mas valioso que el de la traza. al margen del criterio.

Obviamente. el detector canal a canal no es optimo ni.H .W .72). escribiendo la ecuación del error como d n = e n − d n .D H −1 ] (IV. I − H . por tanto.68.d n = 0 .D H [ H Σ = D − D. en general.d n + A .H H ( H −1 ) −1 .b) Ne muchos casos se prefiere implementar el filtro de Wiener en su versión parametrica.wn = d n + A . Veamos con detalle la relacion de la SNR con el error en el caso multicanal. sus resultados.a) y la matriz del MSE minima. si la matriz del MSE no es diagonal.73) −1 Es importante destacar que muchos autores.R . ˆ ˆ estan incorrelados.D.H . existe seguro un procedimiento mejor que procesa conjuntamente las salidas.wn [ H −1 ] (IV.R 0 . Esta es la situación en sistemas de comunicaciones donde suele estimarse la matriz de canal con tramas de referencia y el ruido se reduce al ruido termico del receptor/es.H .68. (X + Y . al usar el lema de la inversa se simplifica a: Σ = D + H . H .71) En el caso de la matriz del MSE. X −1 Aplicando el lema de la inversa a la expresión del filtro de Wiener se obtiene: (IV.(Z −1 + W . En definitiva.W )−1 = X −1 − X −1. Note que hablar de SNR o BER a partir de los valores de la diagonal implica que el detectors produce el símbolo correspondiente de solo una salida del filtro de Wiener. la mencionada (IV.Y )−1.H −1 [ ( −1 H −1 ) −1 .H + R 0 .70) A = R 0 . erróneamente.H + R 0 . vendra dada por (IV. en aplicaciones de comunicaciones. la matriz del MSE no es diagonal.68.b).el optimo diseño del filtro es (IV.R 0 . aquí no puede escribirse una formula similar salvo en el caso en que la matriz del MSE. si se le quiere llamar asi.P Σ min ima = D − P .H . X n = A .68. D + H .72).H Σ ZF = H . sea diagonal. Al contrario del caso escalar. en funcion de la matriz del canal y la de ruido. puede escribirse que la covarianza de las referencias es igual a la suma de la matriz del MSE mas la Es facil comprobar que bajo el diseño optimo el error y la salida o combinación de los datos [ ] .R . a partir de los valores de la diagonal de (IV.72) En esta expresión se hace evidente que para elevadas relaciones señal a ruido el MSE se reduce al segundo termino tan solo y que coincide con el ruido de un forzador de ceros (ZF) cuya expresión seria: AZF = H .D.R 0 H −1 H H H H ˆ d n = AZF . donde la SNR es la inversa del MSE menos la unidad.Z .H . que se escribe a continuación. Usando las expresiones de las matrices anteriores en funcion de canal y ruido (ver (IV.e.P H −1 −1 (IV. E en .H 0 [ −1 H −1 ] −1 (IV. manipular las señales de forma aislada a la salida del filtro de Wiener puede dar bueno resultados pero.Y . i.69) Ambas expresiones pueden alterarse. acostumbra a formular expresiones de SNR y BER. X −1. consiguiendo una formulacion mas intuitiva y/o mas compacta usando el lema de la inversda.59)) se obtiene: A = H .D [ ] −1 H ] −1 (IV.H . Aoptimo = R .R 0 . por tanto.H . si otra salida esta correlada.a) (IV. es decir.R 0 .

denominado método de covarianza. IV.e. también denominado filtro de Wiener. . Haciendo uso de la coherencia espectral se ha vuelto al dominio de la frecuencia. se obtiene (IV. El predictor lineal como filtro de Wiener específico. todos los sistemas incluyen de un modo u otro un filtro de Wiener. La importancia de la consideración de los transitorios de un FIR se ha hecho evidente. Si ahora se define una matriz de SNR como el producto de la ˆ −1 salida del filtro por la inversa del MSE. La estructura en celosía y el concepto de predicción forward y backward cierran el tema proporcionando una estructura que por múltiples razones es más ventajosa que la tradicional de retardos: la dinámica es decreciente. y excluyendo dos grandes áreas de aplicación como son vocoders y ecualizadores en comunicaciones. Se ha hecho evidente que su interpretación va mas allá que un método de invertir matrices de Toeplitz. Su conexión con modelos AR y. Al margen.Σ − I −1 (IV. se ha pasado a implementar el filtro directamente desde los datos y a validar lo que con valores esperados se había realizado mediante sumas directas de energía de error y estimadores de covarianza y correlación.74) que revela la relacion entre la SNR y el MSE. no se calcula de nuevo todo el filtro cuando se incrementa el orden. cuando se emplea el método de correlación provoca el interés del algoritmo de Levinson. El diseño del filtro se ha realizado vía el denominado principio de ortogonalidad de datos y referencia.74) Claramente si. su importancia en análisis espectral justifican per-se su inclusión. al facilitar el diseño temporal directo mediante filtros FIR.ˆ covarianza de las referencias D = Σ + D . codificadores de fuente. dando lugar a varias alternativas. A modo de ejemplo. el hecho de que el denominador sea una función definida positiva invalidaba su diseño óptimo con las técnicas tradicionales de síntesis de redes analógicas. El contenido de este apartado es de interes y preliminar a cursos sobre sistemas MIMO tanto para servicio radio o DSL. claro está.Σ . En tecnología digital. etc. donde la referencia es la propia señal ha merecido más de un apartado. i. que equivale a la derivación directa del objetivo e igualarle a cero. El diseño de mayor complejidad y calidad. el filtrado MSE pasó a implantarse en prácticamente todas las aplicaciones de procesado de señal. al estar el diseño analógico hipotecado en su mayor parte al diseño en frecuencia el filtro de Wiener no es realizable directamente y requiere de aproximaciones de difícil control de cara a su impacto en la calidad final conseguida. SNR = D. La estructura de matriz de Toeplitz en los datos. Esto ha permitido descubrir un método de conocer las prestaciones del filtro antes de proceder a su diseño. la matriz de referencias diagonal y el MSE diagonal puede decirse que la SNR en un canal cualquiera es su potencia dividido por su MSE menos uno. se han presentado algunas aplicaciones del filtrado MSE. los parcor permiten controlar que el sistema sea invertible. Aunque en sus comienzos se describiera en términos analógicos. Desde receptores de comunicaciones.9 CONCLUSIONES Se ha desarrollado en este capitulo el diseño y aplicaciones del diseño de filtros con criterio de error cuadrático medio mínimo (MSE). prospección acústica. A continuación. y solo si. En el fondo. como se vera. En caso contrario no puede establecerse formalmente que esa definición de SNR por canal sea correcta. SNR = D. al margen de que las excluidas ya justificarían por ellas solas su interés. se sitúa por encima del denominado de correlación de menor complejidad. del interés sistema como predictor o interpolador de datos incompletos. etc. Finalmente se ha incluido un apartado relativo al caso multicanal donde el filtro pretende recuperar un vector conteniendo varias referencias a partir de vectores de señal observada donde el original ha sido distorsionado y presenta ruido aditivo.

.10 EJERCICIOS 1. 0..2. 9.Demuestre que los errores backward son ortogonales entre si..44 del parcor generalizado en la lattice y que la selección de 0.IV. ¿Qué ecuación matricial nos relaciona los vectores de coeficientes b y a y las autocorrelaciones y correlaciones cruzadas entre u(n) y v(n)? (Nota: en la expresión no pueden aparecer x(n). Cual es el valor o margen de valores permitidos para el valor de la rx(2).. minimizando la potencia de e(n).5 .Comente a qué se deben las diferencias en calidad entre el diseño del filtro de Wiener en frecuencia usando la FFT o el diseño directamente como FIR. 11.¿Cuáles son los valores de la autocorrelación de un proceso.. Encuentre la extrapolación MEM para rx(3). 5.Demuestre que el filtro de Wiener conduce a un filtro adaptado cuando la referencia es determinista y de energía finita y los datos es la referencia en ruido coloreado aditivo.Suponiendo que los coeficientes Parcor de un proceso {x}. normalizados a r(0) si sus parcors son 0. 4. Razone la selección. 2... responda a las siguientes cuestiones: .5 y 0.a].Se pretende caracterizar un sistema con polos y ceros a partir de la observación de su entrada u(n) y su salida w(n) usando los principios del filtrado de Wiener en dos etapas (véase la figura): a) En la primera etapa supondremos que se dispone de la señal x(n) que usamos como señal deseada para estimar los coeficientes de A(z) a base de minimizar la potencia de e(n). aplicando el algoritmo de Levinson calcule el predictor de dos coeficientes para dicho proceso. que minimiza el error de predicción. indique la estructura del filtro con Q coeficientes.5 para el parámetro garantiza la estabilidad del sistema inverso.. Los exactos y los extrapolados? 8. u(n) B(z)/A(z) B(z) x(n) v(n) A(z) + + y(n) e(n) 12. y(n) o e(n) ni sus correlaciones).Especifique las ecuaciones de diseño para un predictor de tres muestras de adelanto y dos coeficientes en función de la autocorrelación del proceso. Escriba estas ecuaciones y combínelas con las encontradas anteriormente para obtener los coeficientes b y a en función de las matrices de correlación de los procesos que intervienen... de potencia 2.6 y K2 igual a 0.Probar la expresión IV. no necesariamente sobre muestras consecutivas. y la usamos como señal deseada para estimar los coeficientes B(z).. 10. 6.2. 3. Indique la solución de Wiener cuando se impone la restricción de norma unidad para el vector de coeficientes y compruebe que su impacto en el diseño es equivalente a hacer decrecer la relación señal a ruido de los datos con ruido blanco aditivo.Si dispone de N>>Q valores de correlación. ¿Cual es el valor de rx(2) que convierte la extrapolación MEM en exacta? 7. son K1 igual a 0.En diseños con DSPs (procesadores digitales de señal) de coma fija pudiera resultar atractivo el acotar la norma del vector de coeficientes del filtro.Reformule lo descrito en el texto para un line-enhancer en el caso de que el ruido aditivo sea coloreado en lugar de blanco.. b) En una segunda etapa buscaremos las ecuaciones análogas suponiendo ahora que disponemos de y(n).Dados los tres primeros valores de correlación de un proceso [1.

Suponga que se diseña un filtro de Wiener.d −1 H −1 H Note que.Demuestre que ambos son exactamente iguales para elevadas relaciones de señal a ruido. X n d . aparentemente...Demuestre que la solución para el filtro de Wiener optimo para la obtención de a(n). e..R o −1 H −1 a. El esquema utilizado es el de la figura: ERROR e(n) + d(n)+w(n) z-1 a(1) z-1 z-1 a(Q) PORTADORA de(n) ..d .d −1 b. mientras que el estimador ML lo hace con R . fase y frecuencia desconocida que se recibe con ruido aditivo blanco gaussiano.. A su vez. la amplitud del pulso.R o . e. usando la expresión de la inversa de la matriz de covarianza de los datos.d + w n Note que la expresión de la matriz de covarianza de los datos puede escribirse como: R = α . de la misma duración. 14.Calcular los valores de la autocorrelación rx(1) y rx(2).Compruebe...d .Dibuje la estructura lattice correspondiente b.Indique..Este sistema alude al empleo de prediccion lineal para la extraccion de una portadora de amplitud.. viene dada por α .d H ( α −1 ) R o . o c. Así el vector de datos vendría dado por X n = a ( n).R o . el filtro de Wiener procesa los datos con un filtro de la forma R-1d.d H + Ro Siendo α igual a E(a(n)2). la inversa de la matriz anterior puede escribirse como: R −1 = Ro − −1 1 + α d .d . d contiene las Q muestras del pulso y la matriz Ro es la de covarianza del ruido coloreado. para la obtención de una pulso d(n). que el filtro ML y el filtro de Wiener coinciden salvo una constante d. dando por correcto todo lo anterior.d .¿Cual es la potencia del error de predicción? d. de longitud Q coeficientes. bajo que condiciones el Filtro de Wiener o el estimador ML coinciden con un filtro adaptado al pulso.R o .R −1 ..a.¿Cuales son los coeficientes del predictor en la estructura FIR tradicional? c. a partir de otra señal que contiene el pulso en ruido coloreado de matriz de covarianza Ro..Cual es la extrapolación para rx(3) de máxima entropía? 13..Compruebe que el estimador ML da la amplitud del pulso es: ˆ a (n) = d .

.. Vol. Bell System Techn. 155. Vol. M. pp. Acad. IEEE Trans. 63. N. Durbin. Bell Techn. [4] E.3. pp. I .O. Vol. “Probability. Burg.79-89. 25. Biometrika. b) Calcular la potencia del error y demostrar que solo cuando el orden del predictor es muy grande. Statist.11 REFERENCIAS [1] M. parts 1 and 2.H. Gray. random variables.0]) y el vector S. Vol. IEEE. Shondi. “Digital Signal Processing”. Journal.Asumiendo que la matriz de autocorrelacion de la entrada viene dada por R= α2 S . 25. on Audio and Electroacoustics. a(Q)] y probar que este es una combinacion lineal del vector 1 (=[1 0 0. “The Wiener RMS Error criterion in filter design and prediction”. “The Fast Fourier Transform”. Intern. Makhoul. Durbin. Flanagan. no.J. “the relationship between maximum entropy spectra and maximum likelihood spectra”. [10] J. Department of Geophysiscs. pp. pp. Vol. [12] J.. Prentice Hall. IEEE Trans..α2) S . “Digital lattice and ladder filter synthesis”. pp. W. 1984. 375-376.. IV. No. Geophysics. 1966. pp. la portadora estimada de(n) coincide con la correcta d(n). dicha potencia coincide con la del ruido blanco a la entrada. No. [8] N.P. 491-500. Mc Graw-Hill. J. “techniques for adaptive equalization of digital communications sytems”. Makhoul. Schafer.. 2. 140-148. 261-278. “Linear Prediction: A tutorial review”.W. N. Vol. April 1975. April 1972. Rev. SH + σ2 . J. a) Calcular la expresion del vector A con los coeficientes del predictor AH=[1 a(1) a(2) . SH .. “An adaptive echo canceller”. 48. and stochastics processes”. California. [11] J. Vol.. pp. cuya inversa es a su vez igual a R-1 = ( I /σ2) . 306-316. 1973. Brigham. [14] J. 46.J. Dissertation. Levinson. Ph. Lucky. [2] R. 1968. Vol. Proc.Y. 1971.2. 37.V. Elek. Sci. no. Vol. 561-580. Stanford. Markel.P. 3. 46. Ann. N. 1960. siendo Q la longitud del predictor. 9-15 [7] A. 2.(1/σ2) (α2/(σ2+Q. 45.L. Stanford University. Feb. Burg. “Digital filter structures related to classical filter networks”. “Source system interactions in the vocal tract”.. [13] J. 1975. “Efficient estimation of parameters in moving average models”. 233-243. Journal. pp. Phys. Englewood Cliffs. “The fitting of time series models”. Oppenheim. Fettweis.D. Mar 1967. “Spectral analysis of speech by linear prediction”. Ubertragung. [6] J. pp. [15] A. 1959. R. N. 1975.D. Vol. d) A la vista del resultado anterior compruebe que el mejor sistema seria el autovector de la matriz de autocorrelacion asociado al autovalor maximo.. α2 la potencia de la portadora y σ2 la potencia de ruido. “Maximum entropy spectral analysis”. Prentice Hall. Inst. pp. pp. 1974. no. AU-21. Papoulis. 497-511. c) Demuestre que cuando la relacion señal a ruido es grande.Y. Arch. June 1973. [5] A. o el orden es grande. 1947. Math. [3] A. Audio and Electrocaoustics. Englewood Cliffs. 255-286. Feb. AU-21. . Vol. [9] J.

A. A. . New York. [17] S.Y. Inc. New York 1949. Tretter. “Foundations of digital signal processing data analysis”. “The extrapolation. Wiener. interpolation and smoothing of stationary time series with engineering applications”. “Discrete time signal processing”. Macmillan Pub. N. Wiley. Cadzow. John Wiley & Sons. 1987. Co.[16] N. 1976 [18] J.