Professional Documents
Culture Documents
A⎡ t ⎤ t A t A t t
x(t ) = ⎢⎣1 + cos( 2 π ) ⎥⎦Π( ) = Π( ) + Π( ) cos( 2 π )
2 τ τ 2 τ 2 τ τ
A t Aτ f
pero Π( ) ⇔ sinc( ) , y del teorema de la modulación,
2 τ 2 1/ τ
Aτ Aτ ⎡ f + 1/ τ f − 1/ τ ⎤
X( f ) = sinc(τf ) + ⎢⎣ sinc( ) + sinc( )⎥
2 2 1/ τ 1/ τ ⎦
Aτ sen(πτf ) Aτ ⎡ sen(πτf + π) sen(πτf − π) ⎤
X (f ) = + +
2 πτf 4 ⎢⎣ πτf + π πτf − π ⎥⎦
Aτ sinc( τf )
Desarrollando y simplificando se obtiene finalmente X( f ) =
2 1− τ 2 f 2
X(f) se muestra en la Fig. 1.41(b).
De (1.117), el ancho de banda B del impulso en coseno elevado es
x (0) A 1
B≥ = =
2 X(0) 2 Aτ / 2 τ
1.11.2. Autocorrelación
Consideremos el conjunto de señales mostrado en la Fig. 1.42. Vamos a investigar el grado
de similaridad que hay entre ellas.
x 1 (t ) a1 a2
t
x 2 (t ) b1 b2
t
x 3 (t ) c1
t
x 4 (t ) τ1
t
d1
Fig. 1.42.
Un buen método para medir la similaridad entre dos señales es multiplicarlas entre sí,
ordenada por ordenada, y luego sumar los productos durante la duración de las señales. Por
ejemplo, para estimar la similaridad entre las señales x 1 ( t ) y x 2 (t ) , Fig. 1.42, se multiplican las
ordenadas a1 por b1 , a2 por b2 y así sucesivamente, y luego se suman estos productos a fin de
obtener una cifra que es una medida de la similaridad entre x 1 ( t ) y x 2 (t ) . En la Fig. 1.42,
x 1 ( t ) y x 2 (t ) son idénticas, de manera que cada producto contribuye con un término positivo a la
sumatoria y la suma será grande. Pero si efectuamos el mismo proceso entre las señales
x 1 ( t ) y x 3 ( t ) , vemos que habrá productos positivos y negativos que tenderán a cancelarse y el
valor de la sumatoria será menor puesto que las señales no son idénticas. El valor de la sumatoria es
entonces una medida o estimación de la similaridad o semejanza entre dos señales.
Consideremos ahora las señales x 3 (t ) y x 4 ( t ) . Ellas son idénticas en forma pero x 4 (t )
está desplazada en un tiempo τ1 respecto a x3(t). Si se efectúa el proceso de multiplicación de
ordenadas (de las cuales c 1 y d 1 son un ejemplo) vemos de nuevo que productos positivos tienden
a ser cancelados por productos negativos y la suma será pequeña. Si se tuviera que estimar la
similaridad entre una señal x(t) y una versión desplazada de ella x(t+τ), puede esperarse que la
sumatoria resultante tenga valores cada vez más pequeños para valores crecientes del despla-
zamiento τ. El valor máximo de la similaridad se tendrá cuando τ = 0, es decir, cuando las
señales están superpuestas. Este es, en esencia, el proceso denominado “autocorrelación”. El
proceso de autocorrelación proporciona una medida de la similitud, semejanza o coherencia entre
una señal dada y una réplica de ella desplazada en un tiempo τ variable.
La función de autocorrelación es utilizada ampliamente en la detección y reconocimiento de
señales que están inmersas en ruido. Un estudio más avanzado de las funciones de correlación está
fuera de los objetivos del presente texto.
63
I. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES
Definición
En términos más formales, la “Función de Autocorrelación” de una señal real x(t) de
potencia se define en la forma
T/ 2
∫
1
R x ( τ) = lim x( t ) x( t + τ )dt =< x( t ) x( t + τ) > (1.119)
T→∞ T −T/ 2
∫
1
R x ( τ) = x( t ) x( t + τ) dt (1.120)
T −T/ 2
∫ ∫
∞ ∞
R x (τ ) = x (t ) x ( t + τ ) dt = x ( t − τ ) x ( t )dt (1.122)
−∞ −∞
R x (τ ) R x (τ )
R x (τ )
τ τ τ
0 (a) 0 0
(b) (c)
Fig. 1.43.
Demostraremos más adelante que esa relación no está basada en la transformada de Fourier de x(t)
pues x(t) no posee una, sino en la densidad espectral de potencia S x ( f ) de x(t).
En el Capítulo III, se calculan algunas funciones de autocorrelación que se utilizan en la
caracterización de algunas de las señales digitales que veremos en el Capítulo V.
Propiedades de la Función de Autocorrelación
1. La potencia promedio de x(t) es igual a R x (0) . En efecto, para τ = 0,
1
∫
T/ 2
R x ( 0) = lim x 2 ( t ) dt =< x 2 ( t ) > (1.123)
T →∞ T − T/ 2
0 ≤ [ x ( t ) ± x(t + τ )] = x 2 (t ) ± 2x(t)x(t + τ ) + x 2 ( t + τ ) ,
2
de donde
± 2x(t)x(t + τ ) ≤ x 2 ( t ) + x 2 (t + τ )
Integrando ambos miembros en un intervalo (-T/2, T/2), dividiendo por T y tomando el
límite T→ ∞,
1
∫ 1⎡
∫ ∫ ⎤
T/ 2 T/ 2 T/ 2
± lim 2 x (t ) x ( t + τ ) dt ≤ lim ⎢ x 2 ( t ) dt + x 2 ( t + τ ) dt ⎥
T →∞ T − T/ 2 T →∞ T ⎣ − T/ 2 − T/ 2 ⎦
± 2R x ( τ ) ≤ 2 R x ( 0), de donde
R x ( 0) ≥ R x (τ ) (1.125)
4. Si x(t) es periódica de período T, entonces R x ( τ ) será también periódica con el mismo
período. En efecto, si x(t) es periódica de período T, entonces
x ( t ) = x ( t + T) = x (t + nT) donde n es un entero ≥ 1
R x ( τ ) =< x ( t )x (t + τ ) >=< x ( t + T )x (t + T + τ ) >=< x ( t + nT )x (t + nT + τ ) > , de donde
R x ( τ ) = R x ( τ + T) = R x (τ + nT) (1.126)
5. Si el valor promedio (componente continua) de x(t) es distinto de cero, entonces R x ( τ )
poseerá una componente continua de valor igual al cuadrado del valor promedio de x(t).
En efecto, si < x (t ) >≠ 0, entonces se puede escribir x(t) en la forma
x ( t ) = b o + x o ( t ) , donde b o =< x (t ) > es la componente continua de x(t), y
< x o ( t ) >= 0. La función de autocorrelación de x(t) será
65
I. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES
Esto es así porque cuando | τ | → ∞ , las señales x ( t ) y x(t + τ ) son tan disímiles que
ellas pierden toda relación y ya no hay correlación entre ellas, es decir,
R x ( τ ) → 0 cuando | τ | → ∞ .
Si < x ( t ) >= b o ≠ 0, entonces cuando | τ | → ∞, y de la expresión (1.127),
Las expresiones (1.128) y (1.129) son válidas siempre que x(t) no contenga
componentes periódicas. Si x(t) contiene componentes periódicas, entonces, de acuerdo
con la Propiedad 4, para altos valores de τ, aún cuando | τ | → ∞, R x (τ ) exhibirá un
comportamiento periódico.
6. Si R x ( τ ) =< x ( t )x (t + τ ) > y R x (τ ) =< x ( t ) x ( t + τ ) > , se puede demostrar (Ver
Problema de Aplicación 2.27) que
R x (τ ) = R x (τ ) y R z ( τ ) = 2[ R x ( τ ) + jR x ( τ )] (1.130)
donde R z ( τ ) es la función de autocorrelación de z( t ) = x( t ) + jx( t ), y R x ( τ ) es la
transformada de Hilbert de R x ( τ ) .
Obsérvese que si z(t) es la señal analítica de x(t), entonces R z ( τ ) / 2 es la señal
analítica de R x ( τ ) . Por lo tanto, la transformada de Fourier de R z ( τ ) (que
demostraremos más adelante que es su densidad espectral de potencia) deberá tener un
espectro idénticamente nulo para f < 0.
Todas estas propiedades se aplican tanto a señales determinísticas como aleatorias.
66
I. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES
A2
∫ { cos[2(ωc t + φ ) + ω c τ ] + cos(ω c τ )}dt
T/ 2
R x (τ ) =
2T − T/ 2
A2
∫ A2
∫
T/ 2 T/ 2
R x (τ ) = cos(ω c τ ) dt + cos[2 (ω c t +φ ) + ω c τ ]dt
2T − T/ 2 2T − T/ 2
x(t) R x (τ )
A
A2 / 2
ooo ooo oo ooo
t τ
-T -T/4 0 T/4 T -T -T/2 0 T/2 T
(a) Señal x(t) (b) Función de Autocorrelación de x(t)
Fig.1.44
Por consiguiente, R x (τ ) = R x− (τ ) + R x− (− τ ) .
Solamente se calcula R x− ( τ ) , y para 0 ≤ τ se hace τ → − τ en R x − (τ ) . Entonces,
∫ A2 A2 τ
T 1 τ T
para − < τ < 0, R x − (τ ) = A dt =
2
(τ + )= (1 + )
2 T − T/ 2 T 2 2 T/ 2
T A2 τ
para 0 ≤ τ < , R x + (τ ) = R x − (− τ ) = (1 − ).
2 2 T/ 2
Puesto que x(t) es periódica, combinando estos dos términos se obtiene la señal generatriz
R gx (τ ) de R x ( τ ). Entonces,
67
I. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES
A2 ⎡ | τ| ⎤ A 2 τ
R gx (τ ) = ⎢⎣1 − ⎥⎦ = Λ( )
2 T/ 2 2 T/ 2
La función de autocorrelación de la señal periódica rectangular x(t) será también periódica:
∞ ∞
R x ( τ ) = R gx ( τ ) ∗ ∑δ(τ - nT) =
n=-∞
A2
2
∑Λ⎡⎢⎣ τT-/nT2 ⎤⎥⎦
n=-∞
∫
∞
R x ( 0) =< x 2 ( t ) >= S x ( f ) df
−∞
Esta expresión nos dice que la potencia promedio de una señal de potencia, igual a Rx (0),
es igual al área de su densidad espectral de potencia. Esto nos induce a pensar que entre la función
de autocorrelación y la densidad espectral existe una relación muy estrecha que vamos a tratar de
determinar. Consideremos entonces la densidad espectral de potencia de una señal de potencia, es
decir,
| X T ( f )|2
x ( t ) ⇒ S x (f ) = lim
T →∞ T
donde X T (f ) es el espectro de la señal truncada de x(t). Por transformada de Fourier inversa
{S x (f )} = ∫−∞ lim
1 ∞ | X T ( f )|2
exp( j2πτf ) df (1.131)
T →∞ T
En la expresión (1.131) se ha elegido una nueva variable τ pues la variable t está ya
implícita en la definición de X T ( f ) . Intercambiando el orden de las operaciones,
∞
→∞ T ∫
{S x ( f )} = Tlim
1
1 X T ( f ) X ∗T ( f ) exp( j2πτf )df
−∞
∫ ∫
T/ 2 T/ 2
X T (f ) = x T ( t ' ) exp(− j2 πft ' )dt ' y X ∗T ( f ) = X T (− f ) = x T ( t ) exp( j2 πft )dt
−T/ 2 −T/ 2
Rearreglando,
⎧ ⎫
∫ x T (t )⎨ ∫ x T (t ' )⎢ ∫ exp[ j2 π (t − t '+ τ )f ]df ⎥dt '⎬dt
⎡ ⎤
∞
{S x (f )} = Tlim
1 T/ 2 T/ 2
1
→∞ T − T / 2 ⎩ − T/ 2 ⎣ −∞ ⎦ ⎭
68
I. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES
→∞ ∫
1 {S x ( f )} = Tlim x T ( t )x T ( t + τ )dt
− T/ 2
S x (f ) ⇔ R x (τ ) (1.132a)
Este resultado, de gran importancia en el análisis espectral de señales, se conoce con el
nombre de “Teorema de Wiener-Kintchine” o “Relaciones de Wiener-Kintchine”. Este teorema
establece que la función de autocorrelación y la densidad espectral de potencia forman un par de
transformadas de Fourier, es decir,
∫ ∫
∞ ∞
R x (τ ) = S x ( f ) exp( j2 πτf )df ⇔ S x ( f ) = R x (τ ) exp(− j2 πfτ ) dτ (1.132b)
−∞ −∞
La deducción rigurosa del Teorema de Wiener-Kintchine está fuera de los límites que nos
hemos impuesto.
Las relaciones de Wiener-Kintchine demuestran que la función de autocorrelación de una
señal contiene solamente aquellas componentes de frecuencia presentes en la señal misma, es decir,
la función de autocorrelación no depende de la forma de la señal en el dominio del tiempo (pues ha
perdido la información de fase) sino de su contenido espectral. Esta equivalencia tiempo ⇔
frecuencia es aplicable tanto a señales determinísticas como aleatorias.
Si las señales son de energía, se verifica que
∫
∞
x( t ) ⇔ X( f ); R x ( 0) = x 2 ( t ) dt = E x energía de x(t)
−∞
x(t ) ⇒ S x (f ) ⇔ R x (τ ) y x c ( t ) ⇒ S xc (f ) ⇔ R xc (τ )
A2
R xc ( τ ) = < x ( t ) x (t + τ )[ cos[ωc ( 2 t + τ )] + cos(ωc τ )] >
2
A2 A2
R xc (τ) = cos(ωc τ) < x ( t ) x ( t + τ) > + < x ( t ) x ( t + τ) cos[ωc (2 t + τ)] >
2 2
Debido a la periodicidad del segundo término, la integral correspondiente es cero, es decir,
< x ( t ) x ( t + τ ) cos[ω c ( 2 t + τ )] >= 0 , de donde
A2
R xc (τ) = R x (τ) cos(2πf c τ) (1.134a)
2
donde R x ( τ ) =< x( t ) x( t + τ ) > es la función de autocorrelación de x(t) y R x (τ) ⇔ S x (f ) .
Mediante el Teorema de Wiener-Kintchine, la transformada de Fourier de R xc ( τ ) es
A2
S xc ( f ) =
4
[ S x (f + f c ) + S x (f − f c )] (1.134b)
Puede observarse que si entre las señales x(t) e y(t) existe algún grado de semejanza,
entonces la función de intercorrelación existirá en un cierto rango de τ , proporcionando así una
medida cuantitativa del grado de similitud o coherencia entre ellas. Cuando las señales son tan
disímiles que aún para τ = 0 la intercorrelación es cero, se dice entonces que las señales son
ortogonales, es decir, si
1
∫
T/ 2
R xy ( τ ) = lim x ( t )y (t + τ )dt = 0 para todo τ (1.136a)
T →∞ T − T/ 2
entonces x(t) e y(t) son ortogonales y no habrá ninguna correlación entre ellas. En general, como
vimos en la Sección 1.2.5, la condición de ortogonalidad total entre dos señales x(t) e y(t) se
expresa mediante la integral
∫
∞
x ( t )y (t ) dt = 0 (1.136b)
−∞
70
I. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES
2. (a) R x ( 0) ⋅ R y ( 0) ≥| R xy ( τ )| (1.140)
(b)
1
2
[R x ( 0) + R y ( 0) ] ≥| R xy ( τ )| (1.141)
3. Si dos señales x(t) e y(t) no están correlacionadas y sus valores promedio son distintos
de cero, se cumple que su función de intercorrelación es igual al producto de sus valores
promedio, es decir,
Si < x (t ) >≠ 0 y < y(t) > ≠ 0, entonces
R xy ( τ ) =< x ( t )y (t + τ ) >=< x ( t ) > ⋅ < y ( t ) > (1.142)
pero si < x ( t ) > ó < y(t) > o ambos son cero, entonces R xy ( τ ) = 0. Asimismo, si
Nótese que si x(t) o y(t) no poseen una componente continua, entonces la ortogonalidad
implica no correlación. Sin embargo, en general, ortogonalidad implica no correlación,
pero no correlación no necesariamente implica ortogonalidad. La ortogonalidad es una
condición mucho más estricta que la no correlación, como puede apreciarse en la
expresión (1.136b).
4. Si x(t) e y(t) son periódicas de período T=1/fo , y sus funciones generatrices son
x g ( t ) ⇔ X g ( f ) e y g (t ) ⇔ Yg ( f ) , se verifica que
∞
R xy (τ ) ⇔ S xy ( f ) = f o2 ∑X g ( nf o ) Yg ( nf o )δ ( f − nf o ) (1.144)
n=-∞
71
I. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES
La intercorrelación es muy útil en la descripción del grado de conformidad entre dos señales
diferentes en función de su desplazamiento mutuo. Su habilidad para medir cuantitativamente el
grado de semejanza o coherencia entre dos señales, permite visualizar con más profundidad los
fenómenos investigados que si se analizara cada señal por separado.
1.11.6. Detección de una Señal Periódica en presencia de Ruido
En muchas ocasiones es necesario detectar periodicidades escondidas dentro de otras
señales, en especial señales contaminadas con ruido, como, por ejemplo, en la transmisión de
señales digitales, en la detección de señales de radar o de periodicidades en encefalogramas, en el
estudio de vibraciones y en muchas otras aplicaciones del Análisis Espectral de Señales. En estos
casos las técnicas de correlación tienen una gran importancia, pero aquí sólo trataremos la detección
de una componente periódica en presencia de ruido.
Sea una señal x(t) que contiene una componente periódica de período T más una señal
aleatoria (ruido) que enmascara completamente la componente periódica. La señal x(t) se puede
expresar en la forma
x(t ) = p (t ) + n(t )
donde p(t) es una componente periódica de período T y n(t) es una señal aleatoria. No hay
correlación entre p(t) y n(t), y suponemos que sus valores promedio son cero, es decir,
< p (t ) >=< n ( t ) >= 0. Entonces,
R x (τ ) =< x ( t )x ( t + τ ) >=< [ p ( t ) + n ( t )][ p ( t + τ ) + n ( t + τ )] >
R x ( τ ) = R p ( τ ) + R n ( τ ) + R pn (τ ) + R np (τ )
En una forma alterna, se puede correlacionar mutuamente x(t) con un proceso periódico
q(t), generado localmente, del mismo período que p(t), la componente periódica de x(t). Se tiene
entonces,
R xq ( τ) =< x( t ) ⋅ q ( t + τ) >=< [p( t ) + n( t )] ⋅ q ( t + τ ) >=< p( t ) ⋅ q ( t + τ) > + < n( t ) ⋅ q( t + τ) >
Puesto que los procesos p(t) y q(t) tienen componentes de igual período, R pq ( τ ) tendrá
también una componente del mismo período. Por consiguiente, R xq ( τ) exhibirá un
comportamiento periódico del mismo período que q(t). Si q(t) tiene la forma de un tren de impulsos
unitarios de período T, se puede demostrar [Lathi, 1968] que R xq ( τ) reproduce q( τ) . Esto quiere
decir que este método no sólo detecta la presencia de una componente periódica, sino que también
revela la forma o perfil de dicha componente. En el Capítulo II aplicamos estos conceptos a los
sistemas lineales.
Un estudio más avanzado de estas técnicas está fuera de los objetivos de este texto.
1.12. RESUMEN
El objetivo principal de este capítulo es la representación en los dominios del tiempo y de la
frecuencia de señales con énfasis en sus aplicaciones en el área de las comunicaciones. Es
necesario, por lo tanto, el desarrollo de modelos matemáticos que representen las señales y sistemas
físicos para emprender el análisis de las interrelaciones señales-sistemas.
El estudio sistemático de los modelos de señales se inicia mediante el establecimiento de
una primera clasificación que se corresponda con los fenómenos físicos o señales reales que se
observan en la práctica. Esta primera clasificación comprende las señales determinísticas y
aleatorias por un lado, y por el otro comprende las señales de energía y de potencia. Asimismo, se
establecen modelos para señales periódicas y no periódicas, pues éstas son señales de mucha
aplicación en el campo de la ingeniería eléctrica y particularmente en las telecomunicaciones. La
mayoría de las señales utilizadas en la práctica corresponde a algunos de estos modelos; por
ejemplo, una señal periódica rectangular es a la vez una señal de potencia y es determinística, y es
el modelo de una señal de temporización (reloj).
El análisis espectral de señales es esencial para comprender muchos fenómenos no
perceptibles en el dominio del tiempo. Este análisis lo enfocamos desde el punto de vista de las
Series y Transformadas de Fourier, que nos proveen de las herramientas analíticas necesarias para
emprender el estudio de las señales y sistemas en el dominio de la frecuencia. A partir del Análisis
de Fourier, de sus propiedades y teoremas derivados (Parseval, Raleigh, Wiener-Kintchine, etc.),
comprendemos los conceptos de espectro, de ancho de banda, de densidad espectral de potencia y
energía. Otras técnicas matemáticas, tales como la convolución y las funciones de correlación, se
han definido y aplicado en el análisis espectro-temporal de señales.
Dado el carácter introductorio de este texto, el Capítulo I es simplemente una muestra de la
ingente cantidad de herramientas matemáticas y conceptuales necesarias para un estudio más
avanzado de la Teoría de la Comunicación, pero es suficiente para comprender los conceptos que se
estudiarán en el resto del texto.