You are on page 1of 69

Apunte 2 - Procesamiento de señales

Este apunte está constituido por extractos de algunos textos sobre procesamiento de
señales, principalmente, aunque no exclusivamente, el de Proakis y Manolakis. Para simplificar
la lectura se eliminó el formato convencional de las citas bibliográficas y en algunos casos se
las adaptó libremente. La intención fundamental del apunte es complementar el capítulo
correspondiente de Huang con algunos conocimientos previos y síntesis de algunos temas. Se
sigue el orden de presentación de los temas de Huang, manteniéndose incluso los títulos
principales y su numeración.

5.1 Señales digitales y sistemas

Definiciones preliminares

Una señal se define como una cantidad física que varía con el tiempo, el espacio o
cualquier otra variable o variables independientes. Matemáticamente, describimos una señal
como una función de una o más variables independientes. Por ejemplo, las funciones

(1) s1(t) = 5t
(2) s2(t) = 20t2

describen dos señales, una que varía linealmente con la variable independiente t (tiempo) y
una segunda que varía cuadráticamente con t. Las señales descritas en (1) y (2) pertenecen a
las clases de señales que quedan perfectamente definidas especificando la dependencia
funcional con la variable independiente. Sin embargo, existen casos en los que dicha relación
funcional es desconocida o demasiado complicada como para tener utilidad práctica.

Por ejemplo, una señal de voz no se puede describir funcionalmente mediante


expresiones como (1). En general, un segmento de voz puede representarse con un alto grado
de exactitud como la suma de varias sinusoides de diferentes amplitudes y frecuencias, esto
es, como

N
(3) ∑
i =1
Ai(t) sen[2π F i(t)t + θi(t)]

donde {Ai(t)}, {Fi(t)} y {θi(t)} son los conjuntos (probablemente variables en el tiempo) de
amplitudes, frecuencias y fases, respectivamente de las sinusoides. De hecho, una manera de
interpretar la información o el mensaje contenido en un segmento corto de una señal de voz es
medir las amplitudes, frecuencias y fases contenidas en el segmento corto de señal.

Otros ejemplos de señales naturales son los electrocardiogramas y los


electroencefalogramas. Las señales de voz, los electrocardiogramas y los
electroencefalogramas son ejemplos de señales que portan información y que varían como
funciones de una única variable independiente, el tiempo. Una imagen constituye un ejemplo
de señal que varía en dos variables independientes. Las dos variables independientes en este
caso son las coordenadas espaciales. Estos son unos pocos ejemplos de un incontable
número de señales naturales que se pueden encontrar en la práctica.

Asociados a las señales naturales se encuentran los medios con los que se generan.
Por ejemplo, las señales de voz se generan al forzar el paso del aire a través de las cuerdas
vocales. Las imágenes se obtienen exponiendo película fotográfica ante un paisaje u objeto.
Por lo tanto, la forma en la que se generan las señales se encuentra asociada con un sistema
que responde ante un estímulo o fuerza. En una señal de voz, el sistema está constituido por
las cuerdas vocales y el tracto bucal, también llamado cavidad bucal. El estímulo en
combinación con el sistema se llama fuente de la señal.

Un sistema se puede definir también como un dispositivo físico que realiza una
operación sobre una señal. Por ejemplo, un filtro que se usa para reducir el ruido y las
interferencias que corrompen una señal también se denomina sistema. En este caso, el filtro
2

realiza algunas operaciones sobre la señal cuyo efecto es reducir (filtrar) el ruido y la
interferencia presentes en la señal deseada.

Cuando pasamos una señal a través de un sistema, como en el caso del filtrado,
decimos que hemos procesado la señal. En este caso, el procesamiento de la señal implica la
separación de la señal deseada del ruido y la interferencia. En general, el sistema se
caracteriza por el tipo de operación que realiza sobre la señal. Por ejemplo, si la operación es
lineal, el sistema se denomina lineal, si la operación es no lineal, el sistema se dice no lineal,
etc. Estas operaciones se denominan habitualmente procesamiento de señales.

Es conveniente ampliar la definición de sistema para incluir no solo dispositivos físicos,


sino también realizaciones en software de operaciones sobre una señal. En el procesamiento
digital de señales en una computadora, las operaciones realizadas sobre una señal constan
de varias operaciones matemáticas especificadas por un programa de software.

El procesamiento de señales involucra primero obtener una representación de la señal


sobre la base de un modelo dado y luego la aplicación de alguna transformación de alto nivel
para poner la señal en una forma más conveniente. El último paso en el proceso es la
extracción y utilización de la información del mensaje. Este paso puede ser realizado por
oyentes humanos o automáticamente por máquinas.

Entonces, el procesamiento de las señales de habla involucra generalmente dos


tareas. Primero, es un vehículo para obtener una representación general de una señal de habla
en forma de onda o paramétrica. Segundo, el procesamiento de señales sirve la función de
ayudar en el proceso de transformar la representación de la señal en formas alternativas no
menos generales por naturaleza, pero más apropiadas para aplicaciones específicas.

En los sistemas de comunicación de habla, la señal de habla es transmitida,


almacenada y procesada de muchos modos. Las preocupaciones técnicas llevan a una amplia
variedad de representaciones de la señal del habla. En general, hay dos preocupaciones
importantes en cualquier sistema:

1. Preservación del contenido del mensaje en la señal de habla.


2. Representación de la señal del habla en una forma que sea conveniente para la
transmisión o almacenamiento, o en una forma que sea flexible de modo que las
modificaciones puedan hacerse a la señal de habla sin degradar seriamente el
contenido del mensaje.

La representación de la señal de habla debe ser tal que el contenido de información puede ser
extraído fácilmente por oyentes humanos o automáticamente por máquina.

Las representaciones de las señales de habla pueden clasificarse en dos grandes


grupos: representaciones de forma de onda y representaciones paramétricas. Las
representaciones de forma de onda como lo implica el nombre se ocupan simplemente de
preservar la “forma de onda” de la señal de habla analógica a través de un proceso de
muestreo y cuantización. Las representaciones paramétricas, por otro lado, se ocupan de
representar la señal de habla como salida de un modelo de producción de habla. El primer
paso para obtener una representación paramétrica es frecuentemente una representación
digital de la forma de onda; esto es, la señal de habla es muestreada y cuantificada y luego
procesada para obtener los parámetros del modelo de producción de habla. Los parámetros de
este modelo pueden clasificarse convenientemente como parámetros de excitación (esto es,
relacionados con la fuente de los sonidos del habla) o parámetros de respuesta del tracto (esto
es, relacionados con sonidos de habla individuales).

El procesamiento de las señales de habla involucra generalmente dos tareas. Primero,


es un vehículo para obtener una representación general de una señal de habla en forma de
onda o paramétrica. Segundo, el procesamiento de señales sirve la función de ayudar en el
proceso de transformar la señal en formas alternativas que son menos generales por
naturaleza, pero más apropiadas para aplicaciones específicas.
3

El procesamiento digital de señales se ocupa de obtener representaciones discretas


de señales y de la teoría, diseño e implementación de los procedimientos numéricos para
procesar la representación discreta. Los objetivos en el procesamiento digital de señales son
idénticos a los del procesamiento de señal analógica.

Elementos básicos de un sistema de procesamiento digital de señales

La mayor parte de las señales que aparecen en los ámbitos de la ciencia y la ingeniería
son de naturaleza analógica, es decir, las señales son funciones de una variable continua,
como el tiempo o el espacio y normalmente toman valores en un rango continuo. Estas señales
pueden ser procesadas directamente por sistemas analógicos adecuados (como filtros o
analizadores de frecuencia) o multiplicadores de frecuencia con el propósito de cambiar sus
características o extraer cualquier información deseada. En tal caso, decimos que la señal fue
procesada directamente en forma analógica, como se ilustra en la Fig. 1.2. Tanto la señal de
entrada como la de salida están en forma analógica.

El procesamiento digital de señales proporciona un método alternativo para procesar


una señal analógica, como se ilustra en la figura 1.3. Para realizar el procesamiento
digitalmente, se necesita una interfaz entre la señal analógica y el procesador digital. Esta
interfaz se denomina conversor analógico-digital (A/D). La salida del conversor A/D es una
señal adecuada como entrada al procesador digital.

En aplicaciones donde la salida digital del procesador digital de señales se ha de entregar en


forma analógica, como en comunicaciones digitales, debemos proporcionar otra interfaz desde
el dominio digital al analógico. Esta interfaz se denomina conversor digital-analógica (D/A).

Clasificación de las señales

Los métodos que usamos en el procesamiento de una señal o en el análisis de la


respuesta de un sistema a una señal dependen fuertemente de las características de la
señal en particular. Existen técnicas que se aplican solo a familias específicas de señales. En
consecuencia, cualquier investigación en procesamiento de señales debe comenzar con la
clasificación de las señales que se encuentran en la aplicación concreta.

Señales multicanal y multidimensionales. Una señal se describe mediante una función de


una o más variables independientes. El valor de la función (es decir, de la variable
dependiente) puede ser un escalar real, una cantidad compleja o quizás un vector. En algunas
aplicaciones, las señales son generadas por múltiples fuentes o sensores. Estas señales
pueden representarse en forma vectorial. Nos referiremos a un vector de señales como señal
multicanal. Por ejemplo, en electrocardiografía se usan electrocardiogramas (ECG) de 3 y 12
tomas que dan lugar a señales de 3 y 12 canales. Si la señal es función de una única variable
4

independiente, la señal se denomina unidimensional. Una señal se denomina M-dimensional


si es función de M variables independientes.

Señales en tiempo continuo vs. señales en tiempo discreto. Las señales se pueden
clasificar en cuatro categorías diferentes dependiendo de las características de la variable
(independiente) tiempo y de los valores que esta puede tomar. Las señales en tiempo
continuo o señales analógicas están definidas para todos los valores del tiempo y pueden
tomar cualquier valor en el intervalo continuo (a,b), donde a puede ser -∞ y b puede ser ∞. La
onda de voz y la señal x1(t) = cosπt, -∞ < t < ∞ son ejemplos de señales analógicas. Las
señales en tiempo discreto están definidas solo para ciertos valores del tiempo. Estos
instantes del tiempo no necesitan ser equidistantes, aunque en la práctica se toman
normalmente instantes equiespaciados conforme a intereses computacionales y matemáticos.
Si usamos el índice n como la variable independiente que representa los instantes de tiempo, la
señal pasa a ser una función de una variable entera (es decir, una secuencia de números). Por
lo tanto, una señal en tiempo discreto se puede representar matemáticamente como una
secuencia de números reales o complejos. Para destacar la naturaleza discreta de una señal
se la suele denotar como x(n) o x[n] en vez de como x(t). Si los instantes de tiempo tn están
equiespaciados (es decir, tn = nT), también se usa la notación x(nT) (T es el “período de
muestreo”).

Tiempo continuo Tiempo discreto


V. dependiente Señal analógica Señal continua en tiempo
continua discreto
V. dependiente Señal discreta en tiempo Señal digital
discreta continuo

En la práctica las señales en tiempo discreto pueden originarse de dos maneras:

1. Eligiendo valores de una señal analógica en determinados instantes de tiempo. Este


proceso se denomina muestreo. Todos los aparatos de medida que proporcionan
medidas en instantes de tiempo regulares generan señales en tiempo discreto.
2. Acumulando una variable a lo largo de un determinado periodo de tiempo.

Señales continuas vs. señales discretas. El valor de una señal, en tiempo continuo o
discreto, puede ser continuo o discreto. Si una señal toma todos los valores posibles en un
intervalo tanto finito como infinito, se dice que es continua. Por el contrario, si toma valores de
un conjunto finito de valores se dice que es discreta. Normalmente, estos valores son
equidistantes y por tanto pueden expresarse como un múltiplo de la distancia entre dos valores
sucesivos. Una señal en tiempo discreto, que toma valores en un conjunto discreto se
denomina señal digital.

Para que una señal pueda ser procesada digitalmente debe ser en tiempo discreto y
tomar valores discretos (es decir, debe ser una señal digital). Si la señal a procesar es
analógica, se convierte a digital muestreándola en el tiempo y obteniendo por tanto una señal
en tiempo discreto y posteriormente cuantificando sus valores en un conjunto discreto. El
5

proceso de convertir una señal continua en discreta, denominado cuantificación, es


básicamente un proceso de aproximación. Puede lograrse por redondeo o truncamiento.

Señales deterministas vs. señales aleatorias. El análisis matemático y el procesamiento de


señales requieren que la señal sea descrita matemáticamente. Esta descripción matemática,
normalmente denominada modelo matemático, conduce a otra importante clasificación de las
señales. Cualquier señal que pueda ser definida por una forma matemática explícita, un
conjunto de datos o una regla bien definida se denomina determinista. Este término se usa
para resaltar el hecho de que valores de la señal tanto presentes como pasados o futuros, se
conocen exactamente, sin incertidumbre.
En muchas situaciones prácticas, sin embargo, existen señales que no se pueden
describir con un grado de precisión razonable mediante fórmulas matemáticas explícitas o cuya
descripción es demasiado complicada para ser de utilidad práctica. La falta de tal relación
supone que dichas señales evolucionan con el tiempo de forma impredecible. Nos referiremos
a estas señales como señales aleatorias. La señal de la voz es un ejemplo de señal aleatoria.
El análisis y descripción de las señales aleatorias se hace mediante técnicas estadísticas en
vez de mediante fórmulas explícitas. El marco matemático para el análisis de señales aleatorias
lo constituye la teoría de la probabilidad y los procesos estocásticos.
La clasificación de una señal real como determinista o aleatoria no está siempre clara.
Algunas veces ambas aproximaciones dan lugar a resultados significativos que ayudan a
clarificar el comportamiento de la señal. Otras veces, una clasificación errónea puede dar lugar
a resultados erróneos, dado que algunas herramientas matemáticas se aplican solo a señales
deterministas y otras a señales aleatorias.

5.1. Señales y sistemas digitales

De la física sabemos que la frecuencia está íntimamente relacionada con un tipo


específico de movimiento periódico llamado oscilación armónica, que se describe mediante
funciones sinusoidales. El concepto de frecuencia está directamente relacionado con el de
tiempo. De hecho, sus dimensiones son las inversas del tiempo. Por tanto, de acuerdo con
esto, deberíamos esperar que la naturaleza del tiempo (continuo o discreto) afecte a la
frecuencia.

Señales sinusoidales en tiempo continuo

Una simple oscilación armónica se describe matemáticamente mediante la siguiente


señal en tiempo continuo:

(4) xa(t) = A cos(Ωt + θ), - ∞ < t < ∞

que se muestra en la figura 1.10.

Figura 1.10 Ejemplo de una señal sinusoidal analógica.


6

El subíndice a usado con x(t) denota una señal analógica. Esta señal está completamente
caracterizada por tres parámetros: A es la amplitud de la sinusoide, Ω es la frecuencia en
radianes por segundo (rad/s) y θ es la fase en radianes. En lugar de Ω, a menudo se utiliza la
frecuencia F ciclos por segundo o Hertzios (Hz), donde

(5) Ω = 2πF

La ecuación (4) puede escribirse en términos de F como

(6) xa(t) = A cos(2πF t + θ), - ∞ < t < ∞

La señal analógica sinusoidal (6) está caracterizada por las siguientes propiedades:

A1. Para todo valor fijo de la frecuencia F, xa(t) es periódica. Puede demostrarse fácilmente
usando trigonometría elemental que

xa(t + Tp) = xa(t)

donde Tp= 1/F es el periodo fundamental de la señal sinusoidal.

A2. Las señales en tiempo continuo con frecuencias diferentes son diferentes.

A3. El aumento en la frecuencia F resulta en un aumento en la tasa de oscilación de la señal,


en el sentido de que se incluyen más periodos en un intervalo de tiempo dado.

Para F = 0, el valor Tp = ∞ es consistente con la relación fundamental F = 1/Tp. Debido


a la continuidad de la variable temporal t, podemos aumentar la frecuencia F sin límite, con el
consiguiente aumento en la tasa de oscilación.
Las propiedades que hemos descrito para señales sinusoidales son aplicables a la
clase de señales exponenciales complejas
j(Ωt + θ)
(7) xa(t) = A e

Señales sinusoidales en tiempo discreto

Una señal sinusoidal en tiempo discreto puede expresarse como

(8) x(n) = A cos(ωn + θ), - ∞ < n < ∞

donde n es una variable entera, denominada número de muestra, A es la amplitud de la


sinusoide, ω es la frecuencia en radianes por muestra y θ es la fase en radianes.
Si en lugar de ω utilizamos la variable de frecuencia f definida por

(9) ω ≡ 2πf

la relación (9) se convierte en

(10) x(n) = A cos(2πf n + θ), - ∞ < n < ∞

La frecuencia f tiene dimensiones de ciclos por muestra. Cuando consideremos el muestreo de


sinusoides analógicas, vamos a relacionar la variable de frecuencia f de una sinusoide en
tiempo discreto con la frecuencia F en ciclos por segundo de la sinusoide analógica.
7

En contraste con las sinusoides en tiempo continuo, las sinusoides en tiempo discreto
están caracterizadas por las propiedades siguientes:

B1. Una sinusoide en tiempo discreto es periódica solo si su frecuencia f es un número


racional.
Por definición, una señal en tiempo discreto x(n) es periódica con período N (N > 0) si y
solo si

(11) x(n + N) = x(n) para todo n

El valor más pequeño de N para el que se cumple (11) se denomina periodo fundamental.

B2. Las sinusoides en tiempo discreto cuyas frecuencias están separadas por un múltiplo
entero de 2π, son idénticas.
Como resultado, todas las secuencias sinusoidales

(12) xk (n) = A cos(ωkn + θ), k= 0, 1, 2...

donde

ωk = ω0 + 2kπ -π ≤ ω0 ≤ π

son indistinguibles (esto es, idénticas). Por otro lado, las secuencias de dos sinusoides
cualesquiera de frecuencias en el rango -π ≤ ω ≤ π o –1/2 ≤ f ≤ ½ son distintas. En
consecuencia, las señales sinusoidales en tiempo discreto de frecuencias |ω| ≤ π o |f| ≤ ½ son
únicas. Cualquier secuencia que resulte de una sinusoide con una frecuencia |ω| > π o |f| > ½
es idéntica a una secuencia obtenida a partir de una señal sinusoidal de frecuencia |ω| ≤ π.
Debido a esta similitud, denominamos a la sinusoide que tiene la frecuencia |ω| > π un alias de
la sinusoide correspondiente de frecuencia |ω| < π. Por esta razón consideramos las
frecuencias en el rango -π π ≤ ω ≤ π o –1/2 ≤ f ≤ ½ como únicas y todas las frecuencias ω| |
> π o |f| > ½ , como alias.

B3. La mayor tasa de oscilación en una sinusoide en tiempo discreto se alcanza cuando ω = π
(o ω = -π) o equivalentemente, f = ½ (o f =- ½). Véanse las características de la señal
sinusoidal graficada en la figura 1.13. Los valores de ω0 = 0, π/8, π/4, π/2, π correspondientes a
f = 0, 1/16, 1/8, ¼, ½ dan lugar a secuencias periódicas con periodos N =∞, 16, 8, 4,2. El
periodo de la sinusoide disminuye a medida que la frecuencia aumenta. Podemos ver que la
tasa de oscilación aumenta cuando lo hace la frecuencia.
8

Dado que las señales sinusoidales en tiempo discreto de frecuencias separadas por un
múltiplo entero de 2π son idénticas, se deduce que las frecuencias en cualquier intervalo ω1 ≤
ω ≤ ω1 + 2π constituyen todas las sinusoides y exponenciales complejas en tiempo discreto
existentes. Por lo tanto, el rango de frecuencias para sinusoides en tiempo discreto es
finito con duración 2π π . Habitualmente, se elige el rango 0 ≤ ω ≤ 2π o -π ≤ ω ≤ π (0 ≤ f ≤ 1, -1/2
≤ f ≤ ½), que denominamos elrango fundamental.

Exponenciales complejas relacionadas armónicamente

Las señales sinusoidales y las exponenciales complejas son fundamentales en el


análisis de señales y sistemas. En muchos casos se trabaja con conjuntos de exponenciales
complejas (o sinusoides) armónicamente relacionadas. Estos son conjuntos de exponenciales
complejas periódicas de frecuencias fundamentales que son múltiplos de una frecuencia
positiva única. Aunque circunscribamos nuestra discusión a las exponenciales complejas, las
mismas propiedades se verifican para las señales sinusoidales. Consideraremos exponenciales
complejas armónicamente relacionadas tanto en tiempo continuo como discreto.

Exponenciales en tiempo continuo

Las señales básicas en tiempo continuo, las exponenciales armónicamente


relacionadas, son

(13) sk (t) = ejkΩ0t = e j2πkF0t k = 0, ±1, ±2

Para cada valor de k, sk(t) es periódica, con periodo fundamental 1/(kF0) = Tp/k o frecuencia
fundamental kF 0. Dado que una señal que es periódica con periodo Tp/k, es también periódica
con periodo k(Tp/k) = Tp para cualquier entero positivo k, tenemos que el conjunto de todas las
sk(t) tienen periodo común Tp. Lo que es más, F 0 puede tomar cualquier valor y todos los
miembros del conjunto son distintos en el sentido de que si k1 ≠ k2, entonces sk1 (t) ≠ sk2(t).
Partiendo de las señales fundamentales dadas en (13) podemos construir una
combinación lineal de exponenciales complejas armónicamente relacionadas de la forma
9

∞ ∞
(14) xa(t) = ∑
k = −∞
ck sk(t) = ∑
k = −∞
ck ejkΩ0t

donde ck, k = 0, ±1, ±2,... son constantes complejas arbitrarias. La señal xa(t) es periódica con
período fundamental Tp = 1/F0, y su representación en términos de (14) se denomina
expansión en serie de Fourier de xa(t). Las constantes complejas son los coeficientes de
la serie de Fourier y la señal sk(t) se denomina el k-ésimo armónico de xa(t).

Exponenciales en tiempo discreto

Dado que las exponenciales complejas discretas en el tiempo son periódicas si su


frecuencia relativa es un número racional, escogemos f0 = 1/N y definimos los conjuntos de
exponenciales complejas armónicas como

sk (n) = ej2ππ , k = 0, ±1, ±2,...


kf0n
(15)

A diferencia del caso de señales continuas en el tiempo, observamos que


j2πn(k+N)/N j2πn
sk+N(n) = e =e sk(n) = sk(n)

Esto quiere decir que, en concordancia con (11), existen solo N exponenciales
complejas periódicas distintas en el conjunto descrito (15). Además, todas las señales del
conjunto tienen un periodo común de N muestras. Evidentemente, podemos escoger cualquier
conjunto de N exponenciales complejas consecutivas, por ejemplo, k = n0 hasta k = n0 + N – 1,
para formar un conjunto armónicamente relacionado con frecuencia fundamental f0 = 1/N.
Normalmente, por conveniencia, elegimos el conjunto que se corresponde con n0 = 0, es decir,
el conjunto
j2πkn/N
(16) sk (n) = e , k = 0, 1, 2,…, N – 1

Como en el caso de señales en tiempo continuo, es evidente que la combinación lineal

N −1 N −1
(17) x(n)= ∑
k =0
ck sk (n) = ∑
k =0
ck e
j2πkn/N

produce una señal de periodo fundamental N. Esta es la representación en serie de Fourier


de una secuencia periódica en tiempo discreto con coeficientes de Fourier {ck}. La secuencia
sk(n) se denomina el armónica k-ésima de x(n).

Señales y sistemas en tiempo discreto

La sinusoide es una señal elemental muy importante que sirve como bloque básico
para la construcción de señales más complejas. Sin embargo, existen otras señales
elementales que son importantes en nuestro tratamiento del procesamiento de señales.

Hacemos especial hincapié en la caracterización de sistemas en tiempo discreto en


general y en la clase de sistemas lineales e invariantes en el tiempo (LTI, linear time-invariant)
en particular. Definimos y desarrollamos una serie de importantes propiedades de los sistemas
LTI en el dominio del tiempo y se deduce una fórmula importante, denominada la fórmula de la
convolución, que permite calcular la salida de un sistema LTI correspondiente a cualquier señal
de entrada arbitraria. Además de la fórmula de la convolución, se utilizan ecuaciones en
diferencias como un método alternativo para la descripción de la relación entrada-salida de un
sistema LTI, Los LTI tienen realizaciones recursivas y no recursivas.

Nuestra motivación para subrayar el estudio de sistemas LTI se apoya en dos razones.
En primer lugar, existe una gran colección de técnicas matemáticas que pueden aplicarse al
10

análisis de sistemas LTI. En segundo lugar, muchos sistemas prácticos son LTI o pueden
aproximarse mediante sistemas LTI.

Señales en tiempo discreto

Una señal en tiempo discreto x(n) es una función de una variable independiente entera.
Es importante destacar que una señal en tiempo discreto no está definida para instantes entre
dos muestras sucesivas. Igualmente, es incorrecto pensar que x(n) es igual a cero si n no es un
entero. Simplemente, la señal x(n) no está definida para valore no enteros de n.

En lo sucesivo supondremos que una señal en tiempo discreto se define para cada
valor entero n para - ∞ < n < ∞. Por tradición, nos referimos a x(n) como la “enésima muestra”
de la señal aun cuando x(n) sea inherentemente en tiempo discreto (es decir, aunque no haya
sido obtenida por muestreo de una señal analógica). En el caso en que x(n) haya sido obtenida
al muestrear una señal analógica x a(t), entonces x(n) ≡ xa(nT), donde T es el periodo de
muestreo (el tiempo entre muestras sucesivas).

Además de la representación gráfica de una señal en tiempo discreto o secuencia,


existen otras representaciones alternativas que a menudo son más convenientes. Estas son:

1. Representación funcional

2. Representación tabular

3. Representación como secuencia

donde ↑ indica el origen del tiempo (n = 0). Muchas veces usaremos negrita en lugar de la
flecha.
11

Clasificación de las señales en tiempo discreto

Los métodos matemáticos empleados en el análisis de sistemas y señales en


tiempo discreto dependen de las características de las señales. Realizamos una
clasificación de las señales en tiempo discreto que atiende a diferentes características.

Señales de energía y señales de potencia. La energía E de una señal x(n) se define como


(18) E≡ ∑
n = −∞
2
|x(n)|

Hemos considerado el módulo al cuadrado de x(n); por tanto, esta definición se aplica tanto a
señales reales como a señales complejas. La energía de una señal puede ser finita o infinita. Si
E es finita (es decir, 0 < E < ∞ ), entonces se dice que x(n) es una señal de energía.
Algunas veces añadimos un subíndice x a E y escribimos Ex para hacer hincapié en que Ex es
la energía de la señal x(n).
Muchas señales que poseen energía infinita tienen potencia media finita. La potencia
media de una señal discreta en el tiempo x(n) se define como

N
1
(19) P = limN→∞
2N + 1

n =− N
| x(n)|2

Si definimos la energía de una señal sobre un intervalo finito –N ≤ n ≤ N como

N
(20) EN ≡ ∑
n =− N
| x(n)|2

Entonces podemos expresar la energía E de la señal como

(21) E ≡ limN→∞ EN

y la potencia media de la señal x(n) como

1
(22) P ≡ limN→∞ EN
2N + 1
Claramente, si E es finita, P = 0. Por otra parte, si E es infinita, la potencia media P puede ser
tanto finita como infinita. Si P es finita (y distinta de cero), la señal se denomina señal de
potencia.

Señales periódicas y señales aperiódicas. Como se definió más arriba, una señal x(n) es
periódica con periodo N (N > 0) si y solo si

(23) x(n + N) = x(n) para todo n

El valor más pequeño de N para el que (23) se verifica se denomina periodo (fundamental). Si
(23) no se verifica para ningún valor de N la señal se denomina aperiódica o no periódica. La
energía de una señal periódica x(n) sobre un único periodo, por ejemplo sobre el intervalo 0 ≤ n
≤ N – 1, es finita, si x(n) toma valores finitos en el periodo. Sin embargo, la energía de una
señal periódica en el intervalo -∞ ≤ n ≤ ∞ es infinita. La potencia media de una señal periódica
es finita y es igual a la potencia media sobre un único periodo. En consecuencia, las señales
periódicas son señales de potencia.

Señales simétricas (pares) y antisimétricas (impares). Una señal real x(n) se denomina
simétrica (par) si x(-n) = x(n). Una señal x(n) se denomina antisimétrica (impar) si x(-n) = -x(n).
12

Una señal arbitraria puede expresarse como la suma de dos componentes, una de las cuales
es par y la otra impar.

Manipulaciones simples de señales en tiempo discreto

En esta sección consideraremos algunas modificaciones o manipulaciones simples en


las que intervienen la variable independiente y la amplitud de la señal (variable dependiente).

Transformación de la variable independiente (tiempo). Una señal x(n) puede ser


desplazada en el tiempo reemplazando la variable independiente n por n – k, donde k es un
entero. Si k es un entero positivo, el desplazamiento temporal resulta en un retraso de la
señal en k unidades de tiempo. Si k es un entero negativo, el desplazamiento temporal resulta
en un adelanto de la señal en |k| unidades de tiempo.

Otra modificación útil de la base temporal es reemplazar la variable independiente n por


–n. El resultado de esta operación es un pliegue o una reflexión de la señal con respecto al
origen de tiempos n = 0.
13

Una tercera modificación de la variable independiente implica reemplazar n por µn,


siendo µ un entero. Nos referimos a esta modificación de la base de tiempos como escalado
temporal o submuestreo.
14

Suma, multiplicación y escalado de secuencias. La suma de dos señales x1(n) y x2(n) es


una señal y(n) cuyo valor en cualquier instante es igual a la suma de los valores en ese instante
de las dos señales de partida:

y(n) = x1(n) + x2(n) -∞<n<∞

El producto es:

y(n) = x1(n) x2(n) -∞<n<∞

El escalado de amplitud de una señal por una constante A se obtiene multiplicando el valor de
cada muestra de la señal por A:

y(n) = A x1(n) -∞<n<∞

Sistemas en tiempo discreto

En muchas aplicaciones del procesamiento de señales digitales es necesario diseñar


dispositivos o algoritmos que realicen operaciones sobre señales en tiempo discreto. Estos
dispositivos se denominan sistemas en tiempo discreto o simplemente sistemas discretos.
En concreto, un sistema discreto es un dispositivo que opera sobre una excitación o señal de
entrada en tiempo discreto según una regla preestablecida para generar otra señal en tiempo
discreto denominada salida o respuesta del sistema. En general, consideraremos un sistema
como una operación o conjunto de operaciones que se realizan sobre la señal de entrada x(n)
para producir la señal de salida y(n). Diremos que la señal x(n) es transformada por el sistema
en y(n), y expresaremos la relación general entre x(n) e y(n) como

(24) y(n) ≡ Τ [x(n)]


15

donde el símbolo T denota la transformación (también llamada operador), o procesamiento


realizado por el sistema sobre x(n) para producir y(n).

Existen varias maneras de describir las características de un sistema y las operaciones


que realiza sobre una señal x(n) para producir y(n). Acá nos ocuparemos de la caracterización
en el dominio del tiempo de los sistemas. Comenzaremos con una descripción entrada-
salida del sistema. Esta se centra en el comportamiento a las puertas del sistema e ignora la
realización interna. Más tarde nos introduciremos en la descripción del sistema mediante un
espacio de estados. De esta manera desarrollaremos ecuaciones matemáticas que no
solamente describen el comportamiento entrada-salida del sistema sino que especifican su
estructura interna y comportamiento.

Sea la señal de entrada:

Veamos algunos sistemas:

a) Sistema identidad: y(n) = x(n)


b) Sistema que retrasa una muestra: y(n) = x(n – 1)
c) Sistema que adelanta una muestra: y(n) = x(n + 1)
d) Sistema que promedia ternas de muestras de entrada: y(n) = 1/3 [x(n + 1) + x(n) + x(n –
1)]
e) Sistema acumulador:

Se puede observar que para varios de los sistemas considerados la salida en el instante n = n0
depende no solo de la entrada en el instante n = n 0 (o sea, x(n0)), sino también de los valores
de la entrada aplicados al sistema antes y después de n = n0.

Clasificación de los sistemas discretos

Tanto en el análisis como en el diseño de sistemas es conveniente realizar una


clasificación de los mismos según las propiedades generales que satisfacen. De hecho, las
técnicas matemáticas que desarrollaremos para analizar y diseñar sistemas en tiempo
discreto dependen fuertemente de las características generales de los sistemas que se
consideren. Por esta razón, es necesario desarrollar una serie de propiedades y categorías
que puedan usarse para describir las características generales de los sistemas.

Debemos destacar que para que un sistema disponga de una propiedad determinada,
esta debe cumplirse para cada posible señal de entrada al sistema. Si una propiedad se
satisface para algunas señales de entrada pero no para otras, el sistema no posee dicha
propiedad. En ese caso, un contraejemplo es suficiente para demostrar que un sistema no
16

posee una propiedad. Sin embargo, para demostrar que el sistema tiene alguna propiedad,
debemos probar que esta propiedad se cumple para cualquier señal de entrada posible.

Sistemas estáticos y sistemas dinámicos. Un sistema en tiempo discreto se denomina


estático o sin memoria si su salida en cualquier instante n depende a lo sumo de la muestra
de entrada en ese mismo instante, pero no de las muestras pasadas o futuras de la entrada. En
cualquier otro caso, se dice que el sistema es dinámico o con memoria. Si la salida de un
sistema en el instante n está determinada completamente por las muestras de entrada en el
intervalo de n – N a n (N > 0), se dice que el sistema tiene memoria de duración N. Si N = 0,
el sistema es estático. Si 0 < N < ∞, se dice que el sistema tiene memoria finita, mientras que si
N = ∞, se dice que el sistema tiene memoria infinita. Ejemplos:

a) Sistema sin memoria: y(n) = ax(n)


b) Sistema con memoria finita: y(n) = x(n) + 3x(n – 1)

c) Sistema con memoria infinita: y(n) = ∑
k =0
x(n – k)

Los sistemas estáticos o sin memoria se describen en general por ecuaciones de entrada-
salida de la forma y(n) = T[x(n),n] y no incluyen elementos de retardo (memoria).

Sistemas invariantes en el tiempo y sistemas variantes en el tiempo. Podemos subdividir


la clase general de sistemas en dos categorías amplias: sistemas invariantes en el tiempo y
sistemas variantes en el tiempo. Un sistema se dice invariante en el tiempo si sus
características de entrada salida no cambian con el tiempo. Para entender esto mejor,
supóngase que tenemos un sistema T en reposo que, cuando se excita con una señal x(n),
produce una señal de salida y(n). Entonces, podemos escribir

(25) y(n) = T[x(n)]

Supóngase ahora que esa misma entrada es retardada k unidades de tiempo para dar lugar a
x(n – k), y de nuevo se aplica al mismo sistema. Si las características del sistema no cambian
con el tiempo, la salida del sistema en reposo será y(n – k), es decir, la salida será la misma
que la correspondiente a la entrada x(n), excepto en que estará retardada las mismas k
unidades de tiempo que se retardó la entrada. Esto nos conduce a definir un sistema invariante
en el tiempo o invariante ante desplazamientos de la siguiente manera:

Teorema. Un sistema en reposo T es invariante en el tiempo o invariante a desplazamientos si


y solo si

x(n) – T → y(n)

Implica que

(26) x(n – k) – T → y(n – k)

para toda señal de entrada x(n) y todo desplazamiento temporal k.

Para determinar si un sistema dado es invariante en el tiempo, necesitamos realizar el


test especificado en la definición precedente. Básicamente, excitamos el sistema con una
secuencia de entrada arbitraria x(n) que produce una salida denotada por y(n). A continuación,
retardamos la señal de entrada en la misma cantidad k y recalculamos la salida. En general,
podemos escribir la salida como

y(n,k) = T[x(n – k)]

Si ahora esta salida cumple y(n,k) = y(n – k), para todos los valores posibles de k, el sistema es
invariante en el tiempo. En cambio si la salida cumple y(n,k) ≠ y(n – k), aun para un solo valor
de k, el sistema es variante en el tiempo.
17

Sistemas lineales y sistemas no lineales. Los sistemas en general pueden subdividirse en


lineales y no lineales. Un sistema lineal es aquel que satisface el principio de superposición. De
forma sencilla podemos decir que el principio de superposición exige que la respuesta del
sistema a una suma ponderada de señales sea igual a la correspondiente suma ponderada de
las salidas a cada una de las señales de entrada. Por tanto, tenemos la siguiente definición de
linealidad.

Teorema. Un sistema es lineal si y solo si

(27) T[a1x1(n) + a2x2(n)] = a1T[x1(n)] + a2T[x2(n)]

Para cualesquiera secuencias arbitrarias de entrada x1(n) y x2(n), y cualesquiera constantes


arbitrarias a 1 y a2.

El principio de superposición expresado por la relación (27) se puede separar en dos


partes. Primera, supongamos que a 2 = 0. Entonces (27) se reduce a

(28) T[a1x1(n)] = a1 T[x1(n)] = a1y1(n)

donde y1(n) = T[x1(n)]

La relación (28) muestra la propiedad multiplicativa o de escalado de un sistema lineal. Esto es,
si la respuesta del sistema a xi(n) es y1(n), la respuesta del sistema a a1x1(n) es simplemente
a 1y1(n). Por tanto, cualquier escalado de la entrada produce un escalado igual de la salida
correspondiente.

Segunda, supongamos que a 1 = a 2 = 1 en (27). Entonces

(29) T[x1(n) + x2(n)] = T[x1(n)] + T[x2(n)] = y1(n) + y2(n)


18

Esta relación muestra la propiedad aditiva de un sistema lineal. Las propiedades aditiva y
multiplicativa definen el principio de superposición tal y como se aplica a los sistemas lineales.
La condición de linealidad expresada en (27) puede extenderse por inducción a
cualquier número de señales.

Sistemas causales y sistemas no causales. Un sistema es causal si la salida del sistema en


cualquier instante n (es decir, y(n)) depende solo de las entradas presentes y pasadas (es
decir, x(n), x(n – 1), x(n – 2),...) pero no de las futuras (es decir, x(n + 1), x(n + 2),...). En
términos matemáticos, la salida de un sistema causal verifica una ecuación de la forma y(n) =
F[x(n), x(n – 1), x(n – 2),...] donde F[⋅] es una función arbitraria. Si un sistema no satisface esta
definición se dice que es no causal. En un sistema de este tipo, la salida depende no solo de
las entradas pasadas y presentes sino también de las futuras. En un sistema en tiempo real no
se dispone de las entradas futuras de la señal y, por lo tanto, un sistema no causal no puede
ser realizado físicamente (no puede ser implementado). Por otra parte, si la señal se graba de
manera que el procesamiento no se realiza en tiempo real, es posible implementar sistemas no
causales, ya que todos los valores de la señal se encuentran disponibles en el momento del
procesamiento.

Sistemas estables frente a sistemas inestables. La estabilidad es una propiedad muy


importante que debe ser considerar en cualquier aplicación práctica de un sistema. Sistemas
inestables presentan un comportamiento errático y extremo que es causa de desbordamiento
del sistema en aplicaciones prácticas. Un sistema arbitrario en reposo se dice de entrada
acotada-salida acotada (BIBO, bounded input-bounded output), si y solo si toda entrada
acotada produce una salida acotada. Matemáticamente el acotamiento de las secuencias de
entrada y salida, x(n) e y(n), se traduce en la existencia de un par de números finitos, digamos
Mx y My, tales que |x(n)| ≤ Mx < ∞ y |y(n)| ≤ My < ∞, para todo n. Si, para alguna entrada
acotada x(n) la salida no está acotada (es infinita), el sistema se clasifica como inestable.

Análisis de sistemas discretos lineales e invariantes en el tiempo

Nos centraremos ahora en el análisis de los sistemas lineales e invariantes en el


tiempo. En concreto demostraremos que dichos sistemas quedan caracterizados en el
dominio del tiempo por su respuesta a un impulso unitario. Demostraremos también que
cualquier secuencia de entrada puede considerarse como la suma ponderada de
impulsos unitarios. Entonces, como consecuencia de las propiedades de linealidad e
invarianza en el tiempo del sistema, la respuesta del sistema a cualquier secuencia de
entrada podrá ser expresada en términos de la respuesta del sistema al impulso unitario.
Se obtendrá además la fórmula general que relaciona la respuesta al impulso unitario con las
señales de entrada y salida del sistema, conocida como convolución. Así seremos capaces de
determinar la salida de un sistema lineal e invariante en el tiempo para cualquier señal de
entrada.

Técnicas para el análisis de sistemas lineales

Existen dos métodos básicos para el análisis del comportamiento o respuesta de un


sistema lineal a una determinada señal de entrada. Un método se basa en obtener la solución
de la ecuación de entrada-salida del sistema que, en general, tiene la forma

y(n) = F[y(n – 1), y(n – 2), ..., y(n – N), x(n), x(n – 1),..., x(n – M)]

Donde F[.] representa cualquier función de las cantidades entre corchetes. En concreto, para
sistemas LTI, veremos que la forma general de la relación de entrada-salida es
N M
(30) y(n) = - ∑
k =1
a k y(n – k) + ∑
k =0
b k x(n – k)

donde {ak} y {bk } son parámetros constantes que especifican el sistema y son independientes
de x(n) e y(n). La relación de entrada-salida dada en (30) se denomina ecuación en
diferencias y representa una de las maneras de caracterizar el comportamiento de un sistema
discreto LTI.
19

El segundo método para el análisis del comportamiento de un sistema lineal ante una
determinada entrada se basa en descomponer dicha señal de entrada en señales
elementales. Las señales elementales se escogen de manera que sea fácil determinar la
respuesta del sistema a cada una de ellas. Entonces, usando la propiedad de linealidad del
sistema, se suman las respuestas del sistema a cada una de las señales elementales para
obtener la respuesta del sistema a la señal de entrada global. Este segundo método es el
descrito en esta sección.
Supongamos que la señal de entrada x(n) se expresa como la suma ponderada de
señales elementales {xk(n)}

(31) x(n) = ∑
k
ck xk(n)

donde los {ck} definen el conjunto de amplitudes (coeficientes de ponderación) de la


descomposición de la señal x(n). Supongamos ahora que la respuesta del sistema a la señal
elemental xk(n) es yk(n). Entonces

(32) yk(n) ≡ T[xk(n)]

suponiendo que el sistema está en reposo y que la respuesta a ck xk(n) es ck yk(n), como
consecuencia de la propiedad de escalado de un sistema lineal.

Finalmente, la respuesta total a la entrada x(n) es

(33) y(n) = T[x(n)] = T [ ∑k


ck xk(n)] = ∑
k
ck T [xk(n)] = ∑
k
ck yk(n)

En (33) se usa la propiedad aditiva de los sistemas lineales.

Aunque a primera vista parece que la elección de las señales elementales es


completamente arbitraria, en realidad dicha elección está fuertemente condicionada por la clase
de señales de entrada que queramos considerar. Si no se considera ninguna restricción
para las señales de entrada, entonces la descomposición de las mismas en una suma
ponderada de impulsos unitarios desplazados (impulsos) es matemáticamente
conveniente y completamente general. Por otra parte, si nos restringimos a ciertas subclases
de señales de entrada entonces otros conjuntos de señales elementales pueden ser más
convenientes, desde el punto de vista matemático, para determinar la señal de salida.

Para la descomposición de la señal de entrada en una suma ponderada de impulsos


unitarios, debemos determinar en primer lugar la respuesta del sistema a un impulso unitario y
a continuación usar las propiedades de escalado y aditiva de un sistema lineal para determinar
la fórmula de la señal a una entrada arbitraria.

Descomposición de una señal discreta en impulsos. Supongamos que tenemos una señal
arbitraria x(n) que queremos expresar como la suma de impulsos unitarios. Escogemos las
señales elementales xk(n) como xk(n) = δ (n – k) donde k representa el retraso del
impulso unitario. Para poder manejar una señal arbitraria x(n) que puede tener infinitos
valores, el conjunto de impulsos unitarios debe ser también infinito, para contener el número
infinito de desplazamientos.
Supongamos ahora que multiplicamos la secuencias x(n) y δ (n – k). Dado que δ (n – k)
es cero en todos los puntos excepto en n = k, donde vale uno, el resultado de esta
multiplicación es otra secuencia que vale cero en todos los puntos excepto en n = k donde vale
x(k), como se ilustra en la figura 2.2. Por tanto,

x(n) δ (n – k) = x(k) δ (n – k)

es una secuencia que se anula en todos los puntos excepto en n = k, donde su valor es x(k). Si
hiciésemos ahora la multiplicación de x(n) con δ (n – m), donde m es otro desplazamiento (m ≠
20

k), el resultado sería otra secuencia que es cero en todos los puntos excepto en n = m donde
valdría x(m). De aquí

x(n) δ (n – m) = x(m) δ (n – m)

En otras palabras, cada multiplicación de la señal x(n) por un impulso unitario desplazada un
cierto k, (es decir, δ (n – k)), extrae de la secuencia x(n) el valor de dicha secuencia en el punto
n = k en el que el impulso unitario vale uno, en concreto, x(k). En consecuencia, si repetimos
esta multiplicación para todos los posibles desplazamientos, - ∞ < k < ∞, y sumamos el
resultado de todas estas multiplicaciones, obtendremos una señal igual a la secuencia original
x(n), es decir,


(34) x(n) = ∑
k = −∞
x(k) δ(n – k)

La parte derecha de la ecuación (34) es la sumatoria de un número infinito de impulsos


unitarios δ(n – k) que tienen una amplitud x(k). Así, la parte derecha de la ecuación (34) nos
proporciona la descomposición de una señal arbitraria x(n) es una suma ponderada de
impulsos unitarios desplazados.

Respuesta de un sistema LTI a entradas arbitrarias: la convolución. Ahora que hemos


expresado una señal de entrada arbitraria x(n) como la suma ponderada de impulsos, estamos
preparados para determinar la respuesta de un sistema LTI en reposo a cualquier señal de
entrada. Primero, denotaremos la respuesta del sistema y(n,k) a un impulso unitario en el
instante n - k mediante el símbolo especial h(n,k), - ∞ < k < ∞. Es decir,

(35) y(n,k) ≡ h(n,k) = T[δ(n – k)]


21

En (35) observamos que n es el índice temporal y k indica la posición del impulso o instante en
que el impulso unitario es distinto de cero. Si el impulso a la entrada del sistema se escala una
cierta cantidad c k ≡ x(k), la respuesta del sistema quedará escalada por la misma cantidad, esto
es,

(36) ckh(n,k) = x(k) h(n,k)

Finalmente, si la entrada es la señal arbitraria x(n) expresada como la suma ponderada de


impulsos


(37) x(n) = ∑
k = −∞
x(k) δ(n – k)

entonces la respuesta del sistema es la correspondiente suma ponderada de respuestas a los


impulsos, es decir,

∞ ∞ ∞
(38) y(n) = T[x(n)] = T [ ∑
k = −∞
x(k) δ(n – k)] = ∑
k = −∞
x(k) T[δ(n – k)] = ∑
k = −∞
x(k) h(n,k)

Claramente (38) es consecuencia del principio de superposición de los sistemas lineales y se


conoce como sumatoria de superposición.

Destacamos que (38) es la respuesta de un sistema lineal a cualquier secuencia de


entrada x(n). Esta expresión es una función tanto de x(n) como de las respuestas h(n,k) del
sistema a los impulsos unitarios δ(n – k) con -∞ < k < ∞. Para obtener (38) se hizo uso de la
propiedad de linealidad del sistema pero no de la propiedad de invarianza en el tiempo. Por lo
tanto, la expresión (38) es aplicable a cualquier sistema lineal en reposo (variante en el tiempo).
Si además, el sistema es invariante en el tiempo, la fórmula (38) se simplifica
considerablemente. De hecho, si la respuesta del sistema al impulso unitario δ(n) se denota
h(n), esto es

h(n) ≡ T[δ(n)]

entonces, por la propiedad de invarianza en el tiempo, la respuesta del sistema al impulso


unitario desplazado δ(n – k) es

h(n – k) = T[δ(n – k)]

En consecuencia, la fórmula (38) se simplifica a


(39) y(n) = ∑
k = −∞
x(k) h(n - k)

Ahora queda claro que el sistema LTI en reposo queda totalmente caracterizado por la función
h(n), es decir, su respuesta al impulso unitario δ(n). Por el contrario, la caracterización de la
salida de un sistema lineal variante en el tiempo exige el conocimiento de infinitas funciones de
respuesta a los impulsos unitarios desplazados, en concreto una por cada posible valor de
desplazamiento, h(n,k).
La fórmula (39) que da la respuesta y(n) del sistema LTI como función de la señal de
entrada x(n) y de la respuesta impulsional h(n) se denomina convolución. Diremos que la
entrada x(n) se convoluciona con la respuesta impulsional h(n) para producir la salida y(n).

Sistemas con respuesta impulsional de duración finita e infinita

Hasta este punto hemos caracterizado los sistemas lineales e invariantes en el tiempo
por medio de su respuesta impulsional h(n). Es conveniente, sin embargo, subdividir los
sistemas lineales invariantes en el tiempo en aquellos que tienen una repuesta impulsional de
22

duración finita (FIR, finite-duration impulse response) y los que tienen una respuesta
impulsional de duración infinita (IIR, infinite-duration impulse response). Así, pues, un
sistema FIR tiene una respuesta impulsional que es cero fuera de un determinado intervalo
finito. Sin pérdida de generalidad, centraremos nuestra atención en sistemas causales FIR
tales que

h(n) = 0 n<0yn≥M

La convolución para este tipo de sistemas se simplifica según

M −1
y(n) = ∑
k =0
h(k) x(n – k)

Esta expresión indica que la salida en cualquier instante n se obtiene como la suma ponderada
de las siguientes muestras de la señal de entrada: x(n), x(n – 1),...,x(n – M + 1). En otras
palabras, el sistema simplemente pondera, mediante los valores de la respuesta impulsional
h(k), k = 0, 1, ..., M – 1, las M muestras más reciente de la señal de entrada y suma los M
productos resultantes. El sistema se comporta como una ventana que solo permite ver las
M muestras más recientes de la señal de entrada a la hora de calcular la salida. Desprecia
todas las muestras anteriores, es decir, x(n – M), x(n – M – 1),... Por tanto, decimos que un
sistema FIR tiene una memoria finita de M muestras. Por el contrario, un sistema lineal
invariante en el tiempo IIR tiene una respuesta impulsional de duración infinita. Su salida,
según la fórmula de la convolución es


y(n) = ∑
k =0
h(k) x(n – k)

donde se ha supuesto causalidad, aunque no es necesario. En este caso la salida del sistema
consiste en la combinación lineal ponderada (por la respuesta impulsional h(k)) de las muestras
de la señal de entrada, x(n), x(n-1), x(n-2),... Dado que esta suma ponderada contiene la
muestra presente y todas las pasadas de la señal de entrada, decimos que el sistema tiene
memoria infinita.

Correlación de señales discretas. Una operación matemática muy parecida a la convolución


es la correlación. Al igual que en el caso de la convolución, la correlación es una operación
entre dos secuencias. Pero al contrario que la convolución, el objetivo de la correlación es
medir el parecido que existe entre dos señales, y así extraer información que dependerá de la
aplicación concreta considerada. La correlación de señales es una operación que se realiza
con frecuencia en distintas áreas de la ingeniería y la ciencia. En comunicaciones digitales la
información que se va a transmitir de un punto a otro se convierte a forma binaria, es decir, se
transforma en una secuencia de unos y ceros que es transmitida hacia el receptor. Para
transmitir un 0 podemos enviar una secuencia x0(n) para 0 ≤ n ≤ L – 1, y para transmitir un 1 la
secuencia x1(n) para 0 ≤ n ≤ L – 1, donde L es un entero que indica el número de muestras en
cada una de las dos secuencias. Muy a menudo, se selecciona x1(n) como el valor negativo de
x0(n). La señal recibida por el receptor se puede representar como

y(n) = xi(n) + w(n) i = 0, 1 0≤n≤L–1

donde ahora lo que hay que determinar es si es x0(n) o x1(n) la señal contenida en y(n), y w(n)
representa el ruido aditivo y otras interferencias propias de cualquier sistema de comunicación.
Otra vez, parte del ruido tiene su origen en los distintos componentes del receptor. En cualquier
caso, el receptor conoce las dos posibles secuencias transmitidas x 0(n) y x1(n) y su tarea
consiste en compararlas con la señal recibida y(n) para determinar cuál de las dos se parece
más a esta. Esta comparación se realiza mediante la correlación.
Supóngase que tenemos dos secuencias reales x(n) e y(n), ambas de energía finita. La
correlación cruzada de las secuencias x(n) e y(n) es la secuencia rxy(l), que se define como
23


(40) rxy(l) = ∑
n = −∞
x(n) y(n – l) l = 0, ± 1, ± 2,...

o equivalentemente, como


rxy(l) = ∑
n = −∞
x(n + l) y(n) l = 0, ± 1, ± 2,...

El índice l es el parámetro de desplazamiento o retardo en el tiempo y los subíndices xy de


la secuencia de autocorrelación r xy(l) indican las señales que han sido correlacionadas. El
orden de los subíndices, con x precediendo a y indica la dirección en que una secuencia es
desplazada con respecto a la otra. Es decir, la secuencia x(n) no se desplaza y la secuencia
y(n) se desplaza l muestras hacia la derecha si l es positivo y l muestras hacia la izquierda si l
es negativo.
Las similitudes entre el cálculo de la correlación cruzada y la convolución de dos
secuencias son evidentes. En el cálculo de la convolución, una de las señales se refleja, se
desplaza y entonces se multiplica por la otra secuencia; finalmente se suman todos los valores
de la secuencia producto. Con excepción de la operación de reflexión, el cálculo de la
correlación cruzada supone exactamente las mismas operaciones: desplazamiento de una de
las secuencias, multiplicación de ambas y suma de todos los términos de la secuencia
producto. En definitiva, si tenemos un programa para el cálculo de la convolución, podemos
usarlo para obtener la correlación cruzada proporcionando como entrada x(n) y la secuencia
reflejada y(- n).
En el caso especial de que y(n) = x(n), tenemos la autocorrelación de x(n), que se
define como la secuencia


rxy(l) = ∑
n = −∞
x(n) x(n – l)

5.2 Transformaciones continuas de la frecuencia

La transformada de Fourier es una de las diferentes herramientas útiles en el análisis


y diseño de sistemas LTI. Otras son las series de Fourier. Estas representaciones de señales
implican básicamente la descomposición de las mismas en términos de componentes
sinusoidales (o exponenciales complejas). Con esta descomposición, se dice que una señal
está representada en el dominio de la frecuencia.

La mayor parte de las señales de interés práctico se pueden descomponer en la


suma de componentes sinusoidales. Para la clase de señales periódicas esta
descomposición se denomina una serie de Fourier. Para la clase de señales de energía
finita, la descomposición se denomina transformada de Fourier. Ambas descomposiciones
son extremadamente importantes en el análisis de sistemas LTI porque la respuesta de un
sistema LTI a una señal de entrada sinusoidal es una sinusoide de la misma frecuencia pero de
diferente amplitud y fase. Además, la propiedad de linealidad de los sistemas LTI implica que la
suma lineal de componentes sinusoidales a la entrada produce una suma similar de
componentes sinusoidales a la salida, que difieren únicamente en las amplitudes y fases de las
sinusoides de la entrada. Este comportamiento característico de los sistemas LTI hace que la
descomposición sinusoidal de señales sea muy importante. Aunque son posibles muchas otras
descomposiciones, solo la clase de señales sinusoidales (o exponenciales complejas) posee
esta interesante propiedad al pasar a través de un sistema LTI.

Análisis frecuencial de señales en tiempo continuo

El análisis frecuencial de una señal conlleva la separación de la señal en sus


componentes (sinusoidales) frecuenciales. Un ejemplo de análisis frecuencial es la utilización
de un prisma para descomponer la luz solar en los colores del arco iris. Las formas de onda
que nos interesa son básicamente funciones temporales. El papel del prisma es desempeñado
por las herramientas de análisis de Fourier que desarrollaremos: las series de Fourier y la
transformada de Fourier. La recombinación de los componentes sinusoidales para reconstruir la
señal original es básicamente un problema de síntesis de Fourier. Si descomponemos una
24

forma de onda en sus componentes sinusoidales, de forma similar a como un prisma separa la
luz blanca en sus diferentes colores, la suma de estas componentes sinusoidales resulta en la
forma de onda original. Por otra parte, si alguna de estas componentes desaparece, el
resultado es una señal diferente.

El objetivo básico al desarrollar herramientas de análisis frecuencial es proporcionar


una representación matemática y pictórica de las componentes frecuenciales contenidas en
una cierta señal. Como en la Física, el término espectro se emplea al referirse al contenido en
frecuencia de una señal. El proceso de obtención del espectro de una señal dada, usando las
herramientas matemáticas básicas, se conoce como análisis frecuencial o espectral. A su
vez, el proceso de determinación del espectro de una señal en la práctica, basado en
mediciones reales de la señal, se denomina estimación espectral. Esta distinción es muy
importante. En un problema práctico, la señal que está siendo analizada no conduce a una
descripción matemática exacta. La señal puede ser portadora de cierta información que
intentamos extraer. Si esta información que deseamos extraer se puede obtener directa o
indirectamente a partir del contenido espectral de la señal, hacemos estimación espectral sobre
la señal que porta la información y así obtenemos una estimación del espectro de la señal.
Podemos ver la estimación espectral como un tipo de análisis espectral realizado sobre señales
obtenidas de fuentes físicas (p. ej. voz, EEG, ECG, etc.). Los instrumentos o programas de
software empleados para obtener estimaciones espectrales de tales señales se conocen como
analizadores espectrales.

Series de Fourier para señales periódicas en tiempo continuo

Ejemplos de señales periódicas encontradas en la práctica son las ondas cuadradas,


rectangulares, triangulares y, por supuesto, las sinusoides y exponenciales complejas. La
representación matemática básica de las señales periódicas es la serie de Fourier, que
es una suma ponderada de sinusoides relacionadas armónicamente.

Una combinación lineal de exponenciales complejas armónicamente relacionadas de la


forma


(41) x(t) = ∑
k = −∞
cke
j2πkF0t

es una señal periódica de periodo fundamental Tp = 1/F0. Así pues, podemos considerar las
señales exponenciales ej2πkF0t como los “bloques” básicos a partir de los cuales podemos
construir señales periódicas de diferentes tipos mediante la elección adecuada de la frecuencia
y de los coeficientes {ck }. F0 determina el periodo fundamental de x(t) y los coeficientes {ck}
especifican la forma de la onda.

Una señal periódica tiene energía infinita y potencia media finita dada por

(42)
25

A partir de (42) se puede establecer la relación

(43)

que se denomina relación de Parseval para señales de potencia. Para ilustrar el significado
físico de (43), supongamos que x(t) es una exponencial compleja simple
j2πkF0t
(44) x(t) = cke

En este caso, todos los coeficientes de la serie de Fourier excepto ck son cero. En
consecuencia, la potencia media de la señal es

Px = |ck |2
2
Es obvio que |ck| representa la potencia del armónico k-ésimo de la señal. Así, pues, la
potencia media total de la señal periódica es la suma de las potencias medias de sus
armónicos.

Si dibujamos |ck| en función de las frecuencias kF0, k = 0, ±1, ±2,..., el diagrama que
2

obtenemos muestra cómo se reparte la potencia de la señal periódica entre sus distintas
componentes en frecuencia. Este diagrama, que se muestra en la fig. 4.2, se denomina
densidad espectral de potencia (también espectro de la densidad de potencia o siplemente
espectro de potencia) de la señal periódica x(t). Dado que la potencia de una señal periódica
existe solo para determinados valores discretos de frecuencia (es decir, F = 0, ±F0, ±2F0,...), se
dice que la señal tiene un espectro formado por líneas. El espaciado entre dos líneas
espectrales consecutivas es igual al inverso del periodo fundamental Tp, mientras que la forma
del espectro (es decir, la distribución de potencia de la señal), depende de las características
de la señal en el dominio del tiempo.

Ejemplo. Determinar la serie de Fourier y la densidad espectral de potencia del tren de pulsos
rectangulares de la fig. 4.3.
26

La señal es periódica con periodo fundamental Tp. Podemos representar la señal con
la serie de Fourier definida antes y con los coeficientes de Fourier ya especificados. Como x(t)
es una señal par, es conveniente seleccionar el intervalo de integración de –Tp/2 a Tp/2. c0 es
entonces

(45)

El término c0 representa el valor medio (componente de continua) de la señal x(t). Para k ≠ 0


tenemos

(46)

El término de la derecha en (46) es de la forma (sen φ)/φ, con φ = πkF0τ. En este caso φ toma
valores discretos ya que F 0 y τ son fijos y el índice k varía. Si embargo, si representamos (sen
φ)/φ con φ un parámetro continuo en el rango -∞ < φ < ∞, obtenemos el gráfico de la figura 4.4.
Observamos que esta función decae hasta cero cuando φ → ±∞, tiene un máximo de valor
unidad en φ = 0, y es cero para múltiplos de π. Está claro que los coeficientes de Fourier dados
por (46) son las muestras de la función (sen φ)/φ para φ = πkF0τ y están escaladas en amplitud
por Aτ/Tp.

Cuando la función periódica x(t) es par, los coeficientes de Fourier ck son reales. Por lo
tanto, el espectro de fase, o bien es cero, cuando ck es positivo, o π cuando ck es negativo. En
lugar de representar la magnitud y la fase por separado, podemos simplemente representar {ck}
27

en una única gráfica, en la que se muestran los valores positivos y negativos de c k. Esta es
práctica habitual cuando los coeficientes de Fourier {c k} son reales.

La figura 4.5 ilustra los coeficientes de Fourier del tren de pulsos rectangulares cuando
Tp es fijo y la anchura del pulso τ varía. En este caso Tp = 0.25 segundos, de modo que F 0 =
1/Tp = 4 Hz y τ = 0.05Tp, τ = 0.1Tp, y τ = 0.2Tp. Observamos que el efecto de disminuir τ
manteniendo fijo Tp es dispersar la potencia de la señal sobre el rango de frecuencias. El
espaciado entre líneas espectrales adyacentes es F0 = 4 Hz, independiente del valor de la
anchura del pulso τ.

Por otro lado, también es instructivo fijar τ y variar el periodo Tp cuando Tp > τ. La
figura 4.6 ilustra esta condición cuando Tp = 5τ, Tp = 10τ, y Tp = 20τ. En este caso el
espaciado entre líneas espectrales adyacentes decrece a medida que Tp aumenta. En el límite
cuando Tp → ∞, los coeficientes de Fourier ck tienden a cero debido al factor de Tp en el
denominador de (46). Este comportamiento es consistente con que si Tp → ∞ y τ permanece
fijo, la señal resultante ya no es una señal de potencia. En su lugar, se convierte en una señal
de energía y su potencia media es cero.

Si k ≠ 0 y sen(πkF0τ) = 0, entonces ck = 0. Los armónicos con potencia cero aparecen


en frecuencias kF0 tales que π(kF0)τ = mπ, m = ±1, ±2,..., o en kF0 = m/τ: Por ejemplo, si F0 =
4Hz y τ = 0.2Tp, se deduce que las componentes en ±20 Hz, ±40 Hz, ... tienen potencia cero.
Estas frecuencias corresponden a los coeficientes de Fourier ck, k = ±5, ±10, ±15,... Por otra
parte, si τ = 0.1Tp, las componentes espectrales con potencia cero son k = ±10, ±20, ±30,...
28

Las series de Fourier representan una señal periódica como combinación lineal de
exponenciales complejas armónicamente relacionadas. Como consecuencia de la periodicidad,
estas señales tienen un espectro formado por líneas equidistantes. El espaciado entre líneas
es igual a la frecuencia fundamental, que a su vez es la inversa del período fundamental de la
señal. Se puede ver el periodo fundamental como el parámetro que determina el número de
líneas por unidad de frecuencia (densidad de líneas) como se muestra en la figura 4.6.

La transformada de Fourier para señales aperiódicas en tiempo continuo

Como consecuencia de la periodicidad de las señales periódicas, estas poseen un


espectro formado por líneas equidistantes. El espaciado entre líneas es igual a la frecuencia
fundamental, que a su vez es la inversa del período fundamental de la señal. Podemos ver el
período fundamental como el parámetro que determina el número de líneas por unidad de
frecuencia (densidad de líneas), como se muestra en la figura 4.6.
Con esta interpretación en mente, es evidente que si permitimos que el período
aumente sin límite, el espaciado entre líneas tiende a cero. En el límite, cuando el periodo se
hace infinito, la señal se hace aperiódica y su espectro es continuo. Este argumento sugiere
que el espectro de una señal aperiódica será la envolvente del espectro formado por las líneas
correspondientes a la señal periódica obtenida al repetir la señal aperiódica con algún periodo
Tp.
29

Es evidente que la diferencia entre la serie de Fourier y la transformada de Fourier es


que el espectro es continuo en el segundo caso y, por tanto, la síntesis de una señal aperiódica
a partir de su espectro se lleva a cabo con una integración en lugar de una suma.

Densidad espectral de energía de señales aperiódicas

Sea x(t) una señal de energía finita con transformada de Fourier X(F). Su energía es

La relación de Parseval para señales aperiódicas de energía finita es

(47)

y expresa el principio de conservación de la energía en los dominios del tiempo y la frecuencia.


El espectro X(F) de una señal es, en general, complejo. En consecuencia, suele
expresa en forma polar. Por otra parte, la cantidad

(48) Sxx(F) = |X(F)|2

que es el integrando de (47), representa la distribución de energía de la señal en función de la


frecuencia. De aquí que Sxx(F) se denomine densidad espectral de energía de x(t). La integral
de Sxx(F) sobre todas las frecuencias nos da la energía total de la señal. De otra forma, la
energía de la señal x(t) sobre una banda de frecuencias F1 ≤ F ≤ F 1 + ∆F es

En (48) vemos que Sxx(F) no contiene información sobre la fase, es decir, Sxx(F) es
estrictamente real y no negativo. Dado que el espectro de fase de x(t) no se encuentra en
Sxx(F) es imposible reconstruir la señal dada Sxx(F).
30
31

Análisis frecuencial de señales en tiempo discreto

La representación en series de Fourier de una señal periódica en tiempo continuo


puede tener infinitas componentes en frecuencia, donde la separación en frecuencia de dos
componentes armónicas sucesivas es 1/Tp, y donde Tp es el periodo fundamental. Dado que el
rango de frecuencias de señales en tiempo continuo se extiende desde - ∞ a ∞, es posible
tener señales con infinitas componentes en frecuencia. Por el contrario, el rango de frecuencias
de señales en tiempo discreto se limita al intervalo (- π,π) o (0, 2π). Una señal en tiempo
discreto de periodo fundamental N puede tener componentes en frecuencias separadas 2π/N
radianes o f = 1/N ciclos. Consecuentemente, la representación en series de Fourier de señales
periódicas en tiempo discreto contendrá como máximo N componentes de frecuencia. Esta es
la diferencia fundamental entre la representación en series de Fourier de señales en tiempo
continuo y señales en tiempo discreto.

Ejemplos:

Determinar el espectro de las señales:

a) x(n) = cos 2 πn. Para ω0 = 2 π tenemos f0 = 1/ 2 . Dado que f0 no es un número


racional, la señal no es periódica. En consecuencia, esta señal no puede expandirse
en series de Fourier. De todas maneras, la señal posee un espectro. Su contenido
espectral consta de una única componente de frecuencia en ω = ω0 = 2 π.

b) x(n) = cos πn/3

c) x(n) es periódica de periodo N = 4 y x(n)= {1, 1,0,0}


32

Densidad espectral de potencia de señales periódicas

La potencia media de una señal periódica en tiempo discreto con periodo N es

La siguiente es la expresión para Px en términos de los coeficientes de Fourier {ck }:

(49)

Así, la potencia media de la señal es la suma de las potencias medias de las componentes
individuales en frecuencia. (49) es la relación de Parseval para señales periódicas en tiempo
2
discreto. La secuencia |ck | para k = 0,1,...,N – 1 es la distribución de potencia en función de la
frecuencia y se denomina densidad espectral de potencia de una señal periódica.
33

Transformada de Fourier de señales aperiódicas en tiempo discreto

Como en el caso de señales aperiódicas en tiempo continuo, el análisis frecuencias de


señales de energía finita aperiódicas en tiempo discreto implica una transformada de Fourier de
la señal en el dominio del tiempo.
La transformada de Fourier de una señal de energía finita en tiempo discreto x(n) se
define como


(47) X(ω) = ∑
n = −∞
x(n) e-jωn

Físicamente X(ω) representa el contenido en frecuencia de x(n). En otras palabras, X(ω ω) es


una descomposición de x(n) en sus componentes en frecuencia.
Observamos dos diferencias básicas entre la transformada de Fourier de una señal
de energía finita en tiempo discreto y la transformada de Fourier de una señal de energía finita
analógica. Primero, para el caso de tiempo continuo, la transformada de Fourier, y por tanto, el
espectro de la señal, tiene un rango en frecuencia que va desde -∞ a ∞- Por el contrario, el
rango de frecuencias de una señal en tiempo discreto es (- π,π) o, equivalentemente (0, 2π).
Esta propiedad se refleja en la transformada de Fourier de la señal. De hecho, X(ω) es
periódica de período 2π. La segunda diferencia básica es también consecuencia de la
naturaleza discreta de la señal. Dado que la señal es en tiempo discreto, la transformada de
Fourier de la señal implica una sumatoria en lugar de una integral, como ocurre en el caso de
señales de tiempo continuo.
Dado que X(ω) es una función periódica de la variable frecuencia ω, puede expandirse
en series de Fourier siempre y cuando se verifiquen las condiciones descritas anteriormente.
De hecho, de la definición de la transformada de Fourier X(ω) de la secuencia x(n), dada en
34

(42), tenemos que X(ω) tiene la forma de una serie de Fourier. Los coeficientes de Fourier de
esta serie son los valores de la secuencia x(n).

Densidad espectral de energía de señales periódicas

La siguiente es la relación de Parseval para señales aperiódicas de energía finita en


tiempo discreto:

El espectro X(ω) es, en general, una función compleja de la frecuencia. Como en el caso de
señales en tiempo continuo, la cantidad

Sxx(ω) = |X(ω)|2

representa la distribución de energía en función de la frecuencia y se denomina densidad


espectral de energía de x(n). Claramente, Sxx(ω) no contiene ninguna información de fase.
35

La transformada z

Las técnicas de transformación constituyen una importante herramienta en el análisis


de señales y sistemas lineales e invariantes en el tiempo (LTI). La transformada z representa el
mismo papel en el análisis de señales y sistemas discretos LTI que la transformada de Laplace
36

en el análisis de señales y sistemas continuos LTI. Por ejemplo, veremos que en el dominio z
(plano z complejo), la convolución de dos señales en el dominio del tiempo se corresponde con
la multiplicación de sus transformadas z. Esta propiedad simplifica enormemente el análisis de
la respuesta de un sistema LTI a diferentes señales. Además, la transformada z nos
proporciona una manera de caracterizar sistemas LTI y sus respuestas a varias señales
mediante la localización de sus polos y ceros.

La transformada z de una señal discreta x(n) se define como la serie de potencias



(48) X(z) ≡ ∑
k = −∞
-n
x(n) z

Donde z es una variable compleja. La relación (48) se denomina a veces transformada z


directa porque transforma una señal en el dominio del tiempo x(n) en la señal compleja X(z). El
procedimiento inverso, es decir, el que obtiene x(n) a partir de X(z), se denomina transformada
z inversa.
Por conveniencia, la transformada z de una señal x(n) se denota por

(49) X(z) ≡ Z{x(n)}

Mientras que la relación entre x(n) y X(z) se indica mediante

x(n) ← z → X(z)

Dado que la transformada z es una serie infinita de potencias, existe solo para aquellos
valores de z para los que la serie converge. La región de convergencia (ROC, region of
convergence) de X(z) es el conjunto de todos los valores de z para los que X(z) es finita. Por lo
tanto, siempre que hablemos de una transformada z debemos indicar también su ROC.

Se ve fácilmente que la ROC de señales de duración finita es todo el plano z, excepto


quizás z = 0 y/o z = ∞. Estos puntos quedan excluidos porque zk (k > 0) no está acotada para z
= ∞ y z (k > 0) no está acotada para z = 0.
--k

Por ejemplo, la transformada z de la señal x1(n) = {1,2,5,7,0,1} es X1(z) = 1 + 2z-1 + 5


z + 7z + z-5, ROC: plano z completo excepto z = 0. La transformada de x2(n) = {1,2,5,7,0,1}
-2 -3

es X2(z) = z2 + 2z + 5 + 7z -1 + z-3, ROC: plano z completo excepto z = 0 y z = ∞. En esos


ejemplos se ve que la ROC de señales de duración finita es todo el plano z, excepto quizás z =
0 y/o z = ∞. Estos puntos quedan excluidos porque zk (k > 0) no está acotada para z = ∞ y z-k (k
> 0) no está acotada para z = 0.

Desde un punto de vista matemático, la transformada z es simplemente una forma


alternativa de representar una señal. Esto queda ilustrado en los ejemplos anteriores donde
vemos que el coeficiente de z -n, para una transformada determinada, es el valor de la señal en
el instante n. En otras palabras, el exponente de z contiene la información que necesitamos
para identificar las muestras de la señal.
En muchos casos la suma, finita o infinita, correspondiente a una transformada z puede
expresarse de forma compacta. En estos casos, la transformada z produce una representación
alternativa y compacta de la señal.
37

A menudo, tenemos la transformada z de una señal y queremos determinar la señal. El


procedimiento para transformar desde el dominio z al dominio del tiempo se denomina
transformada z inversa. La fórmula para obtener x(n) a partir de X(z) se puede obtener usando
el teorema integral de Cauchy, que es un teorema muy importante dentro de la teoría de
variable compleja.

La transformada z es una herramienta muy potente para el estudio de señales y


sistemas discretos. La potencia de esta transformación es consecuencia de algunas
propiedades muy importantes que tiene: linealidad, desplazamiento en el tiempo, escalado en
el dominio z, convolución de dos secuencias, correlación de dos secuencias, multiplicación de
dos secuencias, etcétera.
38
39

Una familia muy importante de transformada z es aquella en la que X(z) es una función
racional, esto es, el cociente de dos polinomios en z-1 (o z) (todos los ejemplos de la tabla 3.3
son de este tipo).

La función de transferencia de un sistema lineal invariante en el tiempo

La salida de un sistema lineal invariante en el tiempo para una secuencia de entrada


x(n) se puede obtener como la convolución de esa secuencia de entrada x(n) con la respuesta
impulsional del sistema. La propiedad de la convolución, nos permite expresar esta relación en
el dominio z como

(50) Y(z) = H(z) X(z)

Donde Y(z) es la transformada z de la secuencia de salida y(n), X(z) es la transformada z de la


secuencia de entrada x(n) y H(z) es la transformada z de la respuesta impulsional h(n).

Clasificación de señales en el dominio de la frecuencia: El concepto de ancho de banda

Es interesante clasificar las señales, dependiendo de sus características en el dominio


del tiempo, según sus características en el dominio de la frecuencia. Es práctica habitual
clasificar las señales en términos relativamente amplios atendiendo a su contenido frecuencial.

En particular, si una señal de potencia (o señal de energía) tiene una densidad


espectral de potencia (o densidad espectral de energía) concentrada en torno a la frecuencia
cero, se denomina señal de baja frecuencia. La Figura 4.25(a) ilustra las características
espectrales de una señal de este tipo. En cambio, si la densidad espectral de potencia (o
densidad espectral de energía) está concentrado en altas frecuencias, se dice que la señal es
de alta frecuencia. Las características espectrales de este tipo de señal se representan en la
Fig. 4.25(b). Una señal que tienen la densidad espectral de potencia (o densidad espectral de
40

energía) concentrada en alguna otra parte del rango de frecuencias situado entre las altas y las
bajas, se denomina se denomina señal de frecuencias medias o señal paso banda. En la Fig.
4.25(c) se ilustra un espectro de este tipo.

Además de esta clasificación relativamente amplia de las señales en el dominio de la


frecuencia, es a menudo deseable expresar de forma cuantitativa el rango de frecuencias sobre
el que se concentra la densidad espectral de potencia o energía. Esta medida cuantitativa se
conoce como ancho de banda de una señal. Por ejemplo, supóngase que una señal en
tiempo continuo tiene el 95% de su densidad espectral de potencia (o energía) concentrada en
el rango de frecuencias F1 ≤ F ≤ F 2. Entonces el ancho de banda del 95% de la señal es F2 –
F 1. De una forma similar, se puede definir el ancho de banda del 75%, 90% o 99% de la señal.

En el caso de una señal paso banda, el término banda estrecha se usa para describir
aquella señal cuyo ancho de banda F2 – F 1 es mucho menor (digamos que por un factor de 10
o más) que la frecuencia central (F 2 + F1)/2. En caso contrario, la señal se dice de banda
ancha.

Diremos que una señal es de banda limitada si su espectro es cero fuera del rango de
frecuencias |F| ≥ B. Por ejemplo, una señal en tiempo continuo de energía finita x(t) es de
banda limitada si su transformada de Fourier cumple que X(F) = 0 para |F| > B. Una señal en
tiempo discreto de energía finita x(n) se dice de banda limitada (periódicamente) si
41

|X(ω)| = 0 para ω0 < |ω| < π

De forma similar, una señal periódica en tiempo continuo xp(t) es limitada en banda
periódicamente si sus coeficientes de Fourier son tales que ck = 0 para |k| < M, donde M es
algún entero positivo. Una señal periódica en tiempo discreto con período fundamental N está
limitada en banda periódicamente si sus coeficientes de Fourier cumplen que ck = 0 para k0 <
|k| < N. La figura 4.26 ilustra los cuatro tipos de señales de banda limitada.

Utilizando la dualidad entre el dominio de la frecuencia y el del tiempo, se pueden dar


formas similares para caracterizar las señales en el dominio temporal. En particular, una señal
x(t) se denomina limitada en tiempo si x(t) = 0, |t| > τ. Si la señal es periódica con periodo Tp,
se dirá limitada en tiempo periódicamente si

xp(t) = 0 τ < |t| < Tp/2

Si tenemos una señal discreta x(n) de duración finita, esto es,

x(n) = 0 |n| > N

También se denomina limitada en tiempo. Cuando la señal es periódica con periodo


fundamental N, se dice que es limitada en tiempo periódicamente si

x(n) = 0 n0 < |n| < N

Ninguna señal puede ser limitada en tiempo y en banda simultáneamente, existiendo


una relación recíproca entre la duración temporal y frecuencial de una señal. Por ejemplo, si
tenemos un pulso rectangular de duración corta en el dominio temporal, su espectro tendrá una
anchura inversamente proporcional a la duración del pulso en el dominio del tiempo. Cuanto
más estrecho es el pulso en el dominio del tiempo, mayor es su ancho de banda. En
consecuencia. El producto de la duración temporal y el ancho de banda de una señal no se
puede hacer arbitrariamente pequeño. Una señal de corta duración tendrá un gran ancho de
banda, y una señal de ancho de banda pequeño será de duración larga. Por tanto, para
cualquier señal, el producto tiempo-ancho de banda es fijo y no se puede hacer arbitrariamente
pequeño.

Hacemos notar que discutimos métodos para el análisis de señales periódicas y


aperiódicas de energía finita. Existe, no obstante, una familia de señales aperiódicas
deterministas con potencia finita. Estas señales consisten en una superposición lineal de
exponenciales complejas con frecuencias que no están relacionadas armónicamente, esto es,
42

donde ω1, ω2,..., ωM no están armónicamente relacionadas. Estas señales tienen espectros
discretos pero las distancias entre las líneas no están armónicamente relacionadas. Las
señales con espectros discretos no armónicos se denominan en ocasiones cuasi periódicas.

Dualidades físicas y matemáticas

Resumiendo, se presentaron las siguientes herramientas de análisis frecuencial:

1. Las series de Fourier para señales periódicas en tiempo continuo.


2. La transformada de Fourier de señales aperiódicas en tiempo continuo.
3. Las series de Fourier para señales periódicas en tiempo discreto.
4. La transformada de Fourier de señales aperiódicas en tiempo discreto.

La siguiente figura resume las fórmulas de análisis y síntesis para este tipo de señales.
43

Resumen de las fórmulas de análisis y síntesis


44

Existen dos características en el dominio del tiempo que determinan el tipo de espectro
que obtendremos. Estas son si el tiempo es discreto o continuo y si la señal es periódica o
aperiódica. En resumen:

Las señales en tiempo continuo tienen espectros aperiódicos. Un examen detallado de las
fórmulas de análisis de las series de Fourier y de la transformada de Fourier para señales en
tiempo continuo no revela la existencia de ningún tipo de periodicidad en el dominio del
espectro. Esta falta de periodicidad es consecuencia de que la función exponencial exp(j2πFt)
sea una función de la variable continua t, y, por lo tanto, no periódica en F. Así, el rango de
frecuencias de señales en tiempo continuo se extiende desde F = 0 hasta F = ∞.

Las señales en tiempo discreto tienen un espectro periódico. Tanto las series de Fourier
como la transformada de Fourier de señales en tiempo discreto son periódicas de periodo ω =
2π. Como resultado de esta periodicidad, el rango de frecuencias de señales en tiempo discreto
es finito y se extiende desde ω = -π hasta ω = π radianes, donde ω = π corresponde a la mayor
oscilación posible.

Las señales periódicas tienen espectros discretos. Las señales periódicas se describen
mediante series de Fourier. Los coeficientes de la serie de Fourier representan las “líneas” del
espectro discreto. El espaciado entre líneas ∆F o ∆f es igual al inverso del periodo Tp o N,
respectivamente, en el dominio del tiempo. Esto es, ∆F = 1/Tp para señales periódicas en
tiempo continuo y ∆f = 1/N para señales en tiempo discreto.

Las señales aperiódicas de energía finita tienen espectros continuos. Esta propiedad es
consecuencia directa del hecho de que tanto X(F) como X(ω) sean funciones de exp(j2πFt) y
exp(jωn), respectivamente, que son funciones continuas de las variables F y ω. La continuidad
en frecuencia es necesaria para romper la armonía y originar las señales aperiódicas.
En resumen, podemos concluir que periodicidad con periodo α en un dominio
automáticamente implica discretización en el otro dominio con “espaciado” 1/α y viceversa.
Si mantenemos que “periodo” en el dominio de la frecuencia indica el rango de
frecuencias, “espaciado” en el dominio del tiempo es el periodo de muestreo T y, el espacio
entre líneas en el dominio de la frecuencia es ∆F, entonces α = Tp implica que 1/α = 1/Tp = ∆F,
α = N implica que ∆f = 1/N, y α = Fs implica que T = 1/Fs.

Estas dualidades tiempo-frecuencia se muestran en la figura anterior. Sin embargo, las


gráficas de esta figura no se corresponden con ningún par de transformadas real. Por lo tanto,
debe evitarse cualquier comparación entre ellas.

Un análisis cuidadoso de la figura de más arriba revela la existencia también de


algunas simetrías y dualidades matemáticas entre las distintas relaciones de análisis en
frecuencia. En particular, se observa que existen dualidades entre las siguientes ecuaciones de
análisis y síntesis:

1. Las ecuaciones de análisis y síntesis de la transformada de Fourier en tiempo continuo.


2. Las ecuaciones de análisis y síntesis de las series de Fourier en tiempo discreto.
3. La ecuación de análisis de la serie de Fourier en tiempo continuo y la ecuación de
síntesis de la transformada de Fourier en tiempo discreto.
4. La ecuación de análisis de la transformada de Fourier en tiempo discreto y la ecuación
de síntesis de la serie de Fourier en tiempo continuo.

Obsérvese que todas las relaciones duales se diferencian únicamente en el signo de la


exponencial compleja. Es interesante destacar que este cambio en el signo puede
considerarse tanto un plegado en el tiempo como en la frecuencia, ya que

Recordamos que utilizamos el término densidad espectral de energía para caracterizar


señales aperiódicas de energía finita y el término densidad espectral de potencia para señales
45

periódicas. Esta terminología es consistente con el hecho de que las señales periódicas son
señales de potencia y las señales aperiódicas de energía finita son señales de energía.

Propiedades de la transformada de Fourier de señales en tiempo discreto

La transformada de Fourier de señales aperiódicas de energía finita en tiempo discreto


poseen varias propiedades que resultan muy útiles a la hora de reducir la complejidad del
análisis frecuencial que surge en numerosos problemas prácticos. Propiedades similares se
verifican para la transformada de Fourier de señales aperiódicas de energía finita en tiempo
continuo.

5.3 Transformadas discretas de la frecuencia

Para realizar el análisis frecuencial de una señal en tiempo discreto {x(n)}, convertimos
la secuencia en el dominio del tiempo en una forma equivalente, en el dominio de la frecuencia.
Sabemos que tal forma viene dada por la transformada de Fourier, X(ω), de la secuencia {x(n)}.
Sin embargo, X(ω) es una función continua de la frecuencia y, por lo tanto, no es una forma
computacionalmente conveniente de la secuencia {x(n)}.

Consideraremos la representación de una secuencia {x(n)} mediante muestras de su


espectro X(ω). Dicha representación en el dominio de la frecuencia nos lleva a la transformada
46

de Fourier discreta (DFT), que constituye una poderosa herramienta para el análisis
frecuencias de señales en tiempo discreto.

Muestreo en el dominio de la frecuencia: la transformada de Fourier discreta

Las señales aperiódicas de energía finita tienen espectros continuos. Consideremos


dicha señal aperiódica en tiempo discreto x(n), con frecuencia de Fourier


(51) X(ω) = ∑
n = −∞
-jωn
x(n) e

Supongamos que muestreamos X(ω) periódicamente con un espaciado en frecuencia δω


radianes entre muestras sucesivas. Dado que X(ω) es periódica de periodo 2π, solo
necesitaremos las muestras del periodo fundamental. Por conveniencia, tomaremos N
muestras equidistantes en el intervalo 0 ≤ ω ≤ 2π, espaciadas δω = 2π/N, como se muestra en
la figura 5.1.

La señal

(52)

obtenida repitiendo periódicamente x(n) cada N muestras es periódica de periodo fundamental


N. Por tanto, puede desarrollarse en serie de Fourier como

con coeficientes de Fourier

Por lo tanto,

(53)
47

Esta última relación nos proporciona la reconstrucción de la señal periódica xp(n) a


partir de las muestras del espectro X(ω). Sin embargo, no implica que se puedan recuperar
X(ω) o x(n) a partir de las muestras. Para conseguir esto necesitamos considerar la relación
entre x p(n) y x(n).

Dado que xp(n) es la extensión periódica de x(n) tal como se da en (51), está claro que
x(n) puede ser recuperada a partir de xp(n), si no existe aliasing en el dominio del tiempo, es
decir, si x(n) está limitada en tiempo a una duración menor que el periodo N de xp(n). Esta
situación se muestra en la figura 5.2, donde, sin pérdida de generalidad, hemos considerado
una secuencia de duración finita x(n), que es distinta de cero en el intervalo 0 ≤ n ≤ L – 1.
Observamos que cuando N ≥ L,

x(n) = xp(n) 0 ≤ n ≤ N –1

De manera que x(n) puede recuperarse a partir de xp(n) sin ambigüedad. Por otra parte, si N <
L, no es posible recuperar x(n) a partir de su extensión periódica debido al aliasing en el
dominio del tiempo. Por tanto, concluimos que el espectro de una señal aperiódica en tiempo
discreto de duración finita L, puede recuperarse exactamente a partir de sus muestras a las
frecuencias ωk = 2πk/N, si N ≥ L. El procedimiento consiste en calcular xp(n), n = 0, 1,..., N – 1 a
partir de (53); después hacemos

y, finalmente, calculamos X(ω) a partir de (51)

Como en el caso de señales en tiempo continuo, es posible expresar el espectro X(ω)


directamente en términos de sus muestras X(2πk/N), k = 0, 1,..., N – 1. Para obtener la fórmula
de interpolación para X(ω), suponemos que N ≥ L y, partiendo de (53) y puesto que x(n) = xp(n)
para 0 ≤ n ≤ N –1, tenemos
48

(54)

La transformada de Fourier discreta (DFT)

En general, las muestras equiespaciadas en frecuencia X(2πk/N), k = 0, 1,..., N – 1, no


representan unívocamente a la secuencia original x(n) cuando x(n) tiene duración finita. Al
contrario, las muestras en frecuencia X(2πk/N), k = 0, 1,..., N – 1, se corresponden con una
secuencia periódica x p(n) de periodo N, donde xp(n) es una versión con aliasing de x(n), esto
es,

Cuando la secuencia x(n) es de duración finita L ≤ N, entonces xp(n) es simplemente


una repetición periódica de x(n), donde xp(n) en un único periodo viene dado por

En consecuencia, las muestras en frecuencia X(2πk/N), k = 0, 1,..., N – 1, representan


de forma unívoca la secuencia de duración finita x(n). Dado que x(n) ≡ xp(n) en un solo periodo
(rellenado con N – L ceros), la secuencia de duración finita original x(n) puede obtenerse a
partir de las muestras en frecuencia { X(2πk/N)} por medio de la fórmula (53).

Obsérvese que rellenar con ceros no proporciona ninguna información adicional sobre
el espectro X(ω) de la secuencia {x(n)}. Las L muestras equidistantes de X(ω) son suficientes
para reconstruir X(ω) usando la fórmula de reconstrucción

Sin embargo, al rellenar la secuencia {x(n)} con N – L ceros y calcular la DFT de N puntos se
obtiene una “mejor” representación gráfica de la transformada de Fourier X(ω).

En resumen, una secuencia de duración finita x(n) de longitud L, es decir, x(n) = 0 para
n < 0 y n ≥ L, tiene transformada de Fourier

donde los índices superior e inferior de la sumatoria reflejan el hecho de que x(n) = 0 fuera del
intervalo 0 ≤ n ≤ L – 1. Cuando muestreamos X(ω) en frecuencias equiespaciadas ωk = 2πk/N, k
= 0, 1,..., N – 1, donde N ≥ L, las muestras resultantes son
49

(55)

donde, por conveniencia, el índice superior de la sumatoria ha sido aumentada desde L – 1


hasta N – 1, dado que x(n) = 0 para n ≥ L.

La relación (55) realiza la transformación de la secuencia {x(n)}, de longitud L ≤ N, en


una secuencia de muestras en frecuencia {X(k)} de longitud N. Dado que las muestras en
frecuencia se obtienen evaluando la transformada de Fourier X(ω) en un conjunto de N
frecuencias discretas (igualmente espaciadas entre sí), la relación (55) se denomina
transformada discreta de Fourier (DFT) de x(n). Por otra parte, la relación dada por (54), que
nos permite recuperar la secuencia x(n) a partir de las muestras en frecuencia se denomina
DFT inversa (IDFT). Claramente, cuando x(n) tiene longitud L < N, la IDFT de N puntos da x(n)
= 0 para L ≤ n ≤ N – 1. Resumiendo, las fórmulas para DFT y la IDFT son:

Ejemplo. Una secuencia de duración finita de longitud L viene dada por

La transformada de Fourier de esta secuencia es

En la figura 5.5 se muestran la magnitud y la fase de X(ω) para L = 10. La DFT de N puntos de
x(n) es simplemente X(ω), calculada en las N frecuencias equiespaciadas ωk = 2πk/N, k = 0,
1,..., N – 1. De aquí
50

Si N se elige de manera que N = L, entonces la DFT se expresa como

Por lo tanto, existe un único valor de la DFT distinto de cero. Esto resulta evidente al observar
X(ω) = 0 a las frecuencias ωk = 2πk/L, k ≠ 0. x(n) se puede recuperar a partir de X(k) realizando
una IDFT de L puntos.

Aunque la DFT de L puntos es suficiente para representar de forma unívoca la


secuencia x(n) en el dominio de la frecuencia, resulta evidente que no es suficiente para
obtener una representación gráfica detallada de las características espectrales de x(n). Si
deseamos obtener una representación gráfica mejor, debemos calcular (interloplar) X(ω) en
frecuencias más próximas entre sí, digamos, en ωk = 2πk/L k = 2πk/N, donde N > L. Podemos
interpretar esta operación como la expansión de la secuencia de L puntos a N puntos,
añadiendo N – L ceros a la secuencia x(n), es decir, rellenando con ceros. Por lo tanto, la DFT
de N puntos proporciona una interpolación más fina que la DFT de L puntos.

La figura 5.6 proporciona gráficas de la magnitud y fase de la DFT de N puntos para L


= 10, N = 50 y N = 100. Así, las características espectrales de la señal están más claras, como
se puede concluir comparando estos espectros con el espectro continuo X(ω).
51

Relación de la DFT con otras transformadas

La DFT constituye una herramienta computacional importante para el análisis


frecuencial de señales mediante procesadores de señal digital. Puesto que hemos desarrollado
otras herramientas y transformadas para el análisis frecuencial, es importante establecer la
relación entre estas otras transformadas y la DFT.

Relación con los coeficientes de las series de Fourier de secuencias periódicas. Una
secuencia periódica {xp(n)} de periodo fundamental N puede representarse mediante una serie
de Fourier de la forma

(56)

donde los coeficientes de la serie de Fourier vienen dados por la expresión


52

(57)

Si comparamos (56) y (57) con las fórmulas de DFT e IDFT, vemos que la fórmula para el
cálculo de los coeficientes de la serie de Fourier tiene la forma de una DFT. De hecho, si
definimos la secuencia x(n) = xp(n), 0 ≤ n ≤ N – 1, la DFT de esta secuencia es simplemente
X(k) = N ck. Además, (56) tiene la forma de una IDFT. Por lo tanto, la DFT de N puntos nos
proporciona las líneas del espectro de la secuencia periódica de periodo fundamental N.

Relación con la transformada de Fourier de secuencias aperiódicas. Si x(n) es una


secuencia aperiódica de energía finita con transformada de Fourier X(ω) que se muestrea en
las N frecuencias equiespaciadas ωk = 2πk/N, k = 0, 1,..., N – 1, las componentes espectrales

son los coeficientes de la DFT de una secuencia periódica de periodo N, dada por

Por lo tanto, xp(n) queda determinada por el aliasing de {x(n)} en el intervalo 0 ≤ n ≤ N – 1. La


secuencia de duración finita

carece de parecido con la señal original {x(n)}, a menos que x(n) sea de duración finita y
longitud L ≤ N, en cuyo caso

Solo en este caso la IDFT de {X(k)} dará como resultado la secuencia original {x(n)}.

Relación con la transformada z. Consideremos la secuencia x(n) con transformada z

con una ROC que incluye la circunferencia unidad. Si muestreamos X(z) en N puntos
equiespaciados sobre la circunferencia unidad zk = ej2πk/N, 0, 1, 2,..., N – 1, obtenemos

(58)
53

La expresión (58) es idéntica a la transformada de Fourier X(ω) calculada en N frecuencias


equiespaciadas ωk = 2πk/N, k = 0, 1,..., N – 1.

Si la secuencia x(n) es de longitud finita N o menos, podemos recuperarla a partir de su


DFT de N puntos. De aquí que su transformada z quede unívocamente determinada por su
DFT de N puntos. En consecuencia, X(z) se puede expresar como una función de la DFT {X(k)}
como sigue

(59)

Cuando (59) se calcula sobre la circunferencia unidad, se obtiene la transformada de Fourier de


la secuencia de duración finita, en términos de su DFT, en la forma

(60)

Esta expresión de la transformada de Fourier es una fórmula de interpolación polinómica (de


Lagrange) para X(ω), expresada en términos de los valores {x(k)} del polinomio, en un conjunto
de frecuencias equiespaciadas, ωk = 2πk/N, k = 0, 1,..., N – 1. Tras ciertas manipulaciones
algebraicas, es posible reducir (60) a la fórmula de interpolación dada anteriormente.

Relación con los coeficientes de la serie de Fourier de una señal en tiempo continuo.
Supongamos que x a(t) es una señal periódica en tiempo continuo de periodo fundamental Tp =
1/F 0. La señal puede desarrollarse en serie de Fourier

(61)

donde {ck} son los coeficientes de Fourier. Si muestreamos xa(t) con velocidad uniforme F s =
N/Tp = 1/T, obtenemos la secuencia en tiempo discreto

(62)

Resulta evidente que (62) tiene la forma de la fórmula de la IDFT, donde


54

Por lo tanto, la secuencia es una versión con aliasing de {ck}.

Análisis frecuencial de señales usando la DFT

Para calcular el espectro, tanto de señales en tiempo continuo como de señales en


tiempo discreto, se necesitan los valores de la señal para todos los instantes de tiempo. Sin
embargo, en la práctica, las señales se observan solo durante un periodo de tiempo finito. En
consecuencia, el espectro de la señal debe aproximarse a partir de un registro de datos finito.
Examinaremos las consecuencias de disponer solo de registros de datos finitos en el análisis
espectral por medio de la DFT.

Si la señal que va a ser analizada es analógica, la pasaremos, en primer lugar, por un


filtro antialiasing y, después, la muestrearemos a una velocidad Fs ≥ 2B, donde B es el ancho
de banda de la señal filtrada. Por lo tanto, la frecuencia más alta de la señal muestreada es
F s/2. Finalmente, por razones prácticas, limitaremos la duración de la señal al intervalo de
tiempo T0 = LT, donde L es el número de muestras y T es el intervalo de muestreo. La
limitación del intervalo de observación a una duración finita reduce la resolución en frecuencia;
esto es, se reduce nuestra capacidad para distinguir entre dos componentes de frecuencia que
estén separadas en frecuencia menos de 1/T0 = 1/LT.

Sea {x(n)} la secuencia a analizar. Limitar la duración de la secuencia a L muestras


dentro del invervalo 0 ≤ n ≤ L – 1, es equivalente a multiplicar {x(n)} por una ventana
rectangular w(n) de longitud L. Esto es,

donde

Supongamos ahora que la secuencia x(n) consta de una sola sinusoide, esto es

X(n) = cos ω0n

Por tanto, la transformada de Fourier de la secuencia de duración finita x(n) puede expresarse
como

donde W(ω) es la transformada de Fourier de la secuencia ventana, que es (para la ventana


rectangular)
55

Para calcular usamos la DFT. Rellenando con N – L ceros la secuencia x^(n), podemos
calcular la DFT de N puntos de la secuencia truncada (L puntos) . El espectro de
magnitud para ωk = 2πk/N, k = 0, 1,..., N, se muestra en la figura 5.12
para L = 25 y N = 2048. Observamos que el espectro de la ventana no se localiza en
una sola frecuencia, sino que se extiende sobre todo el intervalo de frecuencias. Por lo tanto, la
potencia de la señal original {x(n)} que estaba concentrada en una sola frecuencia se ha
extendido, por la ventana, a todo el intervalo de frecuencias. Decimos que la potencia se ha
derramado en todo el intervalo de frecuencias. En consecuencia, este fenómeno, que es
característico del enventanado de la señal, se denomina derrame.

El enventanado no solo distorsiona la estimación espectral debido al derrame, sino que


también reduce la resolución espectral. Para reducir el derrame, podemos elegir una ventana
que tenga lóbulos laterales en frecuencia más bajos que la ventana rectangular. Sin embargo,
la reducción del nivel de los lóbulos secundarios de una ventana W(ω) se consigue a expensas
de aumentar la anchura del lóbulo principal de W(ω) y, por tanto, de una pérdida de resolución.
Para ilustrar este punto, consideremos la ventana de Hanning y una señal
56

La figura 5.14 representa para esta ventana. Sus lóbulos secundarios son
significativamente inferiores a los de la ventana rectangular, pero su lóbulo principal es
aproximadamente el doble.
57

En la figura 5.15 la reducción de los lóbulos secundarios y la pérdida de resolución con


respecto a la ventana rectangular son evidentes.

5.4 Filtros digitales y ventanas

El término filtro se utiliza comúnmente para describir un dispositivo que discrimina,


según algún atributo de los objetos que se aplican a su entrada, aquello que pasa a través
suyo. Vimos antes que un sistema lineal e invariante en el tiempo también realiza un tipo de
discriminación o filtrado de las diferentes componentes en frecuencia de la entrada. La
naturaleza de esta acción de filtrado viene determinada por las características de la respuesta
en frecuencia H(ω), que a su vez depende de la elección de los parámetros del sistema.
Eligiendo adecuadamente los coeficientes, podemos diseñar filtros selectivos en frecuencia que
dejen pasar señales con componentes frecuenciales en ciertas bandas, al tiempo que atenúan
señales que contengan componentes frecuenciales en otras bandas.

En general, un sistema lineal e invariante en el tiempo modifica el espectro de la señal


de entrada X(ω), según su respuesta en frecuencia H(ω), para dar lugar a una señal de salida
con espectro Y(ω) = H(ω) X(ω). En cierto sentido, H(ω) actúa como función de ponderación o
función de conformación espectral para las diferentes componentes frecuenciales de la señal
de entrada. Visto en este contexto, cualquier sistema lineal e invariante en el tiempo puede
considerarse como un filtro de conformación espectral, aunque no bloquee necesariamente
ninguna componente en frecuencia. En consecuencia, los términos “sistema lineal e invariante
en el tiempo” y “filtro” son sinónimos y, como tales, se intercambian habitualmente.

Emplearemos el término filtro para describir el sistema lineal e invariante en el


tiempo utilizado para realizar operaciones de conformación espectral o filtrado selectivo
en frecuencia. El filtrado se emplea en el procesamiento digital de señales de diferentes
maneras, por ejemplo, eliminación de ruido indeseado de señales deseadas, conformación
espectral para igualación de canales de comunicaciones, detección de señales en radar, sonar
y comunicaciones, análisis espectrales de señales, etc.
58

Características de los filtros ideales

Los filtros se suelen clasificar según sus características en el dominio de la frecuencia


como paso bajo, paso alto, paso banda y de banda eliminada. Las características ideales
de la respuesta en magnitud de estos tipos de filtros se representan en la Fig. 4.43. Tal como
se muestra, estos filtros ideales tienen ganancia constante (normalmente tomada como
ganancia unitaria) en la banda de paso y ganancia cero en la banda eliminada.

Otra característica de un filtro ideal es su respuesta de fase lineal, es decir, la salida del
filtro es simplemente una versión retardada y escalada en amplitud de la señal de entrada.

Como conclusión, los filtros ideales tienen una característica de magnitud constante y
una característica de fase lineal dentro de su banda de paso. Además, estos filtros no son
realizables, pero sirven como idealización matemática de los filtros prácticos. El filtro paso bajo
ideal, por ejemplo, no es causal ni absolutamente sumable, por lo que es inestable. Sin
embargo, su característica de respuesta en frecuencia se puede aproximar mucho con filtros
prácticos y realizables físicamente.
59

La posición de los polos y los ceros afecta a la respuesta en frecuencia del sistema.
Existe un método gráfico para calcular las características de la respuesta en frecuencia a partir
del diagrama de polos y ceros, situando estos en el plano z. Este mismo procedimiento se
puede emplear para diseñar algunos filtros digitales sencillos, pero importantes, con las
características de la respuesta en frecuencia deseadas.

El principio básico subyacente en el método de los polos y ceros es el de localizar los


polos cerca de los puntos de la circunferencia unidad correspondientes a las frecuencias que
desean ser acentuadas, y situar los ceros cerca de aquellos puntos que se corresponden con
frecuencias que desean ser amortiguadas. Además, deben imponerse las siguientes
condiciones:

1. Todos los polos deben estar en el interior de la circunferencia unida para que el filtro
sea estable. Sin embargo, los ceros pueden situarse en cualquier punto del plano z.
2. Todos los ceros y polos complejos deben tener su conjugado correspondiente, de
manera que los coeficientes del filtro sean reales.

En el diseño de filtros digitales paso bajo, los polos deben situarse cerca de los puntos
de la circunferencia unidad correspondientes a las bajas frecuencias (cerca de ω = 0) y los
ceros deben situarse cerca de los puntos de la circunferencia unidad correspondientes a las
altas frecuencias (cerca de ω = π). Lo contrario es lo necesario para filtros paso alto.

Los filtros ideales son no causales y, por lo tanto, físicamente irrealizables para
aplicaciones de procesamiento de señales en tiempo real. La causalidad implica que la
característica de respuesta en frecuencia H(ω) del filtro no puede ser cero excepto en un
conjunto finito de puntos en el rango de frecuencias. Además, H(ω) no puede tener un corte
infinitamente abrupto desde la banda de paso a la banda de rechazo, es decir, H(ω) no puede
caer desde uno hasta cero abruptamente.
60

Aunque las características de respuesta en frecuencia que poseen los filtros ideales
deben ser deseables, no son absolutamente necesarias en la mayoría de las aplicaciones
prácticas. Si relajamos estas condiciones es posible realizar filtros causales que aproximan los
filtros ideales con tanta precisión como deseemos. En particular, no es necesario insistir que la
magnitud |H(ω)| sea constante en toda la banda de paso del filtro. Se puede tolerar un pequeño
rizado en la banda de paso como se ilustra en la figura 8.2. Similarmente no es necesario que
la respuesta del filtro |H(ω)| sea cero en la banda de rechazo. También se puede tolerar un
valor pequeño distinto de cero o un pequeño rizado en la banda de rechazo.

La transición de la respuesta en frecuencia desde la banda de paso a la banda de


rechazo define la banda de transición o región de transición del filtro, como se ilustra e la
figura 8.2. La frecuencia ωp define el límite superior de la banda de paso, mientras que la
frecuencia ωs define el principio de la banda de rechazo. Así, el ancho de la banda de transición
es ωs – ωp. El ancho de la banda de transición se denomina generalmente ancho de banda del
filtro. Por ejemplo, si el filtro es paso bajo con una frecuencia de corte superior ωp, su ancho de
banda es ωp.

Si existe un rizado en la banda de paso del filtro, su valor se denota por δ1, y la
magnitud |H(ω)| varía entre los límites 1 ± δ1. El rizado en la banda de rechazo del filtro se
denota por δ2.

En cualquier problema de diseño de filtros podemos especificar: (1) el máximo rizado


tolerable en la banda de paso, (2) el máximo rizado tolerable en la banda de rechazo, (3) la
frecuencia de corte de la banda de paso ωp, y (4) la frecuencia de corte de la banda de rechazo
ωs.

5.5 Procesamiento digital de señales analógicas

Conversión analógico-digital y digital-analógica

La mayoría de las señales de interés práctico, señales de voz, biológicas, sísmicas,


radas, sonar y de distintos tipos de comunicación, como las señales de audio y video, son
analógicas. Para procesar señales analógicas por medios digitales es necesario convertirlas a
formato digital, esto es, transformarlas en una secuencia de números de precisión finita. Este
procesamiento se denomina conversión analógico-digital (A/D) y los dispositivos
correspondientes conversores A/D (ADCs).
61

Conceptualmente, podemos ver la conversión A/D como un proceso en tres pasos.


Este proceso se ilustra en la figura 1.14.

1. Muestreo. Esta es la conversión de una señal en tiempo continuo a una señal en


tiempo discreto obtenida tomando “muestras” de la señal en tiempo continuo en
instantes de tiempo discreto. Así, si xa(t) es la entrada al muestreador, la salida es
xa(nT) ≡ x(n), donde T se denomina el intervalo de muestreo.
2. Cuantificación. Esta es la conversión de una señal en tiempo discreto con valores
continuos a una señal en tiempo discreto con valores discretos (señal digital). El valor
de cada muestra de la señal se representa mediante un valor seleccionado de un
conjunto finito de valores posibles. La diferencia entre la muestra sin cuantificar x(n) y
la salida cuantificada xq(n) se denomina error de cuantificación.
3. Codificación. En el proceso de codificación, cada valor discreto xq(n) se representa
mediante una secuencia binaria de b bits.

Aunque modelamos el conversor A/D con un muestreador seguido de un cuantificador,


en la práctica la conversión A/D se efectúa en un único dispositivo que toma x a(t) y produce un
número codificado en binario. Las operaciones de muestreo y cuantificación pueden realizarse
en cualquier orden, pero, en la práctica, el muestreo siempre tiene lugar antes de la
cuantificación.
En muchos casos de interés práctico (p. ej. procesamiento de voz) es deseable
convertir las señales digitales procesadas a forma analógica. El proceso de conversión de una
señal digital en una señal analógica se conoce como conversión digital-analógica (D/A). Todos
los conversores D/A “conectan los puntos” de una señal digital efectuando cierto tipo de
interpolación, cuya precisión depende de la calidad del proceso de conversión D/A. La figura
1.15 muestra una forma sencilla de conversión D/A, denominada mantenedor de orden cero o
aproximación por escalones. También son posibles otras aproximaciones, como la que
conecta linealmente dos puntos (interpolación lineal), la que ajusta una función cuadrática a
tres muestras sucesivas (interpolación cuadrática), etc. ¿Existe un interpolador óptimo
(ideal)? Para señales que tienen contenido en frecuencia limitado (ancho de banda finito), el
teorema de muestreo especifica la forma óptima de interpolación.
62

Demostraremos que el muestreo no da lugar a una pérdida de información ni introduce


distorsión en la señal si su ancho de banda es finito. En principio, la señal analógica puede
reconstruirse a partir de sus muestras, siempre que la tasa de muestreo sea lo suficientemente
alta como para evitar el problema comúnmente denominado aliasing (solapamiento). Por otra
parte, la cuantificación es un proceso no invertible o irreversible que resulta en la distorsión de
la señal. Demostraremos que la cantidad de distorsión depende de la precisión, medida en
función del número de bits del proceso de conversión A/D. Los factores que afectan a la
elección de la precisión deseada del conversor A/D son el costo y la tasa de muestreo. En
general, el costo aumenta con la precisión y/o la tasa de muestreo.

Muestreo de señales analógicas

Existen muchas maneras de muestrear una señal. Vamos a limitar nuestra discusión al
muestreo periódico o uniforme, que es el tipo de muestreo usado más a menudo en la práctica.
Este se describe mediante la relación

(1.4.1) x(n) = xa(nT), -∞ < n < ∞

Donde x(n) es la señal en tiempo discreto obtenida tomando muestras de la señal


analógica xa(t) cada T segundos. Este proceso se ilustra en la Figura 1.16. El intervalo de
tiempo T entre dos muestras sucesivas se denomina período de muestreo o intervalo de
muestreo y su recíproco 1/t = Fs se llama velocidad de muestreo (muestras por segundo) o
frecuencia de muestreo (hertzios).
63

El muestreo periódico establece una relación entre las variables t y n de tiempo


continuo y tiempo discreto, respectivamente. De hecho, estas variables se relacionan
linealmente a través del período de muestreo T o, equivalentemente, a través de la velocidad
de muestreo Fs = 1/T, como

(1.4.2) t = nT = n/Fs

Como consecuencia de (1.4.2), existe una relación entre la variable frecuencia F (o Ω)


de las señales analógicas y la variable frecuencia f (o ω) de las señales en tiempo discreto.

Las variables frecuencia F y f están linealmente relacionadas según

(1.4.5) f= F/Fs

o equivalentemente, según

(1.4.6) ω = ΩT

La relación dada en (1.4.5) justifica el nombre frecuencia normalizada o relativa, que se usa a
veces para describir la variable frecuencia f. Como se ve en (1.4.5), podemos usar f para
determinar la frecuencia F en hertzios solo si la frecuencia de muestreo F s es conocida.
El rango de la variable frecuencia F o Ω para sinusoides en tiempo continuo es

(1.4.7) -∞<F<∞
-∞<Ω<∞

Sin embargo, la situación es diferente para sinusoides en tiempo discreto. Tenemos que

-1/2 < f < ½


-π< ω< π

Se desprende que la diferencia fundamental entre señales en tiempo discreto y señales en


tiempo continuo es el rango de valores de las variables frecuencia F y f o Ω y ω. El muestreo
periódico de una señal en tiempo continuo supone una correspondencia entre un rango de
frecuencia infinito correspondiente a la variable F (o Ω) y un rango de frecuencia finito
correspondiente a la variable f (o ω). Dado que la frecuencia máxima de una señal en tiempo
discreto es ω = π o f = ½, los valores máximos de F yΩ para una velocidad de muestreo F s son
64

(1.4.11) Fmax = Fs /2 = 1/2T


Ωmax = πF s = π/T

Por lo tanto, el muestreo introduce ambigüedad; así, la máxima frecuencia de una señal
en tiempo continuo que puede determinarse unívocamente cuando dicha señal se muestra a
una velocidad Fs = 1/T es Fmax = Fs /2 o Ωmax = πF s. Para ver qué sucede con las frecuencias
superiores a Fs/2 consideremos el siguiente ejemplo.

Ejemplo. 1.4.1. Las consecuencias de estas relaciones entre las frecuencias pueden
observarse considerando las dos señales analógicas

(1.4.12) x1(t) = cos 2π (10)t


x2(t) = cos 2π (50)t

que son muestreadas a una velocidad Fs = 40 Hz. Las señales o secuencias en tiempo discreto
correspondientes son

(1.4.13) x1(n) = cos2π (10/40) n = cos π/2 n


x2(n) = cos 2π (50/40) n = cos 5π/2 n

Sin embargo, cos 5πn/2 = cos (2πn + πn/2) = cos πn/2. De aquí, x2(n) = x1(n). Las señales
sinusoidales son, por lo tanto, idénticas y, en consecuencia, indistinguibles. Dados los valores
de las muestras correspondientes a cos(π/2), no podemos determinar si proceden de x 1(t) o de
x2(t). Dado que x2(t) produce exactamente los mismos valores que x 1(t) cuando ambas son
muestreadas a Fs = 40 muestras por segundo, decimos que la frecuencia F 2 = 50 Hz es un
alias de la frecuencia F 1 = 10 Hz a la velocidad de muestreo de 40 muestras por segundo. Es
importante observar que F2 no es el único alias de F1. De hecho, a una velocidad de muestreo
de 40 muestras por segundo la frecuencia F3 = 90 Hz también es un alias de F1, así como la
frecuencia F4 = 130 Hz, etc. Todas las sinusoides cos 2π (F1 + 40k)t, k = 1,2, 3, 4,...
muestreadas a 40 muestras por segundo producen valores idénticos. En consecuencia todas
son alias de F1 = 10 Hz.

En general, el muestreo de una señal sinusoidal en tiempo continuo

(1.4.14) xa(t) = A cos(2π F 0t + θ)

con una velocidad de muestreo Fs = 1/T produce una señal en tiempo discreto

(1.4.15) x(n) = A cos(2πf 0n + θ)

donde f 0 = F0/Fs es la frecuencia relativa de la sinusoide. Si suponemos que –Fs/2 ≤ F 0 ≤ F s/2,


la frecuencia f0 de x(n) se encuentra en el rango –1/2 ≤ f0 ≤ ½, que es el rango de frecuencia
para señales en tiempo discreto. En este caso, la relación entre F 0 y f0 es biunívoca, y por
tanto, es posible identificar (o reconstruir) la señal analógica xa(t) a partir de las muestras x(n).
Por otra parte, si las sinusoides

(1.4.16) xa(t) = A cos(2π F kt + θ)

donde

(1.4.17) Fk = F 0 + kFs, k = ±1, ±2, …

se muestrean a una velocidad F s, está claro que la frecuencia Fk se encuentra fuera del rango –
F s/2 ≤ F ≤ F s/2. En consecuencia. La señal muestreada es

F 0 + kFs
x(n) ≡ xa(nT) = A cos (2π n + θ)
Fs
= A cos(2πn F 0/Fs + θ + 2πkn)
= A cos(2πf 0n + θ)
65

que es idéntica a la señal en tiempo discreto dada en (1.4.15) y obtenida mediante muestreo
(1.4.14). Por lo tanto, un número infinito de señales en tiempo continuo se representan
mediante el mismo conjunto de muestras. En consecuencia, a partir de las muestras x(n) no es
posible determinar qué señal en tiempo continuo xa(t) representan. De forma equivalente,
podemos decir que las frecuencias F k = F0 + kFs, - ∞ < k < ∞ (k entero) son indistinguibles de la
frecuencia F0 después del muestreo y, por tanto, son alias de F0. La relación entre variables
frecuencia de señales en tiempo continuo y tiempo discreto se ilustra en la figura 1.17.

La Fig. 1.18 muestra un ejemplo de aliasing: dos sinusoides de frecuencias F 0 = 1/8 Hz


y F1= - 7/8 Hz producen muestras idénticas cuando se usa una velocidad de muestreo Fs = 1
Hz. De (1.4.17) tenemos que, para k = -1, F0 = F1 + F s = (-7/8 +1) Hz = 1/8 Hz.

Dado que Fs/2, que se corresponde con ω = π, es la frecuencia más alta que puede ser
representada inequívocamente con una velocidad de muestreo Fs, es fácil determinar la
correspondencia entre cualquier alias por encima de Fs/2 (ω = π) y su frecuencia equivalente
por debajo de Fs /2. Podemos usar Fs/2 o ω = π como el punto de plegado y reflejar o “doblar” la
frecuencia alias en el rango F s/2 (ω = π). La frecuencia Fs /2 (ω = π) se denomina frecuencia de
plegado.

Teorema de muestreo
66

Dada una señal analógica cualquiera, ¿cómo se debe elegir el período de muestreo T
o, lo que es lo mismo, la velocidad de muestreo F s? Para contestar a esta cuestión es
necesaria cierta información sobre las características de la señal que va a ser muestreada. En
particular, debemos tener cierta información general sobre el contenido frecuencial de la señal.
Generalmente, dicha información se encuentra disponible. Por ejemplo, sabemos que la mayor
frecuencia en señales de voz ronda los 3.000 Hz. Por otra parte, las señales de televisión
tienen componentes de frecuencia importantes hasta los 5 MHz. La información contenida en
dichas señales se encuentra en las amplitudes, frecuencias y fases de las distintas
componentes de frecuencia, pero antes de obtener dichas señales no conocemos sus
características con detalle. De hecho, el propósito del procesamiento de señales es
normalmente la extracción de dichas características. Sin embargo, si conocemos la máxima
frecuencia de una determinada clase de señales (por ejemplo, señales de voz, de video, etc.)
podemos especificar la velocidad de muestreo necesaria para convertir las señales analógicas
en señales digitales.
Supongamos que cualquier señal analógica se puede representar como una suma de
sinusoides de diferentes amplitudes, frecuencias y fases, es decir,

N
(1.4.18) xa(t) = ∑
i =1
Ai cos(2πFit + θi)

donde N indica el número de componentes de frecuencia. Todas las señales, como las de voz
o video, se prestan a dicha representación en cualquier intervalo de tiempo pequeño.
Normalmente, las amplitudes, fases y frecuencias varían lentamente de un intervalo de tiempo
al siguiente. Supongamos que las frecuencias de una determinada señal no exceden una
frecuencia máxima conocida F max. Por ejemplo, Fmax = 3 KHz, para señales de voz y Fmax = 5
MHz, para señales de video. Dado que la máxima frecuencia puede variar ligeramente (por
ejemplo, de un orador a otro) podemos querer asegurar que Fmax no sobrepase determinado
valor y para ello pasaremos la señal analógica por un filtro que atenúe fuertemente las
componentes de frecuencia por encima de Fmax. Así estaremos seguros de que ninguna señal
de la clase que nos interesa tendrá componentes de frecuencia (con amplitud o potencia
significativa) por encima de Fmax. En la práctica, este filtrado se realiza antes del muestreo. El
conocimiento de Fmax nos permite seleccionar la velocidad de muestreo apropiada. Sabemos
que la frecuencia más alta de la señal analógica que puede reconstruirse sin ambigüedad
cuando la señal se muestrea a una velocidad Fs = 1/T es Fs/2. Cualquier frecuencia por encima
de Fs/2 o por debajo de – F s/2 produce muestras que son idénticas a las correspondientes a
frecuencias dentro del intervalo –Fs/2 ≤ F ≤ F s/2. Para evitar las ambigüedades que resultan del
aliasing, se debe seleccionar una velocidad de muestreo lo suficientemente alta, esto es,
debemos escoger F s/2 mayor que Fmax. Por tanto, para evitar el problema del aliasing, se
selecciona Fs según

(1.4.19) Fs > 2 F max

donde Fmax es la frecuencia más alta de la señal analógica. Con la velocidad de muestreo
seleccionada de esta manera tenemos que cualquier componente de frecuencia, por ejemplo
|Fi| < Fmax, de la señal analógica se corresponde en tiempo discreto con una sinusoide de
frecuencia

(1.4.20) - ½ ≤ f i = Fi/Fs ≤ ½

o equivalentemente,

(1.4.21) - π ≤ ωi = 2πfi ≤ π

Dado que |f| = ½ o ω|


| = π es la frecuencia más alta (única) en una señal en tiempo discreto, la
elección de la velocidad de muestreo según (1.4.19) evita el problema del aliasing. En otras
palabras, la condición F s > 2 F max garantiza que todas las componentes sinusoidales de la señal
analógica se correspondan con componentes en frecuencia de tiempo discreto en el intervalo
fundamental. Por lo tanto, todas las componentes en frecuencia de la señal analógica están
representadas sin ambigüedad en la forma muestreada de la señal, y así la señal analógica
67

puede ser reconstruida sin distorsión a partir de las muestras usando un método de
interpolación “apropiado” (conversión digital analógica). La fórmula de interpolación ideal o
“apropiada” se especifica mediante el teorema del muestreo.

Teorema del muestreo. Si la frecuencia más alta contenida en una señal analógica xa(t) es
F max = B y la señal se muestrea a una velocidad Fs < 2Fmax ≡ 2B, entonces xa(t) se puede
recuperar totalmente a partir de sus muestras mediante la siguiente función de interpolación

sen2πBt
(1.4.22) g(t) =
2πBt
La tasa de muestreo dada por F N = 2B = 2 Fmax se denomina tasa de Nyquist. La figura 1.19
ilustra el proceso de conversión D/A ideal que utiliza la función de interpolación dada por
(1.4.22).

Un punto importante es que aun cuando la forma de onda puede tener un espectro
limitado en banda, la señal podría estar corrompida por ruido aleatorio de banda ancha, previo
a la conversión analógica a digital. En tales casos, la señal más ruido debiera ser filtrada con
un filtro analógico paso bajo que corta abruptamente por encima de la frecuencia de Nyquist,
de modo que las imágenes de ruido de alta frecuencia no sean solapadas (aliased) en la banda
de base.

Cuantificación de señales de amplitud continua

Una señal digital es una secuencia de números (muestras) en la que cada número se
representa por un número finito de dígitos (precisión finita).
El proceso de convertir una señal en tiempo discreto de amplitud continua en una señal
digital, expresando cada muestra por medio de un número finito (en vez de infinito) de dígitos,
se denomina cuantificación. El error cometido al representar la señal de valor continuo por un
conjunto finito de valores discretos se denomina error de cuantificación o ruido de
cuantificación.
Denotaremos la operación de cuantificación de las muestras x(n) como Q[x(n)] y
utilizaremos xq(n) para designar la secuencia de muestras cuantificadas a la salida del
cuantificador. Así x q(n) = Q[x(n)] por tanto, el error de cuantificación de una secuencia eq(n) se
define como la diferencia entre el valor cuantificado y el de la muestra original

(1.4.25) eq(n) = xq(n) – x(n)

Supongamos que queremos utilizar un solo dígito significativo. Para eliminar los dígitos
sobrantes podemos simplemente eliminarlos (truncamiento) o aproximar por el número con un
dígito significativo más cercano (redondeo). Las señales cuantificadas resultantes xq(n) se
muestran en la Tabla 1.2. Discutiremos solo la cuantificación por redondeo, aunque es igual de
fácil considerar el caso de truncamiento. El proceso de redondeo se ilustra gráficamente en la
Fig. 1.20b.
68

Los valores permitidos en la señal digital se denominan niveles de cuantificación, mientras


que la distancia ∆ entre dos niveles de cuantificación sucesivos se denomina escalón de
cuantificación o resolución. El cuantificador por redondeo asigna a cada muestra de x(n) el
nivel de cuantificación más cercano. Por el contrario un cuantificador por truncamiento le
asignaría el nivel inmediatamente por debajo de la muestra. El error de cuantificación en el
caso de redondeo se encuentra en el intervalo [-∆/2 a ∆/2], es decir

∆ ∆
(1.4.26) - ≤ e q(n) ≤
s s
En otras palabras, el error de cuantificación instantáneo no puede superar la mitad del valor del
escalón de cuantificación (ver Tabla 1.2).
Si xmin y xmax representan los valores máximo y mínimo de x(n) y L es el número de
niveles de cuantificación, entonces

x max − x min
(1.4.27) ∆=
L −1
Definimos el rango dinámico de la señal como xmax – xmin. En nuestro ejemplo xmax = 1, xmin =
0, y L = 11, lo que nos lleva a ∆ = 0.1. Obsérvese que si el rango dinámico está prefijado, el
aumento del número de niveles conlleva la disminución del escalón de cuantificación. Por tanto,
el error de cuantificación decrece y aumenta la precisión del cuantificador. En la práctica se
puede reducir el error de cuantificación a niveles insignificantes, eligiendo un número suficiente
de niveles de cuantificación.
69

Teóricamente, la cuantificación de las señales analógicas resulta siempre en una


pérdida de información. Este es el resultado de la ambigüedad introducida por la cuantificación.
De hecho, la cuantificación es un proceso no invertible (es decir, una correspondencia en la
que muchos elementos tienen la misma imagen), dado que a todas las muestras a una
distancia inferior a ∆/2 de un determinado nivel se les asigna el mismo valor. Esta ambigüedad
hace que el análisis cuantitativo de la cuantificación sea extremadamente difícil.

You might also like