You are on page 1of 116

Principi di comunicazioni elettriche

Fiandrino Claudio

25 novembre 2009
II
Indice

1 Trasmissione dell’informazione 3

2 Rumore 7
2.1 Introduzione generale . . . . . . . . . . . . . . . . . . . . . . 7
2.2 Rumore nei doppi bipoli . . . . . . . . . . . . . . . . . . . . . 11
2.3 Rumore in cascate di doppi bipoli . . . . . . . . . . . . . . . . 12
2.4 Rumore nei sistemi wireless . . . . . . . . . . . . . . . . . . . 14
2.5 Banda equivalente di rumore . . . . . . . . . . . . . . . . . . 14
2.6 Rapporto segnale-rumore . . . . . . . . . . . . . . . . . . . . 16
2.7 Attenuatore dissipativo . . . . . . . . . . . . . . . . . . . . . 17

3 Teoria dell’informazione 19
3.1 Introduzione generale . . . . . . . . . . . . . . . . . . . . . . 19
3.2 Codifica di sorgente . . . . . . . . . . . . . . . . . . . . . . . 22
3.3 Codifica di canale . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.4 Canale discreto . . . . . . . . . . . . . . . . . . . . . . . . . . 27

4 Modulazioni 31
4.1 Modulazioni analogiche . . . . . . . . . . . . . . . . . . . . . 31
4.1.1 Modulazioni di ampiezza . . . . . . . . . . . . . . . . 31
4.1.2 Segnale analitico e inviluppo complesso . . . . . . . . 36
4.2 Modulazioni numeriche . . . . . . . . . . . . . . . . . . . . . . 40
4.2.1 Introduzione generale . . . . . . . . . . . . . . . . . . 40
4.2.2 Costellazioni e regioni di decisione . . . . . . . . . . . 60
4.2.3 Modulazioni in banda base . . . . . . . . . . . . . . . 62
4.2.4 Modulazioni in banda traslata . . . . . . . . . . . . . 69

5 Isi e Criteri di Nyquist 83


5.1 Interferenza intersimbolica . . . . . . . . . . . . . . . . . . . . 83
5.2 1◦ criterio di Nyquist . . . . . . . . . . . . . . . . . . . . . . . 87
5.3 2◦ criterio di Nyquist . . . . . . . . . . . . . . . . . . . . . . . 92
5.4 Considerazioni finali . . . . . . . . . . . . . . . . . . . . . . . 93

III
IV INDICE

6 Esempi conclusivi 95
6.1 Esempio modulazione PAM . . . . . . . . . . . . . . . . . . . 95
6.2 Diagramma ad occhio . . . . . . . . . . . . . . . . . . . . . . 104
6.2.1 Esempio per la modulazione 2-PAM . . . . . . . . . . 104
6.2.2 Esempio per la modulazione QPSK . . . . . . . . . . . 106
Prefazione

Gli appunti sono stati redatti seguendo le lezioni del corso ed approfondendo
alcuni argomenti sul libro di testo consigliato (Giorgio Taricco, Comunica-
zioni elettriche con elementi di teoria dell’informazione, edito CLUT).
Se fossero presenti errori potete segnalarli al il mio recapito mail:
claudio fiandrino@hotmail.it.
Il sito in cui è possibile trovare questi appunti è:
http://claudiofiandrino.altervista.org.

1
2 INDICE
Capitolo 1

Trasmissione
dell’informazione

Analizziamo le due parole del titolo di questo capitolo: trasmissione e infor-


mazione.
Trasmettere consiste nel prendere in esame l’insieme dei dispositivi fisici che
permettono la comunicazione; ciò che viene trasmessa è l’informazione, ossia
i segnali opportunamente trattati.

Sistemi di trasmissione
Esistono due tipi di sistemi di trasmissione: analogici e digitali.

Sistemi analogici

I sistemi analogici trasmettono segnali a tempo continuo in cui, l’informazio-


ne da scambiare nella comunicazione, è proporzionale ad uno dei parametri
del segnale (fase, ampiezza). Il segnale non viene manipolato, ma riprodotto
fedelmente.

x(t)

3
4 CAPITOLO 1. Trasmissione dell’informazione

Sistemi digitali

Nei sistemi digitali i segnali trasmessi non rappresentano l’informazione


scambiata: essa va interpretata.
Si parla di informazione discreta perchè, con opportune manipolazioni, si
codifica l’informazione in simboli (sequenze di bit); in fase di ricezione essi
saranno riconosciuti e decodificati per conoscere l’esatto contenuto di infor-
mazione ricevuto.
Sul canale di trasmissione il segnale è un segnale di tipo analogico (onda
elettromagnetica) e non una sequenza numerica anche nel caso di sistemi
digitali.

x(t)

Rispetto a sistemi analogici, con segnali digitali è possibile ricostruire la for-


ma d’onda se durante la trasmissione si sono verificati errori; la prestazione
dei processori che trattano l’informazione è decisamente migliore come mi-
gliore è la qualità di questi sistemi.
I sistemi analogici per contro sono meno complicati da realizzare e c’è de-
gradazione graduale della qualità a differenza dei sistemi digitali; per questi
ultimi se non ci sono errori la qualità è alta, ma in caso contrario la qualità
è nulla.

Schemi a blocchi per i due tipi di sistemi


Sistemi analogici:

S MOD DEMOD R

Sorgente Modulatore Demodulatore Ricevitore


analogico Analogico
5

Sistemi digitali:

S C-Q MOD DEMOD R

Sorgente Campionatore Modulatore Demodulatore Ricevitore


e Numerico Numerico
Quantizzatore
6 CAPITOLO 1. Trasmissione dell’informazione
Capitolo 2

Rumore

In questo capitolo verrà analizzato il rumore termico nei suoi aspetti fonda-
mentali.

2.1 Introduzione generale


In ogni trasmissione si può osservare un disturbo che prende il nome di ru-
more termico.
Il rumore termico è un modello fisico sempre presente nei dispositivi di tra-
smissione in quanto caratterizza la variazione elettrica degli elettroni nel
sistema hardware.
Analizziamo con dettaglio il rumore presente nei sistemi di telecomunicazio-
ne; è possibile caratterizzarlo con le seguenti proprietà:

. è un processo casuale che chiameremo n(t);

. è bianco;

. la sua distribuzione statistica è di tipo gaussiano.

L’aggettivo bianco evidenzia che lo spettro del processo n(t) è costante su


tutte le frequenze e, date le sue proprietà di processo casuale WSS ed ergo-
dico, può essere modellizato come:

GN (f )

N0
2

7
8 CAPITOLO 2. Rumore

Poichè lo spettro è costante, l’autocorrelazione del rumore termico, che non


è altro che l’antitrasformata di Fourier dello spettro di potenza, è una delta
nell’origine:

RN (τ )
N0
2

In formule:

GN (f ) = F {RN (τ )} RN (τ ) = F −1 {GN (f )}

La funzione di autocorrelazione misura quanto due istanti di tempo t e t1 di


un processo siano correlati.
Se la funzione di autocorrelazione mostra una forte correlazione fra due
istanti di tempo allora il segnale, nel dominio del tempo, è lento; viceversa
un segnale veloce avrà una funzione di autocorrelazione bassa perchè t1 è
influenzato poco da t; poichè il rumore termico ha una delta nell’origine la
conclusione è che ogni istante di tempo non è correlato in nessun modo con
altri.
Non è possibile quindi partendo da t cercare di indovinare cosa succederà in
t1 perchè, siccome questi istanti di tempo sono scorrelati, il processo cambia
in modo impredicibile.
Per τ −→ 0 ciò che evidenzia la funzione di autocorrelazione è la potenza o
valor quadratico medio del segnale ( N20 ); invece per τ −→ ∞, solo nel caso
di processi causali come n(t) si legge il valor medio al quadrato (0).
2.1. Introduzione generale 9

La distribuzione statistica è di tipo gaussiano in quanto somma di eventi


casuali statisticamente indipendenti:

fn

Questo tipo di distribuzione evidenzia che mediamente il rumore ha media


nulla, ma, seppure con probabilità bassa, possono verificarsi picchi di am-
piezza molto alta o molto bassa di durata breve.

Dimostrazione
Collegando un resistore ad un oscilloscopio si osserva che anche senza ali-
mentazione scorre una microcorrente spuria; questo fenomeno è dovuto all’a-
gitazione termica degli elettroni semplicemente perchè la resistenza si trova
ad una certa temperatura.
Lo spettro della corrente misurata i(t) è il seguente:

Gi (f )

Il rumore termico decade a frequenze dei THz, anche se solitamente si imma-


gina lo spettro costante su tutte le frequenze; la densità spettrale di potenza
vale:
2 · κ · T A2
 
Gi (f ) =
R Hz

dove:
 J
. κ è la costante di Boltzman che vale 1.38 · 10−23 K ;

. T è la temperatura a cui è posto il resistore;

. ed R il valore della sua resistenza.


10 CAPITOLO 2. Rumore

La tensione generata dall’agitazione termica è:


e(t) = i(t) · R
Possiamo dedurre che la funzione di trasferimento sia:
E(f )
H(f ) = =R
I(f )
Sapendo che:
Ge (f ) = Gi (f ) · |H(f )|2
otteniamo questa relazione che lega gli spettri di potenza di tensione e
corrente:
Ge (f ) = Gi (f ) · R2 = 2 · κ · T · R
Un generatore di tensione eroga la massima potenza se R è uguale alla
resistenza interna del generatore stesso:
e(t)
Pdisp =
4·R
La potenza fisica del rumore:
2·κ·T
Ge (f ) Gi (f ) · R2 · R2 2 · κ · T · R2 κ·T
Gn (f ) = = = R = 2
=
4·R 4·R 4·R 4·R 2
Indicando con N0 il valore del prodotto κ · T si ha che:
 
N0 W
Gn (f ) =
2 Hz
Si può notare che il rumore non dipende dal materiale, in questo caso dal
valore della resistenza, ma solo dalla temperatura a cui è posto; dunque
maggiore è la temperatura più alta sarà la potenza di rumore associata e
quindi più grande sarà il disturbo creato.
Nell’ambito delle telecomunicazioni il rumore termico è il fattore discrimi-
nante per le prestazioni dei dispositivi ed è il principale fattore di abbassa-
mento della qualità del segnale.

Esempio

Calcolare la potenza di rumore nella banda B di 10 MHz alla tempera-


tura T di 290◦ K.

X(f )

−B B f
2.2. Rumore nei doppi bipoli 11

B B
N0 N0
Z Z
Pn = Gn (f ) df = df = · 2B = N0 · B = κ · T · B
−B −B 2 2
Sostituendo i valori numerici:

Pn = (1.38 · 10−23 ) · 290 · (10 · 106 ) = 4 · 10−14 W

Il valore ottenuto è molto basso, ma occorre precisare che è necessario un


confronto con la potenza del segnale trasmesso per poter dare un giudizio.
Ad esempio, la telefonia cellulare, utilizza potenze di questo ordine di gran-
dezza; in questo caso un disturbo con questa potenza sarebbe significativo.

2.2 Rumore nei doppi bipoli


Quando un segnale attraversa un doppio bipolo viene disturbato dal rumore
creato dal dispositivo.

D.B

n(t)

x(t) ⊕ y(t)

Il parametro importante è la temperatura di lavoro: abbiamo visto come


influenza il rumore aumentandone la potenza e quindi peggiorando il segnale.
In ingresso al doppio bipolo abbiamo una potenza di rumore pari a:

κ·T
Gin =
2
Ipotizzando che gli elementi siano adattati in impedenza, quindi sia la
potenza del segnale che quella del rumore sono massime, si ha in uscita:

Gout = Gin · gdb + Gdb (2.1)

Supponiamo di avere un doppio bipolo ideale, che non introduce rumore,


con una potenza in uscita data da:

Gout = Gin · gdb

e un doppio bipolo rumoroso con potenza in uscita descritta nel’equazione


(2.1).
12 CAPITOLO 2. Rumore

Si definisce temperatura equivalente di rumore T e l’incremento di tem-


peratura che occorre dare all’ingresso del doppio bipolo ideale affinchè abbia
la stessa potenza di uscita del doppio bipolo rumoroso.

Ricapitolando:

D.B ideale D.B reale


= κ·(T 2+T e) · gdb

Gout = κ·T
2 · gdb Gout

Gin = κ·T2 Gin = κ·T2

Si introduce:
Gout Te
γT = ′ =1+
Gout T
Tale rapporto viene definito cifra di rumore (figure noise), quando T è
uguale a T o, temperatura operativa (290◦ K, 17◦ C):

Gout Te
F = ′ =1+
Gout To

Questa quantità misura quanto peggiora l’uscita del doppio bipolo rumoroso
rispetto al suo ingresso.

Invertendo la formula della cifra di rumore è possibile determinare anali-


ticamente un’espressione per la temperatura equivalente:

T e = T o · (F − 1)

2.3 Rumore in cascate di doppi bipoli


Ipotizziamo di avere una cascata di doppi bipoli con:

. cardinalità N ;

. temperatura Ti ;

. cifra di rumore Fi ;

. guadagno gi ;

Ti , Fi , gi Ti , Fi , gi Ti , Fi , gi

i=1 i=2 i=N


2.3. Rumore in cascate di doppi bipoli 13

Se consideriamo tutti i doppi bipoli ideali si avrà:


′ κ · To
Gout = · gtot
2
dove gtot rappresenta il guadagno complessivo della catena:

gtot = g1 · g2 · g3 · ... · gN

La potenza in uscita ipotizzando tutti i doppi bipoli reali sarà invece:



Gout = Gout + Gtot

dove Gtot rappresenta i contributi complessivi di rumore introdotti dalla


cascata di doppi bipoli:
XN
Gtot = Gdbi
i=1

Analizziamo l’uscita del primo elemento:

κ · (T o + T1 )
Gout (1) = · gtot + Gdb (1)
2

È come considerare il primo doppio bipolo reale e tutti gli altri ideali.
Ripetendo l’operazione sull’intera catena si ottiene:
T1 T2 TN
Ftot = 1 + + + ··· +
T o T o · g1 T o · (g1 · g2 · ... · gN −1 )

Detta formula di Friis. Equivalentemente:


F2 − 1 F3 − 1 FN − 1
Ftot = F1 + + + ··· +
g1 g1 · g2 gtot
Si può notare dalla formula di Friis che sono i primi stadi ad essere significa-
tivi nel garantire buone o cattive prestazioni del sistema: per questo motivo
dopo dispositivo ricevente come un’antenna viene posto un amplificatore a
basso rumore (Low Noise Amplifier) il quale, avendo una cifra di rumore
bassa, non peggiora il rumore di tutta la catena.

Come nel caso del doppio bipolo è possibile determinare la temperatura


equivalente totale come:
T2 T3 TN
T etot = T o · (Ftot − 1) = T1 + + + ··· +
g1 g1 · g2 gtot
14 CAPITOLO 2. Rumore

2.4 Rumore nei sistemi wireless


In un sistema nello spazio libero:

RX
Ta

La temperatura di antenna è la temperatura a cui si trova un resistore equi-


valente collegato al ricevitore che genererebbe la stessa quantità di rumore
dell’antenna; essa si sostituisce alla temperatura a cui si trova il sistema
perchè tiene conto di tutti i disturbi ricevuti (es. rumore galattico).
Con sistemi di questo tipo la temperatura operativa a cui si lavora è:

Top = T a + T e

Ricapitolando:

Sistemi wired Sistemi wireless


Top = T + T e Top = T a + T e

2.5 Banda equivalente di rumore


Nelle sezioni precedenti si è parlato spesso impropriamente di potenza di
rumore; il termine più corretto sarebbe stato densità spettrale di potenza
del rumore.
La potenza di rumore vera e propria infatti tiene conto della banda del se-
gnale che viene utilizzato.
Ipotizziamo di effettuare una trasmissione su un canale AWGN (Additive
White Gaussian Noise) che aggiunge al segnale solo rumore termico; model-
lizziamo semplicemente la trasmissione da una sorgente verso un destinatario
su un canale AWGN in questo modo:

x(t) ⊕ y(t)
n(t)
2.5. Banda equivalente di rumore 15

Se si pensa al segnale y(t) come risultato di una trasformazione data da una


funzione di trasferimento, la relazione fra le densità spettrali di potenza è:

Gy (f ) = |H(f )|2 · Gx (f )

Poichè il sistema di trasmissione è lineare, possiamo pensare di scomporre la


densità spettrale dell’uscita come somma delle densità spettrali di ingresso
e quella del rumore; per questo motivo è possibile calcolare direttamente la
potenza del rumore come:
Z +∞ Z +∞
N0 2 κ · To
PNout = · |H(f )| df = · |H(f )|2 df
−∞ 2 −∞ 2
κ·T o
Siccome 2 è costante si ottiene:
+∞
κ · To
Z
PNout = · |H(f )|2 df
2 −∞

Si osserva che l’integrale non dipende dalla geometria del filtro, ma solo dalla
sua area.
Si definisce banda equivalente di rumore:
Z +∞
1 1
Beq = · · |H(f )|2 df
2 |H(f )|2 −∞

Per cui la potenza di rumore risulta essere:

PNout = κ · T o · Beq · |H(f )|2

La banda equivalente di rumore è un filtro passabasso che ha una banda


capace di far passare la stessa quantità di rumore del filtro vero e proprio:

|H(f )|2 |H(f )|2

f −Beq Beq f

Ad esempio, se |H(f )|2 = 1:

PNout = κ · T o · Beq
16 CAPITOLO 2. Rumore

2.6 Rapporto segnale-rumore


Ipotizzando di avere un doppio bipolo caratterizzato da:
. temperatura equivalente T e;

. guadagno disponibile gd ;

. cifra di rumore F ;

. banda equivalente di rumore Beq ;

. potenza del segnale di ingresso PSin .


Il rapporto segnale-rumore, in inglese signal to noise ratio (SN R), viene
definito come:
P otenza segnale
SN R =
P otenza rumore
Se non si specifica dove si effettano queste due misure l’indicazione data da
SN R è totalmente inutile; pensiamo di calcolare tale quantità all’ingresso
del doppio bipolo considerato:
PSin
SN Rin =
PNin
Il termine della potenza del rumore in ingresso può essere esplicitato come:
κ·T
PNin = · 2Beq = κ · T · Beq
2
Quindi:
PSin
SN Rin =
κ · T · Beq

Effettuiamo ora il calcolo all’uscita del doppio bipolo:


PSout PS · gd
SN Rout = = in
PNout PNout
Determiniamo la potenza di rumore in uscita:
κ · (T + T e)
PNout = · gd · 2Beq = κ · (T + T e) · gd · Beq
2
Per cui:
PSin · gd PSin
SN Rout = =
κ · (T + T e) · gd · Beq κ · (T + T e) · Beq
Il significato di questa espressione è che non serve aumentare la potenza del
segnale per migliorare la qualità della trasmissione perchè verrebbe amplifi-
cato anche il rumore, non cambiando di fatto nulla.
2.7. Attenuatore dissipativo 17

Se la temperatura di lavoro è T o:
PSin 1 1
SN Rout = · T e
= SN Rin +
κ · T · Beq 1 + T o F

Esprimendo tutte le grandezze in decibel:

SN Rout |dB = SN Rin |dB − F |dB

2.7 Attenuatore dissipativo


Più comunemente noti come cavi, gli attenuatori dissipativi sono caratteriz-
zati da:
1
gd =
L
dove L è l’attenuazione.

Supponendo che lavori a temperatura T o possiamo definire:


κ·T o
. Gin = 2 , potenza di rumore in ingresso;
′ 1
. Gout = κ·T o
2 · L, potenza di rumore in uscita considerando ideale
l’attenuatore;

. Gout = κ·T o
2 , potenza di rumore in uscita considerando rumoroso
l’attenuatore.

Calcoliamone la cifra di rumore:


κ·T o
Gout 2
F = ′ = κ·T o 1
=L
Gout 2 · L

Fisicamente è un concetto esatto perchè, più è lungo un cavo, più si dissipa


potenza in calore per effetto Joule; ciò provoca un’aumento della tempera-
tura e, di conseguenza, di rumore.
18 CAPITOLO 2. Rumore
Capitolo 3

Teoria dell’informazione

3.1 Introduzione generale


Data una sorgente in grado di emettere un numero finito di simboli discreti:

S −→ {xi }M
i=1

si può pensare all’informazione come ad una grandezza che dipende dalla


probabilità che venga emesso uno dei simboli della sorgente piuttosto che
un altro. Più un simbolo ha probabilità di essere trasmesso, meno infor-
mazione conterrà; al contrario un simbolo trasporta tanta informazione se
viene emesso poche volte.

Proprietà

1. Dati due simboli xi e xj :

I(xi ) > I(xj ) se P(xi ) < P(xj );

2. Se gli eventi sono statisticamente indipendenti:

P(xi , xj ) = P(xi ) + P(xj ) =⇒ I(xi , xj ) = I(xi ) + I(xj ).

Una funzione matematica che verifica queste proprietà è il logaritmo; per


definizione:
1
I(xi ) , loga
P(xi )
A seconda della base a scelta si individuano diverse unità di misura per
l’informazione:
1
. I(xi ) = ln P(x i)
[nat]
1
. I(xi ) = log2 P(x i)
[bit]

19
20 CAPITOLO 3. Teoria dell’informazione

I bit dunque non sono ′′ 0′′ e ′′ 1′′ che viaggiano nei segnali, ma misura di
quantità di informazione scambiata.
Solo in casi particolari vi è una correlazione fra cifre binarie e bit di infor-
mazione, come si vedrà in seguito.

Si definisce entropia della sorgente la quantità:


M M
X X 1
H(x) = P(xi ) · I(xi ) = P(xi ) · log2
P(xi )
i=1 i=1

L’entropia rappresenta quindi una media dell’informazione trasmessa dalla


sorgente pesata, per ogni simbolo, dalla sua probabilità di essere emesso;
per questo motivo si misura in [ bit/sym].

Esempio 1

Data una sorgente S che può emettere 4 simboli diversi (x0 , x1 , x2 , x3 ) con
probabilità uguale per ogni simbolo; si calcoli l’entropia della sorgente.

Poichè i simboli sono equiprobabili e l’alfabeto è composto di 4 simboli:


1
P(x0 ) = P(x1 ) = P(x2 ) = P(x3 ) =
4
Si ha che la quantità di informazione che ogni simbolo ha è uguale per ogni
simbolo emesso.
L’entropia per definizione è:
M
X 1
H(x) = P(xi ) · log2
P(xi )
i=1

Quindi nel nosto caso:


1
H(x) = M · · log2 M = log2 4 = 2 bit/sym
M

Esempio 2

Ipotizziamo ora che la sorgente S non emetta con la stessa probabilità i


simboli, ma secondo le regole della tabella:

Simbolo xi Probabilità P(xi )


x0 P(x0 ) = 1/2
x1 P(x1 ) = 1/4
x2 P(x2 ) = 1/8
x3 P(x3 ) = 1/8
3.1. Introduzione generale 21

In questo caso con probabilità diverse anche la quantità di informazione che


trasporta ogni simbolo è diversa:
1
x0 =⇒ I(x0 ) = log2 P(x 0)
= log2 2 = 1 bit;
1
x1 =⇒ I(x1 ) = log2 P(x 1)
= log2 4 = 2 bit;
1
x2 =⇒ I(x2 ) = log2 P(x 2)
= log2 8 = 3 bit;
1
x3 =⇒ I(x3 ) = log2 P(x 3)
= log2 8 = 3 bit.
Si può notare come i simboli meno probabili, che dunque contengono più
informazione, trasportano il maggior numero di bit; viceversa i simboli più
probabili sono quantificati con un bit.
Calcoliamo ora l’entropia della sorgente:
M
X 1 1 1 1 7
H(x) = P(xi ) · log2 = · 1 + · 2 + 2 · · 3 = = 1.75 bit/sym
P(xi ) 2 4 8 4
i=1

Rispetto al caso di simboli equiprobabili quindi si ha meno entropia in quan-


to alcuni simboli sono più frequenti e, dunque, forniscono meno informazione
quando sono emessi.

Esempio 3

Consideriamo ora una sorgente S che emetta simboli binari:

X = {x0 , x1 }

Le cui probabilità di emissione sono:


. P(x0 ) = p0 ;
. P(x1 ) = 1 − p0 .
L’entropia della sorgente è:
1 1
H(x) = p0 · log2 + (1 − p0 ) · log2
p0 (1 − p0 )
Diagrammando l’entropia in funzione della probabilità p0 :

H(x)
1

0 1 1 p0
2
22 CAPITOLO 3. Teoria dell’informazione

Il significato di questo grafico è il seguente: se si trasmette con probabilità


p0 = 1 allora viene emesso solo il simbolo x0 ; esso non trasporta informazione
quindi l’entropia della sorgente è nulla. Lo stesso discorso vale nel caso in
cui si emette il simbolo x1 sempre, ossia p0 = 0; quando invece i simboli
sono equiprobabili l’entropia è massima e vale 1:
 
1 1 1 1 1 1
H(x) = · log2 1 + 1 − · log2 1 = + = 1 bit/sym
2 2
2 (1 − 2 ) 2 2

Solo in questo caso vi è una corrispondenza fra cifra binaria ed bit; si noti,
ad esempio, che se si tramette per il 60% delle volte il simbolo x0 e per il
40% x1 allora l’entropia sarà un numero compreso fra 0 e 1.

3.2 Codifica di sorgente


L’obbiettivo di una codifica di sorgente è capire se, data una sorgente S con
un alfabeto di simboli discreti:

S −→ X = {xi }M
i=1

è possibile trovare una sorgente binaria equivalente:

SBIN −→ Y = {y0 , y1 }

in modo tale da rappresentare la stessa quantità di informazione della sor-


gente S con stringhe binarie.

Lunghezza media

Si definisce n, lunghezza media delle parole di codice, la quantità:


M
X
n= P(xi ) · ni
i=1

dove:

. P(xi ) rappresenta la probabilità di emissione del simbolo della sorgente


non binaria;

. ni rappresenta la lughezza della singola parola in cifre binarie.

Teorema di Shannon:
H(x) ≤ n ≤ H(x) + 1
La condizione importante è:
n ≥ H(x)
3.2. Codifica di sorgente 23

Significa che nel caso migliore, simboli equiprobabili, servono tante cifre bi-
narie quanto è l’entropia della sorgente; in caso contrario ne servono di più,
quindi ci sarà uno spreco di cifre che non sono informazione, ma ridondanza.

Con questi ragionamenti si può anche ridefinire il concetto di entropia come


il numero minimo di bit necessari per rappresentare in cifre binarie i simboli
della sorgente.

L’obbiettivo di buoni codificatori è quello di cercare di portare il valore


di n vicino al valore dell’entropia della sorgente H(x).
Una possibile classificazione dei codificatori prende in esame la caratteristica
di mantenere o accettare perdite di informazione rispetto alla sorgente:
. codificatori LOSSLESS, o senza perdite (es: compressione ZIP);

. codificatori LOSSY, con perdite (es: formati JPEG, MP3, ...).


Un algoritmo per la codifica di sorgente è l’algoritmo di HUFFMAN; i
passi necessari per effettuare una codifica Huffman sono i seguenti:
1. ordinare i simboli xi secondo probabilità non decrescenti di P(xi );

2. raggruppare i simboli xi e xj con probabilità più bassa ed associare un


nuovo simbolo xk che abbia una probabilità P(xk ) = P(xi ) + P(xj );

3. ripetere il passo 2 fino ad ottenere un solo simbolo finale con probabi-


lità 1;

4. associare le cifre binarie ′′ 0′′ e ′′ 1′′ alle transizioni dei rami dell’albero
ottenuto;

5. leggere le stringhe dalla radice fino alle foglie dell’albero.


Esempio

Consideriamo una sorgente con un alfabeto:

S −→ X = {xi }4i=1

in cui le probabilità di emissione per simbolo sono descritte in tabella:

Simbolo xi Probabilità P(xi )


x0 P(x0 ) = 1/2
x1 P(x1 ) = 1/4
x2 P(x2 ) = 1/8
x3 P(x3 ) = 1/8
Realizziamo per questa sorgente una codifica di Huffman:
24 CAPITOLO 3. Teoria dell’informazione

P = 1/8
x3 1
P = 1/4
1
P = 1/8
x2 0
P = 1/2
1

P = 1/4
x1 0 P=1

P = 1/2
x0 0

I simboli possono essere dunque cosı̀ codificati:

Simbolo Codifica
x3 111
x2 110
x1 10
x0 1

Calcoliamo n:
1 1 1 7
n= · 1 + · 2 + 2 · · 3 = = 1.75
2 4 8 4
Il risultato è uguale all’entropia di questa sorgente; infatti con la codifica
Huffman si ha n = H(x) nel caso in cui le probabilità siano distribuite come:

1
P(x) = i
α i=2,4,8,16,...

dove α ∈ N.
In questi casi una cifra binaria corrisponde ad un bit di informazione; se però
n 6= H(x) si introduce un parametro η che misura l’efficienza di codifica,
definito come:
H(x)
η=
n
3.3. Codifica di canale 25

3.3 Codifica di canale


Riassumendo i concetti visti finora, sappiamo che le parole composte da
una sorgente con un alfabeto qualsiasi possono essere codificate in stringhe
binarie con algoritmi particolari; l’obbiettivo di questi codificatori è evitare
di creare codici con cifre binarie inutili che non trasportano informazione.
In uno schema a blocchi:

X = {xi }M
i=1 Y = {y0 , y1 }
S C.S

Sorgente Codificatore di sorgente


Il problema principale è che dopo il codificatore di sorgente l’informazione
non è robusta: se durante la trasmissione si perde anche un solo bit, quel
bit è sicuramente di informazione quindi si è persa parte del messaggio.
Al fine di proteggere l’informazione si preferisce aggiungere bit di ridondanza
prima di effettuare la trasmissione sul canale; ridondanza che però è control-
lata a differenza di quella introdotta dalla sorgente; questo processo avviene
grazie ai codificatori di canale:

S C.S C.C

Sorgente Cod. Sorgente Cod. Canale Canale AWGN


Una codifica di canale riceve, dopo il codificatore di sorgente, una stringa di
m cifre binarie e fornisce in uscita stringhe con n cifre, con:

n>m

Viene definito rate di codifica il rapporto:


m
Rc =
n
un parametro che rappresenta l’efficienza dei codificatori.

L’obbiettivo dei codificatori di canale è duplice: riuscire a rilevare (fase


di detection) l’errore e, se possibile, correggerli.

Un esempio di codificatore di canale è il codice a ripetizione.


Un codice a ripetizione (n, m) riceve in ingresso m cifre binarie e le ripete
n volte.
26 CAPITOLO 3. Teoria dell’informazione

Esempio

Codice a ripetizione (3,1):

Input Output
0 000
1 111

In questo caso il rate di codifica risulta essere:


1
Rc =
3
Si può notare che il codice permette di rilevare errori e, secondo oppurtu-
ne scelte, la correzione, ma questo pregio viene pagato con un’occupazione
maggiore del canale.
La rilevazione avviene praticamente sempre perchè, ricevendo una sequenza
che non presenta n cifre uguali ci si accorge di un errore di trasmissione; la
correzione può solo avvenire se vengono decisi a priori criteri particolari.
Nel nostro esempio del codice (3,1) si può decidere di correggere a maggio-
ranza:

. se la stringa ricevuta presenta due 0 ed un 1 si decodifica con 0;

. se la stringa ricevuta presenta due 1 ed uno 0 si decodifica con 1.

Ma tale criterio funziona solo per errori singoli: se infatti durante la tra-
smissione vengono fatti due errori, ciò che accade è un errore di decodifica
(0 anzichè 1 e viceversa).
Aumentando la complessità del codice, ad esempio utilizzando un codice
(5,1), si riuscirebbero a rilevare due errori e a correggere quando le stringhe
presentano meno di 3 errori di tramssione; ovviamente questo comporta una
diminuzione del rate di codifica che diventerebbe pari ad 51 .
3.4. Canale discreto 27

3.4 Canale discreto


Data una sorgente S con un alfabeto di simboli:

S −→ X = {xi }M
i=1

se in ricezione si ha:
R −→ Y = {yj }N
j=1

un modello che descrive ciò che accade prende il nome di canale discreto.
In generale non è detto che avendo M simboli alla sorgente si debbano avere
N = M simboli in ricezione.
Ad esempio, la sorgente trasmette stato alto (1) e stato basso (0) in cui
M = 2; sul canale è presente sicuramente il rumore che potrebbe portare
ad avere, oltre ai corrispettivi stati alto e basso, anche un terzo stato di
transizione: in questo caso N = 3.
Per questo esempio costruiamo il modello del canale discreto:

b y0

x1 b

b y1

x0 b

b y2
Se ogni simbolo ha una certa probabilità di essere emesso e ricevuto:

Simbolo Probabilità
x0 P(x0 )
x1 P(x1 )
y0 P(y0 )
y1 P(y1 )
y2 P(y2 )

si può identificare su ogni ramo del canale una probabilità di ricevere un


simbolo yj dato un simbolo xi ; la notazione è: P(yj |xi ) .

La probabilità a posteriori, invece, definita come P(xi |yj ) esprime la proba-


bilità che avendo ricevuto un simbolo yj sia stato trasmesso xi .
28 CAPITOLO 3. Teoria dell’informazione

Un caso particolare di canale discreto è il canale binario, in cui M = N = 2:

x1 b b y1

x0 b b y0
dove con i tratti rossi tratteggiati si sono rappresentate le transizioni dei
canali, mentre con il tratto nero continuo i casi di corretta trasmissione.
Nel caso in cui le probabilità di errore siano uguali:

P(y1 |x0 ) = P(y0 |x1 ) = Pe

si parla di canale binario simmetrico (BSC).

Definiamo sul BSC la quantità media di informazione trasmessa e ricevuta:


. H(x) = M 1
P
i=1 P(xi ) · log2 P(xi ) =⇒ entropia della sorgente in tra-
smissione;

. H(y) = N 1
P
j=1 P(yj ) · log2 P(yj ) =⇒ entropia della sorgente in rice-
zione.
Sempre per il BSC, con il teorema della probabilità totale, calcoliamo:
. P(y0 ) = P(x0 ) · P(y0 |x0 ) + P(x1 ) · P(y0 |x1 );

. P(y1 ) = P(x0 ) · P(y1 |x0 ) + P(x1 ) · P(y1 |x1 );


Si introducono ora altre due quantità:

1. H(y|x) = M
P PN 1
i=1 j=1 P(xi , yj ) · log2 P(yj |xi ) ;
PM PN
2. H(x|y) = i=1 j=1 P(xi , yj ) · log2 P(x1i |yj ) .

La prima definizione misura la quantità media di informazione associata alle


transizioni del canale, quindi la sua incertezza; a denominatore del logaritmo
è presente la probabilità di errore dei rami: se questa quantità è alta sarà
grande anche l’incertezza del canale.

La seconda definizione prende il nome di equivocazione del canale: essa


rappresenta la quantità di informazione che si perde nel canale; se si cono-
scesse sarebbe possibile decodificare perfettamente ogni simbolo.

Corollario

0 ≤ H(y|x) ≤ H(x)
3.4. Canale discreto 29

Vediamo il significato spezzando in due casi questa relazione ed analizzan-


done gli estremi:

. H(y|x) = 0 siamo nel caso migliore, perchè se l’equivocazione è nulla


allora tutta l’informazione trasmessa viene ricevuta senza errori: il
canale è ideale;

. H(y|x) = H(x) siamo nel caso peggiore, dove l’incertezza è massima


perchè l’equivocazione del canale è pari all’informazione media emessa
dalla sorgente: il canale diventa inutilizzabile.

Dal Teorema di Shannon si evince che:

I(x, y) = H(x) − H(x|y) [ bit/sym]

I(x, y) rappresenta la quantità di informazione scambiata; l’uguaglian-


za dice che essa è pari all’entropia della sorgente meno l’equivocazione del
canale.
Questa quantità non è l’informazione ricevuta, la quale dipende solo dalle
probabilità P(yi ).
Si può dimostrare che:

I(x, y) = H(x) − H(x|y) = H(y) − H(y|x)

Questo passaggio è più difficile da spiegare concettualmente, ma è utile al


fine dei calcoli: infatti, a differenza dell’equivocazione del canale, che è una
quantità per definizione ignota, H(y|x) è più facile da determinare.

Un buon progetto di sistema di trasmissione-ricezione prevede di massi-


mizzare la quantità di informazione scambiata; si definisce capacità del
canale:
C = max {I(x, y)} [ bit/sym]
La capacità del canale è un parametro che indica la massima quantità di
informazione che il canale può trasportare; un’ulteriore bit aggiunto oltre la
capacità C diventa informazione persa e non recuperabile in nessun modo.

Il parametro su cui si agisce per massimizzare la capacità non è, come si


potrebbe pensare, l’equivocazione del canale in quanto una volta definite le
transizione non si può intervenire; in ogni caso, anche se si riuscissero ad
evitare transizioni, rimarrebbe comunque il rumore termico come fonte di
errore.
Si agisce dunque sulle probabilità P(xi ) che possono essere scelte in modo
opportuno dal progettista.
30 CAPITOLO 3. Teoria dell’informazione

I simboli della sorgente vengono emessi con una frequenza regolare; si defi-
nisce:
H(x)
Rs =
Ts
dove:

. Rs è il rate di emissione della sorgente, misurato in bit/s;

. Ts è il tempo di simbolo, ovvero ogni quanto tempo la sorgente emette


un nuovo simbolo.

Rs viene anche chiamato Bit Rate, sottointendendo per bit rate il rate di
emissione di una quantità unitaria di informazione e non il rate di emissione
di cifre binarie.
Quest’ultimo viene indicato con rb e si può facimente capire che:

rb ≥ Rs

Ipotizziamo infatti che, dopo il codificatore di sorgente, sia presente un codi-


ficatore di canale con codice a ripetizione: sicuramente le cifre binarie emesse
dal codificatore di sorgente verranno ripetute quindi rb sarà più grande di Rs .

Si definisce:
C
Cs =
Ts
come capacità per tempo di simbolo, misurata anch’essa in bit/s.

Teorema della codifica di canale

Se Rs ≤ Cs allora esiste un modo per trasmettere l’informazione sul ca-


nale senza errori.

Questo teorema di esistenza viene di fatto realizzato attraverso codifiche


di canale molto sofisticate, come i turbocodici. Questi codici introducono
una complessità notevole, quindi, per alcune applicazioni non sono sempre
utilizzabili.
Capitolo 4

Modulazioni

In questo capitolo verranno affrontate le modulazioni analogiche e numeri-


che dei segnali.

4.1 Modulazioni analogiche


La modulazione dei segnali significa spostare la frequenza a cui viene emesso
il segnale dalla sorgente.

x(t) y(t)
MOD

Modulatore

4.1.1 Modulazioni di ampiezza

La modulazione di ampiezza più semplice avviene moltiplicando il segnale


x(t) per un coseno:
x(t) −→ ⊗ −→ y(t)

cos(2πf0 t)

Il risultato è il seguente nel dominio delle frequenze:

31
32 CAPITOLO 4. Modulazioni

X(f ) Y (f )
1
1
2

f −f0 f0 f

Lo spettro Y (f ) viene spostato dalla banda base attorno alla frequenza della
portante: si parla di segnali in banda traslata.

Le frequenze sono le risorse più costose per le comunicazioni ; esse vengono


divise in bande, le più importanti sono:
. 3-30 kHz: very low frequency (es: trasmssioni marine);
. 30-300 MHz: very high frequency (es: trasmissioni soccorso alpino);
. 0.3-3 GHz: UHF (es: televisione, telefonia, telefonia cellurare, comu-
nicazioni wireless);
. 3-30 GHz: comunicazioni satellitari, ponti radio.
Per trasmissioni via etere è possibile utilizzare le frequenze a piacimento, ma
nello spazio libero occorrono precisa disposizioni per non creare confusione
nelle comunicazioni.

In fase di ricezione il segnale deve essere demodulato; questa fase può avve-
nire in due modi:
. demodulazione coerente;
. demodulazione non coerente.
La demodulazione coerente avviene, partendo dal segnale ricevuto r(t) che
comprende il rumore, moltiplicando per un coseno:

cos(2πf t)
y c

r(t) −→ ⊗ −→ w(t)
Nel caso di demodulazione coerente occorre conoscere le informazioni della
portante: frequenza e fase.
Anche la fase è un parametro importante perchè, ad esempio, se si moltipli-
casse per cos(2πfc t + ϕ), con ϕ = 90◦ accadrebbe che il coseno diventerebbe
un seno ed un’eventuale operazione di filtraggio successiva avrebbe risultato
nullo perchè seno e coseno sono ortogonali fra loro.
Poichè la fase dipende dalla distanza a cui sono posti trasmettitore e ricevi-
tore è possibile ricostruire la portante, in ricezione, solo con un sincroniz-
zatore; il sincronizzatore opera con un filtro molto stretto sulla frequenza
fc della portante.
4.1. Modulazioni analogiche 33

Dato un segnale di banda base s(t):


S(f )
1

Con la modulazione si ottiene un segnale sm (t):


Sm (f )

1/2

−fc fc f

In fase di demodulazione, moltiplicando sm (t) per cos(2πfc t) si ha sd (t):


Sd (f )

−2fc 2fc f

Il segnale sd (t) = s(t) quando, con un opportuno filtraggio di tipo passabas-


so, vengono elimitate le frequenze immagine attorno a ±2fc .
Per segnali che hanno componente continua, l’operazione di sincronizzazio-
ne avviene senza problemi; ma nel caso del segnale s(t), che ne è privo,
osserviamo cosa capita filtrando Sm (f ) con una banda stretta attorno alla
frequenza di carrier:
Sm (f )

1/2

−fc fc f

Il risultato dell’operazione di filtro è nullo quindi non si riuscirebbe a de-


modulare; come vedremo più avanti, con opportuni segnali si risolve questo
problema.
34 CAPITOLO 4. Modulazioni

La demodulazione non coerente avviene grazie ai rilevatori di picco, che


demodulano il segnale seguendone i picchi; questo tipo di demodulazione
non è ottima, ma ha il vantaggio di essere poco costosa.
Solo nel caso di un segnale veloce, scegliendo opportunamente la costante
di tempo RC è possibile demodulare abbastanza bene il segnale ricevuto; il
problema sorge quando il segnale compie un’inversione di fase: il rilevatore
di picco, infatti, legge solo il modulo positivo quindi non fornirebbe un ri-
sultato corretto. Questo fenomeno prende il nome di sovramodulazione.

L’amplitude modulation è realizzata per poter essere demodulata in tutti


e due i modi, risolvendo i problemi di recupero della portante per segnali a
componente continua nulla e di sovramodulazione.

Modulazione AM

Sm (t) = Ac · [1 + Ka · m(t)] · cos(2πfc t)


dove:

. m(t) rappresenta il segnale modulato;

. Ka è l’indice di modulazione.

Si può notare che l’ampiezza di Sm (t) è tutta l’espressione Ac ·[1+Ka ·m(t)];


questa quantità, quotato Ac , è un segnale che dipende dal segnale modulante
m(t), ma si trova in un intorno di Ac a meno di un fattore Ka :

Ka
Ac
−Ka

Notiamo, dunque, che il problema della sovramodulazione si risolve sempli-


cemente scegliendo opportunamente il coefficiente Ka : ad esempio alzando
il segnale affinchè non abbia inversione di fase.
Il comportamento in frequenza è il seguente:

Sm (f ) = F {Sm (t)}


Ac Ac Ac · Ka Ac · Ka
Sm (f ) = ·δ(f −fc )+ ·δ(f +fc )+ ·M (f −fc )+ ·M (f +fc )
2 2 2 2
4.1. Modulazioni analogiche 35

Parte della potenza del segnale viene quindi usata per trasportare due por-
tanti proprio sulla frequenza di carrier; il sincronizzatore dunque, nel caso
di segnali a componente continua nulla, filtrando recupera le informazioni
utili perchè il risultato dell’operazione non è più nullo:
Sm (f )

1/2

−fc fc f

Questo tipo di modulazione prende il nome di modulazione a doppia ban-


da laterale (DSB, double side band) a portante non soppressa (NSC,
non suppress carrier).

Questa modulazione è addirittura eccessiva perchè utilizza il doppio della


banda strettamente necessaria per ricostruire il segnale: se infatti la mo-
dulante è reale, lo spettro è pari ed è sufficiente conoscerne la metà per
demodulare senza errori.

S(f )
1

Sm (f )

1/2 1/2

−fc fc f

Immaginando di tagliare con un filtro passa alto la parte di spettro superiore


a fc ed inferiore a −fc :
36 CAPITOLO 4. Modulazioni

Rm (f )

1/2 1/2

−fc fc f

Questo segnale permette ancora di ricostuire perfettamente il segnale di par-


tenza; moltiplicando rm (t) per cos(2πfc t) si ottiene:

Rd (f )

1/4 1/4 1/4

−2fc 2fc f

Ovviamente non si tengono in considerazione le frequenze immagine a ±2fc


perchè, per ricostruire il segnale di banda base si filtra con un passabas-
so; l’ampiezza durante il processo viene ridotta di un fattore 4, ma ciò è
ininfluente ai fini della demodulazione. Questa modulazione, che prevede
l’utilizzo di una sola metà dello spettro di banda base, prende il nome di
modulazione single side band (SSB).

4.1.2 Segnale analitico e inviluppo complesso


In questa sezione vengono definiti il segnale analitico, la sua espressione
come composizione di segnale in banda base e trasformata di Hilbert e il
significato dell’inviluppo complesso.

Segnale analitico
Dato un segnale in ingresso si definisce segnale analitico:

x(t) ẋ(t)
2u(f )

Il segnale analitico di x(t) si indica con ẋ(t). Vediamo graficamente questa


operazione evidenziando con tre grafici X(f ), |H(f )| e F {ẋ(t)}:
4.1. Modulazioni analogiche 37

X(f ) |H(f )|
2
1

f f

X(f ) · H(f )


F {ẋ(t)}
2

Lo spettro di H(f ) non è pari, quindi la risposta all’impulso non è reale:


1
h(t) = F −1 {H(f )} = F −1 {2u(f )} = δ(f ) + j
πt
Se determiniamo analiticamente il segnale analitco:
j ∞
 
1
Z
ẋ = x(t) ∗ h(t) = x(t) ∗ δ(f ) + j = x(t) + x(τ )h(t − τ ) dτ =
πt π −∞
j ∞ x(τ )
Z
= x(t) + dτ
π −∞ t − τ
L’espressione:
1 ∞ x(τ )
Z
x̂ = dτ
π −∞ t − τ
prende il nome di trasformata di Hilbert per il segnale x(t).
Dunque il segnale analitico ẋ(t) può essere visto come composizione di:
ẋ(t) = x(t) + j x̂(t)
In via grafica possiamo dare un significato alla trasformata di Hilbert; sap-
piamo infatti come risulta essere la forma di x(t) e ẋ(t):

X(f ) F {ẋ(t)}
2
1

f f
38 CAPITOLO 4. Modulazioni

Per differenza dunque x̂(t), per poter tagliare la parte negativa, deve essere:
F {x̂(t)}
2

La traformata di Hilbert, quindi, realizza degli sfasamenti:

. la parte positiva del segnale viene moltiplicata per −j in modo tale da


passare inalterata;

. la parte negativa viene moltiplicata per j cosı̀ da essere cambiata di


segno.

Proprietà del segnale analitico


Presi due segnali:

. s(t) segnale di banda base;

. z(t) segnale di banda passante.

Si dimostra che se:


x(t) = s(t) · z(t)

ẋ(t) = s(t) · ż(t)
Questa proprietà è molto importante, perchè nell’ambito delle telecomuni-
cazioni capita molto spesso di trovarci di fronte a casi di questo tipo: un
esempio è la modulazione.
Infatti il segnale modulante è per definizione di banda base, come s(t), men-
tre la portante deve essere un segnale di banda passante; se consideriamo la
modulazione di ampiezza studiata:

x(t) = m(t) · cos(2πfc t)

Possiamo definire il segnale analitico di x(t) una volta calcolato il segnale


analitico di z(t) = cos(2πfc t):
1 1
Z(f ) = δ(f − fc ) + δ(f + fc )
2 2

F {ż(t)} = Z(f ) · H(f ) = Z(f ) · [2u(f )] = δ(f − fc )
4.1. Modulazioni analogiche 39


ż(t) = F −1 {δ(f − fc )} = ej2πfc t
Quindi:
ẋ(t) = m(t) · ej2πfc t

Inviluppo complesso
Dato un segnale analitico ẋ(t):
F {ẋ(t)}

f0 f

Esso può essere espresso come:

ẋ(t) = x̃ · ej2πf0 t

dove x̃ rappresenta l’inviluppo complesso del segnale x(t).


L’inviluppo complesso è un segnale modulante di una portante ben definita,
con frequenza di carrier f0 , la quale deve essere all’interno dello spettro del
segnale analitico; se non è centrale a ẋ(t) allora il segnale è complesso perchè
la forma dello spettro non è pari.
x̃(t) è un inviluppo perchè se esprimiamo:

m(t) · ej2πf0 t = m(t) · [cos(2πf0 t) + jsin(2πf0 t)]

anche m(t)cos(2πf0 t) è un inviluppo.

Decomponiamo x̃ in parte reale ed immaginaria:

x̃(t) = xc (t) + jxs (t)

Il segnale x(t) può essere determinato come:


n o
x(t) = Re {ẋ(t)} = Re x̃ · ej2πf0 t =
= Re {[xc (t) + jxs (t)] · [cos(2πf0 t) + jsin(2πf0 t)]} =
= xc (t)[cos(2πf0 t)] − xs (t)[sin(2πf0 t)]

Dunque un inviluppo complesso di un segnale in banda passante vuol dire


osservare il segnale spezzato nelle sue componenti in fase (coseno) e quadra-
tura (seno); le componenti che trasportano l’informazione del segnale sono
40 CAPITOLO 4. Modulazioni

però solo xc (t) ed xs (t).


In banda base la componente in quadratura non esiste perchè il seno si an-
nulla, quindi se si lavora con una certa frequenza di carrier fc è sottointeso
che il segnale può essere visto come somma di entrambe le componenti.
Visualizziamo in modo grafico:
xc (t)

cos(2πf0 t)
x(t)

xs (t)

sin(2πf0 t)

4.2 Modulazioni numeriche


4.2.1 Introduzione generale
Nei sistemi numerici il segnale è proporzionale all’informazione trasmessa.
Ricordando brevemente lo schema a blocchi:

S C.S C.C MOD

Sorgente Cod. Sorgente Cod. Canale Modulatore


numerico

Il modulatore numerico non riceve in ingresso un segnale da trasmettere


come nel caso analogico, ma parole di codice, ovvero sequenze di stringhe
binarie che sappiamo essere bit (come misura di informazione) se n = H(x).

{xi }M
i=1 {si }M
i=1
MOD

Modulatore
numerico

Dove:

. {xi }M
i=1 sono bit in ingresso;
4.2. Modulazioni numeriche 41

. {si }M
i=1 sono segnali in uscita.

In uscita dal modulatore ci devono necessariamente essere segnali fisici per


propagarsi nel vuoto o via cavo; essi dovranno poi essere demodulati in fase
di ricezione dal demodulatore:
{ri }M
i=1 {x̂i }M
i=1
DEMOD

Demodulatore
numerico

Dove:

. {ri }M
i=1 sono i segnali ricevuti in ingresso;

. {x̂i }M
i=1 sono i simboli stimati in uscita.

Sul canale sappiamo che è presente il rumore termico quindi modellizziamo


i segnali ricevuti come:

{si }M
i=1 {ri }M
i=1

n(t)

Il demodulatore deve dunque, in base ad alcuni parametri, stimare quale sia


il simbolo che con più probabilità era stato emesso dalla sorgente.

Il parametro principale per valutare un sistema è la probabilità di errore


P(e): questa grandezza rappresenta la probabilità che emesso un simbolo xi
dalla sorgente si abbia in ricezione xj .
Ipotizziamo di associare a due simboli due sequenze numeriche:

Trasmissione Ricezione
Simbolo xi x̂j
Codifica 000 001

In ricezione viene stimato il simbolo x̂j nonostante fosse stato trasmesso xi ;


è possibile definire dunque una probabilità di errore sul simbolo:

P(e) = P(x̂j |xi )

Ma se osserviamo ogni cifra binaria singolarmente si nota che in realtà non


tutte sono errate ma solo una; si introduce quindi anche una probabilità di
errore sul bit Pb (e).
42 CAPITOLO 4. Modulazioni

Esempio

Data una sorgente di simboli:

X −→ {0, 1}

associati dal modulatore numerico a due segnali:

S −→ {s1 (t), s2 (t)}

Determiniamo delle possibili scelte per i segnali:

1◦ tipologia

s1 (t) s2 (t)

A
T
T t t
-A

2◦ tipologia

s1 (t) s2 (t)

A
T
T t t
-A

3◦ tipologia

s1 (t) s2 (t)

A
A

T1 t T2 t

Il criterio di scelta è la probabilità di errore quindi bisogna chiedersi quale


configurazione è più robusta in presenza di rumore.
4.2. Modulazioni numeriche 43

Occorre capire come opera il demodulatore, ossia come stima i parametri


necessari che passerà ad un blocco successivo chiamato decisore; è quest’ul-
timo componente che si occupa di decidere, appunto, quali sono i simboli
che più probabilmente sono stati emessi.
Per le tre tipologie di segnali viste i parametri che il modulatore deve stimare
sono:

. 1◦ tipologia: ampiezza del segnale;

. 2◦ tipologia: fase del segnale;

. 3◦ tipologia: durata del segnale.

Consideriamo solo segnali a durata finita, in cui i simboli vengono emessi


ogni Ts , noto come tempo di simbolo; si definisce:
1
Rs =
Ts
symbol rate.
Questi segnali fisici, associati a simboli xi , trasportano una certa quantità
di informazione; è questo il parametro importante e non tanto la forma del
segnale di per sè, quindi si definiscono anche:
Ts
Tb =
n
dove:

. Tb è il tempo di bit;

. n rappresenta il numero di bit associati al segnale.

Anche in questo caso l’inverso del tempo di bit prende il nome di bit rate:
1
Rb =
Tb
Si deve prestare attenzione perchè Ts e Rs sono parametri fisici, mentre Tb
ed Rb si introducono per comodità.
44 CAPITOLO 4. Modulazioni

Vediamo ora come decodificare un insieme di segnali {si (t)}M


i=1 .
In ricezione si ha r(t) = sk (t) + n(t):
r(t) R Ts λ1
⊗ 0 ⊕
s1 (t) − 21 ε1

R Ts λ2
⊗ 0 ⊕
s2 (t) − 21 ε2

R Ts λM
⊗ 0 ⊕
sM (t) − 21 εM

I parametri misurati dal demodulatore che vengono passati al decisore sono


dunque i vari {λi (t)}M
i=1 ; il segnale che il decidore stima è quello per cui il
valore di λi risulta maggiore.

Esempio

Dati quattro segnali:


s1 (t) s2 (t)
2A
A

Ts t Ts t

s3 (t) s4 (t)
Ts Ts
t t
A
2A
4.2. Modulazioni numeriche 45

Ipotizzando di avere trasmesso il segnale s1 (t) calcoliamo i parametri λi ; in


tabella si riportano i passaggi da effettuare:
TX Moltiplicazione Integrazione Sottr. energia λi
s1 (t) s1 (t) · s1 (t) = A2 A2 · Ts − 21 A2 · Ts 1 2
2A · Ts
s1 (t) s1 (t) · s2 (t) = 2A2 2A2 · Ts − 12 4A2 · Ts 0
s1 (t) s1 (t) · s3 (t) = −A2 −A2 · Ts − 21 A2 · Ts − 32 A2 · Ts
s1 (t) s1 (t) · s4 (t) = −2A2 −2A2 · Ts − 12 4A2 · Ts −4A2 · Ts

In questo caso dunque il parametro scelto λi sarebbe il primo; la stima è


quindi esatta perchè era stato trasmesso proprio s1 (t).
Si può osservare che, nel caso l’alfabeto sia molto grande il decisore dovrebbe
ogni tempo di simbolo effettuare un sacco di operazioni; esiste un metodo
migliore per stimare i parametri poichè, nel nostro esempio di prima, si nota
che in realtà i quattro segnali sono formati a partire da un singolo segnale
di base a cui si cambia di volta in volta l’ampiezza.
Esprimiamo dunque M segnali dell’alfabeto da trasmettere come:
M
X
sk (t) = sk,n (t) · ψn (t) (4.1)
n=1

Le funzioni ψn (t) sono le funzioni, o componenti base, con cui si costruiscono


tutti i segnali; esse devono formare una base ortonormale e in particolare:
. il prodotto scalare tra due componenti deve essere nullo, ovvero:
Z +∞
ψi (t) · ψj (t) dt = δij 1
−∞

. i coefficienti sk,n (t) possono essere individuati come:


Z +∞
sk,n = s(t) · ψn (t) dt
−∞

Ipotizziamo:
sk (t) = α · ψ1 (t) + β · ψ2 (t)
Come si è visto:
Z +∞
α = s(t) · ψ1 (t) dt = sk,1
−∞
Z +∞
β = s(t) · ψ2 (t) dt = sk,2
−∞

Proviamo a visualizzare graficamente i concetti fin qui introdotti; le funzioni


ψ sono gli assi del piano cartesiano mentre α e β le proiezioni del segnale
s(t) sui due assi:
1
La δij vale 1 se i = j oppure 0 se i 6= j
46 CAPITOLO 4. Modulazioni

ψ2 (t)
sk (t)
β

α ψ1 (t)

Questo comportamento si verifica in assenza di rumore; se invece è presente:


ψ2 (t) rk (t)
β + n(t)
β

α ψ1 (t)
[α + n(t)]

Calcolando le proiezioni di rk (t) sulle componenti base si ottengono:


Z +∞
α + n(t) = r(t) · ψ1 (t) dt = rk,1
−∞
Z +∞
β + n(t) = r(t) · ψ2 (t) dt = rk,2
−∞

Gli rk,n sono i parametri calcolati dal demodulatore; grazie alla rappresen-
tazione mediante segnali di base la demodulazione è ideale.

Lo schema del demodulatore ideale quindi prevede:


r(t) R Ts r1
⊗ 0
ψ1 (t)

R Ts r2
⊗ 0
ψ2 (t)

R Ts rM
⊗ 0
ψM (t)

Io ogni istante di tempo Ts il segnale viene scomposto dal demodulatore che


ne calcola le proiezioni sugli assi ψi .
4.2. Modulazioni numeriche 47

Calcoliamo sul ramo l-esimo:


Z Ts
rl = r(t) · ψl (t) dt
0

Scomponiamo il segnale r(t) come somma di segnale utile e rumore:


Z Ts
rl = [sk (t) + n(t)] · ψl (t) dt
0

Trattiamoli ora separatemente:


Z Ts Z Ts
rl = sk (t) · ψl (t) dt + n(t) · ψl (t) dt (4.2)
0 0

Per quanto riguarda la componente utile del segnale, sostituiamo a sk (t) la


sua espressione equivalente (4.1):

Z M
Ts X
sk,n (t) · ψn (t) · ψl (t) dt
0 n=1

Scambiamo la sommatoria con l’integrale si ha:

M
X Z Ts
sk,n(t) ψn (t) · ψl (t) dt
n=1 0

Il risultato dell’integrale è δnl quindi solo quando il segnale trasmesso n è nel


ramo giusto l = n l’operazione non è nulla; in tutti gli altri casi il risultato
è zero per cui la demodulazione non è affetta da errori di decodifica.
Si noti che in assenza di rumore, su ogni ramo si trovano esattamente le
componenti l-esime; osserviamo ora la seconda parte dell’espressione (4.2)
contenente la sola componente di rumore:
Z Ts
n(t) · ψl (t) dt = nl
0

Con nl variabile casuale gaussiana; il processo è il seguente in via grafica:

n(t) R Ts nl
⊗ 0
ψl (t)
48 CAPITOLO 4. Modulazioni

Come n(t) in ingresso anche nl ha la medesima proprietà di media nulla in


quanto:
R  R
T T
E(nl ) = E 0 s n(t) · ψl (t) dt = 0 s E[n(t)] · ψl (t) dt =
Z Ts
= 0 · ψl (t) dt = 0
0

Analizziamo ora:
Z Ts Z Ts 
E(nl · nk ) = E n(t1 ) · ψl (t1 ) dt1 · n(t2 ) · ψk (t2 ) dt2 =
0 0
Z Ts Z Ts 
=E n(t1 ) · n(t2 ) · ψl (t1 ) · ψk (t2 ) dt1 dt2 =
0 0
Z Ts Z Ts 
= E[n(t1 ) · n(t2 )] · ψl (t1 ) · ψk (t2 ) dt1 dt2 = (‡)
0 0
Poichè:
N0
E[n(t1 ) · n(t2 )] =
· δ(t1 − t2 )
2
rappresenta l’autocorrelazione del rumore si ha:
Z Ts Z Ts 
N0
(‡) = · δ(t1 − t2 ) · ψl (t1 ) · ψk (t2 ) dt1 dt2
2 0 0

Risolvendo rispetto a dt2 :


Ts Ts
N0 N0
Z Z
· ψl (t1 ) · ψk (t1 ) dt1 = · ψl (t) · ψk (t) dt
2 0 2 0

Il risultato dell’integrale vale nuovamente:

. 1 se k = l;

. 0 se k 6= l.

Quindi il rumore generato in ingresso sul ramo l è scorrelato con tutte le


dimensioni k 6= l: demodulando sul ramo l, si ha solo componente di rumore
relativa e non il contributo di altre. In sostanza il rumore su assi ortogonali è
indipendente e crea disturbo, quindi probabilità di errore, in modo scorrelato
su dimensioni diverse.
4.2. Modulazioni numeriche 49

I segnali ricevuti, tenendo conto della componente di rumore, possono essere


scritti come abbiamo visto:

rn = sk,n + nn

dove:

. rn è la variabile causale calcolata come parametro dal demodulatore;

. nn sono variabili casuali di rumore associate al ramo i-esimo.

Con notazione vettoriale enunciamo la medesima quantità:




r =−

s k,n + −

nn

Esempio

Si considerino i due segnali:


s1 (t) s2 (t)

√A
Ts
Ts
Ts t t
√B
Ts

Notiamo che possono essere espressi come combinazione lineare di un unico


segnale di base:
ψ(t)

√1
Ts

Ts t

Il segnale ψ(t) deve soddisfare i soliti vincoli per poter essere un segnale di
base, quindi deve possedere energia unitaria; per questo la sua ampiezza non
è causale.

A questo punto i due segnali s1 (t) ed s2 (t) si possono scrivere nella seguente
forma:

s1 (t) = A · ψ(t)
s2 (t) = B · ψ(t)
50 CAPITOLO 4. Modulazioni

Lo spazio dimensionale è pari ad 1 perchè è presente un solo segnale di base;

visualizzando graficamente:

B A ψ(t)

A e B rappresentano le proiezioni dei due segnali sulla dimensione ψ.

Immaginiamo di dovere trasmettere la sequenza s1 , s1 , s2 , s1 ; la forma del


segnale s(t), nel dominio del tempo, sarà:
s(t)

√A
Ts

Ts 4Ts t
√B
Ts
2Ts 3Ts
Per questo caso semplice, lo schema del demodulatore ha un solo ramo:

r(t) R Ts r
⊗ 0
ψ(t)

La variabile casuale calcolata r si può ricavare come:


Z Ts
r= r(t) · ψ(t) dt
0

Sapendo che:
r(t) = s(t) + n(t)

Z Ts
r= [s(t) + n(t)] · ψ(t) dt
0
Questa è la formula generale; ipotizziamo sia stato trasmesso il segnale s1 (t)
e sviluppiamo i calcoli per questo caso:
Z Ts Z Ts Z Ts
r= [s1 (t) + n(t)] · ψ(t) dt = s1 (t) · ψ(t) dt + n(t) · ψ(t) dt
0 0 0
4.2. Modulazioni numeriche 51

ma:
R Ts
. 0s1 (t) · ψ(t) dt rappresenta la proiezione di s1 (t) su ψ quindi è pro-
prio A;
RT
. 0 s n(t) · ψ(t) dt è la proiezione del rumore su ψ quindi è la variabile
casuale n.
In definitiva, trasmesso s1 (t) si esprime la variabile casuale r come:

r =A+n

Questa variabile ha come media A e, l’effetto del rumore su di essa, è quello


di spostare sull’asse ψ il segnale ricevuto con densità di probabilità gaussiana
(denominata come f(r|A) o anche f(r|s1 (t)):

f(r|A)

A ψ(t)

Se invece si trasmettesse sempre il segnale s2 (t) si avrebbe:

f(r|B)

B ψ(t)

Osservando insieme le due componenti:

B A ψ(t)

Regole di decisione

Dopo avere calcolato i parametri necessari il demodulatore invia al decisore


il vettore −

r composto da:
     
r1 sk,1 n1
 ..   ..   .. 
 . = . + . 
rN sk,N nN
52 CAPITOLO 4. Modulazioni

Quanto vale la densità di probabilità che avendo trasmesso −→


sk si siano rice-


vuti r ?
Considerando il ramo l-esimo, la densità di probabilità è:
(r −s ) 2
1 − l Nk,l
f (rl |sk,l ) = √ ·e 0
πN0
Invece in generale:
N N (r −s )2
1 − l N k,l N − 1 · N (r −s )2
f (−

r |−

Y Y P
s k) = f (rl |sk,l ) = √ ·e 0 = (πN0 )− 2 e N0 l=1 l k,l
l=1 l=1
πN0
PN
ma la l=1 (rl − sk,l )2 è come fare la norma su ogni ramo l, per cui:
N − 1 ·|r −s |2
f (−

r |−

s k ) = (πN0 )− 2 e N0 l k,l
La funzione f (−

r |−

s k ) prende il nome di funzione di verosimiglianza, likely-
hood function.

La regola di decisione ottima è quella per cui si massimizza la densità di


probabilità a posteriori, ossia f (−

s k |−

r ); questa regola prende il nome di
Maximum a posteriori.
Essa viene definita, con il teorema di Bayes, come:
f (−→
r |−

s k ) · P(−

s k)
P(−→s k |−

r)= −

f( r )
Massimizzare f (−→s k |−
→r ) vuol dire trovare il massimo rispetto ai segnali tra-


messi s k della probabilità di ricevere il segnale giusto, quindi si cerca solo
rispetto al numeratore perchè solo quella parte dell’espressione dipende dai

→s k.
Dato che f (−→
r |−

s k ) è esponenziale anche f (− →
s k |−

r ) lo è quindi cercare:
maxsk {f (−

r |−

s k ) · P(−

s k )}
è come cercare:
maxsk {ln[f (−

r |−

s k ) · P(−

s k )]}
perchè il logaritmo è una funzione monotona crescente.
In questo caso la funzione lnf (−→
r |−

s k ) prende il nome di ln-likelyhood func-
tion.
Indicando con λk l’espressione {ln[f (− →
r |−

s k ) · P(−

s k )]} procediamo con il
calcolo al fine di determinare la regola di decisione:
N − 1 ·|r −s |2
λk = ln (πN0 )− 2 e N0 l k,l · P(− →
h i
s k) =

1
· |rl − sk,l |2 + lnP(−

N
= ln(πN0 )− 2 − s k)
N0
4.2. Modulazioni numeriche 53

Analizziamo separatamente i tre contributi:


N
. ln(πN0 )− 2 è un termine che tiene in considerazione la componente di
rumore, ma non dipende dai segnali considerati quindi è trascurabile;

. − N10 · |rl − sk,l |2 rappresenta la distanza tra il segnale ricevuto ed il


segnale trasmesso al quadrato;

. lnP(−

s k ) è legato alla probabilità di emissione di un segnale.

Tenendo in considerazione solo gli ultimi due contributi possiamo definire


con Λk i parametri stimati dalla regola MAP:
1
Λk = − · |rl − sk,l |2 + lnP(−

s k)
N0
La regola MAP è ottima per trasmissioni su canali AWGN; nel caso in cui
i simboli emessi siano equiprobabili allora sparisce il termine legato alla
probabilità di emissione ed i parametri su cui il decisore effettua la stima
sono semplicemente le distanze tra segnali emessi e ricevuti.
Si parla, in questa ipotesi, di regola ML (Maximum Likelyhood) perchè viene
presa in esame, per il calcolo dei Λk , solo la funzione di verosimiglianza:

Λk = |rl − sk,l |2

Questa regola viene anche detta regola a distanza minima, perchè stimare il
segnale che più probabilmente è stato emesso vuol dire cercare, tra l’alfabeto
a disposizione, quello più vicino al segnale ricevuto.

Nell’esempio precedente:

Regola MAP

Λ1 = − N10 · |r1 − sk,1 |2 + lnP(−


→s 1 ) = − N10 · |r − A|2 + lnP(−
→s 1 ) (4.3)

→ −

Λ2 = − N10 · |r2 − sk,2 |2 + lnP( s 2 ) = − N10 · |r − B|2 + lnP( s 2 ) (4.4)

Regola ML

Λ1 = |r1 − sk,1 |2 = |r − A|2


Λ2 = |r2 − sk,2 |2 = |r − B|2

Per la regola ML è possibile non tenere in considerazione − N10 il che rende


molto più semplice l’implementazione di questa regola rispetto alla MAP in
cui è necessario conoscere la densità di rumore e le probabilità di emissione
dei segnali trasmessi.
54 CAPITOLO 4. Modulazioni

Si noti che se i segnali di base sono equiprobabili la regola ML e la regola


MAP sono identiche e dunque la regola ML è anch’essa ottima per canali
AWGN.

Operativamente utilizzare la regola ML significa posizionare una soglia e


confrontare il segnale ricevuto con essa; nell’esempio fin qui considerato:
A+B
. se i simboli sono equiprobabili la soglia sarà posizionata in 2 ;

. in caso contrario la soglia verrà posta vicino al segnale meno pro-


babilmente tramsesso perchè si devono privilegiare i casi possibili di
emissione del simbolo più probabile.

Visualizziamo graficamente:

B A ψ(t)

Soglia simboli equiprobabili

B A ψ(t)

Soglia simbolo B più probabile

B A ψ(t)

Soglia simbolo A più probabile

Si noti che le regole di decisione fin qui viste non dipendono dalla forma del
segnale: questo implica che è possibile sceglierle a piacimento rispettando
solo i vincoli di ortogonalità ed energia unitaria e la demodulazione sarà
sempre ottima.
4.2. Modulazioni numeriche 55

Come si fa a posizionare la soglia? La soglia è quel valore del segnale ricevuto


r per cui Λ1 = Λ2 ; quindi eguagliando le (4.3) e (4.4) si ha:

1 1
− · |r − A|2 + lnP(s1 ) = − · |r − B|2 + lnP(s2 )
N0 N0

|r − B|2 − |r − A|2
= lnP(s2 ) − lnP(s1 )
N0

r 2 − 2rB + B 2 − r 2 + 2rA − A2
 
P(s2 )
= ln
N0 P(s1 )

A2 − B 2
 
2r(A − B) P(s2 )
= · ln
N0 N0 P(s1 )
Per cui si ricava:

(A2 − B 2 ) · N0
 
N0 P(s2 )
r= + · ln
2 · N0 2 · (A − B) P(s1 )

(A2 − B 2 )
 
N0 P(s2 )
r= + · ln
2 2 · (A − B) P(s1 )
Si noti che se i segnali sono equiprobabili:

N0
P(s2 ) = P(s1 ) =⇒ · ln (1) = 0
2 · (A − B)

quindi rimane solo:


(A2 − B 2 )
r=
2
Se invece il simbolo s2 (t) ha probabilità minore di essere emesso rispetto a
s1 (t) allora il logaritmo di un numero minore di 1 è negativo quindi la soglia
2 2)
si sposta da (A −B 2 verso il simbolo s2 (t), cioè quello meno probabile; stesso
discorso se P(s2 ) > P(s1 ).
La probabilità di errore si può visualizzare graficamente come la coda della
gaussiana:
56 CAPITOLO 4. Modulazioni

A ψ(t)

La soglia diventa il limite oltre il quale si commette un errore; definendo con


T h la soglia, si calcola la probabilità di errore P(e) come:
Z Th
P(e) = f (r|A) dr
−∞

dove viene integrata la parte in grigio.


La probabilità di corretta ricezione invece:
Z ∞ ∞ 2
1
Z
− (r−A)
P(c) = 1 − P(e) = f (r|A) dr = √ · e N0 dr
Th Th π · N0
L’integrale non è risolvibile in forma chiusa, ma con la funzione degli errori
complementare si ha:
 
1 A−B
P(c) = 1 − · erfc √
2 2 · N0
Quindi la probabilità di errore risulta essere:
 
1 A−B
P(e) = · erfc √
2 2 · N0
Per avere una probabilità di errore bassa si può agire su due fattori:

. far diminuire il fattore N0 ;

. far aumentare il fattore A − B.

Nel primo caso si tratta essenzialmente di ridurre il rumore, ma è un parame-


tro su cui si può agire poco; nel secondo caso invece è sufficiente distanziare
A e B in maniera simmetrica, da non spostare la soglia.
Purtroppo non è possibile spostare a piacimento A e B perchè questi valori
influenzano l’energia dei segnali s1 (t) ed s2 (t):
s1 (t) s2 (t)

√A
Ts
Ts
Ts t t
√B
Ts
4.2. Modulazioni numeriche 57

Calcoliamo l’energia dei due segnali:


A2 ·Ts
E1 = Ts = A2
B 2 ·Ts
E2 = Ts = B2
L’energia media è:
E1 + E2 A2 + B 2
Em = =
2 2
L’effetto che si ha distanziando molto A e B è quello di spendere molta
energia e questo magari non è possibile per i requisiti di progetto.

Fissata dunque un’energia media la scelta migliore, che massimizza la di-


stanza fra A e B è quella in cui B = −A:

−A A ψ(t)

In questo caso l’energia media e la probabilità di errore sono:


A2 + A2
Em = = A2 (4.5)
2    
1 A − (−A) 1 A
P(e) = · erfc √ = · erfc √ (4.6)
2 2 · N0 2 N0
Nel caso di due segnali l’informazione associata è un bit solo quindi A2 è
l’energia necessaria per trasmettere un bit di informazione:
Em = Eb = A2
Ricaviamo: p
A= Eb
Sostituendo in (4.6) si ottiene:
r !
1 Eb
P(e) = · erfc
2 N0
Eb
Si definisce N0 rapporto segnale rumore per le modulazioni numeriche.

Operativamente realizzare il modello:

r(t) R Ts r
⊗ 0
ψ(t)
58 CAPITOLO 4. Modulazioni

è piuttosto complicato in quanto il prodotto di due segnali analogici è di


difficile implementazione hardware ed inoltre senza sincronizzazione non si
può sapere quando effettuare l’integrazione ogni Ts .
Esiste un modo del tutto equivalente per effettuare la demodulazione; pen-
siamo a: Z Ts
r= r(t) · ψ(t) dt
0
come a:
Ts
Z

r= r(t) · ψ(t − τ ) dt
0 τ =0
Siccome ψ(t) ha supporto fra (0 − Ts ) è equivalente scrivere:
Z +∞

r= r(t) · ψ(t − τ ) dt
−∞ τ =0

Scritto in questo modo è:

r = r(t) ∗ ψ(−t)|τ =0

Utilizzando un modello di questo tipo:


r(t) y(t) Ts
Filtro r

h(t) = ψ(Ts − t)

In questo caso il modello è facilmente implementabile in hardware; si prefe-


risce inserire un ritardo della durata di Ts cosı̀ la risposta all’impulso diventa
casuale e il filtro fisicamente realizzabile.
Si determinano i parametri da passare la decisore in questo modo:

r = r(t) ∗ ψ(Ts − t)|t=Ts

Il filtro con risposta all’impulso h(t) prende il nome di filtro adattato; il


sistema con il filtro adattato è equivalente al modello di demodulazione visto
in precedenza quindi è ottimo.

Nel solito esempio con due segnali trasmessi:


s1 (t) s2 (t)

√A
Ts
Ts
Ts t t
−A

Ts
4.2. Modulazioni numeriche 59

con proiezioni sull’asse ψ:

−A A ψ(t)

Analizziamo cosa succede in caso di demodulazione con filtro adattato.

r(t) y(t) Ts
Filtro r

h(t) = ψ(Ts − t)

Trasmettendo il segnale s1 (t) sappiamo che:


r1 (t) = s1 (t) + n(t) = A · ψ(t) + n(t)
Il segnale y(t) filtrato sarà:
y(t) = z(t) + nf (t)
dove:
. z(t) è la componente di segnale utile;
. nf (t) è la componente di rumore filtrata.
Scriviamo:
z(t) = A · ψ(t) ∗ ψ(Ts − t)
Quindi il segnale z nel tempo ha la forma dell’autocorrelazione di ψ. La
funzione di autocorrelazione ha il massimo nell’origine, in Ts perchè è sta-
ta ritardata, dove viene campionata; per questo motivo il filtro adattato è
ottimo: campionare nel massimo vuol dire massimizzare il rapporto segnale
rumore al campionatore.

Il rumore, la cui varianza è:


2 N0
σnf = · 2 · Beq (4.7)
2
dove si ricorda che la banda equivalente di rumore è definita come:
Z +∞
1
Beq = · |H(f )|2 df =
2 · max {|H(f )|2 } −∞
Z +∞
1 1
= 2
· Ψ(f ) e−j2πf Ts df =
2 · max {|H(f )| } −∞ 2
perchè:
60 CAPITOLO 4. Modulazioni

R +∞
. −∞ Ψ(f ) e−j2πf Ts df risulta essere uguale ad 1 in quanto Ψ(f ) è un
segnale di base;
1
. normalmente è uguale ad 1 perchè il filtro non deve nè
max{|H(f )|2 }
attenuare nè dissipare (funzione di trasferimento con modulo pari ad
1).
Con questo risultato sostituiamo in (4.7) ottenendo:
N0 2 1 N0
σnf
·2· == [ W]
2 2 2
In questo caso l’unità di misura è una potenza perchè il rumore è stato fil-
trato, quindi dimensionalmente moltiplicato per una banda [Hz].

4.2.2 Costellazioni e regioni di decisione


La costellazione è l’insieme dei segnali rappresentati in una certa base ψ.
Come fare a stimare se un segnale ricevuto r è s1 (t) piuttosto che s2 (t)?
Graficamente è possibile suddividere in regioni diverse lo spazio generato
dai segnali; r dunque viene decodificato con s1 (t), ad esempio, se appartiene
alla regione di s1 (t) oppure con s2 (t) se appartiene a quella regione.
Nel caso con una sola dimensione e due segnali sappiamo come esprimere
la probabilità di corretta ricezione e di errore; inoltre, implicitamente, è già
stato formalizzato il concetto delle regioni di decisione perchè, definita la
soglia, si è diviso il piano in due zone, che sono proprio le due regioni di
decisione.
Osserviamo graficamente:

s1 s2 ψ(t)
Regione 1 Regione 2
Questo è il caso più semplice, ma in generale la costellazione comprende
sempre più di due punti perchè a due segnali è associato un solo bit di in-
formazione, quantità irrisoria per comunicazioni normali.
Osserviamo cosa succede per una costellazione a 4 punti, quindi a 4 segnali
in uno spazio a due dimensioni:

ψ2 (t) ψ2 (t)
s2 s1 s1

ψ1 (t) s2 s4 ψ1 (t)
s3
s3 s4

1◦ Tipologia 2◦ Tipologia
4.2. Modulazioni numeriche 61

Si noti che la probabilità di ricevere r dipende solo dalla geometria della


costellazione e non da rotazioni o traslazioni perchè, nel grafico di cui so-
pra, osserviamo che le aree di ciascuna regione sono uguali (la 2◦ tipologia
è ruotata di 45◦ gradi rispetto alla prima).
Inoltre per segnali equiprobabili le regioni di decisione hanno la stessa for-
ma geometrica perchè la costellazione è simmetrica (come si evince dai due
grafici precedenti).

Considerando un punto preso come riferimento (origine) ed un generico pun-


to si si definisce, in via geometrica, l’energia del segnale come la distanza
euclidea tra i due.
L’energia media della costellazione è

M
X
Em = P(si ) · |si |2
i=1

ossia una media pesata per la probabilità di emissione della distanza dall’o-
rigine di tutti i punti della costellazione.
Ciò che differenzia una costellazione da un’altra è proprio la sua energia
media; osserviamo nel disegno seguente le due costellazioni semplici:

ψ2 (t) ψ2 (t)
s2 d s1 d

s2 s1
0 ψ1 (t) 0 ψ1 (t)

La costellazione a sinistra avrà un’energia media più alta rispetto quella a


destra perchè è più distante dall’origine.
Dati M numero dei punti della costellazione e N numero delle dimensioni si
definisce costellazione simplex la costellazione ad energia minima.
Il baricentro della costellazione è la quantità:

M
X
b= P(si ) · si
i=1

Si può pensare quindi alla costellazione simplex come alla costellazione che
ha il suo baricentro nell’origine; di conseguenza una costellazione non sim-
plex qualsiasi si può vedere come una costellazione il cui baricentro è stato
traslato rispetto all’origine.
62 CAPITOLO 4. Modulazioni

4.2.3 Modulazioni in banda base


Modulazione M-PAM
La modulazione M-PAM è una modulazione di banda base (pulse amplitude
modulation) in cui è presente una sola dimensione; la proiezione dei vari
segnali sulla dimensione ψ è simmetrica rispetto all’origine e tutti i punti
sono equispaziati fra loro:

d
bc bc b bc bc

− 3d − d2 0 d 3d ψ(t)
2 2 2

Il numero di segnali trasmessi M è generalmente un numero in potenza di 2


in quanto i bit di informazione, determinabili come log2 M , non possono esse-
re numeri qualisiasi ma devono appartenere all’insieme dei numeri naturali.
Questo principio punta a massimizzare l’efficienza del sistema: ipotizzando
di avere 6 segnali si potrebbero tramettere log2 6 = 2, 585 bit di informazione
che verrebbero ridotto a 2 con uno spreco di 0.585.

Se i segnali sono equiprobabili:


1
P(si ) =
M
La probabilità di corretta ricezione sarebbe espressa:
M
1 X
P(c) = · P(c|si ) (4.8)
M
i=1

dove: Z
P(c|si ) = f (r|si )
Reg

Sostanzialmente la probabilità di corretta ricezione di un segnale è l’integra-


le della densità di probabilità [f (r|si )] sulla regione di decisione pesata per
la sua probabilità di emessione.

Osserviamo che per un segnale che non sta ai bordi la probabilità di corretta
ricezione è l’area colorata in grigio:

bc bc bc bc

−d d 3d 5d ψ(t)
2 2 2 2

0 d
4.2. Modulazioni numeriche 63

Definita la probabilità di corretta ricezione come:

P(c) = 1 − P(e)

la probabilità di errore è:

1 − P(c) = P(e)

nel grafico sarebbe la probabilità che il segnale ricevuto sia interno alle regio-
ni delle due code della gaussiana, le quali, siccome i punti sono equidistanti,
hanno area uguale.
Analiticamente la densità di probabilità di errore si definisce per questo caso:
Z 0 [ Z +∞
f (r|si ) f (r|si )
−∞ d

Se invece il segnale è ai bordi la probabilità di errore si ha quando il segnale


ricevuto è all’interno dell’area di una sola coda della gaussiana; tenendo
conto di questi ragionamenti usando la (4.8) :
      
1 1 d 1 d
P(c) = · (M − 2) · 1 − (2) · erfc √ + (2) · 1 − erfc √ =2
M 2 2 N0 2 2 N0
    
1 d d
= · M − 2 − (M − 2) · erfc √ + 2 − erfc √ =
M 2 N0 2 N0
    
1 d M −1 d
= · M − (M − 1) · erfc √ =1− · erfc √
M 2 N0 M 2 N0
La probabilità di errore quindi sarà:
 
M −1 d
P(e) = 1 − P(c) = · erfc √
M 2 N0

I segnali, per la modulazione M-PAM, sono descritti come:

Si = ai · ψ(t)

dove:
d
ai = (2i − 1 − M ) ·
2
Se si considere l’energia media, essa può venire descritta come:
M
1 X
Em = · |ai |2
M
i=1
2
Nell’ordine:
(M-2) è l’insieme dei segnali esclusi i due ai bordi
(2) è il numero delle code della gaussiana
(2) è il numero di segnali ai bordi
64 CAPITOLO 4. Modulazioni

Sostituendo l’espressione equivalente per gli ai :


M
d 2 M 2 − 1 d2

1 X
Em = · (2i − 1 − M ) · = ·
M 2 3 4
i=1

Si ricava il parametro d2 :
r
d 3
= · Em
2 M2−1
Determiniamo la probabilità di errore in funzione dell’energia media:
r !
M −1 3 Em
P(e) = · erfc · (4.9)
M M 2 − 1 N0

3
Si noti che M 2 −1 è il parametro di perdita γ mostrato nel grafico sotto.

Osservazione

Per M = 2 si ritorna all’espressione già vista:


r ! r !
2−1 3 Em 1 Em
P(e) = · erfc 2
· = · erfc
2 2 − 1 N0 2 N0

Per M = 4 si ha:
r ! r !
4−1 3 Em 3 3 Em
P(e) = · erfc 2
· = · erfc
4 4 − 1 N0 4 15 N0

Osserviamo graficamente sulla curva rossa la probabilità di errore nel caso


M = 2, mentre con la curva blu si prende in considerazione il caso con
M =4:
P(e)

Em
γ N0

Come si può notare, per mantenere la stessa probabilità di errore (si segua
sul grafico la linea tratteggiata), che vuol dire mantenere la stessa distanza
d tra i punti passando da una costellazione con M = 2 ad una con M = 4,
è necessario trasmettere con più energia i segnali perchè è maggiore il rap-
porto ENm0 .
4.2. Modulazioni numeriche 65

Se al contrario si vuole mantenere la stessa energia di trasmissione accade


che i punti saranno più vicini tra loro (si riduce la distanza d) e quindi au-
menterà la probabilità di commettere un errore.

L’espressione (4.9) è una probabilità di errore sul simbolo; già altre volte
abbiamo descritto come la probabilità di sbagliare un simbolo non comporti
necessariamente errori su tutti i bit di informazione.
Indicando con n il numero di bit associati ad una costellazione (n = log2 M )si
definisce l’energia per bit:
Em
Eb =
n
Osserviamo le differenza tra la modulazione 2-PAM e 4-PAM:

M =2 n=1 Eb = Em
M =4 n=2 Eb = E2m

Nel primo caso tutta l’energia serve per trasportare un bit di informazione
mentre nel secondo ogni bit costa metà di Em .
Ricavando l’espressione dell’energia media in funzione dell’energia per bit si
può determinare probabilità di errore sul bit:
r !
M −1 3 log2 M · Eb
Pb (e) = · erfc ·
M M2 − 1 N0

I confronti tra modulazioni dello stesso tipo vengono fatte analizzando que-
sta probabilità di errore e non quella sul simbolo, dove si ha un’aumento
delle prestazioni soltanto aumentando M .

Codifica di Gray
Prendiamo ora in esame la modulazione 4-PAM ed ipotiziamo di associare
ad ogni segnale una stringa di bit come in tabella:

Segnale Codifica
s1 00
s2 01
s3 10
s4 11
66 CAPITOLO 4. Modulazioni

Graficamente:

s1 s2 s3 s4
00 01 10 11 ψ(t)

Si osservi che in base a come viene effettuato il labelling (la codifica tra
simboli e bit) si avranno Pb (e) diverse; per questo esempio trasmettendo s1
si ha probabilità di sbagliare un bit se si finisce nelle regioni di decisione di
s2 ed s3 e probabilità di sbagliare due bit se la regione è s4 .
Sembra una scelta ragionevole perchè nella regione di s4 la coda della gaus-
siana sarà piccola, e dunque anche la probabilità che tramettendo s1 si riceva
r in tale regione è bassa.
Se invece si prende in considerazione l’ipotesi di trasmettere s3 notiamo im-
mediatamente che la regione di decisione di s2 presenta entrambi i due bit
diversi; la probabilità di errore su due bit sarà grande in una regione dove
la coda della gaussiana non è poi cosı̀ bassa.

La codifica di gray è il labelling per cui segnali adiacenti vengono co-


dificati con stringhe che si differenziano per un bit.
In questo modo si risolve il problema dell’esempio precedente:

s1 s2 s3 s4
00 01 11 10 ψ(t)

Segnale Codifica
s1 00
s2 01
s3 11
s4 10

Analiticamente non è facile calcolare la probabilità di errore sul bit, ma è


possibile trovarne un limite inferiore e superiore:

P(e)
< Pb (e) < P(e)
log2 M

dove:
P(e)
. log2 M è la probabilità di sbagliare un solo bit;

. P(e) è la probabilità di sbagliare completamente il simbolo, ossia


sbagliare tutti i bit.
4.2. Modulazioni numeriche 67

Se si utilizza una codifica di Gray si può approssimare la probabilità di errore


sul bit con il limite inferiore:
P(e)
Pb (e) ∼
=
log2 M

in pratica vengono trascurate le code delle gaussiane che cadono oltre le


regioni adiacenti.

Nello schema a blocchi:

S C.S C.C MAP MOD

Sorgente Cod. Sorgente Cod. Canale Mapper Modulatore


numerico

il compito del mapper è quello di decidere quale segnale associare alla strin-
ga binaria in uscita dal codificatore di canale. Questa decisione viene presa
ogni tempo di simbolo Ts .

Union Bound
Nelle modulazioni M-PAM il tempo di trasmissione totale è proporzionale
alla dimensione del file da trasmettere; un modo per aumentare la velocità
è aumentare il numero di bit, ma il costo è l’energia necessaria per inviare
i segnali; se invece si riduce il parametro Ts aumenta la frequenza e questa
velocità necessaria si traduce con un’aumento di banda.

Un metodo alternativo è aumentare il numero delle dimensioni della co-


stellazione; la modulazione M-PAM ha una sola dimensione, ma osserviamo
cosa succede a combinare due costellazioni 2-PAM:

ψ1 (t) ψ2 (t)

Ts
Ts t t
68 CAPITOLO 4. Modulazioni

Dando vita alla costellazione:


ψ2 (t)
s1

s2 s4 ψ1 (t)
s3

La forma del segnale nel dominio del tempo, trasmettendo la sequenza s1 s2


s4 s3 è:

2Ts 4Ts
Ts t
3Ts

Per una costellazione del genere è facile determinare le regioni di decisione,


ma in casi più complicati diventerebbe difficile ripetere i ragionamenti fatti
in precedenza per la modulazione M-PAM.
Come sappiamo il caso in cui la probabilità di errore è più alta è quello
per cui i segnali sono molto vicini sulla costellazione; l’union bound è
un’approssimazione in cui si ipotizza di essere proprio in questo caso, il
peggiore in assoluto, stimando la probabilità di errore come:
 
M −1 dmin
P(e) ≤ · erfc √
2 2 · N0

dove dmin rappresenta il minimo tra tutte le distanze dei segnali presenti
sulla costellazione.
L’approssimazione di questa formula consiste nell’ipotizzare di avere M − 1
segnali a distanza minima, ma è una stima quasi sicuramente peggiorativa
nella maggioranza dei casi; considerando invece di avere Ndmin segnali a
distanza minima si può concludere che:
 
1 dmin
P(e) ∼
= Ndmin · · erfc √
2 2 · N0
4.2. Modulazioni numeriche 69

Modulazione ON-OFF Keying

La modulazione ON-OFF Keying è una modulazione di banda base in cui i


segnali utilizzati sono solo due:

. s1 (t) = 0;
q
2·Em
. s2 (t) = Ts · cos(2π f0 t) · pTs (t − Ts )
q
2·Em
La parte Ts serve per garantire ad s2 (t) di avere energia unitaria, di
conseguenza s2 (t) è un versore.
Questa modulazione ha una sola dimensione ψ; le proiezioni dei segnali su
ψ sono:

s1 s2
b b

0 1 ψ

In sostanza è una modulazione 2-PAM ma non simplex perchè non ha il


baricentro nell’origine; quindi l’espressione della probabilità di errore non è
altro che:  
1 d
P(e) = · erfc √
2 2 · N0
quando il ricevitore ha il filtro adattato.
Se la frequenza f0 è molto alta il segnale è luminoso; questa modulazione
viene infatti usata nelle fibre ottiche.

4.2.4 Modulazioni in banda traslata


Il segnale analitico è stato definito come:

ż(t) = ṽ(t) · e j 2π f0 t

dove ṽ(t) è l’inviluppo complesso del segnale modulato [ṽ(t) = vc (t)+jvs (t)].

In banda traslata non si opera con il segnale, ma con il suo inviluppo com-
plesso che è appunto la rappresentazione di v(t) centrato ad una frequenza
f0 .

Per determinare il segnale analitico:

. vc è moltiplicato per il coseno (asse reale);

. vs è moltiplicato per il seno (asse immaginario).


70 CAPITOLO 4. Modulazioni

Quindi il seno ed il coseno sono ortogonali tra loro; dato


M
X
ṽ(t) = an · g(t − nTs )
n=1

e presi due segnali vc e vs come componenti da ṽ(t) essi viaggiano nella


stessa banda nello stesso momento.

Osserviamo in via grafica il modello di modulazione e demodulazione per


questo caso:
g(Ts − t)
vc (t)
⊗ ⊗
cos(2πf0 t) cos(2πf0 t)
⊕ Canale ⊕
g(Ts − t)
vs (t)
⊗ ⊗
sin(2πf0 t) sin(2πf0 t)

Il ramo superiore prende il nome di ramo in fase mentre quello inferiore


ramo in quadratura.
Il filtro è un filtro passabasso con risposta all’impulso g(Ts − t): è il filtro
adattato alla sagoma del segnale in trasmissione quindi, su entrambi i rami,
oltre ad elminare le frequenze immagine inutili permette di campionare il
segnale ogni Ts .

Concettualmente il modello visto in precedenza non è altro che lo sche-


ma:

vc
Re{ · } rc

⊕ Canale
vs
⊗ Im{ · } rs
j
4.2. Modulazioni numeriche 71

dove:

. rc è la componente in fase demodulata;

. rs è la componente in quadratura demodulata.

Questo modello prende il nome di schema equivalente in banda base.

Analizziamo come esempio una modulazione per cui:


X
vc (t) = αn · ψ1 (t − nTs ) + βn · ψ2 (t − nTs )
n
X
vs (t) = γn · ψ1 (t − nTs ) + ςn · ψ2 (t − nTs )
n
Il ramo in fase ha due dimensione come quello in quadratura: il risultato è
una costellazione con quattro dimensioni e 16 punti.
Una sua possibile realizzazione è:

s = [αn + βn ] + j[γn + ςn ]

Modulazione PSK
La modulazione PSK è una modulazione di banda traslata (phaze shift
keying) dove si definiscono:
+∞
X
ṽ(t) = an · g(t − nTs )
n=−∞

in cui:

. an sono segnali complessi di tipo e jφn

. φi ∈ 2π 2π

M · (i − 1) + φ0 [φ0 = M]

Ad esempio, con M = 2:

. φ1 : 2 · (1 − 1) + φ0 con φ0 = π;

. φ2 : 2 · (2 − 1) + φ0 = φ0 + π = 2π.

Analizziamo analiticamente v(t):


+∞
( )
n o X
v(t) = Re {v̇(t)} = Re ṽ(t) · e j 2π f0 t = Re an · g(t − nTs ) · e j 2π f0 t =
n=−∞

+∞ +∞
( ) ( )
X X
jφn j 2π f0 t j 2π f0 t+φn
= Re e · g(t − nTs ) · e = Re g(t − nTs ) · e =
n=−∞ n=−∞
72 CAPITOLO 4. Modulazioni

+∞
X
= g(t − nTs ) · cos(2π f0 t + φn )
n=−∞

Con M fasi nell’intervallo di tempo Ts si trasmette un coseno che ha esat-


tamente M fasi diverse; per esempio con M = 2 il coseno, come abbiamo
visto, ha due fasi pari a π e 2π.

Il generico segnale si (t) può essere visto come:

si (t) = g(t) · cos(2π f0 t + φi )

Sviluppando il coseno secondo la regola [cos(α±β) = cos α cos β ∓ sin α sin β]:

si (t) = g(t) · cos(2π f0 t) cos(φi ) − g(t) · sin(2π f0 t) sin(φi ) (4.10)

Indicando:

. g(t) · cos(2π f0 t) con E;

. g(t) · sin(2π f0 t) con E.



Si rielabora l’equazione (4.10) moltiplicando e dividendo per E:
√ 1 √ 1
si (t) = E · √ · g(t) · cos(2π f0 t) cos(φi ) − E · √ · g(t) · sin(2π f0 t) sin(φi )
E E
In questo modo si riconosce che:

. √1 · g(t) · cos(2π f0 t) è il versore ψ1 (t), la componenete in fase;


E

. √1 · g(t) · sin(2π f0 t) è il versore ψ1 (t), la componenete in quadratura.


E
√ √
Invece E · cos(φi ) e E · sin(φi ) rappresentano i coefficienti.

Graficamente:
ψ2 (t)

E
sin(φi ) b

φi
cos(φi ) ψ1 (t)

Al variare delle fasi φi i segnali avranno comunque


√ la stessa energia perchè
sono posizionati su una circonferenza di raggio E.

Vediamo alcuni esempi al variare di M .


4.2. Modulazioni numeriche 73

2-PSK
Con due soli punti la costellazione è:
ψ2 (t)
b
φ0

ψ1 (t)
φ0 + π b

La distanza fra i due segnali è semplicemente:



d=2 E

4-PSK
Per la modulazione 4-PSK i punti sulla costellazione si possono disporre:
ψ2 (t)
π
φ0 + 2
b b
φ0
ψ1 (t)

φ0 + π b b
φ0 + 2

In questo caso: r
E
d=2·
2
Si osserva che la probabilità di errore aumenta perchè è diminuita la distanza
tra i due segnali; rimane invariata invece l’energia utilizzata in trasmissione.

8-PSK
La costellazione diventa:

ψ2 (t)
π π
φ0 + 2 b b φ0 + 4
φ0 3π
4
b
φ0 b

ψ1 (t)

φ0 + π b b
φ0 + 4
b b
5π 6π
φ0 + 4 φ0 + 4
74 CAPITOLO 4. Modulazioni

Per questa modulazione è molto complicato effettuare il calcolo della proba-


bilità di errore in quanto occorrerebbe risolvere l’integrale della distribuzione
di probabilità su un’area che è un spicchio.
Esiste un’approssimazione per cui:
r !
E π
P(e) ≤ erfc · sin
N0 M

Ciò che contraddistingue


√ un segnale ricevuto da un altro, dato che han-
no modulo uguale a E, è la fase; ad esempio, nell’ 8-PSK, se la fase del
segnale ricevuto φr è compresa fra [0 − φ0 ] allora potrebbe essere ricono-
sciuto come s1 ;invece nel caso in cui [φ0 < φr < φ0 + π4 ] il segnale stimato
sarebbe s2 .
Il problema si riduce, di fatto, a come stimare la fase di un segnale ricevuto
perchè, una volta determinata, è possibile effettuare la demodulazione come
confronto tra φr e le fasi-soglie φi .

Demodulazione del PSK


Dato un segnale nel dominio del tempo a frequenza f0 , se si riuscisse ad
effettuare il confronto con una sinusoide z(t) generata con la stessa f0 , si
potrebbe calcolare con un fasometro lo sfasamento dei segnali ogni tempo
di simbolo Ts .
Ts 2Ts
st

zt

t
4.2. Modulazioni numeriche 75

Questa operazione è complicata per due motivi: il primo è dovuto al fatto


di non sapere a priori che fase avrà il coseno dopo Ts quindi per calcolare
lo sfasamento a 2Ts occorre uno strumento molto rapido oppure usare un
tempo di simbolo molto lungo.

Il secondo problema riguarda il sincronismo fra trasmettitore e ricevitore;


il segnale inviato, viaggiando nel tempo, subisce uno sfasamento che rende
pressochè impossibile determinare con quale fase fosse partito. Dunque, si
ha uno sfasamento ignoto tra la sinusoide generata e segnale ricevuto.

Sulla costellazione questo fatto comporta semplicemente una rotazione de-


gli assi di riferimento; in via grafica si osservi con tratto rosso i nuovi assi
mentre con tratto nero gli assi di riferimento soliti:

Se quindi la costellazione è traslata si commette sempre lo stesso errore per


tutti i segnali in fase di demodulazione.
Si può pensare di mappare i bit anzichè ai segnali sulle transizioni dei segnali
stessi.

Osserviamo per la costellazione di un 8-PSK:

ψ2 (t)
s3 b b s2
s4 b b s1
ψ1 (t)
s5 b b s8
b b
s6 s7
76 CAPITOLO 4. Modulazioni

Vediamo le differenze di mapping con due possibili codifiche:

Codifica PSK Codifica D-PSK


Segnale Codifica Transizione Codifica
s1 000 s2 − s1 000
s2 001 s3 − s2 001
s3 010 s4 − s3 010
s4 011 s5 − s4 011
s5 100 s6 − s5 100
s6 101 s7 − s6 101
s7 110 s8 − s7 110
s8 111 s1 − s8 111

Ipotizziamo di avere trasmesso il segnale s2 con informazione utile di fase


ϕ2 ed avere ricevuto r con informazione utile ϕr .
La fase effettivamente trasmessa è:

φ2 = ϕ2 + φ1

Il ricevitore stima:
φr = φ2 + φt

dove φt è lo sfasamento ignoto.


L’informazione utile di fase ricevuta diventa:

ϕr = φr − φr−1 = (φ2 + φt ) − (φ1 + φt ) = φ2 − φ1 = ϕ2

Questo sistema viene chiamato Differential-PSK perchè ha un mapping as-


sociato alle differenze di fase.

In termini di prestazioni il D-PSK è peggiore rispetto ad un PSK normale


perchè sbagliando un simbolo viene sbagliato anche il successivo; in media
si sbagliano il doppio dei bit, ma questo non cambia l’ordine di grandezza
della P(e).
Il D-PSK può essere visto come una codifica di canale tesa ad irrobustire la
trasmissione; tale codifica effettua differenze tra i bit e usa una modulazione
PSK.

Tecniche di sincronizzazione
Per costruire un demodulatore coerente, che recuperi fase e frequenza della
portante, si utilizza lo schema:
4.2. Modulazioni numeriche 77

r(t) Ts
⊗ δ(Ts − t)
cos(2πf0 t)

SYNC SYNC
portante simbolo

π/2

Ts

sin(2πf0 t)

Il sincronismo di portante serve per recuperare le informazioni (fase e fre-


quenza) della portante, mentre il sincronismo di simbolo è necessario al cam-
pionatore per sapere quando cominciare e ogni quanto campionare il segnale.

Si ipotizzi di conoscere che il rumore disturbi molto la dimensione ψ2 e


poco ψ1 :
ψ2 (t)

ψ1 (t)

In rosso sono evidenziate le zone in cui, per il rumore, il segnale può essere
ricevuto.
Ad esempio:
ψ2 (t)
s

ψ1 (t)
r

Il segnale ricevuto r può essere visto come somma di componenti:

r = r1 + jr2
78 CAPITOLO 4. Modulazioni

dove:

. r1 è la componente in fase;

. r2 è la componente in quadratura;

Conoscendo solo una delle due componenti è possibile riuscire a prendere


decisioni parziali sulla stringa dei bit associati ai segnali?
In linea generale non si riesce: si osservi per notare questa proprietà la co-
difica di Gray della modulazione 8-PSK:

Codifica PSK
Segnale Codifica
s1 000
s2 010
s3 011
s4 111
s5 110
s6 100
s7 101
s8 001

ψ2 (t)
s3 s2
s4 s1
ψ1 (t)
s5 s8
s6 s7

In questo caso non si riescono a prendere decisioni parziali con la codifica di


Gray; il motivo è dovuto al fatto di avere regioni di decisione a spicchi, le
cui soglie non sono parallele agli assi di riferimento.

Considerando invece il 4-PSK:

ψ2 (t)
s2 s1
ψ1 (t)
s3 s4
4.2. Modulazioni numeriche 79

La cui codifica di Gray è:

Codifica PSK
Segnale Codifica
s1 00
s2 10
s3 11
s4 01

Con la stessa ipotesi precente, di conoscere solo r1 , in questo caso è possi-


bile discriminare su un bit: il primo dei due bit della codifica permette di
conoscere in quale semipiano ci si trova [s1 , s4 ] oppure [s2 , s3 ].
Conoscendo invece r2 si decodifica il secondo bit, che distingue i semipiani
[s1 , s2 ] oppure [s3 , s4 ]; in questo modo si sono disaccoppiati i due assi (è
lecito farlo perchè si sa che il rumore è indipendente su ogni dimensione).
Il demodulatore quindi non è più unico, ma si divide in due rami per stimare
in maniera indipendente il primo ed il secondo bit; si modellizza come:

≁ 1◦ bit
⊗ ≁ r1 >
<0

cos(2πf0 t)

sin(2πf0 t)
≁ 2◦ bit
⊗ ≁ r2 >
<0

Il 4-PSK con codifica di Gray prende il nome di QPSK (Quadrature PSK);


avere la codifica di Gray è una condizione necessaria per poter dare questa
definizione.
Sostanzialmente il QPSK è una moltiplicazione vettoriale di un 2-PAM sul
ramo in coseno per un 2-PAM sul ramo in seno.

Analizziamo nel dettaglio:

. se il 2-PAM in fase tramette 1 e il 2-PAM in quadratura trasmette 1


si ha s1 ;

. se il 2-PAM in fase tramette 0 e il 2-PAM in quadratura trasmette 1


si ha s2 ;

. se il 2-PAM in fase tramette 0 e il 2-PAM in quadratura trasmette 0


si ha s3 ;
80 CAPITOLO 4. Modulazioni

. se il 2-PAM in fase tramette 1 e il 2-PAM in quadratura trasmette 0


si ha s4 .

Sul grafico:

ψ2 (t)
01 = s2 1 s1 = 11

ψ1 (t)
0 1
00 = s3 0 s4 = 10

La probabilità di errore P(e) può essere vista come la composizione delle


probabilità di errore dei 2-PAM proprio perchè esiste indipendenza tra le
due dimensioni ψ1 e ψ2 .

Definiti ψ1 = x e ψ2 = y, indichiamo sul grafico seguente le distanze tra


i segnali con d:

d ψ2 (t)
s2 s1

d d ψ1 (t)

s3 s4
d

Come avevamo già visto per il 2-PAM la probabilità di errore può essere
calcolata come 1 − P(c):
 
. P(c) = (1 − p) dove p = 21 erfc 2·√dN sul ramo x;
0

 
. P(c) = (1 − p) con p = 12 erfc √d
2· N0
sul ramo y.

In generale quindi:

P(c) = (1 − p) · (1 − p) = (1 − p)2

La probabilità di errore risulta dunque essere:

P(e) = 1 − P(c) = 1 − (1 − p)2


4.2. Modulazioni numeriche 81

Modulazione QAM
Estendendo il ragionamento di comporre su due dimensioni ortogonali mo-
dulazioni semplici di banda base si ottengono le modulazioni QAM (Qua-
drature AM).
Sono modulazioni di banda traslata perchè è comodo utilizzare, come di-
mensioni ortogonali, seno e coseno, i segnali che servono per spostare la
banda del segnale ad una frequenza f0 e raddoppiano automaticamente le
dimensioni disponibili.

La modulazione M-QAM è una costellazione a M punti che sono ottenuti


dalla combinazione di:

. M-PAM in fase;

. M-PAM in quadratura.
Ad esempio, il 16-QAM è una costellazione a 16 punti data dalla moltiplica-
zione vettoriale di due 4-PAM; si può osservare come si dispongono i segnali
sul grafico:

ψ2 (t)

ψ1 (t)

I punti rossi sono i segnali della modulazione 4-PAM utilizzati come base; i
punti neri sono i segnali effettivi della modulazione 16-QAM mentre le rette
tratteggiate in blu rappresentano le soglie di decisione.
Si osservi che per questa modulazione si hanno almeno tre tipi di regioni di
decisione:
. un quadrato, per i 4 segnali interni;

. un rettangolo infinito, per 8 segnali;


82 CAPITOLO 4. Modulazioni

. un quadrato infinito per i 4 segnali ai bordi.

Nel grafico seguente si evidenziano le regioni di decisione in base a questa


classificazione:
ψ2 (t)
bc bc bc bc bc

bc bc bc bc bc

bc bc bc bc
ψ1 (t)

bc bc bc bc bc

bc bc bc bc bc

Esistono poi modulazioni miste, che combinano per esempio ampiezza e fase
che non hanno costellazioni con geometrie simili al QAM.
Capitolo 5

Isi e Criteri di Nyquist

5.1 Interferenza intersimbolica


Finora si è supposto di lavorare con segnali con durata temporale finita, pari
al tempo di simbolo Ts .
Con questa supposizione, nel dominio delle frequenze, i segnali hanno dura-
ta infinita; purtroppo per almeno due ragioni non è possibile avere questa
situazione:

. la banda è una risorsa costosa, quindi non è pensabile acquistarla


completamente;

. il canale può avere una funzione di trasferimento non uguale ad uno,


quindi è selettivo e filtra su una certa banda il segnale trasmesso.

Il segnale trasmesso è:


+∞
X
v(t) = an · r(t − nTs )
n=−∞

dove gli an sono coefficienti casuali; questo implica che il segnale v(t) è un
processo casuale anche senza considerare il rumore.
A seconda del valore assunto dagli an il processo assume forma diversa quin-
di, nel dominio spettrale non è facile calcolare la trasformata di Fourier.
Comunque, qualsisasi sia la modulazione utilizzata, v(t) è ciclostazionario
dunque è possibile renderlo stazionario.
In questo modo si ottiene che:

|R(f )|2
Gv (f ) = Sa (f ) ·
Ts
dove:

e −2π m f Ts
P
1. Sa (f ) = m Ra (mTs ) ·

83
84 CAPITOLO 5. Isi e Criteri di Nyquist

2. Ra (mTs ) = E[an · an+m ]

La seconda espressione è la media degli an e degli an traslati di m quindi è


un’autocorrelazione discreta. Misura quanto un dato in un’istante di tempo
è correlato ad un’altro; questa quantità prende il nome di autocorrelazio-
ne dei dati.
Vi è correlazione se è presente una codifica di canale, oppure quando le pa-
role utilizzate sono molto lunghe e vengono splittate in più parti; invece non
c’è correlazione quando nello stesso tempo di simbolo vengono trasmesse più
parole di codice.

La prima espressione invece è la trasformata di Fourier discreta dell’au-


tocorrelazione: prende il nome di spettro dei dati.

In sostanza Gv (f ) dipende dal segnale elementare utilizzato |R(f )|2 e anche


dalla sequenza dei dati tramsessi (in base alla loro correlazione).
Scegliamo per ipotesi Ra (mTs ) come:

Ra (mTs ) = δ(mTs ) · σa2

La sequenza dei dati trasmessi è scorrelata dopo ogni tempo di simbolo: i


dati sono scorrelati e il loro valor medio è nullo.
Ne segue che:
|R(f )|2
Gv (f ) = σa2 ·
Ts
Questa è una condizione che si cerca sempre di raggiungere agendo sul co-
dificatore di sorgente e sulla costellazione perchè, creando scorrelazione fra
i dati, lo spettro del segnale in trasmissione non dipende più dalla sequenza
trasmessa.
Rimane solo da capire come scegliere i segnali di base r(t − nTs ); essi devono
essere per forza di durata temporale infinita per soddisfare il vincolo della
limitazione di banda.
Questo pare in contraddizione con le ipotesi fatte in precedenza, in cui si
supponeva di avere segnali di base di durata Ts .

t0 + i Ts
v(t) r(t)
S HT (f ) C(f ) ⊕ HR (f )
y(t)
P P n(t)
n an δ(t − nTs ) n an hT (t − nTs )

dove:

. HT (f ) è il filtro sagomatore di ingresso;


5.1. Interferenza intersimbolica 85

. HR (f ) è il filtro di ricezione;

Come prima ipotesi si considera il caso in cui:

. C(f ) = 1, il canale non è selettivo;

. n(t) = 0, il contributo del rumore è nullo.

Il segnale y(t) può essere espresso come:

y(t) = r(t) ∗ hR (t)

Sostituendo ad r(t) la sua espressione equivalente:

y(t) = v(t) ∗ hR (t)

Sfruttando l’ipotesi di rumore assente e canale non selettivo r(t) = v(t).


Il segnale v(t) è definito come:
X X
v(t) = an hT (t − nTs ) = an δ(t − nTs ) ∗ hT (t)
n n

Quindi y(t) risulta essere:


X
y(t) = an δ(t − nTs ) ∗ hT (t) ∗ hR (t)
n

Indicando con:
h(t) = hT (t) ∗ hR (t)
Si ottiene l’espressione finale per y(t):
X
y(t) = an h(t − nTs )
n

L’istante di campionamento è t0 +i Ts ; t0 , si presti attenzione, non può essere


0 perchè in una comunicazione normale si deve tenere conto del tempo di
propagazione del segnale.
L’istante t0 rappresenta l’origine degli assi dei tempi del ricevitore, istante
dopo il quale parte il processo di campionamento.
Dal campionamento del segnale ricevuto si ricavano n variabili casuale yn ;
nell’i-esimo intervallo (t = t0 + iTs ):
X
yi = an h(t0 + iTs − nTs )
n

Cercando di isolare la componente dovuta all’i-esimo simbolo trasmesso:


X
yi = ai h(t0 ) + an h(t0 − iTs + iTs − nTs )
n6=i
86 CAPITOLO 5. Isi e Criteri di Nyquist

L’espressione: X
an h(t0 − iTs + iTs − nTs )
n6=i

rappresenta i contributi di tutti i simboli precedenti trasmessi che contribui-


scono a determinare la i-esima variabile casuale campionata; questa quantità
prende il nome di interferenza intersimbolica o ISI.

Esempio

hT (t) hR (t)

√1 √1
Ts Ts

Ts t t

hT (t) ∗ hR (t)


h(t)
1

Trasmettendo un 2-PAM e utilizzando come an ±1, la sequenza {1, 1, −1, 1}


ha il seguente segnale nel dominio del tempo:
y(t)

3Ts

t
Ts 2Ts 4Ts

Si nota che in ogni istante di campionamento, tranne il primo, il segnale è


sporcato dalle code precedenti; è questo che accade realmente ai segnali con
ISI.
5.2. 1◦ criterio di Nyquist 87

Si ha assenza di ISI quando la forma del segnale h(t) = hT (t)∗hR (t) presenta
degli zeri periodici di Ts tranne nel punto i-esimo in cui si vuole effettuare
il campionamento.
La condizione di avere un segnale con zeri periodici è meno restrittiva ri-
spetto a quella di avere segnali di durata finita; non è importante il compor-
tamento del segnale fra un tempo di simbolo e l’altro, ma la forma d’onda
deve valere 0 in corrispodenza di:
X
an h(t − κ Ts ) = 0 ∀κ 6= 0
n

dove κ = i − n.
Infatti per κ = 0 la sommatoria risulta essere il termine ai h(t0 ) che è il
termine utile di campionamento yi .

5.2 1◦ criterio di Nyquist


I segnali di base r(t − nTs ) dunque devono essere scelti in modo tale che:
. abbiano supporto infinito nel tempo;

. abbiano una h(t) con zeri periodici.


La seconda condizione, in sostanza, pone un vincolo sulla scelta tra hT (t)
ed hR (t).
Si consideri ora il rumore, mantenendo comunque l’ipotesi di canale non
selettivo; sappiamo che la condizione per avere il demodulatore ottimo in
presenza di rumore è utilizzare il filtro adattato.
In questo modo:
hR (t) = hT (Ts − t)
Osserviamo che:

h(t) = hT (t) ∗ hR (t) = hT (t) ∗ hT (Ts − t) = RhT (t − Ts )

RhT (t − Ts ) è l’autocorrelazione di hT (t), quindi il segnale y(t) viene cam-


pionato dove la sua sagoma ha il valore massimo.
Le due condizioni:
. assenza di ISI;

. filtro adattato.
Sono le due condizioni alla base del primo criterio di Nyquist.
Sono indipendenti perchè l’assenza di ISI è una condizione riguardante la
forma del segnale mentre il filtro adattato serve solo per eliminare il rumore.
In pratica le due condizioni richiedono:
88 CAPITOLO 5. Isi e Criteri di Nyquist

. h(t) con zeri periodici;

. campionamento nel massimo dell’autocorrelazione.

Esempio

Il segnale:
hT (t)

Non soddisfa il criterio di Nyquist perchè:


RhT (τ )

la funzione RhT (t) non ha zeri periodici.

Criterio di Nyquist nel dominio della frequenza


Ipotizziamo per semplicità che t0 = 0; allora:

X
ak h(t − nTs ) = ak


n t=κ Ts

Se ak = 1:
X
h(t − nTs ) =1


n t=κ Ts

X
RhT (t) · δ(t − nTs ) = δ(t)
n
Trasformando con Fourier si ha:
 
1 X
2 n
|HT (f )| ∗ δ f− =1
Ts n Ts
5.2. 1◦ criterio di Nyquist 89


  2
H f − n = cost
X
n
Ts
n
Ciò significa che la somma di tutte le repliche traslate di Ts è costante.
Ad esempio:
|HT (f )|2

−1 1 f
2Ts 2Ts

Replicandolo ogni Ts :
|HT (f )|2
A

−3 −1 −1 1 1 3 f
2Ts Ts 2Ts 2Ts Ts 2Ts

Si nota che il criterio di Nyquist è soddisfatto perchè la somma è costante.


L’antitrasformata di Fourier del filtro passabasso ideale è una sinc che ha
zeri periodici tranne nell’origine e durata temporale infinita, quindi rispetta
tutti i vincoli richiesti e permette di avere il pieno controllo della banda.
Un’altro esempio è:
|HT (f )|2

− 2T1 s 1
2Ts
f

Le repliche della parte eccedente ± 2T1 s si elidono fra loro perchè hanno area
simmetrica e quindi la somma è di nuovo costante come nel grafico prece-
dente.

Se un segnale occupa una banda:


1
B<
2Ts
90 CAPITOLO 5. Isi e Criteri di Nyquist

non si può soddisfare il primo criterio di Nyquist in quanto l’ISI sarà sicu-
ramente presente.
Si definisce banda di Nyquist la quantità:
1
2Ts
Si può pensare a T1s come alla frequenza di campionamento di un segnale fc ;
allora l’interpretazione è quella di avere:
fc > 2B
Per non perdere informazione si deve campionare un segnale ad almeno due
volte la banda; in caso contrario l’informazione si perde perchè si vuole ef-
fettuare una trasmissione che richiede una banda B usando una banda più
piccola B1 . Questo equivale a voler trasmettere su un canale di capacità C
ad un rate troppo elevato il che, come abbiamo visto nel capitolo 3, significa
perdere informazione.

|HT (f )|2

− 2T1 s 1
2Ts
f

La parte colorata in rosso viene chiamata eccesso di banda.

Filtro a coseno rialzato


Il filtro a coseno rialzato rispetta il primo criterio di Nyquist ed ha una fun-
zione di trasferimento di questo tipo:

|HT (f )|2
A

− 2T1 s 1
2Ts
f

− 1−α 1+α
2Ts − 2Ts
1−α
2Ts
1+α
2Ts

Il fattore α rapprensenta il roll-off del filtro ed è l’eccesso di banda.


Questo fattore è sempre compreso fra 0 ed 1:
0 < α < 1
5.2. 1◦ criterio di Nyquist 91

Nel caso in cui α = 0 si ha il filtro passabasso ideale.

Tipicamente nei sistemi di trasmissione la funzione di trasferimento del


canale C(f ) non è costante ovunque, ma solo su una certa banda poi attenua:
C(f )

−BC BC f

Nei sistemi reali si sceglie il filtro di trasmissione in modo tale che la sua
banda sia all’interno della zona in cui C(f ) è costante; in questo modo il
segnale inviato non viene distorto.
Ipotizziamo di utilizzare il filtro a coseno rialzato in banda base; la condizio-
ne per non avere perdita di informazione è utilizzare per la banda del filtro
BRC una banda minore di BC :
1+α
< BC (5.1)
2Ts
Gli unici parametri che si possono scegliere sono:
. α che è l’eccesso di banda;
. Ts il tempo di simbolo.
Si osservi che, poichè la sorgente trasmette i simboli con un bit rate Rb , la
scelta di Ts non può essere casuale ma è legata al mapping.
Se si utilizza un 2-PAM abbiamo visto nel capitolo 4 che Eb = Em e si tra-
smette un bit per simbolo quindi anche Rb = Rs : ad esempio, trasmettendo
a 100 Mbit/s si hanno 100 Msym/s.
Scegliendo invece un 4-PAM allora 2 Eb = Em perchè si tramsmettono due
bit per simbolo: per l’esempio precedente, trasmettendo 100 Mbit/s si han-
no 50 Msym/s.
La modulazione va quindi scelta in accordo con la banda disponibile e il bit
rate a cui si vuole effettuare la trasmissione.

Esempio

Data una banda BC = 25 MHz ed un bit rate Rb = 100 Mbit/s quale modu-
lazione si può usare?
Con un 4-PAM, M = 4 si trasmettono 2 bit per simbolo quindi Rs = R2b =
50 Msym/s.
Dato Rs = T1s si può provare a verificare se l’equaglianza (5.1) è soddifatta:
1
(1 + α) · Rs < BC =⇒ (1 + α) · 50 < 25 =⇒ α< −1
2
92 CAPITOLO 5. Isi e Criteri di Nyquist

Il risultato α = −0.5 non può essere accettato perchè α è un parametro che


deve essere positivo e minore di 1.

Rb
Con un 8-PAM, M = 8 si trasmettono 3 bit per simbolo e Rs = 3 =
33 Msym/s.
Verificando come prima:
25
(1 + α) · Rs < BC =⇒ (1 + α) · 33 < 25 =⇒ α< −1=
33
= α < 0.76 − 1 =⇒ α < −0.24
Per le stesse considerazioni di prima il risultato non è valido.

Serve almeno una modulazione con una costellazione a 16 punti; trasmet-


tendo 4 bit per simbolo si ottiene:
Rb
Rs = = 25 Msym/s
4
Per cui:
(1 + α) · Rs < BC =⇒ (1 + α) · 25 < 25 =⇒ α<1−1
Il risultato α = 0 può essere valido, si tratta del filtro passabasso ideale.

5.3 2◦ criterio di Nyquist


Si ipotizzi ora che il vincolo (5.1) non sia soddisfatto e che, quindi, si utilizzi
per il filtro a coseno rialzato una banda maggiore di BC .
Il canale è distorcente per le considerazioni fatte in precedenza; il filtro di
ricezione da usare per avere il migliore rapporto segnale rumore è il filtro
adattato all’insieme di HT (f ) e della funzione di trasferimento del canale
C(f ).
Prendendo come HR (f ):
HT (f )
HR (f ) =
C(f )
1
la parte utile di segnale sarebbe corretta, ma il rumore laddove C(f ) non è
costante verrebbe amplificato.

Il secondo criterio di Nyquist si applica proprio in queste condizioni


e richiede:
. filtro adattato;
. equalizzatore.
L’equalizzatore è un filtro fir che elimina le code dei segnali precedenti.
5.4. Considerazioni finali 93

5.4 Considerazioni finali


I parametri importanti nelle comunicazioni da scegliere per realizzare un
sistema sono il tipo di modulazione da utilizzare e le dimensioni della
costellazione; da questa scelta si ottiene un certo symbol rate Rs permet-
tendo di determinare la banda di Nyquist.
Ogni modulazione ha una sua energia legata alla distanza dei punti sulla
costellazione.
Per poter essere demodulato, il segnale trasmesso deve passare in un filtro
di ricezione che al fine di garantire il miglior rapporto segnale-rumore deve
essere il filtro adattato; in seguito viene campionato.

L’efficienza del sistema si valuta in base alla probabilità di errore P(e)


di ricevere un simbolo quando era stato trasmesso un’altro.
Un sistema efficiente ha una P(e) bassa che si traduce principalmente con
avere una distanza elevata tra i punti della costellazione; questa ipotesi però
comporta la richiesta di notevole energia per effettuare la trasmissione.
Trasmettendo con un’energia più bassa invece, la distanza tra i punti dimi-
nuisce causando un peggioramento delle prestazioni del sistema; l’aumento
della probabilità di errore può essere ridotto dall’introduzione di una codi-
fica di canale.
La codifica di canale aumenta la quantità di dati da trasmettere e la com-
plessità del sistema, quindi occorre trasmettere con un bit rate maggiore per
poter garantire le stesse prestazioni.

Un trasmissione più veloce comporta l’utilizzo di una banda più grande; se,
per varie ragioni, non è possibile una soluzione è quella di cambiare modula-
zione, utilizzando una modulazione in banda traslata, perchè raddoppiando
il numero delle dimensioni si creano due flussi separati per la trasmissione
dei dati e si utilizza in maniera più efficiente la banda a disposizione.
Se, in presenza di una codifica di canale, si utilizza una modulazione PAM,
trasmettere ad un bit rate maggiore significa utilizzare più punti sulla di-
mensione ψ e quindi aumentare l’energia oppure posizionare tutti i punti a
distanza minore aumentando la P(e).

Con una costellazione di tipo PSK l’aumento del numero di punti sulla co-
stellazione non comporta aumento dell’energia, ma un peggioramento delle
prestazioni del sistema; una modulazione PSK ha rese migliori con pochi
punti e quindi con un bit rate non elevato.
94 CAPITOLO 5. Isi e Criteri di Nyquist
Capitolo 6

Esempi conclusivi

6.1 Esempio modulazione PAM


Dato lo schema a blocchi:

t0 + i Ts
v(t)
S HT (f ) C(f ) ⊕ HR (f ) yi
n(t)
hT (t) = r(t) hR (t) = hT (Ts − t)

Utilizzando come segnale di base r(t):

r(t)

√1
Ts

Ts t

Si vuole trasmettere con una modulazione 2-PAM; i coefficienti del segnale:


X
v(t) = an r(t − nTs )
n

sono due ampiezze: an ∈ {± A}.


La costellazione ha una sola dimensione ψ ed i due punti si dispongono in
modo simmetrico su di essa; inoltre con la regola ML si individa una soglia
T h posta in modo equidistante tra i punti:

95
96 CAPITOLO 6. Esempi conclusivi

b b

-A A ψ(t)

Th
La sorgente emette un treno di delta che passando nel filtro sagomatore
hT (t) prendono la forma del segnale di base scelto r(t); ipotizzando di tra-
smettere la sequenza { A, A, -A, A } il segnale trasmesso v(t) ha la forma:

v(t)
√A
Ts

t
− √AT
s
Ts 2Ts 3Ts 4Ts

A questo segnale si deve sommare la componente di rumore aggiunta dalla


modellizzazione assunta del canale tramsissivo.
Considerando separatamente la componente utile di segnale ed il rumore
possiamo determinare analiticamente:

y(t) = v(t) ∗ hR (t) + n(t) ∗ hR (t)

Indicando con:

. z(t) = v(t) ∗ hR (t);

. nf (t) = n(t) ∗ hR (t).

Si ha:
y(t) = z(t) + nf
Si può operare questa separazione per la proprietà di linearità del sistema.

Sapendo che hR (t) è il filtro adattato, quindi con la stessa forma di r(t),
osserviamo come risulta essere z(t):

z(t)
A

t
-A
Ts 2Ts 3Ts 4Ts 5Ts
6.1. Esempio modulazione PAM 97

L’ampiezza di z(t) si determina come:

A 1 A
√ · √ · Ts = · Ts = A
Ts Ts Ts

Si adopera il procedimento analogo nel caso di ampiezza negativa.


98 CAPITOLO 6. Esempi conclusivi

Il segnale vero e proprio è:

z(t)
b b b
A

b b

t
b
-A
Ts 2Ts 3Ts 4Ts 5Ts

Il campionatore, effettuando il campionamento negli istanti di tempo mul-


tipli di Ts fornisce sempre come variabili yi i valori ± A. La spiegazione è
semplice: come segnale di base è stato utilizzato un segnale di durata tem-
porale finita quindi, trascurando il rumore perchè z(t) è la componente utile,
non c’è ISI che potrebbe causare incertezza.
La varianza del rumore filtrato nf risulta essere:
+∞ +∞
N0 N0 N0 N0 1
Z Z
σn2 f = · |HR (f )|2 df = · |hR (t)|2 dt = ·1= ‡
2 −∞ 2 −∞ 2 2

I segnali ricevuti saranno disposti sulla costellazione attorno ai valori ± A:

b b
rs

rs

rs

rs

rs

rs

-A A ψ(t)

Th
Sul grafico:
rs

z(t)
rs

rs

b b b
A
rs
rs

rs

rs

b b

t
rs

rs

b
-A
Ts 2Ts 3Ts 4Ts 5Ts
rs

L’errore si commette, ad esempio, con i quadrati verde in quanto i segnali


trasmessi hanno ampiezza positiva e quelli ricevuti ha ampiezza negativa
oppure viceversa.
1
Utilizzando l’uguaglianza di Parceval si è passati dal dominio della frequenza nel
dominio del tempo; il risultato dell’integrale è 1 in quanto hR (t) è scelta con la stessa
forma di r(t) che era un segnale di base.
6.1. Esempio modulazione PAM 99

Si ipotizzi ora di cambiare il filtro di ricezione, utilizzando:

hR (t)
√1
Ts

In questo caso, come abbiamo già visto nel capitolo 5, il segnale z(t) è dato
da:
z(t)

A 3Ts

t
-A Ts 2Ts 4Ts

E complessivamente:
z(t)

A 3Ts

t
-A Ts 2Ts 4Ts

A differenza del caso precedente, qui si nota immediatamente che i simboli


ricevuti (trascurando il rumore perchè si prende in considerazione solo z(t))
possono avere molti valori perchè i simboli precedenti influenzano il com-
portamento di ogni variabile yi : c’è ISI.

Il comportamento di ogni segnale dipende da come è stata trasmessa la


sequenza dei simboli precedenti: si consideri il caso in cui si trasmetta co-
stantemente il valore A per κ simboli e il κ + 1 simbolo sia -A.
Ciò che accade è che per i contributi delle code precedenti positivi il valore
-A può venire a trovarsi oltre la soglia, venire decodificato con A causando
un errore.
100 CAPITOLO 6. Esempi conclusivi

Si noti che questo è un peggioramento delle prestazioni del sistema anche


senza prendere in esame il rumore.
Ora la varianza del rumore filtrato nf è:
+∞ +∞
N0 N0
Z Z
σn2 f = · 2
|HR (f )| df = · |hR (t)|2 dt =
2 −∞ 2 −∞
1 − 2t +∞
Z +∞
N0 1 2t N0 τ N0 · τ
= · √ e− τ dt = · · √ e τ = √
2 −∞ Ts 2 2 Ts 0 4 · Ts

Questo risultato è peggiore rispetto al caso in cui si usa il filtro adattato,


che, abbiamo visto, ha come varianza del rumore filtrato N20 .

Sulla costellazione i punti ricevuti si dispongono esattamente come prima:

b b
rs

rs

rs

rs

rs

rs

rs

rs
-A A ψ(t)

Th

Tuttavia si osservino i punti colorati in arancione e verde; ricevendo i primi


si è sicuri di sbagliare poco perchè la coda della gaussiana ha area molto
piccola:

b
rs

-A ψ(t)

Th

Questo guadagno è compensato da un aumento della probabilità di errore


ricevedo i punti verdi:

b
rs

-A ψ(t)

Th

In generale quindi le prestazioni peggiorano perchè l’area azzurra nel secon-


do grafico è molto grande.

Se un segnale sporca un numero finito di simboli successivi è possibile sapere


i contributi di ISI ogni Ts :
6.1. Esempio modulazione PAM 101

h(t)
1
bc
Ts

bc
bc

t
Ts 2Ts 3Ts

In questo caso i punti azzurri sono i contributi di ISI:

. h(Ts ) è il valore da ricevere;

. h(2Ts ) è il valore che sporca il simbolo successivo;

. h(3Ts ) è il valore che sporca i due simboli successivi.

Ogni variabile casuale ricevuta è data da :


+∞
X
yk = ak h(Ts ) + an h(nTs )
n=−∞, n6=k

Si definiscono due quantità, distorsione media e di picco, che misurano i


contributi di ISI:

Distorsione media
2
P
n6=1 h (nTs )
Dm =
h2 (Ts )

Distorsione di picco
P
n6=1 |h(nTs )|
Dp =
h(Ts )

La distorsione di picco è un caso peggiore in quanto considera tutti i contri-


buti di ISI presi concordi; queste due quantità sono valori percentuali.

Si ipotizzi che ogni simbolo possa sporcare solo il successivo:

h(t)
1
bc
Ts

bc

t
Ts 2Ts 3Ts
102 CAPITOLO 6. Esempi conclusivi

La costellazione ricevuta è:

b b

rs

rs

rs

rs
-A A ψ(t)

Th

Con 2 segnali trasmessi:

. Ah(Ts );

. −Ah(Ts ).

I possibili segnali ricevuti sono 4:

. punto azzurro: −Ah(Ts ) − Ah(2Ts );

. punto arancione: −Ah(Ts ) + Ah(2Ts );

. punto verde: Ah(Ts ) − Ah(2Ts );

. punto lavanda: Ah(Ts ) + Ah(2Ts ).

La loro ampiezza dipende dal segno del simbolo precedente, positivo o ne-
gativo.

Per calcolare la probabilità di errore esistono due strade:

1. approssimare la nuova distanza minima;

2. ipotizzare i 4 simboli equiprobabili e calcolare tutte le distanze.

Scegliendo la prima soluzione la distanza minima è:

dmin = Ah(Ts ) − Dp h(Ts )

perchè:

Dp
b b
rs

rs

rs

rs

-A A ψ(t)

Th
6.1. Esempio modulazione PAM 103

Calcolata la distanza minima, che è la distanza tra il punto verde e arancione,


possiamo determinare con l’union bound la probabilità di errore:
 
∼ 1 dmin
P(e) = erfc √
2 2 · N0

Con la seconda soluzione si devono calcolare tutte le distanze:

β4 β3 β2 β1
b b
rs

rs

rs

rs
-A A ψ(t)

Th

La probabilità di errore, senza approssimazioni, è:


      
1 1 β1 1 β2 1 β3
P(e) = · erfc √ + erfc √ + erfc √ +
4 2 2 · N0 2 2 · N0 2 2 · N0
 
1 β4
+ erfc √
2 2 · N0
dove:
 
1 β1
. 8 erfc

2· N0
è la P(e|β1 );
 
1 β2
. 8 erfc

2· N0
è la P(e|β2 );
 
1 β3
. 8 erfc

2· N0
è la P(e|β3 );
 
1 β4
. 8 erfc

2· N0
è la P(e|β4 ).
104 CAPITOLO 6. Esempi conclusivi

6.2 Diagramma ad occhio


6.2.1 Esempio per la modulazione 2-PAM
Un modo per misurare la distorsione di picco è visualizzare la costellazione
con il diagramma ad occhio.
Questo strumento riporta in un tempo di simbolo tutte le possibili repliche
del segnale sovrapponendone le tracce.

Considerando il caso di modulazione 2-PAM con filtro adattato si ha il se-


guente diagramma ad occhio:
Diagramma ad occhio della parte reale del segnale ricevuto
1

0.8

0.6

0.4

0.2

−0.2

−0.4

−0.6

−0.8

−1
0 10 20 30 40 50 60 70
Time

Figura 6.1: diagramma ad occhio modulazione 2-PAM in condizioni ideali

Si può visualizzare la costellazione corrispondente nello scattering diagram


mostrato in figura 6.2.

Quando il segnale non è affetto da ISI il diagramma ad occhio si dice aperto


verticalmente: è il caso del grafico in figura 6.1.

Considerando l’ipotesi di avere sı̀ il filtro adattato, ma di campionare il se-


gnale nell’istante di tempo sbagliato si ottiene lo scattering diagram di figura
6.3; l’istante di campionamento ideale si osserva sul diagramma ad occhio:
in figura 6.1 è esattamente 33, l’attimo in cui l’occhio è completamente aper-
to.
Invece, campionando a 35, i possibili segnali ricevuti non sono solo due come
prima, ma diventano quattro (come evidenzia anche lo scattering diagram
di figura 6.3) perchè in quell’istante si hanno quattro possibili combinazioni.
Tale comportamento è illustrato in figura 6.4.
6.2. Diagramma ad occhio 105

Scattering diagram del segnale ricevuto


1

0.8

0.6

0.4

0.2
Im

−0.2

−0.4

−0.6

−0.8

−1
−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1
Re

Figura 6.2: scattering diagram per modulazione 2-PAM in condizioni ideali

La sensibilità della modulazione usata di avere più istanti di campionamento


ideali si può leggere guardando l’apertura orizzontale del diagramma ad
occhio: se è elevata allora sbagliando di poco l’istante di campionamento
l’ISI sarà poco influente, rendendo la modulazione più robusta.
Se l’apertura orizzontale è invece lieve occorre avere un sincronizzatore mol-
to preciso, in grado cioè di campionare il segnale nel solo istante ideale,
perchè altrimenti la modulazione sarebbe molto disturbata dall’interferenza
intersimbolica.

Se non si utilizza il filtro adattato, ma ad esempio:


hT (t) hR (t)

√1 √1
Ts Ts

Ts t t

h(t)
1

t
106 CAPITOLO 6. Esempi conclusivi

Scattering diagram del segnale ricevuto


1

0.8

0.6

0.4

0.2
Im

−0.2

−0.4

−0.6

−0.8

−1
−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1
Re

Figura 6.3: scattering diagram per modulazione 2-PAM con campionamento


sbagliato

Come abbiamo visto nel capitolo 5 la risposta all’impulso h(t) non soddisfa
il criterio di Nyquist e quindi è presente l’interferenza intersimbolica.
Osserviamo che, in questo caso, il diagramma ad occhio del segnale ricevuto
cambia e non si riesce a trovare un istante ottimo di campionamento tale
per cui le code dei segnali precedenti non sporchino il segnale attuale: è per
questo motivo che l’ISI non può essere evitata.
Si noti che, anche in caso di filtro adattato può verificarsi ISI, ma il disturbo
può essere eliminato perchè esiste un istante ottimo di campionamento.

In figura 6.5 viene riportato il grafico del diagramma ad occhio quando


non si utilizza il filtro adattato e si usa come istante di campionamento 35;
la costellazione ottenuta comprende molti più punti rispetto ai due che si
dovrebbero avere.

In figura 6.6 si riporta lo scattering diagram mentre in figura 6.7 si può


osservare l’ingrandimento fatto sui due punti a sinistra: si noti come in
realtà i due punti visibili a sinistra in figura 6.6 siano in realtà il doppio.

6.2.2 Esempio per la modulazione QPSK


Per la modulazione QPSK gli esempi sono stati realizzati usando il filtro a
radice di coseno rialzato in trasmissione e in ricezione, quindi si ha la con-
6.2. Diagramma ad occhio 107

Figura 6.4: diagramma ad occhio per modulazione 2-PAM con


campionamento sbagliato

dizione di filtro adattato.

Con un roll-off di 0.6 ed effettuando il campionamento nell’istante di tempo


esatto, 42, si ottiene un diagramma ad occhio illustrato del segnale ricevuto
in figura 6.8 e del segnale trasmesso in figura 6.9.
Lo scattering diagram che mostra la costellazione viene invece riportato in
figura 6.10.

Mantenendo lo stesso roll-off, ma campionando in un istante di tempo sba-


gliato, come conseguenza data dall’ ISI si otterranno in ricevzione molti più
simboli: in figura 6.11 si può vedere questo comportamento.

Ipotizzando di cambiare il roll-off, scegliendo come parametro α = 0.1 (mol-


to vicino al filtro ideale passa-basso) anzichè 0.6, e campionando il segnale
nell’istante ideale, si può vedere in figura 6.12 che il diagramma ad occhio è
molto chiuso orizzontalmente rispetto a quello mostrato in figura 6.8.

Lo scattering diagram riporta la costellazione in figura 6.13 e l’ingrandimen-


to di uno dei vertici in figura 6.14.
Si può notare il comportamento già descritto nell’esempio per la modulazio-
ne 2-PAM per cui in ricezione si hanno più simboli rispetto a quelli in realtà
trasmessi.
108 CAPITOLO 6. Esempi conclusivi

Diagramma ad occhio della parte reale del segnale ricevuto


2

1.5

0.5

−0.5

−1

−1.5

−2
0 10 20 30 40 50 60 70
Time

Figura 6.5: diagramma ad occhio per modulazione 2-PAM senza filtro


adattato

Scattering diagram del segnale ricevuto


1

0.8

0.6

0.4

0.2
Im

−0.2

−0.4

−0.6

−0.8

−1
−2 −1.5 −1 −0.5 0 0.5 1 1.5 2
Re

Figura 6.6: scattering diagram per modulazione 2-PAM senza filtro adattato
6.2. Diagramma ad occhio 109

−4 Scattering diagram del segnale ricevuto


x 10

0
Im

−2

−4

−6

−8

−10

−1.86 −1.84 −1.82 −1.8 −1.78 −1.76 −1.74 −1.72 −1.7 −1.68 −1.66
Re

Figura 6.7: scattering diagram ingrandito per modulazione 2-PAM senza


filtro adattato

Diagramma ad occhio della parte reale del segnale in ricezione


1.5

0.5

−0.5

−1

−1.5
0 10 20 30 40 50 60 70
Time

Figura 6.8: diagramma ad occhio per modulazione QPSK


110 CAPITOLO 6. Esempi conclusivi

Diagramma ad occhio della parte reale del segnale in trasmissione


0.3

0.2

0.1

−0.1

−0.2

−0.3

−0.4
0 10 20 30 40 50 60 70
Time

Figura 6.9: diagramma ad occhio in trasmissione per modulazione QPSK

Scattering diagram del segnale in ricezione


1.5

0.5
Im

−0.5

−1

−1.5
−1.5 −1 −0.5 0 0.5 1 1.5
Re

Figura 6.10: scattering diagram per modulazione QPSK


6.2. Diagramma ad occhio 111

Scattering diagram del segnale in ricezione


1.5

0.5
Im

−0.5

−1

−1.5
−1.5 −1 −0.5 0 0.5 1 1.5
Re

Figura 6.11: scattering diagram per modulazione QPSK con campionamento


non ideale

Diagramma ad occhio della parte reale del segnale in ricezione


2.5

1.5

0.5

−0.5

−1

−1.5

−2

−2.5
0 10 20 30 40 50 60 70
Time

Figura 6.12: diagramma ad occhio per modulazione QPSK con roll-off pari
a 0.1
112 CAPITOLO 6. Esempi conclusivi

Scattering diagram del segnale in ricezione


2.5

1.5

0.5
Im

−0.5

−1

−1.5

−2

−2.5
−2.5 −2 −1.5 −1 −0.5 0 0.5 1 1.5 2 2.5
Re

Figura 6.13: scattering diagram per modulazione QPSK con roll-off pari a
0.1

Scattering diagram del segnale in ricezione

1.06

1.04

1.02

1
Im

0.98

0.96

0.94

−1.08 −1.06 −1.04 −1.02 −1 −0.98 −0.96 −0.94 −0.92


Re

Figura 6.14: scattering diagram ingrandito per modulazione QPSK con roll-
off pari a 0.1

You might also like