Principi di comunicazioni elettriche Fiandrino Claudio

25 novembre 2009

II

Indice
1 Trasmissione dell’informazione 2 Rumore 2.1 Introduzione generale . . . . . . . 2.2 Rumore nei doppi bipoli . . . . . . 2.3 Rumore in cascate di doppi bipoli . 2.4 Rumore nei sistemi wireless . . . . 2.5 Banda equivalente di rumore . . . 2.6 Rapporto segnale-rumore . . . . . 2.7 Attenuatore dissipativo . . . . . . 3 Teoria dell’informazione 3.1 Introduzione generale 3.2 Codifica di sorgente . 3.3 Codifica di canale . . . 3.4 Canale discreto . . . . 3 7 7 11 12 14 14 16 17 19 19 22 25 27 31 31 31 36 40 40 60 62 69 83 83 87 92 93

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

4 Modulazioni 4.1 Modulazioni analogiche . . . . . . . . . . . . . 4.1.1 Modulazioni di ampiezza . . . . . . . . 4.1.2 Segnale analitico e inviluppo complesso 4.2 Modulazioni numeriche . . . . . . . . . . . . . . 4.2.1 Introduzione generale . . . . . . . . . . 4.2.2 Costellazioni e regioni di decisione . . . 4.2.3 Modulazioni in banda base . . . . . . . 4.2.4 Modulazioni in banda traslata . . . . . 5 Isi e Criteri di Nyquist 5.1 Interferenza intersimbolica 5.2 1◦ criterio di Nyquist . . . 5.3 2◦ criterio di Nyquist . . . 5.4 Considerazioni finali . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

III

IV 6 Esempi conclusivi 6.1 Esempio modulazione PAM . . . . 6.2 Diagramma ad occhio . . . . . . . 6.2.1 Esempio per la modulazione 6.2.2 Esempio per la modulazione

INDICE 95 . 95 . 104 . 104 . 106

. . . . . . . . . . 2-PAM QPSK .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

Prefazione
Gli appunti sono stati redatti seguendo le lezioni del corso ed approfondendo alcuni argomenti sul libro di testo consigliato (Giorgio Taricco, Comunicazioni elettriche con elementi di teoria dell’informazione, edito CLUT). Se fossero presenti errori potete segnalarli al il mio recapito mail: claudio fiandrino@hotmail.it. Il sito in cui ` possibile trovare questi appunti `: e e http://claudiofiandrino.altervista.org.

1

2

INDICE

Capitolo 1

Trasmissione dell’informazione
Analizziamo le due parole del titolo di questo capitolo: trasmissione e informazione. Trasmettere consiste nel prendere in esame l’insieme dei dispositivi fisici che permettono la comunicazione; ci` che viene trasmessa ` l’informazione, ossia o e i segnali opportunamente trattati.

Sistemi di trasmissione
Esistono due tipi di sistemi di trasmissione: analogici e digitali.

Sistemi analogici
I sistemi analogici trasmettono segnali a tempo continuo in cui, l’informazione da scambiare nella comunicazione, ` proporzionale ad uno dei parametri e del segnale (fase, ampiezza). Il segnale non viene manipolato, ma riprodotto fedelmente. x(t)

t

3

4

CAPITOLO 1. Trasmissione dell’informazione

Sistemi digitali
Nei sistemi digitali i segnali trasmessi non rappresentano l’informazione scambiata: essa va interpretata. Si parla di informazione discreta perch`, con opportune manipolazioni, si e codifica l’informazione in simboli (sequenze di bit); in fase di ricezione essi saranno riconosciuti e decodificati per conoscere l’esatto contenuto di informazione ricevuto. Sul canale di trasmissione il segnale ` un segnale di tipo analogico (onda e elettromagnetica) e non una sequenza numerica anche nel caso di sistemi digitali. x(t)

t

Rispetto a sistemi analogici, con segnali digitali ` possibile ricostruire la fore ma d’onda se durante la trasmissione si sono verificati errori; la prestazione dei processori che trattano l’informazione ` decisamente migliore come mie gliore ` la qualit` di questi sistemi. e a I sistemi analogici per contro sono meno complicati da realizzare e c’` dee gradazione graduale della qualit` a differenza dei sistemi digitali; per questi a ultimi se non ci sono errori la qualit` ` alta, ma in caso contrario la qualit` ae a ` nulla. e

Schemi a blocchi per i due tipi di sistemi
Sistemi analogici: S Sorgente MOD Modulatore analogico DEMOD Demodulatore Analogico R Ricevitore

5 Sistemi digitali: S C-Q MOD Modulatore Numerico DEMOD Demodulatore Numerico R Ricevitore

Sorgente Campionatore e Quantizzatore

6

CAPITOLO 1. Trasmissione dell’informazione

Capitolo 2

Rumore
In questo capitolo verr` analizzato il rumore termico nei suoi aspetti fondaa mentali.

2.1

Introduzione generale

In ogni trasmissione si pu` osservare un disturbo che prende il nome di ruo more termico. Il rumore termico ` un modello fisico sempre presente nei dispositivi di trae smissione in quanto caratterizza la variazione elettrica degli elettroni nel sistema hardware. Analizziamo con dettaglio il rumore presente nei sistemi di telecomunicazione; ` possibile caratterizzarlo con le seguenti propriet`: e a . ` un processo casuale che chiameremo n(t); e . ` bianco; e . la sua distribuzione statistica ` di tipo gaussiano. e L’aggettivo bianco evidenzia che lo spettro del processo n(t) ` costante su e tutte le frequenze e, date le sue propriet` di processo casuale WSS ed ergoa dico, pu` essere modellizato come: o GN (f )
N0 2

f

7

8

CAPITOLO 2. Rumore

Poich` lo spettro ` costante, l’autocorrelazione del rumore termico, che non e e ` altro che l’antitrasformata di Fourier dello spettro di potenza, ` una delta e e nell’origine: RN (τ )
N0 2

τ

In formule: GN (f ) = F {RN (τ )} RN (τ ) = F −1 {GN (f )}

La funzione di autocorrelazione misura quanto due istanti di tempo t e t1 di un processo siano correlati. Se la funzione di autocorrelazione mostra una forte correlazione fra due istanti di tempo allora il segnale, nel dominio del tempo, ` lento; viceversa e un segnale veloce avr` una funzione di autocorrelazione bassa perch` t1 ` a e e influenzato poco da t; poich` il rumore termico ha una delta nell’origine la e conclusione ` che ogni istante di tempo non ` correlato in nessun modo con e e altri. Non ` possibile quindi partendo da t cercare di indovinare cosa succeder` in e a t1 perch`, siccome questi istanti di tempo sono scorrelati, il processo cambia e in modo impredicibile. Per τ −→ 0 ci` che evidenzia la funzione di autocorrelazione ` la potenza o o e N0 valor quadratico medio del segnale ( 2 ); invece per τ −→ ∞, solo nel caso di processi causali come n(t) si legge il valor medio al quadrato (0).

2.1. Introduzione generale

9

La distribuzione statistica ` di tipo gaussiano in quanto somma di eventi e casuali statisticamente indipendenti: fn

n

Questo tipo di distribuzione evidenzia che mediamente il rumore ha media nulla, ma, seppure con probabilit` bassa, possono verificarsi picchi di ama piezza molto alta o molto bassa di durata breve.

Dimostrazione
Collegando un resistore ad un oscilloscopio si osserva che anche senza alimentazione scorre una microcorrente spuria; questo fenomeno ` dovuto all’ae gitazione termica degli elettroni semplicemente perch` la resistenza si trova e ad una certa temperatura. Lo spettro della corrente misurata i(t) ` il seguente: e Gi (f )

f

Il rumore termico decade a frequenze dei THz, anche se solitamente si immagina lo spettro costante su tutte le frequenze; la densit` spettrale di potenza a vale: 2 · κ · T A2 Gi (f ) = R Hz

dove: . κ ` la costante di Boltzman che vale 1.38 · 10−23 e . T ` la temperatura a cui ` posto il resistore; e e . ed R il valore della sua resistenza.
J K

;

10 La tensione generata dall’agitazione termica `: e e(t) = i(t) · R

CAPITOLO 2. Rumore

Possiamo dedurre che la funzione di trasferimento sia: E(f ) =R H(f ) = I(f ) Sapendo che: otteniamo questa relazione che lega gli spettri di potenza di tensione e corrente: Ge (f ) = Gi (f ) · R2 = 2 · κ · T · R Ge (f ) = Gi (f ) · |H(f )|2

Un generatore di tensione eroga la massima potenza se R ` uguale alla e resistenza interna del generatore stesso: Pdisp = La potenza fisica del rumore: Gn (f ) = e(t) 4·R

2·κ·T · R2 Ge (f ) Gi (f ) · R2 2 · κ · T · R2 κ·T = = R = = 2 4·R 4·R 4·R 4·R 2 Indicando con N0 il valore del prodotto κ · T si ha che:

Gn (f ) =

N0 2

W Hz

Si pu` notare che il rumore non dipende dal materiale, in questo caso dal o valore della resistenza, ma solo dalla temperatura a cui ` posto; dunque e maggiore ` la temperatura pi` alta sar` la potenza di rumore associata e e u a quindi pi` grande sar` il disturbo creato. u a Nell’ambito delle telecomunicazioni il rumore termico ` il fattore discrimie nante per le prestazioni dei dispositivi ed ` il principale fattore di abbassae mento della qualit` del segnale. a Esempio Calcolare la potenza di rumore nella banda B di 10 MHz alla temperatura T di 290◦ K. X(f )

−B

B

f

2.2. Rumore nei doppi bipoli
B B

11 N0 N0 df = · 2B = N0 · B = κ · T · B 2 2

Pn =
−B

Gn (f ) df =
−B

Sostituendo i valori numerici: Pn = (1.38 · 10−23 ) · 290 · (10 · 106 ) = 4 · 10−14 W Il valore ottenuto ` molto basso, ma occorre precisare che ` necessario un e e confronto con la potenza del segnale trasmesso per poter dare un giudizio. Ad esempio, la telefonia cellulare, utilizza potenze di questo ordine di grandezza; in questo caso un disturbo con questa potenza sarebbe significativo.

2.2

Rumore nei doppi bipoli

Quando un segnale attraversa un doppio bipolo viene disturbato dal rumore creato dal dispositivo.

D.B n(t) x(t) ⊕ y(t)

Il parametro importante ` la temperatura di lavoro: abbiamo visto come e influenza il rumore aumentandone la potenza e quindi peggiorando il segnale. In ingresso al doppio bipolo abbiamo una potenza di rumore pari a: Gin = κ·T 2

Ipotizzando che gli elementi siano adattati in impedenza, quindi sia la potenza del segnale che quella del rumore sono massime, si ha in uscita: Gout = Gin · gdb + Gdb (2.1)

Supponiamo di avere un doppio bipolo ideale, che non introduce rumore, con una potenza in uscita data da: Gout = Gin · gdb e un doppio bipolo rumoroso con potenza in uscita descritta nel’equazione (2.1).

12

CAPITOLO 2. Rumore

Si definisce temperatura equivalente di rumore T e l’incremento di temperatura che occorre dare all’ingresso del doppio bipolo ideale affinch` abbia e la stessa potenza di uscita del doppio bipolo rumoroso. Ricapitolando: D.B ideale Gout = κ·T · gdb 2 ′ Gin = κ·T 2

Gout

D.B reale +T = κ·(T 2 e) · gdb Gin = κ·T 2

Si introduce: γT =

Te Gout =1+ ′ T Gout

Tale rapporto viene definito cifra di rumore (figure noise), quando T ` e uguale a T o, temperatura operativa (290◦ K, 17◦ C): F = Gout Te =1+ ′ To Gout

Questa quantit` misura quanto peggiora l’uscita del doppio bipolo rumoroso a rispetto al suo ingresso. Invertendo la formula della cifra di rumore ` possibile determinare analie ticamente un’espressione per la temperatura equivalente: T e = T o · (F − 1)

2.3

Rumore in cascate di doppi bipoli

Ipotizziamo di avere una cascata di doppi bipoli con: . cardinalit` N ; a . temperatura Ti ; . cifra di rumore Fi ; . guadagno gi ;

Ti , Fi , gi i=1

Ti , Fi , gi i=2

Ti , Fi , gi i=N

2.3. Rumore in cascate di doppi bipoli Se consideriamo tutti i doppi bipoli ideali si avr`: a Gout =

13

κ · To · gtot 2

dove gtot rappresenta il guadagno complessivo della catena: gtot = g1 · g2 · g3 · ... · gN La potenza in uscita ipotizzando tutti i doppi bipoli reali sar` invece: a Gout = Gout + Gtot dove Gtot rappresenta i contributi complessivi di rumore introdotti dalla cascata di doppi bipoli:
N

Gtot =
i=1

Gdbi

Analizziamo l’uscita del primo elemento: Gout (1) = κ · (T o + T1 ) · gtot + Gdb (1) 2

` E come considerare il primo doppio bipolo reale e tutti gli altri ideali. Ripetendo l’operazione sull’intera catena si ottiene: Ftot = 1 + T1 T2 TN + + ··· + T o T o · g1 T o · (g1 · g2 · ... · gN −1 ) FN − 1 F2 − 1 F3 − 1 + + ··· + g1 g1 · g2 gtot

Detta formula di Friis. Equivalentemente: Ftot = F1 +

Si pu` notare dalla formula di Friis che sono i primi stadi ad essere significao tivi nel garantire buone o cattive prestazioni del sistema: per questo motivo dopo dispositivo ricevente come un’antenna viene posto un amplificatore a basso rumore (Low Noise Amplifier) il quale, avendo una cifra di rumore bassa, non peggiora il rumore di tutta la catena. Come nel caso del doppio bipolo ` possibile determinare la temperatura e equivalente totale come: T etot = T o · (Ftot − 1) = T1 + T3 TN T2 + + ··· + g1 g1 · g2 gtot

14

CAPITOLO 2. Rumore

2.4

Rumore nei sistemi wireless

In un sistema nello spazio libero:

Ta

RX

La temperatura di antenna ` la temperatura a cui si trova un resistore equie valente collegato al ricevitore che genererebbe la stessa quantit` di rumore a dell’antenna; essa si sostituisce alla temperatura a cui si trova il sistema perch` tiene conto di tutti i disturbi ricevuti (es. rumore galattico). e Con sistemi di questo tipo la temperatura operativa a cui si lavora `: e Top = T a + T e Ricapitolando: Sistemi wired Top = T + T e Sistemi wireless Top = T a + T e

2.5

Banda equivalente di rumore

Nelle sezioni precedenti si ` parlato spesso impropriamente di potenza di e rumore; il termine pi` corretto sarebbe stato densit` spettrale di potenza u a del rumore. La potenza di rumore vera e propria infatti tiene conto della banda del segnale che viene utilizzato. Ipotizziamo di effettuare una trasmissione su un canale AWGN (Additive White Gaussian Noise) che aggiunge al segnale solo rumore termico; modellizziamo semplicemente la trasmissione da una sorgente verso un destinatario su un canale AWGN in questo modo:

x(t)

⊕ n(t)

y(t)

2.5. Banda equivalente di rumore

15

Se si pensa al segnale y(t) come risultato di una trasformazione data da una funzione di trasferimento, la relazione fra le densit` spettrali di potenza `: a e Gy (f ) = |H(f )|2 · Gx (f ) Poich` il sistema di trasmissione ` lineare, possiamo pensare di scomporre la e e densit` spettrale dell’uscita come somma delle densit` spettrali di ingresso a a e quella del rumore; per questo motivo ` possibile calcolare direttamente la e potenza del rumore come:
+∞

PNout =
−∞

N0 · |H(f )|2 df = 2

+∞ −∞

κ · To · |H(f )|2 df 2

Siccome

κ·T o 2

` costante si ottiene: e PNout = κ · To · 2
+∞ −∞

|H(f )|2 df

Si osserva che l’integrale non dipende dalla geometria del filtro, ma solo dalla sua area. Si definisce banda equivalente di rumore: Beq = 1 1 · · 2 |H(f )|2
+∞ −∞

|H(f )|2 df

Per cui la potenza di rumore risulta essere: PNout = κ · T o · Beq · |H(f )|2 La banda equivalente di rumore ` un filtro passabasso che ha una banda e capace di far passare la stessa quantit` di rumore del filtro vero e proprio: a |H(f )|2 |H(f )|2

f Ad esempio, se |H(f )|2 = 1:

−Beq

Beq

f

PNout = κ · T o · Beq

16

CAPITOLO 2. Rumore

2.6

Rapporto segnale-rumore

Ipotizzando di avere un doppio bipolo caratterizzato da: . temperatura equivalente T e; . guadagno disponibile gd ; . cifra di rumore F ; . banda equivalente di rumore Beq ; . potenza del segnale di ingresso PSin . Il rapporto segnale-rumore, in inglese signal to noise ratio (SN R), viene definito come: P otenza segnale SN R = P otenza rumore Se non si specifica dove si effettano queste due misure l’indicazione data da SN R ` totalmente inutile; pensiamo di calcolare tale quantit` all’ingresso e a del doppio bipolo considerato: SN Rin = PSin PNin

Il termine della potenza del rumore in ingresso pu` essere esplicitato come: o PNin = Quindi: SN Rin = κ·T · 2Beq = κ · T · Beq 2 PSin κ · T · Beq

Effettuiamo ora il calcolo all’uscita del doppio bipolo: SN Rout = PS · gd PSout = in PNout PNout

Determiniamo la potenza di rumore in uscita: PNout = Per cui: SN Rout = PSin PSin · gd = κ · (T + T e) · gd · Beq κ · (T + T e) · Beq κ · (T + T e) · gd · 2Beq = κ · (T + T e) · gd · Beq 2

Il significato di questa espressione ` che non serve aumentare la potenza del e segnale per migliorare la qualit` della trasmissione perch` verrebbe amplifia e cato anche il rumore, non cambiando di fatto nulla.

2.7. Attenuatore dissipativo

17

Se la temperatura di lavoro ` T o: e SN Rout = 1 1 PSin · = SN Rin + Te κ · T · Beq 1 + T o F

Esprimendo tutte le grandezze in decibel: SN Rout |dB = SN Rin |dB − F |dB

2.7

Attenuatore dissipativo

Pi` comunemente noti come cavi, gli attenuatori dissipativi sono caratterizu zati da: 1 gd = L dove L ` l’attenuazione. e Supponendo che lavori a temperatura T o possiamo definire: . Gin =

κ·T o 2 ,

potenza di rumore in ingresso;
1 L,

. Gout = κ·T o · 2 l’attenuatore;

potenza di rumore in uscita considerando ideale

. Gout = κ·T o , potenza di rumore in uscita considerando rumoroso 2 l’attenuatore. Calcoliamone la cifra di rumore: F = Gout = ′ Gout
κ·T o 2 κ·T o 1 2 · L

=L

Fisicamente ` un concetto esatto perch`, pi` ` lungo un cavo, pi` si dissipa e e ue u potenza in calore per effetto Joule; ci` provoca un’aumento della temperao tura e, di conseguenza, di rumore.

18

CAPITOLO 2. Rumore

Capitolo 3

Teoria dell’informazione
3.1 Introduzione generale
S −→ {xi }M i=1 si pu` pensare all’informazione come ad una grandezza che dipende dalla o probabilit` che venga emesso uno dei simboli della sorgente piuttosto che a un altro. Pi` un simbolo ha probabilit` di essere trasmesso, meno inforu a mazione conterr`; al contrario un simbolo trasporta tanta informazione se a viene emesso poche volte. Propriet` a 1. Dati due simboli xi e xj : I(xi ) > I(xj ) se P(xi ) < P(xj ); 2. Se gli eventi sono statisticamente indipendenti: P(xi , xj ) = P(xi ) + P(xj ) =⇒ I(xi , xj ) = I(xi ) + I(xj ).

Data una sorgente in grado di emettere un numero finito di simboli discreti:

Una funzione matematica che verifica queste propriet` ` il logaritmo; per a e definizione: 1 I(xi ) loga P(xi )

A seconda della base a scelta si individuano diverse unit` di misura per a l’informazione:
1 . I(xi ) = ln P(xi )

[nat]

1 . I(xi ) = log2 P(xi ) [bit]

19

20

CAPITOLO 3. Teoria dell’informazione

I bit dunque non sono ′′ 0′′ e ′′ 1′′ che viaggiano nei segnali, ma misura di quantit` di informazione scambiata. a Solo in casi particolari vi ` una correlazione fra cifre binarie e bit di infore mazione, come si vedr` in seguito. a Si definisce entropia della sorgente la quantit`: a
M M

H(x) =
i=1

P(xi ) · I(xi ) =

i=1

P(xi ) · log2

1 P(xi )

L’entropia rappresenta quindi una media dell’informazione trasmessa dalla sorgente pesata, per ogni simbolo, dalla sua probabilit` di essere emesso; a per questo motivo si misura in [ bit/sym]. Esempio 1 Data una sorgente S che pu` emettere 4 simboli diversi (x0 , x1 , x2 , x3 ) con o probabilit` uguale per ogni simbolo; si calcoli l’entropia della sorgente. a Poich` i simboli sono equiprobabili e l’alfabeto ` composto di 4 simboli: e e 1 4 Si ha che la quantit` di informazione che ogni simbolo ha ` uguale per ogni a e simbolo emesso. L’entropia per definizione `: e P(x0 ) = P(x1 ) = P(x2 ) = P(x3 ) =
M

H(x) =
i=1

P(xi ) · log2

1 P(xi )

Quindi nel nosto caso: H(x) = M · 1 · log2 M = log2 4 = 2 bit/sym M

Esempio 2 Ipotizziamo ora che la sorgente S non emetta con la stessa probabilit` i a simboli, ma secondo le regole della tabella: Simbolo xi x0 x1 x2 x3 Probabilit` P(xi ) a P(x0 ) = 1/2 P(x1 ) = 1/4 P(x2 ) = 1/8 P(x3 ) = 1/8

3.1. Introduzione generale

21

In questo caso con probabilit` diverse anche la quantit` di informazione che a a trasporta ogni simbolo ` diversa: e
1 x0 =⇒ I(x0 ) = log2 P(x0 ) = log2 2 = 1 bit; 1 x1 =⇒ I(x1 ) = log2 P(x1 ) = log2 4 = 2 bit; 1 x2 =⇒ I(x2 ) = log2 P(x2 ) = log2 8 = 3 bit; 1 x3 =⇒ I(x3 ) = log2 P(x3 ) = log2 8 = 3 bit.

Si pu` notare come i simboli meno probabili, che dunque contengono pi` o u informazione, trasportano il maggior numero di bit; viceversa i simboli pi` u probabili sono quantificati con un bit. Calcoliamo ora l’entropia della sorgente:
M

H(x) =
i=1

P(xi ) · log2

1 1 1 1 7 = · 1 + · 2 + 2 · · 3 = = 1.75 bit/sym P(xi ) 2 4 8 4

Rispetto al caso di simboli equiprobabili quindi si ha meno entropia in quanto alcuni simboli sono pi` frequenti e, dunque, forniscono meno informazione u quando sono emessi. Esempio 3 Consideriamo ora una sorgente S che emetta simboli binari: X = {x0 , x1 } Le cui probabilit` di emissione sono: a . P(x0 ) = p0 ; . P(x1 ) = 1 − p0 . L’entropia della sorgente `: e H(x) = p0 · log2 1 1 + (1 − p0 ) · log2 p0 (1 − p0 )

Diagrammando l’entropia in funzione della probabilit` p0 : a H(x) 1

0

1 2

1

p0

22

CAPITOLO 3. Teoria dell’informazione

Il significato di questo grafico ` il seguente: se si trasmette con probabilit` e a p0 = 1 allora viene emesso solo il simbolo x0 ; esso non trasporta informazione quindi l’entropia della sorgente ` nulla. Lo stesso discorso vale nel caso in e cui si emette il simbolo x1 sempre, ossia p0 = 0; quando invece i simboli sono equiprobabili l’entropia ` massima e vale 1: e H(x) = 1 1 1 · log2 1 + 1 − 2 2 2 · log2 1 1 1 1 = 2 + 2 = 1 bit/sym (1 − 2 )

Solo in questo caso vi ` una corrispondenza fra cifra binaria ed bit; si noti, e ad esempio, che se si tramette per il 60% delle volte il simbolo x0 e per il 40% x1 allora l’entropia sar` un numero compreso fra 0 e 1. a

3.2

Codifica di sorgente

L’obbiettivo di una codifica di sorgente ` capire se, data una sorgente S con e un alfabeto di simboli discreti: S −→ X = {xi }M i=1 ` possibile trovare una sorgente binaria equivalente: e SBIN −→ Y = {y0 , y1 } in modo tale da rappresentare la stessa quantit` di informazione della sora gente S con stringhe binarie. Lunghezza media a Si definisce n, lunghezza media delle parole di codice, la quantit`:
M

n=
i=1

P(xi ) · ni

dove: . P(xi ) rappresenta la probabilit` di emissione del simbolo della sorgente a non binaria; . ni rappresenta la lughezza della singola parola in cifre binarie. Teorema di Shannon: H(x) ≤ n ≤ H(x) + 1 La condizione importante `: e n ≥ H(x)

3.2. Codifica di sorgente

23

Significa che nel caso migliore, simboli equiprobabili, servono tante cifre binarie quanto ` l’entropia della sorgente; in caso contrario ne servono di pi`, e u quindi ci sar` uno spreco di cifre che non sono informazione, ma ridondanza. a Con questi ragionamenti si pu` anche ridefinire il concetto di entropia come o il numero minimo di bit necessari per rappresentare in cifre binarie i simboli della sorgente. L’obbiettivo di buoni codificatori ` quello di cercare di portare il valore e di n vicino al valore dell’entropia della sorgente H(x). Una possibile classificazione dei codificatori prende in esame la caratteristica di mantenere o accettare perdite di informazione rispetto alla sorgente: . codificatori LOSSLESS, o senza perdite (es: compressione ZIP); . codificatori LOSSY, con perdite (es: formati JPEG, MP3, ...). Un algoritmo per la codifica di sorgente ` l’algoritmo di HUFFMAN; i e passi necessari per effettuare una codifica Huffman sono i seguenti: 1. ordinare i simboli xi secondo probabilit` non decrescenti di P(xi ); a 2. raggruppare i simboli xi e xj con probabilit` pi` bassa ed associare un a u nuovo simbolo xk che abbia una probabilit` P(xk ) = P(xi ) + P(xj ); a 3. ripetere il passo 2 fino ad ottenere un solo simbolo finale con probabilit` 1; a 4. associare le cifre binarie ′′ 0′′ e ′′ 1′′ alle transizioni dei rami dell’albero ottenuto; 5. leggere le stringhe dalla radice fino alle foglie dell’albero. Esempio Consideriamo una sorgente con un alfabeto: S −→ X = {xi }4 i=1 in cui le probabilit` di emissione per simbolo sono descritte in tabella: a Simbolo xi x0 x1 x2 x3 Probabilit` P(xi ) a P(x0 ) = 1/2 P(x1 ) = 1/4 P(x2 ) = 1/8 P(x3 ) = 1/8

Realizziamo per questa sorgente una codifica di Huffman:

24 P = 1/8

CAPITOLO 3. Teoria dell’informazione

x3

1 P = 1/4 0

1 P = 1/2

x2

P = 1/8

1

x1

P = 1/4

0

P=1

x0

P = 1/2

0

I simboli possono essere dunque cos` codificati: ı Simbolo x3 x2 x1 x0 Calcoliamo n: n= Codifica 111 110 10 1

1 1 7 1 · 1 + · 2 + 2 · · 3 = = 1.75 2 4 8 4 Il risultato ` uguale all’entropia di questa sorgente; infatti con la codifica e Huffman si ha n = H(x) nel caso in cui le probabilit` siano distribuite come: a P(x) = 1 αi

i=2,4,8,16,...

dove α ∈ N. In questi casi una cifra binaria corrisponde ad un bit di informazione; se per` o n = H(x) si introduce un parametro η che misura l’efficienza di codifica, definito come: H(x) η= n

3.3. Codifica di canale

25

3.3

Codifica di canale

Riassumendo i concetti visti finora, sappiamo che le parole composte da una sorgente con un alfabeto qualsiasi possono essere codificate in stringhe binarie con algoritmi particolari; l’obbiettivo di questi codificatori ` evitare e di creare codici con cifre binarie inutili che non trasportano informazione. In uno schema a blocchi: X = {xi }M i=1 Y = {y0 , y1 }

S Sorgente

C.S

Codificatore di sorgente

Il problema principale ` che dopo il codificatore di sorgente l’informazione e non ` robusta: se durante la trasmissione si perde anche un solo bit, quel e bit ` sicuramente di informazione quindi si ` persa parte del messaggio. e e Al fine di proteggere l’informazione si preferisce aggiungere bit di ridondanza prima di effettuare la trasmissione sul canale; ridondanza che per` ` controloe lata a differenza di quella introdotta dalla sorgente; questo processo avviene grazie ai codificatori di canale:

S Sorgente

C.S

C.C

Cod. Sorgente Cod. Canale Canale AWGN

Una codifica di canale riceve, dopo il codificatore di sorgente, una stringa di m cifre binarie e fornisce in uscita stringhe con n cifre, con: n>m Viene definito rate di codifica il rapporto: Rc = m n

un parametro che rappresenta l’efficienza dei codificatori. L’obbiettivo dei codificatori di canale ` duplice: riuscire a rilevare (fase e di detection) l’errore e, se possibile, correggerli. Un esempio di codificatore di canale ` il codice a ripetizione. e Un codice a ripetizione (n, m) riceve in ingresso m cifre binarie e le ripete n volte.

26 Esempio Codice a ripetizione (3,1): Input 0 1

CAPITOLO 3. Teoria dell’informazione

Output 000 111

In questo caso il rate di codifica risulta essere: Rc = 1 3

Si pu` notare che il codice permette di rilevare errori e, secondo oppurtuo ne scelte, la correzione, ma questo pregio viene pagato con un’occupazione maggiore del canale. La rilevazione avviene praticamente sempre perch`, ricevendo una sequenza e che non presenta n cifre uguali ci si accorge di un errore di trasmissione; la correzione pu` solo avvenire se vengono decisi a priori criteri particolari. o Nel nostro esempio del codice (3,1) si pu` decidere di correggere a maggioo ranza: . se la stringa ricevuta presenta due 0 ed un 1 si decodifica con 0; . se la stringa ricevuta presenta due 1 ed uno 0 si decodifica con 1. Ma tale criterio funziona solo per errori singoli: se infatti durante la trasmissione vengono fatti due errori, ci` che accade ` un errore di decodifica o e (0 anzich` 1 e viceversa). e Aumentando la complessit` del codice, ad esempio utilizzando un codice a (5,1), si riuscirebbero a rilevare due errori e a correggere quando le stringhe presentano meno di 3 errori di tramssione; ovviamente questo comporta una 1 diminuzione del rate di codifica che diventerebbe pari ad 5 .

3.4. Canale discreto

27

3.4

Canale discreto
S −→ X = {xi }M i=1

Data una sorgente S con un alfabeto di simboli:

se in ricezione si ha: R −→ Y = {yj }N j=1 un modello che descrive ci` che accade prende il nome di canale discreto. o In generale non ` detto che avendo M simboli alla sorgente si debbano avere e N = M simboli in ricezione. Ad esempio, la sorgente trasmette stato alto (1) e stato basso (0) in cui M = 2; sul canale ` presente sicuramente il rumore che potrebbe portare e ad avere, oltre ai corrispettivi stati alto e basso, anche un terzo stato di transizione: in questo caso N = 3. Per questo esempio costruiamo il modello del canale discreto: y0

x1 y1 x0

y2 Se ogni simbolo ha una certa probabilit` di essere emesso e ricevuto: a Simbolo x0 x1 y0 y1 y2 Probabilit` a P(x0 ) P(x1 ) P(y0 ) P(y1 ) P(y2 )

si pu` identificare su ogni ramo del canale una probabilit` di ricevere un o a simbolo yj dato un simbolo xi ; la notazione `: P(yj |xi ) . e La probabilit` a posteriori, invece, definita come P(xi |yj ) esprime la probaa bilit` che avendo ricevuto un simbolo yj sia stato trasmesso xi . a

28

CAPITOLO 3. Teoria dell’informazione

Un caso particolare di canale discreto ` il canale binario, in cui M = N = 2: e x1 y1

x0

y0

dove con i tratti rossi tratteggiati si sono rappresentate le transizioni dei canali, mentre con il tratto nero continuo i casi di corretta trasmissione. Nel caso in cui le probabilit` di errore siano uguali: a P(y1 |x0 ) = P(y0 |x1 ) = Pe si parla di canale binario simmetrico (BSC). Definiamo sul BSC la quantit` media di informazione trasmessa e ricevuta: a . H(x) = smissione; . H(y) = zione.
M i=1 P(xi ) 1 · log2 P(xi ) 1 log2 P(yj )

=⇒ =⇒

entropia della sorgente in traentropia della sorgente in rice-

N j=1 P(yj ) ·

Sempre per il BSC, con il teorema della probabilit` totale, calcoliamo: a . P(y0 ) = P(x0 ) · P(y0 |x0 ) + P(x1 ) · P(y0 |x1 ); . P(y1 ) = P(x0 ) · P(y1 |x0 ) + P(x1 ) · P(y1 |x1 ); Si introducono ora altre due quantit`: a 1. H(y|x) = 2. H(x|y) =
M i=1 M i=1 N j=1 P(xi N j=1 P(xi

, yj ) · log2 P(y1|xi ) ; j , yj ) · log2 P(x1|yj ) . i

La prima definizione misura la quantit` media di informazione associata alle a transizioni del canale, quindi la sua incertezza; a denominatore del logaritmo ` presente la probabilit` di errore dei rami: se questa quantit` ` alta sar` e a ae a grande anche l’incertezza del canale. La seconda definizione prende il nome di equivocazione del canale: essa rappresenta la quantit` di informazione che si perde nel canale; se si conoa scesse sarebbe possibile decodificare perfettamente ogni simbolo. Corollario 0 ≤ H(y|x) ≤ H(x)

3.4. Canale discreto

29

Vediamo il significato spezzando in due casi questa relazione ed analizzandone gli estremi: . H(y|x) = 0 siamo nel caso migliore, perch` se l’equivocazione ` nulla e e allora tutta l’informazione trasmessa viene ricevuta senza errori: il canale ` ideale; e . H(y|x) = H(x) siamo nel caso peggiore, dove l’incertezza ` massima e perch` l’equivocazione del canale ` pari all’informazione media emessa e e dalla sorgente: il canale diventa inutilizzabile. Dal Teorema di Shannon si evince che: I(x, y) = H(x) − H(x|y) [ bit/sym] I(x, y) rappresenta la quantit` di informazione scambiata; l’uguagliana za dice che essa ` pari all’entropia della sorgente meno l’equivocazione del e canale. Questa quantit` non ` l’informazione ricevuta, la quale dipende solo dalle a e probabilit` P(yi ). a Si pu` dimostrare che: o I(x, y) = H(x) − H(x|y) = H(y) − H(y|x) Questo passaggio ` pi` difficile da spiegare concettualmente, ma ` utile al e u e fine dei calcoli: infatti, a differenza dell’equivocazione del canale, che ` una e quantit` per definizione ignota, H(y|x) ` pi` facile da determinare. a e u Un buon progetto di sistema di trasmissione-ricezione prevede di massimizzare la quantit` di informazione scambiata; si definisce capacit` del a a canale: C = max {I(x, y)} [ bit/sym] La capacit` del canale ` un parametro che indica la massima quantit` di a e a informazione che il canale pu` trasportare; un’ulteriore bit aggiunto oltre la o capacit` C diventa informazione persa e non recuperabile in nessun modo. a Il parametro su cui si agisce per massimizzare la capacit` non `, come si a e potrebbe pensare, l’equivocazione del canale in quanto una volta definite le transizione non si pu` intervenire; in ogni caso, anche se si riuscissero ad o evitare transizioni, rimarrebbe comunque il rumore termico come fonte di errore. Si agisce dunque sulle probabilit` P(xi ) che possono essere scelte in modo a opportuno dal progettista.

30

CAPITOLO 3. Teoria dell’informazione

I simboli della sorgente vengono emessi con una frequenza regolare; si definisce: H(x) Rs = Ts dove: . Rs ` il rate di emissione della sorgente, misurato in bit/s; e . Ts ` il tempo di simbolo, ovvero ogni quanto tempo la sorgente emette e un nuovo simbolo. Rs viene anche chiamato Bit Rate, sottointendendo per bit rate il rate di emissione di una quantit` unitaria di informazione e non il rate di emissione a di cifre binarie. Quest’ultimo viene indicato con rb e si pu` facimente capire che: o rb ≥ Rs Ipotizziamo infatti che, dopo il codificatore di sorgente, sia presente un codificatore di canale con codice a ripetizione: sicuramente le cifre binarie emesse dal codificatore di sorgente verranno ripetute quindi rb sar` pi` grande di Rs . a u Si definisce: Cs = C Ts

come capacit` per tempo di simbolo, misurata anch’essa in bit/s. a Teorema della codifica di canale Se Rs ≤ Cs allora esiste un modo per trasmettere l’informazione sul canale senza errori. Questo teorema di esistenza viene di fatto realizzato attraverso codifiche di canale molto sofisticate, come i turbocodici. Questi codici introducono una complessit` notevole, quindi, per alcune applicazioni non sono sempre a utilizzabili.

Capitolo 4

Modulazioni
In questo capitolo verranno affrontate le modulazioni analogiche e numeriche dei segnali.

4.1

Modulazioni analogiche

La modulazione dei segnali significa spostare la frequenza a cui viene emesso il segnale dalla sorgente.

x(t) MOD Modulatore

y(t)

4.1.1

Modulazioni di ampiezza

La modulazione di ampiezza pi` semplice avviene moltiplicando il segnale u x(t) per un coseno: x(t) −→ ⊗ −→ y(t) ↑ cos(2πf0 t) Il risultato ` il seguente nel dominio delle frequenze: e

31

32 X(f ) 1

CAPITOLO 4. Modulazioni Y (f )
1 2

f

−f0

f0

f

Lo spettro Y (f ) viene spostato dalla banda base attorno alla frequenza della portante: si parla di segnali in banda traslata. Le frequenze sono le risorse pi` costose per le comunicazioni ; esse vengono u divise in bande, le pi` importanti sono: u . 3-30 kHz: very low frequency (es: trasmssioni marine); . 30-300 MHz: very high frequency (es: trasmissioni soccorso alpino); . 0.3-3 GHz: UHF (es: televisione, telefonia, telefonia cellurare, comunicazioni wireless); . 3-30 GHz: comunicazioni satellitari, ponti radio. Per trasmissioni via etere ` possibile utilizzare le frequenze a piacimento, ma e nello spazio libero occorrono precisa disposizioni per non creare confusione nelle comunicazioni. In fase di ricezione il segnale deve essere demodulato; questa fase pu` avveo nire in due modi: . demodulazione coerente; . demodulazione non coerente. La demodulazione coerente avviene, partendo dal segnale ricevuto r(t) che comprende il rumore, moltiplicando per un coseno:  cos(2πf t)
c

Nel caso di demodulazione coerente occorre conoscere le informazioni della portante: frequenza e fase. Anche la fase ` un parametro importante perch`, ad esempio, se si moltiplie e ◦ accadrebbe che il coseno diventerebbe casse per cos(2πfc t + ϕ), con ϕ = 90 un seno ed un’eventuale operazione di filtraggio successiva avrebbe risultato nullo perch` seno e coseno sono ortogonali fra loro. e Poich` la fase dipende dalla distanza a cui sono posti trasmettitore e ricevie tore ` possibile ricostruire la portante, in ricezione, solo con un sincronize zatore; il sincronizzatore opera con un filtro molto stretto sulla frequenza fc della portante.

r(t) −→ ⊗ −→ w(t)

4.1. Modulazioni analogiche Dato un segnale di banda base s(t): S(f ) 1

33

f Con la modulazione si ottiene un segnale sm (t): Sm (f )

1/2 −fc fc f

In fase di demodulazione, moltiplicando sm (t) per cos(2πfc t) si ha sd (t): Sd (f ) 1 −2fc 2fc f

Il segnale sd (t) = s(t) quando, con un opportuno filtraggio di tipo passabasso, vengono elimitate le frequenze immagine attorno a ±2fc . Per segnali che hanno componente continua, l’operazione di sincronizzazione avviene senza problemi; ma nel caso del segnale s(t), che ne ` privo, e osserviamo cosa capita filtrando Sm (f ) con una banda stretta attorno alla frequenza di carrier: Sm (f )

1/2 −fc fc f

Il risultato dell’operazione di filtro ` nullo quindi non si riuscirebbe a dee modulare; come vedremo pi` avanti, con opportuni segnali si risolve questo u problema.

34

CAPITOLO 4. Modulazioni

La demodulazione non coerente avviene grazie ai rilevatori di picco, che demodulano il segnale seguendone i picchi; questo tipo di demodulazione non ` ottima, ma ha il vantaggio di essere poco costosa. e Solo nel caso di un segnale veloce, scegliendo opportunamente la costante di tempo RC ` possibile demodulare abbastanza bene il segnale ricevuto; il e problema sorge quando il segnale compie un’inversione di fase: il rilevatore di picco, infatti, legge solo il modulo positivo quindi non fornirebbe un risultato corretto. Questo fenomeno prende il nome di sovramodulazione. L’amplitude modulation ` realizzata per poter essere demodulata in tutti e e due i modi, risolvendo i problemi di recupero della portante per segnali a componente continua nulla e di sovramodulazione. Modulazione AM

Sm (t) = Ac · [1 + Ka · m(t)] · cos(2πfc t) dove: . m(t) rappresenta il segnale modulato; . Ka ` l’indice di modulazione. e Si pu` notare che l’ampiezza di Sm (t) ` tutta l’espressione Ac ·[1+Ka ·m(t)]; o e questa quantit`, quotato Ac , ` un segnale che dipende dal segnale modulante a e m(t), ma si trova in un intorno di Ac a meno di un fattore Ka : Ka Ac −Ka

Notiamo, dunque, che il problema della sovramodulazione si risolve semplicemente scegliendo opportunamente il coefficiente Ka : ad esempio alzando il segnale affinch` non abbia inversione di fase. e Il comportamento in frequenza ` il seguente: e Sm (f ) = F {Sm (t)}


Sm (f ) = Ac Ac · Ka Ac · Ka Ac ·δ(f −fc )+ ·δ(f +fc )+ ·M (f −fc )+ ·M (f +fc ) 2 2 2 2

4.1. Modulazioni analogiche

35

Parte della potenza del segnale viene quindi usata per trasportare due portanti proprio sulla frequenza di carrier; il sincronizzatore dunque, nel caso di segnali a componente continua nulla, filtrando recupera le informazioni utili perch` il risultato dell’operazione non ` pi` nullo: e e u Sm (f )

1/2 −fc fc f

Questo tipo di modulazione prende il nome di modulazione a doppia banda laterale (DSB, double side band) a portante non soppressa (NSC, non suppress carrier). Questa modulazione ` addirittura eccessiva perch` utilizza il doppio della e e banda strettamente necessaria per ricostruire il segnale: se infatti la modulante ` reale, lo spettro ` pari ed ` sufficiente conoscerne la met` per e e e a demodulare senza errori. S(f ) 1

f


Sm (f ) 1/2 −fc 1/2 fc f

Immaginando di tagliare con un filtro passa alto la parte di spettro superiore a fc ed inferiore a −fc :

36 Rm (f ) 1/2 −fc

CAPITOLO 4. Modulazioni

1/2 fc f

Questo segnale permette ancora di ricostuire perfettamente il segnale di partenza; moltiplicando rm (t) per cos(2πfc t) si ottiene: Rd (f ) 1/4 −2fc 1/4 1/4 2fc f

Ovviamente non si tengono in considerazione le frequenze immagine a ±2fc perch`, per ricostruire il segnale di banda base si filtra con un passabase so; l’ampiezza durante il processo viene ridotta di un fattore 4, ma ci` ` o e ininfluente ai fini della demodulazione. Questa modulazione, che prevede l’utilizzo di una sola met` dello spettro di banda base, prende il nome di a modulazione single side band (SSB).

4.1.2

Segnale analitico e inviluppo complesso

In questa sezione vengono definiti il segnale analitico, la sua espressione come composizione di segnale in banda base e trasformata di Hilbert e il significato dell’inviluppo complesso. Segnale analitico Dato un segnale in ingresso si definisce segnale analitico: x(t) x(t) ˙

2u(f )

Il segnale analitico di x(t) si indica con x(t). Vediamo graficamente questa ˙ operazione evidenziando con tre grafici X(f ), |H(f )| e F {x(t)}: ˙

4.1. Modulazioni analogiche X(f ) 1 f X(f ) · H(f ) 2 |H(f )|

37

f

F {x(t)} ˙

2

f Lo spettro di H(f ) non ` pari, quindi la risposta all’impulso non ` reale: e e h(t) = F −1 {H(f )} = F −1 {2u(f )} = δ(f ) + j Se determiniamo analiticamente il segnale analitco: x = x(t) ∗ h(t) = x(t) ∗ δ(f ) + j ˙ = x(t) + L’espressione: x= ˆ 1 π 1 πt j π = x(t) +
∞ −∞ ∞ −∞

1 πt

j π

∞ −∞

x(τ )h(t − τ ) dτ =

x(τ ) dτ t−τ

prende il nome di trasformata di Hilbert per il segnale x(t). Dunque il segnale analitico x(t) pu` essere visto come composizione di: ˙ o x(t) = x(t) + j x(t) ˙ ˆ In via grafica possiamo dare un significato alla trasformata di Hilbert; sappiamo infatti come risulta essere la forma di x(t) e x(t): ˙ X(f ) 1 f 2 F {x(t)} ˙

x(τ ) dτ t−τ

f

38

CAPITOLO 4. Modulazioni

Per differenza dunque x(t), per poter tagliare la parte negativa, deve essere: ˆ F {ˆ(t)} x 2

f La traformata di Hilbert, quindi, realizza degli sfasamenti: . la parte positiva del segnale viene moltiplicata per −j in modo tale da passare inalterata; . la parte negativa viene moltiplicata per j cos` da essere cambiata di ı segno. Propriet` del segnale analitico a Presi due segnali: . s(t) segnale di banda base; . z(t) segnale di banda passante. Si dimostra che se: x(t) = s(t) · z(t) ⇓ x(t) = s(t) · z(t) ˙ ˙ Questa propriet` ` molto importante, perch` nell’ambito delle telecomuniae e cazioni capita molto spesso di trovarci di fronte a casi di questo tipo: un esempio ` la modulazione. e Infatti il segnale modulante ` per definizione di banda base, come s(t), mene tre la portante deve essere un segnale di banda passante; se consideriamo la modulazione di ampiezza studiata: x(t) = m(t) · cos(2πfc t) Possiamo definire il segnale analitico di x(t) una volta calcolato il segnale analitico di z(t) = cos(2πfc t): 1 1 Z(f ) = δ(f − fc ) + δ(f + fc ) 2 2 ⇓ F {z(t)} = Z(f ) · H(f ) = Z(f ) · [2u(f )] = δ(f − fc ) ˙

4.1. Modulazioni analogiche ⇓

39

z(t) = F −1 {δ(f − fc )} = ej2πfc t ˙ Quindi: x(t) = m(t) · ej2πfc t ˙ Inviluppo complesso Dato un segnale analitico x(t): ˙ F {x(t)} ˙

f0 Esso pu` essere espresso come: o x(t) = x · ej2πf0 t ˙ ˜

f

dove x rappresenta l’inviluppo complesso del segnale x(t). ˜ L’inviluppo complesso ` un segnale modulante di una portante ben definita, e con frequenza di carrier f0 , la quale deve essere all’interno dello spettro del segnale analitico; se non ` centrale a x(t) allora il segnale ` complesso perch` e ˙ e e la forma dello spettro non ` pari. e x(t) ` un inviluppo perch` se esprimiamo: ˜ e e m(t) · ej2πf0 t = m(t) · [cos(2πf0 t) + jsin(2πf0 t)] anche m(t)cos(2πf0 t) ` un inviluppo. e Decomponiamo x in parte reale ed immaginaria: ˜ x(t) = xc (t) + jxs (t) ˜ Il segnale x(t) pu` essere determinato come: o x(t) = Re {x(t)} = Re x · ej2πf0 t = ˙ ˜ = Re {[xc (t) + jxs (t)] · [cos(2πf0 t) + jsin(2πf0 t)]} = = xc (t)[cos(2πf0 t)] − xs (t)[sin(2πf0 t)] Dunque un inviluppo complesso di un segnale in banda passante vuol dire osservare il segnale spezzato nelle sue componenti in fase (coseno) e quadratura (seno); le componenti che trasportano l’informazione del segnale sono

40

CAPITOLO 4. Modulazioni

per` solo xc (t) ed xs (t). o In banda base la componente in quadratura non esiste perch` il seno si ane nulla, quindi se si lavora con una certa frequenza di carrier fc ` sottointeso e che il segnale pu` essere visto come somma di entrambe le componenti. o Visualizziamo in modo grafico: xc (t) ⊗

cos(2πf0 t) ⊕ x(t)

xs (t)

sin(2πf0 t)

4.2
4.2.1

Modulazioni numeriche
Introduzione generale

Nei sistemi numerici il segnale ` proporzionale all’informazione trasmessa. e Ricordando brevemente lo schema a blocchi:

S Sorgente

C.S

C.C

MOD Modulatore numerico

Cod. Sorgente Cod. Canale

Il modulatore numerico non riceve in ingresso un segnale da trasmettere come nel caso analogico, ma parole di codice, ovvero sequenze di stringhe binarie che sappiamo essere bit (come misura di informazione) se n = H(x). {xi }M i=1 {si }M i=1

MOD Modulatore numerico

Dove: . {xi }M sono bit in ingresso; i=1

4.2. Modulazioni numeriche . {si }M sono segnali in uscita. i=1

41

In uscita dal modulatore ci devono necessariamente essere segnali fisici per propagarsi nel vuoto o via cavo; essi dovranno poi essere demodulati in fase di ricezione dal demodulatore: {ri }M i=1 DEMOD {ˆi }M x i=1

Demodulatore numerico Dove: . {ri }M sono i segnali ricevuti in ingresso; i=1 . {ˆi }M sono i simboli stimati in uscita. x i=1 Sul canale sappiamo che ` presente il rumore termico quindi modellizziamo e i segnali ricevuti come: {si }M i=1 {ri }M i=1 n(t)

Il demodulatore deve dunque, in base ad alcuni parametri, stimare quale sia il simbolo che con pi` probabilit` era stato emesso dalla sorgente. u a Il parametro principale per valutare un sistema ` la probabilit` di errore e a P(e): questa grandezza rappresenta la probabilit` che emesso un simbolo xi a dalla sorgente si abbia in ricezione xj . Ipotizziamo di associare a due simboli due sequenze numeriche: Simbolo Codifica Trasmissione xi 000 Ricezione xj ˆ 001

In ricezione viene stimato il simbolo xj nonostante fosse stato trasmesso xi ; ˆ ` possibile definire dunque una probabilit` di errore sul simbolo: e a P(e) = P(ˆj |xi ) x Ma se osserviamo ogni cifra binaria singolarmente si nota che in realt` non a tutte sono errate ma solo una; si introduce quindi anche una probabilit` di a errore sul bit Pb (e).

42 Esempio Data una sorgente di simboli: X −→ {0, 1}

CAPITOLO 4. Modulazioni

associati dal modulatore numerico a due segnali: S −→ {s1 (t), s2 (t)} Determiniamo delle possibili scelte per i segnali: 1◦ tipologia s1 (t) A T T t -A 2◦ tipologia s1 (t) A T T t -A 3◦ tipologia s1 (t) A T1 t A T2 t s2 (t) t s2 (t) t s2 (t)

Il criterio di scelta ` la probabilit` di errore quindi bisogna chiedersi quale e a configurazione ` pi` robusta in presenza di rumore. e u

4.2. Modulazioni numeriche

43

Occorre capire come opera il demodulatore, ossia come stima i parametri necessari che passer` ad un blocco successivo chiamato decisore; ` quest’ula e timo componente che si occupa di decidere, appunto, quali sono i simboli che pi` probabilmente sono stati emessi. u Per le tre tipologie di segnali viste i parametri che il modulatore deve stimare sono: . 1◦ tipologia: ampiezza del segnale; . 2◦ tipologia: fase del segnale; . 3◦ tipologia: durata del segnale. Consideriamo solo segnali a durata finita, in cui i simboli vengono emessi ogni Ts , noto come tempo di simbolo; si definisce: Rs = 1 Ts

symbol rate. Questi segnali fisici, associati a simboli xi , trasportano una certa quantit` a di informazione; ` questo il parametro importante e non tanto la forma del e segnale di per s`, quindi si definiscono anche: e Tb = dove: . Tb ` il tempo di bit; e . n rappresenta il numero di bit associati al segnale. Anche in questo caso l’inverso del tempo di bit prende il nome di bit rate: Rb = 1 Tb Ts n

Si deve prestare attenzione perch` Ts e Rs sono parametri fisici, mentre Tb e ed Rb si introducono per comodit`. a

44

CAPITOLO 4. Modulazioni

Vediamo ora come decodificare un insieme di segnali {si (t)}M . i=1 In ricezione si ha r(t) = sk (t) + n(t): r(t) ⊗
Ts 0

s1 (t)

λ1
1 − 2 ε1

Ts 0

s2 (t)

λ2
1 − 2 ε2

Ts 0

sM (t)

λM
1 − 2 εM

I parametri misurati dal demodulatore che vengono passati al decisore sono dunque i vari {λi (t)}M ; il segnale che il decidore stima ` quello per cui il e i=1 valore di λi risulta maggiore. Esempio Dati quattro segnali: s1 (t) A Ts s3 (t) Ts t A 2A t 2A s2 (t)

Ts s4 (t) Ts

t

t

4.2. Modulazioni numeriche

45

Ipotizzando di avere trasmesso il segnale s1 (t) calcoliamo i parametri λi ; in tabella si riportano i passaggi da effettuare: TX s1 (t) s1 (t) s1 (t) s1 (t) Moltiplicazione s1 (t) · s1 (t) = A2 s1 (t) · s2 (t) = 2A2 s1 (t) · s3 (t) = −A2 s1 (t) · s4 (t) = −2A2 Integrazione A2 · Ts 2A2 · Ts −A2 · Ts −2A2 · Ts Sottr. energia 1 − 2 A2 · Ts 1 − 2 4A2 · Ts 1 − 2 A2 · Ts − 1 4A2 · Ts 2 λi · Ts 0 − 3 A2 · Ts 2 −4A2 · Ts
1 2 2A

In questo caso dunque il parametro scelto λi sarebbe il primo; la stima ` e quindi esatta perch` era stato trasmesso proprio s1 (t). e Si pu` osservare che, nel caso l’alfabeto sia molto grande il decisore dovrebbe o ogni tempo di simbolo effettuare un sacco di operazioni; esiste un metodo migliore per stimare i parametri poich`, nel nostro esempio di prima, si nota e che in realt` i quattro segnali sono formati a partire da un singolo segnale a di base a cui si cambia di volta in volta l’ampiezza. Esprimiamo dunque M segnali dell’alfabeto da trasmettere come:
M

sk (t) =
n=1

sk,n (t) · ψn (t)

(4.1)

Le funzioni ψn (t) sono le funzioni, o componenti base, con cui si costruiscono tutti i segnali; esse devono formare una base ortonormale e in particolare: . il prodotto scalare tra due componenti deve essere nullo, ovvero:
+∞ −∞

ψi (t) · ψj (t) dt = δij 1

. i coefficienti sk,n (t) possono essere individuati come:
+∞

sk,n =
−∞

s(t) · ψn (t) dt

Ipotizziamo: Come si ` visto: e sk (t) = α · ψ1 (t) + β · ψ2 (t)
+∞

α =
−∞ +∞

s(t) · ψ1 (t) dt = sk,1 s(t) · ψ2 (t) dt = sk,2

β =
−∞

Proviamo a visualizzare graficamente i concetti fin qui introdotti; le funzioni ψ sono gli assi del piano cartesiano mentre α e β le proiezioni del segnale s(t) sui due assi:
1

La δij vale 1 se i = j oppure 0 se i = j

46 ψ2 (t) β α sk (t)

CAPITOLO 4. Modulazioni

ψ1 (t)

Questo comportamento si verifica in assenza di rumore; se invece ` presente: e ψ2 (t) rk (t) β + n(t) β α ψ1 (t) [α + n(t)] Calcolando le proiezioni di rk (t) sulle componenti base si ottengono:
+∞

α + n(t) =
−∞ +∞

r(t) · ψ1 (t) dt = rk,1 r(t) · ψ2 (t) dt = rk,2

β + n(t) =
−∞

Gli rk,n sono i parametri calcolati dal demodulatore; grazie alla rappresentazione mediante segnali di base la demodulazione ` ideale. e Lo schema del demodulatore ideale quindi prevede: r(t) ⊗
Ts 0

r1

ψ1 (t)

Ts 0

r2

ψ2 (t)

Ts 0

rM

ψM (t)

Io ogni istante di tempo Ts il segnale viene scomposto dal demodulatore che ne calcola le proiezioni sugli assi ψi .

4.2. Modulazioni numeriche

47

Calcoliamo sul ramo l-esimo:
Ts

rl =
0

r(t) · ψl (t) dt

Scomponiamo il segnale r(t) come somma di segnale utile e rumore:
Ts

rl =
0

[sk (t) + n(t)] · ψl (t) dt

Trattiamoli ora separatemente:
Ts Ts

rl =
0

sk (t) · ψl (t) dt +

0

n(t) · ψl (t) dt

(4.2)

Per quanto riguarda la componente utile del segnale, sostituiamo a sk (t) la sua espressione equivalente (4.1):
Ts M 0 n=1

sk,n (t) · ψn (t) · ψl (t) dt

Scambiamo la sommatoria con l’integrale si ha:
M Ts

sk,n(t)
n=1 0

ψn (t) · ψl (t) dt

Il risultato dell’integrale ` δnl quindi solo quando il segnale trasmesso n ` nel e e ramo giusto l = n l’operazione non ` nulla; in tutti gli altri casi il risultato e ` zero per cui la demodulazione non ` affetta da errori di decodifica. e e Si noti che in assenza di rumore, su ogni ramo si trovano esattamente le componenti l-esime; osserviamo ora la seconda parte dell’espressione (4.2) contenente la sola componente di rumore:
Ts 0

n(t) · ψl (t) dt = nl

Con nl variabile casuale gaussiana; il processo ` il seguente in via grafica: e n(t) nl

Ts 0

ψl (t)

48

CAPITOLO 4. Modulazioni

Come n(t) in ingresso anche nl ha la medesima propriet` di media nulla in a quanto: E(nl ) = E
Ts Ts 0

n(t) · ψl (t) dt =

Ts 0

E[n(t)] · ψl (t) dt =

=
0

0 · ψl (t) dt = 0

Analizziamo ora:
Ts Ts

E(nl · nk ) = E
Ts

0 Ts 0

n(t1 ) · ψl (t1 ) dt1 ·

0

n(t2 ) · ψk (t2 ) dt2 = = (‡)

=

=E
0 Ts Ts 0

n(t1 ) · n(t2 ) · ψl (t1 ) · ψk (t2 ) dt1 dt2

=
0

E[n(t1 ) · n(t2 )] · ψl (t1 ) · ψk (t2 ) dt1 dt2 E[n(t1 ) · n(t2 )] =
Ts 0 0 Ts

N0 · δ(t1 − t2 ) 2 rappresenta l’autocorrelazione del rumore si ha: (‡) = N0 · 2 δ(t1 − t2 ) · ψl (t1 ) · ψk (t2 ) dt1 dt2

Poich`: e

Risolvendo rispetto a dt2 : N0 · 2
Ts 0

ψl (t1 ) · ψk (t1 ) dt1 =

N0 · 2

Ts 0

ψl (t) · ψk (t) dt

Il risultato dell’integrale vale nuovamente: . 1 se k = l; . 0 se k = l. Quindi il rumore generato in ingresso sul ramo l ` scorrelato con tutte le e dimensioni k = l: demodulando sul ramo l, si ha solo componente di rumore relativa e non il contributo di altre. In sostanza il rumore su assi ortogonali ` e indipendente e crea disturbo, quindi probabilit` di errore, in modo scorrelato a su dimensioni diverse.

4.2. Modulazioni numeriche

49

I segnali ricevuti, tenendo conto della componente di rumore, possono essere scritti come abbiamo visto: rn = sk,n + nn dove: . rn ` la variabile causale calcolata come parametro dal demodulatore; e . nn sono variabili casuali di rumore associate al ramo i-esimo. Con notazione vettoriale enunciamo la medesima quantit`: a − =− → → +− r s k,n →n n Esempio Si considerino i due segnali: s1 (t)
A √ Ts

s2 (t)

Ts Ts t
B √ Ts

t

Notiamo che possono essere espressi come combinazione lineare di un unico segnale di base: ψ(t)
√1 Ts

Ts

t

Il segnale ψ(t) deve soddisfare i soliti vincoli per poter essere un segnale di base, quindi deve possedere energia unitaria; per questo la sua ampiezza non ` causale. e A questo punto i due segnali s1 (t) ed s2 (t) si possono scrivere nella seguente forma: s1 (t) = A · ψ(t)

s2 (t) = B · ψ(t)

50

CAPITOLO 4. Modulazioni

Lo spazio dimensionale ` pari ad 1 perch` ` presente un solo segnale di base; e ee visualizzando graficamente: B A ψ(t)

A e B rappresentano le proiezioni dei due segnali sulla dimensione ψ. Immaginiamo di dovere trasmettere la sequenza s1 , s1 , s2 , s1 ; la forma del segnale s(t), nel dominio del tempo, sar`: a s(t)
A √ Ts

B √ Ts

Ts 2Ts 3Ts

4Ts

t

Per questo caso semplice, lo schema del demodulatore ha un solo ramo: r(t) r

Ts 0

ψ(t)

La variabile casuale calcolata r si pu` ricavare come: o
Ts

r=
0

r(t) · ψ(t) dt

Sapendo che: r(t) = s(t) + n(t)
Ts

⇓ [s(t) + n(t)] · ψ(t) dt

r=
0

Questa ` la formula generale; ipotizziamo sia stato trasmesso il segnale s1 (t) e e sviluppiamo i calcoli per questo caso:
Ts Ts Ts

r=
0

[s1 (t) + n(t)] · ψ(t) dt =

0

s1 (t) · ψ(t) dt +

0

n(t) · ψ(t) dt

4.2. Modulazioni numeriche ma: . . prio A;
Ts 0 Ts 0 s1 (t)

51

· ψ(t) dt rappresenta la proiezione di s1 (t) su ψ quindi ` proe

n(t) · ψ(t) dt ` la proiezione del rumore su ψ quindi ` la variabile e e casuale n.

In definitiva, trasmesso s1 (t) si esprime la variabile casuale r come: r =A+n Questa variabile ha come media A e, l’effetto del rumore su di essa, ` quello e di spostare sull’asse ψ il segnale ricevuto con densit` di probabilit` gaussiana a a (denominata come f(r|A) o anche f(r|s1 (t)):

f(r|A) A

ψ(t)

Se invece si trasmettesse sempre il segnale s2 (t) si avrebbe:

f(r|B) B Osservando insieme le due componenti:

ψ(t)

B Regole di decisione

A

ψ(t)

Dopo avere calcolato i parametri necessari il demodulatore invia al decisore → il vettore − composto da: r       r1 sk,1 n1  .   .   .   . = . + .  . . . rN sk,N nN

52

CAPITOLO 4. Modulazioni

→ Quanto vale la densit` di probabilit` che avendo trasmesso − si siano ricea a sk −? → vuti r Considerando il ramo l-esimo, la densit` di probabilit` `: a ae f (rl |sk,l ) = √ Invece in generale: →→ f (− |− k ) = r s ma la
P (r −s ) N − 1 · N (r −s 1 )2 − l N k,l 0 √ = (πN0 )− 2 e N0 l=1 l k,l ·e f (rl |sk,l ) = πN0 l=1 l=1 N N
2 (r −s ) 1 − l Nk,l 0 ·e πN0 2

N l=1 (rl

− sk,l )2 ` come fare la norma su ogni ramo l, per cui: e
N − 1 ·|r −s |2 →→ f (− |− k ) = (πN0 )− 2 e N0 l k,l r s

→→ La funzione f (− |− k ) prende il nome di funzione di verosimiglianza, likelyr s hood function. La regola di decisione ottima ` quella per cui si massimizza la densit` di e a → → probabilit` a posteriori, ossia f (− k |− ); questa regola prende il nome di a s r Maximum a posteriori. Essa viene definita, con il teorema di Bayes, come: →→ → f (− |− k ) · P(− k ) r s s → → P(− k |− ) = s r −) → f( r → → Massimizzare f (− k |− ) vuol dire trovare il massimo rispetto ai segnali tras r − della probabilit` di ricevere il segnale giusto, quindi si cerca solo → messi s k a rispetto al numeratore perch` solo quella parte dell’espressione dipende dai e − . → sk →→ e → → Dato che f (− |− k ) ` esponenziale anche f (− k |− ) lo ` quindi cercare: r s s r e →→ → maxsk {f (− |− k ) · P(− k )} r s s ` come cercare: e

perch` il logaritmo ` una funzione monotona crescente. e e →→ In questo caso la funzione lnf (− |− k ) prende il nome di ln-likelyhood funcr s tion. →→ → Indicando con λk l’espressione {ln[f (− |− k ) · P(− k )]} procediamo con il r s s calcolo al fine di determinare la regola di decisione: λk = ln (πN0 )− 2 e = ln(πN0 )− 2 −
N N 1 − N ·|rl −sk,l |2 0

→→ → maxsk {ln[f (− |− k ) · P(− k )]} r s s

→ · P(− k ) = s

1 → · |rl − sk,l |2 + lnP(− k ) s N0

4.2. Modulazioni numeriche Analizziamo separatamente i tre contributi:

53

e . ln(πN0 )− 2 ` un termine che tiene in considerazione la componente di rumore, ma non dipende dai segnali considerati quindi ` trascurabile; e
1 . − N0 · |rl − sk,l |2 rappresenta la distanza tra il segnale ricevuto ed il segnale trasmesso al quadrato;

N

→ e . lnP(− k ) ` legato alla probabilit` di emissione di un segnale. s a Tenendo in considerazione solo gli ultimi due contributi possiamo definire con Λk i parametri stimati dalla regola MAP: Λk = − 1 → · |rl − sk,l |2 + lnP(− k ) s N0

La regola MAP ` ottima per trasmissioni su canali AWGN; nel caso in cui e i simboli emessi siano equiprobabili allora sparisce il termine legato alla probabilit` di emissione ed i parametri su cui il decisore effettua la stima a sono semplicemente le distanze tra segnali emessi e ricevuti. Si parla, in questa ipotesi, di regola ML (Maximum Likelyhood) perch` viene e presa in esame, per il calcolo dei Λk , solo la funzione di verosimiglianza: Λk = |rl − sk,l |2 Questa regola viene anche detta regola a distanza minima, perch` stimare il e segnale che pi` probabilmente ` stato emesso vuol dire cercare, tra l’alfabeto u e a disposizione, quello pi` vicino al segnale ricevuto. u Nell’esempio precedente: Regola MAP → → 1 1 s s Λ1 = − N0 · |r1 − sk,1 |2 + lnP(− 1 ) = − N0 · |r − A|2 + lnP(− 1 ) (4.3) − ) = − 1 · |r − B|2 + lnP(− ) (4.4) → → 1 s2 Λ2 = − N0 · |r2 − sk,2 |2 + lnP( s 2 N0 Regola ML Λ1 = |r1 − sk,1 |2 = |r − A|2

Λ2 = |r2 − sk,2 |2 = |r − B|2

1 Per la regola ML ` possibile non tenere in considerazione − N0 il che rende e molto pi` semplice l’implementazione di questa regola rispetto alla MAP in u cui ` necessario conoscere la densit` di rumore e le probabilit` di emissione e a a dei segnali trasmessi.

54

CAPITOLO 4. Modulazioni

Si noti che se i segnali di base sono equiprobabili la regola ML e la regola MAP sono identiche e dunque la regola ML ` anch’essa ottima per canali e AWGN. Operativamente utilizzare la regola ML significa posizionare una soglia e confrontare il segnale ricevuto con essa; nell’esempio fin qui considerato: . se i simboli sono equiprobabili la soglia sar` posizionata in a
A+B 2 ;

. in caso contrario la soglia verr` posta vicino al segnale meno proa babilmente tramsesso perch` si devono privilegiare i casi possibili di e emissione del simbolo pi` probabile. u Visualizziamo graficamente:

B

A

ψ(t)

Soglia simboli equiprobabili

B

A

ψ(t)

Soglia simbolo B pi` probabile u

B

A

ψ(t)

Soglia simbolo A pi` probabile u Si noti che le regole di decisione fin qui viste non dipendono dalla forma del segnale: questo implica che ` possibile sceglierle a piacimento rispettando e solo i vincoli di ortogonalit` ed energia unitaria e la demodulazione sar` a a sempre ottima.

4.2. Modulazioni numeriche

55

Come si fa a posizionare la soglia? La soglia ` quel valore del segnale ricevuto e r per cui Λ1 = Λ2 ; quindi eguagliando le (4.3) e (4.4) si ha: − 1 1 · |r − A|2 + lnP(s1 ) = − · |r − B|2 + lnP(s2 ) N0 N0


|r − B|2 − |r − A|2 = lnP(s2 ) − lnP(s1 ) N0


r 2 − 2rB + B 2 − r 2 + 2rA − A2 = ln N0 P(s2 ) P(s1 )


2r(A − B) A2 − B 2 = · ln N0 N0 Per cui si ricava: r= N0 (A2 − B 2 ) · N0 + · ln 2 · N0 2 · (A − B) P(s2 ) P(s1 ) P(s2 ) P(s1 )


r= (A2 − B 2 ) N0 + · ln 2 2 · (A − B) P(s2 ) P(s1 )

Si noti che se i segnali sono equiprobabili: P(s2 ) = P(s1 ) =⇒ quindi rimane solo: r= (A2 − B 2 ) 2 N0 · ln (1) = 0 2 · (A − B)

Se invece il simbolo s2 (t) ha probabilit` minore di essere emesso rispetto a a s1 (t) allora il logaritmo di un numero minore di 1 ` negativo quindi la soglia e (A2 −B 2 ) verso il simbolo s2 (t), cio` quello meno probabile; stesso e si sposta da 2 discorso se P(s2 ) > P(s1 ). La probabilit` di errore si pu` visualizzare graficamente come la coda della a o gaussiana:

56

CAPITOLO 4. Modulazioni

A

ψ(t)

La soglia diventa il limite oltre il quale si commette un errore; definendo con T h la soglia, si calcola la probabilit` di errore P(e) come: a
Th

P(e) =

f (r|A) dr
−∞

dove viene integrata la parte in grigio. La probabilit` di corretta ricezione invece: a P(c) = 1 − P(e) =
∞ Th

f (r|A) dr =

∞ Th

2 1 − (r−A) · e N0 dr π · N0

L’integrale non ` risolvibile in forma chiusa, ma con la funzione degli errori e complementare si ha: P(c) = 1 − 1 · erfc 2 A−B √ 2 · N0 A−B √ 2 · N0

Quindi la probabilit` di errore risulta essere: a P(e) = 1 · erfc 2

Per avere una probabilit` di errore bassa si pu` agire su due fattori: a o . far diminuire il fattore N0 ; . far aumentare il fattore A − B. Nel primo caso si tratta essenzialmente di ridurre il rumore, ma ` un paramee tro su cui si pu` agire poco; nel secondo caso invece ` sufficiente distanziare o e A e B in maniera simmetrica, da non spostare la soglia. Purtroppo non ` possibile spostare a piacimento A e B perch` questi valori e e influenzano l’energia dei segnali s1 (t) ed s2 (t): s1 (t)
A √ Ts

s2 (t)

Ts Ts t
B √ Ts

t

4.2. Modulazioni numeriche Calcoliamo l’energia dei due segnali: E1 = E2 = L’energia media `: e Em =
A2 ·Ts Ts B 2 ·Ts Ts

57

= A2 = B2

E1 + E2 A2 + B 2 = 2 2 L’effetto che si ha distanziando molto A e B ` quello di spendere molta e energia e questo magari non ` possibile per i requisiti di progetto. e Fissata dunque un’energia media la scelta migliore, che massimizza la distanza fra A e B ` quella in cui B = −A: e

−A

A

ψ(t)

In questo caso l’energia media e la probabilit` di errore sono: a Em = P(e) = A2 + A2 = A2 2 A − (−A) 1 √ · erfc 2 2 · N0 (4.5) = 1 · erfc 2 A √ N0 (4.6)

Nel caso di due segnali l’informazione associata ` un bit solo quindi A2 ` e e l’energia necessaria per trasmettere un bit di informazione: Em = Eb = A2 Ricaviamo: A= Sostituendo in (4.6) si ottiene: P(e) = Si definisce
Eb N0

Eb Eb N0

1 · erfc 2

rapporto segnale rumore per le modulazioni numeriche.

Operativamente realizzare il modello: r(t)
Ts 0

r

ψ(t)

58

CAPITOLO 4. Modulazioni

` piuttosto complicato in quanto il prodotto di due segnali analogici ` di e e difficile implementazione hardware ed inoltre senza sincronizzazione non si pu` sapere quando effettuare l’integrazione ogni Ts . o Esiste un modo del tutto equivalente per effettuare la demodulazione; pensiamo a:
Ts

r=
0

r(t) · ψ(t) dt

come a: r=
0

Ts

r(t) · ψ(t − τ ) dt

τ =0

Siccome ψ(t) ha supporto fra (0 − Ts ) ` equivalente scrivere: e
+∞

r=
−∞

r(t) · ψ(t − τ ) dt

τ =0

Scritto in questo modo `: e r = r(t) ∗ ψ(−t)|τ =0 Utilizzando un modello di questo tipo: r(t) Filtro h(t) = ψ(Ts − t) In questo caso il modello ` facilmente implementabile in hardware; si prefee risce inserire un ritardo della durata di Ts cos` la risposta all’impulso diventa ı casuale e il filtro fisicamente realizzabile. Si determinano i parametri da passare la decisore in questo modo: r = r(t) ∗ ψ(Ts − t)|t=Ts Il filtro con risposta all’impulso h(t) prende il nome di filtro adattato; il sistema con il filtro adattato ` equivalente al modello di demodulazione visto e in precedenza quindi ` ottimo. e Nel solito esempio con due segnali trasmessi: s1 (t)
A √ Ts

y(t)

Ts

r

s2 (t)

Ts Ts t
−A √ Ts

t

4.2. Modulazioni numeriche con proiezioni sull’asse ψ:

59

−A

A

ψ(t)

Analizziamo cosa succede in caso di demodulazione con filtro adattato. r(t) Filtro h(t) = ψ(Ts − t) Trasmettendo il segnale s1 (t) sappiamo che: r1 (t) = s1 (t) + n(t) = A · ψ(t) + n(t) Il segnale y(t) filtrato sar`: a y(t) = z(t) + nf (t) dove: . z(t) ` la componente di segnale utile; e . nf (t) ` la componente di rumore filtrata. e Scriviamo: Quindi il segnale z nel tempo ha la forma dell’autocorrelazione di ψ. La funzione di autocorrelazione ha il massimo nell’origine, in Ts perch` ` staee ta ritardata, dove viene campionata; per questo motivo il filtro adattato ` e ottimo: campionare nel massimo vuol dire massimizzare il rapporto segnale rumore al campionatore. Il rumore, la cui varianza `: e N0 · 2 · Beq 2 dove si ricorda che la banda equivalente di rumore ` definita come: e
2 σnf =

y(t)

Ts

r

z(t) = A · ψ(t) ∗ ψ(Ts − t)

(4.7)

Beq = = perch`: e

1 · 2 · max {|H(f )|2 }
+∞ −∞

+∞ −∞

|H(f )|2 df = 1 2

1 · 2 · max {|H(f )|2 }

Ψ(f ) e−j2πf Ts df =

60 . .
+∞ −j2πf Ts −∞ Ψ(f ) e

CAPITOLO 4. Modulazioni df risulta essere uguale ad 1 in quanto Ψ(f ) ` un e

segnale di base;
1 max{|H(f )|2 }

normalmente ` uguale ad 1 perch` il filtro non deve n` e e e attenuare n` dissipare (funzione di trasferimento con modulo pari ad e 1).

Con questo risultato sostituiamo in (4.7) ottenendo: N0 1 N0 ·2· = [ W] 2 2 2 In questo caso l’unit` di misura ` una potenza perch` il rumore ` stato fila e e e trato, quindi dimensionalmente moltiplicato per una banda [Hz].
2 σnf =

4.2.2

Costellazioni e regioni di decisione

La costellazione ` l’insieme dei segnali rappresentati in una certa base ψ. e Come fare a stimare se un segnale ricevuto r ` s1 (t) piuttosto che s2 (t)? e Graficamente ` possibile suddividere in regioni diverse lo spazio generato e dai segnali; r dunque viene decodificato con s1 (t), ad esempio, se appartiene alla regione di s1 (t) oppure con s2 (t) se appartiene a quella regione. Nel caso con una sola dimensione e due segnali sappiamo come esprimere la probabilit` di corretta ricezione e di errore; inoltre, implicitamente, ` gi` a e a stato formalizzato il concetto delle regioni di decisione perch`, definita la e soglia, si ` diviso il piano in due zone, che sono proprio le due regioni di e decisione. Osserviamo graficamente:

s1 Regione 1

s2 Regione 2

ψ(t)

Questo ` il caso pi` semplice, ma in generale la costellazione comprende e u sempre pi` di due punti perch` a due segnali ` associato un solo bit di inu e e formazione, quantit` irrisoria per comunicazioni normali. a Osserviamo cosa succede per una costellazione a 4 punti, quindi a 4 segnali in uno spazio a due dimensioni: ψ2 (t) s2 s1 ψ1 (t) s3 s4 s2 s3 2◦ Tipologia ψ2 (t) s1 s4 ψ1 (t)

1◦ Tipologia

4.2. Modulazioni numeriche

61

Si noti che la probabilit` di ricevere r dipende solo dalla geometria della a costellazione e non da rotazioni o traslazioni perch`, nel grafico di cui soe pra, osserviamo che le aree di ciascuna regione sono uguali (la 2◦ tipologia ` ruotata di 45◦ gradi rispetto alla prima). e Inoltre per segnali equiprobabili le regioni di decisione hanno la stessa forma geometrica perch` la costellazione ` simmetrica (come si evince dai due e e grafici precedenti). Considerando un punto preso come riferimento (origine) ed un generico punto si si definisce, in via geometrica, l’energia del segnale come la distanza euclidea tra i due. L’energia media della costellazione ` e
M

Em =

i=1

P(si ) · |si |2

ossia una media pesata per la probabilit` di emissione della distanza dall’oa rigine di tutti i punti della costellazione. Ci` che differenzia una costellazione da un’altra ` proprio la sua energia o e media; osserviamo nel disegno seguente le due costellazioni semplici: ψ2 (t) s2 d s1 s2 0 ψ1 (t) 0 d s1 ψ1 (t) ψ2 (t)

La costellazione a sinistra avr` un’energia media pi` alta rispetto quella a a u destra perch` ` pi` distante dall’origine. ee u Dati M numero dei punti della costellazione e N numero delle dimensioni si definisce costellazione simplex la costellazione ad energia minima. Il baricentro della costellazione ` la quantit`: e a
M

b=
i=1

P(si ) · si

Si pu` pensare quindi alla costellazione simplex come alla costellazione che o ha il suo baricentro nell’origine; di conseguenza una costellazione non simplex qualsiasi si pu` vedere come una costellazione il cui baricentro ` stato o e traslato rispetto all’origine.

62

CAPITOLO 4. Modulazioni

4.2.3

Modulazioni in banda base

Modulazione M-PAM La modulazione M-PAM ` una modulazione di banda base (pulse amplitude e modulation) in cui ` presente una sola dimensione; la proiezione dei vari e segnali sulla dimensione ψ ` simmetrica rispetto all’origine e tutti i punti e sono equispaziati fra loro: d − 3d 2 −d 2 0
d 2 3d 2

ψ(t)

Il numero di segnali trasmessi M ` generalmente un numero in potenza di 2 e in quanto i bit di informazione, determinabili come log2 M , non possono essere numeri qualisiasi ma devono appartenere all’insieme dei numeri naturali. Questo principio punta a massimizzare l’efficienza del sistema: ipotizzando di avere 6 segnali si potrebbero tramettere log2 6 = 2, 585 bit di informazione che verrebbero ridotto a 2 con uno spreco di 0.585. Se i segnali sono equiprobabili: P(si ) = 1 M

La probabilit` di corretta ricezione sarebbe espressa: a P(c) = dove: P(c|si ) = f (r|si )
Reg

1 · M

M i=1

P(c|si )

(4.8)

Sostanzialmente la probabilit` di corretta ricezione di un segnale ` l’integraa e le della densit` di probabilit` [f (r|si )] sulla regione di decisione pesata per a a la sua probabilit` di emessione. a Osserviamo che per un segnale che non sta ai bordi la probabilit` di corretta a ricezione ` l’area colorata in grigio: e

−d 2

d 2

3d 2

5d 2

ψ(t)

0

d

4.2. Modulazioni numeriche Definita la probabilit` di corretta ricezione come: a P(c) = 1 − P(e) la probabilit` di errore `: a e 1 − P(c) = P(e)

63

nel grafico sarebbe la probabilit` che il segnale ricevuto sia interno alle regioa ni delle due code della gaussiana, le quali, siccome i punti sono equidistanti, hanno area uguale. Analiticamente la densit` di probabilit` di errore si definisce per questo caso: a a
0 +∞

f (r|si )
−∞ d

f (r|si )

Se invece il segnale ` ai bordi la probabilit` di errore si ha quando il segnale e a ricevuto ` all’interno dell’area di una sola coda della gaussiana; tenendo e conto di questi ragionamenti usando la (4.8) : P(c) = = = 1 1 · (M − 2) · 1 − (2) · erfc M 2 1 · M − 2 − (M − 2) · erfc M d √ 2 N0 d √ 2 N0 1 + (2) · 1 − erfc 2 + 2 − erfc d √ 2 N0 d √ 2 N0 = =2

1 · M − (M − 1) · erfc M

d √ 2 N0

=1−

M −1 · erfc M d √ 2 N0

d √ 2 N0

La probabilit` di errore quindi sar`: a a P(e) = 1 − P(c) = M −1 · erfc M

I segnali, per la modulazione M-PAM, sono descritti come: Si = ai · ψ(t) d 2 Se si considere l’energia media, essa pu` venire descritta come: o ai = (2i − 1 − M ) ·
M i=1

dove:

Em

1 = · M

|ai |2

2 Nell’ordine: e (M-2) ` l’insieme dei segnali esclusi i due ai bordi (2) ` il numero delle code della gaussiana e (2) ` il numero di segnali ai bordi e

64 Sostituendo l’espressione equivalente per gli ai : Em 1 · = M
M i=1

CAPITOLO 4. Modulazioni

d (2i − 1 − M ) · 2

2

=

M 2 − 1 d2 · 3 4

Si ricava il parametro d : 2 d = 2 M2 3 · Em −1

Determiniamo la probabilit` di errore in funzione dell’energia media: a P(e) = Si noti che
3 M 2 −1

M −1 · erfc M

M2

3 Em · − 1 N0

(4.9)

` il parametro di perdita γ mostrato nel grafico sotto. e

Osservazione Per M = 2 si ritorna all’espressione gi` vista: a P(e) = Per M = 4 si ha: P(e) = 4−1 · erfc 4 42 Em 3 · − 1 N0 = 3 · erfc 4 3 Em 15 N0 2−1 · erfc 2 Em 3 · − 1 N0 = 1 · erfc 2 Em N0

22

Osserviamo graficamente sulla curva rossa la probabilit` di errore nel caso a M = 2, mentre con la curva blu si prende in considerazione il caso con M =4: P(e)

γ

Em N0

Come si pu` notare, per mantenere la stessa probabilit` di errore (si segua o a sul grafico la linea tratteggiata), che vuol dire mantenere la stessa distanza d tra i punti passando da una costellazione con M = 2 ad una con M = 4, ` necessario trasmettere con pi` energia i segnali perch` ` maggiore il rape u ee Em porto N0 .

4.2. Modulazioni numeriche

65

Se al contrario si vuole mantenere la stessa energia di trasmissione accade che i punti saranno pi` vicini tra loro (si riduce la distanza d) e quindi auu menter` la probabilit` di commettere un errore. a a e a a L’espressione (4.9) ` una probabilit` di errore sul simbolo; gi` altre volte abbiamo descritto come la probabilit` di sbagliare un simbolo non comporti a necessariamente errori su tutti i bit di informazione. Indicando con n il numero di bit associati ad una costellazione (n = log2 M )si definisce l’energia per bit: Em Eb = n Osserviamo le differenza tra la modulazione 2-PAM e 4-PAM: M =2 M =4 n=1 n=2 Eb = Em m Eb = E2

Nel primo caso tutta l’energia serve per trasportare un bit di informazione mentre nel secondo ogni bit costa met` di Em . a Ricavando l’espressione dell’energia media in funzione dell’energia per bit si pu` determinare probabilit` di errore sul bit: o a Pb (e) = M −1 · erfc M log2 M · Eb 3 · −1 N0

M2

I confronti tra modulazioni dello stesso tipo vengono fatte analizzando questa probabilit` di errore e non quella sul simbolo, dove si ha un’aumento a delle prestazioni soltanto aumentando M .

Codifica di Gray Prendiamo ora in esame la modulazione 4-PAM ed ipotiziamo di associare ad ogni segnale una stringa di bit come in tabella: Segnale s1 s2 s3 s4 Codifica 00 01 10 11

66 Graficamente: s1 00 s2 01 s3 10

CAPITOLO 4. Modulazioni

s4 11 ψ(t)

Si osservi che in base a come viene effettuato il labelling (la codifica tra simboli e bit) si avranno Pb (e) diverse; per questo esempio trasmettendo s1 si ha probabilit` di sbagliare un bit se si finisce nelle regioni di decisione di a s2 ed s3 e probabilit` di sbagliare due bit se la regione ` s4 . a e Sembra una scelta ragionevole perch` nella regione di s4 la coda della gause siana sar` piccola, e dunque anche la probabilit` che tramettendo s1 si riceva a a r in tale regione ` bassa. e Se invece si prende in considerazione l’ipotesi di trasmettere s3 notiamo immediatamente che la regione di decisione di s2 presenta entrambi i due bit diversi; la probabilit` di errore su due bit sar` grande in una regione dove a a la coda della gaussiana non ` poi cos` bassa. e ı La codifica di gray ` il labelling per cui segnali adiacenti vengono coe dificati con stringhe che si differenziano per un bit. In questo modo si risolve il problema dell’esempio precedente: s1 00 s2 01 s3 11 s4 10 ψ(t)

Segnale s1 s2 s3 s4

Codifica 00 01 11 10

Analiticamente non ` facile calcolare la probabilit` di errore sul bit, ma ` e a e possibile trovarne un limite inferiore e superiore: P(e) < Pb (e) < P(e) log2 M dove: .
P(e) log2 M

` la probabilit` di sbagliare un solo bit; e a

. P(e) ` la probabilit` di sbagliare completamente il simbolo, ossia e a sbagliare tutti i bit.

4.2. Modulazioni numeriche

67

Se si utilizza una codifica di Gray si pu` approssimare la probabilit` di errore o a sul bit con il limite inferiore: Pb (e) ∼ = P(e) log2 M

in pratica vengono trascurate le code delle gaussiane che cadono oltre le regioni adiacenti. Nello schema a blocchi:

S Sorgente

C.S

C.C

MAP Mapper

MOD Modulatore numerico

Cod. Sorgente Cod. Canale

il compito del mapper ` quello di decidere quale segnale associare alla strine ga binaria in uscita dal codificatore di canale. Questa decisione viene presa ogni tempo di simbolo Ts .

Union Bound Nelle modulazioni M-PAM il tempo di trasmissione totale ` proporzionale e alla dimensione del file da trasmettere; un modo per aumentare la velocit` a ` aumentare il numero di bit, ma il costo ` l’energia necessaria per inviare e e i segnali; se invece si riduce il parametro Ts aumenta la frequenza e questa velocit` necessaria si traduce con un’aumento di banda. a Un metodo alternativo ` aumentare il numero delle dimensioni della coe stellazione; la modulazione M-PAM ha una sola dimensione, ma osserviamo cosa succede a combinare due costellazioni 2-PAM: ψ1 (t) ψ2 (t)

Ts Ts t t

68 Dando vita alla costellazione: ψ2 (t) s1 s2 s3 s4

CAPITOLO 4. Modulazioni

ψ1 (t)

La forma del segnale nel dominio del tempo, trasmettendo la sequenza s1 s2 s4 s3 `: e

2Ts Ts 3Ts

4Ts t

Per una costellazione del genere ` facile determinare le regioni di decisione, e ma in casi pi` complicati diventerebbe difficile ripetere i ragionamenti fatti u in precedenza per la modulazione M-PAM. Come sappiamo il caso in cui la probabilit` di errore ` pi` alta ` quello a e u e per cui i segnali sono molto vicini sulla costellazione; l’union bound ` e un’approssimazione in cui si ipotizza di essere proprio in questo caso, il peggiore in assoluto, stimando la probabilit` di errore come: a P(e) ≤ M −1 · erfc 2 dmin √ 2 · N0

dove dmin rappresenta il minimo tra tutte le distanze dei segnali presenti sulla costellazione. L’approssimazione di questa formula consiste nell’ipotizzare di avere M − 1 segnali a distanza minima, ma ` una stima quasi sicuramente peggiorativa e nella maggioranza dei casi; considerando invece di avere Ndmin segnali a distanza minima si pu` concludere che: o P(e) ∼ Ndmin · = 1 · erfc 2 dmin √ 2 · N0

4.2. Modulazioni numeriche Modulazione ON-OFF Keying

69

La modulazione ON-OFF Keying ` una modulazione di banda base in cui i e segnali utilizzati sono solo due: . s1 (t) = 0; . s2 (t) =
2·Em Ts

· cos(2π f0 t) · pTs (t − Ts )

2·Em La parte Ts serve per garantire ad s2 (t) di avere energia unitaria, di conseguenza s2 (t) ` un versore. e Questa modulazione ha una sola dimensione ψ; le proiezioni dei segnali su ψ sono:

s1 0

s2 1 ψ

In sostanza ` una modulazione 2-PAM ma non simplex perch` non ha il e e baricentro nell’origine; quindi l’espressione della probabilit` di errore non ` a e altro che: d 1 √ P(e) = · erfc 2 2 · N0 quando il ricevitore ha il filtro adattato. Se la frequenza f0 ` molto alta il segnale ` luminoso; questa modulazione e e viene infatti usata nelle fibre ottiche.

4.2.4

Modulazioni in banda traslata

Il segnale analitico ` stato definito come: e z(t) = v (t) · e j 2π f0 t ˙ ˜ dove v (t) ` l’inviluppo complesso del segnale modulato [˜(t) = vc (t)+jvs (t)]. ˜ e v In banda traslata non si opera con il segnale, ma con il suo inviluppo complesso che ` appunto la rappresentazione di v(t) centrato ad una frequenza e f0 . Per determinare il segnale analitico: . vc ` moltiplicato per il coseno (asse reale); e . vs ` moltiplicato per il seno (asse immaginario). e

70

CAPITOLO 4. Modulazioni

Quindi il seno ed il coseno sono ortogonali tra loro; dato
M

v (t) = ˜
n=1

an · g(t − nTs )

e presi due segnali vc e vs come componenti da v (t) essi viaggiano nella ˜ stessa banda nello stesso momento. Osserviamo in via grafica il modello di modulazione e demodulazione per questo caso: vc (t) g(Ts − t) ⊗ cos(2πf0 t) vs (t) ⊗ sin(2πf0 t) ⊕ Canale ⊕ ⊗ ⊗ cos(2πf0 t) g(Ts − t) sin(2πf0 t)

Il ramo superiore prende il nome di ramo in fase mentre quello inferiore ramo in quadratura. Il filtro ` un filtro passabasso con risposta all’impulso g(Ts − t): ` il filtro e e adattato alla sagoma del segnale in trasmissione quindi, su entrambi i rami, oltre ad elminare le frequenze immagine inutili permette di campionare il segnale ogni Ts . Concettualmente il modello visto in precedenza non ` altro che lo schee ma: vc ⊕ vs ⊗ j Canale Im{ · } rs

Re{ · }

rc

4.2. Modulazioni numeriche dove: . rc ` la componente in fase demodulata; e . rs ` la componente in quadratura demodulata. e Questo modello prende il nome di schema equivalente in banda base. Analizziamo come esempio una modulazione per cui: vc (t) =
n

71

αn · ψ1 (t − nTs ) + βn · ψ2 (t − nTs ) γn · ψ1 (t − nTs ) + ςn · ψ2 (t − nTs )

vs (t) =
n

Il ramo in fase ha due dimensione come quello in quadratura: il risultato ` e una costellazione con quattro dimensioni e 16 punti. Una sua possibile realizzazione `: e s = [αn + βn ] + j[γn + ςn ] Modulazione PSK La modulazione PSK ` una modulazione di banda traslata (phaze shift e keying) dove si definiscono:
+∞

v (t) = ˜
n=−∞

an · g(t − nTs )

in cui: . an sono segnali complessi di tipo e jφn . φi ∈ . φ1 : . φ2 :
2π 2 2π 2 2π M

· (i − 1) + φ0

[φ0 =

2π M]

Ad esempio, con M = 2: · (1 − 1) + φ0 con φ0 = π; · (2 − 1) + φ0 = φ0 + π = 2π.
+∞

Analizziamo analiticamente v(t): v(t) = Re {v(t)} = Re v (t) · e j 2π f0 t = Re ˙ ˜
+∞

n=−∞

an · g(t − nTs ) · e j 2π f0 t g(t − nTs ) · e j 2π f0 t+φn

=

+∞

= Re
n=−∞

e jφn · g(t − nTs ) · e j 2π f0 t

= Re
n=−∞

=

72
+∞

CAPITOLO 4. Modulazioni

=
n=−∞

g(t − nTs ) · cos(2π f0 t + φn )

Con M fasi nell’intervallo di tempo Ts si trasmette un coseno che ha esattamente M fasi diverse; per esempio con M = 2 il coseno, come abbiamo visto, ha due fasi pari a π e 2π. Il generico segnale si (t) pu` essere visto come: o si (t) = g(t) · cos(2π f0 t + φi ) Sviluppando il coseno secondo la regola [cos(α±β) = cos α cos β ∓ sin α sin β]: si (t) = g(t) · cos(2π f0 t) cos(φi ) − g(t) · sin(2π f0 t) sin(φi ) Indicando: . g(t) · cos(2π f0 t) con E; . g(t) · sin(2π f0 t) con E. Si rielabora l’equazione (4.10) moltiplicando e dividendo per si (t) = √ E: (4.10)

√ √ 1 1 E · √ · g(t) · cos(2π f0 t) cos(φi ) − E · √ · g(t) · sin(2π f0 t) sin(φi ) E E · g(t) · cos(2π f0 t) ` il versore ψ1 (t), la componenete in fase; e · g(t) · sin(2π f0 t) ` il versore ψ1 (t), la componenete in quadratura. e E · cos(φi ) e √ E · sin(φi ) rappresentano i coefficienti. ψ2 (t) sin(φi ) φi cos(φi ) ψ1 (t)

In questo modo si riconosce che: . .
1 √ E 1 √ E

Invece

Graficamente: √ E

Al variare delle fasi φi i segnali avranno comunque la stessa energia perch` e √ sono posizionati su una circonferenza di raggio E. Vediamo alcuni esempi al variare di M .

4.2. Modulazioni numeriche 2-PSK Con due soli punti la costellazione `: e ψ2 (t) φ0 ψ1 (t)

73

φ0 + π

La distanza fra i due segnali ` semplicemente: e √ d=2 E 4-PSK Per la modulazione 4-PSK i punti sulla costellazione si possono disporre: ψ2 (t) φ0 +
π 2

φ0 ψ1 (t)
3π 2

φ0 + π

φ0 +

In questo caso: d=2· E 2

Si osserva che la probabilit` di errore aumenta perch` ` diminuita la distanza a ee tra i due segnali; rimane invariata invece l’energia utilizzata in trasmissione.

8-PSK La costellazione diventa: ψ2 (t) φ0 + φ0

φ0 + φ0 3π 4 φ0 + π φ0 +

π 2

π 4

φ0 +
5π 4

7π 4

ψ1 (t)

φ0 +

6π 4

74

CAPITOLO 4. Modulazioni

Per questa modulazione ` molto complicato effettuare il calcolo della probae bilit` di errore in quanto occorrerebbe risolvere l’integrale della distribuzione a di probabilit` su un’area che ` un spicchio. a e Esiste un’approssimazione per cui: P(e) ≤ erfc π E · sin N0 M

Ci` che contraddistingue un segnale ricevuto da un altro, dato che hano √ no modulo uguale a E, ` la fase; ad esempio, nell’ 8-PSK, se la fase del e segnale ricevuto φr ` compresa fra [0 − φ0 ] allora potrebbe essere riconoe sciuto come s1 ;invece nel caso in cui [φ0 < φr < φ0 + π ] il segnale stimato 4 sarebbe s2 . Il problema si riduce, di fatto, a come stimare la fase di un segnale ricevuto perch`, una volta determinata, ` possibile effettuare la demodulazione come e e confronto tra φr e le fasi-soglie φi .

Demodulazione del PSK Dato un segnale nel dominio del tempo a frequenza f0 , se si riuscisse ad effettuare il confronto con una sinusoide z(t) generata con la stessa f0 , si potrebbe calcolare con un fasometro lo sfasamento dei segnali ogni tempo di simbolo Ts . Ts 2Ts st

t

zt

t

4.2. Modulazioni numeriche

75

Questa operazione ` complicata per due motivi: il primo ` dovuto al fatto e e di non sapere a priori che fase avr` il coseno dopo Ts quindi per calcolare a lo sfasamento a 2Ts occorre uno strumento molto rapido oppure usare un tempo di simbolo molto lungo. Il secondo problema riguarda il sincronismo fra trasmettitore e ricevitore; il segnale inviato, viaggiando nel tempo, subisce uno sfasamento che rende pressoch` impossibile determinare con quale fase fosse partito. Dunque, si e ha uno sfasamento ignoto tra la sinusoide generata e segnale ricevuto. Sulla costellazione questo fatto comporta semplicemente una rotazione degli assi di riferimento; in via grafica si osservi con tratto rosso i nuovi assi mentre con tratto nero gli assi di riferimento soliti:

Se quindi la costellazione ` traslata si commette sempre lo stesso errore per e tutti i segnali in fase di demodulazione. Si pu` pensare di mappare i bit anzich` ai segnali sulle transizioni dei segnali o e stessi. Osserviamo per la costellazione di un 8-PSK:

s3 s4 s5 s6

ψ2 (t) s2 s1 s8 s7 ψ1 (t)

76

CAPITOLO 4. Modulazioni

Vediamo le differenze di mapping con due possibili codifiche: Codifica PSK Segnale Codifica s1 000 s2 001 s3 010 s4 011 s5 100 s6 101 s7 110 s8 111 Codifica D-PSK Transizione Codifica s2 − s1 000 s3 − s2 001 s4 − s3 010 s5 − s4 011 s6 − s5 100 s7 − s6 101 s8 − s7 110 s1 − s8 111

Ipotizziamo di avere trasmesso il segnale s2 con informazione utile di fase ϕ2 ed avere ricevuto r con informazione utile ϕr . La fase effettivamente trasmessa `: e φ2 = ϕ2 + φ1 Il ricevitore stima: φr = φ2 + φt dove φt ` lo sfasamento ignoto. e L’informazione utile di fase ricevuta diventa: ϕr = φr − φr−1 = (φ2 + φt ) − (φ1 + φt ) = φ2 − φ1 = ϕ2 Questo sistema viene chiamato Differential-PSK perch` ha un mapping ase sociato alle differenze di fase. In termini di prestazioni il D-PSK ` peggiore rispetto ad un PSK normale e perch` sbagliando un simbolo viene sbagliato anche il successivo; in media e si sbagliano il doppio dei bit, ma questo non cambia l’ordine di grandezza della P(e). Il D-PSK pu` essere visto come una codifica di canale tesa ad irrobustire la o trasmissione; tale codifica effettua differenze tra i bit e usa una modulazione PSK.

Tecniche di sincronizzazione Per costruire un demodulatore coerente, che recuperi fase e frequenza della portante, si utilizza lo schema:

4.2. Modulazioni numeriche

77

r(t)

cos(2πf0 t)

δ(Ts − t)

Ts

SYNC portante π/2

SYNC simbolo

Ts sin(2πf0 t)

Il sincronismo di portante serve per recuperare le informazioni (fase e frequenza) della portante, mentre il sincronismo di simbolo ` necessario al came pionatore per sapere quando cominciare e ogni quanto campionare il segnale. Si ipotizzi di conoscere che il rumore disturbi molto la dimensione ψ2 e poco ψ1 : ψ2 (t)

ψ1 (t)

In rosso sono evidenziate le zone in cui, per il rumore, il segnale pu` essere o ricevuto. Ad esempio: ψ2 (t) s ψ1 (t) r

Il segnale ricevuto r pu` essere visto come somma di componenti: o r = r1 + jr2

78 dove: . r1 ` la componente in fase; e . r2 ` la componente in quadratura; e

CAPITOLO 4. Modulazioni

Conoscendo solo una delle due componenti ` possibile riuscire a prendere e decisioni parziali sulla stringa dei bit associati ai segnali? In linea generale non si riesce: si osservi per notare questa propriet` la coa difica di Gray della modulazione 8-PSK: Codifica PSK Segnale Codifica s1 000 s2 010 s3 011 s4 111 s5 110 s6 100 s7 101 s8 001

s3 s4 s5 s6

ψ2 (t) s2 s1 s8 s7 ψ1 (t)

In questo caso non si riescono a prendere decisioni parziali con la codifica di Gray; il motivo ` dovuto al fatto di avere regioni di decisione a spicchi, le e cui soglie non sono parallele agli assi di riferimento. Considerando invece il 4-PSK: ψ2 (t) s2 s1 ψ1 (t) s3 s4

4.2. Modulazioni numeriche La cui codifica di Gray `: e Codifica PSK Segnale Codifica s1 00 s2 10 s3 11 s4 01

79

Con la stessa ipotesi precente, di conoscere solo r1 , in questo caso ` possie bile discriminare su un bit: il primo dei due bit della codifica permette di conoscere in quale semipiano ci si trova [s1 , s4 ] oppure [s2 , s3 ]. Conoscendo invece r2 si decodifica il secondo bit, che distingue i semipiani [s1 , s2 ] oppure [s3 , s4 ]; in questo modo si sono disaccoppiati i due assi (` e lecito farlo perch` si sa che il rumore ` indipendente su ogni dimensione). e e Il demodulatore quindi non ` pi` unico, ma si divide in due rami per stimare e u in maniera indipendente il primo ed il secondo bit; si modellizza come: ≁ ≁ ∼ r1 > 0 < 1◦ bit

cos(2πf0 t)

sin(2πf0 t) ⊗ ≁ ≁ ∼ r2 > 0 <

2◦ bit

Il 4-PSK con codifica di Gray prende il nome di QPSK (Quadrature PSK); avere la codifica di Gray ` una condizione necessaria per poter dare questa e definizione. Sostanzialmente il QPSK ` una moltiplicazione vettoriale di un 2-PAM sul e ramo in coseno per un 2-PAM sul ramo in seno. Analizziamo nel dettaglio: . se il 2-PAM in fase tramette 1 e il 2-PAM in quadratura trasmette 1 si ha s1 ; . se il 2-PAM in fase tramette 0 e il 2-PAM in quadratura trasmette 1 si ha s2 ; . se il 2-PAM in fase tramette 0 e il 2-PAM in quadratura trasmette 0 si ha s3 ;

80

CAPITOLO 4. Modulazioni . se il 2-PAM in fase tramette 1 e il 2-PAM in quadratura trasmette 0 si ha s4 .

Sul grafico: ψ2 (t) 01 = s2 1 s1 = 11 ψ1 (t) 0 00 = s3 0 1 s4 = 10

La probabilit` di errore P(e) pu` essere vista come la composizione delle a o probabilit` di errore dei 2-PAM proprio perch` esiste indipendenza tra le a e due dimensioni ψ1 e ψ2 . Definiti ψ1 = x e ψ2 = y, indichiamo sul grafico seguente le distanze tra i segnali con d: s2 d d ψ2 (t) s1 d ψ1 (t)

s3

d

s4

Come avevamo gi` visto per il 2-PAM la probabilit` di errore pu` essere a a o calcolata come 1 − P(c):
1 . P(c) = (1 − p) dove p = 2 erfc d √ 2· N0 d √ 2· N0

sul ramo x; sul ramo y.

. P(c) = (1 − p) con p = 1 erfc 2 In generale quindi:

P(c) = (1 − p) · (1 − p) = (1 − p)2 La probabilit` di errore risulta dunque essere: a P(e) = 1 − P(c) = 1 − (1 − p)2

4.2. Modulazioni numeriche Modulazione QAM

81

Estendendo il ragionamento di comporre su due dimensioni ortogonali modulazioni semplici di banda base si ottengono le modulazioni QAM (Quadrature AM). Sono modulazioni di banda traslata perch` ` comodo utilizzare, come die e mensioni ortogonali, seno e coseno, i segnali che servono per spostare la banda del segnale ad una frequenza f0 e raddoppiano automaticamente le dimensioni disponibili. La modulazione M-QAM ` una costellazione a M punti che sono ottenuti e dalla combinazione di: √ . M-PAM in fase; √ . M-PAM in quadratura. Ad esempio, il 16-QAM ` una costellazione a 16 punti data dalla moltiplicae zione vettoriale di due 4-PAM; si pu` osservare come si dispongono i segnali o sul grafico: ψ2 (t)

ψ1 (t)

I punti rossi sono i segnali della modulazione 4-PAM utilizzati come base; i punti neri sono i segnali effettivi della modulazione 16-QAM mentre le rette tratteggiate in blu rappresentano le soglie di decisione. Si osservi che per questa modulazione si hanno almeno tre tipi di regioni di decisione: . un quadrato, per i 4 segnali interni; . un rettangolo infinito, per 8 segnali;

82

CAPITOLO 4. Modulazioni . un quadrato infinito per i 4 segnali ai bordi.

Nel grafico seguente si evidenziano le regioni di decisione in base a questa classificazione: ψ2 (t)

ψ1 (t)

Esistono poi modulazioni miste, che combinano per esempio ampiezza e fase che non hanno costellazioni con geometrie simili al QAM.

Capitolo 5

Isi e Criteri di Nyquist
5.1 Interferenza intersimbolica

Finora si ` supposto di lavorare con segnali con durata temporale finita, pari e al tempo di simbolo Ts . Con questa supposizione, nel dominio delle frequenze, i segnali hanno durata infinita; purtroppo per almeno due ragioni non ` possibile avere questa e situazione: . la banda ` una risorsa costosa, quindi non ` pensabile acquistarla e e completamente; . il canale pu` avere una funzione di trasferimento non uguale ad uno, o quindi ` selettivo e filtra su una certa banda il segnale trasmesso. e Il segnale trasmesso `: e
+∞

v(t) =
n=−∞

an · r(t − nTs )

dove gli an sono coefficienti casuali; questo implica che il segnale v(t) ` un e processo casuale anche senza considerare il rumore. A seconda del valore assunto dagli an il processo assume forma diversa quindi, nel dominio spettrale non ` facile calcolare la trasformata di Fourier. e Comunque, qualsisasi sia la modulazione utilizzata, v(t) ` ciclostazionario e dunque ` possibile renderlo stazionario. e In questo modo si ottiene che: Gv (f ) = Sa (f ) · dove: 1. Sa (f ) =
m Ra (mTs ) ·

|R(f )|2 Ts

e −2π m f Ts 83

84 2. Ra (mTs ) = E[an · an+m ]

CAPITOLO 5. Isi e Criteri di Nyquist

La seconda espressione ` la media degli an e degli an traslati di m quindi ` e e un’autocorrelazione discreta. Misura quanto un dato in un’istante di tempo ` correlato ad un’altro; questa quantit` prende il nome di autocorrelazioe a ne dei dati. Vi ` correlazione se ` presente una codifica di canale, oppure quando le pae e role utilizzate sono molto lunghe e vengono splittate in pi` parti; invece non u c’` correlazione quando nello stesso tempo di simbolo vengono trasmesse pi` e u parole di codice. La prima espressione invece ` la trasformata di Fourier discreta dell’aue tocorrelazione: prende il nome di spettro dei dati. In sostanza Gv (f ) dipende dal segnale elementare utilizzato |R(f )|2 e anche dalla sequenza dei dati tramsessi (in base alla loro correlazione). Scegliamo per ipotesi Ra (mTs ) come:
2 Ra (mTs ) = δ(mTs ) · σa

La sequenza dei dati trasmessi ` scorrelata dopo ogni tempo di simbolo: i e dati sono scorrelati e il loro valor medio ` nullo. e Ne segue che: 2 2 |R(f )| Gv (f ) = σa · Ts Questa ` una condizione che si cerca sempre di raggiungere agendo sul coe dificatore di sorgente e sulla costellazione perch`, creando scorrelazione fra e i dati, lo spettro del segnale in trasmissione non dipende pi` dalla sequenza u trasmessa. Rimane solo da capire come scegliere i segnali di base r(t − nTs ); essi devono essere per forza di durata temporale infinita per soddisfare il vincolo della limitazione di banda. Questo pare in contraddizione con le ipotesi fatte in precedenza, in cui si supponeva di avere segnali di base di durata Ts . t0 + i Ts HR (f ) y(t)

S
n an δ(t

HT (f ) − nTs )

v(t)

C(f )

r(t) n(t)

n an hT (t

− nTs )

dove: . HT (f ) ` il filtro sagomatore di ingresso; e

5.1. Interferenza intersimbolica . HR (f ) ` il filtro di ricezione; e Come prima ipotesi si considera il caso in cui: . C(f ) = 1, il canale non ` selettivo; e . n(t) = 0, il contributo del rumore ` nullo. e Il segnale y(t) pu` essere espresso come: o y(t) = r(t) ∗ hR (t) Sostituendo ad r(t) la sua espressione equivalente: y(t) = v(t) ∗ hR (t) Sfruttando l’ipotesi di rumore assente e canale non selettivo r(t) = v(t). Il segnale v(t) ` definito come: e v(t) =
n

85

an hT (t − nTs ) =

n

an δ(t − nTs ) ∗ hT (t)

Quindi y(t) risulta essere: y(t) =
n

an δ(t − nTs ) ∗ hT (t) ∗ hR (t)

Indicando con: h(t) = hT (t) ∗ hR (t) Si ottiene l’espressione finale per y(t): y(t) =
n

an h(t − nTs )

L’istante di campionamento ` t0 +i Ts ; t0 , si presti attenzione, non pu` essere e o 0 perch` in una comunicazione normale si deve tenere conto del tempo di e propagazione del segnale. L’istante t0 rappresenta l’origine degli assi dei tempi del ricevitore, istante dopo il quale parte il processo di campionamento. Dal campionamento del segnale ricevuto si ricavano n variabili casuale yn ; nell’i-esimo intervallo (t = t0 + iTs ): yi =
n

an h(t0 + iTs − nTs )

Cercando di isolare la componente dovuta all’i-esimo simbolo trasmesso: yi = ai h(t0 ) +
n=i

an h(t0 − iTs + iTs − nTs )

86 L’espressione:
n=i

CAPITOLO 5. Isi e Criteri di Nyquist

an h(t0 − iTs + iTs − nTs )

rappresenta i contributi di tutti i simboli precedenti trasmessi che contribuiscono a determinare la i-esima variabile casuale campionata; questa quantit` a prende il nome di interferenza intersimbolica o ISI. Esempio

hT (t)
√1 Ts √1 Ts

hR (t)

Ts

t

t

hT (t) ∗ hR (t)

h(t)

1

t

Trasmettendo un 2-PAM e utilizzando come an ±1, la sequenza {1, 1, −1, 1} ha il seguente segnale nel dominio del tempo: y(t) 3Ts t Ts 2Ts 4Ts

Si nota che in ogni istante di campionamento, tranne il primo, il segnale ` e sporcato dalle code precedenti; ` questo che accade realmente ai segnali con e ISI.

5.2. 1◦ criterio di Nyquist

87

Si ha assenza di ISI quando la forma del segnale h(t) = hT (t)∗hR (t) presenta degli zeri periodici di Ts tranne nel punto i-esimo in cui si vuole effettuare il campionamento. La condizione di avere un segnale con zeri periodici ` meno restrittiva rie spetto a quella di avere segnali di durata finita; non ` importante il compore tamento del segnale fra un tempo di simbolo e l’altro, ma la forma d’onda deve valere 0 in corrispodenza di: an h(t − κ Ts ) = 0 ∀κ = 0

n

dove κ = i − n. Infatti per κ = 0 la sommatoria risulta essere il termine ai h(t0 ) che ` il e termine utile di campionamento yi .

5.2

1◦ criterio di Nyquist

I segnali di base r(t − nTs ) dunque devono essere scelti in modo tale che: . abbiano supporto infinito nel tempo; . abbiano una h(t) con zeri periodici. La seconda condizione, in sostanza, pone un vincolo sulla scelta tra hT (t) ed hR (t). Si consideri ora il rumore, mantenendo comunque l’ipotesi di canale non selettivo; sappiamo che la condizione per avere il demodulatore ottimo in presenza di rumore ` utilizzare il filtro adattato. e In questo modo: hR (t) = hT (Ts − t) Osserviamo che: h(t) = hT (t) ∗ hR (t) = hT (t) ∗ hT (Ts − t) = RhT (t − Ts ) RhT (t − Ts ) ` l’autocorrelazione di hT (t), quindi il segnale y(t) viene came pionato dove la sua sagoma ha il valore massimo. Le due condizioni: . assenza di ISI; . filtro adattato. Sono le due condizioni alla base del primo criterio di Nyquist. Sono indipendenti perch` l’assenza di ISI ` una condizione riguardante la e e forma del segnale mentre il filtro adattato serve solo per eliminare il rumore. In pratica le due condizioni richiedono:

88 . h(t) con zeri periodici;

CAPITOLO 5. Isi e Criteri di Nyquist

. campionamento nel massimo dell’autocorrelazione. Esempio Il segnale: hT (t)

t Non soddisfa il criterio di Nyquist perch`: e RhT (τ )

τ

la funzione RhT (t) non ha zeri periodici.

Criterio di Nyquist nel dominio della frequenza
Ipotizziamo per semplicit` che t0 = 0; allora: a ak h(t − nTs ) = ak
t=κ Ts

n

Se ak = 1:
n

h(t − nTs ) ⇓

=1
t=κ Ts

RhT (t) · Trasformando con Fourier si ha: |HT (f )|2 ∗

n

δ(t − nTs ) = δ(t)

1 Ts

n

δ f−

n Ts

=1

5.2. 1◦ criterio di Nyquist ⇓
n

89

H f−

n Ts

2

= cost
n Ts

Ci` significa che la somma di tutte le repliche traslate di o Ad esempio: |HT (f )|2 A
−1 2Ts 1 2Ts

` costante. e

f

Replicandolo ogni Ts : A |HT (f )|2

−3 2Ts

−1 Ts

−1 2Ts

1 2Ts

1 Ts

3 2Ts

f

Si nota che il criterio di Nyquist ` soddisfatto perch` la somma ` costante. e e e L’antitrasformata di Fourier del filtro passabasso ideale ` una sinc che ha e zeri periodici tranne nell’origine e durata temporale infinita, quindi rispetta tutti i vincoli richiesti e permette di avere il pieno controllo della banda. Un’altro esempio `: e |HT (f )|2 A
1 − 2Ts 1 2Ts

f

1 e Le repliche della parte eccedente ± 2Ts si elidono fra loro perch` hanno area simmetrica e quindi la somma ` di nuovo costante come nel grafico precee dente.

Se un segnale occupa una banda: B< 1 2Ts

90

CAPITOLO 5. Isi e Criteri di Nyquist

non si pu` soddisfare il primo criterio di Nyquist in quanto l’ISI sar` sicuo a ramente presente. Si definisce banda di Nyquist la quantit`: a 1 2Ts
1 Si pu` pensare a Ts come alla frequenza di campionamento di un segnale fc ; o allora l’interpretazione ` quella di avere: e

fc > 2B Per non perdere informazione si deve campionare un segnale ad almeno due volte la banda; in caso contrario l’informazione si perde perch` si vuole efe fettuare una trasmissione che richiede una banda B usando una banda pi` u piccola B1 . Questo equivale a voler trasmettere su un canale di capacit` C a ad un rate troppo elevato il che, come abbiamo visto nel capitolo 3, significa perdere informazione. |HT (f )|2 A
1 − 2Ts 1 2Ts

f

La parte colorata in rosso viene chiamata eccesso di banda.

Filtro a coseno rialzato
Il filtro a coseno rialzato rispetta il primo criterio di Nyquist ed ha una funzione di trasferimento di questo tipo: |HT (f )|2 A

1 − 2Ts

1 2Ts 1−α 2Ts 1+α 2Ts

f

− 1−α − 1+α 2Ts 2Ts

Il fattore α rapprensenta il roll-off del filtro ed ` l’eccesso di banda. e Questo fattore ` sempre compreso fra 0 ed 1: e 0 < α < 1

5.2. 1◦ criterio di Nyquist Nel caso in cui α = 0 si ha il filtro passabasso ideale.

91

Tipicamente nei sistemi di trasmissione la funzione di trasferimento del canale C(f ) non ` costante ovunque, ma solo su una certa banda poi attenua: e C(f )

−BC

BC

f

Nei sistemi reali si sceglie il filtro di trasmissione in modo tale che la sua banda sia all’interno della zona in cui C(f ) ` costante; in questo modo il e segnale inviato non viene distorto. Ipotizziamo di utilizzare il filtro a coseno rialzato in banda base; la condizione per non avere perdita di informazione ` utilizzare per la banda del filtro e BRC una banda minore di BC : 1+α < BC (5.1) 2Ts Gli unici parametri che si possono scegliere sono: . α che ` l’eccesso di banda; e . Ts il tempo di simbolo. Si osservi che, poich` la sorgente trasmette i simboli con un bit rate Rb , la e scelta di Ts non pu` essere casuale ma ` legata al mapping. o e Se si utilizza un 2-PAM abbiamo visto nel capitolo 4 che Eb = Em e si trasmette un bit per simbolo quindi anche Rb = Rs : ad esempio, trasmettendo a 100 Mbit/s si hanno 100 Msym/s. Scegliendo invece un 4-PAM allora 2 Eb = Em perch` si tramsmettono due e bit per simbolo: per l’esempio precedente, trasmettendo 100 Mbit/s si hanno 50 Msym/s. La modulazione va quindi scelta in accordo con la banda disponibile e il bit rate a cui si vuole effettuare la trasmissione. Esempio Data una banda BC = 25 MHz ed un bit rate Rb = 100 Mbit/s quale modulazione si pu` usare? o Con un 4-PAM, M = 4 si trasmettono 2 bit per simbolo quindi Rs = Rb = 2 50 Msym/s. 1 o Dato Rs = Ts si pu` provare a verificare se l’equaglianza (5.1) ` soddifatta: e (1 + α) · Rs < BC =⇒ (1 + α) · 50 < 25 =⇒ α< 1 −1 2

92

CAPITOLO 5. Isi e Criteri di Nyquist

Il risultato α = −0.5 non pu` essere accettato perch` α ` un parametro che o e e deve essere positivo e minore di 1. Con un 8-PAM, M = 8 si trasmettono 3 bit per simbolo e Rs = 33 Msym/s. Verificando come prima: (1 + α) · Rs < BC =⇒ (1 + α) · 33 < 25 =⇒ α<
Rb 3

=

25 −1= 33

Per le stesse considerazioni di prima il risultato non ` valido. e Serve almeno una modulazione con una costellazione a 16 punti; trasmettendo 4 bit per simbolo si ottiene: Rs = Per cui: (1 + α) · Rs < BC =⇒ (1 + α) · 25 < 25 =⇒ α<1−1 Rb = 25 Msym/s 4

= α < 0.76 − 1 =⇒

α < −0.24

Il risultato α = 0 pu` essere valido, si tratta del filtro passabasso ideale. o

5.3

2◦ criterio di Nyquist

Si ipotizzi ora che il vincolo (5.1) non sia soddisfatto e che, quindi, si utilizzi per il filtro a coseno rialzato una banda maggiore di BC . Il canale ` distorcente per le considerazioni fatte in precedenza; il filtro di e ricezione da usare per avere il migliore rapporto segnale rumore ` il filtro e adattato all’insieme di HT (f ) e della funzione di trasferimento del canale C(f ). Prendendo come HR (f ): HT (f ) HR (f ) = C(f ) la parte utile di segnale sarebbe corretta, ma il rumore laddove costante verrebbe amplificato.
1 C(f )

non ` e

Il secondo criterio di Nyquist si applica proprio in queste condizioni e richiede: . filtro adattato; . equalizzatore. L’equalizzatore ` un filtro fir che elimina le code dei segnali precedenti. e

5.4. Considerazioni finali

93

5.4

Considerazioni finali

I parametri importanti nelle comunicazioni da scegliere per realizzare un sistema sono il tipo di modulazione da utilizzare e le dimensioni della costellazione; da questa scelta si ottiene un certo symbol rate Rs permettendo di determinare la banda di Nyquist. Ogni modulazione ha una sua energia legata alla distanza dei punti sulla costellazione. Per poter essere demodulato, il segnale trasmesso deve passare in un filtro di ricezione che al fine di garantire il miglior rapporto segnale-rumore deve essere il filtro adattato; in seguito viene campionato. L’efficienza del sistema si valuta in base alla probabilit` di errore P(e) a di ricevere un simbolo quando era stato trasmesso un’altro. Un sistema efficiente ha una P(e) bassa che si traduce principalmente con avere una distanza elevata tra i punti della costellazione; questa ipotesi per` o comporta la richiesta di notevole energia per effettuare la trasmissione. Trasmettendo con un’energia pi` bassa invece, la distanza tra i punti dimiu nuisce causando un peggioramento delle prestazioni del sistema; l’aumento della probabilit` di errore pu` essere ridotto dall’introduzione di una codia o fica di canale. La codifica di canale aumenta la quantit` di dati da trasmettere e la coma plessit` del sistema, quindi occorre trasmettere con un bit rate maggiore per a poter garantire le stesse prestazioni. Un trasmissione pi` veloce comporta l’utilizzo di una banda pi` grande; se, u u per varie ragioni, non ` possibile una soluzione ` quella di cambiare modulae e zione, utilizzando una modulazione in banda traslata, perch` raddoppiando e il numero delle dimensioni si creano due flussi separati per la trasmissione dei dati e si utilizza in maniera pi` efficiente la banda a disposizione. u Se, in presenza di una codifica di canale, si utilizza una modulazione PAM, trasmettere ad un bit rate maggiore significa utilizzare pi` punti sulla diu mensione ψ e quindi aumentare l’energia oppure posizionare tutti i punti a distanza minore aumentando la P(e). Con una costellazione di tipo PSK l’aumento del numero di punti sulla costellazione non comporta aumento dell’energia, ma un peggioramento delle prestazioni del sistema; una modulazione PSK ha rese migliori con pochi punti e quindi con un bit rate non elevato.

94

CAPITOLO 5. Isi e Criteri di Nyquist

Capitolo 6

Esempi conclusivi
6.1 Esempio modulazione PAM

Dato lo schema a blocchi:

S

HT (f ) hT (t) = r(t)

v(t)

t0 + i Ts C(f ) n(t) ⊕ HR (f ) hR (t) = hT (Ts − t) yi

Utilizzando come segnale di base r(t): r(t)
√1 Ts

Ts

t

Si vuole trasmettere con una modulazione 2-PAM; i coefficienti del segnale: v(t) =
n

an r(t − nTs )

sono due ampiezze: an ∈ {± A}. La costellazione ha una sola dimensione ψ ed i due punti si dispongono in modo simmetrico su di essa; inoltre con la regola ML si individa una soglia T h posta in modo equidistante tra i punti: 95

96

CAPITOLO 6. Esempi conclusivi

-A Th

A

ψ(t)

La sorgente emette un treno di delta che passando nel filtro sagomatore hT (t) prendono la forma del segnale di base scelto r(t); ipotizzando di trasmettere la sequenza { A, A, -A, A } il segnale trasmesso v(t) ha la forma: v(t)
A √ Ts

t
A − √T s

Ts

2Ts

3Ts

4Ts

A questo segnale si deve sommare la componente di rumore aggiunta dalla modellizzazione assunta del canale tramsissivo. Considerando separatamente la componente utile di segnale ed il rumore possiamo determinare analiticamente: y(t) = v(t) ∗ hR (t) + n(t) ∗ hR (t) Indicando con: . z(t) = v(t) ∗ hR (t); . nf (t) = n(t) ∗ hR (t). Si ha: y(t) = z(t) + nf Si pu` operare questa separazione per la propriet` di linearit` del sistema. o a a Sapendo che hR (t) ` il filtro adattato, quindi con la stessa forma di r(t), e osserviamo come risulta essere z(t): z(t) A t -A Ts 2Ts 3Ts 4Ts 5Ts

6.1. Esempio modulazione PAM L’ampiezza di z(t) si determina come: 1 A A √ · √ · Ts = · Ts = A Ts Ts Ts Si adopera il procedimento analogo nel caso di ampiezza negativa.

97

98 Il segnale vero e proprio `: e z(t) A

CAPITOLO 6. Esempi conclusivi

t -A Ts 2Ts 3Ts 4Ts 5Ts

Il campionatore, effettuando il campionamento negli istanti di tempo multipli di Ts fornisce sempre come variabili yi i valori ± A. La spiegazione ` e semplice: come segnale di base ` stato utilizzato un segnale di durata teme porale finita quindi, trascurando il rumore perch` z(t) ` la componente utile, e e non c’` ISI che potrebbe causare incertezza. e La varianza del rumore filtrato nf risulta essere:
2 σn f =

N0 · 2

+∞ −∞

|HR (f )|2 df =

N0 · 2

+∞ −∞

|hR (t)|2 dt =

N0 N0 1 ·1= ‡ 2 2

I segnali ricevuti saranno disposti sulla costellazione attorno ai valori ± A:

-A Th Sul grafico: z(t) A

A

ψ(t)

t -A Ts 2Ts 3Ts 4Ts 5Ts

L’errore si commette, ad esempio, con i quadrati verde in quanto i segnali trasmessi hanno ampiezza positiva e quelli ricevuti ha ampiezza negativa oppure viceversa.
Utilizzando l’uguaglianza di Parceval si ` passati dal dominio della frequenza nel e dominio del tempo; il risultato dell’integrale ` 1 in quanto hR (t) ` scelta con la stessa e e forma di r(t) che era un segnale di base.
1

6.1. Esempio modulazione PAM

99

Si ipotizzi ora di cambiare il filtro di ricezione, utilizzando: hR (t)
√1 Ts

t

In questo caso, come abbiamo gi` visto nel capitolo 5, il segnale z(t) ` dato a e da: z(t) A 3Ts t -A Ts 2Ts 4Ts

E complessivamente: z(t) A 3Ts t -A Ts 2Ts 4Ts

A differenza del caso precedente, qui si nota immediatamente che i simboli ricevuti (trascurando il rumore perch` si prende in considerazione solo z(t)) e possono avere molti valori perch` i simboli precedenti influenzano il come portamento di ogni variabile yi : c’` ISI. e Il comportamento di ogni segnale dipende da come ` stata trasmessa la e sequenza dei simboli precedenti: si consideri il caso in cui si trasmetta costantemente il valore A per κ simboli e il κ + 1 simbolo sia -A. Ci` che accade ` che per i contributi delle code precedenti positivi il valore o e -A pu` venire a trovarsi oltre la soglia, venire decodificato con A causando o un errore.

100

CAPITOLO 6. Esempi conclusivi

Si noti che questo ` un peggioramento delle prestazioni del sistema anche e senza prendere in esame il rumore. Ora la varianza del rumore filtrato nf `: e
2 σn f

= =

N0 · 2 N0 · 2

+∞ −∞ +∞ −∞

|HR (f )|2 df =

N0 · 2

+∞ −∞

|hR (t)|2 dt =
+∞

2t 2t 1 1 N τ √ e− τ dt = 0 · · √ e− τ 2 2 Ts Ts

=
0

N0 · τ √ 4 · Ts

Questo risultato ` peggiore rispetto al caso in cui si usa il filtro adattato, e che, abbiamo visto, ha come varianza del rumore filtrato N0 . 2 Sulla costellazione i punti ricevuti si dispongono esattamente come prima:

-A Th

A

ψ(t)

Tuttavia si osservino i punti colorati in arancione e verde; ricevendo i primi si ` sicuri di sbagliare poco perch` la coda della gaussiana ha area molto e e piccola:

-A Th

ψ(t)

Questo guadagno ` compensato da un aumento della probabilit` di errore e a ricevedo i punti verdi:

-A Th

ψ(t)

In generale quindi le prestazioni peggiorano perch` l’area azzurra nel secone do grafico ` molto grande. e Se un segnale sporca un numero finito di simboli successivi ` possibile sapere e i contributi di ISI ogni Ts :

6.1. Esempio modulazione PAM h(t)
1 Ts

101

t Ts 2Ts 3Ts

In questo caso i punti azzurri sono i contributi di ISI: . h(Ts ) ` il valore da ricevere; e . h(2Ts ) ` il valore che sporca il simbolo successivo; e . h(3Ts ) ` il valore che sporca i due simboli successivi. e Ogni variabile casuale ricevuta ` data da : e
+∞

yk = ak h(Ts ) +
n=−∞, n=k

an h(nTs )

Si definiscono due quantit`, distorsione media e di picco, che misurano i a contributi di ISI: Distorsione media Dm = Distorsione di picco Dp =
n=1 |h(nTs )|

2 n=1 h (nTs ) h2 (Ts )

h(Ts )

La distorsione di picco ` un caso peggiore in quanto considera tutti i contrie buti di ISI presi concordi; queste due quantit` sono valori percentuali. a Si ipotizzi che ogni simbolo possa sporcare solo il successivo: h(t)
1 Ts

t Ts 2Ts 3Ts

102 La costellazione ricevuta `: e

CAPITOLO 6. Esempi conclusivi

-A Th Con 2 segnali trasmessi: . Ah(Ts ); . −Ah(Ts ). I possibili segnali ricevuti sono 4: . punto azzurro: −Ah(Ts ) − Ah(2Ts );

A

ψ(t)

. punto arancione: −Ah(Ts ) + Ah(2Ts ); . punto verde: Ah(Ts ) − Ah(2Ts ); . punto lavanda: Ah(Ts ) + Ah(2Ts ). La loro ampiezza dipende dal segno del simbolo precedente, positivo o negativo. Per calcolare la probabilit` di errore esistono due strade: a 1. approssimare la nuova distanza minima; 2. ipotizzare i 4 simboli equiprobabili e calcolare tutte le distanze.

Scegliendo la prima soluzione la distanza minima `: e dmin = Ah(Ts ) − Dp h(Ts ) perch`: e Dp -A Th A ψ(t)

6.1. Esempio modulazione PAM

103

Calcolata la distanza minima, che ` la distanza tra il punto verde e arancione, e possiamo determinare con l’union bound la probabilit` di errore: a 1 P(e) ∼ erfc = 2 dmin √ 2 · N0

Con la seconda soluzione si devono calcolare tutte le distanze: β4 -A Th La probabilit` di errore, senza approssimazioni, `: a e P(e) = + dove: . . . .
1 8 erfc 1 8 erfc 1 8 erfc 1 8 erfc β √1 2· N0 β √2 2· N0 β √3 2· N0 β √4 2· N0

β3

β2 A

β1 ψ(t)

β1 1 1 √ · erfc 4 2 2 · N0 1 β4 √ erfc 2 2 · N0 ` la P(e|β1 ); e ` la P(e|β2 ); e ` la P(e|β3 ); e ` la P(e|β4 ). e

1 + erfc 2

β2 √ 2 · N0

1 + erfc 2

β3 √ 2 · N0

+

104

CAPITOLO 6. Esempi conclusivi

6.2
6.2.1

Diagramma ad occhio
Esempio per la modulazione 2-PAM

Un modo per misurare la distorsione di picco ` visualizzare la costellazione e con il diagramma ad occhio. Questo strumento riporta in un tempo di simbolo tutte le possibili repliche del segnale sovrapponendone le tracce. Considerando il caso di modulazione 2-PAM con filtro adattato si ha il seguente diagramma ad occhio:
Diagramma ad occhio della parte reale del segnale ricevuto 1

0.8

0.6

0.4

0.2

0

−0.2

−0.4

−0.6

−0.8

−1

0

10

20

30 Time

40

50

60

70

Figura 6.1: diagramma ad occhio modulazione 2-PAM in condizioni ideali Si pu` visualizzare la costellazione corrispondente nello scattering diagram o mostrato in figura 6.2. Quando il segnale non ` affetto da ISI il diagramma ad occhio si dice aperto e verticalmente: ` il caso del grafico in figura 6.1. e Considerando l’ipotesi di avere s` il filtro adattato, ma di campionare il seı gnale nell’istante di tempo sbagliato si ottiene lo scattering diagram di figura 6.3; l’istante di campionamento ideale si osserva sul diagramma ad occhio: e e in figura 6.1 ` esattamente 33, l’attimo in cui l’occhio ` completamente aperto. Invece, campionando a 35, i possibili segnali ricevuti non sono solo due come prima, ma diventano quattro (come evidenzia anche lo scattering diagram di figura 6.3) perch` in quell’istante si hanno quattro possibili combinazioni. e Tale comportamento ` illustrato in figura 6.4. e

6.2. Diagramma ad occhio
Scattering diagram del segnale ricevuto 1

105

0.8

0.6

0.4

0.2 Im

0

−0.2

−0.4

−0.6

−0.8

−1 −1

−0.8

−0.6

−0.4

−0.2

0 Re

0.2

0.4

0.6

0.8

1

Figura 6.2: scattering diagram per modulazione 2-PAM in condizioni ideali

La sensibilit` della modulazione usata di avere pi` istanti di campionamento a u ideali si pu` leggere guardando l’apertura orizzontale del diagramma ad o occhio: se ` elevata allora sbagliando di poco l’istante di campionamento e l’ISI sar` poco influente, rendendo la modulazione pi` robusta. a u Se l’apertura orizzontale ` invece lieve occorre avere un sincronizzatore mole to preciso, in grado cio` di campionare il segnale nel solo istante ideale, e perch` altrimenti la modulazione sarebbe molto disturbata dall’interferenza e intersimbolica. Se non si utilizza il filtro adattato, ma ad esempio: hT (t)
√1 Ts √1 Ts

hR (t)

Ts

t h(t) 1

t

t

106

CAPITOLO 6. Esempi conclusivi
Scattering diagram del segnale ricevuto 1

0.8

0.6

0.4

0.2 Im

0

−0.2

−0.4

−0.6

−0.8

−1 −1

−0.8

−0.6

−0.4

−0.2

0 Re

0.2

0.4

0.6

0.8

1

Figura 6.3: scattering diagram per modulazione 2-PAM con campionamento sbagliato

Come abbiamo visto nel capitolo 5 la risposta all’impulso h(t) non soddisfa il criterio di Nyquist e quindi ` presente l’interferenza intersimbolica. e Osserviamo che, in questo caso, il diagramma ad occhio del segnale ricevuto cambia e non si riesce a trovare un istante ottimo di campionamento tale per cui le code dei segnali precedenti non sporchino il segnale attuale: ` per e questo motivo che l’ISI non pu` essere evitata. o Si noti che, anche in caso di filtro adattato pu` verificarsi ISI, ma il disturbo o pu` essere eliminato perch` esiste un istante ottimo di campionamento. o e In figura 6.5 viene riportato il grafico del diagramma ad occhio quando non si utilizza il filtro adattato e si usa come istante di campionamento 35; la costellazione ottenuta comprende molti pi` punti rispetto ai due che si u dovrebbero avere. o In figura 6.6 si riporta lo scattering diagram mentre in figura 6.7 si pu` osservare l’ingrandimento fatto sui due punti a sinistra: si noti come in a realt` i due punti visibili a sinistra in figura 6.6 siano in realt` il doppio. a

6.2.2

Esempio per la modulazione QPSK

Per la modulazione QPSK gli esempi sono stati realizzati usando il filtro a radice di coseno rialzato in trasmissione e in ricezione, quindi si ha la con-

6.2. Diagramma ad occhio

107

Figura 6.4: diagramma ad occhio per modulazione 2-PAM con campionamento sbagliato

dizione di filtro adattato. Con un roll-off di 0.6 ed effettuando il campionamento nell’istante di tempo esatto, 42, si ottiene un diagramma ad occhio illustrato del segnale ricevuto in figura 6.8 e del segnale trasmesso in figura 6.9. Lo scattering diagram che mostra la costellazione viene invece riportato in figura 6.10. Mantenendo lo stesso roll-off, ma campionando in un istante di tempo sbagliato, come conseguenza data dall’ ISI si otterranno in ricevzione molti pi` u simboli: in figura 6.11 si pu` vedere questo comportamento. o Ipotizzando di cambiare il roll-off, scegliendo come parametro α = 0.1 (molto vicino al filtro ideale passa-basso) anzich` 0.6, e campionando il segnale e e nell’istante ideale, si pu` vedere in figura 6.12 che il diagramma ad occhio ` o molto chiuso orizzontalmente rispetto a quello mostrato in figura 6.8. Lo scattering diagram riporta la costellazione in figura 6.13 e l’ingrandimento di uno dei vertici in figura 6.14. Si pu` notare il comportamento gi` descritto nell’esempio per la modulazioo a ne 2-PAM per cui in ricezione si hanno pi` simboli rispetto a quelli in realt` u a trasmessi.

108

CAPITOLO 6. Esempi conclusivi

Diagramma ad occhio della parte reale del segnale ricevuto 2

1.5

1

0.5

0

−0.5

−1

−1.5

−2

0

10

20

30 Time

40

50

60

70

Figura 6.5: diagramma ad occhio per modulazione 2-PAM senza filtro adattato

Scattering diagram del segnale ricevuto 1

0.8

0.6

0.4

0.2
Im

0

−0.2

−0.4

−0.6

−0.8

−1 −2

−1.5

−1

−0.5

0 Re

0.5

1

1.5

2

Figura 6.6: scattering diagram per modulazione 2-PAM senza filtro adattato

6.2. Diagramma ad occhio

109

x 10 8

−4

Scattering diagram del segnale ricevuto

6

4

2

0
Im

−2

−4

−6

−8

−10 −1.86 −1.84 −1.82 −1.8 −1.78 −1.76 −1.74 −1.72 −1.7 −1.68 −1.66 Re

Figura 6.7: scattering diagram ingrandito per modulazione 2-PAM senza filtro adattato

Diagramma ad occhio della parte reale del segnale in ricezione 1.5

1

0.5

0

−0.5

−1

−1.5

0

10

20

30 Time

40

50

60

70

Figura 6.8: diagramma ad occhio per modulazione QPSK

110

CAPITOLO 6. Esempi conclusivi

Diagramma ad occhio della parte reale del segnale in trasmissione 0.3

0.2

0.1

0

−0.1

−0.2

−0.3

−0.4

0

10

20

30 Time

40

50

60

70

Figura 6.9: diagramma ad occhio in trasmissione per modulazione QPSK

Scattering diagram del segnale in ricezione 1.5

1

0.5

Im

0

−0.5

−1

−1.5 −1.5

−1

−0.5

0 Re

0.5

1

1.5

Figura 6.10: scattering diagram per modulazione QPSK

6.2. Diagramma ad occhio

111

Scattering diagram del segnale in ricezione 1.5

1

0.5

Im

0

−0.5

−1

−1.5 −1.5

−1

−0.5

0 Re

0.5

1

1.5

Figura 6.11: scattering diagram per modulazione QPSK con campionamento non ideale

Diagramma ad occhio della parte reale del segnale in ricezione 2.5

2

1.5

1

0.5

0

−0.5

−1

−1.5

−2

−2.5

0

10

20

30 Time

40

50

60

70

Figura 6.12: diagramma ad occhio per modulazione QPSK con roll-off pari a 0.1

112

CAPITOLO 6. Esempi conclusivi

Scattering diagram del segnale in ricezione 2.5

2

1.5

1

0.5

Im

0

−0.5

−1

−1.5

−2

−2.5 −2.5

−2

−1.5

−1

−0.5

0 Re

0.5

1

1.5

2

2.5

Figura 6.13: scattering diagram per modulazione QPSK con roll-off pari a 0.1

Scattering diagram del segnale in ricezione

1.06

1.04

1.02

Im

1

0.98

0.96

0.94

−1.08

−1.06

−1.04

−1.02

−1 Re

−0.98

−0.96

−0.94

−0.92

Figura 6.14: scattering diagram ingrandito per modulazione QPSK con rolloff pari a 0.1

Sign up to vote on this title
UsefulNot useful