I - TEORIA DELLA PROBABILITÁ

1. Variabili aleatorie discrete

X (notare la lettera maiuscola) si dice v.a. discreta se può assumere un numero finito
di valori { }
1 2
, , ...,
n
x x x (notare le lettere minuscole). Come esempio, una variabile
aleatoria di questo tipo potrebbe essere quella che conta il numero di clienti che
entrano in un supermercato in 10 minuti.
Per le variabili aleatorie discrete si può esprimere una funzione chiamata
distribuzione di probabilità: questa funzione associa ad ogni valore assunto dalla v.a.
discreta la relativa probabilità di “uscire”. La probabilità che un certo valore
1
x sia
l’esito di un esperimento, modellato con una v.a. discreta, si definisce come
{ }
i X i
p P X x = =
Per una v.a. discreta si definisce una funzione di distribuzione cumulativa (CDF,
cumulative distribution function): essa esprime la probabilità che la variabile aleatoria
in questione assuma valore pari o inferiore a quello di un certo esito
( ) { }
X X
F x P X x = ≤
Tale tipo di funzione non può essere altro che crescente (anche se non strettamente,
perché può rimanere zero in alcuni tratti).

Per le v.a. discrete si definiscono:
- il valor medio: ( ) { }
i
i X i
i
p
E X x P X x = =

.
;
- la varianza:
( ) ( ) ( ) [ ]
2
2 2 2
var X E X E X E X E X σ

= = − = −


;
Dimostrazione:

( ) ( ) ( ) ( ) ( ) ( ) ( )
2 2
2 2
2
i i
i i
E X E X X E X p X E X XE X p

− = − = + − =


∑ ∑

( )
( )
( )
( )

( ) ( ) ( ) ( ) ( )
2
2 2 2 2 2 2 2
1
2 2
E X
i i i
i i i
E X
X p E X Xp E X p E X E X E X E X E X = − + = − + = −
∑ ∑ ∑

.
;
- la deviazione standard: ( ) var x σ = ;
- il momento di ordine n:
n
E X

.

2. Variabili aleatorie continue

X (notare la lettera maiuscola) si dice v.a. continua se può assumere un numero
infinito e non numerabile di valori ∈ℝ.
Per questo tipo di variabili esiste una funzione densità di probabilità (PDF, probability
density function), che è la controparte continua della funzione distribuzione di
probabilità delle v.a. discrete.
Per le v.a. continue non ha senso calcolare la probabilità che l’esito di un esperimento
sia un valore reale preciso (i valori che la variabile può assumere sono infiniti, e
dunque la probabilità che “esca” uno preciso di essi è nulla); possiamo soltanto
calcolare la probabilità che la variabile aleatoria assuma valori compresi fra due
estremi reali a e b:
{ } ( ) d
b
X
a
P a X b f x x ≤ ≤ =


Inoltre, abbiamo una CDF così definita:
( ) { } ( ) d
x
X X X
F x P X x f u u
−∞
= ≤ =


che è l’area che sta sotto la curva PDF da −∞ al valore scelto x.
Per come è stata definita, la CDF è una primitiva della PDF (e, dunque, la PDF sarà la
derivata della CDF); tale funzione di distribuzione cumulativa avrà le seguenti
proprietà:
- è sempre maggiore o uguale a 0 (e inferiore o al limite uguale a 1);
- se integrata su tutto l’asse reale dà come risultato 1;
- è non decrescente;
- vale 0 a meno infinito e 1 a più infinito.

Per le v.a. continue si definiscono:
- il valor medio: ( ) ( ) d
X
E x xf x x
+∞
−∞
=

;
- la varianza:
( ) ( ) ( ) [ ]
2
2 2 2
var X E X E X E X E X σ

= = − = −


(per la dimostrazione
vedi il caso discreto);
- la deviazione standard: ( ) var x σ = ;
- il momento di ordine n:
n
E X

;
- il percentile: l’n-simo percentile di una v.a. è il valore (assunto dalla v.a. stessa)
per il quale la CDF vale
100
n
;
- la mediana: è il cinquantesimo percentile della v.a.;
- la moda: è il valore “più probabile”, quello – cioè – che rende massima la
densità di probabilità; possono esserci più valori di moda (se è uno si parla di
distribuzione monomodale; se sono due di distribuzione bimodale, etc…).

3. Estensione: 2 variabili aleatorie

Se abbiamo, ad esempio, due variabili aleatorie continue X e Y, possiamo definire la
densità di probabilità congiunta ( )
,
,
X Y
f x y : essa è la funzione che esprime la seguente
probabilità ( ) { }
,
, ,
X Y
f x y P X x Y y = = = . Ovviamente trattasi di una funzione a più
variabili (reali), graficabile nel piano a tre dimensioni.
Se nel piano cartesiano in cui riportiamo i valori di X e Y tracciamo un insieme chiuso
A, allora la probabilità che le due variabili aleatorie assumano valori compresi in A è
calcolabile mediante un integrale:
( ) ( ) { }
,
, d d ,
X Y
A
f x y x y P X Y A = ∈
∫∫

Di conseguenza, se nel piano cartesiano di cui sopra ritagliamo un piccolo quadratino
infinitesimo di lati dy e dx, la probabilità che i valori assunti dalle variabili aleatorie
siano quelli compresi in tale francobollo infinitesimo sarà rappresentata dal termine
che poco fa abbiamo trovato sotto l’integrale:
( ) { }
,
, d d d , d
X Y
f x y x y P x X x x y Y y y = ≤ ≤ + ≤ ≤ +
Possiamo “sciogliere” la dipendenza di tale funzione da una delle due variabili
aleatorie (o anche da entrambe) tramite un integrale su tutto l’asse reale: così facendo
otterremo un’ordinaria funzione a una variabile.
( ) { } ( )
( ) { } ( )
,
,
, d
, d
X Y X
X Y Y
f x y y P X x f x
f x y x P Y y f y
= = =
= = =






4. Estensione: n variabili aleatorie

È la versione estesa ad libitum di ciò che si è visto fin’ora; si può definire:
- una funzione densità di probabilità per n variabili aleatorie:
( )
1 2
, , ..., 1 2
, , ...,
n
X X X n
f x x x ;
- integrando questa funzione sull’asse reale possiamo rimuovere la
dipendenza di tale funzione da una variabile (o da n, integrando in
n
ℝ ):
( ) ( )
1 2 1 2 1
, , ..., 1 2 , , ..., 1 2 1
, , ..., d , , ...,
n n
X X X n n X X X n
f x x x x f x x x


=



( ) ( )
1 2 1 2
, , ..., 1 2 1 2 , , ..., 1 2
, , ..., d d ...d , , ...,
n k k n
k
X X X n k X X X k k n
f x x x x x x f x x x
+ +
+ +
=



(con k < n)
( )
1 2
, , ..., 1 2 1 2
, , ..., d d ...d 1
n
n
X X X n n
f x x x x x x =



Se vogliamo calcolare la probabilità che le n variabili aleatorie assumano valori
compresi in un insieme A (n-dimensionale), possiamo utilizzare l’integrale:
( ) ( ) { }
1 2
, , ..., 1 2 1 2 1 2
, , ..., d d ...d , , ...,
n
X X X n n n
A
f x x x x x x P x x x A = ∈
∫ ∫ ∫


dove la quantità presente all’interno dell’integrale rappresenta una sorta di
francobollo n-dimensionale infinitesimo:
( ) { }
1 2
, , ..., 1 2 1 2 1 1 1 2 2 2
, , ..., d d ...d d , d , ..., d
n
X X X n n n n n
f x x x x x x P x X x x x X x x x X x x = ≤ ≤ + ≤ ≤ + ≤ ≤ +
Integrando (di volta in volta) questa quantità possiamo ricavare la probabilità in ogni
caso particolare che ci interessa.

5. Variabile aleatoria uniforme

La notazione per indicare una variabile aleatoria uniforme è la seguente:
[ ] , X U a b ∼
Con questa notazione si indica che tra a e b vi è lo stesso valore di densità di
probabilità. La relativa funzione sarà dunque:
( )
1
tra e (*)
0 altrove
X
a b
f x b a
¦
¦
= −
´
¦
¹

(*) Se si tiene presente che l’area sotto la curva della funzione densità di probabilità dev’essere 1 e che tale funzione
dev’essere costante allora risulta evidente che l’area sopra menzionata è quella di un rettangolo di base b – a (e
dunque (b – a)
–1
dovrà essere l’altezza!)

Possiamo poi calcolare:
- il valor medio:
( ) ( )
( )( )
2 2
1 1 1
d d d
2 2
b a b a
b b
X
a a
b a b a
E x xf x x x x x x
b a b a b a
− +
+∞
−∞
− +
= = = = =
− − −
∫ ∫ ∫


- la varianza:
( ) ( ) ( ) [ ]
( )
2
2
2 2 2 2
1
var d
4
b
a
b a
X E X E X E X E X x x
b a
σ
+

= = − = − = − =





( ) ( )
( )( )
( )
( ) ( ) ( )
2 2
2 3 2 2 2
3 2 2
1
3 4 3 4 3 4 12
b a a ab b
b
a
b a b a b a b a b a
x a ab b
b a b a
− + +
+ − + + − + +
= − = − = − =

− −

6. Variabile aleatoria normale (gaussiana)

La notazione per indicare una variabile aleatoria Gaussiana (o normale) è la seguente:
2
, X N µ σ


La densità di probabilità ha invece questo aspetto:
( )
( )
2
2
2
1
con 0
2
x
X
f x e
µ
σ
σ
πσ


= >
Questo termine, se integrato su tutto l’asse reale, dà come risultato 1.
La comodità di questo tipo di variabile sta nel fatto che, se ne diamo la definizione
come illustrato sopra, abbiamo già, senza fare un calcolo:
- il valor medio: ( ) E X µ = ;
- la varianza: ( )
2
var X σ = .
La funzione CDF sarà:
( ) ( )
( )
2
2
2
1
dt dt
2
t
x x
X X
F x f t e
µ
σ
πσ


−∞ −∞
= =
∫ ∫

All’interno di questa espressione è presente l’integrale del termine
2
e
α −
, che è
risolvibile in campo complesso col teorema dei residui e che in campo reale non è
computabile. Per questo motivo si usano tabelle speciali in cui sono riportati valori
approssimati di questa funzione.
Ora calcoliamo alcune funzioni strettamente legate alla distribuzione gaussiana:
- funzione errore: ( )
2
0
2
erf d
x
t
x e t
π


≜ (NOTA: è funzione dispari).
Come si osserva, questa funzione ricorda molto da vicino la gaussiana: se infatti
prendiamo la
( )
( )
2
2
2
1

2
x
X
f x e
µ
σ
πσ


= , poniamo 0 µ = e
2
1
2
σ = otteniamo
( )
2 2 1 1
=
1
2
2
x x
X
f x e e
π
π
− −
=
e integriamo su tutto l’asse reale, il risultato sarà pari a 1. Si nota bene che per
x che tende ad infinito la funzione errore tende ad 1; inoltre possiamo
interpretare tale funzione come la probabilità che:
( ) ( )
erf P X x x < = con
1
0,
2
X N
| |
|
\ ¹

La CDF della distribuzione normale si può calcolare tramite la funzione errore:
( )
1 1
erf
2 2
2
X
x
F x
µ
σ
− | |
= +
|
\ ¹

Dimostrazione:
( )
( ) ( ) ( )
2 2 2
2 2 2
2 2 2
1 1 1
d d d
2 2 2
t t t
x x
X
F x e t e t e t
µ µ µ µ
σ σ σ
µ
π σ π σ π σ
− − −
− − −
−∞ −∞
= = + =
∫ ∫ ∫

( ) ( )
( )

2 2
2
2 2
2 2
cambio di
0
variabile
1 2, per ché il valor medio
divide l'area sotto al grafico
2
della gaussiana in due parti
uguali e valenti 1/2
1 1 1 1
d d 2 ds
2
2 2 2
x
t t
x
s
t
s
e t e t e
µ
µ µ
µ
σ σ
µ
µ
σ
σ
πσ π σ πσ

− −
− −

−∞
= −
=
= + = +
∫ ∫
.
2
notare che 2 dt ds
σ
σ =
=

.

2
2
0
erf
2
1 1 2 1 1
ds erf
2 2 2 2
2
x
s
x
x
e
µ
σ
µ
σ
µ
π σ


− | |
|
\ ¹
− | |
= + = +
|
\ ¹

.

- funzione errore complementare: ( ) ( )
2 2
erfc 1 erf d
t
x
x x e t
π
+∞

− =

≜ .
Dimostrazione:
( ) ( )
2 2
erfc 1 erf 1 d
x
t
x x e t
π

−∞
− = − =


2 2 2
0 0
1
2 2 2
d d d
x
t t t
x
e t e t e t
π π π
+∞ +∞
− − −
=
= − =
∫ ∫ ∫
.

Trovare la CDF della funzione gaussiana
tramite la funzione errore complementare
è semplice, visto che già conosciamo la
relativa relazione per la funzione errore:
( )
1 1 1 1 1
1 erfc
2
erf 1 erf
2 2 2
c
2 2
2
2
X
x
F
x x
x
µ
σ
µ µ
σ σ
| | | | − − | | | | −
= + = + = −
|
|
\ ¹ \ ¹

| |
\ ¹ \ ¹


La funzione erfc(x) può essere approssimata da:
- ( )
2
2
4
3
1 1
erfc per 0
6 2
x
x
x e e x


≅ + > (ottima approssimazione);
- ( )
2
erfc per 0
x
e
x x
x π

≅ > (approssimazione meno buona, ma comunque
abbastanza accettabile per x > 3,5).

NOTA: la funzione erfc(x) ha, come upper bound, funzioni come:
( )
2 2 2
2
1 1
erfc
2 2
x x x
x e e e
− − −
< + <
NOTA (2): la funzione inversa di erfc(x) è detta inverfc(x). Vale circa:
( )
( )
0,8
ln
inverfc
1 0,6 ln
y
y
y



+ −
( dove y = erfc(x) )
Tale relazione è valida per y che vale qualche decina.
Se la funzione erfc(y) è limitata da
2
x
e

, allora inverfc(x) è limitata da ln y − .
Dimostrazione:
y = erfc(x) e inverfc(y) = x
2
x
y e

<
ln y < ln
2
x
e


2
ln y x − >
( ) ln inverfc con 0 1 y x y y − > = < <
- funzione Q: ( )
2
2
1 1
d erfc
2
2 2
t
x
x
Q x e t
π
+∞
− | |
=
|
\ ¹


Dimostrazione:
( )
2 2
erfc d
t
k
k e t
π
+∞



Se pongo k =
2
x
:
2
2
2
erfc d
2
t
x
x
e t
π
+∞

| |
|
\ ¹


Cambio di variabile
2
t
ξ
=
d
d
2
t
ξ
= :
2
2
2 d
erfc
2 2
t
x
e
ξ
ξ
π
+∞

| |
|
\ ¹


1 1
erfc 2
2 2
2
x | |
|
\ ¹
≜ ( )
2
2
1
d
2
t
e Q t
ξ
ξ
π
+∞

=



7. Variabile aleatoria di Rayleigh

Una variabile aleatoria (continua) di
Rayleigh ha una PDF così strutturata:
( )
2
2
2
2
per 0
:
0 altrove
x
X
x
e x
X f x
α
α

¦
¦ ≥
=
´
¦
¹


Come per le altre variabili aleatorie
lanciamoci nella ricerca di:
- valore atteso:
[ ]
2
E X
π
α = ;
Dimostrazione:
[ ]
2 2
2 2
2
2
2
2
+
2 2
2
0
d
0
questo termine si annulla
d
x
x x
x
e x
x
E X x e x x e
α
α α
α
α


+∞
− −
| |
| = = −
|

\ ¹






.

2 2
2 2
2
2
2
2
risoluzione per parti dell'integrale
2 2
d
0 0
d
d
1
1 d 2 d
2
x
x x
x
x
x
e x
e x e x
α
α α
α
α π
α π

+∞ +∞
− −
| |
| − − = =
|
\ ¹

∫ ∫

.

(NOTA: è comparsa una gaussiana a valore medio nullo e varianza
2
α )

l'integrale copre
metà dell'area che
sta sotto la curva
2 1 2
2
π
α π α = =
- momento del second’ordine:
2 2
2 E X α =


Dimostrazione:
2 2
2 2
2
2
2
2
+
2 2 2
2 2
2
0
d
0
questo termine si annulla
d
x
x x
x
e x
x
E X x e x x e
α
α α
α
α


+∞
− −
| |
| = = −

|

\ ¹






.

2 2
2 2
2
2
2
2
2
risoluzione per parti dell'integrale
2 2
d
0 0
d
d
2 d 2 d
x
x x
x
x
x
e x
x e x xe x
α
α α
α

+∞ +∞
− −
| |
| − − = =
|
\ ¹

∫ ∫

.

2 2
2 2
2 2 2
2 2
2
0
0
2 d 2 2
x x
x
e x e
α α
α α α
α
+∞
+∞
− −

= = − =




- varianza:
( ) [ ]
2 2 2 2 2 2
var 2 2
2 2
X E X E X
π π
σ α α α
| |
= = − = − = −
|

\ ¹


8. Variabile aleatoria di Rice

Una variabile aleatoria (continua) di Rice ha una PDF così strutturata:
( )
2 2
2
polinomio di Bessel
di ordine 0
2
0 2 2
con 0 :
per 0
0 altrove
x
X
x x
X f x
e I x
µ
α
µ
µ
α α
+

¦
¦
¦
| |
> → =
≥ ´
|
\ ¹ ¦
¦
¹

Il termine
0 2
x
I
µ
α
| |
|
\ ¹
, dove I0 sta ad indicare il Polinomio di Bessel di ordine zero, si
sviluppa così: ( )
2
cos
cos
0 0 2
1 1
d d
2 2
x
x
x
I x e I e
µ π π
ϑ
ϑ
α
π π
µ
ϑ ϑ
π α π
+ +
− −
| |

|
\ ¹
∫ ∫
≜ ≜ .
Per la variabile aleatoria di Rice si ha che:
momento del second’ordine
( )

2 2
2 2 2 2
fattore di Rice
2
1
2 1
k
E X
K
µ α
α µ µ
| |
|
|
= + = +

|
|
|
\ ¹


Infatti:
[ ]
( )
0
2
2 2 2 2
2 2 2 2
cos cos
2 2 3
2 2
2 2
0 0
1 1
d d d d
2 2
X
x
I
x x x x
f x
x
E X x e e x x e x
µ
α
µ µ µ µ π π
ϑ ϑ
α α α α
π π
ϑ ϑ
α π πα
| |
|
\ ¹
+ + ∞ ∞
− − +
− −
= ⋅ =
∫ ∫ ∫ ∫

.

Cambio di variabile:
( ) ( ) ( ) ( ) ( )
( )
1
1 2
, d d , , , , d d
D D
f x y x y f u v u v J u v u v
φ
φ φ

=
∫∫ ∫∫

Dove: ( ) ( ) , , x y u v → , ( )
1
, x u v φ = , ( )
2
, y u v φ = ,
1
2
φ
φ
φ

=


,
( )
1 1
2 2
, det
u v
J u v
u v
φ φ
φ φ
∂ ∂ | |
|
∂ ∂
| =
∂ ∂
|
|
∂ ∂ \ ¹

Ora effettuiamo il cambio di variabile:
( )
( )
2 2 2
2
2
2 2 2 2
2
2
2 2
,
cos
1 1
d d
sin 2
J
x
e
x
ξ η µ µξ
α
ξ η
ξ ϑ
ξ η ξ η ξ η
η ϑ πα
ξ η
+ + − ∞ ∞

−∞ −∞
= ¦ ¹
→ + + =
´ `
=
+ ¹ )
∫ ∫
.

( ) ( )
2 2 2 2
2 2

2 2
2 2
2 2
1 1
d d d d
2 2
e e
ξ µ η ξ µ η
α α
ξ ξ η η ξ η
πα πα
− + − + ∞ ∞ ∞ ∞
− −
−∞ −∞ −∞ −∞
= + =
∫ ∫ ∫ ∫

( )
( )
2
2
2 2
2 2

2
2 2
2
per parti ricorda un poco la gaussiana
2
1
2
1
d d
2
e e
ξ µ η
α α
α µ α π
α π
ξ ξ η
πα
− ∞ ∞
− −
−∞ −∞
= + ⋅
=
∫ ∫
.
( )
2
2
2

2
2

2
2
ricorda un poco la gaussiana
1
d 1 2
2
1
d
2
e
e
η
α
ξ µ
α
η α π
α π
ξ
πα


−∞
− ∞

−∞
= ⋅
+


.
( )
2
2
2 2

2
2

2
2
per parti
2
(varianza)
d 1 2
d
e
e
ξ µ
α
η
α
α α π
ξ α π
η η



−∞


−∞
= ⋅
= ⋅
=


. .

( ) ( )
2 2 2 2 2 2 2 2
2 2
1 1
2 2 2 2 2
2 2
α µ α πα π α πα α π α µ α α µ
πα πα
= + + = + + = +

9. Funzione di distribuzione cumulativa congiunta

La funzione di distribuzione cumulativa congiunta riguarda più variabili aleatorie
continue: ponendo per esempio che le v.a. coinvolte siano 2 (X e Y), la funzione in
questione calcola la probabilità che l’esito dell’esperimento comporti, per X e Y, valori
inferiori o al limite uguali – rispettivamente – a x e y. Cerchiamo dunque:
( ) { }
,
, ,
X Y
F x y P X x Y y = ≤ ≤
Ricordandoci poi (vedi paragrafo 3) della PDF di probabilità congiunta ( )
,
,
X Y
f x y
formulata nel caso di due variabili aleatorie, si ha che – essendo la funzione di
distribuzione cumulativa una primitiva della funzione densità di probabilità:
( )
,
,
X Y
f x y = ( )
2
,
,
x y
F x y
x y

∂ ∂

Diamo ora qualche proprietà della CDF per più variabili continue (nel nostro caso 2,
ma il tutto si può estendere!):
-
( )
( )
,
,
X X Y
F x F x = ∞ ;
- ( ) ( )
,
,
Y X Y
F y F y = ∞ ;
-
( )
( ) ( )
, ,
, d , d
X X Y X Y
f x f x y y f x y y

−∞
= =
∫ ∫

;
- ( )
,
, d d 1
X Y
f x y x y =
∫∫

;
- ( ) { } ( )
2
,
, , d d
X Y
A
P x y A f x y x y ∈ ⊂ =
∫∫
ℝ ;
- ( ) ( )
, ,
, , d d
y x
x y X Y
F x y f u z u z
−∞ −∞
=
∫ ∫
.

10. Variabili aleatorie condizionate e relativa PDF. Indipendenza statistica.

Cercare la probabilità condizionata di due variabili aleatorie significa osservare “cosa
succede ad una di esse sapendo cosa accade all’altra”: due o più variabili aleatorie
possono infatti essere l’una con l’altra dipendenti. In particolare, se esiste tale tipo di
dipendenza, si dice che la probabilità
( )
P X Y
è quella “che si verifichi X sapendo che è accaduto Y”.
Possiamo così definire (sempre nel caso di due v.a.) una PDF condizionata:
( )
( )
( )
,
,
X Y
X Y
Y
f x y
f x Y y
f y
= =
Tale funzione esprime, sapendo che y ha assunto un determinato valore, la densità di
probabilità nei confronti di x. Ovviamente, se Y non è possibile, non ci sarà possibilità
che si verifichino sia X che Y: si ha infatti che
( ) ( ) 0 0
Y X Y
f x y f y = ⇐ =
Se X e Y sono statisticamente indipendenti, la distribuzione congiunta
, X Y
f si può
scrivere così:
( )
( )
( )
,
,
X Y X Y
f x y f x f y = per ogni x e y
Oppure, equivalentemente:
( )
( )
,
X X Y
f x y f x =
perché comunque l’esito dell’esperimento governato da X è indipendente da quello
regolato dalla v.a. Y.

11. Funzioni a due variabili aleatorie: valor medio statistico, funzione di
correlazione, funzione di covarianza, coefficiente di correlazione,
incorrelazione fra le v.a., relazioni tra indipendenza e incorrelazione

Il valor medio statistico di una funzione (a due variabili aleatorie) è il seguente:
( ) ( ) ( ) ( )
,
, , , d d
X Y
E g X Y f x y g x y x y =
∫∫


La funzione di autocorrelazione è così definita:
( ) [ ] ( )
,
corr , , d d
X Y
X Y E XY xy f x y x y = ⋅
∫∫


Invece, la funzione di covarianza è:
( ) ( ) ( ) ( ) ( )
cov , X Y E X E X Y E Y

− −


Si può dimostrare che ( ) ( ) [ ] [ ] cov , corr , X Y X Y E X E Y = − .
Dimostrazione:
Anzitutto, facciamo mente locale sull’equazione che dobbiamo dimostrare:
( ) ( ) [ ] [ ] cov , corr , X Y X Y E X E Y = − ( ) ( ) ( ) ( )
E X E X Y E Y

− −

= [ ] [ ] [ ] E XY E X E Y −
Dopodiché sviluppiamo il termine dentro la parentesi…
( ) ( ) ( ) ( ) [ ] [ ] [ ] [ ]
E X E X Y E Y E XY YE X XE Y E X E Y
− − = − − −


… e applichiamo la proprietà di linearità del valor medio:
[ ] [ ] [ ] [ ] [ ] [ ]

[ ]

[ ] [ ]
costante costante
costante
E XY YE X XE Y E X E Y E XY E Y E X E X E Y E E X E Y



− − + = − − + =





.

[ ] [ ]

[ ] [ ]

[ ]
costante costante
E XY E X E Y E Y E X = − −
[ ] [ ]
costante
E X E Y +
.
[ ] [ ] [ ]
E XY E Y E X = − .
Nel caso particolare:
( ) ( ) ( ) ( ) ( ) ( ) ( ) ( )
2
cov , var X X E X E X X E X E X E X X


= − − = −



Infine, definiamo il coefficiente di correlazione
, X Y
ρ :
( )
,
cov ,
X Y
X Y
X Y
ρ
σ σ
= .
Il coefficiente di correlazione dà un’informazione sulla relazione di X e Y in “termini
medi statistici”; tale coefficiente può assumere valori da -1 a +1 (compresi): nel caso
(ancora più) particolare in cui il modulo di
, X Y
ρ è 1, allora X e Y sono dipendenti. Un
altro caso limite interessante si ha quando
, X Y
ρ è 0: allora in tal caso le due variabili X
e Y si dicono incorrelate. Ciò comporta che:
- ( ) cov , 0 X Y = ;
- [ ] [ ] [ ] [ ] [ ] [ ] 0 E XY E X E Y E XY E X E Y − = ⇒ = . Quest’ultima affermazione ci
dà una relazione tra indipendenza statistica (“concetto” forte) e incorrelazione
(“concetto” debole). Se infatti si ha
( )
( )
( )
,
,
X Y X Y
f x y f x f y =
allora si ha pure
[ ] [ ] [ ] E XY E X E Y =
Dimostrazione:
( )
[ ]
( )
( )
( )
( )
[ ]
( )
[ ]
[ ] [ ]
,
, se e
sono indipendenti
,
, d d d d d d
X Y
f x y x y
X Y X Y X Y
E XY E X E Y
xy f x y x y xy f x f y x y xf x x yf y y E X E Y ⋅ = = =
∫∫ ∫∫ ∫ ∫
ℝ ℝ ℝ ℝ

. ..

Questo significa che indipendenza implica sicuramente incorrelazione. Tuttavia
il contrario non avviene necessariamente!

12. Variabili aleatorie congiuntamente gaussiane

Due variabili aleatorie X e Y si dicono congiuntamente gaussiane se
( )
( )
( ) ( ) ( )( )
2
2
2 2 2
1
2
2 1
,
2
1
,
2 1
y x y
x
x y x y
y x y
x
X Y
x y
f x y e
µ µ µ
µ
ρ
σ σ σ σ ρ
πσ σ ρ

− − −


− + −




=


con
[ ] [ ] [ ]
x y
E XY E X E Y
ρ
σ σ

= (coefficiente di correlazione tra X e Y) ,
2
,
x x
X N µ σ

∼ e
2
,
y y
Y N µ σ

∼ .
Si può dimostrare che, come accade di norma per le variabili congiunte, anche per le
variabili aleatorie congiuntamente gaussiane si ha che:
( )
( )
,
, d
X X Y
f x f x y y =



E allo stesso modo valgono le relazioni illustrate nel paragrafo 9.

Ponendo il coefficiente di correlazione ρ = 0, la PDF diventa:
( )
( ) ( )
2
2
2 2
1

2
,
1
,
2
y x
x y
y
x
X Y
x y
f x y e
µ
µ
σ σ
πσ σ




− +



=

In questo caso (e solo in questo caso) si verifica che l’incorrelazione (facile da
verificare) implichi l’indipendenza (difficile da verificare).

Se le variabili gaussiane sono N, allora la funzione di densità di probabilità sarà:
( )
( )
( ) ( )
1 1
2
1 2
1
, ,...,
2 det
T
x c x
N
n
f x x x e
c
µ µ
π

− − −
=

Dove c è una matrice di covarianza n × n contenente i termini
( ) { }
,
cov ,
i j i j
c X X = ,
( )
1 2
, , ...,
n
x x x x = (vettore delle variabili aleatorie), ( )
1 2
, , ...,
n
µ µ µ µ = (vettore dei
valori medi delle rispettive v.a.).

Una proprietà importante delle variabili gaussiane è che una combinazione lineare
delle stesse produce ancora una variabile con distribuzione gaussiana: tale
affermazione è enunciata in maniera rigorosa nel cosiddetto teorema del limite
centrale. Esso è così enunciato:
1 2
, , ...,
n
X X X siano v.a. indipendenti con valori medi
1 2
, , ...,
n
µ µ µ e varianze
2 2 2
1 2
, , ...,
n
σ σ σ . Allora la v.a.
( )
1
1
n
i i
i
i
X
Y
n
µ
σ
=

=


sotto condizioni generali ha una distribuzione che, al crescere di n, tende a quella di
una gaussiana con valor medio nullo e varianza unitaria.
Nel caso particolare in cui
1 2
, , ...,
n
X X X sono variabili i.i.d. (indipendenti e
identicamente distribuite) , tutte con valore medio µ e varianza
2
σ , abbiamo invece:
2
1
1
,
n
i n
i
Y X N
n n
σ
µ
→∞
=
| |
= →
|
\ ¹


II - PROCESSI ALEATORI
(random / stochastyc processes)

1. Definizione

Un processo aleatorio X(t) è formato da un insieme di realizzazioni (o funzioni
campione, ( )
( ) i
x t ) determinate e, nel nostro caso, reali.
Ognuna di queste realizzazioni ha una certa probabilità di verificarsi: se poi
“verticalmente” fisso un istante di osservazione uguale per tutte le nostre
realizzazioni, otterrò un insieme di valori (uno per ogni realizzazione, dovuto
all’intersezione tra l’istante di tempo t scelto e la realizzazione stessa) aleatorio; a
causa di ciò posso dire che ( )
1
X t è, in realtà, una variabile aleatoria.

Se ho a disposizione un processo aleatorio posso fare alcuni calcoli su di esso:
- medie orizzontali o temporali: sono medie a posteriori, formulabili - cioè - una
volta osservata l’uscita del processo (e non prima di averla conosciuta tutta!).
Se, dunque, osservo una realizzazione a caso
( )
( )
i
x t posso:
- calcolare il valor medio temporale:
( )
( )
( )
( )
0
0
0
2
0
2
1
lim d
T
i i
T
T
x t x t t
T
→∞

=

;
- calcolare la potenza media:
( )
( )
2
i
x t ;
- calcolare la funzione di autocorrelazione:
( )
( )
( )
( )
( )
( )
i
i i
x
R x t x t τ τ = − ;
- calcolare lo spettro di potenza:
( )
( )
( )
( )
{ } i i
x x
G f R τ = F .
- medie verticali: sono medie a priori; trattasi, precisamente, di quelle accennate
poco fa quando si parlava di rilevazioni fatte in un istante di osservazione
uguale per tutte quante le realizzazioni. Dei valori così ricavati possiamo
calcolare valore medio, varianza, momento di n-simo grado etc….
Volendo, posso “complicarmi la vita” e scegliere più punti di osservazione
1 2 n
, , ..., t t t : otterrò così ( ) ( ) ( )
1 2
, , ...,
n
X t X t X t , che posso studiare
separatamente oppure congiuntamente, calcolando la densità di probabilità
congiunta (di n-simo grado)
( )
1 1 2 2
, ; , ; ...; ,
n n
p x t x t x t
Moltiplicando quest’ultimo termine per
1 2
d d ...d
n
x x x ottengo la probabilità che
la prima variabile aleatoria sia nell’intervallo infinitesimo [ ]
1 1 1
, d x x x + , che la
seconda si trovi in [ ]
2 2 2
, d x x x + e così via. Dopodiché per ogni variabile e per gli
intervalli che mi interessano posso fare, se vi è necessità, le integrazioni come
illustrato nei casi precedenti.

È poi necessario fare una distinzione fra:
- segnali tempo-continui: i segnali tempo continui possono assumere un valore
diverso ad ogni istante dell’asse dei tempi;
- segnali tempo-discreti: i segnali tempo discreti vengono “emessi” ogni quanto di
tempo;
- segnali continui nei valori: tali segnali possono assumere un’infinità non
numerabile di valori;
- segnali discreti nei valori: c’è un numero finito di valori che i segnali possono
assumere.

2. Descrizione statistica di processi aleatori tempo-continui e continui nei
valori: autocorrelazione e autocovarianza statistica

Se abbiamo un processo
aleatorio tempo-continuo e
esaminiamo verticalmente le
varie realizzazioni in n istanti
di tempo
1 2
, , ...,
n
t t t , ciò che
otteniamo sono n variabili
aleatorie

( ) ( ) ( )
1 2
, , ...,
n
X t X t X t

Una volta definite le grandezze
in gioco possiamo esprimere in
maniera rigorosa la densità di
probabilità (congiunta, di ordine n) legata al fatto che le varie realizzazioni, in
determinati istanti di tempo, assumano particolari valori:
( )
1 1 2 2
, ; , ; ...; ,
n n n
p x t x t x t
Come già si è detto nel capitolo 1, integrando la seguente quantità
( )
1 1 2 2 1 2
, ; , ; ...; , d d ...d
n n n n
p x t x t x t x x x
la quale esprime la probabilità che le variabili aleatorie in gioco assumano i seguenti
valori
( ) ( ) ( ) { }
1 1 1 1 2 2 2 2
d , d , ..., d
n n n n
P x X t x x x X t x x x X t x x ≤ ≤ + ≤ ≤ + ≤ ≤ +
è possibile verificare che sussistono le proprietà, anch’esse già viste:
- normalizzazione:
( )
1 1 2 2 1 2
, ; , ; ...; , d d ...d 1
n
n n n n
p x t x t x t x x x =
∫ ∫ ∫


;
- “eliminazione” di una variabile:
( ) ( )
1 1 2 2 1 2 1 1 1 2 2 1 1 1 2 1
, ; , ; ...; , d d ...d , ; , ; ...; , d d ...d
n n n n n n n n
p x t x t x t x x x p x t x t x t x x x
− − − −
=


;
- calcolo della probabilità riguardo un insieme di valori:
( ) ( ) ( ) ( ) { }
( )
1 2 1 1 2 2 1 2
, , ..., , ; , ; ...; , d d ...d
n
n n n n n
A
P X t X t X t A R p x t x t x t x x x ∈ ⊂ =
∫ ∫ ∫

.

Per le funzioni sovrascritte si definisce una funzione di autocorrelazione statistica:
( ) ( ) ( ) ( ) ( ) ( ) ( )
, corr
X
R t E X t X t X t X t τ τ τ − = − ≜
NOTA: tale definizione ricorda una formulazione analoga data nel caso non aleatorio
per funzioni determinate:
( ) ( ) ( )
x
R x t x t τ τ = − . La funzione di autocorrelazione
statistica, tuttavia, dipende da due parametri (sia da t che da t τ − ), mentre la ( )
x
R τ –
notare la x minuscola – dipende solamente da τ .

Introduciamo poi la funzione di autocovarianza statistica:
( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) { }
( )
( ) ( ) ( )
( ) ( )
, cov
... ,
X
X
E X t X t
C t X t X t E X t E X t X t E X t
R t E X t E X t
τ
τ τ τ τ
τ τ

− = − − − − =

= = − −


.


La funzione di autocorrelazione e la funzione di autocovarianza misurano la
somiglianza tra il processo osservato in un istante e lo stesso processo osservato in un
altro istante: più valgono e maggiore sarà la somiglianza in questione.

3. Processi aleatori stazionari in senso stretto (SSS, Strict Sense Stationary)

Due processi aleatori
( ) X t e ( )
0
X t t −
si dicono stazionari in senso stretto se hanno la stessa descrizione statistica per ogni
0
t . Questo comporta che ad esempio, se traslo tutte le realizzazioni di una quantità t0,
non osservo differenze. Dal punto di vista statistico rimangono dunque invariate le
funzioni densità di probabilità, come si nota in questa uguaglianza:
( ) ( )
1 1 2 2 1 1 2 2
, ; , ; ...; , , ; , ; ...; ,
n n n n n n
p x t x t x t p x t z x t z x t z = + + +
Come si vede, non conta dove gli istanti sono posizionati, ma conta soltanto la distanza
relativa fra di essi (la “differenza”). Posso quindi scrivere che:
( )

2 1 1 2 2 2 1 2 2 1
, ; , , ; p x t x t p x x t t
τ
| |
= − |
|
\ ¹

( 4 parametri ) ( 3 parametri )
Conseguenza della stazionarietà è che posso svincolare dalla dipendenza rispetto al
tempo la densità di probabilità del prim’ordine:
( ) ( )
1 1 1 1 1
, p x t p x =
Inoltre, non c’è bisogno di specificare t nell’espressione del valor medio, che pure lui a
tutti gli effetti non dipende dal tempo.
( ) [ ]
E X t E X =


Fra le altre conseguenze della stazionarietà in senso stretto:
- neanche la funzione di autocorrelazione non dipende dal tempo, perché è la
stessa per tutti gli istanti di osservazioni che hanno la stessa distanza relativa:
Processi aleatori
( ) ( ) ( ) ( ) ( )
,
X X
R t E X t X t R τ τ τ − = ≜
- la stessa identica cosa accade per la funzione di autocovarianza:
( ) ( ) ( ) ( ) ( )
, cov
X X
C t X t X t C τ τ τ − = ≜

4. Processi aleatori stazionari in senso lato (WSS, Wide Sense Stationary)

Mentre è molto difficile capire se un processo è stazionario in senso stretto (condizione
piuttosto forte), esistono due condizioni non troppo difficili da verificare che ci dicono
se un segnale è stazionario in senso lato (condizione un pelo più debole).
1) Il valor medio non deve dipendere dal tempo:
( ) [ ]
E X t E X =

;
2) La funzione di autocorrelazione non dipende dal tempo: ( ) ( ) ,
X X
R t R τ τ = .
Appurare che queste due condizioni sussistono non è complicato da verificare in
quanto esse si riferiscono a due quantità medie e non a comportamenti specifici nel
tempo. A causa di questa “gerarchia”, che si viene a formare fra i processi stazionari,
risulta infine che i processi stazionari in senso stretto sono anche stazionari in senso
lato, mentre non accade il viceversa.

Una piccola considerazione: non esistono, in
realtà, processi che durano da sempre e
dureranno per sempre. Non esistono, cioè,
funzioni definite “per ogni t”: dunque tutte le
funzioni a potenza finita – che teoricamente non
sono a durata limitata – sono astrazioni; allo
stesso modo anche i processi stazionari sono
astrazioni. I processi stazionari che ci interessano hanno realizzazioni a potenza finita:
se fossero ad energia finita, il segnale dovrebbe andare a zero all’infinito, ma questo
“cozza” con la stazionarietà (se le varie realizzazioni vanno a zero nello stesso
intervallo non può esserci stazionarietà!).

Proprietà della funzione di autocorrelazione per i processi WSS:
1)
( )
2
0
X
R E X =


Dimostrazione:
( ) ( ) ( ) ( )
,
X X
R t R E X t X t τ τ τ = −


( ) ( ) ( ) ( )
2 2
0 0
X
R E X t X t E X t E X − = =


2) ( ) ( )
X X
R R τ τ − =
Dimostrazione:
( ) ( ) ( ) ( )
,
X X
R t R E X t X t τ τ τ = −

≜ e
( ) ( ) ( ) ( )
,
X X
R t R E X t X t τ τ τ − = − +


Se, come abbiamo posto per ipotesi, siamo nel caso WSS, la funzione di
autocorrelazione non dipenderà da t: possiamo quindi utilizzare un diabolico
trucco e aggiungere
0
t nella prima relazione sopra scritta:
( ) ( ) ( ) ( )
0 0
,
X X
R t R E X t t X t t τ τ τ = + + −


Ponendo
0
t = τ
( ) ( ) ( ) ( ) ( )
X
R E X t X t E X t X t τ τ τ τ τ = + + − = +


la prima relazione diventa uguale alla seconda senza aver modificato i suoi
connotati statistici.
3)
( ) ( )
0
X X
R R τ ≤
Stazionari in senso lato
Stazionari in senso stretto
Dimostrazione:
essendo il quadrato di un binomio, la quantità
( ) ( ) ( )
2
E X t X t τ

± −



è sicuramente un numero maggiore di zero. Dunque possiamo scrivere:
( ) ( ) ( )
2
0 E X t X t τ

≤ ± −



Sviluppiamo quindi il binomio
( ) ( ) ( ) ( )
2 2
0 2 E X t X t X t X t τ τ ≤ + − ± −


e applichiamo la linearità del valor medio:
( )
( )
( )
( )
2 2
0 per la proprietà 1 0 per la proprietà 1
e per il fatto che il processo e per il fatto che il processo
è WSS e non c'è dipendenza è WSS e non c'è dipendenza
dal tempo d
0
X X
R R
E X t E X t τ
= =
≤ + −

.
( ) ( )
( ) 2 per definizione
al tempo
2
X
R
E X t X t
τ
τ
=
± −

. .

Sostituendo ciò che abbiamo ricavato:
( ) ( )
0 2 0 2
X X
R R τ ≤ ±
( ) ( )
0
X X
R R τ ≥ ∓
Siccome il primo termine è sicuramente positivo (è pari al valor medio di X
2
)
possiamo scrivere:
( ) ( )
0
X X
R R τ ≥
NOTA: la disuguaglianza ( ) ( )
0
X X
R R τ ≥ ∓ ci suggerisce che il grafico di ( )
X
R τ
è simmetrico rispetto all’origine e ha un massimo nella stessa.
4) Se ( ) X t e ( ) X t τ − sono indipendenti, allora ( ) [ ]
2
X
R E X τ =
Dimostrazione:
Prendiamo un valore τ tale per cui ( ) X t e ( ) X t τ − sono indipendenti e
scriviamo la funzione di autocorrelazione, dopodiché applichiamo le proprietà
dei processi stazionari in senso lato. La dimostrazione è dunque brevissima:
( ) ( ) ( ) ( ) ( )
( )
[ ]
2
perché il
processo è WSS
X
E X t
R E X t X t E X t E X t E X τ τ τ
=

− = − =


.

NOTA: sempre nell’ipotesi che ( ) X t e ( ) X t τ − sono indipendenti, si osserva che
la funzione di autocovarianza statistica è nulla, in quanto:
( ) ( ) ( ) ( ) ( )
[ ]
[ ] [ ] [ ] [ ]
2
2 2
Sempre per l'ipotesi
di WSS
0
X X X
E X
C R E X t E X t R E X E X E X E X τ τ τ τ
=
= − − = − = − =

. .


5. Ergodicità

Un processo aleatorio si dice ergodico se ciascuna realizzazione è caratteristica, con
probabilità 1, dell’intero processo; in altre parole, si ha ergodicità se i rilievi statistici
(verticali) fatti su un insieme qualunque di istanti di osservazione coincidono, con
probabilità 1, con i corrispondenti rilievi temporali fatti su una qualunque
realizzazione del processo.

NOTA: I processi ergodici sono un sottoinsieme dei processi stazionari in senso stretto,
quindi sono davvero pochi!

Un connotato importante che
caratterizza i processi
ergodici è il fatto che in una
singola realizzazione vi siano
tutte le informazioni che il
processo possiede al suo
interno: questo perché le
medie temporali (orizzontali)
coincidono esattamente con le
medie statistiche (verticali).
Come conseguenza di ciò:
1) Le varie realizzazioni
hanno tutte lo stesso valor
medio temporale, il quale
coincide col valor medio del
processo. Si ha dunque:
{ valor medio statistico } =
= { valor medio temporale }
( ) [ ] ( )
( )
0
0
0
0
1
lim d
2
T
T
T
E X t E X x t
x t t
T
→∞

= = =

=


2) Nella funzione ( )
X
R τ di autocorrelazione influisce soltanto la distanza relativa
fra gli istanti di osservazione e non l’istante preciso scelto (se il processo è ergodico, è
pure stazionario!). Inoltre, tale funzione di autocorrelazione coincide col
corrispondente rilievo fatto orizzontalmente:
{ autocorrelazione statistica } = { autocorrelazione temporale }
( ) ( ) ( )
( )
( )
( )
( ) ( )
i i
X x
R E X t X t x t x t R τ τ τ τ = − − = − =


3) Una cosa simile a quella illustrata nel punto (2) accade anche per la funzione di
autocovarianza: anche questa ha una sua “controparte orizzontale” e nel caso
ergodico quest’ultima coincide con la già introdotta ( )
X
C τ . Infatti:
{ autocovarianza statistica } = { autocovarianza temporale }
( ) ( ) ( )
[ ]
( ) ( )
[ ]
( ) [ ] ( ) ( ) [ ] ( )
E X E X
X
C E X t E X t X t E X t E X t E X X t E X τ τ τ τ
= =
| || |
| |

= − − − − = − − − =
| |
| |

\ ¹\ ¹



( ) ( ) ( )
[ ]
( )
2
2
x
E X
x t x t x t C τ τ
=

= − − =

.

4) La potenza dell’intero processo coincide con la potenza della generica realizzazione:
( ) ( )
2 2
0
X x X
P E X x t P R = = = =


Di conseguenza, il quadrato del valore efficace di ogni realizzazione corrisponde sia
alla potenza
x
P che alla potenza
X
P :
2
eff x X
x P P = =
5) Per quanto riguarda la varianza (che è uguale per tutte le realizzazioni): a causa
della stazionarietà essa non dipende dal generico istante t in cui viene calcolata.
[ ] ( ) ( ) ( )
2
2 2 2 2
X
E X E X x t x t σ = − = −


6) Lo spettro di potenza del processo coincide con lo spettro di potenza di ogni
realizzazione.
( ) ( ) { } ( ) { } ( )
X X x x
G f R R G f τ τ = = ≜ F F

Non è semplice fornire un esempio di processo ergodico; è invece molto più facile dare
un esempio di processo non ergodico. Il processo a realizzazioni costanti è fatto di n
realizzazioni, ognuna delle quali assume un (casuale) valore costante: sicuramente
questo processo è stazionario (posso calcolare valor medio, varianza, funzione di
autocorrelazione, etc… in qualunque punto, tanto il risultato non cambia) tuttavia non
è assolutamente ergodico; infatti, ogni realizzazione ha un valor medio diverso, un suo
spettro di potenza… e così via.
In cosa consiste la densità del prim’ordine di
un processo ergodico?
Possiamo fare due tipi di rilievi:
- verticale: consiste nell’andare ad
esaminare le varie realizzazioni in un
preciso istante di tempo e nel contare
quante di loro, in quel preciso istante,
hanno un valore contenuto all’interno
di un dato intervallo [a,b]. Da questo
esperimento si ricava:
( ) { }
volte
relizzazioni
n
P a X t b
n
= < <
In particolare, fissando un intervallo
molto piccolo possiamo ricavare
qualcosa di “imparentato” con la PDF:

( ) ( )
1 1
d d
a
b
P x X t x x p x x
¦ ¹
< < + =
´ `
¹ )
.

Quest’ultimo termine può essere a
sua volta integrato per ottenere: ( ) ( ) { }
1
d
b
a
p x x P a X t b = < <

.
NOTA: il processo, essendo ergodico e dunque stazionario, ha la proprietà di far
coincidere
( ) ( )
1 1 1 1 1
, p x t p x =
- orizzontale: se il
segnale in questione è
ergodico, è possibile
ricavare la densità di
probabilità anche dalla
frazione di tempo in cui
un qualsiasi campione
x(t), al trascorrere di t ,
soddisfa la condizione
( ) a X t b < < .
Questo perché si ha che:
( ) { }
1
0
k
k
t
P a X t b
T

= < <


Per ergodicità, e dunque stazionarietà, rilievi verticali e orizzontali coincidono
perfettamente.

Problema: come facciamo a capire se un processo è ergodico? Anzitutto bisogna capire
se è stazionario. Dopodiché verifichiamo se sussiste una condizione sufficiente
piuttosto comoda, che è quella di memoria finita.
Un processo aleatorio ha memoria finita
M
τ se, osservato il processo fino a un generico
istante
1
t , non è possibile fare alcuna previsione statistica sull’evoluzione del processo
in istanti maggiori di
1 M
t t τ = + . In pratica noi ci aspettiamo che, se un processo ha
memoria finita, l’andamento del segnale sia imprevedibile (e in un certo senso
“drasticamente diverso” rispetto al passato) dopo
M
τ secondi dall’ultima rilevazione
conosciuta. In tal caso si dice anche che “il processo si rinnova ogni
M
τ secondi”.
NOTA: se prendo in un processo aleatorio prendo due istanti molto diversi
( ) X t e ( ) X t τ −
allora questi saranno indipendenti per
M
τ τ > .
Dunque, se un p.a. è stazionario e ha memoria finita, allora esso sarà ergodico.

6. Processi aleatori gaussiani

( ) X t è un processo aleatorio gaussiano se le v.a. ( ) ( ) ( )
1 2
, , ...,
n
X t X t X t sono
congiuntamente gaussiane (qualunque sia n e qualsiasi siano gli istanti).
In questo caso ( )
1 1 2 2
, ; , ; ...; ,
n n n
p x t x t x t è una densità di probabilità gaussiana e,
precisamente, la probabilità congiunta di variabili gaussiane. Tale PDF ha la seguente
espressione (vedi anche capitolo1):
( )
( )
( ) ( )
1 1
2
1 2
1
, ,...,
2 det
T
x c x
N
n
f x x x e
c
µ µ
π

− − −
=

Dove:
- c è una matrice di covarianza con dimensione n × n contenente i termini
( ) [ ]
{ }
,
cov ,
i j i j i j i j
c X X E X X E X E X = = −

;
- ( )
1 2
, , ...,
n
x x x x = (vettore delle variabili aleatorie);
- ( )
1 2
, , ...,
n
µ µ µ µ = (vettore dei valori medi delle rispettive v.a.);
Se il processo aleatorio gaussiano è anche stazionario, allora si ha che i valori medi
sono tutti uguali:
( ) [ ]
E X t E X =


Questo influisce sulle quantità sopra descritte facendo diventare così i coefficienti
della matrice di covarianza:
( ) ( )
( ) ( )
2
,

X X
i j X j i X j i
C R E X E X
c C t t R t t E X
τ τ = −

¦ ¹
¦ ¦
= − = − −
´ `

¦ ¦
¹ )
.

Diamo ora alcune proprietà:
- se il processo aleatorio gaussiano è stazionario in senso stretto (SSS), possiamo
traslarlo quanto ci pare che, in ogni caso, c e µ non cambiano; ciò implica che le
densità di probabilità di ordine n non cambiano nel tempo, essendo determinate
da [ ] E X (invariante) e da ( )
X
R τ (che nel caso stazionario ed ergodico è pari a
( ) ( )
E X t X t τ −

e dipende solo dalla distanza relativa dei due istanti);
- se le variabili aleatorie sono incorrelate allora si ha indipendenza statistica
(vale solo per i processi gaussiani!);
- la stazionarietà in senso lato implica anche stazionarietà in senso stretto (ma
solo per i processi gaussiani!);
- se il valor medio è nullo si ha che ( )
2
0
X
R σ = ;
- la trasformazione LTI di un processo aleatorio gaussiano produce un altro
processo aleatorio gaussiano.

Importante è la seguente estensione del teorema del limite centrale: dati n processi
aleatori ( ) ( ) ( )
1 2
, , ...,
n
X t X t X t identicamente distribuiti e statisticamente
indipendenti, il processo
( ) ( )
1
1
n
i
i
Y t X t
n
=
=


ha una descrizione statistica che, al crescere di n, tende a quella di un processo
aleatorio gaussiano (indipendentemente dalle descrizioni dei processi
( ) ( ) ( )
1 2
, , ...,
n
X t X t X t )

7. Processi aleatori discreti nei valori

Anzitutto ricordiamo che un processo si dice discreto nei valori se, fissati gli istanti di
osservazione
1 2
, , ...,
n
t t t , le v.a. ( ) ( ) ( )
1 2
, , ...,
n
X t X t X t sono discrete e quindi descritte
dalla loro probabilità congiunta (probabilità di ordine n):
( ) ( ) ( ) ( )
1 1 2 2 1 1 2 2
, ; , ; ...; , , , ...,
n n n n n
p x t x t x t P X t x X t x X t x = = = =


In tal caso le medie statistiche vanno riscritte con le opportune sostituzioni; ad
esempio, se ( ) X t per ogni valore di t può assumere soltanto i valori
( ) ( ) ( ) 1 2
, , ...,
L
x x x
allora possiamo ridefinire “in maniera discreta”:
- il valor medio:
( )
( ) ( )
( ) 1
1
,
L
i i
i
E X t x P x t
=
=


;
- il momento del second’ordine:
( )
( ) ( )
( )
2
2
1
1
,
L
i i
i
E X t x P x t
=

=



;
- la funzione di autocorrelazione:

( ) ( ) ( )
( ) ( ) ( ) ( )
2
1 1
, , ; ,
L L
i l i l
X
i l
R t E X t X t x x P x t x t τ τ τ
= =

= − = −


∑ ∑
.
La stazionarietà e l’ergodicità si introducono in maniera assolutamente analoga a
quanto visto per i p.a. continui nei valori.

8. Processi aleatori tempo-discreti

Tale tipo di processo è rappresentato da una successione di variabili aleatorie
{ }
1 0 1
..., , , , ..., , ...
n n
X X X X X

=
(se sono continue processo continuo nei valori
se sono discrete processo discreto nei valori)
e le realizzazioni sono successioni
( )
{ }
i
n
x .
La descrizione statistica di questo tipo di processi aleatori è assolutamente analoga a
quella del caso tempo-continuo: bisogna però tenere presente che il tempo assume solo
certi valori (si può dire che procede “di quanto in quanto”). Possiamo dunque definire
(con riferimento a un p.a. suscettibile dei soli valori
( ) ( ) ( ) 1 2
, , ...,
L
x x x ):
- il valor medio:
[ ]
( ) ( )
{ }
( ) ( )
( ) 1
1 1
,
L L
i i i i
n n
i i
E X x P X x x P x n
= =
= = =
∑ ∑
;
- il momento del second’ordine:

( ) ( )
{ }
( ) ( )
( )
2 2
2
1
1 1
,
L L
i i i i
n n
i i
E X x P X x x P x n
= =

= = =


∑ ∑
;
- la funzione di autocorrelazione:

( ) [ ]
( ) ( ) ( ) ( )
2
1 1
, , ; ,
L L
i l i l
X n n k
i l
R n k E X X x x P x n x n k

= =

= = −

∑ ∑
.
I concetti di stazionarietà ed ergodicità possono essere introdotti analogamente ai casi
già considerati. In particolare:
- se il processo è WSS il valor medio non dipende dal tempo
[ ] [ ]
n
E X E X =
e la funzione di autocorrelazione dipende solo dalla distanza relativa k fra i due
istanti considerati
( ) ( ) ,
X X
R n k R k =
- la trasformata della funzione di autocorrelazione è:
( ) ( ) { } ( )
2 fkT
X S X X
f R k R k e
π


−∞

= = ⋅


T F
(sono state applicate le proprietà della trasformata di Fourier e in particolare
quella che fa corrispondere un fasore ad un ritardo)

9. Processi aleatori ciclostazionari e processi cicloergodici

Un processo aleatorio si dice ciclo stazionario se, per ogni
0
t kT = (con k un numero
intero e T pari al periodo),
( ) X t e ( ) ( )
0
X t t X t kT − = −
hanno la stessa descrizione statistica.
Ciò influisce, ovviamente, sulle densità di probabilità, che diventa periodica in t con
periodo T:
( ) ( )
1 1 2 2 1 1 2 2
, ; , ; ...; , , ; , ; ...; ,
n n n n n n
p x t x t x t p x t kT x t kT x t kT = + + +
Diventano periodici in t con periodo T anche:
- il valor medio:
( )
E X t


- la funzione di autocorrelazione:
( ) ( ) ( )
,
X
R t E X t X t τ τ = −


- la funzione di autocovarianza: ( ) ,
X
C t τ

I processi cicloergodici sono un sottoinsieme dei processi ciclostazionari: per essi i
rilievi statistici fatti su un insieme di istanti di osservazione Θ danno risultati
coincidenti con probabilità 1 con quelli dei corrispondenti rilievi temporali fatti
considerando istanti che differiscono per multipli di T da Θ.
Dunque, in questo caso, le variazioni che vedo verticalmente (medie verticali) posso
vederle anche orizzontalmente nella singola realizzazione, spostandomi da quel punto
di T in T. Ad esempio il valor medio “verticale”
( )
1
E X t

coincide, orizzontalmente, col
valor medio dei campioni presi sulla singola realizzazione ad ogni T. Un’altra
importante conseguenza è il fatto che, per un processo ciclo ergodico, qualunque media
statistica, mediata sul periodo T, coincide con la corrispondente media temporale
(fatta su tutto l’asse!). Infatti queste sono le espressioni de:
- il valor medio temporale: ( ) ( )
temporale statistico
1
d
T
x t E X t t
T
=

. .
;
- la funzione di autocorrelazione temporale:
( ) ( ) ( ) ( )
statistica temporale
1
, d
X x
T
x t x t R t t R
T
τ τ τ − = =

. .
;
- lo spettro di potenza:
( ) ( ) { }
x x
G f R τ = F
- la funzione di autocovarianza temporale:
( ) ( ) ( ) ( ) ( ) ( )
temporale statistica
1
, d
x X
T
C x t x t x t x t C t t
T
τ τ τ

= − − − =


. .

Come esempio prendiamo un
processo del tipo in figura: allo
scadere di ogni periodo T viene
“tirata a caso” la presenza o
meno di un bit (1 = arco di
sinusoide, 0 = nessuna
variazione). Tale processo non
è stazionario e neppure
ergodico (tant’è che i processi
possono tutti quanti essere 0
contemporaneamente): esso,
tuttavia, è ciclostazionario, in
quanto il valor medio letto
all’istante 1 è lo stesso di quello
letto all’istante 2 (vedi figura),
ed è pure cicloergodico, perché
tutte le realizzazioni hanno lo
stesso spettro di potenza. Le
medie verticali coincidono così
con le medie orizzontali e, conoscendo le peculiarità statistiche del processo su un
qualsiasi periodo T, conosco tutto.

10. Segnali PAM (Pulse Amplitude Modulation) aleatori

Sia
( )
( )
i
s t un segnale PAM generico: la sua espressione sarà
( )
( )
( )

( )
un
coefficiente
i i
n
n
s t a g t nT = −


Dunque, un segnale g(t) determinato e ad energia finita scelto opportunamente, viene
modulato di T in T da una serie di coefficienti
{ }
n
a .

Immaginiamo ora che
( ) i
n
a sia l’i-esima realizzazione di un processo aleatorio { }
n
A
ergodico e, evidentemente, tempo-discreto. Premesso questo, possiamo dire che pure
( )
( )
i
s t è un’i-esima realizzazione di un processo aleatorio S(t):
( ) ( )
n
n
S t A g t nT = −


(come esempio si prenda quello illustrato nel paragrafo 9!)
Ebbene, il processo che abbiamo fra le mani non è stazionario (perché il valor medio
temporale dipende da t), ma è cicloergodico.
Com’è possibile calcolarne il valor medio?
( ) [ ] ( ) [ ]

( )
processo ergodico implica
per linearità
processo stazionario: il
del valor ripetizione periodica della
valor medio non dipende
medio funzione : quind
dall'istante di calcolo

n
n n
g
E S t E A g t nT E A g t nT = − = −

∑ ∑
.
i la funzione
complessiva è periodica in T
.

NOTA: il valor medio statistico è periodico in t con periodo T.
Cerchiamo ora lo spettro del segnale e, nel fare questo, utilizziamo la serie di Fourier
(abbiamo fra le mani un segnale reale periodico!) e un simpatico trucchetto: nella serie
di Fourier compare, all’interno dell’espressione dei coefficienti, una trasformata
SERIE DI FOURIER: ( ) ( ) ( ) ( ) { }
2
1
con
j Tt
P n n
n n
x t x t nT c e c X f x t
T
π
= − = = =
∑ ∑
F
e noi faremo in modo che il segnale da trasformare sia quello della funzione g.
Riscriviamo dunque la formulazione del valor medio e mettiamo nella sua pancia la
serie di Fourier:
( ) [ ] ( ) [ ]
( ) ( )
[ ]
( ) { } 2
2 2
1
1
j Tt
n n
t t
j n j n
T T
n n n
g t
x t nT X f e
T
E A
n n
E S t E A g t nT E A G e G e
T T T T
π
π π
− =
| | | |
= − = =
| |
\ ¹ \ ¹
∑ ∑
∑ ∑ ∑
. .
F

Ecco che compare la funzione G!
Vogliamo ora trovare quest’ultima in maniera esplicita, in tre passi:
1) Troviamo la funzione di autocorrelazione statistica
( ) ( ) ( )
, R t E t t τ τ
Γ
= Γ − Γ −

.
2) Sfruttiamo la cicloergodicità e integriamo su un periodo, in modo da ottenere
( ) ( )
1
, d
T
R R t t
T
τ τ
Γ Γ
=

.
3) Trasformiamo secondo Fourier per trovare l’espressione del nostro spettro di
potenza
( ) ( )
X
G f R
γ
τ =

F .

PASSO 1

Prendiamo un processo aleatorio tempo-discreto a valor medio statistico nullo: per
ottenerlo prendiamo un processo qualsiasi di questo tipo (che ha dunque un valor
medio in generale diverso da 0) e – trucchetto! – togliamo da ogni elemento della
successione il valor medio stesso del processo in questione. Avremo una successione di
variabili aleatorie così definita:
{ } [ ] { }
n n
X A E A = − dove
[ ] [ ] [ ]
[ ]
[ ] 0
n n n
E A
E X E A E A E A E A
=
= − = − =

.

Come mai abbiamo escogitato questo artifizio (cit.)? Il motivo sta nel fatto che gli
n
A
(di cui sopra) sono, in realtà, i coefficienti di un processo PAM aleatorio formulato nel
seguente modo:
( ) ( ) ( ) ( ) ( ) [ ] ( ) ( )
trucco diabolico!
n
n n
S t S t E S t E S t A g t nT E A g t nT E S t = − + = − − − + =

∑ ∑
.

[ ] ( ) ( ) ( )
( )
( )
determinato i nuovi simboli
PAM a valor medio nullo e periodico
che chiamiamo
n
n n
n n
X
t
A E A g t nT E S t X g t nT E S t
Γ
= − − + = − +

∑ ∑
. .
.

Dunque, ricapitolando:
( ) ( ) ( )
S t E S t t = + Γ


con ( ) ( )
n
n
S t A g t nT = −

e ( ) ( )
n
n
t X g t nT Γ = −


NOTA: per come abbiamo definito la situazione ( ) S t è un segnale determinato
periodico, ( ) t Γ è un processo cicloergodico a valor medio nullo, la cui generica
realizzazione è:
( ) ( )
n
n
t x g t nT γ = −


Comunque sia, l’obiettivo di questo primo punto del problema è trovare la funzione di
autocorrelazione statistica
( ) ( ) ( )
, R t E t t τ τ
Γ
= Γ − Γ −

. Applichiamo dunque la
definizione e infiliamoci dentro le espressioni appena trovate:

( ) ( ) ( )
cambio
di indice
questa sì che è la funzione
di autocorrelazione statistica
di : essa, siccome il processo
è ergodico, dipende solo da !
n
n n k
n k
n k m
X
k
E X X g t nT g t n k T τ





= − − − −



∑ ∑

.

Dunque abbiamo ottenuto ciò che cercavamo, ovvero:
( ) ( ) ( ) ( ) ( )
,
X
n k
R t R k g t nT g t n k T τ τ
Γ
= − − − −
∑∑

NOTA: tale funzione è periodica in t con periodo in T.

PASSO 2

Per prima cosa cerchiamo la funzione di autocorrelazione temporale della generica
realizzazione:
( ) ( ) ( ) ( ) ( ) ( ) ( ) ( )
2 2
2 2
1 1
, d d
T T
X
n k T T
R t t R t t R k g t nT g t n k T t
T T
γ
τ γ γ τ τ τ
Γ
− −
= − = = − − − − =
∑∑
∫ ∫
( ) ( ) ( ) ( ) ( ) ( )

2 2
2 2
equivale ad un unico integrale che va da a +
1 1
d d
T T
nT
X X
k n k n T T
nT
R k g t nT g t n k T t R k g g kT
T T
ξ
τ ξ ξ τ ξ

− − −
−∞ ∞
| |
|
= − − − − = − − =
|
\ ¹
∑ ∑ ∑ ∑
∫ ∫

.


( ) ( ) ( ) [ ] ( ) ( )
NOTA: somiglia alla funzione
di autocorrelazione del processo
tempo-discreto
,
n
n m n m
n m n m
X
R t E X g t nT X g t mT E X X g t nT g t mT τ τ τ
Γ

= − − − = − − − =


∑ ∑ ∑∑
.
( ) ( ) ( )
( ) ( ) ( )
( ) ( )
è una è una funzione
successione del tempo
integrale di autocorrelazione:
d con
1 1
d
g
X X g
k k
R g g kT
R k g g kT R k R kT
T T
ψ ξ ξ ψ ξ ψ τ
ξ ξ τ ξ τ

−∞

−∞
= − = −
= − + = −

∑ ∑

. .
.
Quest’ultima espressione dell’autocorrelazione temporale di un segnale PAM aleatorio
è convenzionalmente esprimibile anche mediante convoluzione ibrida:
( ) ( ) { } ( )
1
X g
R R k R
T
γ
τ τ = ⊗

PASSO 3

Possiamo ora passare, finalmente, al calcolo della funzione spettro densità di potenza
della generica realizzazione:
( ) ( ) ( ) ( ) ( )
2 2
1
d d
j f j f
X g
k
G f R R e R k R kT e
T
π τ π τ
γ γ
τ τ τ τ τ
∞ ∞
− −
−∞ −∞
= = = − =


∫ ∫
F
( ) ( )
( ) { } ( ) { }
( ) { } ( )
2
2 2
definizione di trasformata di Fourier

1 1
d
j fkT
g g
j f j fkT
X g g X
k k
R kT R e
R k R kT e R e R k
T T
π
π τ π
τ τ
τ τ τ


− −
−∞
− ⇒ ⋅
= − = ⋅
∑ ∑

.
F F
F
Per continuare coi calcoli servono due considerazioni:
- anzitutto ricordiamo che la funzione di autocorrelazione si può scrivere anche
come: ( ) ( ) ( )
g
R g g τ τ τ ⊗ − ≜ ;
- facciamo poi riferimento alle proprietà della trasformata di Fourier:
seconda proprietà: trasformata di segnale reale

( ) { } ( ) ( ) { } ( ) ( ) ( ) ( ) ( )
2
prima proprietà: da convoluzione a semplice prodotto
*
g
R g g G f G f G f G f G f τ τ τ = ⊗ − = − = =
.
F F

Dunque nell’espressione dello spettro di potenza (quella definitiva) compare:
( )
( )
( )
2
2 j fkT
X
k
G f
G f R k e
T
π
γ

= ⋅


Essa può essere riscritta mantenendo – e non sviluppando – la trasformata di Fourier
(di una successione numerica)
( )
( )
( )
( ) { }
( )
( ) { }
2 2
2
S X
R k
j fkT
X S X
k
G f G f
G f R k e R k
T T
π
γ




= ⋅ =

F
F
La nostra lunga ricerca è finita!
Ora, volendo, possiamo sviluppare la sommatoria spezzandola in tre parti e applicando
la simmetria hermitiana propria dei segnali reali.
( )
( )
( )
( )
( )
( )
( ) ( )
il segnale è reale!
sf
2 2 2
2 2
spezziamo in tre parti spezziamo in tre parti
Re cos 2
j fkT j fkT
X X X
k k k
G f G f G f
G f R k e R k e R k fkT
T T T
π π
γ
π
∞ ∞ ∞
− −
=−∞ =−∞ =−∞
¦ ¹
¦ ¦
= ⋅ = ⋅ = ⋅
´ `
¦ ¦
¹ )
∑ ∑ ∑

ruttiamo la formula di Eulero
=

( )
( ) ( ) ( )
( ) ( )
( ) ( )
1
cambio di estremi cos 2
2
1
1
0 cos 2 cos 2
X
k
R k fkT
X X X
k k
G f
R R k fkT R k fkT
T
π
π π

=
⇒ − ⋅
− ∞
=−∞ =




= + ⋅ + ⋅ =




∑ ∑

( )
( ) ( ) ( )
( ) ( )
perché siccome il segnale è reale

2
1
0 2 cos 2
X X
R k R k
X X
k
G f
R R k fkT
T
π
= −

=



= + ⋅




Facciamo ora un passo indietro ed esaminiamo cosa succede alla generica
realizzazione del processo:
RICAPITOLANDO (vedi sopra per un’esposizione più completa):
( ) ( ) ( )
( ) ( ) ( ) ( ) con e
n n
n n
S t t E S t
S t A g t nT t X g t nT
¦ ¹ = Γ +

¦ ¦
´ `
= − Γ = −
¦ ¦
¹ )
∑ ∑

( ) [ ] ( ) [ ]
( ) ( )
[ ]
( ) { } 2
2 2
1
1
j Tt
n n
t t
j n j n
T T
n n n
g t
x t nT X f e
T
E A
n n
E S t E A g t nT E A G e G e
T T T T
π
π π
− =
| | | |
= − = =
| |
\ ¹ \ ¹
∑ ∑
∑ ∑ ∑
. .
F

generica realizzazione ( ) ( ) ( ) ( )
[ ]
2
t
j n
T
n
E A
n
s t t E S t t G e
T T
π
γ γ
| |
= + = +
|
\ ¹


Se di questa realizzazione cerchiamo la densità spettrale di potenza otteniamo:
( )
( )
( ) ( ) ( )
( )
2
2
modellato il fasore
attraverso Dirac
2
2
2
2
1
componente continua (spettro distirbuito )
0 2 cos 2
t
j n
T
n
S X X
k n
G f
E A
n
G e
T T
G f
E A
n n
G f R R k fkT G f
T T T T
γ
π
π δ

=

| |
|
\ ¹

| | | |

= + ⋅ + −
| |
\ ¹ \ ¹

∑ ∑

. .
( ) componente a righe che scappa fuori da E S t

OSSERVAZIONI:
- se [ ] 0 E A = lo spettro a righe scompare;
- la componente a righe scompare anche nel caso in cui, indipendentemente dal
valor medio, G è tale da far risultare
n
G
T
| |
|
\ ¹
sempre pari a zero;
- ricordiamo che
( ) [ ]
( )
[ ]
[ ]

[ ]
[ ]

( ) [ ]
2
n k
n
n n k x
E A
X n n k
n n k A
E A
x x R k
R k E X X
E A E A A E A R k E A


=


=
¦= =
¦
¦

| || |
=
´
| |
= − − = −
¦
| |
| |
¦

\ ¹\ ¹

¹

Dunque la funzione di autocorrelazione statistica non soltanto è pari alla
funzione di autocorrelazione temporale, ma coincide anche con una funzione di
autocovarianza delle A.

11. Qualche esempio di segnali PAM aleatori: codice bipolare puro

Diamo anzitutto lo schema sommario di quale sia il percorso intercorrente fra una
sorgente binaria e il segnale PAM completamente formato.

SORGENTE BINARIA
La sorgente binaria emette 1 bit ogni
b
T secondi (tempo di bit):
da questo dato si ricava anche la bitrate, che è definita come
1
r b
B T

= .
Un bit, in quanto bit, può assumere soltanto i valori {0,1}.
L’emissione della successione di bit { }
n
b è da considerarsi come una
realizzazione di { }
n
B , che è un processo aleatorio,
senza memoria e stazionario (e dunque ergodico).


CODIFICATORE
Il codificatore è un componente che associa a un certo
numero di bit un simbolo appartenente a un preciso
alfabeto (finito). Riceve dunque in entrata una successione
di bit { }
n
b ed emette, in output, una successione di simboli
{ }
n
a . I simboli vengono rilasciati ogni T secondi (tempo di simbolo);
analogamente a prima, si definisce la symbol-rate come
1
s
B T

= . Grazie
alla corrispondenza biunivoca fra i { }
n
b e gli { }
n
a , possiamo dire che
pure il processo { }
n
A è ergodico.


MODULATORE PAM
Il modulatore PAM possiede, nella pancia, un determinato impulso
g(t); riceve in ingresso i simboli generati dal codificatore e, in uscita,
rilascia ogni T secondi la funzione
n
a g(t), ovvero l’impulso g(t) modulato
da un certo coefficiente
n
a . La somma di tutti questi impulsi singolari
è la funzione ( ) ( )
n
n
s t a g t nT = −

. NOTA: il processo S(t) è cicloergodico!

Esaminiamo ora alcune codifiche notevoli e, per cominciare,
analizziamo quella concernente il codice bipolare puro. Esso
utilizza i simboli binari { } { } 1,1
n
a ∈ − , i quali sono posti in
corrispondenza biunivoca (cioè “in rapporto uno ad uno”, 1:1) con
la coppia {0,1}. Un esempio potrebbe essere quello mostrato in tabella (ma non è
l’unico, esistendo anche la versione duale con i simboli an invertiti). Per come abbiamo
definito questo processo il symbol-rate sarà uguale al bitrate, visto che il codificatore
emette un simbolo per ogni bit.

bn an
0 1
1 -1
Entrando un pelo più nello specifico, esemplifichiamo supponendo che la sorgente sia
bilanciata, ovvero che l’uscita del bit 0 sia probabile come l’uscita del bit 1. Si ha,
ovvero:
{ }
1
0
2
n
P B p = = = { }
1
1 1
2
n
P B p = = − =
Ora che disponiamo di dati numerici possiamo calcolare:
- il valor medio [ ]
n
E B :
[ ]
{ }

{ }

1 0
1
1 1 2 0 1 2
2
n n
P B P B
n
E B
= =
= ⋅ + ⋅ = ;
- il valor medio [ ]
n
E A :
[ ]
{ }
{ }

{ }
{ }

1 1
1 1
1 1 2 1 1 2 0
n n
n n
P A P A
P B P B
n
E A
=− =+
= = = =−
= − ⋅ + ⋅ = (NOTA: il fatto di
avere un valor medio nullo potrebbe risultare un ottimo vantaggio da sfruttare!)
- la funzione di autocorrelazione dei simboli { }
n
a , ovvero ( )
A
R k (NOTA: essendo
nullo il valor medio, tale funzione coincide con l’autocovarianza, vedi presso
“OSSERVAZIONI”, paragrafo 10): ( ) ( ) [ ]
il valor medio
è nullo!
A X n n k
R k R k E A A

= =
.
. Ora possiamo
discriminare due casi:
[ ]
[ ] [ ]
2
1 1
1 1 1
2 2
2
stiamo valutando il processo
in due istanti coincidenti
stiamo valutando il processo
in due istanti differenti
0
0 1
0 0
n
E A
n n n
n n k
k E A A E A
k E A E A

= ⋅ + ⋅ =


=
¦
¦
= → = =
¦
¦
´
¦
≠ → =
¦
¦
¹

.

Dunque la funzione di autocorrelazione/autocovarianza è così fatta:


12. Qualche esempio di segnali PAM aleatori: codice bipolare alternato (AMI,
Alterned Marked Inversion)

Il codice bipolare alternato (o
“pseudo-ternario”) utilizza i
simboli { } { } 1,0,1
n
a ∈ − : il principio
di codifica consiste nell’associare
al bit 0
n
b = il simbolo 0 e ai bit
1
n
b = alternativamente il simbolo
+1 e –1. Ancora una volta ad un
bit corrisponde un simbolo e
dunque la symbol-rate è uguale
alla bit-rate.
Passiamo ora al calcolo del valor
medio degli
n
A :
[ ] ( )
1 1 1
0 1 1 0
2 4 4
n
E A = ⋅ + ⋅ + − ⋅ =
La peculiarità di questo codice è dunque che il valor medio dell’uscita è zero
indipendentemente dal bilanciamento dei bit d’ingresso.

13. Qualche esempio di segnali PAM aleatori: codice multilivello

Il codificatore multilivello non genera un simbolo ogni l bit: di conseguenza, la symbol
rate è pari a
2
log
r r
B B
l L
= . Il numero dei livelli, che corrisponde all’ampiezza
dell’alfabeto di simboli, è dunque: 2
l
L =
2
log l L =
Infatti:
- se l = 1 alfabeto di 2 simboli

In questo caso, banalmente, il codice multilivello
diventa pari al codice bipolare.

- se l = 2 alfabeto di 4 simboli

Nel codice multilivello, come si nota, si generano
simboli che sono numeri dispari; si osservi poi che,
per quanto riguarda i bit
n
b , la codifica è quella del
codice Gray (tra una riga e l’altra cambia soltanto un
bit).

- se l = 3 alfabeto di 8 simboli

In questo esempio con tre livelli si vede ancora
meglio che, formalmente, i simboli generati sono
( ) ( ) 1 , ..., 5, 3, 1, 1, +3, +5, ..., 1 L L − − − − − + −
Anche qui si nota la codifica Gray (tra una codifica a
quella successiva vi è la differenza di un solo bit).
Ora troviamo il valor medio del processo:
[ ] ( ) ( )
1
1 ... 3 1 1 3 ... 1 0 E A L L
L
= − − − − − + + + + − =


E
Essendo nullo questo valor medio, lo spettro di
potenza del processo non avrà la componente a righe

14. Il problema della
predizione

Il problema della predizione è
un problema di fondamentale
interesse nel campo delle
comunicazioni elettriche:
saper prevedere i valori che
potrebbero derivare da un
processo aleatorio è infatti di
grande importanza in sede di
progetto.


n
b
n
a
0 +1
1 –1
n
b
n
a
00 –3
01 –1
11 +1
01 +3
n
b
n
a
000 –7
001 –5
011 –3
010 –1
110 +1
111 +3
101 +5
100 +7
Immaginiamo di avere un processo aleatorio tempo-discreto { }
n
X : un interessante e
possibile metodo di predizione consiste nel prendere n valori passati del processo e
moltiplicarli per dei coefficienti (che “pesano” tali valori); i risultati di questo
procedimento vengono quindi sommati insieme e confluiscono in una stima
n
X (che è
quindi una combinazione lineare dei valori precedentemente pescati).

Come facciamo a capire se la stima è buona? Esiste anzitutto un indicatore chiamato
errore di stima, così definito:
n n n
e X X = −
poi, fortemente correlato ad esso, si definisce anche il mean square error (MSE), che è
formulato nel seguente modo:
( )
2
2
n n n
MSE J E e E X X

= = = −



Per trovare i coefficienti che minimizzano l’errore, il componente chiamato MMSE
(minimal mean square error) predictor impone all’MSE la condizione di minimo
mediante la derivata parziale operata sui coefficienti:
0
i
J
a

=


Si può dimostrare che i coefficienti tirati fuori fissando questa condizione soddisfano
questo sistema di equazioni esposto in forma “matriciale”:
( )
( )
( )
( ) ( )
( )
( ) ( )
1
2
1 0 1
2 1
1 0
X X X
X X
X X X n
R R R N a
R R a
R N R N R a
| | | | − | |
| | |
| | |
=
| |
|
| |
|
| |

\ ¹ \ ¹ \ ¹
⋯ ⋯
⋯ ⋯ ⋮
⋮ ⋮ ⋯ ⋯ ⋮ ⋮
⋯ ⋯

III – MODULAZIONI

1. Concetti preliminari

Un segnale si dice passa-basso se, nel dominio delle frequenze, le componenti
significative sono concentrate attorno allo zero. Un esempio di segnale passa-basso è il
segnale audio: le componenti significative si trovano infatti tra 20 e 20.000 Hz (questo
range è anche detto banda del segnale).
Un segnale viene invece classificato come passa-banda se le sue componenti
significative sono tutte concentrate alle frequenze alte; fra i segnali di questo tipo vi
sono quelli la cui banda B si dice relativamente stretta (per i quali si ha precisamente
che 1
CC
B
f
<< , dove
CC
f è la frequenza centrale del segnale, ricavabile facendo la media
aritmetica fra gli estremi dell’intervallo di banda). Un esempio notevole di segnale
passa-banda è il segnale radio (v. oltre).

Una classificazione simile a quella appena fatta è riferibile anche ai sistemi LTI: un
sistema LTI si dice infatti passa-basso se la sua funzione di trasferimento H(f) è fatta
in modo tale da avere componenti significative intorno allo zero; altrimenti, un
sistema si dice passa-banda se la banda passante della H(f) è concentrata alle
frequenze alte.

Queste considerazioni sono di grande interesse per quanto riguarda i sistemi di
trasmissione delle informazioni:
- il cavo coassiale, quello del doppino telefonico, funziona come un sistema
passa-basso: i segnali a bassa frequenza, infatti, vi si propagano bene, mentre le
componenti ad alta frequenza si perdono per dispersione;
- il canale radio necessita invece di un segnale
passa-banda (il segnale radio).
La trasmissione avviene per mezzo di due antenne
(un’antenna trasmittente e un’antenna ricevente);
perché questo processo sia efficiente si devono avere
antenne di dimensione geometrica non molto
diversa dalla lunghezza d’onda: va dunque da sé
che, esistendo la relazione

velocità
della luce
0
c
f
λ = ,
e non potendosi costruire antenne di dimensioni chilometriche, si possano
trasmettere solo segnali passa-banda.

2. Modulazioni: principio e grandezze fisiche coinvolte

Le considerazioni appena fatte ci fanno apparire chiaro come sia di fondamentale
importanza trovare un modo per “spostare” la banda di un segnale lungo l’asse delle
frequenze. Con questa strategia risulta quindi possibile trasmettere segnali a bassa
frequenza, ad esempio, attraverso il mezzo radio (che è un canale implicitamente
passa-banda). Il percorso di un segnale è dunque schematicamente questo:

Sorgente analogica [segnale passa-basso x(t)] blocco modulatore [trasforma il
segnale in s(t), passa-banda] canale passa-banda demodulatore [componente
Frequenza
Lunghezza d’onda
(dimensione antenna)
30 Hz 10.000 Km
300 Hz 1.000 Km
300 kHz 1 Km
3 MHz 100 m
300 MHz 1 m
3 GHz 10 cm
30 GHz 1 cm
duale del modulatore, che dà in uscita un segnale passa-basso x’(t), che si spera il più
possibile simile a x(t)] destinatario.

Un po’ di terminologia:
- x(t) è detto segnale modulante;
- s(t) è l’oscillazione modulata.

Ovviamente, per la natura stessa del componente, un modulatore non può essere LTI:
dobbiamo sacrificare o la linearità o la tempo-invarianza per fare in modo che sia
possibile far nascere nuovi fasori (ovvero “traslare” in frequenza). Un sistema LTI,
invece, modifica soltanto ampiezza e fase di un segnale, non la locazione della sua
banda.

L’oscillazione modulata s(t) si ottiene generalmente con due ingredienti:
- il segnale modulante x(t);
- un riferimento alla
0
f alla quale si vuole trasportare il segnale: tale
riferimento può essere una portante sinusoidale

frequenza
0 0 0
ampiezza fase
iniziale
cos 2 V f t π ϕ
| |
|
+
|
|
\ ¹
.
Un segnale sinusoidale è intrinsecamente passa-banda, dunque è perfetto per i
nostri scopi! NOTA: la portante non veicola informazioni: dà solo indicazioni su
fase, modulo e frequenza “d’arrivo”. Una volta che si ha in mano la portante,
bisogna variarne i parametri in rapporto al segnale modulante: dunque questo
sarà l’aspetto della nostra oscillazione modulata
( ) ( )

( ) ( ) ( ) ( )

ampiezza
istantanea
0
fase
istantanea
cos 2 cos s t V t f t t V t t π ψ ϕ = + =

Si definiscono quindi le seguenti grandezze:
- pulsazione istantanea: ( )
( )
( )
d
d
t
t t
t
ϕ
ω ϕ = = ɺ ;
- frequenza istantanea: ( )
( ) ( )
2 2
t t
f t
ω ϕ
π π
= =
ɺ
;
- deviazione di ampiezza: ( )
0
V t V − ;
- deviazione relativa di ampiezza: ( )
( )
0
0
V t V
m t
V

= ;
- deviazione di fase: ( ) ( ) ( ) ( )
0 0 0
2 t t f t t α ϕ π ϕ ψ ϕ = − + = − ;
- deviazione di frequenza: ( ) ( )
( )
0
2
t
f t f t f
α
π
∆ = − =
ɺ
da cui si può ricavare,
integrando entrambi i membri ( )
( )
( ) ( ) d 2 d
2
t t
t
f t f K
α
ξ ξ α π ξ ξ
π
−∞ −∞
∆ = ⇒ = ∆ +
∫ ∫ ∫
ɺ


Con le nuove grandezze appena definite possiamo riscrivere l’oscillazione modulata:
( ) ( )
( )
( )
( ) ( )
( ) ( )
0
0 0 0
2
0 0 0
1 cos 2
V t V
m t
t t f t V
s t V m t f t t
α ϕ π ϕ
π α ϕ

=
= − −
= + + +




3. Modulazione in ampiezza (Amplitude Modulation, AM)

( )

( )
( )
sensibilità del
modulatore:
rende ( )
adimensionale
0
m t
a
m t k x t
t α
¦
¦
¦
´
=
¦
¦
=
¹
con
( ) ( )
( )
( )
( )
0 0
1 cos 2
V t
a
m t
s t V k x t f t t π α


= + +


.

( )
0
0
t ϕ
ϕ
| |
|
+
|
\ ¹

Nella modulazione in
ampiezza il segnale di tipo
passa-basso fa da
l’inviluppo per l’oscillazione
modulata, che eredita dal
segnale portante (la
sinusoide) i punti di
intersezione con lo zero.
Dove il segnale modulante è
maggiore di zero,
l’oscillazione modulata sarà
più intensa della portante;
viceversa, nelle parti
corrispondenti ai valori in
cui il segnale x(t) diventa
negativo, la s(t) sarà una
versione attenuata della
s0(t).
Tale tipo di modulazione in
ampiezza nasconde l’insidia
della sovramodulazione:
essa avviene quando il
blocco modulatore è troppo
sensibile (
a
k molto alto) oppure
quando il segnale passa-basso
x(t) è già intrinsecamente molto
“ampio”. In situazione di
sovramodulazione capita che
V(t) diventa negativo (e quindi
che –V(t) diventa positivo):
dunque le due “pareti”
dell’inviluppo si accavallano e il
segnale s(t) non è più un
rappresentante attendibile del
segnale modulante. Inoltre
abbiamo il fenomeno dell’inversione di fase (vedi disegno). Per evitare queste
spiacevolezze deve accadere che ( ) 0 V t ≥ per ogni t. Dunque, osservando l’espressione
dell’oscillazione modulata, bisogna imporre:
( ) ( )
( )
( )
( )
0 0
1 cos 2
V t
a
m t
s t V k x t f t t π α


= + +


.

( )
0
0
t ϕ
ϕ
| |
|
+
|
\ ¹

( )
( )
0
1 0
a
m t
V k x t


+ ≥



.

( )
( )
1 0
a
m t
k x t + ≥
.

Ora introduciamo il concetto di indice di modulazione di ampiezza:
( ) ( ) ( )
max max max
a a a
m m t k x t k x t = = =
Se il segnale ha una dinamica ben definita, ovvero se è chiaramente contenuto, nei
valori d’ampiezza, all’interno di un intervallo (che ora prendiamo per semplicità
simmetrico e pari a [–M, M]), possiamo allora formulare tale indice nel seguente modo:
( )
max
a a a
m k x t k M = =
Dunque ( )
( )
1 0
a
m t
k x t + ≥
.
sarà sicuramente vera se ( ) 1 0
a
k M + − ≥ (se l’ampiezza di s(t) è
ancora maggiore di zero per l’oscillazione “negativa” più ampia, vuol dire che tutte gli
altri valori non sono pericolosi). Alla fine otteniamo un’importante condizione sulla
sensibilità del modulatore, che è la seguente:
( )
1
1 0 1
a a a
k M k M k
M
+ − ≥ ⇒ ≥ ⇒ ≤

4. Modulazione di fase (Phase Modulation, PM)

( )
( )
( )

sensibilità del
modulatore:
conferisce a
dimensione [rad]
0
( )
p
t
m t
t k x t
α
α
¦ =
¦
= ¦
´
¦
¦
¹
con ( )
( )

( ) ( )
( )
0 0 0
cos 2
t
V t
p
s t V f t k x t
ϕ
π ϕ = + +

NOTA: ( ) ( )
( )
0
d
( )
d
( )
2 2 2
p
p
k x t
k t
t
f t f t f x t
α
π π π
∆ = − = = =
ɺ
ɺ

Come si nota dalle
relazioni appena scritte,
l’oscillazione modulata
non varia più in ampiezza
(si vede anche dal disegno
che s(t) ha ampiezza
costante), bensì il suo
andamento si modella in
base all’entità della
derivata di x(t): dove il
segnale modulante ha
derivata positiva, s(t) ha
un andamento più
“rapido” (si nota che la
fase varia più velocemente
e la frequenza, di conseguenza, aumenta). Viceversa, dove la derivata è negativa, il
segnale s(t) si “spancia” e la sua frequenza cala.

È questo un primo esempio di modulazione d’angolo (il secondo esempio sarà quello
che si vedrà nel paragrafo 5): in questo contesto si parla quindi di indice di
modulazione angolare; esso è così definito:
( )
max
p
m t α =
Nel caso particolare in cui il segnale modulante è una sinusoide (di frequenza
m
f ) si
introduce poi un indice più specifico, ovvero l’indice di modulazione di frequenza:
( ) max
f
m
f t
m
f

=

5. Modulazione di frequenza (Frequency Modulation, FM)

( )
( )
( )

sensibilità del
modulatore:
conferisce a
dimensione [Hz]
0
( )
f
f t
m t
f t k x t

¦ =
¦
∆ = ¦
´
¦
¦
¹
con
( )
( )

( )
( )
( )
0 0 0
cos 2 2 d
t
V t
t
f
t
s t V f t k f
ϕ
α
π π ξ ξ ϕ
−∞
| |
|
|
= + ∆ +
|
|
\ ¹

.


Anche in tale modulazione
l’ampiezza dell’oscillazione
modulata è costante: quel
che varia è la frequenza di
s(t). Dove il segnale
modulante x(t) è maggiore
di zero la frequenza di s(t)
sarà maggiore della
frequenza della sinusoide
portante; d’altro canto,
dove x(t) è < 0, allora
l’oscillazione modulata
avrà una frequenza
inferiore a quella di s0(t).

Per quanto riguarda l’indice di modulazione angolare, consulta il paragrafo 4.

6. Modulazioni ibride (APM, Amplitude Phase Modulation)

Nelle cosiddette modulazioni ibride il segnale modulante modula
contemporaneamente in ampiezza ( ) V t e fase ( ) t ϕ . In base a questo principio, posso
“trasportare”, su una sola portante, due segnali: con uno dei due modulo la fase, con
l’altro modulo l’ampiezza. Dunque, operando nel seguente modo si ha che

( ) ( ) ( ) ( ) ( )
0 1 0 2 0
1 cos 2
a p
s t V k x t f t k x t π ϕ = + + +

7. Circuiti di modulazione e di demodulazione; esempio notevole:
demodulatore AM ad inviluppo

Il modulatore d’ampiezza ha, come
simbolo grafico, quello affianco; tale
componente riceve in ingresso il segnale
modulante e la portante: dopodiché li
compone e, dà in uscita, l’oscillazione
modulata (come si vede in figura).
Il modulatore di fase è disegnato in un
modo molto ma molto simile a quello
d’ampiezza, come si vede facilmente
nell’immagine accanto. Ancora una volta
si hanno in ingresso il segnale modulante
x(t) e la portante ( )
0
s t e, in output,
l’oscillazione modulata per fase.

Per quanto riguarda il modulatore di
frequenza c’è da fare qualche
considerazione in più.
Anzitutto è necessario dire che
non serve una portante in
ingresso in quanto l’oscillatore
è già incorporato all’interno
del modulatore stesso (VCO:
Voltage Controlled Oscillator).
Inoltre, come componente, il
modulatore di frequenza ha la
peculiarità di sostituire quello
di fase se, in ingresso, gli
diamo in pasto il segnale
modulante derivato. In figura
si riporta come devono essere
collegati i vari componenti del circuito in questione e la dimostrazione rigorosa di come
sia possibile ottenere un segnale modulato in fase con un modulatore FM.

Per quanto riguarda i circuiti di demodulazione, non vi è quasi nessuna differenza nei
simboli grafici (si nota soltanto l’assenza della portante).

Per i circuiti di demodulazione si fa un distinguo fra:
- circuiti coerenti: sono quelli in grado di demodulare un segnale solo se conoscono
una replica della portante;
- circuiti non coerenti: non hanno bisogno di una replica locale della portante per
demodulare un segnale.
Fra i circuiti non coerenti
un demodulatore notevole
(del quale si dà lo schema
circuitale qui affianco) è
quello AM cosiddetto a
inviluppo.
Il principio di funzionamento di questo
circuitino è molto ingegnoso: per
comprenderlo, supponiamo che il diodo sia in
conduzione (con caduta di potenziale nulla ai
suoi capi). Inizialmente, visto il parallelo fra
i componenti, la tensione d’ingresso [data da
( )
AM
s t ] sarà sicuramente uguale a quella
dell’uscita [il segnale
`
( ) V t , che – come
vedremo – somiglia molto all’inviluppo
( ) ( ) ( )
0
1
a
V t V k x t = + ]. Non appena il segnale
d’ingresso arriva su una cresta (un massimo
relativo) e comincia a diminuire, la tensione
d’uscita smetterà di essere uguale a quella
d’ingresso perché la presenza del
condensatore rallenta il processo con una
scarica (di tipo RC), più lenta dell’andamento decrescente di ( )
AM
s t . Dunque il diodo si
interdirà per poi riattivarsi [e ripristinare l’uguaglianza
`
( ) V t = ( )
AM
s t ] non appena il
l’oscillazione modulata ( )
AM
s t tornerà ad essere pari al valore della tensione d’uscita.
Si intuisce facilmente che è di fondamentale importanza dimensionare bene la costante
di tempo del circuito, in modo che la scarica abbia la giusta velocità e insegua
adeguatamente l’inviluppo.

8. Analisi spettrale del segnale AM

Prendiamo l’espressione di un segnale modulato AM e distribuiamo il prodotto:
( ) ( ) ( ) ( )
0
1 cos 2
AM a
s t V k x t ft π = + ( ) ( ) ( ) ( )
ricompare la portante
0 0
termine di modulazione a prodotto
cos 2 cos 2
AM a
s t V ft k V x t ft π π = +

.

Ora distinguiamo due casi:
1) segnale x(t) ad energia finita. Se il segnale è ad energia finita, sicuramente
ammette la trasformata di Fourier
( ) ( )
x t X f =

F . Calcoliamola sfruttando la
linearità della trasformata e, quindi, separando la prima componente (portante)
dalla seconda (termine modulato a prodotto):
Prima componente: ( ) ( ) ( )
0 0
0 0 0 0
cos 2
2 2
V V
V f t f f f f π δ δ = − + +

F (NOTA: è a righe)
Seconda componente: ( ) ( ) ( ) ( )
0 0
0 0 0
cos 2
2 2
a a
a
k V k V
k V x t ft X f f X f f π = − + +

F
(NOTA: è continua)

Qui a fianco si vede
come le due
componenti
vengono graficate.





Come si nota, siamo davvero poco efficienti per quanto riguarda:
- occupazione di banda: il segnale modulato S(f) occupa infatti il doppio della
banda rispetto al segnale di partenza X(f);
- potenza: ne “sprechiamo” una parte per trasmettere la portante e molta anche
per trasmettere il segnale modulato (che, come dicevamo, ha una banda davvero
larga)
2) segnale x(t) a potenza finita. Anche il segnale modulato sarà a potenza
finita e possiamo, di quest’ultimo, trovare la densità spettrale di potenza:
( ) ( ) ( ) ( ) ( )
2 2 2 2 2 2
0 0 0 0
0 0 0 0
4 4 4 4
a a
S x x
V V k V k V
G f f f f f G f f G f f δ δ = − + + + − + +
Come nel caso precedente, c’è una componente a righe e una componente continua
(il disegno è analogo a quello del caso precedente, con di GS(f) al posto S(f) e GX(f)
al posto di
( )
X f ) e pure in questo caso abbiamo degli inconvenienti, analoghi a
quelli esaminati poco fa.

9. Varianti (ibride) di modulazione AM: DSB-SC, SSB

Dal punto di vista della potenza trasmettere la portante è uno spreco: se però
disponiamo di un demodulatore coerente, è necessario trasmettere un residuo
(possibilmente molto debole) di portante, in modo che si possa eseguire la
demodulazione. Abbiamo però un’altra
possibilità: possiamo decidere di non
trasmettere la portante a patto di
poterla ricostruire – lato ricevente –
con un circuito apposito. A tal proposito
definiamo (con riferimento al disegno di
prima) la upper e la lower side band (v.
immagine).
Ora possiamo formulare un’espressione
alternativa per l’oscillazione modulata:
( ) ( ) ( ) ( ) ( )
0
portante segnale di segnale di segnale di
upper side band lower side band double side band
AM USB LSB DSB
s t s t s t s t s t = + + ≡



Esaminiamo ora da vicino tre varianti (ibride) per la modulazione in ampiezza:
- DSB – SC (Double Side Band Suppressed Carrier – portante soppressa): è
detta anche modulazione a prodotto, in quanto l’oscillazione modulata è così
strutturata
( ) ( ) ( )
0
cos 2 s t x t f t π = (a meno di
0
V ) ( ) ( )
0
portante
DSB SC
s t s t

=

( ) ( )
segnale di segnale di
upper side band lower side band
USB LSB
s t s t + +


In effetti, il circuito modulatore è semplicissimo: esso è costituito da un
modulatore a prodotto che moltiplica x(t) (segnale modulante) per una sinusoide
a frequenza
0
f generata da un oscillatore.
Lo spettro di potenza di s(t) (oscillazione modulata) è lo stesso di quello del caso
DSB, ma senza la riga della portante. Eccone infatti la formulazione:
( ) ( ) ( )
0 0
1 1
4 4
S X X
G f G f f G f f = − + +
[NOTA: rispetto al caso DSB manca proprio il termine ( ) ( )
2 2
0 0
0 0
4 4
V V
f f f f δ δ − + + ]
Diamo ora uno sguardo al demodulatore:

Il demodulatore è coerente perché possiede una copia locale della portante, la
quale viene moltiplicata per ( ) ( ) ( )
0
cos 2 s t x t f t π = così che un termine di coseno
al quadrato: ( ) ( ) ( ) ( )
2
0 0
cos 2 cos 2 s t f t x t f t π π = .
Formula di bisezione:
2
1 cos2 1 cos2
cos cos
2 2
α α
α α
+ +
= ± ⇒ =
( ) ( ) ( ) ( ) ( )
( )

( )
( ) ( )
2
0 0 0
segnale in
banda base
1 1
cos 2 cos 2 2 cos 2 2
2 2 2 2
x t x t
x t f t x t f t f t π π π

= + = +


segnale modulato a prodotto
che viene eliminato dal filtro
passa-basso a valle del circuito
.

Abbiamo dunque in uscita il segnale originario (con ampiezza dimezzata, ma
questo non è un problema, basta moltiplicare per 2 e il gioco è fatto!).
Problema: la copia locale della portante dev’essere perfettamente in fase con la
portante del segnale. Come evitare che ciò – per qualche motivo – non accada?
La soluzione sta nell’integrare, all’interno del demodulatore, un circuito non
lineare di carrier recovery (ricostruzione della portante), il quale riforma la
portante e la fa combaciare col segnale DSB-SC.

NOTA: potevamo, in alternativa, ragionare secondo Fourier.
Prendiamo l’oscillazione modulata
( ) ( ) ( )
0
cos 2 s t x t f t π =
Se la trasformiamo secondo Fourier abbiamo che:
( ) { } ( ) ( ) { } ( ) ( ) ( )
0 0 0
1 1
cos 2
2 2
s t x t f t X f f X f f S f π = = − + + = F F
Se vogliamo riottenere X(f) utilizziamo un piccolo trucchetto; prendiamo la S(f),
la trasliamo tutta di
0
f e poi sommiamo quel che otteniamo con la stessa S(f)
traslata di
0
f − : quindi, facciamo passare il tutto per il filtro passa-basso.
( ) ( ) ( ) ( )
0 0
0 0 0 0 0 0 0 0
traslazione di traslazione di
1 1 1 1
2 2 2 2
f f
X f f f X f f f X f f f X f f f
+ −
− + + + + + − − + + − =
. .

( ) ( ) ( ) ( ) ( )
0 0
mangiato dal passa-basso mangiato dal passa-basso
1 1 1 1
2 2
2 2 2 2
X f X f f X f f X f X f + + + − + =
. .
Et voilà!
Apriamo ora una piccola parentesi e vediamo cosa succede se, per qualche
motivo, non vi perfetta è sincronia fra la portante del modulatore e quella del
demodulatore e cioè se abbiamo
( )
0
portante 1 (modulatore) cos 2 f t π →

errore!
0
portante 2 (demodulatore) 2cos 2 f t π
| |
→ − ∆ |
|
\ ¹

Se chiamiamo p(t) il segnale che esce dal modulatore a prodotto presente nel
blocco di demodulazione, allora si ha
( ) ( ) ( ) ( )
( ) ( )
( ) ( ) ( )
0 0 0
1 1 elliminato dal filtro passa-basso
cos cos cos cos
2 2
2 cos 2 cos 2 cos cos 4 p t x t f t f t x t x t f t
α β α β α β
π π π
= + + −
= − ∆ = ∆ + − ∆
. .

Dunque il ricevitore ottiene una versione attenuata di x(t):
( )
caso migliore, tutto resta com'è cos 1
cos attenuazione 0 cos 1
caso peggiore, il segnale scompare cos 0
x t
∆ = ¦
¦
∆ = < ∆ <
´
¦
∆ =
¹

VANTAGGI: non dobbiamo trasportare la portante assieme al segnale, dunque
risparmiamo in potenza.
SVANTAGGI: non abbiamo risparmi di banda.
- SSB (Single Side Band): è detta anche conversione di frequenza. Il principio di
questa modulazione ibrida è quello di “spedire” o solo la USB o solo la LSB, più
la portante:
( )
( )
( )
segnale di
upper side band
segnale di
lower side band
USB
SSB
LSB
s t
s t
s t
¦
¦
¦
=
´
¦
¦
¹

Questo sarà dunque lo spettro di potenza del segnale trasmesso [quello ai lati: la
parte in banda passante si riferisce al segnale originario x(t)]:

Se prendiamo come esempio una modulazione SSB in cui si conserva e si
spedisce solo la USB, allora il modulatore (detto “convertitore di frequenza in
salita”, perché converte da frequenze basse a frequenze alte) è costituito dalla
serie di:
- un modulatore DSB-SC (a prodotto), che moltiplica il segnale modulante
x(t) per il termine ( )
0
cos 2 f t π ;
- un filtro passa-alto che elimina la componente LSB. NOTA: questo filtro
dev’essere piuttosto severo, in quanto il suo compito è eliminare la LSB
senza distorcere la USB. Il problema è che LSB e USB sono fra loro molto
ravvicinate! Per questo, come vedremo, si utilizza la VSB, preferendo
sacrificare un pochino più di banda alla possibilità di incorrere nel rischio
di una pericolosa distorsione.
Il demodulatore (detto “convertitore di frequenza in discesa”, perché converte da
frequenze alte a frequenze basse) è invece fatto così:
- un modulatore a prodotto che moltiplica il segnale modulante x(t) per il
termine ( )
0
cos 2 f t π in serie con…
- … un filtro passa-basso (che è poi il solito!).
Anche in questo caso, come in quello precedente, possiamo (con considerazioni
preliminari analoghe) ragionare secondo Fourier: se prendiamo la trasformata
dell’oscillazione modulata, la trasliamo di
0
f e poi la sommiamo alla stessa
funzione traslata però di
0
f − , otteniamo due USB “isolate” alle alte frequenze
(che vengono sgranocchiate dal filtro passa-basso) e la trasformata di X(t) in
banda-base (che invece sopravvive).
VANTAGGI: risparmiamo il 50% della banda rispetto a quella necessaria per
l’ordinaria modulazione AM!
SVANTAGGI: possibile distorsione dovuta al filtro passa-alto del modulatore.
- VSB (Vestigial Side Band): questa modulazione ha la strana particolarità di
essere “una SSB venuta male”. Viene adottata per i motivi espressi nel caso
precedente (quelli riguardanti i requisiti del filtro passa-alto) e per il fatto che è
difficile utilizzare altre modulazioni con i segnali in banda-base che contengono
anche la continua (frequenza f = 0), come ad esempio il segnale televisivo. Nella
VSB bisogna immaginare di ritagliare l’oscillazione modulata (e quindi lo
spettro del segnale “doppio” traslato a
0
f + e
0
f − ) con un filtro passa-alto (anche
non severo), ma senza la rigorosa simmetria che caratterizzava la LSB e la
USB. Qui, infatti, prendiamo “un po’ più di metà” delle frequenze della
componente positiva e negativa del segnale. Ad esempio, nel caso televisivo (5
MHz di banda, 10 MHz di occupazione) prendiamo, dai 10 MHz che si trovano
alla frequenza
0
f + e dai 10 MHz a
0
f − un po’ più di 5 MHz (precisamente 6,25
MHz da ambo le parti).
VANTAGGI: risparmiamo abbastanza banda rispetto al caso AM (anche se non
arriviamo all’eclatante 50% della SSB);
SVANTAGGI: possiamo modulare segnali in banda base senza problemi di filtri.

10. Modulazione QAM (Quadrature Amplitude Modulation)

Con la modulazione QAM trasmettiamo due segnali nella stessa banda: sembra
impossibile, ma non è magia nera! Vediamo come si opera: prendiamo due segnali
modulanti ( )
1
x t e ( )
2
x t
- il primo segnale [ ( )
1
x t ] viene dato a un modulatore a prodotto, che lo
moltiplica per un termine ( )
0
cos 2 f t π ;
- il secondo segnale [ ( )
2
x t ] viene dato a un altro modulatore a prodotto, che lo
moltiplica per un termine
( )
( )
0 0
cos 2 sin 2
2
f t f t
π
π π + = − , in quadratura rispetto a
( )
0
cos 2 f t π (NOTA: il sfasatura di 2 π si crea utilizzando un opportuno blocco di
ritardo. I modulatori a prodotto di cui stiamo parlando usano infatti una sola
portante, la quale viene offerta una volta così com’è e la un’altra volta ritardata,
appunto, di 2 π . Se così non fosse potrebbe esserci serio pericolo di non ottenere
la corretta sfasatura a causa di mancato sincronismo fra i due oscillatori delle
portanti).
A questo punto sommiamo i due segnali per ottenere s(t), l’oscillazione modulata che
spediamo nel mezzo passa-banda.
( ) ( ) ( ) ( )
( )
( ) ( ) ( ) ( )
1 0 2 0 1 0 2 0
cos 2 cos 2 cos 2 sin 2
2
s t x t f t x t f t x t f t x t f t
π
π π π π = + + = −
Ora esaminiamo il demodulatore: esso porta il segnale s(t) a due modulatori a prodotto
con diversa portante…
- il primo dei due ha portante ( )
0
2cos 2 f t π e dà, in uscita, un segnale che
chiamiamo ( )
I
P t (I sta per “in fase”) e che ha la forma
( ) ( ) ( ) ( ) ( ) ( )
1 0 2 0 0
cos 2 sin 2 2cos 2
I
P t x t f t x t f t f t π π π = − =


( ) ( )
( )
( ) ( ) ( )
( )
0
0
2
1 0 2 0 0
trucchetto!! trucchetto!! sin 2 2
1 1
cos 2 2
2 2
2 cos 2 2sin 2 cos 2
f t
f t
x t f t x t f t f t
π
π
π π π
→ = ⋅
= + ⋅
= − =
. .

( ) ( ) ( ) ( )
1 0 2 0
1 1
2 cos 2 2 sin 2 2
2 2
x t f t x t f t π π

= + ⋅ − ⋅ =



( ) ( ) ( ) ( ) ( )
1 1 0 2 0
componenti ad alta frequenza mangiate dal filtro passa-basso
cos 2 2 sin 2 2 x t x t f t x t f t π π = + ⋅ − ⋅
.
( )
1
x t =
Come si specifica nel procedimento appena illustrato, quel che esce fuori è
soltanto il segnale (di partenza!) ( )
1
x t , perché tutte le altre componenti vengono
eliminate da un filtro passa-basso che mettiamo a valle del modulatore a
prodotto;
- il secondo dei due ha portante ( )
0
2sin 2 f t π − e dà, in uscita, un segnale che
chiamiamo ( )
Q
P t (Q sta per “in quadratura”) e che ha la forma
( ) ( ) ( ) ( ) ( ) ( )
1 0 2 0 0
cos 2 sin 2 2sin 2
Q
P t x t f t x t f t f t π π π = − − =


( ) ( ) ( )
( )
( ) ( )
( )
0
0
2
1 0 0 2 0
trucchetto!! trucchetto!! sin 2 2
1 1
cos 2 2
2 2
2sin 2 cos 2 2 sin 2
f t
f t
x t f t f t x t f t
π
π
π π π
→ = ⋅
= − ⋅
= − + =
. .

( ) ( ) ( ) ( )
1 0 2 0
1 1
sin 2 2 2 cos 2 2
2 2
x t f t x t f t π π

= − ⋅ + − ⋅ =



( ) ( ) ( ) ( )
1 0 2 0
debellati dal filtro passa-basso
sin 2 2 cos 2 2 x t f t x t f t π π = − ⋅ − ⋅
.
( ) ( )
2 2
x t x t + =
Anche questa volta un filtro passa-basso all’uscita del modulatore in questione
elimina tutte le componenti ad alta frequenza e lascia intatto solo il segnale
( )
2
x t . (NOTA: anche nel demodulatore la sfasatura di 2 π che vi è fra le
portanti dei modulatori a prodotto si crea utilizzando un opportuno blocco di
ritardo e un solo oscillatore. I modulatori a prodotto di cui stiamo parlando
usano infatti una sola portante, la quale viene offerta una volta così com’è e la
un’altra volta ritardata, appunto, di 2 π . Se così non fosse potrebbe esserci serio
pericolo di non ottenere la corretta sfasatura a causa di mancato sincronismo fra
i due oscillatori. Inoltre, si usa un circuito di carrier recovery per essere sicuri
che ci sia la corretta corrispondenza fra demodulatore e modulatore).

Dunque è proprio vero! In una sola banda convivono due segnali i quali, in frequenza,
sono sovrapposti in un intervallo di banda che è di 2
m
f . Per capire meglio questa
affermazione trasformiamo l’oscillazione modulata e vediamo come è fatta nel dominio
delle frequenze:
( ) ( ) ( ) ( )
( ) { } 1 0 2 0
cos 2 cos 2
2
S f x t f t x t f t
π
π π = + + = F
( ) ( )
( ) ( )
( ) ( )
( )
( )
( ) ( )
1 0
2 0 2 0
1 0 1 0 2 0 2 0
questa parte deriva da cos 2
questa parte deriva da
cos 2 sin 2
2
1 1 1 1
2 2 2 2
x t f t
x t f t x t f t
X f f X f f j X f f X f f
π
π
π π + = −

= − + + + − + +


.
.

Qui si nota bene che ( )
2 0
X f f − è sovrapposta a ( )
1 0
X f f − e che lo stesso accade fra
( )
2 0
X f f + e ( )
1 0
X f f + .

Piccola parentesi: cosa accade se, per qualche motivo, le oscillazioni dei modulatori a
prodotto non sono ben sincronizzate? Prendiamo ad esempio il demodulatore e
introduciamo un certo sfasamento ∆ fra le portanti

Calcoliamo ( )
I
P t [segnale in uscita del demodulatore a prodotto con portante
( )
0
cos 2 f t π − ∆ ]:
( ) ( ) ( ) ( ) ( ) ( ) ( ) ( )
0 1 0 2 0 0
2 cos 2 2 cos 2 sin 2 cos 2
I
P t s t f t x t f t x t f t f t π π π π = − ∆ = − − ∆ =


( ) ( )
1 2
cos 2 sin termini ad alta frequenza (eliminati dal passa-basso) x t x t = ∆ − ∆ +
Come si vede dalla figura e dalla formulazione di ( )
I
P t , lo sfasamento è
pericolosissimo perché ha il doppio effetto di:
- attenuare il segnale utile [ovvero ( )
1
x t presso ( )
I
P t e ( )
2
x t presso ( )
Q
P t ];
- amplificare il segnale sbagliato [ovvero ( )
2
x t ove sussiste ( )
I
P t e ( )
1
x t in
luogo di ( )
Q
P t ].
Ancora una volta, un grande vantaggio (il risparmio di banda) ottenuto con tanta
fatica viene pagato a caro prezzo: un piccolo errore, infatti, finisce per avere un
grandissimo peso!


11. Spettro di potenza per modulazioni d’angolo (PM, FM): la banda di
Carson

Come già abbiamo visto per quanto riguarda le modulazioni d’angolo, questa è
l’espressione dell’oscillazione modulata:
( ) ( ) ( )
0 0
cos 2 s t V f t t π α = +
Purtroppo ( ) t α incarna una relazione fortemente non lineare, che non ci permette di
trovare matematicamente l’espressione dello spettro di potenza, né nella maniera
usuale, né in nessun’altra. Esiste tuttavia una relazione “empirica” che riesce a darci,
a grandi linee, l’estensione della banda del segnale modulato ad angolo (banda di
Carson):
( )

massima
deviazione
di frequenza
max
max
2
m
f t
B f f
= ∆
| |
|
|
= ∆ +
|
|
|
\ ¹

In base alla modulazione scelta, la massima deviazione di frequenza avrà una diversa
espressione:
CASO FM:
f
k M = (M è la dinamica del segnale)
CASO PM: = ( )
1
max
2
p
k x t
π
ɺ

Comunque sia, pare evidente che un segnale modulato con modulazione d’angolo
occupa una banda molto superiore a quella del caso AM. Infatti
( )

max max
mod. AM
modulazione d'angolo espressione della
banda di Carson
2 2 2 2
m m m
f f f f f ∆ + = ∆ + >
. .

A titolo d’esempio, la
max
f ∆ di un segnale FM (del tipo che si riceve abitualmente con la
radiolina tascabile) è di 75 KHz, mentre la sua
m
f è di “soli” 15 KHz. Dunque un
segnale AM di equivalente frequenza occuperebbe 30 KHz contro i 180 KHz che si
hanno in modulazione di frequenza. Fatta questa considerazione si potrebbe pensare
che le modulazioni d’angolo siano svantaggiose in toto: in realtà esse hanno la
peculiarità di avere un inviluppo (cioè un’ampiezza) costante, particolare che facilita
molto la costruzione dei circuiti di modulazione/demodulazione e che rafforza la
resistenza ai disturbi. Le modulazioni d’ampiezza, che proprio nell’inviluppo portano
l’informazione, sono – sotto questo aspetto – maggiormente attaccabili.

Nonostante la forma dello spettro di potenza di un segnale modulato PM/FM sia
imprevedibile, si possono ancora una volta fare considerazioni qualitative ed empiriche
riguardo ad esso; se prendiamo, per semplicità, un segnale modulante di tipo
sinusoidale (che ha una trasformata a righe), avremo:
- nel caso AM: due righe per la portante (a frequenza
0
f + e
0
f − ) e quattro righe
(due nella parte positiva e due nella parte negativa) per il segnale modulato;
- nel caso d’angolo (FM/PM): tante righe attorno alle frequenze
0
f + e
0
f − , tutte
con passo
m
f .
12. FDM, Frequency Division Multiplexing (modulazione di segnali a
divisione di frequenza)

Si tratta di una tecnica che permette di inviare attraverso uno stesso mezzo passa-
banda più segnali passa-basso opportunamente modulati a diverse (e opportune)
frequenze
1
f ,
2
f , …,
n
f . Dal punto di vista del ricevente, è possibile ottenere l’i-esimo
segnale passa-basso spedito sapendo a che frequenza quest’ultimo è stato lanciato e
utilizzando un opportuno demodulatore. Ecco lo schema di funzionamento
(nell’esempio i segnali coinvolti sono tre):

I tre segnali di partenza ( )
1
x t , ( )
2
x t e ( )
3
x t vengono modulati ognuno su una diversa
frequenza, con l’accortezza che le bande alle quali vengono traslati siano
sufficientemente lontane da evitare fatali sovrapposizioni. Le oscillazioni modulate
così ricavate vengono fatte passare attraverso un sommatore, che le unisce e le
prepara quindi per la trasmissione. All’arrivo, i filtri passa banda sagomano quelle che
erano le tre oscillazioni modulate di partenza, che vengono quindi demodulate una ad
una per restituire (se tutto è andato bene) ( )
1
x t , ( )
2
x t e ( )
3
x t “ritardati”. La
peculiarità della FDT sta nella possibilità di modulare con la tecnica che si ritiene più
opportuna, a patto di rispettare la condizione di non sovrapposizione: dunque
- nel caso AM la distanza fra le portanti dev’essere
1
2
i i m
f f f
+
− ≥ (v. il paragrafo
sulla banda di Carson);
- nel caso SSB-SC (tale tecnica è stata usata per molti anni nel collegamento fra
centrali telefoniche) la distanza fra le portanti dev’essere
1 i i m
f f f
+
− ≥ .
Fra le caratteristiche della modulazione FDM vi è quella di poter considerare s(t) come
un segnale a sua volta modulante e, dunque, quella di poter effettuare FDM “doppie” o
a cascata. Per le fibre ottiche esiste una tecnica analoga a questa (WDM, Wavelength
Division Multiplexing).

13. Un esempio di FDM: segnale audio FM stereo

I parametri di questo tipo di segnale sono:
- banda
m
f : 15 KHz;
- deviazione massima di frequenza
max
f ∆ = 75 KHz.
La peculiarità del segnale stereo (a differenza del segnale mono, che è singolo) è quella
di veicolare al suo interno sia le informazioni audio destinate alla cassa destra
[segnale ( ) R t ] che quelle della cassa sinistra [segnale ( ) L t ]. Con l’avvento della
stereofonia, la trasmissione audio-radio si è allineata e standardizzata in questa
direzione: tuttavia, i programmi radio possono essere percepiti sia da un ricevitore
mono che da un ricevitore stereo con un piccolo accorgimento.
Infatti lato RX non si spediscono separatamente il segnale ( ) R t e ( ) L t – come si
potrebbe pensare – bensì:
- il segnale media (quello che riceverà l’utente mono): ( )
( ) ( )
2
L t R t
m t
+
= ;
- il segnale differenza (la chiave per ricostruire il segnale destro e sinistro):
( )
( ) ( )
2
L t R t
d t

= .
Ecco qui di seguito lo schema della modulazione.

LATO TX:

Come si trasmette il segnale? A tutti gli effetti si utilizza una FDM, visto che il
segnale differenza e il segnale media non si sovrappongono, ma – anzi – sono separati
da una portante (a 19 KHz):
- il segnale media è passa-basso;
- il segnale differenza è modulato DSB-SC e centrato ad una frequenza doppia
rispetto alla portante (38 KHz).
I due segnali così ottenuti vengono sommati e quindi modulati in frequenza. Ora il
segnale è diventato passa-banda e può essere trasmesso nel mezzo radio.

LATO RX:

Lato ricevente il segnale viene anzitutto demodulato; dopodiché si cerca di separare la
parte che in trasmissione era passa-basso (il segnale media m(t), che è quello che
ricevono i possessori di apparato mono) da quella a 38 KHz: con un filtro passa-banda
strettissimo si ottiene la portante, la quale viene passata a un demodulatore a
prodotto, che a sua volta si occupa di elaborare e traslare alle frequenze originarie il
segnale d(t). A questo punto il ricevitore stereo può ottenere l’audio della cassa sinistra
sommando m(t) con d(t) e quello della cassa destra sottraendo d(t) da m(t).

14. Equivalente passa-basso di un’oscillazione modulata (inviluppo
complesso)

Se s(t)
( ) ( ) ( ) ( )
0 0 0
1 cos 2 s t V m t f t t π α ϕ = + + +


è la generica espressione di un’oscillazione modulata, allora il suo equivalente passa-
basso è la funzione i(t)
( ) ( ) { }
0
2
Re
j f t
s t i t e
π
=
L’obiettivo di questo procedimento è quello di depurare il segnale dalla sua frequenza
di posizionamento
0
f .
Esaminiamo da vicino i vari casi di modulazione:
- AM: in questo caso l’oscillazione modulata si esprime come
( ) ( ) ( )
0 0 0
1 cos 2
AM a
s t V k x t f t π ϕ = + +


Dunque è facile ricavare l’equivalente passa basso, perché:
( ) ( ) { }
0
2
Re
j f t
s t i t e
π
=
( ) ( )
0 0
2
0
equivalente passa-basso
Re 1
j j f t
a
s t V k x t e e
ϕ π
¦ ¹
¦ ¦
= +
´ `

¦ ¦
¹ )
.

(posto
0
0 ϕ = ,
( )
0
1
a
V k x t +

è una quantità reale e utilizzando Eulero si possono
sciogliere i termini esponenziali generando un termine coseno. Si noti che il
termine
0
f non compare nell’equivalente passa-basso)
L’equivalente passa-basso, se la fase iniziale è nulla, non ha parte immaginaria
e, sul piano di Gauss, è individuato da un vettore che modifica la sua ampiezza
scorrendo sull’asse reale. Dunque, ricapitolando, le informazioni che si possono
ricavare dall’equivalente passa basso sono che:
- l’inviluppo non è costante (il vettore modifica la sua ampiezza);
- non vi è alcuna variazione di fase (il vettore sta sempre sull’asse reale).
- FM/PM: nelle modulazioni d’angolo l’oscillazione modulata si esprime così
( ) ( ) ( )
0 0
cos 2
AM
s t V f t t π α = +
Possiamo quindi trovare anche qui l’equivalente passa-basso
( ) ( ) { }
0
2
Re
j f t
s t i t e
π
=
( )
( )
0
2
0
equivalente
passa-basso
Re
j t j f t
s t V e e
α π
¦ ¹
¦ ¦
=
´ `
¦ ¦
¹ )
.

dove ( ) ( )
p
t k x t α = nel caso PM e ( ) ( ) 2 d
t
f
t k x α π ξ ξ
−∞
=

.
L’equivalente passa-basso, questa volta, ha una parte immaginaria, che sarebbe
( ) sin t α , ma ha lunghezza costante. Siamo quindi di fronte a un vettore che
ruota attorno all’origine generando una circonferenza (con raggio ovviamente
costante inviluppo costante); ovviamente questa volta la fase non sarà
costante, essendo pari a:
♦ ( ) ( )
p
t k x t α = nel caso PM
♦ ( ) ( ) 2 d
t
f
t k x α π ξ ξ
−∞
=

nel caso FM
- QAM: l’oscillazione modulata ha la seguente espressione
( ) ( ) ( ) ( ) ( )
1 0 2 0
cos 2 sin 2 s t x t f t x t f t π π = −
L’equivalente passa-basso si ricava scrivendo la s(t) in tale forma:
( ) ( ) ( )
0
2
1 2
eqiuvalente passa-basso
Re
j f t
s t x t jx t e
π
¦ ¹
¦ ¦
= +
´ `

¦ ¦
¹ )
.

(NOTA: questo perché
2
j
j e
π
= e perché sin cos
2
π
α α = + , provare per credere!)
Il vettore che sul piano di Gauss individua l’equivalente passa-basso ha dunque
una parte reale pari ad ( )
1
x t e una parte immaginaria pari a ( )
2
x t : siccome
entrambe queste funzioni possono variare, questa volta non avremo né fase né
ampiezza costanti (infatti tale modulazione è ibrida).
- modulazione a prodotto (DSB-SC): l’oscillazione modulata è
( ) ( ) ( ) ( ) ( ) ( )
0 0
funzione gradino
cos 2 cos 2 s t x t f t x t f t u x t π π π
| |
|
= = + ⋅ −
|
|
\ ¹
.

(NOTA: la seconda formulazione di s(t) è perfettamente equivalente alla prima)
In questa modulazione l’equivalente passa-basso è:
( ) ( )

0
2
eq. passa
basso
Re
j f t
s t x t e
π
¦ ¹
¦ ¦
=
´ `
¦ ¦
¹ )

Dunque, sul piano di Gauss, il relativo vettore si muove sull’asse reale
assumendo valori sia positivi che negativi (derivati dallo sfasamento di π che si
vede bene nella formulazione alternativa di cui sopra). Anche questa volta né
abbiamo inviluppo costante, né fase costante (indice che la modulazione è
ibrida).

Torniamo alla trattazione generale sull’equivalente passa-basso di segnale passa-
banda. Abbiamo detto che esso è una funzione i(t) tale per cui:
( ) ( ) { }
0
2
Re
j f t
s t i t e
π
=
Possiamo ora applicare una proprietà dei numeri complessi, la quale ci dice che:
{ }
*
Re
2
z z
z
+
=
E infatti:
( ) ( ) { }
( ) ( )
0 0
0
2 2 *
2
Re
2
j f t j f t
j f t
i t e i t e
s t i t e
π π
π

+
= =
Volendo, ora possiamo trasformare secondo Fourier e applicare le proprietà di:
- linearità;
- trasformata del coniugato;
- moltiplicazione per un fasore.
Quel che otteniamo è:
( ) { }
( ) ( ) ( ) ( )
0 0
2 2 * *
0 0
2 2
j f t j f t
i t e i t e I f f I f f
s t
π π −
¦ ¹ + − + − −
¦ ¦
= =
´ `
¦ ¦
¹ )
F F
Da qui si evince un’altra proprietà importante dell’equivalente passa-basso: nel
dominio delle frequenze esso [cioè ( ) I f ] altro non è che la parte positiva della
( )
S f

F spostata verso lo zero (traslata di
0
f e moltiplicata per 2).

15. Equivalente passa-basso e potenza

Possiamo ora fare qualche considerazione sulla potenza dell’inviluppo complesso
(sinonimo di equivalente passa-basso).
Partiamo dalla funzione di autocorrelazione di un’oscillazione modulata a potenza
finita:
( ) ( ) ( )
*
s
R s t s t τ τ = −
poi infiliamo dentro questa formula il fatto che, come abbiamo visto poco fa, possiamo
scrivere l’oscillazione modulata così:
( ) ( ) { }
( ) ( )
0 0
0
2 2 *
2
Re
2
j f t j f t
j f t
i t e i t e
s t i t e
π π
π

+
= =
Si ottiene:
( )
( ) ( ) ( )
( )
( )
( )
0 0 0 0
2 2 2 2 * *
2 2
j f t j f t j f t j f t
s
i t e i t e i t e i t e
R
π τ π τ π π
τ τ
τ
− − − −

+ − + −
= =





facciamo un bel respiro e sviluppiamo il prodotto …
( ) ( )
( )
( ) ( )
( )
( ) ( )
( )
( ) ( )
( )
0 0 0 0
0 0 0 0
2 2 2 2 *
2 2 2 2 * * *
2 2 2 2
2 2 2 2
j f t j f t j f t j f t
j f t j f t j f t j f t
i t e i t e i t e i t e
i t e i t e i t e i t e
π τ π τ π π
π τ π τ π π
τ τ
τ τ
− − −
− − − − −
− −
= + +
− −
+ + =

… notiamo, per fortuna, che qualcosa si semplifica …
( ) ( )
( )
( ) ( )
0
0 0
2
2 2 *
4
j f t
j f t j f t
i t i t e i t i t e
π
π π τ
τ τ
+ −
− −
= +
0
2 j f t π −
( )
( ) ( )
0
2
*
4
j f t
i t i t e
τ
π
τ


+

+
0
2 j f t π +
( )
( ) ( )
( )
0 0
2 2 * *
4 4
j f t j f t
i t i t e
τ
π π τ
τ

− − −

+ =

… sfruttiamo la linearità del valor medio …
Come si nota, i termini ad alta frequenza scompaiono perché, mediati, restituiscono
zero a causa del termine esponenziale. Quel che rimane è:
( )
( ) ( ) ( ) ( )
0 0
2 2 * *
4 4
j f j f
s
i t i t e i t i t e
R f
π τ π τ
τ τ

− −
= +
Sviluppiamo ciò che abbiamo appena ottenuto:
( )

( ) ( )
( ) ( ) ( )
( ) ( )
( ) ( ) ( )
( ) ( )
0 0 0 0
* * *
costante
costante
2 2 2 2
* * *
4 4 4 4
i i
j f j f j f j f
s i i
R i t i t R i t i t
e e e e
R f i t i t i t i t R R
π τ π τ π τ π τ
τ τ τ τ
τ τ τ τ
− −
= − = −
= − + − = +

. .

Ora che abbiamo una formulazione abbastanza semplice della funzione di
autocorrelazione del segnale s(t), possiamo trasformarla per trovare lo spettro di
potenza:
( ) ( ) { }
( ) ( )
0 0
4 4
i i
s s
G f f G f f
G f R f
− − −
= = + F
(NOTA: anche questa volta abbiamo utilizzato la linearità della trasformata di
Fourier, la proprietà di trasformata di coniugato e quella di moltiplicazione per un
fasore)
( ) ( )
( )
0 0
2 2
4
j f t j f t
i t i t e
π π τ
τ
+ −

=
( ) ( ) ( ) ( ) ( ) ( )
( )
0 0 0 0
2 2 2 2 * * * *
4 4 4
j f t j f t j f j f
i t i t e i t i t e i t i t e
π π τ π τ π τ
τ τ τ
− − − −
− − −
+ + +
Da questa ultima equazione si evince che, anche per lo spettro di potenza, accade che
la trasformata dell’equivalente passa basso ( )
i
G f sia parte positiva della ( )
s
G f
spostata verso lo zero (traslata di
0
f e moltiplicata per 4).

16. Esempio notevole: segnale modulante sinusoidale

Prendiamo un generico segnale sinusoidale come, ad esempio:
( )
( ) cos 2
m m
x t M f t π ϕ = +
Supponiamo di sottoporlo alle modulazioni AM, PM, FM e di voler ricavare l’indice di
modulazione “ad occhio” oppure ragionando sui dati delle rilevazioni sperimentali.
- Nel caso di modulazione AM possiamo riuscire nel nostro intento con discreta facilità.
L’oscillazione modulata, infatti, è
( ) ( ) ( ) ( )
0 0 0
1 cos 2 s t V m t f t π ϕ = + +
(NOTA: non si faccia confusione; moduliamo un segnale sinusoidale con una portante
altrettanto sinusoidale ma, mentre la portante ha frequenza
0
f , ampiezza
0
V e fase
0
ϕ , il segnale modulante ha frequenza
m
f , ampiezza M e fase
m
ϕ ).
In questa espressione m(t) è
( ) ( )
a
m t k x t =
Inoltre, sappiamo che
( )
max
a
m m t =
L’inviluppo dell’oscillazione modulata in ampiezza (inviluppo che ha la forma del
segnale modulante) avrà alcuni punti di minimo e di massimo, come si ha per
qualunque sinusoide. Questi punti (misurabili sperimentalmente) possono essere
espressi tramite l’indice di modulazione, visto che quest’ultimo rappresenta il massimo
valore che possiamo infilare dentro l’espressione dell’oscillazione modulata
( ) ( )

( )
( )
qui!
0 0 0
1 cos 2
V t
s t V m t f t π ϕ
| |
|
= + +
|
\ ¹
.
:
( ) ( )
0
max 1
MAX a
V V t V m = = +
( ) ( )
0
min 1
MIN a
V V t V m = = −
Se ora facciamo:
( ) ( )
0 0 0
1 1 2
MAX MIN a a a
V V V m V m m V − = + + − =
( ) ( )
0 0 0
1 1 2
MAX MIN a a
V V V m V m V + = + − − =
Quindi, con qualche calcolo algebrico elementare
0
0
2
2
a MAX MIN
a
MAX MIN
m V V V
m
V V V

= =
+

- nel caso PM ed FM la storia è un po’ più intricata. Prendiamo ancora il nostro
segnale modulante sinusoidale
( )
( ) cos 2
m m
x t M f t π ϕ = +
ricordando che, per le modulazioni d’angolo, si ha
( )
( )
( )
PM
2 d FM
p
t
f
k x t
t
k x
α
π ξ ξ
−∞
¦
¦
=
´
¦
¹


con l’x(t) sinusoidale queste ultime diventano
( )
( )
( ) ( )
cos 2 PM
2 cos 2 d sin 2 FM
p m m
t
f
f m m m m
m
k M f t
t
k M
k M f f
f
π ϕ
α
π π ξ ϕ ξ π ξ ϕ
−∞
¦ +
¦
=
´
+ = +
¦
¹


Possiamo ora dare una formulazione unitaria di queste due espressioni, espressione
valida, quindi, per le modulazioni d’angolo in generale:
( ) ( ) sin 2
p m
t m f t α π ψ = +
dove
cos sin
2
PM
2
FM
p p m
f
p m
m
m k M
k M
m
f
π
α α
π
ψ ϕ
ψ ϕ
| |
= +
|
\ ¹
¦
= = +
¦
¦
¦
´
¦
¦
= =
¦
¹
.

Ora possiamo scrivere così l’oscillazione modulata:
( ) ( ) ( ) ( ) ( )
0 0 0 0
cos 2 cos 2 sin 2
p m
s t V f t t V f t m f t π α π π ψ = + = + +
E ricavare l’equivalente passa-basso:
( )
( ) ( ) sin 2 sin
0 0 0
p m p
jm f t jm j t
i t V e V e V e
π ψ α + Φ
= = =

Come si vede, l’equivalente passa-basso si può considerare periodico rispetto alla
quantità 2
m
f t π ψ + = Φ con periodo 2π . Sorpresa: possiamo sviluppare il tutto in serie
di Fourier!
( )
( )
2
sin 2
2
0
funzione di funzione del tempo
p m
jn
jm f t
jn
n n
n n
i t V e c e c e
π
π ψ
π
Φ
∞ ∞
+
Φ
=−∞ =−∞
= = =
∑ ∑
.

Ricordando come si esprimono i coefficienti dello sviluppo in serie di Fourier:
( )
2
1
d
n
j t
T
n
T
c x t e t
T
π −


( )
sin sin
0 0
funzione di Bessel di ordine
e argomento
1 1
d d
2 2
p p
p
jm jm
jn jn
n
n
m
J m
n p
c V e e V e e
π π
π π
π π
+ +
Φ Φ
− Φ − Φ
− −
Φ = Φ
∫ ∫

.

Dunque, dopo tanta fatica, arriviamo al risultato che ci interessava:
( )
0
jn jn
n n p
n n
i c e V J m e
∞ ∞
Φ Φ
=−∞ =−∞
= =
∑ ∑

( ) ( ) { } ( ) ( ) ( )
0
2
0 0
Re cos 2
j f t
n p m
n
s t i t e V J m f nf t n
π
π ψ

=−∞
= = + +


Le funzioni di Bessel, che non hanno forma chiusa, hanno le seguenti proprietà:
( ) ( ) ( )
( )
2
1
1
n
n n
n
n
J x J x
J x

¦
= −
¦
´
=
¦
¹


(NOTA: la prima proprietà indica che, se l’indice della funzione di Bessel è pari, allora
anche la funzione stessa sarà pari; allo stesso modo, se l’indice è dispari, la funzione
sarà dispari)
Esse sono fatte così:

La ( )
0
J x è quella che esprime la riga della componente continua (la frequenza
0
f del
segnale modulato), la ( )
1
J x fornisce le righe alle frequenze
0 m
f f ± , la ( )
2
J x le righe
alle frequenze
0
2
m
f f ± etc…
Nel grafico vi è un valore piuttosto importante: quello in cui scompare la riga della
continua, ovvero il valore per il quale ( )
0
J x = 0. Tale valore è x = 2,409. La cosa
interessante è che, in questo caso, “l’estensione” (anche se è difficile parlare di
estensione in tale contesto) che le righe occupano nello spettro delle frequenze è
effettivamente pari alla banda di Carson.
V- MODULAZIONI NUMERICHE

1. Modulazioni numeriche: introduzione

Fin’ora abbiamo esaminato il caso in cui un segnale analogico veniva preso ed
elaborato da un modulatore, secondo lo schema:

Segnale analogico Modulatore Oscillazione modulata analogica

Vogliamo ora estendere questo caso ai segnali PAM: lo schema, dunque, si allunga un
pochetto:

Segnale digitale PAM Segnale analogico Modulatore Oscillazione modulata analogica

Come si vede c’è sempre di mezzo un’oscillazione modulata analogica: i modulatori,
infatti, lavorano con portanti sinusoidali (analogiche) e segnali modulati a tutti gli
effetti analogici [la somma di impulsi
( ) ( )
n
n
x t a g t nT
+∞
=−∞
= −

]. La differenza, questa
volta, sta nel fatto che questi ultimi derivano da segnali digitali e che, lato ricevente,
questi segnali potranno eventualmente essere demodulati e riconvertiti in segnali
digitali.

2. Modulazione OOK (On-Off Keying)

È il tipo più semplice di “modulazione a prodotto” di segnali numerici. In questa
modulazione i simboli
n
a sono binari e l’oscillazione modulata assume la forma:
( ) ( ) ( )
0
cos 2
n
n
s t a g t nT f t π
+∞
=−∞
= − ⋅


Assumiamo, per ipotesi, che gli impulsi generati dal modulatore PAM siano
rettangolari e di tipo NRZ (ampiezza
M
V ), e che dunque abbiano la forma
( )
2
rect
M
T
t
g t V
T
| |

|
=
|
\ ¹

NOTA:
-
M
V regola l’ampiezza della rect;
- sottrarre T/2 al numeratore serve per far partire la rect, che normalmente è
centrata nell’origine, dall’origine stessa;
- dividere per T serve ad “allungare” la rect, che generalmente ha durata
unitaria.

Dunque la OOK:
- in corrispondenza di
n
a = 0 dà un contributo nullo sull’oscillazione modulata
s(t): si ha ( ) ( )
0
0 cos 2 0 g t nT f t π ⋅ − ⋅ = ;
- in corrispondenza di
n
a = 1 genera, sulla s(t), un treno sinusoidale di ampiezza
M
V : si ha ( ) ( ) ( )
0 0
2
1 cos 2 1 rect cos 2
M
T
t
g t nT f t V f t
T
π π
| |

|
⋅ − ⋅ = ⋅ ⋅
|
\ ¹
.

3. Modulazione L-ASK (Amplitude Shift Key a L livelli)

Facciamo le stesse ipotesi di prima, ma questa volta gli
n
a sono i simboli generati da
una codifica multilivello ad L livelli.
Si ricordi che, in questo caso:
- 2
l
L = è il numero di livelli;
-
2
log l L = sono i bit per ogni simbolo della nostra codifica;
- i simboli
n
a sono suscettibili dei valori
( )
1, 3,. .., 1 L ± ± ± −

, ciascuno dei
quali rappresenta una parola di l bit secondo un codice Gray;
- il tempo di simbolo è:
2
log
b
T L T = ⋅ (con
b
T tempo di simbolo);
- la frequenza di simbolo è:
2
log
r
s
B
B
L
= .

In questo caso l’oscillazione modulata assume la forma:
( ) ( ) ( )
0
cos 2
n
n
s t a g t nT f t π
+∞
=−∞
= − ⋅


NOTA: qui è facilissimo accorgersi che l’equivalente passa basso del segnale è
( ) ( ) ( )
n
n
i t a g t nT x t
+∞
=−∞
= − =


Dunque la modulazione L-ASK è a tutti gli effetti una modulazione d’ampiezza: la
sinusoide viene infatti modulata dall’ampiezza della rect (l’impulso g).
La costellazione di una modulazione L-ASK (ovvero lo schema, disegnato sul piano di
Gauss, dei possibili coefficienti assunti da i(t), rappresentati come dei punti) ha valori
tutti sull’asse reale, in corrispondenza delle ascisse ( ) , 3 ,. .., 1
M M M
V V L V ± ± ± − .

4. Modulazione M-QAM (Quadrature
Amplitude Modulation), detta anche
L
2
-QASK (Quadrature Amplitude
Shift Key a L
2
livelli)

Abbiamo ancora una volta codici bipolari
o multilivello ma – come accadeva nella
modulazione QAM, la quale permetteva
grazie a due portanti in quadratura la
trasmissione di due segnali modulanti
sulla stessa banda di frequenze – abbiamo
due segnali, entrambi PAM e con lo stesso
numero di livelli e la stessa frequenza di
simbolo:
( ) ( )
1 1n
n
x t a g t nT
+∞
=−∞
= −


( ) ( )
2 2n
n
x t a g t nT
+∞
=−∞
= −


L’oscillazione modulata ha una forma un pelo più complicata rispetto ai casi
precedenti:
( ) ( ) ( ) ( ) ( )
1 0 2 0
cos 2 sin 2
n n
n n
s t a g t nT f t a g t nT f t π π
+∞ +∞
=−∞ =−∞
= − − −
∑ ∑

Questa volta è più difficile verificarlo, ma l’equivalente passa-basso della s(t) è:
( ) ( ) ( )
1 2

n n
n
i t a ja g t nT
+∞
=−∞
= + −


[l’unità immaginaria j fa “ruotare il piano di Gauss”
per il segnale ( )
2
x t , in quanto fa diventare
immaginario il coseno e reale il seno nella formula di
Eulero: in questo modo, estraendo la parte reale, il
seno sopravvive, ma col segno meno, come si vede
dalla formula di s(t)]

Come si nota, avendo per i(t) coefficienti che
dipendono da
1 2 n n
a ja + , i punti sulla costellazione
della modulazione QAM saranno L L ⋅ (cioè L relativi
agli
1n
a e altri L relativi a
2n
a ). In figura si riporta un
esempio di costellazione per la modulazione 16-QAM
(4
2
= 16 punti).

5. Modulazione L-PSK (Phase Shift Keying a L livelli)

Ancora una volta facciamo riferimento a un codice bipolare o multilivello: questa volta,
tuttavia, moduliamo in fase visto che l’oscillazione modulata ha la forma
( ) ( )
0 0
cos 2 s t V f t t π α = +


In questa relazione ( ) ( )

( )
PAM
2
rect
p p n p M n
n n
T
t nT
t k x t k a g t nT k V a
T
α
+∞ +∞
=−∞ =−∞
| |
− −
|
= = − =
|
\ ¹
∑ ∑
.
Assumiamo
p
M
k
LV
π
= , in modo che ( )
2
rect
n
n
T
t nT
t a
L T
π
α
+∞
=−∞
| |
− −
|
=
|
\ ¹

e dunque i
possibili valori assunti si risultino uniformemente distribuiti sull’angolo giro.
L’equivalente passa-basso dell’oscillazione modulata è:
( )
( )
2
rect
0 0 0
2
rect
n
n
n
T
t nT
j a
j a L T
j t
L
n
T
t nT
i t V e V e V e
T
π
π
α
+∞
=−∞
| |
− −
|
+∞
|
\ ¹
=−∞
| |

− −
|
= = =
|
\ ¹


La costellazione della modulazione PSK ha forma circolare con punti distribuiti
uniformemente (l’abbiamo imposto noi stessi poco fa).
NOTA: la 4-ASK coincide con la 4-QAM; allo stesso modo la 2-PSK coincide con la 2-
ASK.

6. Modulazioni L-FSK (Frequency Shift Keying a L livelli) L-CPFSK
(Continuous Phase Frequency Shift Keying a L livelli)

Facciamo ancora una volta riferimento ad un codice bipolare o multilivello, ma
consideriamo – in questo contesto – un’oscillazione modulata in frequenza
( ) ( )
0 0
cos 2 s t V f t t π α = +


Qui ( ) ( )

( )
PAM
2 2
f f n
n
t k x t k a g t nT α π π
+∞
=−∞
= = −

ɺ , dalla quale otteniamo, integrando,
( ) ( ) 2 d
t
f n
n
t k a g nT α π ξ ξ
+∞
=−∞
−∞
= −



Come si nota, la deviazione di fase ( ) t α , a differenza dei casi fin’ora esaminati, ha un
andamento continuo nel tempo, con benefici sull’occupazione spettrale dell’oscillazione
modulata (NOTA: non si pensi però che lo spettro della FSK sia a righe! L’oscillazione
modulata non è affatto una sinusoide): questa peculiarità viene evidenziata con la
sigla CPFSK (Continuous Phase FSK).
Vogliamo ora capire quale sia l’entità della deviazione di frequenza f ∆ (che è poi il
vero parametro che caratterizza questa modulazione):
( )

2
rect
f M
k V
n d
n
T
t nT
f t a f
T
=
+∞
=−∞
| |
− −
|
∆ =
|
\ ¹


Questi sono dunque i valori rispetto ai quali ci si discosta dalla frequenza portante
0
f ;
da ciò deduciamo che la frequenza istantanea può assumere solo le quantità:
( )
0 0 0
, 3 , ..., 1
d d d
f f f f f L f ± ± ± −

7. Potenze e spettri nelle modulazioni numeriche

Abbiamo visto nello scorso capitolo che lo spettro di potenza dell’oscillazione modulata
può essere espresso in questo modo:
( ) ( ) ( )
0 0
1 1
4 4
s i i
G f G f f G f f = − + +
Dunque possiamo scegliere di trovare ( )
i
G f invece che lanciarci a capicollo sulla
ricerca di ( )
s
G f , tanto il conoscere uno dei due spettri in questione significa conoscere
anche l’altro. L’equivalente passa-basso delle varie modulazioni ha la forma:
( ) ( )
n
n
i t a g t nT = −


Dove i simboli
n
a possono essere reali (L-ASK) oppure complessi (M-QAM, L-PSK).
Diamo ora le espressioni dei relativi spettri di potenza ( )
i
G f delle modulazioni:
- L-ASK: ( )
2
2
trasformata
dell'impulso rect
= una sinc
n
E a
G f
T

- M-QAM: ( )
2
2 n
E
G f
T
µ



- L-PSK:
2
2
0
rect
V t
T T
¦ ¹ | |
´ `
|
\ ¹
¹ )
F
Comune a queste tre espressioni è lo spettro di potenza normalizzato:
( )
( )

2
symbol
rate
sinc
0
i
i S
G f
f
G B
| |
|
|
=
|
|
|
\ ¹

Dunque la
( ) ( ) ( )
0 0
1 1
4 4
s i i
G f G f f G f f = − + +
è fatta di due sinc (larghezza del lobo centrale: 2
S
B ) a frequenza
0
f e
0
f − .
NOTA: esiste una relazione tra la symbol-rate di una codifica e il numero di punti
nella costellazione della modulazione

symbol bit-rate
rate
2
numero
di punti
log
r
S
B
B
M
=
| |
|
\ ¹

Si noti che maggiore è il numero di punti e minore sarà la banda occupata dal segnale
(il denominatore diventa grande e la sinc più stretta perché
S
B cala). L’altra faccia
della medaglia è aumenta la difficoltà di ricezione a causa dei rumori.

VI - RADIODIFFUSIONE

1. Modulazione multiportante (MC, Multicarrier Modulation), modulazione
OFDM (Orthogonal Frequency Division Multiplex), broadcasting video (DVB,
Digital Video Broadcasting) e audio (DAB, Digital Audio Broadcasting)

Nel caso dei segnali numerici è di particolare interesse la trasmissione di segnale su
più portanti affiancate nel dominio della frequenza (MC): in questo caso da un flusso
solo si formano, grazie a un convertitore S/P, un insieme di flussi associati a frequenze
diverse (OFDM), le quali sono ortogonali fra di loro in un tempo di simbolo (cioè poste
fra loro ad una distanza pari al tempo di simbolo).
Due esempi notevoli dell’applicazione di tale principio sono
- la radiodiffusione numerica sonora:
- frequenza di cifra: 32 192 Kbps ∼ (con frequenze doppie nel caso stereo);
- campionamento: 48 KHz (soddisfa Shannon);
- codifica: livello 2 di MPEG-1;
- numero di portanti: 1536;
- larghezza dei blocchi di frequenza: 1,536 MHz in VHF e UHF; ogni
blocco può contenere fino a 6 programmi radiofonici.
- la radiodiffusione numerica televisiva:
- frequenza di cifra: da 5 a 31,5 Mbps;
- codifica: MPEG-2 per il video, livello 2 di MPEG-1 per l’audio;
- numero di portanti: 2k (nelle reti convenzionali) oppure 8k (in reti
isofrequenziali);
- larghezza dei blocchi di frequenza: 8 MHz in VHF e UHF; ogni blocco
può contenere da 6 a 8 programmi video.

Bande di frequenza notevoli nello studio delle comunicazioni elettriche

NOTE: la banda N si estende da 0,3 10
N
⋅ a 3 10
N
⋅ ; lunghezza d’onda: c f λ = .
Numero Simbolo Intervallo frequenze Note
3 ULF
3 3
0,3 10 3 10 ⋅ ⋅ ∼ Hz
4 VLF
4 4
0,3 10 3 10 ⋅ ⋅ ∼ Hz
5 LF
5 5
0,3 10 3 10 ⋅ ⋅ ∼ Hz Utilizzato per la trasmissione AM
6 MF
6 6
0,3 10 3 10 ⋅ ⋅ ∼ Hz Utilizzato per la trasmissione AM
7 HF
7 7
0,3 10 3 10 ⋅ ⋅ ∼ Hz
8 VHF
8 8
0,3 10 3 10 ⋅ ⋅ ∼ Hz
In questa regione si trovano gli
intervalli di frequenza I, II (
radiodiffusione FM) e III utilizzati
convenzionalmente nella
radiodiffusione sonora e televisiva
9 UHF
9 9
0,3 10 3 10 ⋅ ⋅ ∼ Hz
In questa regione si trovano gli
intervalli di frequenza IV e V
utilizzati convenzionalmente nella
radiodiffusione sonora e televisiva.
Troviamo anche: bande L ed S per le
radiocomunicazioni spaziali; bande
GSM 900 e GSM 1800 per i sistemi
radiomobili GSM e di terza
generazione.
10 SHF
10 10
0,3 10 3 10 ⋅ ⋅ ∼ Hz
Bande C, Ku, K, Ka per le
radiocomunicazioni spaziali.
11 EHF
11 11
0,3 10 3 10 ⋅ ⋅ ∼ Hz
12
12 12
0,3 10 3 10 ⋅ ⋅ ∼ Hz
13
13 13
0,3 10 3 10 ⋅ ⋅ ∼ Hz
14
14 14
0,3 10 3 10 ⋅ ⋅ ∼ Hz
15
15 15
0,3 10 3 10 ⋅ ⋅ ∼ Hz

2. Politica del segnale televisivo

Il segnale televisivo, come abbiamo visto, viaggia a cavallo fra la VHF (I, II, III) e la
UHF (IV e V). Si ricordi che il segnale video analogico in B/N è un segnale in banda
base con banda 5 MHz e che tale segnale veicola le informazioni riguardanti il
parametro di luminanza (intensità di luce, cioè bianco). Supponiamo che, per la
trasmissione, tale segnale sia trasmesso tramite una portante a frequenza
0
f e, fatta
questa ipotesi, esaminiamo come è trasmesso il segnale video analogico a colori:
- tra
0
1,25 MHz f − e
0
5 MHz f + si trova il segnale di luminanza che, come si
osserva, tiene 6,25 MHz (invece che 10 MHz) in virtù di una “economica”
modulazione VSB; tale segnale viene ricevuto sia da chi ha un televisore in B/N
sia dagli utenti in grado di ricevere le trasmissioni a colori;
- attorno a
0
4,43 MHz f + si osserva empiricamente che il segnale di luminanza
presenta, come in altre parti, “dei buchi” generati dalla periodicità dei frame; si
sceglie dunque di porre qui il segnale di crominanza, modulato QAM, il quale,
essendo meno massiccio di quello della luminanza, riesce a stare comodamente
in tale piccolo intervallo di banda; il segnale di crominanza è interpretato solo
dalla TV a colori: se si dispone di solo B/N, tale informazione non viene recepita
e rimane ignorata;
- alla frequenza
0
5,5 MHz f + si modula in FM il segnale audio (tiene circa 130
KHz).
Dunque in totale il segnale video (a colori e analogico) tiene attorno ai 6,75 ∼ 7 MHz
(e circa 8 MHz in UHF).

Cenni sulle politiche di trasmissione dei segnali radio

Come abbiamo visto esiste una legge fisica che indica come la lunghezza d’onda
dipenda dalla frequenza di trasmissione secondo la legge c f λ = . Se si vuole
trasmettere un segnale su un raggio molto ma molto ampio l’ideale è utilizzare
un’antenna molto grande e di notevole potenza in modo da sfruttare le basse frequenze
( onde molto lunghe). Il problema è che tali frequenze sono preziosissime, in quanto
sono in grado di coprire un’area così vasta da risultare occupate su tutto il globo.
Utilizzarle su scala locale sarebbe sprecato, così in quest’ultimo caso si preferisce
collegare fra loro tante stazioni a potenza minore, le quali trasmettono (“ripetono”) lo
stesso segnale su una frequenza più alta (e quindi su un raggio minore). Facendo
l’esempio audio, si sceglie quindi la modulazione AM (che tiene poca banda quindi è
economica) per le preziose frequenze basse e a più grande portata (da VHF in giù),
mentre si preferiscono la modulazione FM e una frequenza più alta per la
trasmissione locale.

3. Trasmissione radiomobile GSM (Global System for Mobile communication)

Nella trasmissione GSM trasmettiamo una segnale audio che in banda base occupa 4
KHz e che viene campionato a 8 KHz per soddisfare Shannon: la bitrate del segnale
digitale così ricavato è di circa 10 20 ∼ Kbps (compressa dai 64 Kbps originale). Per la
trasmissione si utilizza una tecnica a di multiplazione a divisione temporale (TDM)
con 8 slot differenti, uno per ogni utente, i quali si ripetono periodicamente; la banda
totale utilizzata per 8 conversazioni tiene grosso modo 200 KHz, con differenzazione
tra banda di uplink (invio) e downlink (ricezione). Tale banda è, in realtà, tantissima
se consideriamo il numero di conversazioni telefoniche che si tengono
contemporaneamente in tutto il paese: sarebbe impensabile utilizzare, su tutto il
territorio nazionale, un range di frequenza per ogni conversazione, dunque si sfrutta il
principio del riuso di frequenza e quello della multiplazione statistica. Il primo si
realizza dal momento che esistono, su tutto il territorio, delle celle, ognuna di pochi
chilometri di raggio, le quali sono adeguatamente distanti fra loro in modo da evitare
interferenze. Due celle lontane possono usare per due conversazioni diverse la stessa
frequenza: in questo modo riusciamo ad evitare la necessità di una banda smisurata
per ospitare tutte quante le trasmissioni. Si è inoltre osservato che bastano
relativamente pochi canali per servire una vasta popolazione, dal momento che non
tutti gli utenti intraprendono una conversazione contemporaneamente.

4. Altri collegamenti “notevoli”

Fra i collegamenti notevoli ricordiamo il collegamento P-P, che è quello tra parabole
poste a non più di 50 Km l’un con l’altra: è infatti necessario che le due installazioni
siano reciprocamente in vista e la curvatura terrestre, a questo scopo, è certamente
d’ostacolo. La trasmissione avviene ad una banda molto elevata (circa 10 GHz) e
dunque altrettanto elevato sarà il bitrate.
Molto importante è anche l’uso delle bande ISM (Industrial Scientific and Medical),
per le quali non serve licenza: è quindi possibile trasmettervi liberamente, a patto di
rispettare alcuni vincoli riguardo lo spettro di potenza. Il problema sta nel fatto che
tali bande sono relativamente strette e che vi è poco spazio, dal momento che tutti si
lanciano ad utilizzare le frequenze di cui sopra. Il collegamento Bluetooth e quello WI-
FI rientrano in quest’ambito.

5. Trasmissione passa-banda (radio) di segnali analogici

Esistono due tipologie di sistemi di trasmissione radio del segnale analogico:

5.1 . Sistemi a modulazione/demodulazione diretta

Segnale analogico x(t) passa-basso

Modulatore che riceve la portante a radio-frequenza
0
f

HPA (High Power Amplifier), un amplificatore di potenza

Trasmissione con antenna

Mezzo radio

Antenna ricevente

Amplificatore a radio frequenza

Demodulatore

Segnale ( )
r
x t , versione quanto più possibile non distorta di x(t)

Questi circuiti hanno lo svantaggio di essere difficili da progettare, perché devono con
un’unica operazione modulare direttamente alla frequenza
0
f e ciò può risultare
abbastanza problematico. Per questo esistono i cosiddetti sistemi a supereterodina.

5.2. Sistemi a supereterodina

Segnale analogico passa-basso x(t)

Modulatore a frequenza intermedia
I
f

Convertitore di frequenza
I
f
m
f (up converter, o convertitore di frequenza in
salita)

HPA (High Power Amplifier), un amplificatore di potenza

Trasmissione con antenna

Mezzo radio

Antenna ricevente (*)

Amplificatore a radio-frequenza

Convertitore di frequenza
m
f
I
f (down converter, o convertitore di frequenza
in discesa)

Demodulatore

Segnale ( )
r
x t , versione quanto più possibile non distorta di x(t)

NOTA: per le considerazioni che seguiranno si consulti il capitolo VII – Rumore.
Per quanto riguarda il sistema di trasmissione a supereterodina è possibile, per
l’analisi, utilizzare uno schema concettuale che rende facile la comprensione del
problema: abbiamo
1) un generatore di segnale ( )
S
e t , che “incarna” tutto ciò che c’è prima
dell’antenna ricevente (*), in serie con la resistenza interna R, la quale
si trova a temperatura
A
T (temperatura dell’antenna). Questa parte
del circuito scambia con quella successiva una potenza che
chiameremo
R
P ;
2) un quadripolo che schematizza tutta la circuiteria a IF/RF (frequenza
intermedia/radio frequenza) e cioè i componenti che nella catena di
trasmissione stanno dall’antenna ricevente (*) fino al demodulatore
escluso; tale quadripolo, che soddisfa le condizioni di non distorsione di
gruppo, lavorerà ad una propria banda B, avrà una cifra di rumore F e
una temperatura equivalente di rumore ( )
0
1
r
T T F = − . A valle di
questa sezione si calcola, in genere, l’SNR (Signal to Noise ratio);
3) un demodulatore che porta il segnale in banda-base;
4) una resistenza R che rappresenta l’utilizzatore.
IPOTESI prese in considerazione:
- tutte le sezioni adattate;
- catena complessivamente non distorcente.

I punti 1) e 2) di tale schema possono essere equivalentemente rappresentati da:
1eq) un generatore di segnale ( )
S
e t , che “incarna” tutto ciò che c’è prima
dell’antenna ricevente (*), in serie con la resistenza interna R, la quale si
trova a temperatura
SIST
T , cioè la temperatura di sistema, calcolata così:
( )
0
1
SIST A R A
T T T T T F = + = + −
Utilizzando la formula di Friis possiamo dare un’altra espressione per
SIST
T e cioè:
( )
( ) ( )
0 0
0
1 1
1
C IF
R RF
dRF dRF dC
T F T F
T T F
G G G
− −
= − + +
(
RF
F ,
RF
G = cifra di rumore / guadagno del ricevitore a radio-frequenza;
C
F ,
C
G = cifra di rumore / guadagno del down converter,
IF
F = cifra di
rumore dell’amplificatore a intermediate frequency). Come si nota, il
contributo maggiore sul rumore proviene sempre dal primo blocco della
cascata (che in questo caso è l’amplificatore a radio-frequenza). È dunque
opportuno che l’amplificatore a radio-frequenza sia un LNA (Low Noise
Amplifier).
2eq) un quadripolo ideale che schematizza tutta la circuiteria a IF/RF
(frequenza intermedia/radio frequenza) e cioè i componenti che nella
catena di trasmissione stanno dall’antenna ricevente (*) fino al
demodulatore escluso; tale quadripolo, che soddisfa le condizioni di non
distorsione di gruppo, lavorerà ad una propria banda B. A valle di questa
sezione si calcola, in genere, l’SNR (Signal to Noise ratio).
Nella risoluzione degli esercizi, ma anche concettualmente, è di grande utilità e
chiarezza disaccoppiare il rumore dai vari componenti e aggiungerlo “tutto in
una volta” a valle dell’antenna ricevente, caratterizzandolo come rumore
additivo gaussiano bianco ( ) t ν (AWGN, Additive White Gaussian Noise). Lo
spettro di potenza di questo rumore sarà costante e pari a
( )
0
2 2
SIST
N KT
G f
ν
= =


VII – RUMORE

Tutti i circuiti sono in generale sorgenti di fluttuazioni aleatorie nel tempo di tensioni
e/o correnti che si sovrappongono ai segnali stessi e che chiamiamo rumore. Le origini
di questo rumore sono riconducibili alle leggi che regolano il funzionamento
microscopico dei dispositivi, che sono di tipo statistico e non deterministico.

1. Le cause principali del rumore: effetto Johnson

Prendiamo un circuito semplicissimo, costituito da un resistore R e da un generatore
di tensione
0
V . La corrente che circola nel circuito, secondo la legge di Ohm, sarebbe:
0
V
I
R
=
Invece, si osserva che così non accade. L’evidenza sperimentale (effetto Johnson) è che
la corrente in realtà “oscilla” lievemente attorno a un valore medio, che è
effettivamente quello della legge di Ohm. Si ha dunque:
( )
0
V
i t
R
=
Mentre la corrente (istantanea) dipende dal tempo ed è pari a:
( ) ( )
0
V
i t i t
R
δ = +
Allo stesso modo, se nel circuito caviamo il generatore di tensione, ci aspetteremmo di
misurare una differenza di potenziale nulla ai suoi capi; anche questa volta, invece,
l’esperienza ci contraddice: quel che si osserva è che vi sono delle leggerissime
fluttuazioni attorno al valore nullo di tensione. Tale fluttuazioni sono fonte di rumore e
il resistore si dice dunque rumoroso: attuando un artificio teorico tale componente può
essere sostituito con un generatore di tensione fluttuante (generatore di rumore) e con
un resistore cosiddetto non rumoroso. Se siamo più generali (in modo da poter
quantificare l’effetto Johnson anche con induttori e condensatori), e prendiamo in
considerazione un’impedenza Z, l’artificio di cui sopra consiste nel sostituire tale
impedenza (rumorosa) con il famoso generatore di tensione fluttuante più la parte
puramente resistiva R dell’impedenza e la parte puramente reattiva di quest’ultima
eq
jX , entrambe non rumorose.
A cosa sono dovute le fluttuazioni? Il fatto è che il resistore è un conduttore e, in
quanto tale, possiede elettroni di conduzione che si muovono di agitazione termica
casuale e disordinata. A causa di questo movimento così caotico, sebbene mediamente
gli atomi e gli elettroni sono fermi, istantaneamente ciò non accade: tale fenomeno,
incontrollabile e assolutamente stocastico, dipende dalla temperatura – essendo
appunto dovuto ad agitazione termica – e, essendo a tutti gli effetti costituito dalla
somma di tantissimi processi indipendenti, è interpretabile come campione di un
processo aleatorio gaussiano ergodico a valor medio nullo e spettro bianco. Per
caratterizzare un processo gaussiano ergodico servono unicamente la funzione di
autocorrelazione o lo spettro di potenza: di quest’ultimo, in particolare, è stata data
un’espressione ricavata sperimentalmente
( )
2
1
e
h f
kT
Rh f
G f
e
=


In questa formula:
R è il valore, in Ohm, della resistenza in questione;
f è la frequenza alla quale stiamo lavorando;
k è la costante di Boltzmann (
23
1,38 10 J/K

⋅ );
h è la costante di Planck (
31
6,626 10 J/Hz

⋅ );
T è la temperatura del resistore, in gradi Kelvin.
Il grafico di questo spettro assume un valore costante (è bianco) per un range di
frequenze pari a
11 11
[ 10 , 10 ] − + , dopodiché decade nel giro di poche unità logaritmiche.
Per capire quale sia questo valore costante facciamo un passaggio al limite:
0
limite notevole
2 2
2
2
1
1 1
1
f
h f
kT
Rh f Rh f
R
RkT
h f
e
kT
kT

→ = =
+ −

.
perché
0
lim 1
x
x
e x

= +
Da cui:
( ) 2
e
G f RkT = ( ) 4
MONO
e
G f RkT = [V
2
/ Hz]
(formula di Nyquist)
È per questo motivo che, se
h f
kT
<< 1, e ciò – sapendo che
10
2 10
k
h
= ⋅ – avviene
proprio nel range di frequenze
11 11
[ 10 , 10 ] − + , lo spettro assume valore costante.

Alla luce dei calcoli appena fatti, vogliamo ora dare un’espressione del rumore in
funzione di una qualsivoglia porzione di banda [±f, ±(f+B)] (dove essa è costante):
consideriamo dunque un resistore R a temperatura assoluta T. La potenza del rumore
nella banda B sarà:
( )
2 2
,
2 2 4 V
e B B
P e t kTR B kTRB = ⋅ =


(nota: c’è 2B perché bisogna considerare sia la porzione positiva che quella negativa
delle frequenze)
Questo vuol dire che il valore efficace del segnale-rumore è:
,
4 V
B eff
e kTRB


Tipicamente la potenza di rumore è dell’ordine dei microVolt (esempio numerico con: R
= 1 kΩ, T = 290 K, B = 5 MHz Risultato: 9 µV): tale quantità potrebbe essere
rilevante se confrontata con segnali deboli, mentre è trascurabile con segnali
dell’ordine del Volt o milliVolt.

Alla luce dell’analisi appena fatta, possiamo dire che un qualsiasi resistore si comporta
come una sorgente calibrata di rumore.

1b. Adattamento in potenza: potenza disponibile

Se abbiamo un circuito costituito da due parti:
- una parte con un generatore di tensione ( )
S
e t dotato di resistenza
interna R;
- l’altra parte con un carico resistivo
C
R . A tale carico il generatore di
tensione cede una potenza
S
P .
Allora dicasi potenza disponibile della sorgente di segnale ( )
S
e t il valore
massimo di
S
P , cioè
max S
P . Si può dimostrare che, in questo semplice caso, il
massimo trasferimento di potenza si ha quando
C
R R = : allora si dice che il
carico è adattato alla sorgente. È facilissimo dimostrare che, se il carico è
adattato alla sorgente, la differenza di potenziale ai capi di
C
R è
( )
2
S
e t
(metà
della forza elettromotrice viene dissipata nella resistenza interna R, l’altra metà
è destinata al carico resistivo): di conseguenza la potenza
max S
P sarà
( )
2
2
,
max
4 4
S
S eff
S
e t
e
V
P
R R R
= = ≜
Questo valore ha più significati:
- è la potenza disponibile della sorgente;
- è la massima potenza trasferibile a un carico;
- è la potenza assorbita da un carico adattato.

Nel caso generale, lavorando con le impedenze, e avendo un circuito siffatto:
- da una parte un generatore di tensione ( )
S
e t dotato di impedenza
interna Z;
- dall’altra un carico resistivo
C
Z . A tale carico il generatore di tensione
cede una potenza
S
P .
Allora l’impedenza di carico è adattata quando
*
C
Z Z = .

1c. Guadagno disponibile di un apparato

Prendiamo un quadripolo generico Q:
- in “ingresso” poniamo un generatore di tensione ( )
S
e t dotato di
resistenza interna R. La potenza disponibile in entrata è quindi
max S
P ;
- in uscita sistemiamo un carico resistivo
C
R . Se ci poniamo in questa
parte del circuito e guardiamo verso la prima (cioè verso il quadripolo e il
generatore con resistenza), allora quest’ultima può essere vista (secondo
Thévenin) come la serie fra un generatore di f.e.m. ( )
SU
e t e la sua
resistenza interna
U
R (potenza disponibile
max SU
P ).
Allora il guadagno disponibile di un apparato è:
( )
max
max
, ,
SU
d d
S
P
G G f R Q
P
= =
Se il quadripolo è adattato sia in ingresso che in uscita, il guadagno disponibile
coincide con quello effettivo, cioè con
SU
S
P
G
P
=
L’adattamento in ingresso e in uscita si ha con:
(resistenza d'ingresso)
(resistenza d'uscita)
I
C U
R R
R R
= ¦
´
=
¹
.
Se poi, in particolare,
C
R R = si parla di livello di impedenza dell’apparato: tale
valore è quello che mi realizza l’adattamento in potenza.
Si po’ dimostrare che la coppia ( ) ,
I C
R R che risolve il sistema sopra indicato
esiste sempre ed è unica.

OSSERVAZIONI:
- le considerazioni appena fatte sono valide se è costante la frequenza di
lavoro f [Hz];
- nella pratica si cercano di fare impedenze puramente resistive e
costanti, in modo da ottimizzare la situazione;
- per fare queste osservazioni è sufficiente che Q sia lineare.

Se abbiamo una serie di apparati in cascata (quadripoli
1 2
, , ...,
n
Q Q Q con
guadagno rispettivamente pari a
1 2
, , ...,
d d dn
G G G ), allora possiamo sostituire
tale struttura con un unico quadripolo con guadagno disponibile
1

n
d di
i
G G
=
=


Anche in questo caso, il guadagno disponibile coincide col guadagno “vero” se
tutte le sezioni sono adattate.

Tornando alle nostre considerazioni sul rumore, consideriamo il solito semplicissimo
circuito formato da:
- una resistenza rumorosa, che è equivalente ad una resistenza ideale R in serie
con un generatore di f.e.m. fluttuante ( ) e t ;
- un carico adattato (quindi con resistenza pari a R).
Con le stesse ipotesi che abbiamo fatto prima possiamo dire che:
- la tensione ( ) t ν ai capi del carico adattato è pari a
( )
2
e t
(l’altra metà si è
dissipata sulla resistenza interna del generatore);
- lo spettro del monolatero del rumore è:
( )
2
V
Hz
MONO
G f kTR
ν

=


.
Quale sarà la potenza disponibile del rumore dN in una banda di ampiezza
infinitesima [±f, ±(f+df)] (ovvero la potenza ceduta al carico dalla resistenza
rumorosa)? Per trovarla basta fare:
d
d d
kTR f
N kT f
R
= = [W]
Possiamo infatti definire la densità spettrale di potenza ceduta al carico in termini di
Watt:
( )
d d
2 d 2 d 2
N
N kT f kT
G f
f f
= = =
⋅ ⋅

W
Hz



e ( )
MONO
N
G f kT =
(NOTA: il 2 al denominatore deriva dal fatto che c’è sia la parte di banda positiva che
quella negativa)

2. Le cause principali del rumore: rumore granulare (shot noise)

Consideriamo un circuito costituito da un generatore di tensione costante
0
V con in
serie un diodo a giunzione polarizzato nel senso della conduzione della tensione in
questione. Sperimentalmente si osserva che la corrente che scorre nel circuito è
lievemente fluttuante: l’espressione della corrente (che dunque è funzione del tempo)
risulta infatti essere
( ) ( )

0
fluttuazione
aleatoria
i t I i t δ = +
Quel che osserviamo è detto rumore granulare: esso è legato al carattere discreto del
flusso di corrente del dispositivo, che non è prodotto dal moto di un fluido continuo, ma
da portatori elementari di carica; si dice in particolare che la corrente ha un carattere
granulare in quanto gli elettroni non attraversano la giunzione in modo lineare. La
componente fluttuante che ne deriva è sperimentalmente considerabile come un
processo aleatorio gaussiano ergodico e, indicando con
K
τ la durata
dell’attraversamento della giunzione da parte del k-esimo portatore di carica, la
formula di Schottky ci dà l’espressione dello spettro di potenza (costante e dunque
bianco):
( )
0 i
G f qI
δ
=
2
A
Hz



per
1
max
K
f
τ
<<
Possiamo, anche per questo caso di studio, indicare un artificio teorico che permette di
sostituire a un diodo rumoroso un diodo non rumoroso posto in parallelo a un
generatore di corrente fluttuante ( ) i t δ legata a
0
I .
NOTA: lo shot noise non si può ridurre abbassando la temperatura.

3. Le cause principali del rumore: rumore di ripartizione (partition noise)

Il rumore di ripartizione entra in gioco dei dispositivi tripolari (ad es. il BJT) ed è
causato da quella parte di tensione che fuoriesce dalla base del transistore.

4. Le cause principali del rumore: rumore rosa (flicker noise)

Questo tipo di rumore è dovuto ad irregolarità e microimperfezioni nella costruzione
dei resistori, i quali si ritrovano ad avere resistenza leggermente variabile. La densità
spettrale di questo tipo di rumore è quantificabile in
( )
costante
G f
f
α
=
(con α circa uguale a 1)

5. Temperatura equivalente di rumore per apparati lineari

Per introdurre il concetto di temperatura equivalente di rumore prendiamo in
considerazione un quadripolo Q. Tale apparato produrrà, al suo interno, del rumore
dovuto agli effetti già visti (shot noise, rumore termico, etc…): se quindi, lavorando in
una banda di frequenze infinitesima [ ] , d f f f + prendiamo tale quadripolo rumoroso Q
(guadagno disponibile
d
G , tutte le sezioni adattate) e
- poniamo da una parte (ingresso) una resistenza R a temperatura assoluta
0
T
(potenza entrante nell’apparato
0
d d
i
N kT f = )
- colleghiamo agli altri due morsetti un carico adattato
C
R (potenza uscente
dall’apparato d
U
N )
allora possiamo dividere la potenza d
U
N in due contributi:
( ) ( ) ( )
potenza ceduta al contributo dovuto
carico se il quadripolo soltanto al rumore
non fosse rumoroso dell'apparato
d d d
U U A
N f N f N f ′ = +
. .

Utilizziamo ora le relazioni studiate e il guadagno disponibile per esprimere in un
altro modo questi due apporti di rumore:
( )

( )
0
d
d
potenza ceduta al
contributo dovuto
carico se il quadripolo
soltanto al rumore
non fosse rumoroso
dell'apparato
d d d
R d
KT G f
KT f
U I d A
N f N G N f
=
=
= ⋅ +

. .

Come si vede, abbiamo espresso il rumore dovuto all’apparato come d
R d
kT G f , dove
R
T incarna un delta di temperatura con il quale si può “convertire” il rumore del
quadripolo, “trasferendo la colpa di tutto sull’effetto Johnson” (cit.). In sostanza,
aggiungendo questo
R
T alla temperatura del resistore R (che va a
0 R
T T + ), e
considerando il quadripolo come non rumoroso, la situazione rimane invariata.
Dunque
( ) ( )
0 0
potenza ceduta al contributo dovuto
carico se il quadripolo soltanto al rumore
non fosse rumoroso dell'apparato
d d d d
U d R d R d
N f kT G f kT G f k T T G f = + = +
. .

da cui
( )
0
d
d
U
R
d
N f
T T
KG f
= + = temperatura equivalente di rumore dell’apparato
Come si nota, tale temperatura equivalente
0 eq R
T T T = + è funzione:
- del quadripolo (e del suo guadagno);
- della frequenza di lavoro;
- della resistenza R (per via dell’adattamento).
Interessante osservazione: non dipende da
0
T !

Com’è possibile misurare sperimentalmente la temperatura equivalente di rumore?
Si prende il solito trito e ritrtito apparato:
- quadripolo Q con guadagno disponibile
d
G ;
- resistenza R a temperatura T ai morsetti d’ingresso;
- potenza complessiva di rumore di uscita pari a d
U
N .
Poi si cambia la temperatura per avere:
- resistenza R a temperatura
*
T ai morsetti d’ingresso;
- potenza complessiva di rumore di uscita pari a
*
d
U
N .
Nel primo caso la potenza complessiva di rumore in uscita sarà:
d
U
N = ( ) d
R d
k T T G f +
Mentre, nel secondo caso:
*
d
U
N =
( )
*
d
R d
k T T G f +
Facendo il rapporto otteniamo:
( )
( )
* *
*
d
d
d
d
R d
U R
U R
R d
k T T G f
N T T
N T T
k T T G f
η
+
+
= = =
+
+

La temperatura equivalente di rumore è quindi esprimibile facilmente così:
*
1
R
T T
T
η
η

=



6. Cifra di rumore (NF, Noise Figure)

Consideriamo l’apparato visto nel paragrafo 5: un quadripolo rumoroso Q (guadagno
disponibile
d
G , tutte le sezioni adattate) con
- da una parte (ingresso) una resistenza R a temperatura assoluta
0
T (potenza
entrante nell’apparato
0
d d
i
N kT f = )
- agli altri due morsetti un carico adattato
C
R (potenza uscente dall’apparato
d
U
N ).
Come già abbiamo visto:
( ) ( ) ( )
0
potenza ceduta al
potenza ceduta al contributo dovuto
carico se il quadripolo
carico se il quadripolo soltanto al rumore
non fosse rumoroso
non fosse rumoroso dell'apparato
d d d d
U U A d
N f N f N f kT G f ′ = + =
.
. .
( )
0
contributo dovuto
soltanto al rumore
dell'apparato
d d
R d R d
kT G f k T T G f + = +
.


Definiamo allora cifra di rumore
d
d
U
U
N
F
N′
≜ ; tale quantità può essere anche espressa in
funzione di
0
T e
R
T :
( )
0
0
0 0 0
d
d
1
d d
R d
U R R
U d
k T T G f
N T T T
F
N kT G f T T
+
+
= = = +


Qui è evidente che:
- se
0 R
T T = 1 il quadripolo non è rumoroso;
- se
0 R
T T > 1 il quadripolo è rumoroso.

NOTE:
- la cifra di rumore è spesso espressa in dB:
[ ] dB
10log
U
U
dN
F
dN
=

;
- la cifra di rumore dipende da:
- il quadripolo Q;
- la frequenza di lavoro f;
- la resistenza R generatrice di rumore termico;
- la temperatura assoluta
0
T della resistenza R (se nulla si specifica, si
intende
0
290 K T = .
- se ho F posso trovare
R
T :
- ( )
0
1
R
T F T = − (con F in unità lineari).

Esaminiamo ora un caso particolare: prendiamo
- un attenuatore normale (cioè senza dispositivi a semiconduttore), ad esempio
un cavo, a temperatura assoluta
A
T e caratterizzato da parametro di
attenuazione A (si ricordi che
1
A G

= ). Potenza uscente dall’apparato d
U
N ;
- una resistenza R, anch’essa a temperatura
A
T , collegata all’attenuatore.
Allora, al solito,
( )

1
d d
U A R d
A
N k T T G f = + .
Ora applichiamo Thévenin all’uscita e guardiamo verso l’apparato (attenuatore +
resistenza): quel che vediamo è un’unica resistenza
U
R a temperatura
A
T . La potenza
ceduta al carico d
U
N può ora essere espressa in un secondo modo:
d d
U A
N kT f =
Ora uguagliamo le due quantità
( )
1
d d
A R A
k T T f kT f
A
+ =
( )
A R
A
T T
T
A
+
= ( ) 1
R A
T A T = −
Come abbiamo detto, se abbiamo F possiamo trovare
R
T (e viceversa); dunque:
( )
0 0
1
1 1
A
R
A T T
F
T T

= + = +
Se poniamo
0 A
T T = (lavoriamo a temperatura ambiente):
F A =

7. Apparati rumorosi in cascata e formula di Friis

Prendiamo una serie di n apparati rumorosi in cascata, tutti vicendevolmente adattati
fra di loro: al primo (
1
Q , caratterizzato da temperatura
1 R
T , guadagno disponibile
1 d
G ,
cifra di rumore
1
F ) colleghiamo in entrata un resistore R; in uscita poniamo un
secondo quadripolo (
2
Q , caratterizzato da temperatura
2 R
T , guadagno disponibile
2 d
G ,
cifra di rumore
2
F ) e poi continuiamo a collegare in serie fino all’ultimo componente
(
n
Q , caratterizzato da temperatura
Rn
T , guadagno disponibile
dn
G , cifra di rumore
n
F ). Si ha che a tale cascata di quadripoli equivale un solo quadripolo
eq
Q (anch’esso
adattato), caratterizzato da temperatura
R
T , guadagno disponibile
1
n
d di
i
G G
=
=

e cifra
di rumore F . Chiamiamo ancora una volta
d d
A R d
N kT G f =
la potenza ceduta al carico e dovuta a tutti gli apparati.
In realtà, d
A
N è la somma di tanti contributi:
parte di rumore indotta dal primo quadr
1 1 2 3
contributo del primo ... che passa attraverso tutti
quadripolo della serie... gli altri quadripoli della cascata
d d ...
A R d d d dn
N kT G f G G G = ⋅ ⋅ ⋅

. .
ipolo parte di rumore in
2 2 3 4
contributo del secondo ... che passa attraverso tutti
quadripolo della serie... gli altri quadripoli della cascata
d ...
R d d d dn
kT G f G G G + ⋅ ⋅ ⋅

. .
( ) ( )

dotta dal secondo quadripolo
parte di rumore indotta dal penultimo q
1 1
... che passa attraverso
contributo del penultimo
l'ultimo
quadripolo della serie...
...
d
n R n d n
kT G f G
− −
+ +

+ ⋅

.
parte di rumore indotta
uadripolo
dall'ultimo quadripolo
d d
Rn dn R d
kT G f kT G f + =

Se ora dividiamo per k, df e per
1 2 3
...
d d d d dn
G G G G G = ⋅ ⋅ otteniamo che
( )
2 3
1
1 1 2 1 2 3 1
...
...
R R Rn
R R
d d d d d d d n
T T T
T T
G G G G G G G

= + + + +
⋅ ⋅

Tale equazione è detta formula di Friis e illustra come, nella sommatoria che
costituisce l’apporto totale di rumore, il contributo del blocco i-esimo venga attenuato
dal prodotto dei guadagni dei blocchi che lo precedono. Appare quindi evidente che i
blocchi più critici siano i primi della serie, quelli in testa alla cascata: si vuole che
questi abbiano un guadagno molto alto e una piccola cifra di rumore e, dunque, che
possano essere considerati come dei LNA (Low Noise Amplifier, amplificatori a basso
rumore).
Sostituendo alla formula di Friis la relazione ( )
0
0
1 1
R
R
T
F T F T
T
= + ⇒ = − otteniamo:
( )
3 2
1
1 1 2 1 2 3 1
1 1 1
...
...
n
d d d d d d d n
F F F
F F
G G G G G G G

− − −
= + + + +
⋅ ⋅


8. Temperatura equivalente di rumore della sorgente

Le antenne e più generalmente le sorgenti di informazione, come gli altri componenti
che abbiamo preso fin’ora in considerazione, non sfuggono al rumore: una sorgente non
può essere semplicemente schematizzata come un generatore di tensione/corrente
perché
- avrà una sua resistenza interna R (consideriamola non rumorosa);
- genererà rumore per effetto termico e per altre cause (quali quelle già trattate)
generatore di rumore ( ) e t ;
- sarà sorgente di potenza utile generatore ideale di segnale ( )
S
e t .
Ponendo in serie queste tre entità ricaviamo una valida rappresentazione della nostra
sorgente e teniamo anche conto del rumore; possiamo quindi ridurre il numero di
questi componenti da tre a due con il solito escamotage, trasferendo, ovvero, tutta la
rumorosità sulla resistenza R (che consideriamo a temperatura più alta). Se il rumore
prodotto dalla sorgente e disponibile nella banda infinitesima di frequenza [ ] , d f f f +
lo addossiamo tutto quanto all’effetto Johnson, allora possiamo esprimerlo come
d d
S S
N kT f = . Dunque la temperatura equivalente di rumore della sorgente (detta
anche temperatura equivalente di rumore d’antenna) sarà
d
d
S
S
N
T
k f
=
Possiamo spingerci ancora più avanti e unificare il rumore d’antenna col rumore del
circuito a cui questa antenna è collegato (tipicamente il ricevitore, rappresentato come
un quadripolo Q, con sezioni tutte quante adattate). Prima di tutto trasferiamo tutta
la componente di disturbo come temperatura “virtuale” equivalente sulla resistenza R,
che sarà a temperatura:
SIST S R
T T T = +
(temperatura di sistema)
La densità spettrale di rumore di questo rumoroso resistore sarà, come abbiamo già
visto:
( )
2
V
2
Hz
e SIST
G f kT R

=



Il passo successivo è quello di disaccoppiare il rumore dalla resistenza R e
considerarlo, a parte, come generatore.
Avremo quindi, collegati a un quadripolo Q non rumoroso:
- un rumore complessivo ( ) e t (sotto forma di forza elettromotrice di rumore) che
tiene conto del rumore dell’antenna, della resistenza interna e dunque anche del
quadripolo (che ora è ideale);
- una resistenza R non rumorosa;
- la vera e propria sorgente di segnale utile ( )
S
e t .
Ai capi del quadripolo cui è collegata la serie di questi componenti avremo una caduta
di potenziale che sarà data dalla somma di due contributi:
- per il segnale utile ( )
S
e t : ( )
( )
2
S
e t
s t = ;
- per il rumore ( ) e t : ( )
( )
2
e t
t ν = (rumore additivo gaussiano bianco, AWGN)
spettro di potenza ( ) ( )
1
4
e
G f G f
ν
= =
2
V W
2 Hz 2 Hz
SIST SIST
kT R kT

=




;
in versione monolatera
( )
0
W W
Hz Hz
MONO
SIST
G f kT N
ν

= =


.
NOTA: il fattore 1/2 deriva dal fatto che metà di queste tensioni sono cadute sulla
resistenza non rumorosa R.
Siccome il quadripolo è lineare possiamo dare, in uscita, ( )
R
s t e ( ) n t . Ecco il percorso
completo:
- s(t) viene sommato al rumore ( ) t ν (che dipende da
SIST
T ). Il tutto in un solo
passaggio;
- ( ) ( ) s t t ν + passa attraverso il quadripolo;
- in uscita abbiamo ( )
R
s t + ( ) n t .
Come già detto si parla di AGN (Additive Gaussian Noise) e, più specificatamente, di
AWGN (Additive White Gaussian Noise).
VIII – LINEE DI TRASMISSIONE E
TRASMISSIONE ANALOGICA IN BANDA BASE

1. Generalità sulle linee di trasmissione

Per linea di trasmissione intendiamo generalmente una coppia di conduttori
tipicamente isolati. Una tratta di linea di trasmissione ha una certa impedenza;
consideriamo ad esempio una linea di lunghezza semi-infinita (oggetto
monodimensionale), collegata ad un generatore di onde sinusoidali: se fissiamo un
sistema di riferimento (semi-asse x) che ha per origine il generatore e che si estende
(infinitamente) nella direzione della linea di trasmissione, possiamo scegliere di porci
ad una determinata coordinata xɶ . Allora:
- se guardiamo nella direzione positiva dell’asse vedremo una certa impedenza
0
Z associata alla linea. Essendo la linea semi-infinita, tale impedenza sarà
sempre la stessa (ci si può spostare dove si vuole che, in ogni caso, si avranno
infiniti metri di linea da lì in poi). Per le linee ben costruite questa impedenza è
di tipo puramente resistivo ( [ ]
0
Z R = Ω ): i valori tipici di tale impedenza sono
stati standardizzati e posti pari a 50 o 75 Ω;
- mentre (nell’origine) il generatore di tensione emetteva un segnale sinusoidale
del tipo
( ) ( ) ( )
0 cos 2 0
M
V ft π ϕ +
alla coordinata xɶ la tensione sarà
( ) ( ) ( )
valore di picco
della sinusoide
cos 2
M
V x ft x π ϕ + ɶ ɶ
.

Il valore di picco ( )
M
V xɶ può essere calcolato in questo modo:
( ) ( ) 0
x
M M
V x V e
α −
=
ɶ
ɶ
Come si vede il decadimento è di tipo esponenziale ed è regolato dal parametro
( ) f α α =
(la dipendenza è secondo la f )
Il parametro x α è misurato spesso in unità logaritmiche:
- in Neper su unità di lunghezza:
( )
( )
( )
( )
0 0
1 Neper
ln ln
2 m
M
M
V P
x
V x P x
α

= =


;
- in decibel:
( )
( )
( )
( )
0 0
dB
20log 10log
m
M
M
V P
A
V x P x

= =


.
- la potenza media che entra nella linea alla sezione xɶ è
( )
( )
2
2
M
V x
P x
R
=
ɶ
ɶ [W]
(NOTA: il fattore 1/2 deriva dal fatto che calcoliamo una potenza media.
C’è di mezzo un coseno e il valor medio del cos
2
è proprio 1/2)
Per trovare la potenza entrante è possibile anche utilizzare la relazione
( )
0
10
x
P x P
α −
= ⋅
ɶ
ɶ
In questo caso il fattore di attenuazione ( ) f α α = è pari a
( )
( )
[ ] dB
10
0
10
A
P
P x
α = =
ɶ
.

2. Effetto del rumore sui collegamenti nella trasmissione analogica in banda
base

La trasmissione avviene in questa sequenza (NOTA: per ora trascuriamo il rumore):
- SORGENTE ANALOGICA: che emette un segnale analogico x(t);
- TRASMETTITORE: il quale, appunto, spedisce il segnale analogico attraverso
il mezzo di propagazione. Immaginiamo che sia anche LTI con funzione di
trasferimento ( )
T
H f ;
- MEZZO DI PROPAGAZIONE: è passa-basso (potrebbe essere anche la linea di
trasmissione di cui si parla nel paragrafo 1). Immaginiamo che sia anche LTI
con funzione di trasferimento ( )
MP
H f ;
- RICEVITORE: prende in consegna il segnale, che si suppone non distorto e
dunque avente la forma
( )
0
Ax t t −
Immaginiamo che il ricevitore sia anche LTI con funzione di trasferimento
( )
R
H f .
- DESTINATARIO.

Il segnale utile, in pratica, viaggia attraverso la cascata di:

trasmettitore + mezzo di propagazione + ricevitore
( )
T
H f ( )
MP
H f ( )
R
H f

Volendo che si verifichi la relazione
( ) ( )
0
v t Ax t t = −
e che il segnale v(t) sia una versione non distorta di x(t), dobbiamo porre il vincolo
sull’ampiezza
( ) ( ) ( )
T MP R
H f H f H f A ⋅ ⋅ =
e fissare la condizione sulla linearità dell’argomento
( ) ( ) ( ) ( )
0
arg 2
T MP R
H f H f H f ft π ⋅ ⋅ = −
Non è necessario che queste equazioni valgano per ogni f: è infatti sufficiente che siano
vere nella banda di lavoro
m
f f < . Per verificare tali condizioni di non distorsione
posso, ad esempio, agire sul ricevitore ed attribuire ad esso i vincoli di cui sopra,
modellando la sua funzione di trasferimento e rendendo il tutto complessivamente
non-distorcente:
( ) ( ) ( )
T MP R
H f H f H f A ⋅ ⋅ = ( )
( ) ( )
R
T MP
A
H f
H f H f
=


( ) ( ) ( ) ( )
0
arg 2
T MP R
H f H f H f ft π ⋅ ⋅ = − ( ) ( ) ( ) ( ) ( ) ( )
0
arg arg arg 2
R T MP
H f H f H f ft π = − − −
In queste due ultime relazioni scritte consiste la cosiddetta equalizzazione analogica.
Quel che salta subito all’occhio è che il ricevitore si configura come un componente
piuttosto semplice e comune e, cioè, come un filtro passa-basso (banda passante =
banda di lavoro). Ipotizziamo ora un modello possibile, all’interno di uno scenario
x(t) v(t)

siffatto (componenti tutti lineari, sezioni tutte quante adattate alla medesima
resistenza R), e andiamo a specificare le grandezze numeriche che ci interessano:
- sorgente: a temperatura equivalente di rumore
SORG
T ;
- trasmettitore: ( )
T
H f costante nella banda di lavoro e con valore
0 T
H . Questo
blocco ha inoltre un guadagno ( )
2
0 dT T
G H f = e temperatura equivalente di
rumore
rT
T ;
- mezzo di propagazione: ( )
MP
H f costante nella banda di lavoro e con valore
0 MP
H . Questo blocco ha inoltre un guadagno ( )
2
0 dMP MP
G H f = e temperatura
equivalente di rumore
rMP
T ;
- ricevitore: ( )
R
H f costante nella banda di lavoro e con valore
0 R
H . Questo
blocco ha inoltre un guadagno ( )
2
0 dR R
G H f = e temperatura equivalente di
rumore
rR
T ;
Fin’ora abbiamo ignorato gli effetti di rumore: ebbene, dove li collochiamo nella
cascata sopradescritta? Il disturbo che andiamo ad aggiungere è la somma di tanti
apporti generati da ogni componente (si noti infatti che ogni blocco ha la sua
temperatura equivalente di rumore); tuttavia, per semplicità, scegliamo un modello in
cui il rumore viene posto, una sola volta e tutto insieme, “a monte” del ricevitore
[rumore additivo ( ) t ν ]. Questo perché in tal modo riusciamo ad incorporare in una
“virtuosa” formulazione di ( )
R
H f sia la non distorsione (1° requisito) sia la parziale
eliminazione (tramite filtraggio) del rumore che si trova nelle frequenze che sappiamo
non essere di lavoro. Dunque
( ) ( ) ( )

0
rumore
versione non distorta
del segnale utile
v t Ax t t n t = − +
.

(NOTA: il rumore deve essere molto inferiore al segnale utile ( )
r
s t 2° requisito)
Al fine di effettuare un corretto confronto fra potenza di rumore e potenza del segnale
(come potrei, sennò, confrontare fra loro due componenti aleatorie?), così da avere un
parametro che indichi la bontà di un certo collegamento, si introduce l’indicatore
rapporto segnale/rumore (SNR, signal to noise ratio), riferito al punto di vista
dell’utente finale:
( )
( )
2
2
r
s t
SNR
n t

(NOTA: è un rapporto fra potenze – si tenga presente ciò nell’eventuale calcolo in dB;
l’SNR tiene conto di “quanto il segnale utile è più potente del rumore”: quindi più è
alto e meglio è! Una notazione alternativa per SNR è S/N)
Diamo, per completezza, i valori tipici di SNR per alcune applicazioni interessanti:
- telefonia (300 3400 Hz ∼ ): 25-35 dB
- audio HI-FI ( 20 15.000 Hz ∼ ): 60 dB
- video analogico (5 MHz): > 30 dB

Ricordiamoci ora delle condizioni di non distorsione per elaborare la relazione:
( ) ( ) ( )
T MP R
H f H f H f A ⋅ ⋅ = ( ) ( ) ( )

0
rumore
versione non distorta
v t Ax t t n t = − +
.

( ) ( ) ( ) ( ) ( ) ( )

0
rumore
versione non distorta
T MP R
v t H f H f H f x t t n t = ⋅ ⋅ − +
.

Utilizzando le caratteristiche dei sistemi LTI possiamo poi dare una relazione fra lo
spettro di potenza del rumore ( ) t ν (quello che entra prima del ricevitore) e fra
l’analogo spettro di n(t) (che è il rumore in uscita, ovvero ( ) t ν passato attraverso il
ricevitore):
( ) ( ) ( )
2
2
V

2 Hz
SIST
n R
kT R
G f G f H f
ν

=


=
.

(NOTA: facciamo l’ipotesi che la temperatura di sistema
SIST
T non dipenda in maniera
significativa da f nella banda che ci interessa)
Ora è agevole capire a quanto è pari la potenza del rumore n(t): abbiamo infatti tutte
quantità costanti nell’intervallo di frequenze che ci interessa (k è la costante di
Boltzmann, per
SIST
T è stata poco fa fatta l’ipotesi che sia costante, R è la resistenza di
adattamento e dunque non cambia, ( )
R
H f come si è già detto è costante e pari ad
0 R
H ).
( ) ( ) ( )
2
2
cambio di
estremi
d d 1 d
2 2
m
m
dR
f
SIST SIST
n R dR m SIST dR
f
G
kT R kT R
n t N G f f H f f G f f T G kR
+ +∞ +∞
−∞ −∞ −
=
= = = = =
∫ ∫ ∫
.
.

Giunti a questo punto, per capire a quanto è pari l’SNR, ci manca solo la potenza del
segnale utile, ma a questo punto è facile perché:
( ) ( ) ( ) ( ) ( ) ( )
0 0
versione non distorta
r T MP R
s t Ax t t H f H f H f x t t = − = ⋅ ⋅ −
.
( ) ( )

( ) ( ) ( ) ( ) ( )
2
2 2 2 2 2 2
0 0 0
costante
r T MP R
s t A x t t A x t t S H f H f H f x t t = − = − = = ⋅ ⋅ − =
( )
2
0 dT dMP dR
G G G x t t = −
Siamo dunque pronti e procediamo:
( )
( )
( ) ( )
2
potenza media del
segnale utile in uscita
dalla sorgente V
2 2 2
0 0
2
potenza media del segnale utile in uscita
dal mezzo di propagazione W
chiamia
r dT dMP dR dT dMP
m SIST dR
s t G G G x t t G G x t t
SNR
f T G kR R
n t




− −
= =


mo questa quantità "potenza ricevuta"
1
m SIST
f T k
.

Quanto vale
SIST
T ? Tale temperatura equivalente aggiunge rumore a monte del
ricevitore: per quantificarlo ragioniamo nel solito modo e consideriamo un apparato
fatto da
- un generatore di tensione in serie con la resistenza a temperatura
SORG
T ;
- un quadripolo (trasmettitore) con temperatura equivalente di rumore
rT
T ;
- un quadripolo (mezzo di propagazione) con temperatura equivalente di rumore
rMP
T ;
- un quadripolo (ricevitore) con temperatura equivalente di rumore
rR
T .
Ponendoci nei pressi dell’ingresso del ricevitore e guardando a monte del circuito ci
accorgiamo che non siamo in un caso leggermente più complicato di quello “base”
(generatore + resistenza + un solo quadripolo); qui ci sono più quadripoli: nessun
problema, comunque, perché ci basta applicare Thévenin per trasformare tutto quello
che c’è prima del generatore in una serie
generatore + resistenza R a temperatura
S
T
Dunque ora
SIST
T =
S
T (ciò che c’è prima del ricevitore) +
rR
T (il ricevitore).

Per calcolare
S
T dobbiamo aprire una piccola parentesi. Supponiamo di avere:
- un generatore di segnale in serie con una resistenza R a temperatura
resist
T ; tutto ciò è collegato ad un quadripolo con temperatura di rumore
quad
T e guadagno disponibile
d
G ;
Ora, come già abbiamo fatto altre volte nel capitolo VII, carichiamo sulle spalle
dell’effetto Johnson tutto il rumore che c’è (quadripolo + resistenza): ciò significa
far virtualmente innalzare la temperatura della resistenza R da
resist
T a
new
T ,
con la possibilità, però, di eliminare il quadripolo.
Nel primo caso abbiamo che la quantità infinitesima di potenza di rumore d
u
N
additabile alle frequenze [ ] , d f f f + è
( )
d d
u resist quad d
N k T T G f = +
Nel secondo caso, invece, si ha
d d
u new
N kT f =
Quindi, eguagliando :
( )
d d
new resist quad d
kT f k T T G f = +
( )
new resist quad d
T T T G = +

Torniamo al nostro problema: dobbiamo calcolare
S
T . Applichiamo due volte questa
regolina (nell’esempietto sopra avevamo solo un quadripolo, qui invece ne abbiamo
due):
PRIMA APPLICAZIONE (quadripolo coinvolto: trasmettitore):
regolina
( )
new resist quad d
T T T G = + ( )
S SORG rT dT
T T T G = +
SECONDA APPLICAZIONE (quadripoli coinvolti: trasmettitore e mezzo di
propagazione):
regolina
( )
new resist quad d
T T T G = + ( )
nuova
resist
T
S SORG rT dT rMP dMP
T T T G T G


= + +

Ora abbiamo tutto! La temperatura di rumore di sistema (complessiva, quella che
genera il rumore ( ) t ν senza bisogno di nessun altro apporto)
( )
SIST SORG rT dT rMP dMP rR
T T T G T G T = + + +






COMMENTI e OSSERVAZIONI:
- Molto spesso avviene che
rR
T sia molto più grande di
S
T e che e
SORG rT
T T
siano trascurabili.
- La temperatura equivalente di rumore del sistema
SIST
T non dipende dal
guadagno del ricevitore, perché tanto quest’ultimo agisce allo stesso modo sia
sul segnale utile che sul rumore.
- Non serve avere un ricevitore con elevato guadagno; conta invece avere un
ricevitore con bassa rumorosità e quindi piccola cifra di rumore.
- In un collegamento radio accade che, con la distanza, aumenta l’attenuazione
che il mezzo di propagazione causa al segnale. Dunque maggiore sarà
l’attenuazione e minore sarà la potenza ricevuta, così come più piccolo sarà il
rapporto SNR. A volte, per fissare un requisito di qualità che permetta una
corretta ricezione, si definisce l’SNR minimo
min
S S
N N
γ
| |
≥ =
|
\ ¹

E dunque

sensibilità
min
r
r m SIST R
m SIST
P
P f T k P
f T k
γ γ ≥ ⇒ ≥ =




IX - TRASMISSIONE NUMERICA PASSA-BASSO

1. Lo schema

• SORGENTE: trattasi di una sorgente numerica, che dunque emette un
insieme di bit { }
n
b in sequenza;
• CODIFICATORE DI LINEA: traduce i bit in simboli. Ad un simbolo
possono essere associati uno (o più) bit, tenendo ben presente che la
funzione in grado di legare uno (o più)
n
b al simbolo
n
a è biunivoca. Questo
componente ha una certa symbol rate
S
B (il che significa che emette un
simbolo ogni T secondi); da esso esce infine una sequenza di simboli { }
n
a ;
• MODULATORE PAM: a partire da una funzione impulsiva di base g(t),
questo componente modula forma tale impulso in ampiezza sulla base della
sequenza di simboli { }
n
a . Quel che esce da questo componente è una
funzione s(t);
• MEZZO DI PROPAGAZIONE: si comporta come un attenuatore ed è
assimilabile ad un sistema LTI con funzione di trasferimento ( )
MP
H f ;
• AMPLIFICATORE/EQUALIZZATORE: rimuove tutte le componenti che si
trovano nella banda in cui sappiamo non esserci il segnale (dunque rimuove
il rumore in eccesso filtrando il segnale che riceve in ingresso e che è
appena giunto a destinazione) e amplifica ciò che ha nella propria banda-
passante (cioè il segnale utile, se tutto è andato bene). Dà in uscita una
funzione ( ) v t ;
• CAMPIONATORE: esegue un campionamento con passo T (il tempo di
simbolo). Problema: dobbiamo fare in modo che il T del campionatore sia
esattamente pari al tempo di simbolo del codificatore di linea, altrimenti si
sballa tutta la catena. Per ottenere un sincronismo perfetto si utilizza un
circuitino chiamato estrattore di sincronismo di simbolo, il quale permette a
questo componente di scegliere gli istanti esatti
0 k
t t kT = + ; all’uscita del
campionatore abbiamo dunque una successione
( ) { }
k
v t ;
• DECISORE: fa una stima sui simboli
( ) { }
k
v t in modo da poter restituire la
sequenza { }
ˆ
n
a tanto più vicina a { }
n
a ;
• DECODIFICATORE: trasforma { }
ˆ
n
a in
{ }
ˆ
n
b compiendo l’operazione duale
rispetto al codificatore di linea;
• UTENTE: colui che (a meno di errori, che vogliamo siano il meno possibile)
riceve i bit
{ }
ˆ
n
b e dunque l’informazione che proviene dalla sorgente.

2. Misurazione della qualità

La qualità dell’informazione (ricevuta da parte di un destinatario) è tanto maggiore
tanto più ricalca il segnale originale (appena uscito dalla sorgente).
Un modo per misurare la qualità è quello di ottenere il tasso di errore per bit (BER, Bit
Error Rate) il quale è definito in questo modo:
bit errati
bit trasmessi
e
eb
N
T
N
≅ =
(quando N è molto grande)
I valori tipici che tale tasso assume dipendono dall’applicazione:
- trasmissione di voce convertita in digitale:
3
10

;
- trasmissione di video compresso (MPEG):
6
10

(l’alta compressione sottintende
che i singoli bit sono importantissimi!);
- trasmissione di dati molto importanti (ad es. conto bancario):
12
10

.

Un’altra maniera per esprimere la qualità è quello di valutare se la consegna dei bit
avviene nei tempi giusti; se, al contrario, essi non arrivano al destinatario con una
tempistica esatta, quel che si verifica è il cosiddetto fenomeno di gitter.
Altrimenti si può valutare se sono rispettati i requisiti sul ritardo (delay), i quali
fondamentalmente dipendono dall’applicazione con la quale si ha a che fare.

Siccome nella pratica avviene spessissimo che il processo, in base al quale si genera un
errore nella trasmissione, sia ergodico, allora possiamo effettuare l’equivalenza

Tasso di errore per bit = Probabilità di errore per bit
(stima a posteriori) (stima a priori)

eb
T =
eb
P
rilevazione orizzontale = rilevazione verticale

3. Il rumore e le sue conseguenze

Il problema del rumore e degli errori è di grande importanza: infatti, mentre il segnale
s(t) (quello che esce dal modulatore PAM) è molto “limpido” e regolare, il segnale v(t)
non è altrettanto chiaro a causa del rumore termico e dei contributi di rumore
apportati da circuiteria e mezzo di propagazione. In un modello interpretativo “a
soglia”, che vede il ricevitore scegliere tra un valore e un altro in base a se il segnale
sia sopra o sotto un determinato valore, potrebbero infatti esserci alcuni
fraintendimenti (ad es. uno “0” visto al posto di un “-1”).

Iniziamo dunque a scindere il problema nelle sue parti per vedere come porre rimedio
al rumore. Il segnale s(t) ha questa espressione
( ) ( )
n
n
s t a g t nT = −


in quanto nasce come somma di più impulsi modulati dai simboli
n
a e traslati nel
tempo di T in T. Tale segnale entra nel mezzo di propagazione, che si comporta come
un sistema LTI con funzione di trasferimento ( )
MP
H f . A valle di questo componente
simbolico compiamo un’astrazione e aggiungiamo, tutto in una volta, il rumore ( ) t ν
considerato come termico e come conseguenza di una temperatura di sistema
SIST
T .
Segnale e rumore entreranno quindi insieme nel secondo blocco astratto “ricevitore”
[funzione di trasferimento ( )
R
H f ] che dà come uscita
( ) ( ) ( )
r
v t s t n t = +
Studiamo ora il solo segnale utile: se chiamiamo
• g(t) l’impulso utilizzato dal modulatore PAM;
• r(t) il singolo impulso passato attraverso ( )
MP
H f e ( )
R
H f ;
• ( ) g t nT − l’impulso traslato;
• ( ) r t nT − la risposta all’impulso traslato (formulata utilizzando le ipotesi di
linearità e tempo-invarianza)…
… allora potremo dire che la risposta ( )
r
s t al segnale ( ) ( )
n
n
s t a g t nT = −

.
può essere espressa come combinazione lineare di impulsi tra loro distanti T, in questo
modo:
( ) ( )
r n
n
s t a r t nT = −


Per il principio di sovrapposizione degli effetti, il segnale utile che troviamo in fondo
all’intero blocco mezzo di propagazione-ricevitore è una combinazione lineare delle
tante risposte al sistema generate dalla sollecitazione degli impulsi del PAM.
Passiamo ora al rumore ( ) t ν (che, come abbiamo detto, viene inserito dopo il mezzo di
propagazione). Esso dovrà attraversare il solo blocco-astratto ricevitore [funzione di
trasferimento ( )
R
H f ], la cui uscita sarà in questo caso n(t). Detto questo, si può
esprimere una relazione tra lo spettro di potenza di ( ) t ν e quello di n(t):
( ) ( ) ( )
2
n R
G f G f H f
ν
=
Se teniamo conto del fatto che ( ) t ν è caratterizzabile come un processo aleatorio
ergodico a valor medio nullo, allora potremo dire che la sua potenza sarà:
( ) ( ) ( ) ( )
2 2
2
d d d
2
SIST
n n R R
kRT
P G f f G f H f f H f f
ν
σ
+∞ +∞ +∞
−∞ −∞ −∞
= = = =
∫ ∫ ∫

(NOTA: abbiamo utilizzato la formula del rumore termico a temperatura
SIST
T )
Abbiamo quindi dato una caratterizzazione a segnale utile e rumore, che – ricordiamo
– viaggiano “uniti” in v(t) con questa espressione:
( ) ( ) ( ) ( ) ( )
r n
n
v t s t n t a r t nT n t = + = − +


Come abbiamo spiegato nel paragrafo 1, questo segnale v(t) passa attraverso un
campionatore, il quale esegue un campionamento con passo T (il tempo di simbolo) in
modo da riottenere { }
n
a . I simboli campionati (agli istanti
k
t ) sono in sequenza e
hanno questa espressione
( ) ( ) ( ) ( )
0 k n k
n
v t a r t n k T n t = − − +


Tale campione è quello che verrà passato al decisore e quello sulla base del quale
dovremo valutare quale sarà effettivamente il k-simo simbolo.
Esistono, a tal proposito, due strategie di decisione:
- simbolo per simbolo (1 campione alla volta);
- stima di sequenza (si guardano più campioni alla volta prima di decidere).
Per ragioni di semplicità e brevità esamineremo soltanto il primo dei due casi.
Portiamo dunque fuori dall’ultima relazione scritta l’espressione concreta del generico
k-simo simbolo e noteremo che compaiono tre interessanti contributi!
( ) ( ) ( ) ( ) ( )

0 0
rumore
l'effettivo
-simo simbolo un contributo che dipende da tutti
i simboli trante il k-esimo
(interferenza inter-simbolo, o ISI
)
k k n k
n k
k
Inter Symbol Interference
v t a r t a r t n k T n t

= + − − +

Il primo contributo (come si può direttamente leggere sotto di esso) è quello del vero e
proprio k-simo simbolo. Esaminiamo ora meglio il secondo (interferenza ISI): anzitutto
è necessario specificare che non è detto che tale apporto (a tutti gli effetti disturbante e
quindi “rumoroso”) ci sia “per forza”. Esso c’è quando l’impulso-trasformato e modulato
( )
0 k
a r t è tanto “lungo”, nell’asse dei tempi, da interferire con quello immediatamente
successivo (e dunque, essendo tutti gli impulsi in sequenza, anche con quello
precedente). Dunque – ad esempio – il generico apporto ( )
0 k
a r t viene “disturbato”
dalle code di:
( ) ( ) ( ) ( )
2 0 1 0 1 0 2 0
... 2 , , , 2 ...
k k k k
a r t T a r t T a r t T a r t T
− − + +
− − + +
Il nostro obiettivo è ovviamente quello di eliminare l’interferenza ISI: si intende, da
come abbiamo esposto il problema, che la chiave di volta sta nel scegliere un impulso
g(t) [che diventa r(t) dopo essere passato da mezzo di propagazione e ricevitore] che
faccia al caso nostro. Intuitivamente si potrebbe pensare che sia sufficiente un vincolo
sulla durata dell’impulso in questione; in realtà – e qui sta la furbata – è sufficiente
che r(t) sia nullo agli istanti
0 0 0 0
..., 2 , , , 2 , ... t T t T t T t T − − + +
[NOTA:
0
t è un istante di campionamento, in particolare è quello in cui è centrato
l’impulso r(t). Se r(t), ad esempio, è una sinc, in
0
t tale funzione varrà 1]
Questo vincolo è davvero ingegnoso perché, se ripetiamo il ragionamento per l’impulso
successivo, esso – per rispettare le appena esposte condizioni di annullamento dell’ISI
– dovrà essere nullo agli istanti
( )
1 1 1 1 1
0 0 0 0
..., 3 , 2 , , , 2 , ... "nuovo impulso"

..., 2 , , , 2 , ... "vecchio impulso"
t T t T t T t T t T
t T t T t T t T r t
− − − + +
↓ ↓ ↓ ↓
− − + +

[NOTA:
1
t è l’istante di campionamento in cui è centrato l’impulso successivo ad r(t)]
Come si vede, gli istanti in cui l’impulso successivo ad r(t) è nullo vanno a coincidere
esattamente con quelli in cui proprio r(t) era nullo e, guarda caso, essi sono gli istanti
in cui il campionatore va a fare le sue rilevazioni, aiutato dall’estrattore di sincronismo
di simbolo. Riassumendo, se in tali punti l’impulso è nullo, l’ISI si elimina perché
automaticamente (possiamo dire per costruzione) gli impulsi successivi e precedenti
(traslati di T) passeranno attraverso di essi.
Quindi, in notazione matematica, questi sono i vincoli su r(t):
( )
( )
0 0 0
0
0 in
0 in , 0
r r t t t
r t
t t kT k
¦ = ≠ =
¦
=
´
= + ∀ ≠
¦
¹

Centrando il tutto nello zero (per semplicità) si ha:
( )
( )
0
0 0 in 0
0 in , 0
r r t
r t
t kT k
¦ = ≠ =
¦
=
´
= ∀ ≠ ¦
¹
ɶ
Come si traduce tale vincolo nel dominio delle frequenze? La trasformata della
successione dei punti di annullamento che ci interessano è:
( ) { }
0
0 0
j
S
r kT r e r
− ⋅

= =

ɶ F
(trasformata di una successione)
[NOTA: rimane soltanto un valore perché gli altri sono tutti pari a zero e quindi
rimangono tali]
Ora incrociamo questa relazione con quella della trasformata di un segnale periodico
nel dominio dei tempi:
( ) { }
1
S
n
n
r kT R f
T T
| |

= +
|

\ ¹

ɶ
ɶ F dove
( ) ( )
R f r t =

ɶ
ɶ F
Dunque possiamo creare la catena di uguaglianze
( ) { }
0
0 0
1
j
S
n
n
r kT r e r R f
T T

| |

= = = +
|

\ ¹

ɶ
ɶ F
Nel dominio delle frequenze, dunque, la condizione di annullamento dell’ISI (criterio di
Nyquist) è davvero singolare! Essa ci impone che, se ripetiamo periodicamente
l’impulso con passo
1
S
B
T
= (la symbol-rate), si debba ottenere la costante
0
n
n
R f r T
T
| |
+ =
|
\ ¹

ɶ

Diamo ora l’esempio di qualche impulso che funziona bene a questo scopo:
- il più semplice impulso di questo tipo è certamente quello che, nel dominio
delle frequenze, è rettangolare e di banda
2
S
B
(intervallo di frequenze
,
2 2
S S
B B



): se lo ripetiamo periodicamente per tutto l’asse delle frequenze
con passo
1
S
B
T
= , tutti i blocchetti rettangolari – cioè i singoli impulsi –
appariranno come consecutivi, formando una retta orizzontale (costante).
NOTA: la retta orizzontale in questione è frutto di una “falsa consecutività”; ad ogni ripetizione,
infatti, il punto di congiunzione fra due impulsi (i quali appaiono perfettamente adesi) è in
realtà sede di un punto di discontinuità locale nella derivata prima.
Nel dominio del tempo, un impulso del genere è una sinc:
( ) ( )
0
sinc
S
r t r tB = ɶ
Risulta facile verificare che ( ) r t ɶ rispetta le condizioni di annullamento dell’ISI
in quanto si annulla in …– 2T, – T, T, 2T…
- la famiglia di impulsi con un andamento anti-simmetrico rispetto alle rette
verticali
2
S
B
f = ± . Impulsi di questo tipo hanno una banda che può andare da
2
S
B
a
S
B , dipendentemente da “quanto in fretta” la funzione decade a zero
nell’intervallo ,
2
S
S
B
B



. Qualunque sia la forma di questi impulsi, se essi
rispettano l’anti-simmetria di cui sopra, allora sicuramente, qualora venissero
ripetuti periodicamente con passo
1
S
B
T
= e sommati tutti insieme, andrebbero
ad affiancarsi e a sormontarsi fino a formare una costante. Un andamento
simile potrebbe quello di un impulso trapezoidale centrato nell’origine e con lati
obliqui antisimmetrici rispetto a
2
S
B
f = ± (decadimento lineare verso lo zero)
oppure quello di un impulso con andamento “a coseno rialzato” (decadimento
non lineare, bensì “smussato”, verso lo zero). In quest’ultimo caso si parla di
fattore di roll-off α (con 0 1 α < < ): tale fattore indica in quale punto,
nell’intervallo ,
2
S
S
B
B



, l’impulso degrada a zero. Tale punto è infatti al
valore di frequenza ( ) 1
2
S
B
α + ; esaminiamo i casi limite:
- se 0 α = si torna nel caso di impulso rettangolare (rect con banda
2
S
B
)
visto poco fa;
- se 1 α = l’impulso somiglia più che altro a una gaussiana (derivata nulla
solo in 0 e fuori da [ ] ,
S S
B B − ).
Le funzioni a coseno rialzato hanno il fondamentale vantaggio di non avere
discontinuità nella derivata prima e per questo sono molto usate.

Qualche osservazione:
- abbiamo detto che ( ) r t ɶ è la versione centrata nello zero di ( ) r t . Sfruttando le
proprietà della trasformata di Fourier possiamo senz’altro dire che, nel dominio
delle frequenze, ciò comporti
( ) ( )
0
2 j ft
R f e R f
π
=
ɶ
⇔ ( ) ( )
0
2 j ft
R f R f e
π −
=
ɶ

- l’argomento di ( ) R f è lineare in f. Infatti, se ( ) R f
ɶ
è reale positiva, il suo
argomento è nullo e, dalle relazioni scritte sopra, si ha
( ) ( ) ( ) ( ) ( )
0 0
2 2
0 0
0
arg arg arg arg 2 2
j ft j ft
R f R f e R f R f e R f ft ft
π π
π π
− −
=
= ⇒ = − = − = −
ɶ ɶ ɶ

4. Equalizzazione e progettazione del ricevitore

Rimaniamo nel caso numerico e consideriamo il seguente schema:
impulso g(t), una rect [trasformata G(f), una sinc] entrante
- mezzo di propagazione con funzione di trasferimento ( )
MP
H f ;
- ricevitore ( )
R
H f ;
segnale r(t) [trasformata R(f)] uscente

Quel che ci chiediamo è: come possiamo progettare correttamente il filtro di ricezione,
in modo che quel che ricavo al’uscita sia una versione non distorta di g(t)?
Teoricamente mi servirebbe una banda enorme: G(f) è infatti una sinc e ha tanti lobi
che si estendono parecchio in là sull’asse delle frequenze; prenderli tutti è impossibile.
In realtà questa preoccupazione è superflua perché la distorsione del canale si può
spesso ignorare, rendendo l’annullamento dell’ISI sufficiente ad evitare gli errori:
l’informazione non è, infatti, nella forma d’onda (come nel caso analogico). Qui stiamo
parlando di trasmissione numerica e quel che importa è che il ricevitore riconosca
correttamente i simboli.

Supponiamo che R(f) sia una funzione a coseno rialzato e che sia conforme al criterio di
Nyquist. Ricordandoci dello schema che abbiamo fatto sopra, possiamo applicare le
proprietà della funzione di trasferimento e dire che:
( ) ( ) ( ) ( )
MP R
R f G f H f H f =
Dunque il ricevitore deve avere:
( )
( )
( ) ( )
R
MP
R f
H f
G f H f
=
Ma questo che significa? Contestualizziamo con un esempio:
- mezzo di propagazione ( )
0 MP MP
H f H = costante nella banda di lavoro;
- impulso g(t) di tipo NRZ (rettangolare);
- dunque si ha ( )
( )
( )
0
una sinc
(a coseno rialzato)
R
MP
R f
H f
G f H
=

Proviamo a graficare!
Abbiamo graficato R(f) (a
coseno rialzato) e la
trasformata di g(t) – ovvero G(f)
– che è una sinc; quindi
abbiamo disegnato ( )
1
G f

e
moltiplicato quest’ultima per
R(f) [
0 MP
H è una costante
quindi la lasciamo stare]. Quel
che salta fuori è una funzione
che in maniera evidente
distorce. La cosa è davvero poco
intuitiva ma, per avere una
corretta interpretazione del
segnale numerico, il blocco
ricevitore deve distorcere il
segnale nella banda di lavoro
(ed avere funzione di
trasferimento identicamente
nulla al di fuori di essa, in
modo da eliminare i rumori
inutili). D’altronde, come già
abbiamo detto, qui non accade
che l’informazione stia nella
forma d’onda del segnale, caso
in cui diventa di magistrale
importanza la non distorsione a
tutti i livelli.

5. Probabilità di errore con ISI nulla

Se l’equalizzazione è stata fatta per il verso, il generico simbolo della sequenza
( ) { }
k
v t
avrà questa forma, determinata dalla presenza di un segnale utile e di un rumore
additivo gaussiano (a valor medio nullo e varianza
2
σ ):
( )
( )

( )

( )

0 0
2
0
segnale utile rumore additivo
gaussiano: 0,
k k
r r t n n t
k k k
N
v t a r n
σ
= =
= +

Facciamo ora un esempio concreto: poniamo che i simboli
k
a siano quelli del codice
bipolare (e quindi +1 e –1, con sorgente bilanciata, il che significa { } 1
r k
P a = + =
{ } 1 1 2
r k
P a = = − = ) e che il decisore lavori simbolo per simbolo. Supponiamo poi, per
ipotesi, che
0
0 r > ; ebbene, se non ci fosse il rumore, avremmo che
( )
( )
( )
0
0
0 simbolo trasmesso: +1
0 simbolo trasmesso: 1
t
r
v k
r
¦ > ←
¦
=
´
− < ← −
¦
¹

Il decisore, in questo caso, avrebbe vita facilissima e ci beccherebbe sempre:
chiamando infatti ˆ
k
a il simbolo che verrà stimato dal componente, si ha che
( )
( )
ˆ se 0 allora 1
il decisore dice:
ˆ se 0 allora 1
k k
k k
v t a
v t a
¦ > = +
¦
´
< = −
¦
¹

ne consegue che
( )
ˆ sign
k k
a v t =


Ovviamente la realtà dei fatti non è così rosa e fiori. Il rumore, infatti, sporca la
chiarezza di ( )
k
v t in quanto aggiunge all’eventuale +
0
r o –
0
r una certa quantità
k
n ;
( )
0 k k
v t r n = ± +
siccome però il rumore è gaussiano a valor medio nullo, possiamo asserire che il
possibile scarto dal valore +
0
r o –
0
r sia simmetrico (e cioè corrispondente ad un
intervallo centrato proprio in +
0
r o –
0
r ).
Chiamiamo ora
e
P la probabilità di errore: essa sarà pari alla probabilità che il
simbolo stimato dal decisore sia diverso da quello trasmesso e cioè che
{ }
ˆ
e r k k
P P a a = ≠
Sfruttiamo il teorema della probabilità totale:
{ }
{ }
{ }
{ }
{ }
1 1
ˆ 1 1
k k
e r k k r k r k
e a e a
P P a a P P a P P a
=+ =−
= ≠ = = + + = −

la probabilità d’errore è cioè uguale alla probabilità che vi sia stato un errore con
simbolo trasmesso 1
k
a = + sommata alla probabilità che si sia verificata una non
corretta interpretazione nel caso 1
k
a = − .
Elaboriamo la nostra relazione:
{ }
( ) { }
{ }
( ) { }
1 1
0 1 0 1
k k
e r k k r k k
e a e a
P P P v t a P P v t a
=+ =−
= < = + + > = −
{ }
{ }
{ }
{ }
0 0
1 1
0 1 0 1
k k
e r k k r k k
e a e a
P P P r n a P P r n a
=+ =−
= + < = + + − + > = −
{ }
{ }
{ }
{ }
0 0
1 1
1 1
k k
e r k k r k k
e a e a
P P P n r a P P n r a
=+ =−
= < − = + + > = −
Dunque, utilizzando la funzione erfc, possiamo dire che:
0 0
1 1 1 1
erfc erfc
2 2 2 2
2 2
e
r r
P
σ σ
− | | | |
= ⋅ + ⋅
| |
\ ¹ \ ¹
0 0
1 1 1 1
erfc erfc
2 2 2 2
2 2
r r
σ σ
+ | | | |
= ⋅ + ⋅ =
| |
\ ¹ \ ¹

2
0 0
2
1 1
erfc erfc
2 2 2
2
eb eb
r r
P T
σ
σ
| |
= = = ≡
|
\ ¹

Tale espressione, grazie alle proprietà di ergodicità, caratterizza sia la probabilità che
si verifichi un errore nell’interpretazione del simbolo, sia la probabilità di errore per
bit, sia il tasso di errore di bit (identità di rilevazioni orizzontali e verticali).
NOTA: la quantità
2
0
2
2
r
σ
è, a tutti gli effetti, un rapporto S/N (più
0
r è distante
dall’origine e più è difficile che il rumore sia così potente da risultare, in modulo, più
intenso di
0
r ; d’altra parte, maggiore è la varianza e maggiormente si spancia la
gaussiana: conseguentemente, i valori assunti dal rumore potrebbero discostarsi di più
dal valore medio, che è zero e dunque è l’origine degli assi). Dunque posso decidere di
misurare questo SNR in decibel e di agire su di esso per avere una migliore
trasmissione. Infatti:
- aumentando
0
r il segnale è più robusto;
- diminuendo
2
σ il rumore si attenua.
Se poi consideriamo il codice bipolare come caso “estremo” di codice multilivello (con l
= 2), possiamo asserire che sia possibile estendere le considerazioni fatte fin’ora per l
anche maggiori di 2. Non è un’estensione complicata ed è, anzi, abbastanza naturale:
se prima avevamo due punti d’interpretazione nell’asse delle ( )
k
v t (e cioè quello del
simbolo +1 e quello del simbolo −1), ora ne avremmo 4 (oppure 8, o 16, etc…) tutti
equidistanti fra loro e con un proprio intervallino
in cui l’interpretazione è esatta. È intuitivo il fatto
che con un maggior numero di valori (e quindi
intervalli più stretti) diventa più facile, per un
rumore anche non troppo potente, sballare tutto.
Se riportiamo su un grafico cartesiano la
probabilità di errore in funzione del rapporto
segnale/rumore (v. figura a destra) notiamo
proprio che la BER (Bit Error Rate) aumenta con
l’aumentare del numero l di livelli. Ricordiamo
però che con un l maggiore si restringe la banda
che dobbiamo utilizzare per trasmettere il nostro segnale (e questo è indubbiamente
un vantaggio). Alla fine, come sempre, siamo alle prese con la scelta di un
compromesso che in questo caso è fra:
- quantità di banda occupata (l maggiore B minore);
- possibilità di errore (l maggiore BER maggiore).

6. Trasmissione su fibra ottica

Lo schema della trasmissione su fibra ottica è il seguente:
- SORGENTE BINARIA: emette bit { }
n
b ;
- CODIFICATORE: codifica i bit { }
n
b nei simboli { }
n
a , che però sono ancora
binari { } 0,1
n
a ∈ ;
- FOTOEMETTITORE: è modulato OOK (On-Off Keying);
- FIBRA OTTICA: che è il mezzo di trasmissione; le fibre ottiche sono filamenti
di materiali vetrosi con un diametro dell’ordine della decina di micron formato
da materiale dielettrico, come la silice, opportunamente drogato in modo da
avere una variazione omogenea dell’indice di rifrazione rispetto al rivestimento
esterno tale da costringere un’onda elettromagnetica a propagarsi lungo la
tratta senza apprezzabile irradiazione all’esterno. Le fibre ottiche sono
normalmente disponibili sotto forma di cavi e sono dunque classificate come
guide d'onda dielettriche. Vengono comunemente impiegate nelle comunicazioni
anche su grandi distanze e nella fornitura di accessi di rete a larga banda (dai
10 Mbit/s al Tbit/s usando le più raffinate tecnologie WDM – Wavelength
Division Multiplexing);
- DIODO FOTORILEVATORE: traduce gli impulsi ottici in corrente;
- RIGENERATORE NUMERICO: ripristina, a meno di errori, i simboli
trasmessi (stima { }
ˆ
n
a );
- DECODIFICATORE: dai simboli { }
ˆ
n
a passa ai bit (stimati)
{ }
ˆ
n
b ;
- UTENTE FINALE.

Le fibre ottiche presentano interessanti vantaggi:
- anzitutto disperdono pochissimo: il minor valore di attenuazione specifica
raggiungibile nella pratica è di circa 0,2 dB/Km (corrispondente alla lunghezza
d’onda 1,55 µm λ = frequenza
8
12
6
3 10
194 10 Hz
1,55 10
c
f
λ


= = = ⋅

), mentre
quello teorico è di 0,16 dB/Km (centinaia di unità logaritmiche inferiore a quello
dei conduttori ordinari: si noti che centinaia di unità logaritmiche è un’enormità
in unità lineari!!);
- utilizzando la WDM la quantità di dati trasmettibile con fibra ottica è
imbarazzantemente enorme: con 160 portanti a 4 Gbit/s si può realizzare una
capacità trasmissiva di circa 6 Tbit/s (giusto 1500 volte più veloce di una ADSL
a 4 Mega);
- non si necessita di rigeneratori intermedi, a meno di non voler superare le
centinaia di kilometri di lunghezza di linea; anche in questo caso, tuttavia,
esisterebbero amplificatori ottici (che non richiedono conversione dal dominio
ottico verso quello elettrico, né viceversa!) costituiti da spezzoni di fibra drogati
con erbio e muniti di un opportuno sistema di pompaggio (EDFA, Erbium Doped
Fibre Amplifier);
- posso sfruttare una banda di frequenze gigantesca: immaginiamo di prendere
sull’asse delle lunghezze d’onda λ un tratto infinitesimo ( dλ = 1 nm) di
possibili valori centrato su 1,55 µm λ = . Ad esso corrisponderebbero, in
frequenza:
( )
2
differenziamo!!
d
d d d
d
c
c c
f f
λ
λ λ
λ λ λ
= ⇒ = =

df = 125 GHz
I segnali appartenenti a questo piccolissimo intervallo di lunghezza d’onda
potrebbero offrire una banda entro la quale ci starebbe 135 volte l’intero spettro
di frequenze usato per la radiodiffusione sonora e televisiva. Niente male, eh?

Sign up to vote on this title
UsefulNot useful